Cleanup: header comments coding style
authorMathieu Desnoyers <mathieu.desnoyers@efficios.com>
Mon, 21 May 2012 22:35:22 +0000 (18:35 -0400)
committerMathieu Desnoyers <mathieu.desnoyers@efficios.com>
Mon, 21 May 2012 22:36:05 +0000 (18:36 -0400)
Signed-off-by: Mathieu Desnoyers <mathieu.desnoyers@efficios.com>
urcu/arch/generic.h
urcu/system.h
urcu/uatomic/generic.h
urcu/uatomic/ppc.h
urcu/uatomic/x86.h

index 1ea7f59ca396d0c13d49372ccb26976bbed2d2d8..5ec3a114763e458869a62d2518a1cf9dc2ce7050 100644 (file)
@@ -37,9 +37,9 @@ extern "C" {
 /*
  * Architectures with cache coherency must _not_ define cmm_mc/cmm_rmc/cmm_wmc.
  *
- * For them, cmm_mc/cmm_rmc/cmm_wmc are implemented with a * simple compiler barrier;
- * in addition, we provide defaults for cmm_mb (using GCC builtins) as well as
- * cmm_rmb and cmm_wmb (defaulting to cmm_mb).
+ * For them, cmm_mc/cmm_rmc/cmm_wmc are implemented with a simple
+ * compiler barrier; in addition, we provide defaults for cmm_mb (using
+ * GCC builtins) as well as cmm_rmb and cmm_wmb (defaulting to cmm_mb).
  */
 
 #ifndef cmm_mb
@@ -61,14 +61,14 @@ extern "C" {
 /*
  * Architectures without cache coherency need something like the following:
  *
- * #define cmm_mc()            arch_cache_flush() 
+ * #define cmm_mc()    arch_cache_flush() 
  * #define cmm_rmc()   arch_cache_flush_read()
  * #define cmm_wmc()   arch_cache_flush_write()
  *
- * Of these, only cmm_mc is mandatory.  cmm_rmc and cmm_wmc default to cmm_mc.  
- * cmm_mb/cmm_rmb/cmm_wmb use these definitions by default:
+ * Of these, only cmm_mc is mandatory. cmm_rmc and cmm_wmc default to
+ * cmm_mc. cmm_mb/cmm_rmb/cmm_wmb use these definitions by default:
  *
- * #define cmm_mb()            cmm_mc()
+ * #define cmm_mb()    cmm_mc()
  * #define cmm_rmb()   cmm_rmc()
  * #define cmm_wmb()   cmm_wmc()
  */
index 38e8ecc771b345c1e463742a446b62f90cbad8d7..acce7e978cc9ba5d392c252612c53880ddab329f 100644 (file)
@@ -23,7 +23,8 @@
 #include <urcu/arch.h>
 
 /*
- * Identify a shared load. A cmm_smp_rmc() or cmm_smp_mc() should come before the load.
+ * Identify a shared load. A cmm_smp_rmc() or cmm_smp_mc() should come
+ * before the load.
  */
 #define _CMM_LOAD_SHARED(p)           CMM_ACCESS_ONCE(p)
 
        })
 
 /*
- * Identify a shared store. A cmm_smp_wmc() or cmm_smp_mc() should follow the store.
+ * Identify a shared store. A cmm_smp_wmc() or cmm_smp_mc() should
+ * follow the store.
  */
 #define _CMM_STORE_SHARED(x, v)        ({ CMM_ACCESS_ONCE(x) = (v); })
 
 /*
- * Store v into x, where x is located in shared memory. Performs the required
- * cache flush after writing. Returns v.
+ * Store v into x, where x is located in shared memory. Performs the
+ * required cache flush after writing. Returns v.
  */
 #define CMM_STORE_SHARED(x, v)         \
        ({                              \
index 9e2e78086c220b7286c508403069d5aa3b27e246..54d2a8c34a4b744fa021e03ef4fd0a78eb343465 100644 (file)
@@ -41,8 +41,10 @@ static inline __attribute__((always_inline))
 void _uatomic_link_error()
 {
 #ifdef ILLEGAL_INSTR
-       /* generate an illegal instruction. Cannot catch this with linker tricks
-        * when optimizations are disabled. */
+       /*
+        * generate an illegal instruction. Cannot catch this with
+        * linker tricks when optimizations are disabled.
+        */
        __asm__ __volatile__(ILLEGAL_INSTR);
 #else
        __builtin_trap ();
index ee3c516645cbe3899fab919bbcf208c5229ffa0b..57fcd7a6dcb447dc099f6ee9238108704b303a97 100644 (file)
@@ -93,8 +93,10 @@ unsigned long _uatomic_exchange(void *addr, unsigned long val, int len)
        }
 #endif
        }
-       /* generate an illegal instruction. Cannot catch this with linker tricks
-        * when optimizations are disabled. */
+       /*
+        * generate an illegal instruction. Cannot catch this with
+        * linker tricks when optimizations are disabled.
+        */
        __asm__ __volatile__(ILLEGAL_INSTR);
        return 0;
 }
@@ -153,8 +155,10 @@ unsigned long _uatomic_cmpxchg(void *addr, unsigned long old,
        }
 #endif
        }
-       /* generate an illegal instruction. Cannot catch this with linker tricks
-        * when optimizations are disabled. */
+       /*
+        * generate an illegal instruction. Cannot catch this with
+        * linker tricks when optimizations are disabled.
+        */
        __asm__ __volatile__(ILLEGAL_INSTR);
        return 0;
 }
@@ -210,8 +214,10 @@ unsigned long _uatomic_add_return(void *addr, unsigned long val,
        }
 #endif
        }
-       /* generate an illegal instruction. Cannot catch this with linker tricks
-        * when optimizations are disabled. */
+       /*
+        * generate an illegal instruction. Cannot catch this with
+        * linker tricks when optimizations are disabled.
+        */
        __asm__ __volatile__(ILLEGAL_INSTR);
        return 0;
 }
index c55ac4e49c667a8d45df3654acb047d48bd1c5e2..ce1ce5e9b48b75f193d9c80f81977c2005888492 100644 (file)
@@ -95,8 +95,10 @@ unsigned long __uatomic_cmpxchg(void *addr, unsigned long old,
        }
 #endif
        }
-       /* generate an illegal instruction. Cannot catch this with linker tricks
-        * when optimizations are disabled. */
+       /*
+        * generate an illegal instruction. Cannot catch this with
+        * linker tricks when optimizations are disabled.
+        */
        __asm__ __volatile__("ud2");
        return 0;
 }
@@ -157,8 +159,10 @@ unsigned long __uatomic_exchange(void *addr, unsigned long val, int len)
        }
 #endif
        }
-       /* generate an illegal instruction. Cannot catch this with linker tricks
-        * when optimizations are disabled. */
+       /*
+        * generate an illegal instruction. Cannot catch this with
+        * linker tricks when optimizations are disabled.
+        */
        __asm__ __volatile__("ud2");
        return 0;
 }
@@ -222,8 +226,10 @@ unsigned long __uatomic_add_return(void *addr, unsigned long val,
        }
 #endif
        }
-       /* generate an illegal instruction. Cannot catch this with linker tricks
-        * when optimizations are disabled. */
+       /*
+        * generate an illegal instruction. Cannot catch this with
+        * linker tricks when optimizations are disabled.
+        */
        __asm__ __volatile__("ud2");
        return 0;
 }
@@ -278,8 +284,10 @@ void __uatomic_and(void *addr, unsigned long val, int len)
        }
 #endif
        }
-       /* generate an illegal instruction. Cannot catch this with linker tricks
-        * when optimizations are disabled. */
+       /*
+        * generate an illegal instruction. Cannot catch this with
+        * linker tricks when optimizations are disabled.
+        */
        __asm__ __volatile__("ud2");
        return;
 }
@@ -332,8 +340,10 @@ void __uatomic_or(void *addr, unsigned long val, int len)
        }
 #endif
        }
-       /* generate an illegal instruction. Cannot catch this with linker tricks
-        * when optimizations are disabled. */
+       /*
+        * generate an illegal instruction. Cannot catch this with
+        * linker tricks when optimizations are disabled.
+        */
        __asm__ __volatile__("ud2");
        return;
 }
@@ -386,8 +396,10 @@ void __uatomic_add(void *addr, unsigned long val, int len)
        }
 #endif
        }
-       /* generate an illegal instruction. Cannot catch this with linker tricks
-        * when optimizations are disabled. */
+       /*
+        * generate an illegal instruction. Cannot catch this with
+        * linker tricks when optimizations are disabled.
+        */
        __asm__ __volatile__("ud2");
        return;
 }
@@ -494,8 +506,10 @@ void __uatomic_dec(void *addr, int len)
        }
 #endif
        }
-       /* generate an illegal instruction. Cannot catch this with linker tricks
-        * when optimizations are disabled. */
+       /*
+        * generate an illegal instruction. Cannot catch this with
+        * linker tricks when optimizations are disabled.
+        */
        __asm__ __volatile__("ud2");
        return;
 }
This page took 0.031997 seconds and 4 git commands to generate.