urcu-qsbr: skip Q.S. reporting if already reported
authorMathieu Desnoyers <mathieu.desnoyers@efficios.com>
Sun, 11 Nov 2012 16:20:07 +0000 (11:20 -0500)
committerMathieu Desnoyers <mathieu.desnoyers@efficios.com>
Sun, 11 Nov 2012 16:20:07 +0000 (11:20 -0500)
We can skip both memory barriers and store reporting quiescent state if
we notice we already reported Q.S. for the current value of
"rcu_gp_ctr".

It covers the two implementations of QSBR:

* 64-bit architecture: we assume the counter never overflows, and
  therefore only perform one increment followed by waiting for readers.
  In this scenario, we don't care if the rcu_gp_ctr load is moved into
  the prior read-side critical section, as long as the
  URCU_TLS(rcu_reader).ctr store is ordered.

* 32-bit architecture: given the 32-bit counter could overflow,
  we rely on a 2-phase approach, using a single bit: we flip
  the rcu_gp_ctr bit, then wait to observe that all readers have
  taken a copy of the new rcu_gp_ctr. We flip it again, and wait until
  we observe that all readers have copied its new value. We are then
  certain that each reader necessarily passed through a quiescent state
  during the grace period (and that Q.S. was not located prior to our
  grace period). This scheme works even if the rcu_gp_ctr load is moved
  into the prior read-side critical section, as long as store to
  URCU_TLS(rcu_reader).ctr is ordered with respect to other memory
  accesses within that thread.

Suggested-by: Alan Stern <stern@rowland.harvard.edu>
Signed-off-by: Mathieu Desnoyers <mathieu.desnoyers@efficios.com>
Acked-by: Alan Stern <stern@rowland.harvard.edu>
Acked-by: Paul E. McKenney <paulmck@linux.vnet.ibm.com>
urcu/static/urcu-qsbr.h

index c8a87b8d777a7ce0bcae127a5d1bd1545bfee561..f3149569b2a2e2573df57936673d82eaadf0e1d7 100644 (file)
@@ -180,20 +180,43 @@ static inline void _rcu_read_unlock(void)
 {
 }
 
+/*
+ * This is a helper function for _rcu_quiescent_state().
+ * The first cmm_smp_mb() ensures memory accesses in the prior read-side
+ * critical sections are not reordered with store to
+ * URCU_TLS(rcu_reader).ctr, and ensures that mutexes held within an
+ * offline section that would happen to end with this
+ * rcu_quiescent_state() call are not reordered with
+ * store to URCU_TLS(rcu_reader).ctr.
+ */
+static inline void _rcu_quiescent_state_update_and_wakeup(unsigned long gp_ctr)
+{
+       cmm_smp_mb();
+       _CMM_STORE_SHARED(URCU_TLS(rcu_reader).ctr, gp_ctr);
+       cmm_smp_mb();   /* write URCU_TLS(rcu_reader).ctr before read futex */
+       wake_up_gp();
+       cmm_smp_mb();
+}
+
 /*
  * Inform RCU of a quiescent state.
  *
  * This function is less than 10 lines long.  The intent is that this
  * function meets the 10-line criterion for LGPL, allowing this function
  * to be invoked directly from non-LGPL code.
+ *
+ * We skip the memory barriers and gp store if our local ctr already
+ * matches the global rcu_gp_ctr value: this is OK because a prior
+ * _rcu_quiescent_state() or _rcu_thread_online() already updated it
+ * within our thread, so we have no quiescent state to report.
  */
 static inline void _rcu_quiescent_state(void)
 {
-       cmm_smp_mb();
-       _CMM_STORE_SHARED(URCU_TLS(rcu_reader).ctr, _CMM_LOAD_SHARED(rcu_gp_ctr));
-       cmm_smp_mb();   /* write URCU_TLS(rcu_reader).ctr before read futex */
-       wake_up_gp();
-       cmm_smp_mb();
+       unsigned long gp_ctr;
+
+       if ((gp_ctr = CMM_LOAD_SHARED(rcu_gp_ctr)) == URCU_TLS(rcu_reader).ctr)
+               return;
+       _rcu_quiescent_state_update_and_wakeup(gp_ctr);
 }
 
 /*
This page took 0.025962 seconds and 4 git commands to generate.