rcu: Avoid waking up CPUs having only kfree_rcu() callbacks
[linux-2.6.git] / include / linux / rcutree.h
index 0726809..7389248 100644 (file)
 #ifndef __LINUX_RCUTREE_H
 #define __LINUX_RCUTREE_H
 
-struct notifier_block;
-
-extern void rcu_sched_qs(int cpu);
-extern void rcu_bh_qs(int cpu);
+extern void rcu_init(void);
 extern void rcu_note_context_switch(int cpu);
 extern int rcu_needs_cpu(int cpu);
 extern void rcu_cpu_stall_reset(void);
 
-#ifdef CONFIG_TREE_PREEMPT_RCU
-
-extern void __rcu_read_lock(void);
-extern void __rcu_read_unlock(void);
-extern void synchronize_rcu(void);
-extern void exit_rcu(void);
-
 /*
- * Defined as macro as it is a very low level header
- * included from areas that don't even know about current
+ * Note a virtualization-based context switch.  This is simply a
+ * wrapper around rcu_note_context_switch(), which allows TINY_RCU
+ * to save a few bytes.
  */
-#define rcu_preempt_depth() (current->rcu_read_lock_nesting)
-
-#else /* #ifdef CONFIG_TREE_PREEMPT_RCU */
-
-static inline void __rcu_read_lock(void)
+static inline void rcu_virt_note_context_switch(int cpu)
 {
-       preempt_disable();
+       rcu_note_context_switch(cpu);
 }
 
-static inline void __rcu_read_unlock(void)
-{
-       preempt_enable();
-}
+#ifdef CONFIG_TREE_PREEMPT_RCU
 
-#define synchronize_rcu synchronize_sched
+extern void exit_rcu(void);
 
-static inline void exit_rcu(void)
-{
-}
+#else /* #ifdef CONFIG_TREE_PREEMPT_RCU */
 
-static inline int rcu_preempt_depth(void)
+static inline void exit_rcu(void)
 {
-       return 0;
 }
 
 #endif /* #else #ifdef CONFIG_TREE_PREEMPT_RCU */
 
-static inline void __rcu_read_lock_bh(void)
-{
-       local_bh_disable();
-}
-static inline void __rcu_read_unlock_bh(void)
-{
-       local_bh_enable();
-}
-
-extern void call_rcu_sched(struct rcu_head *head,
-                          void (*func)(struct rcu_head *rcu));
 extern void synchronize_rcu_bh(void);
-extern void synchronize_sched(void);
+extern void synchronize_sched_expedited(void);
 extern void synchronize_rcu_expedited(void);
 
+void kfree_call_rcu(struct rcu_head *head, void (*func)(struct rcu_head *rcu));
+
 static inline void synchronize_rcu_bh_expedited(void)
 {
        synchronize_sched_expedited();
 }
 
 extern void rcu_barrier(void);
+extern void rcu_barrier_bh(void);
+extern void rcu_barrier_sched(void);
 
-extern void rcu_check_callbacks(int cpu, int user);
-
+extern unsigned long rcutorture_testseq;
+extern unsigned long rcutorture_vernum;
 extern long rcu_batches_completed(void);
 extern long rcu_batches_completed_bh(void);
 extern long rcu_batches_completed_sched(void);
+
 extern void rcu_force_quiescent_state(void);
 extern void rcu_bh_force_quiescent_state(void);
 extern void rcu_sched_force_quiescent_state(void);
 
-#ifdef CONFIG_NO_HZ
-void rcu_enter_nohz(void);
-void rcu_exit_nohz(void);
-#else /* CONFIG_NO_HZ */
-static inline void rcu_enter_nohz(void)
-{
-}
-static inline void rcu_exit_nohz(void)
-{
-}
-#endif /* CONFIG_NO_HZ */
-
 /* A context switch is a grace period for RCU-sched and RCU-bh. */
 static inline int rcu_blocking_is_gp(void)
 {
+       might_sleep();  /* Check for RCU read-side critical section. */
        return num_online_cpus() == 1;
 }