]> nv-tegra.nvidia Code Review - linux-3.10.git/blobdiff - include/linux/iocontext.h
BKL: remove extraneous #include <smp_lock.h>
[linux-3.10.git] / include / linux / iocontext.h
index 593b222d9dcc25334be5ca6d05dc0a5ab413f5f5..b2eee896dcbc7506f528be8b06a1fe3728aca141 100644 (file)
@@ -2,57 +2,29 @@
 #define IOCONTEXT_H
 
 #include <linux/radix-tree.h>
-
-/*
- * This is the per-process anticipatory I/O scheduler state.
- */
-struct as_io_context {
-       spinlock_t lock;
-
-       void (*dtor)(struct as_io_context *aic); /* destructor */
-       void (*exit)(struct as_io_context *aic); /* called on task exit */
-
-       unsigned long state;
-       atomic_t nr_queued; /* queued reads & sync writes */
-       atomic_t nr_dispatched; /* number of requests gone to the drivers */
-
-       /* IO History tracking */
-       /* Thinktime */
-       unsigned long last_end_request;
-       unsigned long ttime_total;
-       unsigned long ttime_samples;
-       unsigned long ttime_mean;
-       /* Layout pattern */
-       unsigned int seek_samples;
-       sector_t last_request_pos;
-       u64 seek_total;
-       sector_t seek_mean;
-};
+#include <linux/rcupdate.h>
 
 struct cfq_queue;
 struct cfq_io_context {
        void *key;
-       unsigned long dead_key;
 
        struct cfq_queue *cfqq[2];
 
        struct io_context *ioc;
 
        unsigned long last_end_request;
-       sector_t last_request_pos;
 
        unsigned long ttime_total;
        unsigned long ttime_samples;
        unsigned long ttime_mean;
 
-       unsigned int seek_samples;
-       u64 seek_total;
-       sector_t seek_mean;
-
        struct list_head queue_list;
+       struct hlist_node cic_list;
 
        void (*dtor)(struct io_context *); /* destructor */
        void (*exit)(struct io_context *); /* called on task exit */
+
+       struct rcu_head rcu_head;
 };
 
 /*
@@ -60,7 +32,7 @@ struct cfq_io_context {
  * and kmalloc'ed. These could be shared between processes.
  */
 struct io_context {
-       atomic_t refcount;
+       atomic_long_t refcount;
        atomic_t nr_tasks;
 
        /* all the fields below are protected by this lock */
@@ -69,15 +41,19 @@ struct io_context {
        unsigned short ioprio;
        unsigned short ioprio_changed;
 
+#if defined(CONFIG_BLK_CGROUP) || defined(CONFIG_BLK_CGROUP_MODULE)
+       unsigned short cgroup_changed;
+#endif
+
        /*
         * For request batching
         */
-       unsigned long last_waited; /* Time last woken after wait for request */
        int nr_batch_requests;     /* Number of requests left in the batch */
+       unsigned long last_waited; /* Time last woken after wait for request */
 
-       struct as_io_context *aic;
        struct radix_tree_root radix_root;
-       void *ioc_data;
+       struct hlist_head cic_list;
+       void __rcu *ioc_data;
 };
 
 static inline struct io_context *ioc_task_link(struct io_context *ioc)
@@ -86,10 +62,30 @@ static inline struct io_context *ioc_task_link(struct io_context *ioc)
         * if ref count is zero, don't allow sharing (ioc is going away, it's
         * a race).
         */
-       if (ioc && atomic_inc_not_zero(&ioc->refcount))
+       if (ioc && atomic_long_inc_not_zero(&ioc->refcount)) {
+               atomic_inc(&ioc->nr_tasks);
                return ioc;
+       }
 
        return NULL;
 }
 
+struct task_struct;
+#ifdef CONFIG_BLOCK
+int put_io_context(struct io_context *ioc);
+void exit_io_context(struct task_struct *task);
+struct io_context *get_io_context(gfp_t gfp_flags, int node);
+struct io_context *alloc_io_context(gfp_t gfp_flags, int node);
+#else
+static inline void exit_io_context(struct task_struct *task)
+{
+}
+
+struct io_context;
+static inline int put_io_context(struct io_context *ioc)
+{
+       return 1;
+}
+#endif
+
 #endif