Merge tag 'mfd-for-linus-3.16-1' of git://git.kernel.org/pub/scm/linux/kernel/git...
[deliverable/linux.git] / include / linux / blk-mq.h
index 0120451545d8d2b85cc5eb10475359442f9d7460..a002cf1914270631a625aec015cc472f248f21cc 100644 (file)
@@ -8,7 +8,13 @@ struct blk_mq_tags;
 struct blk_mq_cpu_notifier {
        struct list_head list;
        void *data;
-       void (*notify)(void *data, unsigned long action, unsigned int cpu);
+       int (*notify)(void *data, unsigned long action, unsigned int cpu);
+};
+
+struct blk_mq_ctxmap {
+       unsigned int map_size;
+       unsigned int bits_per_word;
+       struct blk_align_bitmap *map;
 };
 
 struct blk_mq_hw_ctx {
@@ -18,7 +24,11 @@ struct blk_mq_hw_ctx {
        } ____cacheline_aligned_in_smp;
 
        unsigned long           state;          /* BLK_MQ_S_* flags */
-       struct delayed_work     delayed_work;
+       struct delayed_work     run_work;
+       struct delayed_work     delay_work;
+       cpumask_var_t           cpumask;
+       int                     next_cpu;
+       int                     next_cpu_batch;
 
        unsigned long           flags;          /* BLK_MQ_F_* flags */
 
@@ -27,13 +37,13 @@ struct blk_mq_hw_ctx {
 
        void                    *driver_data;
 
+       struct blk_mq_ctxmap    ctx_map;
+
        unsigned int            nr_ctx;
        struct blk_mq_ctx       **ctxs;
-       unsigned int            nr_ctx_map;
-       unsigned long           *ctx_map;
 
-       struct request          **rqs;
-       struct list_head        page_list;
+       unsigned int            wait_index;
+
        struct blk_mq_tags      *tags;
 
        unsigned long           queued;
@@ -41,31 +51,40 @@ struct blk_mq_hw_ctx {
 #define BLK_MQ_MAX_DISPATCH_ORDER      10
        unsigned long           dispatched[BLK_MQ_MAX_DISPATCH_ORDER];
 
-       unsigned int            queue_depth;
        unsigned int            numa_node;
        unsigned int            cmd_size;       /* per-request extra data */
 
+       atomic_t                nr_active;
+
        struct blk_mq_cpu_notifier      cpu_notifier;
        struct kobject          kobj;
 };
 
-struct blk_mq_reg {
+struct blk_mq_tag_set {
        struct blk_mq_ops       *ops;
        unsigned int            nr_hw_queues;
-       unsigned int            queue_depth;
+       unsigned int            queue_depth;    /* max hw supported */
        unsigned int            reserved_tags;
        unsigned int            cmd_size;       /* per-request extra data */
        int                     numa_node;
        unsigned int            timeout;
        unsigned int            flags;          /* BLK_MQ_F_* */
+       void                    *driver_data;
+
+       struct blk_mq_tags      **tags;
+
+       struct mutex            tag_list_lock;
+       struct list_head        tag_list;
 };
 
 typedef int (queue_rq_fn)(struct blk_mq_hw_ctx *, struct request *);
 typedef struct blk_mq_hw_ctx *(map_queue_fn)(struct request_queue *, const int);
-typedef struct blk_mq_hw_ctx *(alloc_hctx_fn)(struct blk_mq_reg *,unsigned int);
-typedef void (free_hctx_fn)(struct blk_mq_hw_ctx *, unsigned int);
 typedef int (init_hctx_fn)(struct blk_mq_hw_ctx *, void *, unsigned int);
 typedef void (exit_hctx_fn)(struct blk_mq_hw_ctx *, unsigned int);
+typedef int (init_request_fn)(void *, struct request *, unsigned int,
+               unsigned int, unsigned int);
+typedef void (exit_request_fn)(void *, struct request *, unsigned int,
+               unsigned int);
 
 struct blk_mq_ops {
        /*
@@ -85,12 +104,6 @@ struct blk_mq_ops {
 
        softirq_done_fn         *complete;
 
-       /*
-        * Override for hctx allocations (should probably go)
-        */
-       alloc_hctx_fn           *alloc_hctx;
-       free_hctx_fn            *free_hctx;
-
        /*
         * Called when the block layer side of a hardware queue has been
         * set up, allowing the driver to allocate/init matching structures.
@@ -98,6 +111,14 @@ struct blk_mq_ops {
         */
        init_hctx_fn            *init_hctx;
        exit_hctx_fn            *exit_hctx;
+
+       /*
+        * Called for every command allocated by the block layer to allow
+        * the driver to set up driver specific data.
+        * Ditto for exit/teardown.
+        */
+       init_request_fn         *init_request;
+       exit_request_fn         *exit_request;
 };
 
 enum {
@@ -107,18 +128,24 @@ enum {
 
        BLK_MQ_F_SHOULD_MERGE   = 1 << 0,
        BLK_MQ_F_SHOULD_SORT    = 1 << 1,
-       BLK_MQ_F_SHOULD_IPI     = 1 << 2,
+       BLK_MQ_F_TAG_SHARED     = 1 << 2,
+       BLK_MQ_F_SG_MERGE       = 1 << 3,
+       BLK_MQ_F_SYSFS_UP       = 1 << 4,
 
        BLK_MQ_S_STOPPED        = 0,
+       BLK_MQ_S_TAG_ACTIVE     = 1,
+
+       BLK_MQ_MAX_DEPTH        = 10240,
 
-       BLK_MQ_MAX_DEPTH        = 2048,
+       BLK_MQ_CPU_WORK_BATCH   = 8,
 };
 
-struct request_queue *blk_mq_init_queue(struct blk_mq_reg *, void *);
+struct request_queue *blk_mq_init_queue(struct blk_mq_tag_set *);
 int blk_mq_register_disk(struct gendisk *);
 void blk_mq_unregister_disk(struct gendisk *);
-int blk_mq_init_commands(struct request_queue *, int (*init)(void *data, struct blk_mq_hw_ctx *, struct request *, unsigned int), void *data);
-void blk_mq_free_commands(struct request_queue *, void (*free)(void *data, struct blk_mq_hw_ctx *, struct request *, unsigned int), void *data);
+
+int blk_mq_alloc_tag_set(struct blk_mq_tag_set *set);
+void blk_mq_free_tag_set(struct blk_mq_tag_set *set);
 
 void blk_mq_flush_plug_list(struct blk_plug *plug, bool from_schedule);
 
@@ -126,28 +153,28 @@ void blk_mq_insert_request(struct request *, bool, bool, bool);
 void blk_mq_run_queues(struct request_queue *q, bool async);
 void blk_mq_free_request(struct request *rq);
 bool blk_mq_can_queue(struct blk_mq_hw_ctx *);
-struct request *blk_mq_alloc_request(struct request_queue *q, int rw, gfp_t gfp);
-struct request *blk_mq_alloc_reserved_request(struct request_queue *q, int rw, gfp_t gfp);
-struct request *blk_mq_rq_from_tag(struct request_queue *q, unsigned int tag);
+struct request *blk_mq_alloc_request(struct request_queue *q, int rw,
+               gfp_t gfp, bool reserved);
+struct request *blk_mq_tag_to_rq(struct blk_mq_tags *tags, unsigned int tag);
 
 struct blk_mq_hw_ctx *blk_mq_map_queue(struct request_queue *, const int ctx_index);
-struct blk_mq_hw_ctx *blk_mq_alloc_single_hw_queue(struct blk_mq_reg *, unsigned int);
-void blk_mq_free_single_hw_queue(struct blk_mq_hw_ctx *, unsigned int);
+struct blk_mq_hw_ctx *blk_mq_alloc_single_hw_queue(struct blk_mq_tag_set *, unsigned int, int);
 
-bool blk_mq_end_io_partial(struct request *rq, int error,
-               unsigned int nr_bytes);
-static inline void blk_mq_end_io(struct request *rq, int error)
-{
-       bool done = !blk_mq_end_io_partial(rq, error, blk_rq_bytes(rq));
-       BUG_ON(!done);
-}
+void blk_mq_end_io(struct request *rq, int error);
+void __blk_mq_end_io(struct request *rq, int error);
 
+void blk_mq_requeue_request(struct request *rq);
+void blk_mq_add_to_requeue_list(struct request *rq, bool at_head);
+void blk_mq_kick_requeue_list(struct request_queue *q);
 void blk_mq_complete_request(struct request *rq);
 
 void blk_mq_stop_hw_queue(struct blk_mq_hw_ctx *hctx);
 void blk_mq_start_hw_queue(struct blk_mq_hw_ctx *hctx);
 void blk_mq_stop_hw_queues(struct request_queue *q);
-void blk_mq_start_stopped_hw_queues(struct request_queue *q);
+void blk_mq_start_hw_queues(struct request_queue *q);
+void blk_mq_start_stopped_hw_queues(struct request_queue *q, bool async);
+void blk_mq_delay_queue(struct blk_mq_hw_ctx *hctx, unsigned long msecs);
+void blk_mq_tag_busy_iter(struct blk_mq_tags *tags, void (*fn)(void *data, unsigned long *), void *data);
 
 /*
  * Driver command data is immediately after the request. So subtract request
@@ -162,12 +189,6 @@ static inline void *blk_mq_rq_to_pdu(struct request *rq)
        return (void *) rq + sizeof(*rq);
 }
 
-static inline struct request *blk_mq_tag_to_rq(struct blk_mq_hw_ctx *hctx,
-                                              unsigned int tag)
-{
-       return hctx->rqs[tag];
-}
-
 #define queue_for_each_hw_ctx(q, hctx, i)                              \
        for ((i) = 0; (i) < (q)->nr_hw_queues &&                        \
             ({ hctx = (q)->queue_hw_ctx[i]; 1; }); (i)++)
This page took 0.027839 seconds and 5 git commands to generate.