]> git.baikalelectronics.ru Git - kernel.git/commitdiff
blk-mq-sched: make completed_request() callback more useful
authorOmar Sandoval <osandov@fb.com>
Fri, 14 Apr 2017 08:00:01 +0000 (01:00 -0700)
committerJens Axboe <axboe@fb.com>
Fri, 14 Apr 2017 20:06:57 +0000 (14:06 -0600)
Currently, this callback is called right after put_request() and has no
distinguishable purpose. Instead, let's call it before put_request() as
soon as I/O has completed on the request, before we account it in
blk-stat. With this, Kyber can enable stats when it sees a latency
outlier and make sure the outlier gets accounted.

Signed-off-by: Omar Sandoval <osandov@fb.com>
Signed-off-by: Jens Axboe <axboe@fb.com>
block/blk-mq-sched.h
block/blk-mq.c
include/linux/elevator.h

index f4bc186c34409052ba8c0778ee37c5c16179cae6..120c6abc37cc9d8c5b30aca520be5f99ad3f1aee 100644 (file)
@@ -82,17 +82,12 @@ blk_mq_sched_allow_merge(struct request_queue *q, struct request *rq,
        return true;
 }
 
-static inline void
-blk_mq_sched_completed_request(struct blk_mq_hw_ctx *hctx, struct request *rq)
+static inline void blk_mq_sched_completed_request(struct request *rq)
 {
-       struct elevator_queue *e = hctx->queue->elevator;
+       struct elevator_queue *e = rq->q->elevator;
 
        if (e && e->type->ops.mq.completed_request)
-               e->type->ops.mq.completed_request(hctx, rq);
-
-       BUG_ON(rq->internal_tag == -1);
-
-       blk_mq_put_tag(hctx, hctx->sched_tags, rq->mq_ctx, rq->internal_tag);
+               e->type->ops.mq.completed_request(rq);
 }
 
 static inline void blk_mq_sched_started_request(struct request *rq)
index 7138cd98146ec2661136cb2ae17a75f6c9e88de0..e2ef7b4609243d507c4e4a75cb7edf3dca07f89c 100644 (file)
@@ -350,7 +350,7 @@ void __blk_mq_finish_request(struct blk_mq_hw_ctx *hctx, struct blk_mq_ctx *ctx,
        if (rq->tag != -1)
                blk_mq_put_tag(hctx, hctx->tags, ctx, rq->tag);
        if (sched_tag != -1)
-               blk_mq_sched_completed_request(hctx, rq);
+               blk_mq_put_tag(hctx, hctx->sched_tags, ctx, sched_tag);
        blk_mq_sched_restart(hctx);
        blk_queue_exit(q);
 }
@@ -444,6 +444,9 @@ static void __blk_mq_complete_request(struct request *rq)
 {
        struct request_queue *q = rq->q;
 
+       if (rq->internal_tag != -1)
+               blk_mq_sched_completed_request(rq);
+
        blk_mq_stat_add(rq);
 
        if (!q->softirq_done_fn)
index b7ec315ee7e759cad0ea8effb94214b1ec569519..3a216318ae739a05daa9e65a9f4c872bebc01c14 100644 (file)
@@ -106,7 +106,7 @@ struct elevator_mq_ops {
        void (*insert_requests)(struct blk_mq_hw_ctx *, struct list_head *, bool);
        struct request *(*dispatch_request)(struct blk_mq_hw_ctx *);
        bool (*has_work)(struct blk_mq_hw_ctx *);
-       void (*completed_request)(struct blk_mq_hw_ctx *, struct request *);
+       void (*completed_request)(struct request *);
        void (*started_request)(struct request *);
        void (*requeue_request)(struct request *);
        struct request *(*former_request)(struct request_queue *, struct request *);