]> git.baikalelectronics.ru Git - kernel.git/commit
Merge branch 'net-sched-fast-stats'
authorDavid S. Miller <davem@davemloft.net>
Tue, 7 Jun 2016 23:37:14 +0000 (16:37 -0700)
committerDavid S. Miller <davem@davemloft.net>
Tue, 7 Jun 2016 23:37:14 +0000 (16:37 -0700)
commit3cd5040a61d6583f3f88d7962d5a7579f8d71c06
tree1f241506d6b781b65d1033925f1c1ce6a39c3394
parent8d4622810cc974bd0d32d9bcdaaf9a4c27dcbd9c
parent7946f26d6a7ee6329a67bd3b96d25db41946a0f4
Merge branch 'net-sched-fast-stats'

Eric Dumazet says:

====================
net: sched: faster stats gathering

A while back, I sent one RFC patch using lockless stats gathering
on 64bit arches.

This patch series does it more cleanly, using a seqcount.

Since qdisc/class stats are written at dequeue() time,
we can ask the dequeue to change the seqcount, so that
stats readers can avoid taking the root qdisc lock,
and instead the typical read_seqcount_{begin|retry} guarded
loop.

This does not change fast path costs, as the seqcount
increments are not more expensive than the bit manipulation,
and allows readers to not freeze the fast path anymore.
====================

Signed-off-by: David S. Miller <davem@davemloft.net>