]> git.baikalelectronics.ru Git - kernel.git/commit
Merge branch 'net-sched-fast-stats'
authorDavid S. Miller <davem@davemloft.net>
Tue, 7 Jun 2016 23:37:14 +0000 (16:37 -0700)
committerDavid S. Miller <davem@davemloft.net>
Tue, 7 Jun 2016 23:37:14 +0000 (16:37 -0700)
commitaa5187b5e3fd22f31f559969dbabffb9c7e88c49
tree1f241506d6b781b65d1033925f1c1ce6a39c3394
parentd7cf8c8120038ddc81b38f29bfc6b486c33d0c35
parent39a58b7a3266c32d4b69f17f8b9b5a2e0c397bd1
Merge branch 'net-sched-fast-stats'

Eric Dumazet says:

====================
net: sched: faster stats gathering

A while back, I sent one RFC patch using lockless stats gathering
on 64bit arches.

This patch series does it more cleanly, using a seqcount.

Since qdisc/class stats are written at dequeue() time,
we can ask the dequeue to change the seqcount, so that
stats readers can avoid taking the root qdisc lock,
and instead the typical read_seqcount_{begin|retry} guarded
loop.

This does not change fast path costs, as the seqcount
increments are not more expensive than the bit manipulation,
and allows readers to not freeze the fast path anymore.
====================

Signed-off-by: David S. Miller <davem@davemloft.net>