]> git.baikalelectronics.ru Git - kernel.git/commit
ARC: LLOCK/SCOND based spin_lock
authorVineet Gupta <vgupta@synopsys.com>
Tue, 14 Jul 2015 12:25:05 +0000 (17:55 +0530)
committerVineet Gupta <vgupta@synopsys.com>
Tue, 4 Aug 2015 03:56:33 +0000 (09:26 +0530)
commit10072c3db30a36aadda6d2061c60281ba437aafb
tree15e37fb62b3f2467148367e7fa73a1d7147e1d17
parentc2337a09bf49a09630ac70af1332ee58c40a6cf3
ARC: LLOCK/SCOND based spin_lock

Current spin_lock uses EXchange instruction to implement the atomic test
and set of lock location (reads orig value and ST 1). This however forces
the cacheline into exclusive state (because of the ST) and concurrent
loops in multiple cores will bounce the line around between cores.

Instead, use LLOCK/SCOND to implement the atomic test and set which is
better as line is in shared state while lock is spinning on LLOCK

The real motivation of this change however is to make way for future
changes in atomics to implement delayed retry (with backoff).
Initial experiment with delayed retry in atomics combined with orig
EX based spinlock was a total disaster (broke even LMBench) as
struct sock has a cache line sharing an atomic_t and spinlock. The
tight spinning on lock, caused the atomic retry to keep backing off
such that it would never finish.

Acked-by: Peter Zijlstra (Intel) <peterz@infradead.org>
Signed-off-by: Vineet Gupta <vgupta@synopsys.com>
arch/arc/include/asm/spinlock.h