]> git.baikalelectronics.ru Git - kernel.git/commit
sbitmap: remove redundant check in __sbitmap_queue_get_batch
authorKemeng Shi <shikemeng@huaweicloud.com>
Mon, 16 Jan 2023 20:50:56 +0000 (04:50 +0800)
committerGreg Kroah-Hartman <gregkh@linuxfoundation.org>
Fri, 10 Mar 2023 08:32:42 +0000 (09:32 +0100)
commit30538707b6ff39674ba8a92ceccb71fbe2db359c
treef39cbcd0abaed4da2448a78499f3fc51e6074df9
parent4cf3a62d5491335f77f044f685112e1b99450994
sbitmap: remove redundant check in __sbitmap_queue_get_batch

[ Upstream commit a32cdcbf362d884c4278d97258f9aeea45ee5814 ]

Commit 726f7142eca1a ("lib/sbitmap: Fix invalid loop in
__sbitmap_queue_get_batch()") mentioned that "Checking free bits when
setting the target bits. Otherwise, it may reuse the busying bits."
This commit add check to make sure all masked bits in word before
cmpxchg is zero. Then the existing check after cmpxchg to check any
zero bit is existing in masked bits in word is redundant.

Actually, old value of word before cmpxchg is stored in val and we
will filter out busy bits in val by "(get_mask & ~val)" after cmpxchg.
So we will not reuse busy bits methioned in commit 726f7142eca1a
("lib/sbitmap: Fix invalid loop in __sbitmap_queue_get_batch()"). Revert
new-added check to remove redundant check.

Fixes: 726f7142eca1 ("lib/sbitmap: Fix invalid loop in __sbitmap_queue_get_batch()")
Reviewed-by: Jan Kara <jack@suse.cz>
Signed-off-by: Kemeng Shi <shikemeng@huaweicloud.com>
Link: https://lore.kernel.org/r/20230116205059.3821738-3-shikemeng@huaweicloud.com
Signed-off-by: Jens Axboe <axboe@kernel.dk>
Signed-off-by: Sasha Levin <sashal@kernel.org>
lib/sbitmap.c