]> git.baikalelectronics.ru Git - kernel.git/commit
gfs2: gfs2_create_inode rework
authorAndreas Gruenbacher <agruenba@redhat.com>
Tue, 30 Nov 2021 17:26:15 +0000 (18:26 +0100)
committerAndreas Gruenbacher <agruenba@redhat.com>
Thu, 2 Dec 2021 11:41:10 +0000 (12:41 +0100)
commit22503c0e16c7596197d3d40a954e2bcbe6ad73d4
tree5d23ce928fe154178779ea07db25a86e89960f33
parent1372355c57345a8367c1f4095ac9a9a4a6bfbe7f
gfs2: gfs2_create_inode rework

When gfs2_lookup_by_inum() calls gfs2_inode_lookup() for an uncached
inode, gfs2_inode_lookup() will place a new tentative inode into the
inode cache before verifying that there is a valid inode at the given
address.  This can race with gfs2_create_inode() which doesn't check for
duplicates inodes.  gfs2_create_inode() will try to assign the new inode
to the corresponding inode glock, and glock_set_object() will complain
that the glock is still in use by gfs2_inode_lookup's tentative inode.

We noticed this bug after adding commit 473c32889d32 ("gfs2: Cancel
remote delete work asynchronously") which allowed delete_work_func() to
race with gfs2_create_inode(), but the same race exists for
open-by-handle.

Fix that by switching from insert_inode_hash() to
insert_inode_locked4(), which does check for duplicate inodes.  We know
we've just managed to to allocate the new inode, so an inode tentatively
created by gfs2_inode_lookup() will eventually go away and
insert_inode_locked4() will always succeed.

In addition, don't flush the inode glock work anymore (this can now only
make things worse) and clean up glock_{set,clear}_object for the inode
glock somewhat.

Signed-off-by: Andreas Gruenbacher <agruenba@redhat.com>
fs/gfs2/inode.c