]> git.baikalelectronics.ru Git - kernel.git/commitdiff
arm64: mte: reset the page tag in page->flags
authorVincenzo Frascino <vincenzo.frascino@arm.com>
Tue, 22 Dec 2020 20:01:31 +0000 (12:01 -0800)
committerLinus Torvalds <torvalds@linux-foundation.org>
Tue, 22 Dec 2020 20:55:07 +0000 (12:55 -0800)
The hardware tag-based KASAN for compatibility with the other modes stores
the tag associated to a page in page->flags.  Due to this the kernel
faults on access when it allocates a page with an initial tag and the user
changes the tags.

Reset the tag associated by the kernel to a page in all the meaningful
places to prevent kernel faults on access.

Note: An alternative to this approach could be to modify page_to_virt().
This though could end up being racy, in fact if a CPU checks the
PG_mte_tagged bit and decides that the page is not tagged but another CPU
maps the same with PROT_MTE and becomes tagged the subsequent kernel
access would fail.

Link: https://lkml.kernel.org/r/9073d4e973747a6f78d5bdd7ebe17f290d087096.1606161801.git.andreyknvl@google.com
Signed-off-by: Vincenzo Frascino <vincenzo.frascino@arm.com>
Signed-off-by: Andrey Konovalov <andreyknvl@google.com>
Reviewed-by: Catalin Marinas <catalin.marinas@arm.com>
Tested-by: Vincenzo Frascino <vincenzo.frascino@arm.com>
Cc: Alexander Potapenko <glider@google.com>
Cc: Andrey Ryabinin <aryabinin@virtuozzo.com>
Cc: Branislav Rankov <Branislav.Rankov@arm.com>
Cc: Dmitry Vyukov <dvyukov@google.com>
Cc: Evgenii Stepanov <eugenis@google.com>
Cc: Kevin Brodsky <kevin.brodsky@arm.com>
Cc: Marco Elver <elver@google.com>
Cc: Vasily Gorbik <gor@linux.ibm.com>
Cc: Will Deacon <will.deacon@arm.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
arch/arm64/kernel/hibernate.c
arch/arm64/kernel/mte.c
arch/arm64/mm/copypage.c
arch/arm64/mm/mteswap.c

index 42003774d261df5a0f4a03528f6613cc2b231eca..9c9f47e9f7f47eca751f2fe2e7fe0aa50b42d2ca 100644 (file)
@@ -371,6 +371,11 @@ static void swsusp_mte_restore_tags(void)
                unsigned long pfn = xa_state.xa_index;
                struct page *page = pfn_to_online_page(pfn);
 
+               /*
+                * It is not required to invoke page_kasan_tag_reset(page)
+                * at this point since the tags stored in page->flags are
+                * already restored.
+                */
                mte_restore_page_tags(page_address(page), tags);
 
                mte_free_tag_storage(tags);
index 78f81c459cb14891358696ed4ff06ade321c2da6..3a6216b0002ef91133b273690bd8469274c8fb35 100644 (file)
@@ -34,6 +34,15 @@ static void mte_sync_page_tags(struct page *page, pte_t *ptep, bool check_swap)
                        return;
        }
 
+       page_kasan_tag_reset(page);
+       /*
+        * We need smp_wmb() in between setting the flags and clearing the
+        * tags because if another thread reads page->flags and builds a
+        * tagged address out of it, there is an actual dependency to the
+        * memory access, but on the current thread we do not guarantee that
+        * the new page->flags are visible before the tags were updated.
+        */
+       smp_wmb();
        mte_clear_page_tags(page_address(page));
 }
 
index 70a71f38b6a9e4d1e66435cbf9c925841a0cb073..b5447e53cd73ee48ae65ecb90be18b3529bc4d34 100644 (file)
@@ -23,6 +23,15 @@ void copy_highpage(struct page *to, struct page *from)
 
        if (system_supports_mte() && test_bit(PG_mte_tagged, &from->flags)) {
                set_bit(PG_mte_tagged, &to->flags);
+               page_kasan_tag_reset(to);
+               /*
+                * We need smp_wmb() in between setting the flags and clearing the
+                * tags because if another thread reads page->flags and builds a
+                * tagged address out of it, there is an actual dependency to the
+                * memory access, but on the current thread we do not guarantee that
+                * the new page->flags are visible before the tags were updated.
+                */
+               smp_wmb();
                mte_copy_page_tags(kto, kfrom);
        }
 }
index c52c1847079c1ae38314ca80abc157299cf8a3d5..7c4ef56265ee1e7a861579416ea9a34221f5def4 100644 (file)
@@ -53,6 +53,15 @@ bool mte_restore_tags(swp_entry_t entry, struct page *page)
        if (!tags)
                return false;
 
+       page_kasan_tag_reset(page);
+       /*
+        * We need smp_wmb() in between setting the flags and clearing the
+        * tags because if another thread reads page->flags and builds a
+        * tagged address out of it, there is an actual dependency to the
+        * memory access, but on the current thread we do not guarantee that
+        * the new page->flags are visible before the tags were updated.
+        */
+       smp_wmb();
        mte_restore_page_tags(page_address(page), tags);
 
        return true;