]> git.baikalelectronics.ru Git - kernel.git/commitdiff
KVM: x86/mmu: Extend make_huge_page_split_spte() for the shadow MMU
authorDavid Matlack <dmatlack@google.com>
Wed, 22 Jun 2022 19:27:05 +0000 (15:27 -0400)
committerPaolo Bonzini <pbonzini@redhat.com>
Fri, 24 Jun 2022 08:51:59 +0000 (04:51 -0400)
Currently make_huge_page_split_spte() assumes execute permissions can be
granted to any 4K SPTE when splitting huge pages. This is true for the
TDP MMU but is not necessarily true for the shadow MMU, since KVM may be
shadowing a non-executable huge page.

To fix this, pass in the role of the child shadow page where the huge
page will be split and derive the execution permission from that.  This
is correct because huge pages are always split with direct shadow page
and thus the shadow page role contains the correct access permissions.

No functional change intended.

Signed-off-by: David Matlack <dmatlack@google.com>
Message-Id: <20220516232138.1783324-19-dmatlack@google.com>
Signed-off-by: Paolo Bonzini <pbonzini@redhat.com>
arch/x86/kvm/mmu/spte.c
arch/x86/kvm/mmu/spte.h
arch/x86/kvm/mmu/tdp_mmu.c

index db294c1beea2fa2651f543430992b7f9d072f927..fb1f17504138de32f1fb6d307d9e57f78c540bbf 100644 (file)
@@ -246,11 +246,10 @@ static u64 make_spte_executable(u64 spte)
  * This is used during huge page splitting to build the SPTEs that make up the
  * new page table.
  */
-u64 make_huge_page_split_spte(struct kvm *kvm, u64 huge_spte, int huge_level,
+u64 make_huge_page_split_spte(struct kvm *kvm, u64 huge_spte, union kvm_mmu_page_role role,
                              int index)
 {
        u64 child_spte;
-       int child_level;
 
        if (WARN_ON_ONCE(!is_shadow_present_pte(huge_spte)))
                return 0;
@@ -259,23 +258,23 @@ u64 make_huge_page_split_spte(struct kvm *kvm, u64 huge_spte, int huge_level,
                return 0;
 
        child_spte = huge_spte;
-       child_level = huge_level - 1;
 
        /*
         * The child_spte already has the base address of the huge page being
         * split. So we just have to OR in the offset to the page at the next
         * lower level for the given index.
         */
-       child_spte |= (index * KVM_PAGES_PER_HPAGE(child_level)) << PAGE_SHIFT;
+       child_spte |= (index * KVM_PAGES_PER_HPAGE(role.level)) << PAGE_SHIFT;
 
-       if (child_level == PG_LEVEL_4K) {
+       if (role.level == PG_LEVEL_4K) {
                child_spte &= ~PT_PAGE_SIZE_MASK;
 
                /*
-                * When splitting to a 4K page, mark the page executable as the
-                * NX hugepage mitigation no longer applies.
+                * When splitting to a 4K page where execution is allowed, mark
+                * the page executable as the NX hugepage mitigation no longer
+                * applies.
                 */
-               if (is_nx_huge_page_enabled(kvm))
+               if ((role.access & ACC_EXEC_MASK) && is_nx_huge_page_enabled(kvm))
                        child_spte = make_spte_executable(child_spte);
        }
 
index 256f90587e8dfe9f9083c01fcacabf582cd60e53..b5c855f5514fb8f00bedc78876da946aaefd2bdb 100644 (file)
@@ -421,8 +421,8 @@ bool make_spte(struct kvm_vcpu *vcpu, struct kvm_mmu_page *sp,
               unsigned int pte_access, gfn_t gfn, kvm_pfn_t pfn,
               u64 old_spte, bool prefetch, bool can_unsync,
               bool host_writable, u64 *new_spte);
-u64 make_huge_page_split_spte(struct kvm *kvm, u64 huge_spte, int huge_level,
-                             int index);
+u64 make_huge_page_split_spte(struct kvm *kvm, u64 huge_spte,
+                             union kvm_mmu_page_role role, int index);
 u64 make_nonleaf_spte(u64 *child_pt, bool ad_disabled);
 u64 make_mmio_spte(struct kvm_vcpu *vcpu, u64 gfn, unsigned int access);
 u64 mark_spte_for_access_track(u64 spte);
index 522e2532343b9f835aba708931c937f0502eff6b..f3a430d64975c60fded364e6451cd2c0c1f5d183 100644 (file)
@@ -1478,7 +1478,7 @@ static int tdp_mmu_split_huge_page(struct kvm *kvm, struct tdp_iter *iter,
         * not been linked in yet and thus is not reachable from any other CPU.
         */
        for (i = 0; i < SPTE_ENT_PER_PAGE; i++)
-               sp->spt[i] = make_huge_page_split_spte(kvm, huge_spte, level, i);
+               sp->spt[i] = make_huge_page_split_spte(kvm, huge_spte, sp->role, i);
 
        /*
         * Replace the huge spte with a pointer to the populated lower level