]> git.baikalelectronics.ru Git - kernel.git/commitdiff
mm/memory_hotplug: add pgprot_t to mhp_params
authorLogan Gunthorpe <logang@deltatee.com>
Fri, 10 Apr 2020 21:33:36 +0000 (14:33 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Fri, 10 Apr 2020 22:36:21 +0000 (15:36 -0700)
devm_memremap_pages() is currently used by the PCI P2PDMA code to create
struct page mappings for IO memory.  At present, these mappings are
created with PAGE_KERNEL which implies setting the PAT bits to be WB.
However, on x86, an mtrr register will typically override this and force
the cache type to be UC-.  In the case firmware doesn't set this
register it is effectively WB and will typically result in a machine
check exception when it's accessed.

Other arches are not currently likely to function correctly seeing they
don't have any MTRR registers to fall back on.

To solve this, provide a way to specify the pgprot value explicitly to
arch_add_memory().

Of the arches that support MEMORY_HOTPLUG: x86_64, and arm64 need a
simple change to pass the pgprot_t down to their respective functions
which set up the page tables.  For x86_32, set the page tables
explicitly using _set_memory_prot() (seeing they are already mapped).

For ia64, s390 and sh, reject anything but PAGE_KERNEL settings -- this
should be fine, for now, seeing these architectures don't support
ZONE_DEVICE.

A check in __add_pages() is also added to ensure the pgprot parameter
was set for all arches.

Signed-off-by: Logan Gunthorpe <logang@deltatee.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Acked-by: David Hildenbrand <david@redhat.com>
Acked-by: Michal Hocko <mhocko@suse.com>
Acked-by: Dan Williams <dan.j.williams@intel.com>
Cc: Andy Lutomirski <luto@kernel.org>
Cc: Benjamin Herrenschmidt <benh@kernel.crashing.org>
Cc: Borislav Petkov <bp@alien8.de>
Cc: Catalin Marinas <catalin.marinas@arm.com>
Cc: Christoph Hellwig <hch@lst.de>
Cc: Dave Hansen <dave.hansen@linux.intel.com>
Cc: Eric Badger <ebadger@gigaio.com>
Cc: "H. Peter Anvin" <hpa@zytor.com>
Cc: Ingo Molnar <mingo@redhat.com>
Cc: Jason Gunthorpe <jgg@ziepe.ca>
Cc: Michael Ellerman <mpe@ellerman.id.au>
Cc: Paul Mackerras <paulus@samba.org>
Cc: Peter Zijlstra <peterz@infradead.org>
Cc: Thomas Gleixner <tglx@linutronix.de>
Cc: Will Deacon <will@kernel.org>
Link: http://lkml.kernel.org/r/20200306170846.9333-7-logang@deltatee.com
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
arch/arm64/mm/mmu.c
arch/ia64/mm/init.c
arch/powerpc/mm/mem.c
arch/s390/mm/init.c
arch/sh/mm/init.c
arch/x86/mm/init_32.c
arch/x86/mm/init_64.c
include/linux/memory_hotplug.h
mm/memory_hotplug.c
mm/memremap.c

index 6d4e9c2b4ed0155fd3f5b903786bb16d836d414c..a374e4f51a6259340cff33a342138c517d169ec8 100644 (file)
@@ -1382,7 +1382,8 @@ int arch_add_memory(int nid, u64 start, u64 size,
                flags = NO_BLOCK_MAPPINGS | NO_CONT_MAPPINGS;
 
        __create_pgd_mapping(swapper_pg_dir, start, __phys_to_virt(start),
-                            size, PAGE_KERNEL, __pgd_pgtable_alloc, flags);
+                            size, params->pgprot, __pgd_pgtable_alloc,
+                            flags);
 
        memblock_clear_nomap(start, size);
 
index 97bbc23ea1e3d8ed16caae9cb606c468f5cdaaf3..d637b4ea3147734a755e91f251f945ad0b579a23 100644 (file)
@@ -676,6 +676,9 @@ int arch_add_memory(int nid, u64 start, u64 size,
        unsigned long nr_pages = size >> PAGE_SHIFT;
        int ret;
 
+       if (WARN_ON_ONCE(params->pgprot.pgprot != PAGE_KERNEL.pgprot))
+               return -EINVAL;
+
        ret = __add_pages(nid, start_pfn, nr_pages, params);
        if (ret)
                printk("%s: Problem encountered in __add_pages() as ret=%d\n",
index bf63ab04db63ed93319bc6f5d2ee5a3358f13521..041ed7cfd341a22fff1aafef02f3da85743d1eae 100644 (file)
@@ -132,7 +132,8 @@ int __ref arch_add_memory(int nid, u64 start, u64 size,
        resize_hpt_for_hotplug(memblock_phys_mem_size());
 
        start = (unsigned long)__va(start);
-       rc = create_section_mapping(start, start + size, nid, PAGE_KERNEL);
+       rc = create_section_mapping(start, start + size, nid,
+                                   params->pgprot);
        if (rc) {
                pr_warn("Unable to create mapping for hot added memory 0x%llx..0x%llx: %d\n",
                        start, start + size, rc);
index e9e4a7abd0cc55ac7c1443142284898d8b678ddd..87b2d024e75af497929e108bc8448daf2e276235 100644 (file)
@@ -277,6 +277,9 @@ int arch_add_memory(int nid, u64 start, u64 size,
        if (WARN_ON_ONCE(params->altmap))
                return -EINVAL;
 
+       if (WARN_ON_ONCE(params->pgprot.pgprot != PAGE_KERNEL.pgprot))
+               return -EINVAL;
+
        rc = vmem_add_mapping(start, size);
        if (rc)
                return rc;
index e5114c053364b170f537f854eb08896ef0ffbff9..b9de2d4fa57e347a172c17c40435c9c5417f8333 100644 (file)
@@ -412,6 +412,9 @@ int arch_add_memory(int nid, u64 start, u64 size,
        unsigned long nr_pages = size >> PAGE_SHIFT;
        int ret;
 
+       if (WARN_ON_ONCE(params->pgprot.pgprot != PAGE_KERNEL.pgprot)
+               return -EINVAL;
+
        /* We only have ZONE_NORMAL, so this is easy.. */
        ret = __add_pages(nid, start_pfn, nr_pages, params);
        if (unlikely(ret))
index ac75a839780463f368c85de2d65e790fec157ff4..4222a010057a9c8f75b419da8fb6406f41f3e799 100644 (file)
@@ -824,6 +824,18 @@ int arch_add_memory(int nid, u64 start, u64 size,
 {
        unsigned long start_pfn = start >> PAGE_SHIFT;
        unsigned long nr_pages = size >> PAGE_SHIFT;
+       int ret;
+
+       /*
+        * The page tables were already mapped at boot so if the caller
+        * requests a different mapping type then we must change all the
+        * pages with __set_memory_prot().
+        */
+       if (params->pgprot.pgprot != PAGE_KERNEL.pgprot) {
+               ret = __set_memory_prot(start, nr_pages, params->pgprot);
+               if (ret)
+                       return ret;
+       }
 
        return __add_pages(nid, start_pfn, nr_pages, params);
 }
index 7480de74310573b9d9b91daf24f8d165d81990b8..3b289c2f75cdf9148cb7a63975b5fbd0db61a5e3 100644 (file)
@@ -867,7 +867,7 @@ int arch_add_memory(int nid, u64 start, u64 size,
        unsigned long start_pfn = start >> PAGE_SHIFT;
        unsigned long nr_pages = size >> PAGE_SHIFT;
 
-       init_memory_mapping(start, start + size, PAGE_KERNEL);
+       init_memory_mapping(start, start + size, params->pgprot);
 
        return add_pages(nid, start_pfn, nr_pages, params);
 }
index 75f0f6304735b80713c8e6c7f865da2cd604974b..93d9ada74ddd69839c34eca52269c0924f443c3f 100644 (file)
@@ -60,9 +60,12 @@ enum {
 /*
  * Extended parameters for memory hotplug:
  * altmap: alternative allocator for memmap array (optional)
+ * pgprot: page protection flags to apply to newly created page tables
+ *     (required)
  */
 struct mhp_params {
        struct vmem_altmap *altmap;
+       pgprot_t pgprot;
 };
 
 /*
index fbfe7b40f552dda5364221ea35d2220184fcf74a..fc0aad0bc1f5486b8188e46987eb55ec187de9e1 100644 (file)
@@ -311,6 +311,9 @@ int __ref __add_pages(int nid, unsigned long pfn, unsigned long nr_pages,
        int err;
        struct vmem_altmap *altmap = params->altmap;
 
+       if (WARN_ON_ONCE(!params->pgprot.pgprot))
+               return -EINVAL;
+
        err = check_hotplug_memory_addressable(pfn, nr_pages);
        if (err)
                return err;
@@ -1002,7 +1005,7 @@ static int online_memory_block(struct memory_block *mem, void *arg)
  */
 int __ref add_memory_resource(int nid, struct resource *res)
 {
-       struct mhp_params params = {};
+       struct mhp_params params = { .pgprot = PAGE_KERNEL };
        u64 start, size;
        bool new_node = false;
        int ret;
index b0b5170843ffeb099043c830ca1cc990ae9489da..bc167cde32379b314375684d444826f7c32c4e45 100644 (file)
@@ -189,8 +189,8 @@ void *memremap_pages(struct dev_pagemap *pgmap, int nid)
                 * We do not want any optional features only our own memmap
                 */
                .altmap = pgmap_altmap(pgmap),
+               .pgprot = PAGE_KERNEL,
        };
-       pgprot_t pgprot = PAGE_KERNEL;
        int error, is_ram;
        bool need_devmap_managed = true;
 
@@ -282,8 +282,8 @@ void *memremap_pages(struct dev_pagemap *pgmap, int nid)
        if (nid < 0)
                nid = numa_mem_id();
 
-       error = track_pfn_remap(NULL, &pgprot, PHYS_PFN(res->start), 0,
-                       resource_size(res));
+       error = track_pfn_remap(NULL, &params.pgprot, PHYS_PFN(res->start),
+                               0, resource_size(res));
        if (error)
                goto err_pfn_remap;