]> git.baikalelectronics.ru Git - kernel.git/commitdiff
mm: handle uninitialized numa nodes gracefully
authorMichal Hocko <mhocko@suse.com>
Tue, 22 Mar 2022 21:46:54 +0000 (14:46 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Tue, 22 Mar 2022 22:57:10 +0000 (15:57 -0700)
We have had several reports [1][2][3] that page allocator blows up when an
allocation from a possible node is requested.  The underlying reason is
that NODE_DATA for the specific node is not allocated.

NUMA specific initialization is arch specific and it can vary a lot.  E.g.
x86 tries to initialize all nodes that have some cpu affinity (see
init_cpu_to_node) but this can be insufficient because the node might be
cpuless for example.

One way to address this problem would be to check for !node_online nodes
when trying to get a zonelist and silently fall back to another node.
That is unfortunately adding a branch into allocator hot path and it
doesn't handle any other potential NODE_DATA users.

This patch takes a different approach (following a lead of [3]) and it pre
allocates pgdat for all possible nodes in an arch indipendent code -
free_area_init.  All uninitialized nodes are treated as memoryless nodes.
node_state of the node is not changed because that would lead to other
side effects - e.g.  sysfs representation of such a node and from past
discussions [4] it is known that some tools might have problems digesting
that.

Newly allocated pgdat only gets a minimal initialization and the rest of
the work is expected to be done by the memory hotplug - hotadd_new_pgdat
(renamed to hotadd_init_pgdat).

generic_alloc_nodedata is changed to use the memblock allocator because
neither page nor slab allocators are available at the stage when all
pgdats are allocated.  Hotplug doesn't allocate pgdat anymore so we can
use the early boot allocator.  The only arch specific implementation is
ia64 and that is changed to use the early allocator as well.

[1] http://lkml.kernel.org/r/20211101201312.11589-1-amakhalov@vmware.com
[2] http://lkml.kernel.org/r/20211207224013.880775-1-npache@redhat.com
[3] http://lkml.kernel.org/r/20190114082416.30939-1-mhocko@kernel.org
[4] http://lkml.kernel.org/r/20200428093836.27190-1-srikar@linux.vnet.ibm.com

[akpm@linux-foundation.org: replace comment, per Mike]

Link: https://lkml.kernel.org/r/Yfe7RBeLCijnWBON@dhcp22.suse.cz
Reported-by: Alexey Makhalov <amakhalov@vmware.com>
Tested-by: Alexey Makhalov <amakhalov@vmware.com>
Reported-by: Nico Pache <npache@redhat.com>
Acked-by: Rafael Aquini <raquini@redhat.com>
Tested-by: Rafael Aquini <raquini@redhat.com>
Acked-by: David Hildenbrand <david@redhat.com>
Reviewed-by: Oscar Salvador <osalvador@suse.de>
Acked-by: Mike Rapoport <rppt@linux.ibm.com>
Signed-off-by: Michal Hocko <mhocko@suse.com>
Cc: Christoph Lameter <cl@linux.com>
Cc: Dennis Zhou <dennis@kernel.org>
Cc: Eric Dumazet <eric.dumazet@gmail.com>
Cc: Tejun Heo <tj@kernel.org>
Cc: Wei Yang <richard.weiyang@gmail.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
arch/ia64/mm/discontig.c
include/linux/memory_hotplug.h
mm/internal.h
mm/memory_hotplug.c
mm/page_alloc.c

index 8dc8a554f7742742aaa8f049dc0c27b0e42dffe0..dd0cf4834eaa8a984e7db7e5a65d696df791960c 100644 (file)
@@ -608,11 +608,11 @@ void __init paging_init(void)
        zero_page_memmap_ptr = virt_to_page(ia64_imva(empty_zero_page));
 }
 
-pg_data_t *arch_alloc_nodedata(int nid)
+pg_data_t * __init arch_alloc_nodedata(int nid)
 {
        unsigned long size = compute_pernodesize(nid);
 
-       return kzalloc(size, GFP_KERNEL);
+       return memblock_alloc(size, SMP_CACHE_BYTES);
 }
 
 void arch_free_nodedata(pg_data_t *pgdat)
index 4355983b364d3366eec5da67ab8adfaf0a9363a7..cdd66bfdf855bfae0ddcb6813e1f98abc527bc8d 100644 (file)
@@ -44,7 +44,7 @@ extern void arch_refresh_nodedata(int nid, pg_data_t *pgdat);
  */
 #define generic_alloc_nodedata(nid)                            \
 ({                                                             \
-       kzalloc(sizeof(pg_data_t), GFP_KERNEL);                 \
+       memblock_alloc(sizeof(*pgdat), SMP_CACHE_BYTES);        \
 })
 /*
  * This definition is just for error path in node hotadd.
index 9c298afb96884efda150cdacda07a38b9e5fa9d3..f1554a4e249e4f5611c48d85d288773e99753511 100644 (file)
@@ -707,4 +707,6 @@ void vunmap_range_noflush(unsigned long start, unsigned long end);
 int numa_migrate_prep(struct page *page, struct vm_area_struct *vma,
                      unsigned long addr, int page_nid, int *flags);
 
+DECLARE_PER_CPU(struct per_cpu_nodestat, boot_nodestats);
+
 #endif /* __MM_INTERNAL_H */
index 0139b77c51d5d238031fdea07df54d95089e4d7a..11f39d0e76ec36c1142d17a700767ad0501eb112 100644 (file)
@@ -1162,19 +1162,21 @@ static void reset_node_present_pages(pg_data_t *pgdat)
 }
 
 /* we are OK calling __meminit stuff here - we have CONFIG_MEMORY_HOTPLUG */
-static pg_data_t __ref *hotadd_new_pgdat(int nid)
+static pg_data_t __ref *hotadd_init_pgdat(int nid)
 {
        struct pglist_data *pgdat;
 
        pgdat = NODE_DATA(nid);
-       if (!pgdat) {
-               pgdat = arch_alloc_nodedata(nid);
-               if (!pgdat)
-                       return NULL;
 
+       /*
+        * NODE_DATA is preallocated (free_area_init) but its internal
+        * state is not allocated completely. Add missing pieces.
+        * Completely offline nodes stay around and they just need
+        * reintialization.
+        */
+       if (pgdat->per_cpu_nodestats == &boot_nodestats) {
                pgdat->per_cpu_nodestats =
                        alloc_percpu(struct per_cpu_nodestat);
-               arch_refresh_nodedata(nid, pgdat);
        } else {
                int cpu;
                /*
@@ -1193,8 +1195,6 @@ static pg_data_t __ref *hotadd_new_pgdat(int nid)
                }
        }
 
-       /* we can use NODE_DATA(nid) from here */
-       pgdat->node_id = nid;
        pgdat->node_start_pfn = 0;
 
        /* init node's zones as empty zones, we don't have any present pages.*/
@@ -1246,7 +1246,7 @@ static int __try_online_node(int nid, bool set_node_online)
        if (node_online(nid))
                return 0;
 
-       pgdat = hotadd_new_pgdat(nid);
+       pgdat = hotadd_init_pgdat(nid);
        if (!pgdat) {
                pr_err("Cannot online node %d due to NULL pgdat\n", nid);
                ret = -ENOMEM;
@@ -1445,9 +1445,6 @@ int __ref add_memory_resource(int nid, struct resource *res, mhp_t mhp_flags)
 
        return ret;
 error:
-       /* rollback pgdat allocation and others */
-       if (new_node)
-               rollback_node_hotadd(nid);
        if (IS_ENABLED(CONFIG_ARCH_KEEP_MEMBLOCK))
                memblock_remove(start, size);
 error_mem_hotplug_end:
index 8b18a077c409724ec32cdb4fae81cc5668a9d44e..4f141a4e5b6445a005e15f8f9789b2fc195373d8 100644 (file)
@@ -6341,7 +6341,7 @@ static void per_cpu_pages_init(struct per_cpu_pages *pcp, struct per_cpu_zonesta
 #define BOOT_PAGESET_BATCH     1
 static DEFINE_PER_CPU(struct per_cpu_pages, boot_pageset);
 static DEFINE_PER_CPU(struct per_cpu_zonestat, boot_zonestats);
-static DEFINE_PER_CPU(struct per_cpu_nodestat, boot_nodestats);
+DEFINE_PER_CPU(struct per_cpu_nodestat, boot_nodestats);
 
 static void __build_all_zonelists(void *data)
 {
@@ -6363,7 +6363,11 @@ static void __build_all_zonelists(void *data)
        if (self && !node_online(self->node_id)) {
                build_zonelists(self);
        } else {
-               for_each_online_node(nid) {
+               /*
+                * All possible nodes have pgdat preallocated
+                * in free_area_init
+                */
+               for_each_node(nid) {
                        pg_data_t *pgdat = NODE_DATA(nid);
 
                        build_zonelists(pgdat);
@@ -8063,8 +8067,36 @@ void __init free_area_init(unsigned long *max_zone_pfn)
        /* Initialise every node */
        mminit_verify_pageflags_layout();
        setup_nr_node_ids();
-       for_each_online_node(nid) {
-               pg_data_t *pgdat = NODE_DATA(nid);
+       for_each_node(nid) {
+               pg_data_t *pgdat;
+
+               if (!node_online(nid)) {
+                       pr_info("Initializing node %d as memoryless\n", nid);
+
+                       /* Allocator not initialized yet */
+                       pgdat = arch_alloc_nodedata(nid);
+                       if (!pgdat) {
+                               pr_err("Cannot allocate %zuB for node %d.\n",
+                                               sizeof(*pgdat), nid);
+                               continue;
+                       }
+                       arch_refresh_nodedata(nid, pgdat);
+                       free_area_init_memoryless_node(nid);
+
+                       /*
+                        * We do not want to confuse userspace by sysfs
+                        * files/directories for node without any memory
+                        * attached to it, so this node is not marked as
+                        * N_MEMORY and not marked online so that no sysfs
+                        * hierarchy will be created via register_one_node for
+                        * it. The pgdat will get fully initialized by
+                        * hotadd_init_pgdat() when memory is hotplugged into
+                        * this node.
+                        */
+                       continue;
+               }
+
+               pgdat = NODE_DATA(nid);
                free_area_init_node(nid);
 
                /* Any memory on that node */