]> git.baikalelectronics.ru Git - kernel.git/commitdiff
mm: fix spelling mistakes
authorZhen Lei <thunder.leizhen@huawei.com>
Thu, 1 Jul 2021 01:53:17 +0000 (18:53 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Thu, 1 Jul 2021 18:06:02 +0000 (11:06 -0700)
Fix some spelling mistakes in comments:
each having differents usage ==> each has a different usage
statments ==> statements
adresses ==> addresses
aggresive ==> aggressive
datas ==> data
posion ==> poison
higer ==> higher
precisly ==> precisely
wont ==> won't
We moves tha ==> We move the
endianess ==> endianness

Link: https://lkml.kernel.org/r/20210519065853.7723-2-thunder.leizhen@huawei.com
Signed-off-by: Zhen Lei <thunder.leizhen@huawei.com>
Reviewed-by: Souptick Joarder <jrdr.linux@gmail.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
include/linux/memremap.h
include/linux/mm_types.h
include/linux/mmzone.h
mm/memory-failure.c
mm/memory_hotplug.c
mm/page_alloc.c
mm/swapfile.c

index 45a79da89c5fb9577a057f5d71c6918daf1e624b..c0e9d35889e8db41246af3c9e2ad541fbe075231 100644 (file)
@@ -26,7 +26,7 @@ struct vmem_altmap {
 };
 
 /*
- * Specialize ZONE_DEVICE memory into multiple types each having differents
+ * Specialize ZONE_DEVICE memory into multiple types each has a different
  * usage.
  *
  * MEMORY_DEVICE_PRIVATE:
index b66d0225414e45f39da09b5c0ea834606d6f8978..7486177809240443bae2d1c15e19f8c138ab9bd8 100644 (file)
@@ -397,7 +397,7 @@ struct mm_struct {
                unsigned long mmap_base;        /* base of mmap area */
                unsigned long mmap_legacy_base; /* base of mmap area in bottom-up allocations */
 #ifdef CONFIG_HAVE_ARCH_COMPAT_MMAP_BASES
-               /* Base adresses for compatible mmap() */
+               /* Base addresses for compatible mmap() */
                unsigned long mmap_compat_base;
                unsigned long mmap_compat_legacy_base;
 #endif
index 7bc7e41b6c310f82925b421ff70ece434ad545e1..0ed2c23ed3fb760fe2dcef7ac226abb42d321d95 100644 (file)
@@ -114,7 +114,7 @@ static inline bool free_area_empty(struct free_area *area, int migratetype)
 struct pglist_data;
 
 /*
- * Add a wild amount of padding here to ensure datas fall into separate
+ * Add a wild amount of padding here to ensure data fall into separate
  * cachelines.  There are very few zone structures in the machine, so space
  * consumption is not a concern here.
  */
index ee02d8b068391a62f0a25eb5c1f243f0338e603f..eefd823deb679ad0b9d84b5b374614aace672851 100644 (file)
@@ -1340,7 +1340,7 @@ static bool hwpoison_user_mappings(struct page *p, unsigned long pfn,
                         * could potentially call huge_pmd_unshare.  Because of
                         * this, take semaphore in write mode here and set
                         * TTU_RMAP_LOCKED to indicate we have taken the lock
-                        * at this higer level.
+                        * at this higher level.
                         */
                        mapping = hugetlb_page_mapping_lock_write(hpage);
                        if (mapping) {
index 553c527512498d59ee82a2e89161be155ded78f4..79f6ce92b6b6d71c12dbe4c985aa148f0900f0b1 100644 (file)
@@ -783,7 +783,7 @@ int __ref online_pages(unsigned long pfn, unsigned long nr_pages, struct zone *z
 
        /*
         * {on,off}lining is constrained to full memory sections (or more
-        * precisly to memory blocks from the user space POV).
+        * precisely to memory blocks from the user space POV).
         * memmap_on_memory is an exception because it reserves initial part
         * of the physical memory space for vmemmaps. That space is pageblock
         * aligned.
@@ -1580,7 +1580,7 @@ int __ref offline_pages(unsigned long start_pfn, unsigned long nr_pages)
 
        /*
         * {on,off}lining is constrained to full memory sections (or more
-        * precisly to memory blocks from the user space POV).
+        * precisely to memory blocks from the user space POV).
         * memmap_on_memory is an exception because it reserves initial part
         * of the physical memory space for vmemmaps. That space is pageblock
         * aligned.
index eeff6484371824bb325ecff0f8fded1f5f7ef0ec..6700cfcfab46d937b3a87c6be0de41f0ffc030dd 100644 (file)
@@ -3180,7 +3180,7 @@ static void __drain_all_pages(struct zone *zone, bool force_all_cpus)
        int cpu;
 
        /*
-        * Allocate in the BSS so we wont require allocation in
+        * Allocate in the BSS so we won't require allocation in
         * direct reclaim path for CONFIG_CPUMASK_OFFSTACK=y
         */
        static cpumask_t cpus_with_pcps;
index e898c879a4347c43479c0f764265d8046b23c50a..1e07d1c776f2ae328e5a8ef0194c38fa144368ad 100644 (file)
@@ -2967,7 +2967,7 @@ static unsigned long read_swap_header(struct swap_info_struct *p,
                return 0;
        }
 
-       /* swap partition endianess hack... */
+       /* swap partition endianness hack... */
        if (swab32(swap_header->info.version) == 1) {
                swab32s(&swap_header->info.version);
                swab32s(&swap_header->info.last_page);