]> git.baikalelectronics.ru Git - kernel.git/commitdiff
dma-mapping: remove CONFIG_DMA_REMAP
authorChristoph Hellwig <hch@lst.de>
Sat, 26 Feb 2022 15:40:21 +0000 (16:40 +0100)
committerChristoph Hellwig <hch@lst.de>
Thu, 3 Mar 2022 11:00:57 +0000 (14:00 +0300)
CONFIG_DMA_REMAP is used to build a few helpers around the core
vmalloc code, and to use them in case there is a highmem page in
dma-direct, and to make dma coherent allocations be able to use
non-contiguous pages allocations for DMA allocations in the dma-iommu
layer.

Right now it needs to be explicitly selected by architectures, and
is only done so by architectures that require remapping to deal
with devices that are not DMA coherent.  Make it unconditional for
builds with CONFIG_MMU as it is very little extra code, but makes
it much more likely that large DMA allocations succeed on x86.

This fixes hot plugging a NVMe thunderbolt SSD for me, which tries
to allocate a 1MB buffer that is otherwise hard to obtain due to
memory fragmentation on a heavily used laptop.

Signed-off-by: Christoph Hellwig <hch@lst.de>
Reviewed-by: Robin Murphy <robin.murphy@arm.com>
arch/arm/Kconfig
arch/xtensa/Kconfig
drivers/iommu/dma-iommu.c
kernel/dma/Kconfig
kernel/dma/Makefile
kernel/dma/direct.c

index fabe39169b120ca6c11fb3037b2c134f0faa7b5c..11fbf66ef8f8b447654552e5af4ae33b5cd5d50c 100644 (file)
@@ -47,7 +47,7 @@ config ARM
        select DMA_DECLARE_COHERENT
        select DMA_GLOBAL_POOL if !MMU
        select DMA_OPS
-       select DMA_REMAP if MMU
+       select DMA_NONCOHERENT_MMAP if MMU
        select EDAC_SUPPORT
        select EDAC_ATOMIC_SCRUB
        select GENERIC_ALLOCATOR
index 8ac599aa6d994780f67445646ef0a571de0bed53..76438ee313d1688f3f87133bc0f82424ed00c994 100644 (file)
@@ -17,7 +17,7 @@ config XTENSA
        select BUILDTIME_TABLE_SORT
        select CLONE_BACKWARDS
        select COMMON_CLK
-       select DMA_REMAP if MMU
+       select DMA_NONCOHERENT_MMAP if MMU
        select GENERIC_ATOMIC64
        select GENERIC_IRQ_SHOW
        select GENERIC_PCI_IOMAP
index d85d54f2b54968413a16c21a4c5d781f69fbce81..cebced7ddf390ed2bd8338fbf21f7d848cd1fb3a 100644 (file)
@@ -852,7 +852,6 @@ out_unmap:
        return NULL;
 }
 
-#ifdef CONFIG_DMA_REMAP
 static struct sg_table *iommu_dma_alloc_noncontiguous(struct device *dev,
                size_t size, enum dma_data_direction dir, gfp_t gfp,
                unsigned long attrs)
@@ -882,7 +881,6 @@ static void iommu_dma_free_noncontiguous(struct device *dev, size_t size,
        sg_free_table(&sh->sgt);
        kfree(sh);
 }
-#endif /* CONFIG_DMA_REMAP */
 
 static void iommu_dma_sync_single_for_cpu(struct device *dev,
                dma_addr_t dma_handle, size_t size, enum dma_data_direction dir)
@@ -1276,7 +1274,7 @@ static void __iommu_dma_free(struct device *dev, size_t size, void *cpu_addr)
            dma_free_from_pool(dev, cpu_addr, alloc_size))
                return;
 
-       if (IS_ENABLED(CONFIG_DMA_REMAP) && is_vmalloc_addr(cpu_addr)) {
+       if (is_vmalloc_addr(cpu_addr)) {
                /*
                 * If it the address is remapped, then it's either non-coherent
                 * or highmem CMA, or an iommu_dma_alloc_remap() construction.
@@ -1318,7 +1316,7 @@ static void *iommu_dma_alloc_pages(struct device *dev, size_t size,
        if (!page)
                return NULL;
 
-       if (IS_ENABLED(CONFIG_DMA_REMAP) && (!coherent || PageHighMem(page))) {
+       if (!coherent || PageHighMem(page)) {
                pgprot_t prot = dma_pgprot(dev, PAGE_KERNEL, attrs);
 
                cpu_addr = dma_common_contiguous_remap(page, alloc_size,
@@ -1350,7 +1348,7 @@ static void *iommu_dma_alloc(struct device *dev, size_t size,
 
        gfp |= __GFP_ZERO;
 
-       if (IS_ENABLED(CONFIG_DMA_REMAP) && gfpflags_allow_blocking(gfp) &&
+       if (gfpflags_allow_blocking(gfp) &&
            !(attrs & DMA_ATTR_FORCE_CONTIGUOUS)) {
                return iommu_dma_alloc_remap(dev, size, handle, gfp,
                                dma_pgprot(dev, PAGE_KERNEL, attrs), attrs);
@@ -1391,7 +1389,7 @@ static int iommu_dma_mmap(struct device *dev, struct vm_area_struct *vma,
        if (off >= nr_pages || vma_pages(vma) > nr_pages - off)
                return -ENXIO;
 
-       if (IS_ENABLED(CONFIG_DMA_REMAP) && is_vmalloc_addr(cpu_addr)) {
+       if (is_vmalloc_addr(cpu_addr)) {
                struct page **pages = dma_common_find_pages(cpu_addr);
 
                if (pages)
@@ -1413,7 +1411,7 @@ static int iommu_dma_get_sgtable(struct device *dev, struct sg_table *sgt,
        struct page *page;
        int ret;
 
-       if (IS_ENABLED(CONFIG_DMA_REMAP) && is_vmalloc_addr(cpu_addr)) {
+       if (is_vmalloc_addr(cpu_addr)) {
                struct page **pages = dma_common_find_pages(cpu_addr);
 
                if (pages) {
@@ -1445,10 +1443,8 @@ static const struct dma_map_ops iommu_dma_ops = {
        .free                   = iommu_dma_free,
        .alloc_pages            = dma_common_alloc_pages,
        .free_pages             = dma_common_free_pages,
-#ifdef CONFIG_DMA_REMAP
        .alloc_noncontiguous    = iommu_dma_alloc_noncontiguous,
        .free_noncontiguous     = iommu_dma_free_noncontiguous,
-#endif
        .mmap                   = iommu_dma_mmap,
        .get_sgtable            = iommu_dma_get_sgtable,
        .map_page               = iommu_dma_map_page,
index 1b02179758cbc94d6c129d6638fae544da5b2c24..56866aaa2ae1af0aa8145f4311c72801cdd28477 100644 (file)
@@ -110,15 +110,10 @@ config DMA_GLOBAL_POOL
        select DMA_DECLARE_COHERENT
        bool
 
-config DMA_REMAP
-       bool
-       depends on MMU
-       select DMA_NONCOHERENT_MMAP
-
 config DMA_DIRECT_REMAP
        bool
-       select DMA_REMAP
        select DMA_COHERENT_POOL
+       select DMA_NONCOHERENT_MMAP
 
 config DMA_CMA
        bool "DMA Contiguous Memory Allocator"
index 0dd65ec1d234b4344664b8a90fefbc5fcb8b23c0..21926e46ef4fb27fd378dd5741cee81b60b267da 100644 (file)
@@ -8,5 +8,5 @@ obj-$(CONFIG_DMA_DECLARE_COHERENT)      += coherent.o
 obj-$(CONFIG_DMA_API_DEBUG)            += debug.o
 obj-$(CONFIG_SWIOTLB)                  += swiotlb.o
 obj-$(CONFIG_DMA_COHERENT_POOL)                += pool.o
-obj-$(CONFIG_DMA_REMAP)                        += remap.o
+obj-$(CONFIG_MMU)                      += remap.o
 obj-$(CONFIG_DMA_MAP_BENCHMARK)                += map_benchmark.o
index 50f48e9e459875bbe171ae7224fbfa38396af5ba..35a1d29d6a2e99aad04bb7434e62202838377816 100644 (file)
@@ -265,17 +265,13 @@ void *dma_direct_alloc(struct device *dev, size_t size,
        page = __dma_direct_alloc_pages(dev, size, gfp & ~__GFP_ZERO);
        if (!page)
                return NULL;
+
+       /*
+        * dma_alloc_contiguous can return highmem pages depending on a
+        * combination the cma= arguments and per-arch setup.  These need to be
+        * remapped to return a kernel virtual address.
+        */
        if (PageHighMem(page)) {
-               /*
-                * Depending on the cma= arguments and per-arch setup,
-                * dma_alloc_contiguous could return highmem pages.
-                * Without remapping there is no way to return them here, so
-                * log an error and fail.
-                */
-               if (!IS_ENABLED(CONFIG_DMA_REMAP)) {
-                       dev_info(dev, "Rejecting highmem page from CMA.\n");
-                       goto out_free_pages;
-               }
                remap = true;
                set_uncached = false;
        }
@@ -349,7 +345,7 @@ void dma_direct_free(struct device *dev, size_t size,
            dma_free_from_pool(dev, cpu_addr, PAGE_ALIGN(size)))
                return;
 
-       if (IS_ENABLED(CONFIG_DMA_REMAP) && is_vmalloc_addr(cpu_addr)) {
+       if (is_vmalloc_addr(cpu_addr)) {
                vunmap(cpu_addr);
        } else {
                if (IS_ENABLED(CONFIG_ARCH_HAS_DMA_CLEAR_UNCACHED))