]> git.baikalelectronics.ru Git - kernel.git/commitdiff
nios2: remove __ioremap
authorChristoph Hellwig <hch@lst.de>
Wed, 7 Aug 2019 15:56:08 +0000 (18:56 +0300)
committerChristoph Hellwig <hch@lst.de>
Mon, 11 Nov 2019 16:19:49 +0000 (17:19 +0100)
The cacheflag argument to __ioremap is always 0, so just implement
ioremap directly.

Signed-off-by: Christoph Hellwig <hch@lst.de>
arch/nios2/include/asm/io.h
arch/nios2/mm/ioremap.c

index 9010243077ab5c1c6378d1d0e614423435a33481..74ab34aa67310e45fc151325f124be16959c0d8d 100644 (file)
 #define writew_relaxed(x, addr)        writew(x, addr)
 #define writel_relaxed(x, addr)        writel(x, addr)
 
-extern void __iomem *__ioremap(unsigned long physaddr, unsigned long size,
-                       unsigned long cacheflag);
+void __iomem *ioremap(unsigned long physaddr, unsigned long size);
 extern void __iounmap(void __iomem *addr);
 
-static inline void __iomem *ioremap(unsigned long physaddr, unsigned long size)
-{
-       return __ioremap(physaddr, size, 0);
-}
-
-static inline void __iomem *ioremap_nocache(unsigned long physaddr,
-                                               unsigned long size)
-{
-       return __ioremap(physaddr, size, 0);
-}
-
 static inline void iounmap(void __iomem *addr)
 {
        __iounmap(addr);
 }
 
-#define ioremap_nocache ioremap_nocache
-#define ioremap_wc ioremap_nocache
-#define ioremap_wt ioremap_nocache
+#define ioremap_nocache ioremap
+#define ioremap_wc ioremap
+#define ioremap_wt ioremap
 
 /* Pages to physical address... */
 #define page_to_phys(page)     virt_to_phys(page_to_virt(page))
index 3a28177a01ebe5fa54885fa471d62ccbdeb3bad7..7a1a27f3daa3b08ae20fae6ca0a54450673b5096 100644 (file)
@@ -112,8 +112,7 @@ static int remap_area_pages(unsigned long address, unsigned long phys_addr,
 /*
  * Map some physical address range into the kernel address space.
  */
-void __iomem *__ioremap(unsigned long phys_addr, unsigned long size,
-                       unsigned long cacheflag)
+void __iomem *ioremap(unsigned long phys_addr, unsigned long size)
 {
        struct vm_struct *area;
        unsigned long offset;
@@ -139,15 +138,6 @@ void __iomem *__ioremap(unsigned long phys_addr, unsigned long size,
                                return NULL;
        }
 
-       /*
-        * Map uncached objects in the low part of address space to
-        * CONFIG_NIOS2_IO_REGION_BASE
-        */
-       if (IS_MAPPABLE_UNCACHEABLE(phys_addr) &&
-           IS_MAPPABLE_UNCACHEABLE(last_addr) &&
-           !(cacheflag & _PAGE_CACHED))
-               return (void __iomem *)(CONFIG_NIOS2_IO_REGION_BASE + phys_addr);
-
        /* Mappings have to be page-aligned */
        offset = phys_addr & ~PAGE_MASK;
        phys_addr &= PAGE_MASK;
@@ -158,14 +148,13 @@ void __iomem *__ioremap(unsigned long phys_addr, unsigned long size,
        if (!area)
                return NULL;
        addr = area->addr;
-       if (remap_area_pages((unsigned long) addr, phys_addr, size,
-               cacheflag)) {
+       if (remap_area_pages((unsigned long) addr, phys_addr, size, 0)) {
                vunmap(addr);
                return NULL;
        }
        return (void __iomem *) (offset + (char *)addr);
 }
-EXPORT_SYMBOL(__ioremap);
+EXPORT_SYMBOL(ioremap);
 
 /*
  * __iounmap unmaps nearly everything, so be careful