]> git.baikalelectronics.ru Git - kernel.git/commitdiff
powerpc/ftrace: Don't use copy_from_kernel_nofault() in module_trampoline_target()
authorChristophe Leroy <christophe.leroy@csgroup.eu>
Mon, 9 May 2022 05:36:19 +0000 (07:36 +0200)
committerMichael Ellerman <mpe@ellerman.id.au>
Sun, 22 May 2022 05:58:27 +0000 (15:58 +1000)
module_trampoline_target() is quite a hot path used when
activating/deactivating function tracer.

Avoid the heavy copy_from_kernel_nofault() by doing four calls
to copy_inst_from_kernel_nofault().

Use __copy_inst_from_kernel_nofault() for the 3 last calls. First call
is done to copy_from_kernel_nofault() to check address is within
kernel space. No risk to wrap out the top of kernel space because the
last page is never mapped so if address is in last page the first copy
will fails and the other ones will never be performed.

And also make it notrace just like all functions that call it.

Signed-off-by: Christophe Leroy <christophe.leroy@csgroup.eu>
Signed-off-by: Michael Ellerman <mpe@ellerman.id.au>
Link: https://lore.kernel.org/r/c55559103e014b7863161559d340e8e9484eaaa6.1652074503.git.christophe.leroy@csgroup.eu
arch/powerpc/kernel/module_32.c

index e25b796682cc07ff55c526974562c59cad45597b..e5a2f8fe048264a424659a9eab0a0213c1635481 100644 (file)
@@ -289,23 +289,32 @@ int apply_relocate_add(Elf32_Shdr *sechdrs,
 }
 
 #ifdef CONFIG_DYNAMIC_FTRACE
-int module_trampoline_target(struct module *mod, unsigned long addr,
-                            unsigned long *target)
+notrace int module_trampoline_target(struct module *mod, unsigned long addr,
+                                    unsigned long *target)
 {
-       unsigned int jmp[4];
+       ppc_inst_t jmp[4];
 
        /* Find where the trampoline jumps to */
-       if (copy_from_kernel_nofault(jmp, (void *)addr, sizeof(jmp)))
+       if (copy_inst_from_kernel_nofault(jmp, (void *)addr))
+               return -EFAULT;
+       if (__copy_inst_from_kernel_nofault(jmp + 1, (void *)addr + 4))
+               return -EFAULT;
+       if (__copy_inst_from_kernel_nofault(jmp + 2, (void *)addr + 8))
+               return -EFAULT;
+       if (__copy_inst_from_kernel_nofault(jmp + 3, (void *)addr + 12))
                return -EFAULT;
 
        /* verify that this is what we expect it to be */
-       if ((jmp[0] & 0xffff0000) != PPC_RAW_LIS(_R12, 0) ||
-           (jmp[1] & 0xffff0000) != PPC_RAW_ADDI(_R12, _R12, 0) ||
-           jmp[2] != PPC_RAW_MTCTR(_R12) ||
-           jmp[3] != PPC_RAW_BCTR())
+       if ((ppc_inst_val(jmp[0]) & 0xffff0000) != PPC_RAW_LIS(_R12, 0))
+               return -EINVAL;
+       if ((ppc_inst_val(jmp[1]) & 0xffff0000) != PPC_RAW_ADDI(_R12, _R12, 0))
+               return -EINVAL;
+       if (ppc_inst_val(jmp[2]) != PPC_RAW_MTCTR(_R12))
+               return -EINVAL;
+       if (ppc_inst_val(jmp[3]) != PPC_RAW_BCTR())
                return -EINVAL;
 
-       addr = (jmp[1] & 0xffff) | ((jmp[0] & 0xffff) << 16);
+       addr = (ppc_inst_val(jmp[1]) & 0xffff) | ((ppc_inst_val(jmp[0]) & 0xffff) << 16);
        if (addr & 0x8000)
                addr -= 0x10000;