]> git.baikalelectronics.ru Git - kernel.git/commit
x86/extable: Macrofy inline assembly code to work around GCC inlining bugs
authorNadav Amit <namit@vmware.com>
Fri, 5 Oct 2018 20:27:16 +0000 (13:27 -0700)
committerIngo Molnar <mingo@kernel.org>
Sat, 6 Oct 2018 13:52:15 +0000 (15:52 +0200)
commit9946703991b2d1b6ea8436118e2e29b76b0c20af
tree2c1c08457dba60d0b6508e74fb052bd725ae4a0f
parent3f8e47300fea7e6fcc7571faa04ce85d36dcc4cb
x86/extable: Macrofy inline assembly code to work around GCC inlining bugs

As described in:

  3e64a4f4a82b: ("kbuild/Makefile: Prepare for using macros in inline assembly code to work around asm() related GCC inlining bugs")

GCC's inlining heuristics are broken with common asm() patterns used in
kernel code, resulting in the effective disabling of inlining.

The workaround is to set an assembly macro and call it from the inline
assembly block - which is also a minor cleanup for the exception table
code.

Text size goes up a bit:

      text     data     bss      dec     hex  filename
  18162555 10226288 2957312 31346155 1de4deb  ./vmlinux before
  18162879 10226256 2957312 31346447 1de4f0f  ./vmlinux after (+292)

But this allows the inlining of functions such as nested_vmx_exit_reflected(),
set_segment_reg(), __copy_xstate_to_user() which is a net benefit.

Tested-by: Kees Cook <keescook@chromium.org>
Signed-off-by: Nadav Amit <namit@vmware.com>
Acked-by: Peter Zijlstra (Intel) <peterz@infradead.org>
Cc: Andy Lutomirski <luto@amacapital.net>
Cc: Borislav Petkov <bp@alien8.de>
Cc: Brian Gerst <brgerst@gmail.com>
Cc: Denys Vlasenko <dvlasenk@redhat.com>
Cc: Josh Poimboeuf <jpoimboe@redhat.com>
Cc: Linus Torvalds <torvalds@linux-foundation.org>
Cc: Peter Zijlstra <peterz@infradead.org>
Cc: Thomas Gleixner <tglx@linutronix.de>
Link: http://lkml.kernel.org/r/20181005202718.229565-2-namit@vmware.com
Link: https://lore.kernel.org/lkml/20181003213100.189959-9-namit@vmware.com/T/#u
Signed-off-by: Ingo Molnar <mingo@kernel.org>
arch/x86/include/asm/asm.h
arch/x86/kernel/macros.S