Revert most of "x86: Fix alternatives and kprobes to remap write-protected kernel...
authorLinus Torvalds <torvalds@woody.linux-foundation.org>
Thu, 26 Jul 2007 19:07:21 +0000 (12:07 -0700)
committerLinus Torvalds <torvalds@woody.linux-foundation.org>
Thu, 26 Jul 2007 19:07:21 +0000 (12:07 -0700)
This reverts most of commit 19d36ccdc34f5ed444f8a6af0cbfdb6790eb1177.

The way to DEBUG_RODATA interactions with KPROBES and CPU hotplug is to
just not mark the text as being write-protected in the first place.
Both of those facilities depend on rewriting instructions.

Having "helpful" debug facilities that just cause more problem is not
being helpful.  It just adds complexity and bugs. Not worth it.

Reported-by: Rafael J. Wysocki <rjw@sisk.pl>
Cc: Andi Kleen <ak@suse.de>
Cc: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
arch/i386/kernel/alternative.c
arch/i386/mm/init.c
arch/x86_64/mm/init.c

index c3750c2c41137a694be9570443f59b379cc4cc4d..c85598acb8fd5854394dd4aa8e16877bd5c01848 100644 (file)
@@ -430,22 +430,12 @@ void __init alternative_instructions(void)
  * And on the local CPU you need to be protected again NMI or MCE handlers
  * seeing an inconsistent instruction while you patch.
  */
  * And on the local CPU you need to be protected again NMI or MCE handlers
  * seeing an inconsistent instruction while you patch.
  */
-void __kprobes text_poke(void *oaddr, unsigned char *opcode, int len)
+void __kprobes text_poke(void *addr, unsigned char *opcode, int len)
 {
 {
-        u8 *addr = oaddr;
-       if (!pte_write(*lookup_address((unsigned long)addr))) {
-               struct page *p[2] = { virt_to_page(addr), virt_to_page(addr+PAGE_SIZE) };
-               addr = vmap(p, 2, VM_MAP, PAGE_KERNEL);
-               if (!addr)
-                       return;
-               addr += ((unsigned long)oaddr) % PAGE_SIZE;
-       }
        memcpy(addr, opcode, len);
        sync_core();
        /* Not strictly needed, but can speed CPU recovery up. Ignore cross cacheline
           case. */
        if (cpu_has_clflush)
        memcpy(addr, opcode, len);
        sync_core();
        /* Not strictly needed, but can speed CPU recovery up. Ignore cross cacheline
           case. */
        if (cpu_has_clflush)
-               asm("clflush (%0) " :: "r" (oaddr) : "memory");
-       if (addr != oaddr)
-               vunmap(addr);
+               asm("clflush (%0) " :: "r" (addr) : "memory");
 }
 }
index 1b1a1e66d099b7c5df78d91d7c4244eb51f06d4b..4c4809f13cb134007cb1c90f567c2e1d367895b3 100644 (file)
@@ -800,9 +800,17 @@ void mark_rodata_ro(void)
        unsigned long start = PFN_ALIGN(_text);
        unsigned long size = PFN_ALIGN(_etext) - start;
 
        unsigned long start = PFN_ALIGN(_text);
        unsigned long size = PFN_ALIGN(_etext) - start;
 
-       change_page_attr(virt_to_page(start),
-                        size >> PAGE_SHIFT, PAGE_KERNEL_RX);
-       printk("Write protecting the kernel text: %luk\n", size >> 10);
+#ifndef CONFIG_KPROBES
+#ifdef CONFIG_HOTPLUG_CPU
+       /* It must still be possible to apply SMP alternatives. */
+       if (num_possible_cpus() <= 1)
+#endif
+       {
+               change_page_attr(virt_to_page(start),
+                                size >> PAGE_SHIFT, PAGE_KERNEL_RX);
+               printk("Write protecting the kernel text: %luk\n", size >> 10);
+       }
+#endif
        start += size;
        size = (unsigned long)__end_rodata - start;
        change_page_attr(virt_to_page(start),
        start += size;
        size = (unsigned long)__end_rodata - start;
        change_page_attr(virt_to_page(start),
index 38f5d63680060769a58b7ac607f9085b6acf19d3..458893b376f811fe1e3b0b9f87444a68aeae53c6 100644 (file)
@@ -600,6 +600,16 @@ void mark_rodata_ro(void)
 {
        unsigned long start = (unsigned long)_stext, end;
 
 {
        unsigned long start = (unsigned long)_stext, end;
 
+#ifdef CONFIG_HOTPLUG_CPU
+       /* It must still be possible to apply SMP alternatives. */
+       if (num_possible_cpus() > 1)
+               start = (unsigned long)_etext;
+#endif
+
+#ifdef CONFIG_KPROBES
+       start = (unsigned long)__start_rodata;
+#endif
+       
        end = (unsigned long)__end_rodata;
        start = (start + PAGE_SIZE - 1) & PAGE_MASK;
        end &= PAGE_MASK;
        end = (unsigned long)__end_rodata;
        start = (start + PAGE_SIZE - 1) & PAGE_MASK;
        end &= PAGE_MASK;