Merge branch 'x86-fixes-for-linus' of git://git.kernel.org/pub/scm/linux/kernel/git...
Linus Torvalds [Tue, 8 Dec 2009 21:38:11 +0000 (13:38 -0800)]
* 'x86-fixes-for-linus' of git://git.kernel.org/pub/scm/linux/kernel/git/tip/linux-2.6-tip:
  x86, mce: don't restart timer if disabled
  x86: Use -maccumulate-outgoing-args for sane mcount prologues
  x86: Prevent GCC 4.4.x (pentium-mmx et al) function prologue wreckage
  x86: AMD Northbridge: Verify NB's node is online
  x86 VSDO: Fix Kconfig help
  x86: Fix typo in Intel CPU cache size descriptor
  x86: Add new Intel CPU cache size descriptors

1  2 
arch/x86/Kconfig
arch/x86/Makefile_32.cpu
arch/x86/kernel/cpu/intel_cacheinfo.c
arch/x86/kernel/cpu/mcheck/mce.c

diff --combined arch/x86/Kconfig
@@@ -49,9 -49,7 +49,9 @@@ config X8
        select HAVE_KERNEL_GZIP
        select HAVE_KERNEL_BZIP2
        select HAVE_KERNEL_LZMA
 +      select HAVE_HW_BREAKPOINT
        select HAVE_ARCH_KMEMCHECK
 +      select HAVE_USER_RETURN_NOTIFIER
  
  config OUTPUT_FORMAT
        string
@@@ -1332,9 -1330,7 +1332,9 @@@ config MATH_EMULATIO
          kernel, it won't hurt.
  
  config MTRR
 -      bool "MTRR (Memory Type Range Register) support"
 +      bool
 +      default y
 +      prompt "MTRR (Memory Type Range Register) support" if EMBEDDED
        ---help---
          On Intel P6 family processors (Pentium Pro, Pentium II and later)
          the Memory Type Range Registers (MTRRs) may be used to control
@@@ -1400,8 -1396,7 +1400,8 @@@ config MTRR_SANITIZER_SPARE_REG_NR_DEFA
  
  config X86_PAT
        bool
 -      prompt "x86 PAT support"
 +      default y
 +      prompt "x86 PAT support" if EMBEDDED
        depends on MTRR
        ---help---
          Use PAT attributes to setup page level cache control.
@@@ -1607,7 -1602,7 +1607,7 @@@ config COMPAT_VDS
        depends on X86_32 || IA32_EMULATION
        ---help---
          Map the 32-bit VDSO to the predictable old-style address too.
-       ---help---
          Say N here if you are running a sufficiently recent glibc
          version (2.3.3 or later), to remove the high-mapped
          VDSO mapping and to exclusively use the randomized VDSO.
diff --combined arch/x86/Makefile_32.cpu
@@@ -41,11 -41,18 +41,18 @@@ cflags-$(CONFIG_X86_ELAN)  += -march=i48
  
  # Geode GX1 support
  cflags-$(CONFIG_MGEODEGX1)    += -march=pentium-mmx
 -
 +cflags-$(CONFIG_MGEODE_LX)    += $(call cc-option,-march=geode,-march=pentium-mmx)
  # add at the end to overwrite eventual tuning options from earlier
  # cpu entries
  cflags-$(CONFIG_X86_GENERIC)  += $(call tune,generic,$(call tune,i686))
  
+ # Work around the pentium-mmx code generator madness of gcc4.4.x which
+ # does stack alignment by generating horrible code _before_ the mcount
+ # prologue (push %ebp, mov %esp, %ebp) which breaks the function graph
+ # tracer assumptions. For i686, generic, core2 this is set by the
+ # compiler anyway
+ cflags-$(CONFIG_FUNCTION_GRAPH_TRACER) += $(call cc-option,-maccumulate-outgoing-args)
  # Bug fix for binutils: this option is required in order to keep
  # binutils from generating NOPL instructions against our will.
  ifneq ($(CONFIG_X86_P6_NOP),y)
@@@ -94,7 -94,7 +94,7 @@@ static const struct _cache_table __cpui
        { 0xd1, LVL_3,    1024 },       /* 4-way set assoc, 64 byte line size */
        { 0xd2, LVL_3,    2048 },       /* 4-way set assoc, 64 byte line size */
        { 0xd6, LVL_3,    1024 },       /* 8-way set assoc, 64 byte line size */
-       { 0xd7, LVL_3,    2038 },       /* 8-way set assoc, 64 byte line size */
+       { 0xd7, LVL_3,    2048 },       /* 8-way set assoc, 64 byte line size */
        { 0xd8, LVL_3,    4096 },       /* 12-way set assoc, 64 byte line size */
        { 0xdc, LVL_3,    2048 },       /* 12-way set assoc, 64 byte line size */
        { 0xdd, LVL_3,    4096 },       /* 12-way set assoc, 64 byte line size */
        { 0xe2, LVL_3,    2048 },       /* 16-way set assoc, 64 byte line size */
        { 0xe3, LVL_3,    4096 },       /* 16-way set assoc, 64 byte line size */
        { 0xe4, LVL_3,    8192 },       /* 16-way set assoc, 64 byte line size */
+       { 0xea, LVL_3,    12288 },      /* 24-way set assoc, 64 byte line size */
+       { 0xeb, LVL_3,    18432 },      /* 24-way set assoc, 64 byte line size */
+       { 0xec, LVL_3,    24576 },      /* 24-way set assoc, 64 byte line size */
        { 0x00, 0, 0}
  };
  
@@@ -488,6 -491,22 +491,6 @@@ unsigned int __cpuinit init_intel_cache
  #endif
        }
  
 -      if (trace)
 -              printk(KERN_INFO "CPU: Trace cache: %dK uops", trace);
 -      else if (l1i)
 -              printk(KERN_INFO "CPU: L1 I cache: %dK", l1i);
 -
 -      if (l1d)
 -              printk(KERN_CONT ", L1 D cache: %dK\n", l1d);
 -      else
 -              printk(KERN_CONT "\n");
 -
 -      if (l2)
 -              printk(KERN_INFO "CPU: L2 cache: %dK\n", l2);
 -
 -      if (l3)
 -              printk(KERN_INFO "CPU: L3 cache: %dK\n", l3);
 -
        c->x86_cache_size = l3 ? l3 : (l2 ? l2 : (l1i+l1d));
  
        return l2;
@@@ -46,9 -46,6 +46,9 @@@
  
  #include "mce-internal.h"
  
 +#define CREATE_TRACE_POINTS
 +#include <trace/events/mce.h>
 +
  int mce_disabled __read_mostly;
  
  #define MISC_MCELOG_MINOR     227
@@@ -88,26 -85,18 +88,26 @@@ static DECLARE_WAIT_QUEUE_HEAD(mce_wait
  static DEFINE_PER_CPU(struct mce, mces_seen);
  static int                    cpu_missing;
  
 -static void default_decode_mce(struct mce *m)
 +/*
 + * CPU/chipset specific EDAC code can register a notifier call here to print
 + * MCE errors in a human-readable form.
 + */
 +ATOMIC_NOTIFIER_HEAD(x86_mce_decoder_chain);
 +EXPORT_SYMBOL_GPL(x86_mce_decoder_chain);
 +
 +static int default_decode_mce(struct notifier_block *nb, unsigned long val,
 +                             void *data)
  {
        pr_emerg("No human readable MCE decoding support on this CPU type.\n");
        pr_emerg("Run the message through 'mcelog --ascii' to decode.\n");
 +
 +      return NOTIFY_STOP;
  }
  
 -/*
 - * CPU/chipset specific EDAC code can register a callback here to print
 - * MCE errors in a human-readable form:
 - */
 -void (*x86_mce_decode_callback)(struct mce *m) = default_decode_mce;
 -EXPORT_SYMBOL(x86_mce_decode_callback);
 +static struct notifier_block mce_dec_nb = {
 +      .notifier_call = default_decode_mce,
 +      .priority      = -1,
 +};
  
  /* MCA banks polled by the period polling timer for corrected events */
  DEFINE_PER_CPU(mce_banks_t, mce_poll_banks) = {
@@@ -152,9 -141,6 +152,9 @@@ void mce_log(struct mce *mce
  {
        unsigned next, entry;
  
 +      /* Emit the trace record: */
 +      trace_mce_record(mce);
 +
        mce->finished = 0;
        wmb();
        for (;;) {
@@@ -218,9 -204,9 +218,9 @@@ static void print_mce(struct mce *m
  
        /*
         * Print out human-readable details about the MCE error,
 -       * (if the CPU has an implementation for that):
 +       * (if the CPU has an implementation for that)
         */
 -      x86_mce_decode_callback(m);
 +      atomic_notifier_call_chain(&x86_mce_decoder_chain, 0, m);
  }
  
  static void print_mce_head(void)
@@@ -1136,7 -1122,7 +1136,7 @@@ static int check_interval = 5 * 60; /* 
  static DEFINE_PER_CPU(int, mce_next_interval); /* in jiffies */
  static DEFINE_PER_CPU(struct timer_list, mce_timer);
  
 -static void mcheck_timer(unsigned long data)
 +static void mce_start_timer(unsigned long data)
  {
        struct timer_list *t = &per_cpu(mce_timer, data);
        int *n;
@@@ -1201,7 -1187,7 +1201,7 @@@ int mce_notify_irq(void
  }
  EXPORT_SYMBOL_GPL(mce_notify_irq);
  
 -static int mce_banks_init(void)
 +static int __cpuinit __mcheck_cpu_mce_banks_init(void)
  {
        int i;
  
  /*
   * Initialize Machine Checks for a CPU.
   */
 -static int __cpuinit mce_cap_init(void)
 +static int __cpuinit __mcheck_cpu_cap_init(void)
  {
        unsigned b;
        u64 cap;
        WARN_ON(banks != 0 && b != banks);
        banks = b;
        if (!mce_banks) {
 -              int err = mce_banks_init();
 +              int err = __mcheck_cpu_mce_banks_init();
  
                if (err)
                        return err;
        return 0;
  }
  
 -static void mce_init(void)
 +static void __mcheck_cpu_init_generic(void)
  {
        mce_banks_t all_banks;
        u64 cap;
  }
  
  /* Add per CPU specific workarounds here */
 -static int __cpuinit mce_cpu_quirks(struct cpuinfo_x86 *c)
 +static int __cpuinit __mcheck_cpu_apply_quirks(struct cpuinfo_x86 *c)
  {
        if (c->x86_vendor == X86_VENDOR_UNKNOWN) {
                pr_info("MCE: unknown CPU type - not enabling MCE support.\n");
        return 0;
  }
  
 -static void __cpuinit mce_ancient_init(struct cpuinfo_x86 *c)
 +static void __cpuinit __mcheck_cpu_ancient_init(struct cpuinfo_x86 *c)
  {
        if (c->x86 != 5)
                return;
        }
  }
  
 -static void mce_cpu_features(struct cpuinfo_x86 *c)
 +static void __mcheck_cpu_init_vendor(struct cpuinfo_x86 *c)
  {
        switch (c->x86_vendor) {
        case X86_VENDOR_INTEL:
        }
  }
  
 -static void mce_init_timer(void)
 +static void __mcheck_cpu_init_timer(void)
  {
        struct timer_list *t = &__get_cpu_var(mce_timer);
        int *n = &__get_cpu_var(mce_next_interval);
        *n = check_interval * HZ;
        if (!*n)
                return;
 -      setup_timer(t, mcheck_timer, smp_processor_id());
 +      setup_timer(t, mce_start_timer, smp_processor_id());
        t->expires = round_jiffies(jiffies + *n);
        add_timer_on(t, smp_processor_id());
  }
@@@ -1414,28 -1400,27 +1414,28 @@@ void (*machine_check_vector)(struct pt_
   * Called for each booted CPU to set up machine checks.
   * Must be called with preempt off:
   */
 -void __cpuinit mcheck_init(struct cpuinfo_x86 *c)
 +void __cpuinit mcheck_cpu_init(struct cpuinfo_x86 *c)
  {
        if (mce_disabled)
                return;
  
 -      mce_ancient_init(c);
 +      __mcheck_cpu_ancient_init(c);
  
        if (!mce_available(c))
                return;
  
 -      if (mce_cap_init() < 0 || mce_cpu_quirks(c) < 0) {
 +      if (__mcheck_cpu_cap_init() < 0 || __mcheck_cpu_apply_quirks(c) < 0) {
                mce_disabled = 1;
                return;
        }
  
        machine_check_vector = do_machine_check;
  
 -      mce_init();
 -      mce_cpu_features(c);
 -      mce_init_timer();
 +      __mcheck_cpu_init_generic();
 +      __mcheck_cpu_init_vendor(c);
 +      __mcheck_cpu_init_timer();
        INIT_WORK(&__get_cpu_var(mce_work), mce_process_work);
 +
  }
  
  /*
@@@ -1655,15 -1640,6 +1655,15 @@@ static int __init mcheck_enable(char *s
  }
  __setup("mce", mcheck_enable);
  
 +int __init mcheck_init(void)
 +{
 +      atomic_notifier_chain_register(&x86_mce_decoder_chain, &mce_dec_nb);
 +
 +      mcheck_intel_therm_init();
 +
 +      return 0;
 +}
 +
  /*
   * Sysfs support
   */
   * Disable machine checks on suspend and shutdown. We can't really handle
   * them later.
   */
 -static int mce_disable(void)
 +static int mce_disable_error_reporting(void)
  {
        int i;
  
  
  static int mce_suspend(struct sys_device *dev, pm_message_t state)
  {
 -      return mce_disable();
 +      return mce_disable_error_reporting();
  }
  
  static int mce_shutdown(struct sys_device *dev)
  {
 -      return mce_disable();
 +      return mce_disable_error_reporting();
  }
  
  /*
   */
  static int mce_resume(struct sys_device *dev)
  {
 -      mce_init();
 -      mce_cpu_features(&current_cpu_data);
 +      __mcheck_cpu_init_generic();
 +      __mcheck_cpu_init_vendor(&current_cpu_data);
  
        return 0;
  }
@@@ -1713,8 -1689,8 +1713,8 @@@ static void mce_cpu_restart(void *data
        del_timer_sync(&__get_cpu_var(mce_timer));
        if (!mce_available(&current_cpu_data))
                return;
 -      mce_init();
 -      mce_init_timer();
 +      __mcheck_cpu_init_generic();
 +      __mcheck_cpu_init_timer();
  }
  
  /* Reinit MCEs after user configuration changes */
@@@ -1740,7 -1716,7 +1740,7 @@@ static void mce_enable_ce(void *all
        cmci_reenable();
        cmci_recheck();
        if (all)
 -              mce_init_timer();
 +              __mcheck_cpu_init_timer();
  }
  
  static struct sysdev_class mce_sysclass = {
@@@ -1953,14 -1929,13 +1953,14 @@@ static __cpuinit void mce_remove_device
  }
  
  /* Make sure there are no machine checks on offlined CPUs. */
 -static void mce_disable_cpu(void *h)
 +static void __cpuinit mce_disable_cpu(void *h)
  {
        unsigned long action = *(unsigned long *)h;
        int i;
  
        if (!mce_available(&current_cpu_data))
                return;
 +
        if (!(action & CPU_TASKS_FROZEN))
                cmci_clear();
        for (i = 0; i < banks; i++) {
        }
  }
  
 -static void mce_reenable_cpu(void *h)
 +static void __cpuinit mce_reenable_cpu(void *h)
  {
        unsigned long action = *(unsigned long *)h;
        int i;
@@@ -2016,9 -1991,11 +2016,11 @@@ mce_cpu_callback(struct notifier_block 
                break;
        case CPU_DOWN_FAILED:
        case CPU_DOWN_FAILED_FROZEN:
-               t->expires = round_jiffies(jiffies +
+               if (!mce_ignore_ce && check_interval) {
+                       t->expires = round_jiffies(jiffies +
                                           __get_cpu_var(mce_next_interval));
-               add_timer_on(t, cpu);
+                       add_timer_on(t, cpu);
+               }
                smp_call_function_single(cpu, mce_reenable_cpu, &action, 1);
                break;
        case CPU_POST_DEAD:
@@@ -2050,7 -2027,7 +2052,7 @@@ static __init void mce_init_banks(void
        }
  }
  
 -static __init int mce_init_device(void)
 +static __init int mcheck_init_device(void)
  {
        int err;
        int i = 0;
        return err;
  }
  
 -device_initcall(mce_init_device);
 +device_initcall(mcheck_init_device);
  
  /*
   * Old style boot options parsing. Only for compatibility.
@@@ -2126,7 -2103,7 +2128,7 @@@ static int fake_panic_set(void *data, u
  DEFINE_SIMPLE_ATTRIBUTE(fake_panic_fops, fake_panic_get,
                        fake_panic_set, "%llu\n");
  
 -static int __init mce_debugfs_init(void)
 +static int __init mcheck_debugfs_init(void)
  {
        struct dentry *dmce, *ffake_panic;
  
  
        return 0;
  }
 -late_initcall(mce_debugfs_init);
 +late_initcall(mcheck_debugfs_init);
  #endif