x86: change NR_CPUS arrays in numa_64 fixup
[linux-2.6.git] / include / asm-x86 / topology.h
1 /*
2  * Written by: Matthew Dobson, IBM Corporation
3  *
4  * Copyright (C) 2002, IBM Corp.
5  *
6  * All rights reserved.
7  *
8  * This program is free software; you can redistribute it and/or modify
9  * it under the terms of the GNU General Public License as published by
10  * the Free Software Foundation; either version 2 of the License, or
11  * (at your option) any later version.
12  *
13  * This program is distributed in the hope that it will be useful, but
14  * WITHOUT ANY WARRANTY; without even the implied warranty of
15  * MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE, GOOD TITLE or
16  * NON INFRINGEMENT.  See the GNU General Public License for more
17  * details.
18  *
19  * You should have received a copy of the GNU General Public License
20  * along with this program; if not, write to the Free Software
21  * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
22  *
23  * Send feedback to <colpatch@us.ibm.com>
24  */
25 #ifndef _ASM_X86_TOPOLOGY_H
26 #define _ASM_X86_TOPOLOGY_H
27
28 #ifdef CONFIG_NUMA
29 #include <linux/cpumask.h>
30 #include <asm/mpspec.h>
31
32 /* Mappings between logical cpu number and node number */
33 #ifdef CONFIG_X86_32
34 extern u8 cpu_to_node_map[];
35
36 #else
37 DECLARE_PER_CPU(u16, x86_cpu_to_node_map);
38 extern u16 x86_cpu_to_node_map_init[];
39 extern void *x86_cpu_to_node_map_early_ptr;
40 #endif
41
42 extern cpumask_t node_to_cpumask_map[];
43
44 #define NUMA_NO_NODE    ((u16)(~0))
45
46 /* Returns the number of the node containing CPU 'cpu' */
47 #ifdef CONFIG_X86_32
48 #define early_cpu_to_node(cpu)  cpu_to_node(cpu)
49 static inline int cpu_to_node(int cpu)
50 {
51         return cpu_to_node_map[cpu];
52 }
53
54 #else /* CONFIG_X86_64 */
55 static inline int early_cpu_to_node(int cpu)
56 {
57         u16 *cpu_to_node_map = x86_cpu_to_node_map_early_ptr;
58
59         if (cpu_to_node_map)
60                 return cpu_to_node_map[cpu];
61         else if (per_cpu_offset(cpu))
62                 return per_cpu(x86_cpu_to_node_map, cpu);
63         else
64                 return NUMA_NO_NODE;
65 }
66
67 static inline int cpu_to_node(int cpu)
68 {
69         if(per_cpu_offset(cpu))
70                 return per_cpu(x86_cpu_to_node_map, cpu);
71         else
72                 return NUMA_NO_NODE;
73 }
74 #endif /* CONFIG_X86_64 */
75
76 /*
77  * Returns the number of the node containing Node 'node'. This
78  * architecture is flat, so it is a pretty simple function!
79  */
80 #define parent_node(node) (node)
81
82 /* Returns a bitmask of CPUs on Node 'node'. */
83 static inline cpumask_t node_to_cpumask(int node)
84 {
85         return node_to_cpumask_map[node];
86 }
87
88 /* Returns the number of the first CPU on Node 'node'. */
89 static inline int node_to_first_cpu(int node)
90 {
91         cpumask_t mask = node_to_cpumask(node);
92
93         return first_cpu(mask);
94 }
95
96 #define pcibus_to_node(bus) __pcibus_to_node(bus)
97 #define pcibus_to_cpumask(bus) __pcibus_to_cpumask(bus)
98
99 #ifdef CONFIG_X86_32
100 extern unsigned long node_start_pfn[];
101 extern unsigned long node_end_pfn[];
102 extern unsigned long node_remap_size[];
103 #define node_has_online_mem(nid) (node_start_pfn[nid] != node_end_pfn[nid])
104
105 # ifdef CONFIG_X86_HT
106 #  define ENABLE_TOPO_DEFINES
107 # endif
108
109 # define SD_CACHE_NICE_TRIES    1
110 # define SD_IDLE_IDX            1
111 # define SD_NEWIDLE_IDX         2
112 # define SD_FORKEXEC_IDX        0
113
114 #else
115
116 # ifdef CONFIG_SMP
117 #  define ENABLE_TOPO_DEFINES
118 # endif
119
120 # define SD_CACHE_NICE_TRIES    2
121 # define SD_IDLE_IDX            2
122 # define SD_NEWIDLE_IDX         0
123 # define SD_FORKEXEC_IDX        1
124
125 #endif
126
127 /* sched_domains SD_NODE_INIT for NUMAQ machines */
128 #define SD_NODE_INIT (struct sched_domain) {            \
129         .span                   = CPU_MASK_NONE,        \
130         .parent                 = NULL,                 \
131         .child                  = NULL,                 \
132         .groups                 = NULL,                 \
133         .min_interval           = 8,                    \
134         .max_interval           = 32,                   \
135         .busy_factor            = 32,                   \
136         .imbalance_pct          = 125,                  \
137         .cache_nice_tries       = SD_CACHE_NICE_TRIES,  \
138         .busy_idx               = 3,                    \
139         .idle_idx               = SD_IDLE_IDX,          \
140         .newidle_idx            = SD_NEWIDLE_IDX,       \
141         .wake_idx               = 1,                    \
142         .forkexec_idx           = SD_FORKEXEC_IDX,      \
143         .flags                  = SD_LOAD_BALANCE       \
144                                 | SD_BALANCE_EXEC       \
145                                 | SD_BALANCE_FORK       \
146                                 | SD_SERIALIZE          \
147                                 | SD_WAKE_BALANCE,      \
148         .last_balance           = jiffies,              \
149         .balance_interval       = 1,                    \
150         .nr_balance_failed      = 0,                    \
151 }
152
153 #ifdef CONFIG_X86_64_ACPI_NUMA
154 extern int __node_distance(int, int);
155 #define node_distance(a, b) __node_distance(a, b)
156 #endif
157
158 #else /* CONFIG_NUMA */
159
160 #include <asm-generic/topology.h>
161
162 #endif
163
164 extern cpumask_t cpu_coregroup_map(int cpu);
165
166 #ifdef ENABLE_TOPO_DEFINES
167 #define topology_physical_package_id(cpu)       (cpu_data(cpu).phys_proc_id)
168 #define topology_core_id(cpu)                   (cpu_data(cpu).cpu_core_id)
169 #define topology_core_siblings(cpu)             (per_cpu(cpu_core_map, cpu))
170 #define topology_thread_siblings(cpu)           (per_cpu(cpu_sibling_map, cpu))
171 #endif
172
173 #ifdef CONFIG_SMP
174 #define mc_capable()                    (boot_cpu_data.x86_max_cores > 1)
175 #define smt_capable()                   (smp_num_siblings > 1)
176 #endif
177
178 #endif