[PATCH] x86_64: i386/x86_64: remove prototypes for not existing functions in smp.h
[linux-2.6.git] / include / asm-x86_64 / smp.h
1 #ifndef __ASM_SMP_H
2 #define __ASM_SMP_H
3
4 /*
5  * We need the APIC definitions automatically as part of 'smp.h'
6  */
7 #ifndef __ASSEMBLY__
8 #include <linux/config.h>
9 #include <linux/threads.h>
10 #include <linux/cpumask.h>
11 #include <linux/bitops.h>
12 extern int disable_apic;
13 #endif
14
15 #ifdef CONFIG_X86_LOCAL_APIC
16 #ifndef __ASSEMBLY__
17 #include <asm/fixmap.h>
18 #include <asm/mpspec.h>
19 #ifdef CONFIG_X86_IO_APIC
20 #include <asm/io_apic.h>
21 #endif
22 #include <asm/apic.h>
23 #include <asm/thread_info.h>
24 #endif
25 #endif
26
27 #ifdef CONFIG_SMP
28 #ifndef ASSEMBLY
29
30 #include <asm/pda.h>
31
32 struct pt_regs;
33
34 extern cpumask_t cpu_present_mask;
35 extern cpumask_t cpu_possible_map;
36 extern cpumask_t cpu_online_map;
37 extern cpumask_t cpu_callout_map;
38
39 /*
40  * Private routines/data
41  */
42  
43 extern void smp_alloc_memory(void);
44 extern volatile unsigned long smp_invalidate_needed;
45 extern int pic_mode;
46 extern void lock_ipi_call_lock(void);
47 extern void unlock_ipi_call_lock(void);
48 extern int smp_num_siblings;
49 extern void smp_send_reschedule(int cpu);
50 extern void zap_low_mappings(void);
51 void smp_stop_cpu(void);
52 extern cpumask_t cpu_sibling_map[NR_CPUS];
53 extern cpumask_t cpu_core_map[NR_CPUS];
54 extern u8 phys_proc_id[NR_CPUS];
55 extern u8 cpu_core_id[NR_CPUS];
56
57 #define SMP_TRAMPOLINE_BASE 0x6000
58
59 /*
60  * On x86 all CPUs are mapped 1:1 to the APIC space.
61  * This simplifies scheduling and IPI sending and
62  * compresses data structures.
63  */
64
65 static inline int num_booting_cpus(void)
66 {
67         return cpus_weight(cpu_callout_map);
68 }
69
70 #define raw_smp_processor_id() read_pda(cpunumber)
71
72 extern __inline int hard_smp_processor_id(void)
73 {
74         /* we don't want to mark this access volatile - bad code generation */
75         return GET_APIC_ID(*(unsigned int *)(APIC_BASE+APIC_ID));
76 }
77
78 extern int safe_smp_processor_id(void);
79 extern int __cpu_disable(void);
80 extern void __cpu_die(unsigned int cpu);
81
82 #endif /* !ASSEMBLY */
83
84 #define NO_PROC_ID              0xFF            /* No processor magic marker */
85
86 #endif
87
88 #ifndef ASSEMBLY
89 /*
90  * Some lowlevel functions might want to know about
91  * the real APIC ID <-> CPU # mapping.
92  */
93 extern u8 x86_cpu_to_apicid[NR_CPUS];   /* physical ID */
94 extern u8 x86_cpu_to_log_apicid[NR_CPUS];
95 extern u8 bios_cpu_apicid[];
96
97 static inline unsigned int cpu_mask_to_apicid(cpumask_t cpumask)
98 {
99         return cpus_addr(cpumask)[0];
100 }
101
102 static inline int cpu_present_to_apicid(int mps_cpu)
103 {
104         if (mps_cpu < NR_CPUS)
105                 return (int)bios_cpu_apicid[mps_cpu];
106         else
107                 return BAD_APICID;
108 }
109
110 #endif /* !ASSEMBLY */
111
112 #ifndef CONFIG_SMP
113 #define stack_smp_processor_id() 0
114 #define safe_smp_processor_id() 0
115 #define cpu_logical_map(x) (x)
116 #else
117 #include <asm/thread_info.h>
118 #define stack_smp_processor_id() \
119 ({                                                              \
120         struct thread_info *ti;                                 \
121         __asm__("andq %%rsp,%0; ":"=r" (ti) : "0" (CURRENT_MASK));      \
122         ti->cpu;                                                \
123 })
124 #endif
125
126 #ifndef __ASSEMBLY__
127 static __inline int logical_smp_processor_id(void)
128 {
129         /* we don't want to mark this access volatile - bad code generation */
130         return GET_APIC_LOGICAL_ID(*(unsigned long *)(APIC_BASE+APIC_LDR));
131 }
132 #endif
133
134 #endif
135