x86: introduce fill_ldt
[linux-2.6.git] / include / asm-x86 / desc_32.h
1 #ifndef __ARCH_DESC_H
2 #define __ARCH_DESC_H
3
4 #include <asm/ldt.h>
5 #include <asm/segment.h>
6 #include <asm/desc_defs.h>
7
8 #ifndef __ASSEMBLY__
9
10 #include <linux/preempt.h>
11 #include <linux/smp.h>
12 #include <linux/percpu.h>
13
14 #include <asm/mmu.h>
15
16 struct gdt_page
17 {
18         struct desc_struct gdt[GDT_ENTRIES];
19 } __attribute__((aligned(PAGE_SIZE)));
20 DECLARE_PER_CPU(struct gdt_page, gdt_page);
21
22 static inline struct desc_struct *get_cpu_gdt_table(unsigned int cpu)
23 {
24         return per_cpu(gdt_page, cpu).gdt;
25 }
26
27 extern struct desc_ptr idt_descr;
28 extern gate_desc idt_table[];
29 extern void set_intr_gate(unsigned int irq, void * addr);
30
31 static inline void pack_descriptor(__u32 *a, __u32 *b,
32         unsigned long base, unsigned long limit, unsigned char type, unsigned char flags)
33 {
34         *a = ((base & 0xffff) << 16) | (limit & 0xffff);
35         *b = (base & 0xff000000) | ((base & 0xff0000) >> 16) |
36                 (limit & 0x000f0000) | ((type & 0xff) << 8) | ((flags & 0xf) << 20);
37 }
38
39 static inline void pack_gate(gate_desc *gate,
40         unsigned long base, unsigned short seg, unsigned char type, unsigned char flags)
41 {
42         gate->a = (seg << 16) | (base & 0xffff);
43         gate->b = (base & 0xffff0000) | ((type & 0xff) << 8) | (flags & 0xff);
44 }
45
46 #define DESCTYPE_LDT    0x82    /* present, system, DPL-0, LDT */
47 #define DESCTYPE_TSS    0x89    /* present, system, DPL-0, 32-bit TSS */
48 #define DESCTYPE_TASK   0x85    /* present, system, DPL-0, task gate */
49 #define DESCTYPE_INT    0x8e    /* present, system, DPL-0, interrupt gate */
50 #define DESCTYPE_TRAP   0x8f    /* present, system, DPL-0, trap gate */
51 #define DESCTYPE_DPL3   0x60    /* DPL-3 */
52 #define DESCTYPE_S      0x10    /* !system */
53
54 #ifdef CONFIG_PARAVIRT
55 #include <asm/paravirt.h>
56 #else
57 #define load_TR_desc() native_load_tr_desc()
58 #define load_gdt(dtr) native_load_gdt(dtr)
59 #define load_idt(dtr) native_load_idt(dtr)
60 #define load_tr(tr) __asm__ __volatile("ltr %0"::"m" (tr))
61 #define load_ldt(ldt) __asm__ __volatile("lldt %0"::"m" (ldt))
62
63 #define store_gdt(dtr) native_store_gdt(dtr)
64 #define store_idt(dtr) native_store_idt(dtr)
65 #define store_tr(tr) (tr = native_store_tr())
66 #define store_ldt(ldt) __asm__ ("sldt %0":"=m" (ldt))
67
68 #define load_TLS(t, cpu) native_load_tls(t, cpu)
69 #define set_ldt native_set_ldt
70
71 #define write_ldt_entry(dt, entry, a, b) write_dt_entry(dt, entry, a, b)
72 #define write_gdt_entry(dt, entry, a, b) write_dt_entry(dt, entry, a, b)
73 #define write_idt_entry(dt, entry, g) native_write_idt_entry(dt, entry, g)
74 #endif
75
76 static inline void native_write_idt_entry(gate_desc *idt, int entry,
77                                           const gate_desc *gate)
78 {
79         memcpy(&idt[entry], gate, sizeof(*gate));
80 }
81
82 static inline void write_dt_entry(struct desc_struct *dt,
83                                   int entry, u32 entry_low, u32 entry_high)
84 {
85         dt[entry].a = entry_low;
86         dt[entry].b = entry_high;
87 }
88
89 static inline void native_set_ldt(const void *addr, unsigned int entries)
90 {
91         if (likely(entries == 0))
92                 __asm__ __volatile__("lldt %w0"::"q" (0));
93         else {
94                 unsigned cpu = smp_processor_id();
95                 __u32 a, b;
96
97                 pack_descriptor(&a, &b, (unsigned long)addr,
98                                 entries * sizeof(struct desc_struct) - 1,
99                                 DESCTYPE_LDT, 0);
100                 write_gdt_entry(get_cpu_gdt_table(cpu), GDT_ENTRY_LDT, a, b);
101                 __asm__ __volatile__("lldt %w0"::"q" (GDT_ENTRY_LDT*8));
102         }
103 }
104
105
106 static inline void native_load_tr_desc(void)
107 {
108         asm volatile("ltr %w0"::"q" (GDT_ENTRY_TSS*8));
109 }
110
111 static inline void native_load_gdt(const struct desc_ptr *dtr)
112 {
113         asm volatile("lgdt %0"::"m" (*dtr));
114 }
115
116 static inline void native_load_idt(const struct desc_ptr *dtr)
117 {
118         asm volatile("lidt %0"::"m" (*dtr));
119 }
120
121 static inline void native_store_gdt(struct desc_ptr *dtr)
122 {
123         asm ("sgdt %0":"=m" (*dtr));
124 }
125
126 static inline void native_store_idt(struct desc_ptr *dtr)
127 {
128         asm ("sidt %0":"=m" (*dtr));
129 }
130
131 static inline unsigned long native_store_tr(void)
132 {
133         unsigned long tr;
134         asm ("str %0":"=r" (tr));
135         return tr;
136 }
137
138 static inline void native_load_tls(struct thread_struct *t, unsigned int cpu)
139 {
140         unsigned int i;
141         struct desc_struct *gdt = get_cpu_gdt_table(cpu);
142
143         for (i = 0; i < GDT_ENTRY_TLS_ENTRIES; i++)
144                 gdt[GDT_ENTRY_TLS_MIN + i] = t->tls_array[i];
145 }
146
147 static inline void _set_gate(int gate, unsigned int type, void *addr, unsigned short seg)
148 {
149         gate_desc g;
150         pack_gate(&g, (unsigned long)addr, seg, type, 0);
151         write_idt_entry(idt_table, gate, &g);
152 }
153
154 static inline void __set_tss_desc(unsigned int cpu, unsigned int entry, const void *addr)
155 {
156         __u32 a, b;
157         pack_descriptor(&a, &b, (unsigned long)addr,
158                         offsetof(struct tss_struct, __cacheline_filler) - 1,
159                         DESCTYPE_TSS, 0);
160         write_gdt_entry(get_cpu_gdt_table(cpu), entry, a, b);
161 }
162
163
164 #define set_tss_desc(cpu,addr) __set_tss_desc(cpu, GDT_ENTRY_TSS, addr)
165
166 #define LDT_empty(info) (\
167         (info)->base_addr       == 0    && \
168         (info)->limit           == 0    && \
169         (info)->contents        == 0    && \
170         (info)->read_exec_only  == 1    && \
171         (info)->seg_32bit       == 0    && \
172         (info)->limit_in_pages  == 0    && \
173         (info)->seg_not_present == 1    && \
174         (info)->useable         == 0    )
175
176 static inline void clear_LDT(void)
177 {
178         set_ldt(NULL, 0);
179 }
180
181 /*
182  * load one particular LDT into the current CPU
183  */
184 static inline void load_LDT_nolock(mm_context_t *pc)
185 {
186         set_ldt(pc->ldt, pc->size);
187 }
188
189 static inline void load_LDT(mm_context_t *pc)
190 {
191         preempt_disable();
192         load_LDT_nolock(pc);
193         preempt_enable();
194 }
195
196 static inline unsigned long get_desc_base(unsigned long *desc)
197 {
198         unsigned long base;
199         base = ((desc[0] >> 16)  & 0x0000ffff) |
200                 ((desc[1] << 16) & 0x00ff0000) |
201                 (desc[1] & 0xff000000);
202         return base;
203 }
204
205 #else /* __ASSEMBLY__ */
206
207 /*
208  * GET_DESC_BASE reads the descriptor base of the specified segment.
209  *
210  * Args:
211  *    idx - descriptor index
212  *    gdt - GDT pointer
213  *    base - 32bit register to which the base will be written
214  *    lo_w - lo word of the "base" register
215  *    lo_b - lo byte of the "base" register
216  *    hi_b - hi byte of the low word of the "base" register
217  *
218  * Example:
219  *    GET_DESC_BASE(GDT_ENTRY_ESPFIX_SS, %ebx, %eax, %ax, %al, %ah)
220  *    Will read the base address of GDT_ENTRY_ESPFIX_SS and put it into %eax.
221  */
222 #define GET_DESC_BASE(idx, gdt, base, lo_w, lo_b, hi_b) \
223         movb idx*8+4(gdt), lo_b; \
224         movb idx*8+7(gdt), hi_b; \
225         shll $16, base; \
226         movw idx*8+2(gdt), lo_w;
227
228 #endif /* !__ASSEMBLY__ */
229
230 #endif