Merge branches 'x86/paravirt', 'x86/pat', 'x86/setup-v2', 'x86/subarch', 'x86/uaccess...
[linux-2.6.git] / arch / x86 / include / asm / page.h
1 #ifndef _ASM_X86_PAGE_H
2 #define _ASM_X86_PAGE_H
3
4 #include <linux/const.h>
5
6 /* PAGE_SHIFT determines the page size */
7 #define PAGE_SHIFT      12
8 #define PAGE_SIZE       (_AC(1,UL) << PAGE_SHIFT)
9 #define PAGE_MASK       (~(PAGE_SIZE-1))
10
11 #ifdef __KERNEL__
12
13 #define __PHYSICAL_MASK         ((phys_addr_t)(1ULL << __PHYSICAL_MASK_SHIFT) - 1)
14 #define __VIRTUAL_MASK          ((1UL << __VIRTUAL_MASK_SHIFT) - 1)
15
16 /* Cast PAGE_MASK to a signed type so that it is sign-extended if
17    virtual addresses are 32-bits but physical addresses are larger
18    (ie, 32-bit PAE). */
19 #define PHYSICAL_PAGE_MASK      (((signed long)PAGE_MASK) & __PHYSICAL_MASK)
20
21 /* PTE_PFN_MASK extracts the PFN from a (pte|pmd|pud|pgd)val_t */
22 #define PTE_PFN_MASK            ((pteval_t)PHYSICAL_PAGE_MASK)
23
24 /* PTE_FLAGS_MASK extracts the flags from a (pte|pmd|pud|pgd)val_t */
25 #define PTE_FLAGS_MASK          (~PTE_PFN_MASK)
26
27 #define PMD_PAGE_SIZE           (_AC(1, UL) << PMD_SHIFT)
28 #define PMD_PAGE_MASK           (~(PMD_PAGE_SIZE-1))
29
30 #define HPAGE_SHIFT             PMD_SHIFT
31 #define HPAGE_SIZE              (_AC(1,UL) << HPAGE_SHIFT)
32 #define HPAGE_MASK              (~(HPAGE_SIZE - 1))
33 #define HUGETLB_PAGE_ORDER      (HPAGE_SHIFT - PAGE_SHIFT)
34
35 #define HUGE_MAX_HSTATE 2
36
37 #ifndef __ASSEMBLY__
38 #include <linux/types.h>
39 #endif
40
41 #ifdef CONFIG_X86_64
42 #include <asm/page_64.h>
43 #else
44 #include <asm/page_32.h>
45 #endif  /* CONFIG_X86_64 */
46
47 #define PAGE_OFFSET             ((unsigned long)__PAGE_OFFSET)
48
49 #define VM_DATA_DEFAULT_FLAGS \
50         (((current->personality & READ_IMPLIES_EXEC) ? VM_EXEC : 0 ) | \
51          VM_READ | VM_WRITE | VM_MAYREAD | VM_MAYWRITE | VM_MAYEXEC)
52
53
54 #ifndef __ASSEMBLY__
55
56 typedef struct { pgdval_t pgd; } pgd_t;
57 typedef struct { pgprotval_t pgprot; } pgprot_t;
58
59 extern int page_is_ram(unsigned long pagenr);
60 extern int devmem_is_allowed(unsigned long pagenr);
61 extern void map_devmem(unsigned long pfn, unsigned long size,
62                        pgprot_t vma_prot);
63 extern void unmap_devmem(unsigned long pfn, unsigned long size,
64                          pgprot_t vma_prot);
65
66 extern unsigned long max_low_pfn_mapped;
67 extern unsigned long max_pfn_mapped;
68
69 struct page;
70
71 static inline void clear_user_page(void *page, unsigned long vaddr,
72                                 struct page *pg)
73 {
74         clear_page(page);
75 }
76
77 static inline void copy_user_page(void *to, void *from, unsigned long vaddr,
78                                 struct page *topage)
79 {
80         copy_page(to, from);
81 }
82
83 #define __alloc_zeroed_user_highpage(movableflags, vma, vaddr) \
84         alloc_page_vma(GFP_HIGHUSER | __GFP_ZERO | movableflags, vma, vaddr)
85 #define __HAVE_ARCH_ALLOC_ZEROED_USER_HIGHPAGE
86
87 static inline pgd_t native_make_pgd(pgdval_t val)
88 {
89         return (pgd_t) { val };
90 }
91
92 static inline pgdval_t native_pgd_val(pgd_t pgd)
93 {
94         return pgd.pgd;
95 }
96
97 static inline pgdval_t pgd_flags(pgd_t pgd)
98 {
99         return native_pgd_val(pgd) & PTE_FLAGS_MASK;
100 }
101
102 #if PAGETABLE_LEVELS >= 3
103 #if PAGETABLE_LEVELS == 4
104 typedef struct { pudval_t pud; } pud_t;
105
106 static inline pud_t native_make_pud(pmdval_t val)
107 {
108         return (pud_t) { val };
109 }
110
111 static inline pudval_t native_pud_val(pud_t pud)
112 {
113         return pud.pud;
114 }
115 #else   /* PAGETABLE_LEVELS == 3 */
116 #include <asm-generic/pgtable-nopud.h>
117
118 static inline pudval_t native_pud_val(pud_t pud)
119 {
120         return native_pgd_val(pud.pgd);
121 }
122 #endif  /* PAGETABLE_LEVELS == 4 */
123
124 static inline pudval_t pud_flags(pud_t pud)
125 {
126         return native_pud_val(pud) & PTE_FLAGS_MASK;
127 }
128
129 typedef struct { pmdval_t pmd; } pmd_t;
130
131 static inline pmd_t native_make_pmd(pmdval_t val)
132 {
133         return (pmd_t) { val };
134 }
135
136 static inline pmdval_t native_pmd_val(pmd_t pmd)
137 {
138         return pmd.pmd;
139 }
140
141 #else  /* PAGETABLE_LEVELS == 2 */
142 #include <asm-generic/pgtable-nopmd.h>
143
144 static inline pmdval_t native_pmd_val(pmd_t pmd)
145 {
146         return native_pgd_val(pmd.pud.pgd);
147 }
148 #endif  /* PAGETABLE_LEVELS >= 3 */
149
150 static inline pmdval_t pmd_flags(pmd_t pmd)
151 {
152         return native_pmd_val(pmd) & PTE_FLAGS_MASK;
153 }
154
155 static inline pte_t native_make_pte(pteval_t val)
156 {
157         return (pte_t) { .pte = val };
158 }
159
160 static inline pteval_t native_pte_val(pte_t pte)
161 {
162         return pte.pte;
163 }
164
165 static inline pteval_t pte_flags(pte_t pte)
166 {
167         return native_pte_val(pte) & PTE_FLAGS_MASK;
168 }
169
170 #define pgprot_val(x)   ((x).pgprot)
171 #define __pgprot(x)     ((pgprot_t) { (x) } )
172
173 #ifdef CONFIG_PARAVIRT
174 #include <asm/paravirt.h>
175 #else  /* !CONFIG_PARAVIRT */
176
177 #define pgd_val(x)      native_pgd_val(x)
178 #define __pgd(x)        native_make_pgd(x)
179
180 #ifndef __PAGETABLE_PUD_FOLDED
181 #define pud_val(x)      native_pud_val(x)
182 #define __pud(x)        native_make_pud(x)
183 #endif
184
185 #ifndef __PAGETABLE_PMD_FOLDED
186 #define pmd_val(x)      native_pmd_val(x)
187 #define __pmd(x)        native_make_pmd(x)
188 #endif
189
190 #define pte_val(x)      native_pte_val(x)
191 #define __pte(x)        native_make_pte(x)
192
193 #endif  /* CONFIG_PARAVIRT */
194
195 #define __pa(x)         __phys_addr((unsigned long)(x))
196 #define __pa_nodebug(x) __phys_addr_nodebug((unsigned long)(x))
197 /* __pa_symbol should be used for C visible symbols.
198    This seems to be the official gcc blessed way to do such arithmetic. */
199 #define __pa_symbol(x)  __pa(__phys_reloc_hide((unsigned long)(x)))
200
201 #define __va(x)                 ((void *)((unsigned long)(x)+PAGE_OFFSET))
202
203 #define __boot_va(x)            __va(x)
204 #define __boot_pa(x)            __pa(x)
205
206 /*
207  * virt_to_page(kaddr) returns a valid pointer if and only if
208  * virt_addr_valid(kaddr) returns true.
209  */
210 #define virt_to_page(kaddr)     pfn_to_page(__pa(kaddr) >> PAGE_SHIFT)
211 #define pfn_to_kaddr(pfn)      __va((pfn) << PAGE_SHIFT)
212 extern bool __virt_addr_valid(unsigned long kaddr);
213 #define virt_addr_valid(kaddr)  __virt_addr_valid((unsigned long) (kaddr))
214
215 #endif  /* __ASSEMBLY__ */
216
217 #include <asm-generic/memory_model.h>
218 #include <asm-generic/page.h>
219
220 #define __HAVE_ARCH_GATE_AREA 1
221
222 #endif  /* __KERNEL__ */
223 #endif /* _ASM_X86_PAGE_H */