include cleanup: Update gfp.h and slab.h includes to prepare for breaking implicit...
[linux-2.6.git] / arch / score / mm / init.c
1 /*
2  * arch/score/mm/init.c
3  *
4  * Score Processor version.
5  *
6  * Copyright (C) 2009 Sunplus Core Technology Co., Ltd.
7  *  Lennox Wu <lennox.wu@sunplusct.com>
8  *  Chen Liqin <liqin.chen@sunplusct.com>
9  *
10  * This program is free software; you can redistribute it and/or modify
11  * it under the terms of the GNU General Public License as published by
12  * the Free Software Foundation; either version 2 of the License, or
13  * (at your option) any later version.
14  *
15  * This program is distributed in the hope that it will be useful,
16  * but WITHOUT ANY WARRANTY; without even the implied warranty of
17  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
18  * GNU General Public License for more details.
19  *
20  * You should have received a copy of the GNU General Public License
21  * along with this program; if not, see the file COPYING, or write
22  * to the Free Software Foundation, Inc.,
23  * 51 Franklin St, Fifth Floor, Boston, MA  02110-1301  USA
24  */
25
26 #include <linux/errno.h>
27 #include <linux/bootmem.h>
28 #include <linux/kernel.h>
29 #include <linux/gfp.h>
30 #include <linux/init.h>
31 #include <linux/mm.h>
32 #include <linux/mman.h>
33 #include <linux/pagemap.h>
34 #include <linux/proc_fs.h>
35 #include <linux/sched.h>
36 #include <linux/initrd.h>
37
38 #include <asm/sections.h>
39 #include <asm/tlb.h>
40
41 DEFINE_PER_CPU(struct mmu_gather, mmu_gathers);
42
43 unsigned long empty_zero_page;
44 EXPORT_SYMBOL_GPL(empty_zero_page);
45
46 static struct kcore_list kcore_mem, kcore_vmalloc;
47
48 static unsigned long setup_zero_page(void)
49 {
50         struct page *page;
51
52         empty_zero_page = __get_free_pages(GFP_KERNEL | __GFP_ZERO, 0);
53         if (!empty_zero_page)
54                 panic("Oh boy, that early out of memory?");
55
56         page = virt_to_page((void *) empty_zero_page);
57         SetPageReserved(page);
58
59         return 1UL;
60 }
61
62 #ifndef CONFIG_NEED_MULTIPLE_NODES
63 int page_is_ram(unsigned long pagenr)
64 {
65         if (pagenr >= min_low_pfn && pagenr < max_low_pfn)
66                 return 1;
67         else
68                 return 0;
69 }
70
71 void __init paging_init(void)
72 {
73         unsigned long max_zone_pfns[MAX_NR_ZONES];
74         unsigned long lastpfn;
75
76         pagetable_init();
77         max_zone_pfns[ZONE_NORMAL] = max_low_pfn;
78         lastpfn = max_low_pfn;
79         free_area_init_nodes(max_zone_pfns);
80 }
81
82 void __init mem_init(void)
83 {
84         unsigned long codesize, reservedpages, datasize, initsize;
85         unsigned long tmp, ram = 0;
86
87         high_memory = (void *) __va(max_low_pfn << PAGE_SHIFT);
88         totalram_pages += free_all_bootmem();
89         totalram_pages -= setup_zero_page();    /* Setup zeroed pages. */
90         reservedpages = 0;
91
92         for (tmp = 0; tmp < max_low_pfn; tmp++)
93                 if (page_is_ram(tmp)) {
94                         ram++;
95                         if (PageReserved(pfn_to_page(tmp)))
96                                 reservedpages++;
97                 }
98
99         num_physpages = ram;
100         codesize = (unsigned long) &_etext - (unsigned long) &_text;
101         datasize = (unsigned long) &_edata - (unsigned long) &_etext;
102         initsize = (unsigned long) &__init_end - (unsigned long) &__init_begin;
103
104         printk(KERN_INFO "Memory: %luk/%luk available (%ldk kernel code, "
105                         "%ldk reserved, %ldk data, %ldk init, %ldk highmem)\n",
106                         (unsigned long) nr_free_pages() << (PAGE_SHIFT-10),
107                         ram << (PAGE_SHIFT-10), codesize >> 10,
108                         reservedpages << (PAGE_SHIFT-10), datasize >> 10,
109                         initsize >> 10,
110                         totalhigh_pages << (PAGE_SHIFT-10));
111 }
112 #endif /* !CONFIG_NEED_MULTIPLE_NODES */
113
114 static void free_init_pages(const char *what, unsigned long begin, unsigned long end)
115 {
116         unsigned long pfn;
117
118         for (pfn = PFN_UP(begin); pfn < PFN_DOWN(end); pfn++) {
119                 struct page *page = pfn_to_page(pfn);
120                 void *addr = phys_to_virt(PFN_PHYS(pfn));
121
122                 ClearPageReserved(page);
123                 init_page_count(page);
124                 memset(addr, POISON_FREE_INITMEM, PAGE_SIZE);
125                 __free_page(page);
126                 totalram_pages++;
127         }
128         printk(KERN_INFO "Freeing %s: %ldk freed\n", what, (end - begin) >> 10);
129 }
130
131 #ifdef CONFIG_BLK_DEV_INITRD
132 void free_initrd_mem(unsigned long start, unsigned long end)
133 {
134         free_init_pages("initrd memory",
135                 virt_to_phys((void *) start),
136                 virt_to_phys((void *) end));
137 }
138 #endif
139
140 void __init_refok free_initmem(void)
141 {
142         free_init_pages("unused kernel memory",
143         __pa(&__init_begin),
144         __pa(&__init_end));
145 }
146
147 unsigned long pgd_current;
148
149 #define __page_aligned(order) __attribute__((__aligned__(PAGE_SIZE<<order)))
150
151 /*
152  * gcc 3.3 and older have trouble determining that PTRS_PER_PGD and PGD_ORDER
153  * are constants.  So we use the variants from asm-offset.h until that gcc
154  * will officially be retired.
155  */
156 pgd_t swapper_pg_dir[PTRS_PER_PGD] __page_aligned(PTE_ORDER);
157 pte_t invalid_pte_table[PTRS_PER_PTE] __page_aligned(PTE_ORDER);