Add vmcoreinfo
[linux-2.6.git] / arch / ia64 / kernel / machine_kexec.c
1 /*
2  * arch/ia64/kernel/machine_kexec.c
3  *
4  * Handle transition of Linux booting another kernel
5  * Copyright (C) 2005 Hewlett-Packard Development Comapny, L.P.
6  * Copyright (C) 2005 Khalid Aziz <khalid.aziz@hp.com>
7  * Copyright (C) 2006 Intel Corp, Zou Nan hai <nanhai.zou@intel.com>
8  *
9  * This source code is licensed under the GNU General Public License,
10  * Version 2.  See the file COPYING for more details.
11  */
12
13 #include <linux/mm.h>
14 #include <linux/kexec.h>
15 #include <linux/cpu.h>
16 #include <linux/irq.h>
17 #include <linux/efi.h>
18 #include <linux/numa.h>
19 #include <linux/mmzone.h>
20 #include <asm/mmu_context.h>
21 #include <asm/setup.h>
22 #include <asm/delay.h>
23 #include <asm/meminit.h>
24
25 typedef NORET_TYPE void (*relocate_new_kernel_t)(
26                                         unsigned long indirection_page,
27                                         unsigned long start_address,
28                                         struct ia64_boot_param *boot_param,
29                                         unsigned long pal_addr) ATTRIB_NORET;
30
31 struct kimage *ia64_kimage;
32
33 struct resource efi_memmap_res = {
34         .name  = "EFI Memory Map",
35         .start = 0,
36         .end   = 0,
37         .flags = IORESOURCE_BUSY | IORESOURCE_MEM
38 };
39
40 struct resource boot_param_res = {
41         .name  = "Boot parameter",
42         .start = 0,
43         .end   = 0,
44         .flags = IORESOURCE_BUSY | IORESOURCE_MEM
45 };
46
47
48 /*
49  * Do what every setup is needed on image and the
50  * reboot code buffer to allow us to avoid allocations
51  * later.
52  */
53 int machine_kexec_prepare(struct kimage *image)
54 {
55         void *control_code_buffer;
56         const unsigned long *func;
57
58         func = (unsigned long *)&relocate_new_kernel;
59         /* Pre-load control code buffer to minimize work in kexec path */
60         control_code_buffer = page_address(image->control_code_page);
61         memcpy((void *)control_code_buffer, (const void *)func[0],
62                         relocate_new_kernel_size);
63         flush_icache_range((unsigned long)control_code_buffer,
64                         (unsigned long)control_code_buffer + relocate_new_kernel_size);
65         ia64_kimage = image;
66
67         return 0;
68 }
69
70 void machine_kexec_cleanup(struct kimage *image)
71 {
72 }
73
74 /*
75  * Do not allocate memory (or fail in any way) in machine_kexec().
76  * We are past the point of no return, committed to rebooting now.
77  */
78 static void ia64_machine_kexec(struct unw_frame_info *info, void *arg)
79 {
80         struct kimage *image = arg;
81         relocate_new_kernel_t rnk;
82         void *pal_addr = efi_get_pal_addr();
83         unsigned long code_addr = (unsigned long)page_address(image->control_code_page);
84         int ii;
85
86         BUG_ON(!image);
87         if (image->type == KEXEC_TYPE_CRASH) {
88                 crash_save_this_cpu();
89                 current->thread.ksp = (__u64)info->sw - 16;
90         }
91
92         /* Interrupts aren't acceptable while we reboot */
93         local_irq_disable();
94
95         /* Mask CMC and Performance Monitor interrupts */
96         ia64_setreg(_IA64_REG_CR_PMV, 1 << 16);
97         ia64_setreg(_IA64_REG_CR_CMCV, 1 << 16);
98
99         /* Mask ITV and Local Redirect Registers */
100         ia64_set_itv(1 << 16);
101         ia64_set_lrr0(1 << 16);
102         ia64_set_lrr1(1 << 16);
103
104         /* terminate possible nested in-service interrupts */
105         for (ii = 0; ii < 16; ii++)
106                 ia64_eoi();
107
108         /* unmask TPR and clear any pending interrupts */
109         ia64_setreg(_IA64_REG_CR_TPR, 0);
110         ia64_srlz_d();
111         while (ia64_get_ivr() != IA64_SPURIOUS_INT_VECTOR)
112                 ia64_eoi();
113         platform_kernel_launch_event();
114         rnk = (relocate_new_kernel_t)&code_addr;
115         (*rnk)(image->head, image->start, ia64_boot_param,
116                      GRANULEROUNDDOWN((unsigned long) pal_addr));
117         BUG();
118 }
119
120 void machine_kexec(struct kimage *image)
121 {
122         BUG_ON(!image);
123         unw_init_running(ia64_machine_kexec, image);
124         for(;;);
125 }
126
127 void arch_crash_save_vmcoreinfo(void)
128 {
129 #ifdef CONFIG_ARCH_DISCONTIGMEM_ENABLE
130         SYMBOL(pgdat_list);
131         LENGTH(pgdat_list, MAX_NUMNODES);
132
133         SYMBOL(node_memblk);
134         LENGTH(node_memblk, NR_NODE_MEMBLKS);
135         SIZE(node_memblk_s);
136         OFFSET(node_memblk_s, start_paddr);
137         OFFSET(node_memblk_s, size);
138 #endif
139 #ifdef CONFIG_PGTABLE_3
140         CONFIG(PGTABLE_3);
141 #elif  CONFIG_PGTABLE_4
142         CONFIG(PGTABLE_4);
143 #endif
144 }
145
146 unsigned long paddr_vmcoreinfo_note(void)
147 {
148         unsigned long vaddr, paddr;
149         vaddr = (unsigned long)(char *)&vmcoreinfo_note;
150         asm volatile ("tpa %0 = %1" : "=r"(paddr) : "r"(vaddr) : "memory");
151         return paddr;
152 }
153