KVM: Add PV MSR to enable asynchronous page faults delivery.
[linux-3.10.git] / arch / x86 / include / asm / kvm_para.h
1 #ifndef _ASM_X86_KVM_PARA_H
2 #define _ASM_X86_KVM_PARA_H
3
4 #include <linux/types.h>
5 #include <asm/hyperv.h>
6
7 /* This CPUID returns the signature 'KVMKVMKVM' in ebx, ecx, and edx.  It
8  * should be used to determine that a VM is running under KVM.
9  */
10 #define KVM_CPUID_SIGNATURE     0x40000000
11
12 /* This CPUID returns a feature bitmap in eax.  Before enabling a particular
13  * paravirtualization, the appropriate feature bit should be checked.
14  */
15 #define KVM_CPUID_FEATURES      0x40000001
16 #define KVM_FEATURE_CLOCKSOURCE         0
17 #define KVM_FEATURE_NOP_IO_DELAY        1
18 #define KVM_FEATURE_MMU_OP              2
19 /* This indicates that the new set of kvmclock msrs
20  * are available. The use of 0x11 and 0x12 is deprecated
21  */
22 #define KVM_FEATURE_CLOCKSOURCE2        3
23 #define KVM_FEATURE_ASYNC_PF            4
24
25 /* The last 8 bits are used to indicate how to interpret the flags field
26  * in pvclock structure. If no bits are set, all flags are ignored.
27  */
28 #define KVM_FEATURE_CLOCKSOURCE_STABLE_BIT      24
29
30 #define MSR_KVM_WALL_CLOCK  0x11
31 #define MSR_KVM_SYSTEM_TIME 0x12
32
33 /* Custom MSRs falls in the range 0x4b564d00-0x4b564dff */
34 #define MSR_KVM_WALL_CLOCK_NEW  0x4b564d00
35 #define MSR_KVM_SYSTEM_TIME_NEW 0x4b564d01
36 #define MSR_KVM_ASYNC_PF_EN 0x4b564d02
37
38 #define KVM_MAX_MMU_OP_BATCH           32
39
40 #define KVM_ASYNC_PF_ENABLED                    (1 << 0)
41
42 /* Operations for KVM_HC_MMU_OP */
43 #define KVM_MMU_OP_WRITE_PTE            1
44 #define KVM_MMU_OP_FLUSH_TLB            2
45 #define KVM_MMU_OP_RELEASE_PT           3
46
47 /* Payload for KVM_HC_MMU_OP */
48 struct kvm_mmu_op_header {
49         __u32 op;
50         __u32 pad;
51 };
52
53 struct kvm_mmu_op_write_pte {
54         struct kvm_mmu_op_header header;
55         __u64 pte_phys;
56         __u64 pte_val;
57 };
58
59 struct kvm_mmu_op_flush_tlb {
60         struct kvm_mmu_op_header header;
61 };
62
63 struct kvm_mmu_op_release_pt {
64         struct kvm_mmu_op_header header;
65         __u64 pt_phys;
66 };
67
68 #ifdef __KERNEL__
69 #include <asm/processor.h>
70
71 extern void kvmclock_init(void);
72 extern int kvm_register_clock(char *txt);
73
74
75 /* This instruction is vmcall.  On non-VT architectures, it will generate a
76  * trap that we will then rewrite to the appropriate instruction.
77  */
78 #define KVM_HYPERCALL ".byte 0x0f,0x01,0xc1"
79
80 /* For KVM hypercalls, a three-byte sequence of either the vmrun or the vmmrun
81  * instruction.  The hypervisor may replace it with something else but only the
82  * instructions are guaranteed to be supported.
83  *
84  * Up to four arguments may be passed in rbx, rcx, rdx, and rsi respectively.
85  * The hypercall number should be placed in rax and the return value will be
86  * placed in rax.  No other registers will be clobbered unless explicited
87  * noted by the particular hypercall.
88  */
89
90 static inline long kvm_hypercall0(unsigned int nr)
91 {
92         long ret;
93         asm volatile(KVM_HYPERCALL
94                      : "=a"(ret)
95                      : "a"(nr)
96                      : "memory");
97         return ret;
98 }
99
100 static inline long kvm_hypercall1(unsigned int nr, unsigned long p1)
101 {
102         long ret;
103         asm volatile(KVM_HYPERCALL
104                      : "=a"(ret)
105                      : "a"(nr), "b"(p1)
106                      : "memory");
107         return ret;
108 }
109
110 static inline long kvm_hypercall2(unsigned int nr, unsigned long p1,
111                                   unsigned long p2)
112 {
113         long ret;
114         asm volatile(KVM_HYPERCALL
115                      : "=a"(ret)
116                      : "a"(nr), "b"(p1), "c"(p2)
117                      : "memory");
118         return ret;
119 }
120
121 static inline long kvm_hypercall3(unsigned int nr, unsigned long p1,
122                                   unsigned long p2, unsigned long p3)
123 {
124         long ret;
125         asm volatile(KVM_HYPERCALL
126                      : "=a"(ret)
127                      : "a"(nr), "b"(p1), "c"(p2), "d"(p3)
128                      : "memory");
129         return ret;
130 }
131
132 static inline long kvm_hypercall4(unsigned int nr, unsigned long p1,
133                                   unsigned long p2, unsigned long p3,
134                                   unsigned long p4)
135 {
136         long ret;
137         asm volatile(KVM_HYPERCALL
138                      : "=a"(ret)
139                      : "a"(nr), "b"(p1), "c"(p2), "d"(p3), "S"(p4)
140                      : "memory");
141         return ret;
142 }
143
144 static inline int kvm_para_available(void)
145 {
146         unsigned int eax, ebx, ecx, edx;
147         char signature[13];
148
149         cpuid(KVM_CPUID_SIGNATURE, &eax, &ebx, &ecx, &edx);
150         memcpy(signature + 0, &ebx, 4);
151         memcpy(signature + 4, &ecx, 4);
152         memcpy(signature + 8, &edx, 4);
153         signature[12] = 0;
154
155         if (strcmp(signature, "KVMKVMKVM") == 0)
156                 return 1;
157
158         return 0;
159 }
160
161 static inline unsigned int kvm_arch_para_features(void)
162 {
163         return cpuid_eax(KVM_CPUID_FEATURES);
164 }
165
166 #ifdef CONFIG_KVM_GUEST
167 void __init kvm_guest_init(void);
168 #else
169 #define kvm_guest_init() do { } while (0)
170 #endif
171
172 #endif /* __KERNEL__ */
173
174 #endif /* _ASM_X86_KVM_PARA_H */