active-standby: add cmdline into /proc/net/
[linux-2.6.git] / include / linux / poll.h
1 /*
2  * Copyright (c) 2013, NVIDIA CORPORATION.  All rights reserved.
3  */
4
5 #ifndef _LINUX_POLL_H
6 #define _LINUX_POLL_H
7
8 #include <asm/poll.h>
9
10 #ifdef __KERNEL__
11
12 #include <linux/compiler.h>
13 #include <linux/ktime.h>
14 #include <linux/wait.h>
15 #include <linux/string.h>
16 #include <linux/fs.h>
17 #include <linux/sysctl.h>
18 #include <asm/uaccess.h>
19
20 extern struct ctl_table epoll_table[]; /* for sysctl */
21 /* ~832 bytes of stack space used max in sys_select/sys_poll before allocating
22    additional memory. */
23 #define MAX_STACK_ALLOC 832
24 #define FRONTEND_STACK_ALLOC    256
25 #define SELECT_STACK_ALLOC      FRONTEND_STACK_ALLOC
26 #define POLL_STACK_ALLOC        FRONTEND_STACK_ALLOC
27 #define WQUEUES_STACK_ALLOC     (MAX_STACK_ALLOC - FRONTEND_STACK_ALLOC)
28 #define N_INLINE_POLL_ENTRIES   (WQUEUES_STACK_ALLOC / sizeof(struct poll_table_entry))
29
30 #define DEFAULT_POLLMASK (POLLIN | POLLOUT | POLLRDNORM | POLLWRNORM)
31
32 struct poll_table_struct;
33
34 /* 
35  * structures and helpers for f_op->poll implementations
36  */
37 typedef void (*poll_queue_proc)(struct file *, wait_queue_head_t *, struct poll_table_struct *);
38
39 /*
40  * Do not touch the structure directly, use the access functions
41  * poll_does_not_wait() and poll_requested_events() instead.
42  */
43 typedef struct poll_table_struct {
44         poll_queue_proc _qproc;
45         unsigned long _key;
46 } poll_table;
47
48 static inline void poll_wait(struct file * filp, wait_queue_head_t * wait_address, poll_table *p)
49 {
50         if (p && p->_qproc && wait_address)
51                 p->_qproc(filp, wait_address, p);
52 }
53
54 /*
55  * Return true if it is guaranteed that poll will not wait. This is the case
56  * if the poll() of another file descriptor in the set got an event, so there
57  * is no need for waiting.
58  */
59 static inline bool poll_does_not_wait(const poll_table *p)
60 {
61         return p == NULL || p->_qproc == NULL;
62 }
63
64 /*
65  * Return the set of events that the application wants to poll for.
66  * This is useful for drivers that need to know whether a DMA transfer has
67  * to be started implicitly on poll(). You typically only want to do that
68  * if the application is actually polling for POLLIN and/or POLLOUT.
69  */
70 static inline unsigned long poll_requested_events(const poll_table *p)
71 {
72         return p ? p->_key : ~0UL;
73 }
74
75 static inline void init_poll_funcptr(poll_table *pt, poll_queue_proc qproc)
76 {
77         pt->_qproc = qproc;
78         pt->_key   = ~0UL; /* all events enabled */
79 }
80
81 struct poll_table_entry {
82         struct file *filp;
83         unsigned long key;
84         wait_queue_t wait;
85         wait_queue_head_t *wait_address;
86 };
87
88 /*
89  * Structures and helpers for select/poll syscall
90  */
91 struct poll_wqueues {
92         poll_table pt;
93         struct poll_table_page *table;
94         struct task_struct *polling_task;
95         int triggered;
96         int error;
97         int inline_index;
98         struct poll_table_entry inline_entries[N_INLINE_POLL_ENTRIES];
99 };
100
101 extern void poll_initwait(struct poll_wqueues *pwq);
102 extern void poll_freewait(struct poll_wqueues *pwq);
103 extern int pollwake(wait_queue_t *wait, unsigned mode, int sync, void *key);
104 extern int poll_schedule_timeout(struct poll_wqueues *pwq, int state,
105                                  ktime_t *expires, unsigned long slack);
106 extern long select_estimate_accuracy(struct timespec *tv);
107
108
109 static inline int poll_schedule(struct poll_wqueues *pwq, int state)
110 {
111         return poll_schedule_timeout(pwq, state, NULL, 0);
112 }
113
114 /*
115  * Scalable version of the fd_set.
116  */
117
118 typedef struct {
119         unsigned long *in, *out, *ex;
120         unsigned long *res_in, *res_out, *res_ex;
121 } fd_set_bits;
122
123 /*
124  * How many longwords for "nr" bits?
125  */
126 #define FDS_BITPERLONG  (8*sizeof(long))
127 #define FDS_LONGS(nr)   (((nr)+FDS_BITPERLONG-1)/FDS_BITPERLONG)
128 #define FDS_BYTES(nr)   (FDS_LONGS(nr)*sizeof(long))
129
130 /*
131  * We do a VERIFY_WRITE here even though we are only reading this time:
132  * we'll write to it eventually..
133  *
134  * Use "unsigned long" accesses to let user-mode fd_set's be long-aligned.
135  */
136 static inline
137 int get_fd_set(unsigned long nr, void __user *ufdset, unsigned long *fdset)
138 {
139         nr = FDS_BYTES(nr);
140         if (ufdset)
141                 return copy_from_user(fdset, ufdset, nr) ? -EFAULT : 0;
142
143         memset(fdset, 0, nr);
144         return 0;
145 }
146
147 static inline unsigned long __must_check
148 set_fd_set(unsigned long nr, void __user *ufdset, unsigned long *fdset)
149 {
150         if (ufdset)
151                 return __copy_to_user(ufdset, fdset, FDS_BYTES(nr));
152         return 0;
153 }
154
155 static inline
156 void zero_fd_set(unsigned long nr, unsigned long *fdset)
157 {
158         memset(fdset, 0, FDS_BYTES(nr));
159 }
160
161 #define MAX_INT64_SECONDS (((s64)(~((u64)0)>>1)/HZ)-1)
162
163 extern int do_select(int n, fd_set_bits *fds, struct timespec *end_time);
164 extern int do_sys_poll(struct pollfd __user * ufds, unsigned int nfds,
165                        struct timespec *end_time);
166 extern int core_sys_select(int n, fd_set __user *inp, fd_set __user *outp,
167                            fd_set __user *exp, struct timespec *end_time);
168
169 extern int poll_select_set_timeout(struct timespec *to, long sec, long nsec);
170
171 #endif /* KERNEL */
172
173 #endif /* _LINUX_POLL_H */