IPC/message queues: introduce msgctl_down
[linux-2.6.git] / ipc / msg.c
1 /*
2  * linux/ipc/msg.c
3  * Copyright (C) 1992 Krishna Balasubramanian
4  *
5  * Removed all the remaining kerneld mess
6  * Catch the -EFAULT stuff properly
7  * Use GFP_KERNEL for messages as in 1.2
8  * Fixed up the unchecked user space derefs
9  * Copyright (C) 1998 Alan Cox & Andi Kleen
10  *
11  * /proc/sysvipc/msg support (c) 1999 Dragos Acostachioaie <dragos@iname.com>
12  *
13  * mostly rewritten, threaded and wake-one semantics added
14  * MSGMAX limit removed, sysctl's added
15  * (c) 1999 Manfred Spraul <manfred@colorfullife.com>
16  *
17  * support for audit of ipc object properties and permission changes
18  * Dustin Kirkland <dustin.kirkland@us.ibm.com>
19  *
20  * namespaces support
21  * OpenVZ, SWsoft Inc.
22  * Pavel Emelianov <xemul@openvz.org>
23  */
24
25 #include <linux/capability.h>
26 #include <linux/slab.h>
27 #include <linux/msg.h>
28 #include <linux/spinlock.h>
29 #include <linux/init.h>
30 #include <linux/mm.h>
31 #include <linux/proc_fs.h>
32 #include <linux/list.h>
33 #include <linux/security.h>
34 #include <linux/sched.h>
35 #include <linux/syscalls.h>
36 #include <linux/audit.h>
37 #include <linux/seq_file.h>
38 #include <linux/rwsem.h>
39 #include <linux/nsproxy.h>
40 #include <linux/ipc_namespace.h>
41
42 #include <asm/current.h>
43 #include <asm/uaccess.h>
44 #include "util.h"
45
46 /*
47  * one msg_receiver structure for each sleeping receiver:
48  */
49 struct msg_receiver {
50         struct list_head        r_list;
51         struct task_struct      *r_tsk;
52
53         int                     r_mode;
54         long                    r_msgtype;
55         long                    r_maxsize;
56
57         struct msg_msg          *volatile r_msg;
58 };
59
60 /* one msg_sender for each sleeping sender */
61 struct msg_sender {
62         struct list_head        list;
63         struct task_struct      *tsk;
64 };
65
66 #define SEARCH_ANY              1
67 #define SEARCH_EQUAL            2
68 #define SEARCH_NOTEQUAL         3
69 #define SEARCH_LESSEQUAL        4
70
71 #define msg_ids(ns)     ((ns)->ids[IPC_MSG_IDS])
72
73 #define msg_unlock(msq)         ipc_unlock(&(msq)->q_perm)
74
75 static void freeque(struct ipc_namespace *, struct kern_ipc_perm *);
76 static int newque(struct ipc_namespace *, struct ipc_params *);
77 #ifdef CONFIG_PROC_FS
78 static int sysvipc_msg_proc_show(struct seq_file *s, void *it);
79 #endif
80
81 /*
82  * Scale msgmni with the available lowmem size: the memory dedicated to msg
83  * queues should occupy at most 1/MSG_MEM_SCALE of lowmem.
84  * Also take into account the number of nsproxies created so far.
85  * This should be done staying within the (MSGMNI , IPCMNI/nr_ipc_ns) range.
86  */
87 void recompute_msgmni(struct ipc_namespace *ns)
88 {
89         struct sysinfo i;
90         unsigned long allowed;
91         int nb_ns;
92
93         si_meminfo(&i);
94         allowed = (((i.totalram - i.totalhigh) / MSG_MEM_SCALE) * i.mem_unit)
95                 / MSGMNB;
96         nb_ns = atomic_read(&nr_ipc_ns);
97         allowed /= nb_ns;
98
99         if (allowed < MSGMNI) {
100                 ns->msg_ctlmni = MSGMNI;
101                 goto out_callback;
102         }
103
104         if (allowed > IPCMNI / nb_ns) {
105                 ns->msg_ctlmni = IPCMNI / nb_ns;
106                 goto out_callback;
107         }
108
109         ns->msg_ctlmni = allowed;
110
111 out_callback:
112
113         printk(KERN_INFO "msgmni has been set to %d for ipc namespace %p\n",
114                 ns->msg_ctlmni, ns);
115 }
116
117 void msg_init_ns(struct ipc_namespace *ns)
118 {
119         ns->msg_ctlmax = MSGMAX;
120         ns->msg_ctlmnb = MSGMNB;
121
122         recompute_msgmni(ns);
123
124         atomic_set(&ns->msg_bytes, 0);
125         atomic_set(&ns->msg_hdrs, 0);
126         ipc_init_ids(&ns->ids[IPC_MSG_IDS]);
127 }
128
129 #ifdef CONFIG_IPC_NS
130 void msg_exit_ns(struct ipc_namespace *ns)
131 {
132         free_ipcs(ns, &msg_ids(ns), freeque);
133 }
134 #endif
135
136 void __init msg_init(void)
137 {
138         msg_init_ns(&init_ipc_ns);
139         ipc_init_proc_interface("sysvipc/msg",
140                                 "       key      msqid perms      cbytes       qnum lspid lrpid   uid   gid  cuid  cgid      stime      rtime      ctime\n",
141                                 IPC_MSG_IDS, sysvipc_msg_proc_show);
142 }
143
144 /*
145  * This routine is called in the paths where the rw_mutex is held to protect
146  * access to the idr tree.
147  */
148 static inline struct msg_queue *msg_lock_check_down(struct ipc_namespace *ns,
149                                                 int id)
150 {
151         struct kern_ipc_perm *ipcp = ipc_lock_check_down(&msg_ids(ns), id);
152
153         if (IS_ERR(ipcp))
154                 return (struct msg_queue *)ipcp;
155
156         return container_of(ipcp, struct msg_queue, q_perm);
157 }
158
159 /*
160  * msg_lock_(check_) routines are called in the paths where the rw_mutex
161  * is not held.
162  */
163 static inline struct msg_queue *msg_lock(struct ipc_namespace *ns, int id)
164 {
165         struct kern_ipc_perm *ipcp = ipc_lock(&msg_ids(ns), id);
166
167         if (IS_ERR(ipcp))
168                 return (struct msg_queue *)ipcp;
169
170         return container_of(ipcp, struct msg_queue, q_perm);
171 }
172
173 static inline struct msg_queue *msg_lock_check(struct ipc_namespace *ns,
174                                                 int id)
175 {
176         struct kern_ipc_perm *ipcp = ipc_lock_check(&msg_ids(ns), id);
177
178         if (IS_ERR(ipcp))
179                 return (struct msg_queue *)ipcp;
180
181         return container_of(ipcp, struct msg_queue, q_perm);
182 }
183
184 static inline void msg_rmid(struct ipc_namespace *ns, struct msg_queue *s)
185 {
186         ipc_rmid(&msg_ids(ns), &s->q_perm);
187 }
188
189 /**
190  * newque - Create a new msg queue
191  * @ns: namespace
192  * @params: ptr to the structure that contains the key and msgflg
193  *
194  * Called with msg_ids.rw_mutex held (writer)
195  */
196 static int newque(struct ipc_namespace *ns, struct ipc_params *params)
197 {
198         struct msg_queue *msq;
199         int id, retval;
200         key_t key = params->key;
201         int msgflg = params->flg;
202
203         msq = ipc_rcu_alloc(sizeof(*msq));
204         if (!msq)
205                 return -ENOMEM;
206
207         msq->q_perm.mode = msgflg & S_IRWXUGO;
208         msq->q_perm.key = key;
209
210         msq->q_perm.security = NULL;
211         retval = security_msg_queue_alloc(msq);
212         if (retval) {
213                 ipc_rcu_putref(msq);
214                 return retval;
215         }
216
217         /*
218          * ipc_addid() locks msq
219          */
220         id = ipc_addid(&msg_ids(ns), &msq->q_perm, ns->msg_ctlmni);
221         if (id < 0) {
222                 security_msg_queue_free(msq);
223                 ipc_rcu_putref(msq);
224                 return id;
225         }
226
227         msq->q_stime = msq->q_rtime = 0;
228         msq->q_ctime = get_seconds();
229         msq->q_cbytes = msq->q_qnum = 0;
230         msq->q_qbytes = ns->msg_ctlmnb;
231         msq->q_lspid = msq->q_lrpid = 0;
232         INIT_LIST_HEAD(&msq->q_messages);
233         INIT_LIST_HEAD(&msq->q_receivers);
234         INIT_LIST_HEAD(&msq->q_senders);
235
236         msg_unlock(msq);
237
238         return msq->q_perm.id;
239 }
240
241 static inline void ss_add(struct msg_queue *msq, struct msg_sender *mss)
242 {
243         mss->tsk = current;
244         current->state = TASK_INTERRUPTIBLE;
245         list_add_tail(&mss->list, &msq->q_senders);
246 }
247
248 static inline void ss_del(struct msg_sender *mss)
249 {
250         if (mss->list.next != NULL)
251                 list_del(&mss->list);
252 }
253
254 static void ss_wakeup(struct list_head *h, int kill)
255 {
256         struct list_head *tmp;
257
258         tmp = h->next;
259         while (tmp != h) {
260                 struct msg_sender *mss;
261
262                 mss = list_entry(tmp, struct msg_sender, list);
263                 tmp = tmp->next;
264                 if (kill)
265                         mss->list.next = NULL;
266                 wake_up_process(mss->tsk);
267         }
268 }
269
270 static void expunge_all(struct msg_queue *msq, int res)
271 {
272         struct list_head *tmp;
273
274         tmp = msq->q_receivers.next;
275         while (tmp != &msq->q_receivers) {
276                 struct msg_receiver *msr;
277
278                 msr = list_entry(tmp, struct msg_receiver, r_list);
279                 tmp = tmp->next;
280                 msr->r_msg = NULL;
281                 wake_up_process(msr->r_tsk);
282                 smp_mb();
283                 msr->r_msg = ERR_PTR(res);
284         }
285 }
286
287 /*
288  * freeque() wakes up waiters on the sender and receiver waiting queue,
289  * removes the message queue from message queue ID IDR, and cleans up all the
290  * messages associated with this queue.
291  *
292  * msg_ids.rw_mutex (writer) and the spinlock for this message queue are held
293  * before freeque() is called. msg_ids.rw_mutex remains locked on exit.
294  */
295 static void freeque(struct ipc_namespace *ns, struct kern_ipc_perm *ipcp)
296 {
297         struct list_head *tmp;
298         struct msg_queue *msq = container_of(ipcp, struct msg_queue, q_perm);
299
300         expunge_all(msq, -EIDRM);
301         ss_wakeup(&msq->q_senders, 1);
302         msg_rmid(ns, msq);
303         msg_unlock(msq);
304
305         tmp = msq->q_messages.next;
306         while (tmp != &msq->q_messages) {
307                 struct msg_msg *msg = list_entry(tmp, struct msg_msg, m_list);
308
309                 tmp = tmp->next;
310                 atomic_dec(&ns->msg_hdrs);
311                 free_msg(msg);
312         }
313         atomic_sub(msq->q_cbytes, &ns->msg_bytes);
314         security_msg_queue_free(msq);
315         ipc_rcu_putref(msq);
316 }
317
318 /*
319  * Called with msg_ids.rw_mutex and ipcp locked.
320  */
321 static inline int msg_security(struct kern_ipc_perm *ipcp, int msgflg)
322 {
323         struct msg_queue *msq = container_of(ipcp, struct msg_queue, q_perm);
324
325         return security_msg_queue_associate(msq, msgflg);
326 }
327
328 asmlinkage long sys_msgget(key_t key, int msgflg)
329 {
330         struct ipc_namespace *ns;
331         struct ipc_ops msg_ops;
332         struct ipc_params msg_params;
333
334         ns = current->nsproxy->ipc_ns;
335
336         msg_ops.getnew = newque;
337         msg_ops.associate = msg_security;
338         msg_ops.more_checks = NULL;
339
340         msg_params.key = key;
341         msg_params.flg = msgflg;
342
343         return ipcget(ns, &msg_ids(ns), &msg_ops, &msg_params);
344 }
345
346 static inline unsigned long
347 copy_msqid_to_user(void __user *buf, struct msqid64_ds *in, int version)
348 {
349         switch(version) {
350         case IPC_64:
351                 return copy_to_user(buf, in, sizeof(*in));
352         case IPC_OLD:
353         {
354                 struct msqid_ds out;
355
356                 memset(&out, 0, sizeof(out));
357
358                 ipc64_perm_to_ipc_perm(&in->msg_perm, &out.msg_perm);
359
360                 out.msg_stime           = in->msg_stime;
361                 out.msg_rtime           = in->msg_rtime;
362                 out.msg_ctime           = in->msg_ctime;
363
364                 if (in->msg_cbytes > USHRT_MAX)
365                         out.msg_cbytes  = USHRT_MAX;
366                 else
367                         out.msg_cbytes  = in->msg_cbytes;
368                 out.msg_lcbytes         = in->msg_cbytes;
369
370                 if (in->msg_qnum > USHRT_MAX)
371                         out.msg_qnum    = USHRT_MAX;
372                 else
373                         out.msg_qnum    = in->msg_qnum;
374
375                 if (in->msg_qbytes > USHRT_MAX)
376                         out.msg_qbytes  = USHRT_MAX;
377                 else
378                         out.msg_qbytes  = in->msg_qbytes;
379                 out.msg_lqbytes         = in->msg_qbytes;
380
381                 out.msg_lspid           = in->msg_lspid;
382                 out.msg_lrpid           = in->msg_lrpid;
383
384                 return copy_to_user(buf, &out, sizeof(out));
385         }
386         default:
387                 return -EINVAL;
388         }
389 }
390
391 struct msq_setbuf {
392         unsigned long   qbytes;
393         uid_t           uid;
394         gid_t           gid;
395         mode_t          mode;
396 };
397
398 static inline unsigned long
399 copy_msqid_from_user(struct msq_setbuf *out, void __user *buf, int version)
400 {
401         switch(version) {
402         case IPC_64:
403         {
404                 struct msqid64_ds tbuf;
405
406                 if (copy_from_user(&tbuf, buf, sizeof(tbuf)))
407                         return -EFAULT;
408
409                 out->qbytes             = tbuf.msg_qbytes;
410                 out->uid                = tbuf.msg_perm.uid;
411                 out->gid                = tbuf.msg_perm.gid;
412                 out->mode               = tbuf.msg_perm.mode;
413
414                 return 0;
415         }
416         case IPC_OLD:
417         {
418                 struct msqid_ds tbuf_old;
419
420                 if (copy_from_user(&tbuf_old, buf, sizeof(tbuf_old)))
421                         return -EFAULT;
422
423                 out->uid                = tbuf_old.msg_perm.uid;
424                 out->gid                = tbuf_old.msg_perm.gid;
425                 out->mode               = tbuf_old.msg_perm.mode;
426
427                 if (tbuf_old.msg_qbytes == 0)
428                         out->qbytes     = tbuf_old.msg_lqbytes;
429                 else
430                         out->qbytes     = tbuf_old.msg_qbytes;
431
432                 return 0;
433         }
434         default:
435                 return -EINVAL;
436         }
437 }
438
439 /*
440  * This function handles some msgctl commands which require the rw_mutex
441  * to be held in write mode.
442  * NOTE: no locks must be held, the rw_mutex is taken inside this function.
443  */
444 static int msgctl_down(struct ipc_namespace *ns, int msqid, int cmd,
445                        struct msqid_ds __user *buf, int version)
446 {
447         struct kern_ipc_perm *ipcp;
448         struct msq_setbuf setbuf;
449         struct msg_queue *msq;
450         int err;
451
452         if (cmd == IPC_SET) {
453                 if (copy_msqid_from_user(&setbuf, buf, version))
454                         return -EFAULT;
455         }
456
457         down_write(&msg_ids(ns).rw_mutex);
458         msq = msg_lock_check_down(ns, msqid);
459         if (IS_ERR(msq)) {
460                 err = PTR_ERR(msq);
461                 goto out_up;
462         }
463
464         ipcp = &msq->q_perm;
465
466         err = audit_ipc_obj(ipcp);
467         if (err)
468                 goto out_unlock;
469
470         if (cmd == IPC_SET) {
471                 err = audit_ipc_set_perm(setbuf.qbytes, setbuf.uid, setbuf.gid,
472                                          setbuf.mode);
473                 if (err)
474                         goto out_unlock;
475         }
476
477         if (current->euid != ipcp->cuid &&
478             current->euid != ipcp->uid &&
479             !capable(CAP_SYS_ADMIN)) {
480                 /* We _could_ check for CAP_CHOWN above, but we don't */
481                 err = -EPERM;
482                 goto out_unlock;
483         }
484
485         err = security_msg_queue_msgctl(msq, cmd);
486         if (err)
487                 goto out_unlock;
488
489         switch (cmd) {
490         case IPC_RMID:
491                 freeque(ns, ipcp);
492                 goto out_up;
493         case IPC_SET:
494                 if (setbuf.qbytes > ns->msg_ctlmnb &&
495                     !capable(CAP_SYS_RESOURCE)) {
496                         err = -EPERM;
497                         goto out_unlock;
498                 }
499
500                 msq->q_qbytes = setbuf.qbytes;
501
502                 ipcp->uid = setbuf.uid;
503                 ipcp->gid = setbuf.gid;
504                 ipcp->mode = (ipcp->mode & ~S_IRWXUGO) |
505                              (S_IRWXUGO & setbuf.mode);
506                 msq->q_ctime = get_seconds();
507                 /* sleeping receivers might be excluded by
508                  * stricter permissions.
509                  */
510                 expunge_all(msq, -EAGAIN);
511                 /* sleeping senders might be able to send
512                  * due to a larger queue size.
513                  */
514                 ss_wakeup(&msq->q_senders, 0);
515                 break;
516         default:
517                 err = -EINVAL;
518         }
519 out_unlock:
520         msg_unlock(msq);
521 out_up:
522         up_write(&msg_ids(ns).rw_mutex);
523         return err;
524 }
525
526 asmlinkage long sys_msgctl(int msqid, int cmd, struct msqid_ds __user *buf)
527 {
528         struct msg_queue *msq;
529         int err, version;
530         struct ipc_namespace *ns;
531
532         if (msqid < 0 || cmd < 0)
533                 return -EINVAL;
534
535         version = ipc_parse_version(&cmd);
536         ns = current->nsproxy->ipc_ns;
537
538         switch (cmd) {
539         case IPC_INFO:
540         case MSG_INFO:
541         {
542                 struct msginfo msginfo;
543                 int max_id;
544
545                 if (!buf)
546                         return -EFAULT;
547                 /*
548                  * We must not return kernel stack data.
549                  * due to padding, it's not enough
550                  * to set all member fields.
551                  */
552                 err = security_msg_queue_msgctl(NULL, cmd);
553                 if (err)
554                         return err;
555
556                 memset(&msginfo, 0, sizeof(msginfo));
557                 msginfo.msgmni = ns->msg_ctlmni;
558                 msginfo.msgmax = ns->msg_ctlmax;
559                 msginfo.msgmnb = ns->msg_ctlmnb;
560                 msginfo.msgssz = MSGSSZ;
561                 msginfo.msgseg = MSGSEG;
562                 down_read(&msg_ids(ns).rw_mutex);
563                 if (cmd == MSG_INFO) {
564                         msginfo.msgpool = msg_ids(ns).in_use;
565                         msginfo.msgmap = atomic_read(&ns->msg_hdrs);
566                         msginfo.msgtql = atomic_read(&ns->msg_bytes);
567                 } else {
568                         msginfo.msgmap = MSGMAP;
569                         msginfo.msgpool = MSGPOOL;
570                         msginfo.msgtql = MSGTQL;
571                 }
572                 max_id = ipc_get_maxid(&msg_ids(ns));
573                 up_read(&msg_ids(ns).rw_mutex);
574                 if (copy_to_user(buf, &msginfo, sizeof(struct msginfo)))
575                         return -EFAULT;
576                 return (max_id < 0) ? 0 : max_id;
577         }
578         case MSG_STAT:  /* msqid is an index rather than a msg queue id */
579         case IPC_STAT:
580         {
581                 struct msqid64_ds tbuf;
582                 int success_return;
583
584                 if (!buf)
585                         return -EFAULT;
586
587                 if (cmd == MSG_STAT) {
588                         msq = msg_lock(ns, msqid);
589                         if (IS_ERR(msq))
590                                 return PTR_ERR(msq);
591                         success_return = msq->q_perm.id;
592                 } else {
593                         msq = msg_lock_check(ns, msqid);
594                         if (IS_ERR(msq))
595                                 return PTR_ERR(msq);
596                         success_return = 0;
597                 }
598                 err = -EACCES;
599                 if (ipcperms(&msq->q_perm, S_IRUGO))
600                         goto out_unlock;
601
602                 err = security_msg_queue_msgctl(msq, cmd);
603                 if (err)
604                         goto out_unlock;
605
606                 memset(&tbuf, 0, sizeof(tbuf));
607
608                 kernel_to_ipc64_perm(&msq->q_perm, &tbuf.msg_perm);
609                 tbuf.msg_stime  = msq->q_stime;
610                 tbuf.msg_rtime  = msq->q_rtime;
611                 tbuf.msg_ctime  = msq->q_ctime;
612                 tbuf.msg_cbytes = msq->q_cbytes;
613                 tbuf.msg_qnum   = msq->q_qnum;
614                 tbuf.msg_qbytes = msq->q_qbytes;
615                 tbuf.msg_lspid  = msq->q_lspid;
616                 tbuf.msg_lrpid  = msq->q_lrpid;
617                 msg_unlock(msq);
618                 if (copy_msqid_to_user(buf, &tbuf, version))
619                         return -EFAULT;
620                 return success_return;
621         }
622         case IPC_SET:
623         case IPC_RMID:
624                 err = msgctl_down(ns, msqid, cmd, buf, version);
625                 return err;
626         default:
627                 return  -EINVAL;
628         }
629
630 out_unlock:
631         msg_unlock(msq);
632         return err;
633 }
634
635 static int testmsg(struct msg_msg *msg, long type, int mode)
636 {
637         switch(mode)
638         {
639                 case SEARCH_ANY:
640                         return 1;
641                 case SEARCH_LESSEQUAL:
642                         if (msg->m_type <=type)
643                                 return 1;
644                         break;
645                 case SEARCH_EQUAL:
646                         if (msg->m_type == type)
647                                 return 1;
648                         break;
649                 case SEARCH_NOTEQUAL:
650                         if (msg->m_type != type)
651                                 return 1;
652                         break;
653         }
654         return 0;
655 }
656
657 static inline int pipelined_send(struct msg_queue *msq, struct msg_msg *msg)
658 {
659         struct list_head *tmp;
660
661         tmp = msq->q_receivers.next;
662         while (tmp != &msq->q_receivers) {
663                 struct msg_receiver *msr;
664
665                 msr = list_entry(tmp, struct msg_receiver, r_list);
666                 tmp = tmp->next;
667                 if (testmsg(msg, msr->r_msgtype, msr->r_mode) &&
668                     !security_msg_queue_msgrcv(msq, msg, msr->r_tsk,
669                                                msr->r_msgtype, msr->r_mode)) {
670
671                         list_del(&msr->r_list);
672                         if (msr->r_maxsize < msg->m_ts) {
673                                 msr->r_msg = NULL;
674                                 wake_up_process(msr->r_tsk);
675                                 smp_mb();
676                                 msr->r_msg = ERR_PTR(-E2BIG);
677                         } else {
678                                 msr->r_msg = NULL;
679                                 msq->q_lrpid = task_pid_vnr(msr->r_tsk);
680                                 msq->q_rtime = get_seconds();
681                                 wake_up_process(msr->r_tsk);
682                                 smp_mb();
683                                 msr->r_msg = msg;
684
685                                 return 1;
686                         }
687                 }
688         }
689         return 0;
690 }
691
692 long do_msgsnd(int msqid, long mtype, void __user *mtext,
693                 size_t msgsz, int msgflg)
694 {
695         struct msg_queue *msq;
696         struct msg_msg *msg;
697         int err;
698         struct ipc_namespace *ns;
699
700         ns = current->nsproxy->ipc_ns;
701
702         if (msgsz > ns->msg_ctlmax || (long) msgsz < 0 || msqid < 0)
703                 return -EINVAL;
704         if (mtype < 1)
705                 return -EINVAL;
706
707         msg = load_msg(mtext, msgsz);
708         if (IS_ERR(msg))
709                 return PTR_ERR(msg);
710
711         msg->m_type = mtype;
712         msg->m_ts = msgsz;
713
714         msq = msg_lock_check(ns, msqid);
715         if (IS_ERR(msq)) {
716                 err = PTR_ERR(msq);
717                 goto out_free;
718         }
719
720         for (;;) {
721                 struct msg_sender s;
722
723                 err = -EACCES;
724                 if (ipcperms(&msq->q_perm, S_IWUGO))
725                         goto out_unlock_free;
726
727                 err = security_msg_queue_msgsnd(msq, msg, msgflg);
728                 if (err)
729                         goto out_unlock_free;
730
731                 if (msgsz + msq->q_cbytes <= msq->q_qbytes &&
732                                 1 + msq->q_qnum <= msq->q_qbytes) {
733                         break;
734                 }
735
736                 /* queue full, wait: */
737                 if (msgflg & IPC_NOWAIT) {
738                         err = -EAGAIN;
739                         goto out_unlock_free;
740                 }
741                 ss_add(msq, &s);
742                 ipc_rcu_getref(msq);
743                 msg_unlock(msq);
744                 schedule();
745
746                 ipc_lock_by_ptr(&msq->q_perm);
747                 ipc_rcu_putref(msq);
748                 if (msq->q_perm.deleted) {
749                         err = -EIDRM;
750                         goto out_unlock_free;
751                 }
752                 ss_del(&s);
753
754                 if (signal_pending(current)) {
755                         err = -ERESTARTNOHAND;
756                         goto out_unlock_free;
757                 }
758         }
759
760         msq->q_lspid = task_tgid_vnr(current);
761         msq->q_stime = get_seconds();
762
763         if (!pipelined_send(msq, msg)) {
764                 /* noone is waiting for this message, enqueue it */
765                 list_add_tail(&msg->m_list, &msq->q_messages);
766                 msq->q_cbytes += msgsz;
767                 msq->q_qnum++;
768                 atomic_add(msgsz, &ns->msg_bytes);
769                 atomic_inc(&ns->msg_hdrs);
770         }
771
772         err = 0;
773         msg = NULL;
774
775 out_unlock_free:
776         msg_unlock(msq);
777 out_free:
778         if (msg != NULL)
779                 free_msg(msg);
780         return err;
781 }
782
783 asmlinkage long
784 sys_msgsnd(int msqid, struct msgbuf __user *msgp, size_t msgsz, int msgflg)
785 {
786         long mtype;
787
788         if (get_user(mtype, &msgp->mtype))
789                 return -EFAULT;
790         return do_msgsnd(msqid, mtype, msgp->mtext, msgsz, msgflg);
791 }
792
793 static inline int convert_mode(long *msgtyp, int msgflg)
794 {
795         /*
796          *  find message of correct type.
797          *  msgtyp = 0 => get first.
798          *  msgtyp > 0 => get first message of matching type.
799          *  msgtyp < 0 => get message with least type must be < abs(msgtype).
800          */
801         if (*msgtyp == 0)
802                 return SEARCH_ANY;
803         if (*msgtyp < 0) {
804                 *msgtyp = -*msgtyp;
805                 return SEARCH_LESSEQUAL;
806         }
807         if (msgflg & MSG_EXCEPT)
808                 return SEARCH_NOTEQUAL;
809         return SEARCH_EQUAL;
810 }
811
812 long do_msgrcv(int msqid, long *pmtype, void __user *mtext,
813                 size_t msgsz, long msgtyp, int msgflg)
814 {
815         struct msg_queue *msq;
816         struct msg_msg *msg;
817         int mode;
818         struct ipc_namespace *ns;
819
820         if (msqid < 0 || (long) msgsz < 0)
821                 return -EINVAL;
822         mode = convert_mode(&msgtyp, msgflg);
823         ns = current->nsproxy->ipc_ns;
824
825         msq = msg_lock_check(ns, msqid);
826         if (IS_ERR(msq))
827                 return PTR_ERR(msq);
828
829         for (;;) {
830                 struct msg_receiver msr_d;
831                 struct list_head *tmp;
832
833                 msg = ERR_PTR(-EACCES);
834                 if (ipcperms(&msq->q_perm, S_IRUGO))
835                         goto out_unlock;
836
837                 msg = ERR_PTR(-EAGAIN);
838                 tmp = msq->q_messages.next;
839                 while (tmp != &msq->q_messages) {
840                         struct msg_msg *walk_msg;
841
842                         walk_msg = list_entry(tmp, struct msg_msg, m_list);
843                         if (testmsg(walk_msg, msgtyp, mode) &&
844                             !security_msg_queue_msgrcv(msq, walk_msg, current,
845                                                        msgtyp, mode)) {
846
847                                 msg = walk_msg;
848                                 if (mode == SEARCH_LESSEQUAL &&
849                                                 walk_msg->m_type != 1) {
850                                         msg = walk_msg;
851                                         msgtyp = walk_msg->m_type - 1;
852                                 } else {
853                                         msg = walk_msg;
854                                         break;
855                                 }
856                         }
857                         tmp = tmp->next;
858                 }
859                 if (!IS_ERR(msg)) {
860                         /*
861                          * Found a suitable message.
862                          * Unlink it from the queue.
863                          */
864                         if ((msgsz < msg->m_ts) && !(msgflg & MSG_NOERROR)) {
865                                 msg = ERR_PTR(-E2BIG);
866                                 goto out_unlock;
867                         }
868                         list_del(&msg->m_list);
869                         msq->q_qnum--;
870                         msq->q_rtime = get_seconds();
871                         msq->q_lrpid = task_tgid_vnr(current);
872                         msq->q_cbytes -= msg->m_ts;
873                         atomic_sub(msg->m_ts, &ns->msg_bytes);
874                         atomic_dec(&ns->msg_hdrs);
875                         ss_wakeup(&msq->q_senders, 0);
876                         msg_unlock(msq);
877                         break;
878                 }
879                 /* No message waiting. Wait for a message */
880                 if (msgflg & IPC_NOWAIT) {
881                         msg = ERR_PTR(-ENOMSG);
882                         goto out_unlock;
883                 }
884                 list_add_tail(&msr_d.r_list, &msq->q_receivers);
885                 msr_d.r_tsk = current;
886                 msr_d.r_msgtype = msgtyp;
887                 msr_d.r_mode = mode;
888                 if (msgflg & MSG_NOERROR)
889                         msr_d.r_maxsize = INT_MAX;
890                 else
891                         msr_d.r_maxsize = msgsz;
892                 msr_d.r_msg = ERR_PTR(-EAGAIN);
893                 current->state = TASK_INTERRUPTIBLE;
894                 msg_unlock(msq);
895
896                 schedule();
897
898                 /* Lockless receive, part 1:
899                  * Disable preemption.  We don't hold a reference to the queue
900                  * and getting a reference would defeat the idea of a lockless
901                  * operation, thus the code relies on rcu to guarantee the
902                  * existance of msq:
903                  * Prior to destruction, expunge_all(-EIRDM) changes r_msg.
904                  * Thus if r_msg is -EAGAIN, then the queue not yet destroyed.
905                  * rcu_read_lock() prevents preemption between reading r_msg
906                  * and the spin_lock() inside ipc_lock_by_ptr().
907                  */
908                 rcu_read_lock();
909
910                 /* Lockless receive, part 2:
911                  * Wait until pipelined_send or expunge_all are outside of
912                  * wake_up_process(). There is a race with exit(), see
913                  * ipc/mqueue.c for the details.
914                  */
915                 msg = (struct msg_msg*)msr_d.r_msg;
916                 while (msg == NULL) {
917                         cpu_relax();
918                         msg = (struct msg_msg *)msr_d.r_msg;
919                 }
920
921                 /* Lockless receive, part 3:
922                  * If there is a message or an error then accept it without
923                  * locking.
924                  */
925                 if (msg != ERR_PTR(-EAGAIN)) {
926                         rcu_read_unlock();
927                         break;
928                 }
929
930                 /* Lockless receive, part 3:
931                  * Acquire the queue spinlock.
932                  */
933                 ipc_lock_by_ptr(&msq->q_perm);
934                 rcu_read_unlock();
935
936                 /* Lockless receive, part 4:
937                  * Repeat test after acquiring the spinlock.
938                  */
939                 msg = (struct msg_msg*)msr_d.r_msg;
940                 if (msg != ERR_PTR(-EAGAIN))
941                         goto out_unlock;
942
943                 list_del(&msr_d.r_list);
944                 if (signal_pending(current)) {
945                         msg = ERR_PTR(-ERESTARTNOHAND);
946 out_unlock:
947                         msg_unlock(msq);
948                         break;
949                 }
950         }
951         if (IS_ERR(msg))
952                 return PTR_ERR(msg);
953
954         msgsz = (msgsz > msg->m_ts) ? msg->m_ts : msgsz;
955         *pmtype = msg->m_type;
956         if (store_msg(mtext, msg, msgsz))
957                 msgsz = -EFAULT;
958
959         free_msg(msg);
960
961         return msgsz;
962 }
963
964 asmlinkage long sys_msgrcv(int msqid, struct msgbuf __user *msgp, size_t msgsz,
965                            long msgtyp, int msgflg)
966 {
967         long err, mtype;
968
969         err =  do_msgrcv(msqid, &mtype, msgp->mtext, msgsz, msgtyp, msgflg);
970         if (err < 0)
971                 goto out;
972
973         if (put_user(mtype, &msgp->mtype))
974                 err = -EFAULT;
975 out:
976         return err;
977 }
978
979 #ifdef CONFIG_PROC_FS
980 static int sysvipc_msg_proc_show(struct seq_file *s, void *it)
981 {
982         struct msg_queue *msq = it;
983
984         return seq_printf(s,
985                         "%10d %10d  %4o  %10lu %10lu %5u %5u %5u %5u %5u %5u %10lu %10lu %10lu\n",
986                         msq->q_perm.key,
987                         msq->q_perm.id,
988                         msq->q_perm.mode,
989                         msq->q_cbytes,
990                         msq->q_qnum,
991                         msq->q_lspid,
992                         msq->q_lrpid,
993                         msq->q_perm.uid,
994                         msq->q_perm.gid,
995                         msq->q_perm.cuid,
996                         msq->q_perm.cgid,
997                         msq->q_stime,
998                         msq->q_rtime,
999                         msq->q_ctime);
1000 }
1001 #endif