ARM: tegra: config: enable POWER_SUPPLY_EXTCON
[linux-2.6.git] / block / genhd.c
1 /*
2  *  gendisk handling
3  */
4
5 #include <linux/module.h>
6 #include <linux/fs.h>
7 #include <linux/genhd.h>
8 #include <linux/kdev_t.h>
9 #include <linux/kernel.h>
10 #include <linux/blkdev.h>
11 #include <linux/init.h>
12 #include <linux/spinlock.h>
13 #include <linux/proc_fs.h>
14 #include <linux/seq_file.h>
15 #include <linux/slab.h>
16 #include <linux/kmod.h>
17 #include <linux/kobj_map.h>
18 #include <linux/mutex.h>
19 #include <linux/idr.h>
20 #include <linux/log2.h>
21
22 #include "blk.h"
23
24 static DEFINE_MUTEX(block_class_lock);
25 struct kobject *block_depr;
26
27 /* for extended dynamic devt allocation, currently only one major is used */
28 #define NR_EXT_DEVT             (1 << MINORBITS)
29
30 /* For extended devt allocation.  ext_devt_mutex prevents look up
31  * results from going away underneath its user.
32  */
33 static DEFINE_MUTEX(ext_devt_mutex);
34 static DEFINE_IDR(ext_devt_idr);
35
36 static struct device_type disk_type;
37
38 static void disk_check_events(struct disk_events *ev,
39                               unsigned int *clearing_ptr);
40 static void disk_alloc_events(struct gendisk *disk);
41 static void disk_add_events(struct gendisk *disk);
42 static void disk_del_events(struct gendisk *disk);
43 static void disk_release_events(struct gendisk *disk);
44
45 /**
46  * disk_get_part - get partition
47  * @disk: disk to look partition from
48  * @partno: partition number
49  *
50  * Look for partition @partno from @disk.  If found, increment
51  * reference count and return it.
52  *
53  * CONTEXT:
54  * Don't care.
55  *
56  * RETURNS:
57  * Pointer to the found partition on success, NULL if not found.
58  */
59 struct hd_struct *disk_get_part(struct gendisk *disk, int partno)
60 {
61         struct hd_struct *part = NULL;
62         struct disk_part_tbl *ptbl;
63
64         if (unlikely(partno < 0))
65                 return NULL;
66
67         rcu_read_lock();
68
69         ptbl = rcu_dereference(disk->part_tbl);
70         if (likely(partno < ptbl->len)) {
71                 part = rcu_dereference(ptbl->part[partno]);
72                 if (part)
73                         get_device(part_to_dev(part));
74         }
75
76         rcu_read_unlock();
77
78         return part;
79 }
80 EXPORT_SYMBOL_GPL(disk_get_part);
81
82 /**
83  * disk_part_iter_init - initialize partition iterator
84  * @piter: iterator to initialize
85  * @disk: disk to iterate over
86  * @flags: DISK_PITER_* flags
87  *
88  * Initialize @piter so that it iterates over partitions of @disk.
89  *
90  * CONTEXT:
91  * Don't care.
92  */
93 void disk_part_iter_init(struct disk_part_iter *piter, struct gendisk *disk,
94                           unsigned int flags)
95 {
96         struct disk_part_tbl *ptbl;
97
98         rcu_read_lock();
99         ptbl = rcu_dereference(disk->part_tbl);
100
101         piter->disk = disk;
102         piter->part = NULL;
103
104         if (flags & DISK_PITER_REVERSE)
105                 piter->idx = ptbl->len - 1;
106         else if (flags & (DISK_PITER_INCL_PART0 | DISK_PITER_INCL_EMPTY_PART0))
107                 piter->idx = 0;
108         else
109                 piter->idx = 1;
110
111         piter->flags = flags;
112
113         rcu_read_unlock();
114 }
115 EXPORT_SYMBOL_GPL(disk_part_iter_init);
116
117 /**
118  * disk_part_iter_next - proceed iterator to the next partition and return it
119  * @piter: iterator of interest
120  *
121  * Proceed @piter to the next partition and return it.
122  *
123  * CONTEXT:
124  * Don't care.
125  */
126 struct hd_struct *disk_part_iter_next(struct disk_part_iter *piter)
127 {
128         struct disk_part_tbl *ptbl;
129         int inc, end;
130
131         /* put the last partition */
132         disk_put_part(piter->part);
133         piter->part = NULL;
134
135         /* get part_tbl */
136         rcu_read_lock();
137         ptbl = rcu_dereference(piter->disk->part_tbl);
138
139         /* determine iteration parameters */
140         if (piter->flags & DISK_PITER_REVERSE) {
141                 inc = -1;
142                 if (piter->flags & (DISK_PITER_INCL_PART0 |
143                                     DISK_PITER_INCL_EMPTY_PART0))
144                         end = -1;
145                 else
146                         end = 0;
147         } else {
148                 inc = 1;
149                 end = ptbl->len;
150         }
151
152         /* iterate to the next partition */
153         for (; piter->idx != end; piter->idx += inc) {
154                 struct hd_struct *part;
155
156                 part = rcu_dereference(ptbl->part[piter->idx]);
157                 if (!part)
158                         continue;
159                 if (!part->nr_sects &&
160                     !(piter->flags & DISK_PITER_INCL_EMPTY) &&
161                     !(piter->flags & DISK_PITER_INCL_EMPTY_PART0 &&
162                       piter->idx == 0))
163                         continue;
164
165                 get_device(part_to_dev(part));
166                 piter->part = part;
167                 piter->idx += inc;
168                 break;
169         }
170
171         rcu_read_unlock();
172
173         return piter->part;
174 }
175 EXPORT_SYMBOL_GPL(disk_part_iter_next);
176
177 /**
178  * disk_part_iter_exit - finish up partition iteration
179  * @piter: iter of interest
180  *
181  * Called when iteration is over.  Cleans up @piter.
182  *
183  * CONTEXT:
184  * Don't care.
185  */
186 void disk_part_iter_exit(struct disk_part_iter *piter)
187 {
188         disk_put_part(piter->part);
189         piter->part = NULL;
190 }
191 EXPORT_SYMBOL_GPL(disk_part_iter_exit);
192
193 static inline int sector_in_part(struct hd_struct *part, sector_t sector)
194 {
195         return part->start_sect <= sector &&
196                 sector < part->start_sect + part->nr_sects;
197 }
198
199 /**
200  * disk_map_sector_rcu - map sector to partition
201  * @disk: gendisk of interest
202  * @sector: sector to map
203  *
204  * Find out which partition @sector maps to on @disk.  This is
205  * primarily used for stats accounting.
206  *
207  * CONTEXT:
208  * RCU read locked.  The returned partition pointer is valid only
209  * while preemption is disabled.
210  *
211  * RETURNS:
212  * Found partition on success, part0 is returned if no partition matches
213  */
214 struct hd_struct *disk_map_sector_rcu(struct gendisk *disk, sector_t sector)
215 {
216         struct disk_part_tbl *ptbl;
217         struct hd_struct *part;
218         int i;
219
220         ptbl = rcu_dereference(disk->part_tbl);
221
222         part = rcu_dereference(ptbl->last_lookup);
223         if (part && sector_in_part(part, sector))
224                 return part;
225
226         for (i = 1; i < ptbl->len; i++) {
227                 part = rcu_dereference(ptbl->part[i]);
228
229                 if (part && sector_in_part(part, sector)) {
230                         rcu_assign_pointer(ptbl->last_lookup, part);
231                         return part;
232                 }
233         }
234         return &disk->part0;
235 }
236 EXPORT_SYMBOL_GPL(disk_map_sector_rcu);
237
238 /*
239  * Can be deleted altogether. Later.
240  *
241  */
242 static struct blk_major_name {
243         struct blk_major_name *next;
244         int major;
245         char name[16];
246 } *major_names[BLKDEV_MAJOR_HASH_SIZE];
247
248 /* index in the above - for now: assume no multimajor ranges */
249 static inline int major_to_index(unsigned major)
250 {
251         return major % BLKDEV_MAJOR_HASH_SIZE;
252 }
253
254 #ifdef CONFIG_PROC_FS
255 void blkdev_show(struct seq_file *seqf, off_t offset)
256 {
257         struct blk_major_name *dp;
258
259         if (offset < BLKDEV_MAJOR_HASH_SIZE) {
260                 mutex_lock(&block_class_lock);
261                 for (dp = major_names[offset]; dp; dp = dp->next)
262                         seq_printf(seqf, "%3d %s\n", dp->major, dp->name);
263                 mutex_unlock(&block_class_lock);
264         }
265 }
266 #endif /* CONFIG_PROC_FS */
267
268 /**
269  * register_blkdev - register a new block device
270  *
271  * @major: the requested major device number [1..255]. If @major=0, try to
272  *         allocate any unused major number.
273  * @name: the name of the new block device as a zero terminated string
274  *
275  * The @name must be unique within the system.
276  *
277  * The return value depends on the @major input parameter.
278  *  - if a major device number was requested in range [1..255] then the
279  *    function returns zero on success, or a negative error code
280  *  - if any unused major number was requested with @major=0 parameter
281  *    then the return value is the allocated major number in range
282  *    [1..255] or a negative error code otherwise
283  */
284 int register_blkdev(unsigned int major, const char *name)
285 {
286         struct blk_major_name **n, *p;
287         int index, ret = 0;
288
289         mutex_lock(&block_class_lock);
290
291         /* temporary */
292         if (major == 0) {
293                 for (index = ARRAY_SIZE(major_names)-1; index > 0; index--) {
294                         if (major_names[index] == NULL)
295                                 break;
296                 }
297
298                 if (index == 0) {
299                         printk("register_blkdev: failed to get major for %s\n",
300                                name);
301                         ret = -EBUSY;
302                         goto out;
303                 }
304                 major = index;
305                 ret = major;
306         }
307
308         p = kmalloc(sizeof(struct blk_major_name), GFP_KERNEL);
309         if (p == NULL) {
310                 ret = -ENOMEM;
311                 goto out;
312         }
313
314         p->major = major;
315         strlcpy(p->name, name, sizeof(p->name));
316         p->next = NULL;
317         index = major_to_index(major);
318
319         for (n = &major_names[index]; *n; n = &(*n)->next) {
320                 if ((*n)->major == major)
321                         break;
322         }
323         if (!*n)
324                 *n = p;
325         else
326                 ret = -EBUSY;
327
328         if (ret < 0) {
329                 printk("register_blkdev: cannot get major %d for %s\n",
330                        major, name);
331                 kfree(p);
332         }
333 out:
334         mutex_unlock(&block_class_lock);
335         return ret;
336 }
337
338 EXPORT_SYMBOL(register_blkdev);
339
340 void unregister_blkdev(unsigned int major, const char *name)
341 {
342         struct blk_major_name **n;
343         struct blk_major_name *p = NULL;
344         int index = major_to_index(major);
345
346         mutex_lock(&block_class_lock);
347         for (n = &major_names[index]; *n; n = &(*n)->next)
348                 if ((*n)->major == major)
349                         break;
350         if (!*n || strcmp((*n)->name, name)) {
351                 WARN_ON(1);
352         } else {
353                 p = *n;
354                 *n = p->next;
355         }
356         mutex_unlock(&block_class_lock);
357         kfree(p);
358 }
359
360 EXPORT_SYMBOL(unregister_blkdev);
361
362 static struct kobj_map *bdev_map;
363
364 /**
365  * blk_mangle_minor - scatter minor numbers apart
366  * @minor: minor number to mangle
367  *
368  * Scatter consecutively allocated @minor number apart if MANGLE_DEVT
369  * is enabled.  Mangling twice gives the original value.
370  *
371  * RETURNS:
372  * Mangled value.
373  *
374  * CONTEXT:
375  * Don't care.
376  */
377 static int blk_mangle_minor(int minor)
378 {
379 #ifdef CONFIG_DEBUG_BLOCK_EXT_DEVT
380         int i;
381
382         for (i = 0; i < MINORBITS / 2; i++) {
383                 int low = minor & (1 << i);
384                 int high = minor & (1 << (MINORBITS - 1 - i));
385                 int distance = MINORBITS - 1 - 2 * i;
386
387                 minor ^= low | high;    /* clear both bits */
388                 low <<= distance;       /* swap the positions */
389                 high >>= distance;
390                 minor |= low | high;    /* and set */
391         }
392 #endif
393         return minor;
394 }
395
396 /**
397  * blk_alloc_devt - allocate a dev_t for a partition
398  * @part: partition to allocate dev_t for
399  * @devt: out parameter for resulting dev_t
400  *
401  * Allocate a dev_t for block device.
402  *
403  * RETURNS:
404  * 0 on success, allocated dev_t is returned in *@devt.  -errno on
405  * failure.
406  *
407  * CONTEXT:
408  * Might sleep.
409  */
410 int blk_alloc_devt(struct hd_struct *part, dev_t *devt)
411 {
412         struct gendisk *disk = part_to_disk(part);
413         int idx, rc;
414
415         /* in consecutive minor range? */
416         if (part->partno < disk->minors) {
417                 *devt = MKDEV(disk->major, disk->first_minor + part->partno);
418                 return 0;
419         }
420
421         /* allocate ext devt */
422         do {
423                 if (!idr_pre_get(&ext_devt_idr, GFP_KERNEL))
424                         return -ENOMEM;
425                 mutex_lock(&ext_devt_mutex);
426                 rc = idr_get_new(&ext_devt_idr, part, &idx);
427                 if (!rc && idx >= NR_EXT_DEVT) {
428                         idr_remove(&ext_devt_idr, idx);
429                         rc = -EBUSY;
430                 }
431                 mutex_unlock(&ext_devt_mutex);
432         } while (rc == -EAGAIN);
433
434         if (rc)
435                 return rc;
436
437         *devt = MKDEV(BLOCK_EXT_MAJOR, blk_mangle_minor(idx));
438         return 0;
439 }
440
441 /**
442  * blk_free_devt - free a dev_t
443  * @devt: dev_t to free
444  *
445  * Free @devt which was allocated using blk_alloc_devt().
446  *
447  * CONTEXT:
448  * Might sleep.
449  */
450 void blk_free_devt(dev_t devt)
451 {
452         might_sleep();
453
454         if (devt == MKDEV(0, 0))
455                 return;
456
457         if (MAJOR(devt) == BLOCK_EXT_MAJOR) {
458                 mutex_lock(&ext_devt_mutex);
459                 idr_remove(&ext_devt_idr, blk_mangle_minor(MINOR(devt)));
460                 mutex_unlock(&ext_devt_mutex);
461         }
462 }
463
464 static char *bdevt_str(dev_t devt, char *buf)
465 {
466         if (MAJOR(devt) <= 0xff && MINOR(devt) <= 0xff) {
467                 char tbuf[BDEVT_SIZE];
468                 snprintf(tbuf, BDEVT_SIZE, "%02x%02x", MAJOR(devt), MINOR(devt));
469                 snprintf(buf, BDEVT_SIZE, "%-9s", tbuf);
470         } else
471                 snprintf(buf, BDEVT_SIZE, "%03x:%05x", MAJOR(devt), MINOR(devt));
472
473         return buf;
474 }
475
476 /*
477  * Register device numbers dev..(dev+range-1)
478  * range must be nonzero
479  * The hash chain is sorted on range, so that subranges can override.
480  */
481 void blk_register_region(dev_t devt, unsigned long range, struct module *module,
482                          struct kobject *(*probe)(dev_t, int *, void *),
483                          int (*lock)(dev_t, void *), void *data)
484 {
485         kobj_map(bdev_map, devt, range, module, probe, lock, data);
486 }
487
488 EXPORT_SYMBOL(blk_register_region);
489
490 void blk_unregister_region(dev_t devt, unsigned long range)
491 {
492         kobj_unmap(bdev_map, devt, range);
493 }
494
495 EXPORT_SYMBOL(blk_unregister_region);
496
497 static struct kobject *exact_match(dev_t devt, int *partno, void *data)
498 {
499         struct gendisk *p = data;
500
501         return &disk_to_dev(p)->kobj;
502 }
503
504 static int exact_lock(dev_t devt, void *data)
505 {
506         struct gendisk *p = data;
507
508         if (!get_disk(p))
509                 return -1;
510         return 0;
511 }
512
513 static void register_disk(struct gendisk *disk)
514 {
515         struct device *ddev = disk_to_dev(disk);
516         struct block_device *bdev;
517         struct disk_part_iter piter;
518         struct hd_struct *part;
519         int err;
520
521         ddev->parent = disk->driverfs_dev;
522
523         dev_set_name(ddev, disk->disk_name);
524
525         /* delay uevents, until we scanned partition table */
526         dev_set_uevent_suppress(ddev, 1);
527
528         if (device_add(ddev))
529                 return;
530         if (!sysfs_deprecated) {
531                 err = sysfs_create_link(block_depr, &ddev->kobj,
532                                         kobject_name(&ddev->kobj));
533                 if (err) {
534                         device_del(ddev);
535                         return;
536                 }
537         }
538         disk->part0.holder_dir = kobject_create_and_add("holders", &ddev->kobj);
539         disk->slave_dir = kobject_create_and_add("slaves", &ddev->kobj);
540
541         /* No minors to use for partitions */
542         if (!disk_part_scan_enabled(disk))
543                 goto exit;
544
545         /* No such device (e.g., media were just removed) */
546         if (!get_capacity(disk))
547                 goto exit;
548
549         bdev = bdget_disk(disk, 0);
550         if (!bdev)
551                 goto exit;
552
553         bdev->bd_invalidated = 1;
554         err = blkdev_get(bdev, FMODE_READ, NULL);
555         if (err < 0)
556                 goto exit;
557         blkdev_put(bdev, FMODE_READ);
558
559 exit:
560         /* announce disk after possible partitions are created */
561         dev_set_uevent_suppress(ddev, 0);
562         kobject_uevent(&ddev->kobj, KOBJ_ADD);
563
564         /* announce possible partitions */
565         disk_part_iter_init(&piter, disk, 0);
566         while ((part = disk_part_iter_next(&piter)))
567                 kobject_uevent(&part_to_dev(part)->kobj, KOBJ_ADD);
568         disk_part_iter_exit(&piter);
569 }
570
571 /**
572  * add_disk - add partitioning information to kernel list
573  * @disk: per-device partitioning information
574  *
575  * This function registers the partitioning information in @disk
576  * with the kernel.
577  *
578  * FIXME: error handling
579  */
580 void add_disk(struct gendisk *disk)
581 {
582         struct backing_dev_info *bdi;
583         dev_t devt;
584         int retval;
585
586         /* minors == 0 indicates to use ext devt from part0 and should
587          * be accompanied with EXT_DEVT flag.  Make sure all
588          * parameters make sense.
589          */
590         WARN_ON(disk->minors && !(disk->major || disk->first_minor));
591         WARN_ON(!disk->minors && !(disk->flags & GENHD_FL_EXT_DEVT));
592
593         disk->flags |= GENHD_FL_UP;
594
595         retval = blk_alloc_devt(&disk->part0, &devt);
596         if (retval) {
597                 WARN_ON(1);
598                 return;
599         }
600         disk_to_dev(disk)->devt = devt;
601
602         /* ->major and ->first_minor aren't supposed to be
603          * dereferenced from here on, but set them just in case.
604          */
605         disk->major = MAJOR(devt);
606         disk->first_minor = MINOR(devt);
607
608         disk_alloc_events(disk);
609
610         /* Register BDI before referencing it from bdev */
611         bdi = &disk->queue->backing_dev_info;
612         bdi_register_dev(bdi, disk_devt(disk));
613
614         blk_register_region(disk_devt(disk), disk->minors, NULL,
615                             exact_match, exact_lock, disk);
616         register_disk(disk);
617         blk_register_queue(disk);
618
619         /*
620          * Take an extra ref on queue which will be put on disk_release()
621          * so that it sticks around as long as @disk is there.
622          */
623         WARN_ON_ONCE(!blk_get_queue(disk->queue));
624
625         retval = sysfs_create_link(&disk_to_dev(disk)->kobj, &bdi->dev->kobj,
626                                    "bdi");
627         WARN_ON(retval);
628
629         disk_add_events(disk);
630 }
631 EXPORT_SYMBOL(add_disk);
632
633 void del_gendisk(struct gendisk *disk)
634 {
635         struct disk_part_iter piter;
636         struct hd_struct *part;
637
638         disk_del_events(disk);
639
640         /* invalidate stuff */
641         disk_part_iter_init(&piter, disk,
642                              DISK_PITER_INCL_EMPTY | DISK_PITER_REVERSE);
643         while ((part = disk_part_iter_next(&piter))) {
644                 invalidate_partition(disk, part->partno);
645                 delete_partition(disk, part->partno);
646         }
647         disk_part_iter_exit(&piter);
648
649         invalidate_partition(disk, 0);
650         set_capacity(disk, 0);
651         disk->flags &= ~GENHD_FL_UP;
652
653         sysfs_remove_link(&disk_to_dev(disk)->kobj, "bdi");
654         bdi_unregister(&disk->queue->backing_dev_info);
655         blk_unregister_queue(disk);
656         blk_unregister_region(disk_devt(disk), disk->minors);
657
658         part_stat_set_all(&disk->part0, 0);
659         disk->part0.stamp = 0;
660
661         kobject_put(disk->part0.holder_dir);
662         kobject_put(disk->slave_dir);
663         disk->driverfs_dev = NULL;
664         if (!sysfs_deprecated)
665                 sysfs_remove_link(block_depr, dev_name(disk_to_dev(disk)));
666         device_del(disk_to_dev(disk));
667         blk_free_devt(disk_to_dev(disk)->devt);
668 }
669 EXPORT_SYMBOL(del_gendisk);
670
671 /**
672  * get_gendisk - get partitioning information for a given device
673  * @devt: device to get partitioning information for
674  * @partno: returned partition index
675  *
676  * This function gets the structure containing partitioning
677  * information for the given device @devt.
678  */
679 struct gendisk *get_gendisk(dev_t devt, int *partno)
680 {
681         struct gendisk *disk = NULL;
682
683         if (MAJOR(devt) != BLOCK_EXT_MAJOR) {
684                 struct kobject *kobj;
685
686                 kobj = kobj_lookup(bdev_map, devt, partno);
687                 if (kobj)
688                         disk = dev_to_disk(kobj_to_dev(kobj));
689         } else {
690                 struct hd_struct *part;
691
692                 mutex_lock(&ext_devt_mutex);
693                 part = idr_find(&ext_devt_idr, blk_mangle_minor(MINOR(devt)));
694                 if (part && get_disk(part_to_disk(part))) {
695                         *partno = part->partno;
696                         disk = part_to_disk(part);
697                 }
698                 mutex_unlock(&ext_devt_mutex);
699         }
700
701         return disk;
702 }
703 EXPORT_SYMBOL(get_gendisk);
704
705 /**
706  * bdget_disk - do bdget() by gendisk and partition number
707  * @disk: gendisk of interest
708  * @partno: partition number
709  *
710  * Find partition @partno from @disk, do bdget() on it.
711  *
712  * CONTEXT:
713  * Don't care.
714  *
715  * RETURNS:
716  * Resulting block_device on success, NULL on failure.
717  */
718 struct block_device *bdget_disk(struct gendisk *disk, int partno)
719 {
720         struct hd_struct *part;
721         struct block_device *bdev = NULL;
722
723         part = disk_get_part(disk, partno);
724         if (part)
725                 bdev = bdget(part_devt(part));
726         disk_put_part(part);
727
728         return bdev;
729 }
730 EXPORT_SYMBOL(bdget_disk);
731
732 /*
733  * print a full list of all partitions - intended for places where the root
734  * filesystem can't be mounted and thus to give the victim some idea of what
735  * went wrong
736  */
737 void __init printk_all_partitions(void)
738 {
739         struct class_dev_iter iter;
740         struct device *dev;
741
742         class_dev_iter_init(&iter, &block_class, NULL, &disk_type);
743         while ((dev = class_dev_iter_next(&iter))) {
744                 struct gendisk *disk = dev_to_disk(dev);
745                 struct disk_part_iter piter;
746                 struct hd_struct *part;
747                 char name_buf[BDEVNAME_SIZE];
748                 char devt_buf[BDEVT_SIZE];
749                 char uuid_buf[PARTITION_META_INFO_UUIDLTH * 2 + 5];
750
751                 /*
752                  * Don't show empty devices or things that have been
753                  * suppressed
754                  */
755                 if (get_capacity(disk) == 0 ||
756                     (disk->flags & GENHD_FL_SUPPRESS_PARTITION_INFO))
757                         continue;
758
759                 /*
760                  * Note, unlike /proc/partitions, I am showing the
761                  * numbers in hex - the same format as the root=
762                  * option takes.
763                  */
764                 disk_part_iter_init(&piter, disk, DISK_PITER_INCL_PART0);
765                 while ((part = disk_part_iter_next(&piter))) {
766                         bool is_part0 = part == &disk->part0;
767
768                         uuid_buf[0] = '\0';
769                         if (part->info)
770                                 snprintf(uuid_buf, sizeof(uuid_buf), "%pU",
771                                          part->info->uuid);
772
773                         printk("%s%s %10llu %s %s", is_part0 ? "" : "  ",
774                                bdevt_str(part_devt(part), devt_buf),
775                                (unsigned long long)part->nr_sects >> 1,
776                                disk_name(disk, part->partno, name_buf),
777                                uuid_buf);
778                         if (is_part0) {
779                                 if (disk->driverfs_dev != NULL &&
780                                     disk->driverfs_dev->driver != NULL)
781                                         printk(" driver: %s\n",
782                                               disk->driverfs_dev->driver->name);
783                                 else
784                                         printk(" (driver?)\n");
785                         } else
786                                 printk("\n");
787                 }
788                 disk_part_iter_exit(&piter);
789         }
790         class_dev_iter_exit(&iter);
791 }
792
793 #ifdef CONFIG_PROC_FS
794 /* iterator */
795 static void *disk_seqf_start(struct seq_file *seqf, loff_t *pos)
796 {
797         loff_t skip = *pos;
798         struct class_dev_iter *iter;
799         struct device *dev;
800
801         iter = kmalloc(sizeof(*iter), GFP_KERNEL);
802         if (!iter)
803                 return ERR_PTR(-ENOMEM);
804
805         seqf->private = iter;
806         class_dev_iter_init(iter, &block_class, NULL, &disk_type);
807         do {
808                 dev = class_dev_iter_next(iter);
809                 if (!dev)
810                         return NULL;
811         } while (skip--);
812
813         return dev_to_disk(dev);
814 }
815
816 static void *disk_seqf_next(struct seq_file *seqf, void *v, loff_t *pos)
817 {
818         struct device *dev;
819
820         (*pos)++;
821         dev = class_dev_iter_next(seqf->private);
822         if (dev)
823                 return dev_to_disk(dev);
824
825         return NULL;
826 }
827
828 static void disk_seqf_stop(struct seq_file *seqf, void *v)
829 {
830         struct class_dev_iter *iter = seqf->private;
831
832         /* stop is called even after start failed :-( */
833         if (iter) {
834                 class_dev_iter_exit(iter);
835                 kfree(iter);
836         }
837 }
838
839 static void *show_partition_start(struct seq_file *seqf, loff_t *pos)
840 {
841         static void *p;
842
843         p = disk_seqf_start(seqf, pos);
844         if (!IS_ERR_OR_NULL(p) && !*pos)
845                 seq_puts(seqf, "major minor  #blocks  name\n\n");
846         return p;
847 }
848
849 static int show_partition(struct seq_file *seqf, void *v)
850 {
851         struct gendisk *sgp = v;
852         struct disk_part_iter piter;
853         struct hd_struct *part;
854         char buf[BDEVNAME_SIZE];
855
856         /* Don't show non-partitionable removeable devices or empty devices */
857         if (!get_capacity(sgp) || (!disk_max_parts(sgp) &&
858                                    (sgp->flags & GENHD_FL_REMOVABLE)))
859                 return 0;
860         if (sgp->flags & GENHD_FL_SUPPRESS_PARTITION_INFO)
861                 return 0;
862
863         /* show the full disk and all non-0 size partitions of it */
864         disk_part_iter_init(&piter, sgp, DISK_PITER_INCL_PART0);
865         while ((part = disk_part_iter_next(&piter)))
866                 seq_printf(seqf, "%4d  %7d %10llu %s\n",
867                            MAJOR(part_devt(part)), MINOR(part_devt(part)),
868                            (unsigned long long)part->nr_sects >> 1,
869                            disk_name(sgp, part->partno, buf));
870         disk_part_iter_exit(&piter);
871
872         return 0;
873 }
874
875 static const struct seq_operations partitions_op = {
876         .start  = show_partition_start,
877         .next   = disk_seqf_next,
878         .stop   = disk_seqf_stop,
879         .show   = show_partition
880 };
881
882 static int partitions_open(struct inode *inode, struct file *file)
883 {
884         return seq_open(file, &partitions_op);
885 }
886
887 static const struct file_operations proc_partitions_operations = {
888         .open           = partitions_open,
889         .read           = seq_read,
890         .llseek         = seq_lseek,
891         .release        = seq_release,
892 };
893 #endif
894
895
896 static struct kobject *base_probe(dev_t devt, int *partno, void *data)
897 {
898         if (request_module("block-major-%d-%d", MAJOR(devt), MINOR(devt)) > 0)
899                 /* Make old-style 2.4 aliases work */
900                 request_module("block-major-%d", MAJOR(devt));
901         return NULL;
902 }
903
904 static int __init genhd_device_init(void)
905 {
906         int error;
907
908         block_class.dev_kobj = sysfs_dev_block_kobj;
909         error = class_register(&block_class);
910         if (unlikely(error))
911                 return error;
912         bdev_map = kobj_map_init(base_probe, &block_class_lock);
913         blk_dev_init();
914
915         register_blkdev(BLOCK_EXT_MAJOR, "blkext");
916
917         /* create top-level block dir */
918         if (!sysfs_deprecated)
919                 block_depr = kobject_create_and_add("block", NULL);
920         return 0;
921 }
922
923 subsys_initcall(genhd_device_init);
924
925 static ssize_t disk_range_show(struct device *dev,
926                                struct device_attribute *attr, char *buf)
927 {
928         struct gendisk *disk = dev_to_disk(dev);
929
930         return sprintf(buf, "%d\n", disk->minors);
931 }
932
933 static ssize_t disk_ext_range_show(struct device *dev,
934                                    struct device_attribute *attr, char *buf)
935 {
936         struct gendisk *disk = dev_to_disk(dev);
937
938         return sprintf(buf, "%d\n", disk_max_parts(disk));
939 }
940
941 static ssize_t disk_removable_show(struct device *dev,
942                                    struct device_attribute *attr, char *buf)
943 {
944         struct gendisk *disk = dev_to_disk(dev);
945
946         return sprintf(buf, "%d\n",
947                        (disk->flags & GENHD_FL_REMOVABLE ? 1 : 0));
948 }
949
950 static ssize_t disk_ro_show(struct device *dev,
951                                    struct device_attribute *attr, char *buf)
952 {
953         struct gendisk *disk = dev_to_disk(dev);
954
955         return sprintf(buf, "%d\n", get_disk_ro(disk) ? 1 : 0);
956 }
957
958 static ssize_t disk_capability_show(struct device *dev,
959                                     struct device_attribute *attr, char *buf)
960 {
961         struct gendisk *disk = dev_to_disk(dev);
962
963         return sprintf(buf, "%x\n", disk->flags);
964 }
965
966 static ssize_t disk_alignment_offset_show(struct device *dev,
967                                           struct device_attribute *attr,
968                                           char *buf)
969 {
970         struct gendisk *disk = dev_to_disk(dev);
971
972         return sprintf(buf, "%d\n", queue_alignment_offset(disk->queue));
973 }
974
975 static ssize_t disk_discard_alignment_show(struct device *dev,
976                                            struct device_attribute *attr,
977                                            char *buf)
978 {
979         struct gendisk *disk = dev_to_disk(dev);
980
981         return sprintf(buf, "%d\n", queue_discard_alignment(disk->queue));
982 }
983
984 static DEVICE_ATTR(range, S_IRUGO, disk_range_show, NULL);
985 static DEVICE_ATTR(ext_range, S_IRUGO, disk_ext_range_show, NULL);
986 static DEVICE_ATTR(removable, S_IRUGO, disk_removable_show, NULL);
987 static DEVICE_ATTR(ro, S_IRUGO, disk_ro_show, NULL);
988 static DEVICE_ATTR(size, S_IRUGO, part_size_show, NULL);
989 static DEVICE_ATTR(alignment_offset, S_IRUGO, disk_alignment_offset_show, NULL);
990 static DEVICE_ATTR(discard_alignment, S_IRUGO, disk_discard_alignment_show,
991                    NULL);
992 static DEVICE_ATTR(capability, S_IRUGO, disk_capability_show, NULL);
993 static DEVICE_ATTR(stat, S_IRUGO, part_stat_show, NULL);
994 static DEVICE_ATTR(inflight, S_IRUGO, part_inflight_show, NULL);
995 #ifdef CONFIG_FAIL_MAKE_REQUEST
996 static struct device_attribute dev_attr_fail =
997         __ATTR(make-it-fail, S_IRUGO|S_IWUSR, part_fail_show, part_fail_store);
998 #endif
999 #ifdef CONFIG_FAIL_IO_TIMEOUT
1000 static struct device_attribute dev_attr_fail_timeout =
1001         __ATTR(io-timeout-fail,  S_IRUGO|S_IWUSR, part_timeout_show,
1002                 part_timeout_store);
1003 #endif
1004
1005 static struct attribute *disk_attrs[] = {
1006         &dev_attr_range.attr,
1007         &dev_attr_ext_range.attr,
1008         &dev_attr_removable.attr,
1009         &dev_attr_ro.attr,
1010         &dev_attr_size.attr,
1011         &dev_attr_alignment_offset.attr,
1012         &dev_attr_discard_alignment.attr,
1013         &dev_attr_capability.attr,
1014         &dev_attr_stat.attr,
1015         &dev_attr_inflight.attr,
1016 #ifdef CONFIG_FAIL_MAKE_REQUEST
1017         &dev_attr_fail.attr,
1018 #endif
1019 #ifdef CONFIG_FAIL_IO_TIMEOUT
1020         &dev_attr_fail_timeout.attr,
1021 #endif
1022         NULL
1023 };
1024
1025 static struct attribute_group disk_attr_group = {
1026         .attrs = disk_attrs,
1027 };
1028
1029 static const struct attribute_group *disk_attr_groups[] = {
1030         &disk_attr_group,
1031         NULL
1032 };
1033
1034 /**
1035  * disk_replace_part_tbl - replace disk->part_tbl in RCU-safe way
1036  * @disk: disk to replace part_tbl for
1037  * @new_ptbl: new part_tbl to install
1038  *
1039  * Replace disk->part_tbl with @new_ptbl in RCU-safe way.  The
1040  * original ptbl is freed using RCU callback.
1041  *
1042  * LOCKING:
1043  * Matching bd_mutx locked.
1044  */
1045 static void disk_replace_part_tbl(struct gendisk *disk,
1046                                   struct disk_part_tbl *new_ptbl)
1047 {
1048         struct disk_part_tbl *old_ptbl = disk->part_tbl;
1049
1050         rcu_assign_pointer(disk->part_tbl, new_ptbl);
1051
1052         if (old_ptbl) {
1053                 rcu_assign_pointer(old_ptbl->last_lookup, NULL);
1054                 kfree_rcu(old_ptbl, rcu_head);
1055         }
1056 }
1057
1058 /**
1059  * disk_expand_part_tbl - expand disk->part_tbl
1060  * @disk: disk to expand part_tbl for
1061  * @partno: expand such that this partno can fit in
1062  *
1063  * Expand disk->part_tbl such that @partno can fit in.  disk->part_tbl
1064  * uses RCU to allow unlocked dereferencing for stats and other stuff.
1065  *
1066  * LOCKING:
1067  * Matching bd_mutex locked, might sleep.
1068  *
1069  * RETURNS:
1070  * 0 on success, -errno on failure.
1071  */
1072 int disk_expand_part_tbl(struct gendisk *disk, int partno)
1073 {
1074         struct disk_part_tbl *old_ptbl = disk->part_tbl;
1075         struct disk_part_tbl *new_ptbl;
1076         int len = old_ptbl ? old_ptbl->len : 0;
1077         int target = partno + 1;
1078         size_t size;
1079         int i;
1080
1081         /* disk_max_parts() is zero during initialization, ignore if so */
1082         if (disk_max_parts(disk) && target > disk_max_parts(disk))
1083                 return -EINVAL;
1084
1085         if (target <= len)
1086                 return 0;
1087
1088         size = sizeof(*new_ptbl) + target * sizeof(new_ptbl->part[0]);
1089         new_ptbl = kzalloc_node(size, GFP_KERNEL, disk->node_id);
1090         if (!new_ptbl)
1091                 return -ENOMEM;
1092
1093         new_ptbl->len = target;
1094
1095         for (i = 0; i < len; i++)
1096                 rcu_assign_pointer(new_ptbl->part[i], old_ptbl->part[i]);
1097
1098         disk_replace_part_tbl(disk, new_ptbl);
1099         return 0;
1100 }
1101
1102 static void disk_release(struct device *dev)
1103 {
1104         struct gendisk *disk = dev_to_disk(dev);
1105
1106         disk_release_events(disk);
1107         kfree(disk->random);
1108         disk_replace_part_tbl(disk, NULL);
1109         free_part_stats(&disk->part0);
1110         free_part_info(&disk->part0);
1111         if (disk->queue)
1112                 blk_put_queue(disk->queue);
1113         kfree(disk);
1114 }
1115
1116 static int disk_uevent(struct device *dev, struct kobj_uevent_env *env)
1117 {
1118         struct gendisk *disk = dev_to_disk(dev);
1119         struct disk_part_iter piter;
1120         struct hd_struct *part;
1121         int cnt = 0;
1122
1123         disk_part_iter_init(&piter, disk, 0);
1124         while((part = disk_part_iter_next(&piter)))
1125                 cnt++;
1126         disk_part_iter_exit(&piter);
1127         add_uevent_var(env, "NPARTS=%u", cnt);
1128         return 0;
1129 }
1130
1131 struct class block_class = {
1132         .name           = "block",
1133 };
1134
1135 static char *block_devnode(struct device *dev, umode_t *mode)
1136 {
1137         struct gendisk *disk = dev_to_disk(dev);
1138
1139         if (disk->devnode)
1140                 return disk->devnode(disk, mode);
1141         return NULL;
1142 }
1143
1144 static struct device_type disk_type = {
1145         .name           = "disk",
1146         .groups         = disk_attr_groups,
1147         .release        = disk_release,
1148         .devnode        = block_devnode,
1149         .uevent         = disk_uevent,
1150 };
1151
1152 #ifdef CONFIG_PROC_FS
1153 /*
1154  * aggregate disk stat collector.  Uses the same stats that the sysfs
1155  * entries do, above, but makes them available through one seq_file.
1156  *
1157  * The output looks suspiciously like /proc/partitions with a bunch of
1158  * extra fields.
1159  */
1160 static int diskstats_show(struct seq_file *seqf, void *v)
1161 {
1162         struct gendisk *gp = v;
1163         struct disk_part_iter piter;
1164         struct hd_struct *hd;
1165         char buf[BDEVNAME_SIZE];
1166         int cpu;
1167
1168         /*
1169         if (&disk_to_dev(gp)->kobj.entry == block_class.devices.next)
1170                 seq_puts(seqf,  "major minor name"
1171                                 "     rio rmerge rsect ruse wio wmerge "
1172                                 "wsect wuse running use aveq"
1173                                 "\n\n");
1174         */
1175
1176         disk_part_iter_init(&piter, gp, DISK_PITER_INCL_EMPTY_PART0);
1177         while ((hd = disk_part_iter_next(&piter))) {
1178                 cpu = part_stat_lock();
1179                 part_round_stats(cpu, hd);
1180                 part_stat_unlock();
1181                 seq_printf(seqf, "%4d %7d %s %lu %lu %lu "
1182                            "%u %lu %lu %lu %u %u %u %u\n",
1183                            MAJOR(part_devt(hd)), MINOR(part_devt(hd)),
1184                            disk_name(gp, hd->partno, buf),
1185                            part_stat_read(hd, ios[READ]),
1186                            part_stat_read(hd, merges[READ]),
1187                            part_stat_read(hd, sectors[READ]),
1188                            jiffies_to_msecs(part_stat_read(hd, ticks[READ])),
1189                            part_stat_read(hd, ios[WRITE]),
1190                            part_stat_read(hd, merges[WRITE]),
1191                            part_stat_read(hd, sectors[WRITE]),
1192                            jiffies_to_msecs(part_stat_read(hd, ticks[WRITE])),
1193                            part_in_flight(hd),
1194                            jiffies_to_msecs(part_stat_read(hd, io_ticks)),
1195                            jiffies_to_msecs(part_stat_read(hd, time_in_queue))
1196                         );
1197         }
1198         disk_part_iter_exit(&piter);
1199
1200         return 0;
1201 }
1202
1203 static const struct seq_operations diskstats_op = {
1204         .start  = disk_seqf_start,
1205         .next   = disk_seqf_next,
1206         .stop   = disk_seqf_stop,
1207         .show   = diskstats_show
1208 };
1209
1210 static int diskstats_open(struct inode *inode, struct file *file)
1211 {
1212         return seq_open(file, &diskstats_op);
1213 }
1214
1215 static const struct file_operations proc_diskstats_operations = {
1216         .open           = diskstats_open,
1217         .read           = seq_read,
1218         .llseek         = seq_lseek,
1219         .release        = seq_release,
1220 };
1221
1222 static int __init proc_genhd_init(void)
1223 {
1224         proc_create("diskstats", 0, NULL, &proc_diskstats_operations);
1225         proc_create("partitions", 0, NULL, &proc_partitions_operations);
1226         return 0;
1227 }
1228 module_init(proc_genhd_init);
1229 #endif /* CONFIG_PROC_FS */
1230
1231 dev_t blk_lookup_devt(const char *name, int partno)
1232 {
1233         dev_t devt = MKDEV(0, 0);
1234         struct class_dev_iter iter;
1235         struct device *dev;
1236
1237         class_dev_iter_init(&iter, &block_class, NULL, &disk_type);
1238         while ((dev = class_dev_iter_next(&iter))) {
1239                 struct gendisk *disk = dev_to_disk(dev);
1240                 struct hd_struct *part;
1241
1242                 if (strcmp(dev_name(dev), name))
1243                         continue;
1244
1245                 if (partno < disk->minors) {
1246                         /* We need to return the right devno, even
1247                          * if the partition doesn't exist yet.
1248                          */
1249                         devt = MKDEV(MAJOR(dev->devt),
1250                                      MINOR(dev->devt) + partno);
1251                         break;
1252                 }
1253                 part = disk_get_part(disk, partno);
1254                 if (part) {
1255                         devt = part_devt(part);
1256                         disk_put_part(part);
1257                         break;
1258                 }
1259                 disk_put_part(part);
1260         }
1261         class_dev_iter_exit(&iter);
1262         return devt;
1263 }
1264 EXPORT_SYMBOL(blk_lookup_devt);
1265
1266 struct gendisk *alloc_disk(int minors)
1267 {
1268         return alloc_disk_node(minors, -1);
1269 }
1270 EXPORT_SYMBOL(alloc_disk);
1271
1272 struct gendisk *alloc_disk_node(int minors, int node_id)
1273 {
1274         struct gendisk *disk;
1275
1276         disk = kmalloc_node(sizeof(struct gendisk),
1277                                 GFP_KERNEL | __GFP_ZERO, node_id);
1278         if (disk) {
1279                 if (!init_part_stats(&disk->part0)) {
1280                         kfree(disk);
1281                         return NULL;
1282                 }
1283                 disk->node_id = node_id;
1284                 if (disk_expand_part_tbl(disk, 0)) {
1285                         free_part_stats(&disk->part0);
1286                         kfree(disk);
1287                         return NULL;
1288                 }
1289                 disk->part_tbl->part[0] = &disk->part0;
1290
1291                 hd_ref_init(&disk->part0);
1292
1293                 disk->minors = minors;
1294                 rand_initialize_disk(disk);
1295                 disk_to_dev(disk)->class = &block_class;
1296                 disk_to_dev(disk)->type = &disk_type;
1297                 device_initialize(disk_to_dev(disk));
1298         }
1299         return disk;
1300 }
1301 EXPORT_SYMBOL(alloc_disk_node);
1302
1303 struct kobject *get_disk(struct gendisk *disk)
1304 {
1305         struct module *owner;
1306         struct kobject *kobj;
1307
1308         if (!disk->fops)
1309                 return NULL;
1310         owner = disk->fops->owner;
1311         if (owner && !try_module_get(owner))
1312                 return NULL;
1313         kobj = kobject_get(&disk_to_dev(disk)->kobj);
1314         if (kobj == NULL) {
1315                 module_put(owner);
1316                 return NULL;
1317         }
1318         return kobj;
1319
1320 }
1321
1322 EXPORT_SYMBOL(get_disk);
1323
1324 void put_disk(struct gendisk *disk)
1325 {
1326         if (disk)
1327                 kobject_put(&disk_to_dev(disk)->kobj);
1328 }
1329
1330 EXPORT_SYMBOL(put_disk);
1331
1332 static void set_disk_ro_uevent(struct gendisk *gd, int ro)
1333 {
1334         char event[] = "DISK_RO=1";
1335         char *envp[] = { event, NULL };
1336
1337         if (!ro)
1338                 event[8] = '0';
1339         kobject_uevent_env(&disk_to_dev(gd)->kobj, KOBJ_CHANGE, envp);
1340 }
1341
1342 void set_device_ro(struct block_device *bdev, int flag)
1343 {
1344         bdev->bd_part->policy = flag;
1345 }
1346
1347 EXPORT_SYMBOL(set_device_ro);
1348
1349 void set_disk_ro(struct gendisk *disk, int flag)
1350 {
1351         struct disk_part_iter piter;
1352         struct hd_struct *part;
1353
1354         if (disk->part0.policy != flag) {
1355                 set_disk_ro_uevent(disk, flag);
1356                 disk->part0.policy = flag;
1357         }
1358
1359         disk_part_iter_init(&piter, disk, DISK_PITER_INCL_EMPTY);
1360         while ((part = disk_part_iter_next(&piter)))
1361                 part->policy = flag;
1362         disk_part_iter_exit(&piter);
1363 }
1364
1365 EXPORT_SYMBOL(set_disk_ro);
1366
1367 int bdev_read_only(struct block_device *bdev)
1368 {
1369         if (!bdev)
1370                 return 0;
1371         return bdev->bd_part->policy;
1372 }
1373
1374 EXPORT_SYMBOL(bdev_read_only);
1375
1376 int invalidate_partition(struct gendisk *disk, int partno)
1377 {
1378         int res = 0;
1379         struct block_device *bdev = bdget_disk(disk, partno);
1380         if (bdev) {
1381                 fsync_bdev(bdev);
1382                 res = __invalidate_device(bdev, true);
1383                 bdput(bdev);
1384         }
1385         return res;
1386 }
1387
1388 EXPORT_SYMBOL(invalidate_partition);
1389
1390 /*
1391  * Disk events - monitor disk events like media change and eject request.
1392  */
1393 struct disk_events {
1394         struct list_head        node;           /* all disk_event's */
1395         struct gendisk          *disk;          /* the associated disk */
1396         spinlock_t              lock;
1397
1398         struct mutex            block_mutex;    /* protects blocking */
1399         int                     block;          /* event blocking depth */
1400         unsigned int            pending;        /* events already sent out */
1401         unsigned int            clearing;       /* events being cleared */
1402
1403         long                    poll_msecs;     /* interval, -1 for default */
1404         struct delayed_work     dwork;
1405 };
1406
1407 static const char *disk_events_strs[] = {
1408         [ilog2(DISK_EVENT_MEDIA_CHANGE)]        = "media_change",
1409         [ilog2(DISK_EVENT_EJECT_REQUEST)]       = "eject_request",
1410 };
1411
1412 static char *disk_uevents[] = {
1413         [ilog2(DISK_EVENT_MEDIA_CHANGE)]        = "DISK_MEDIA_CHANGE=1",
1414         [ilog2(DISK_EVENT_EJECT_REQUEST)]       = "DISK_EJECT_REQUEST=1",
1415 };
1416
1417 /* list of all disk_events */
1418 static DEFINE_MUTEX(disk_events_mutex);
1419 static LIST_HEAD(disk_events);
1420
1421 /* disable in-kernel polling by default */
1422 static unsigned long disk_events_dfl_poll_msecs = 0;
1423
1424 static unsigned long disk_events_poll_jiffies(struct gendisk *disk)
1425 {
1426         struct disk_events *ev = disk->ev;
1427         long intv_msecs = 0;
1428
1429         /*
1430          * If device-specific poll interval is set, always use it.  If
1431          * the default is being used, poll iff there are events which
1432          * can't be monitored asynchronously.
1433          */
1434         if (ev->poll_msecs >= 0)
1435                 intv_msecs = ev->poll_msecs;
1436         else if (disk->events & ~disk->async_events)
1437                 intv_msecs = disk_events_dfl_poll_msecs;
1438
1439         return msecs_to_jiffies(intv_msecs);
1440 }
1441
1442 /**
1443  * disk_block_events - block and flush disk event checking
1444  * @disk: disk to block events for
1445  *
1446  * On return from this function, it is guaranteed that event checking
1447  * isn't in progress and won't happen until unblocked by
1448  * disk_unblock_events().  Events blocking is counted and the actual
1449  * unblocking happens after the matching number of unblocks are done.
1450  *
1451  * Note that this intentionally does not block event checking from
1452  * disk_clear_events().
1453  *
1454  * CONTEXT:
1455  * Might sleep.
1456  */
1457 void disk_block_events(struct gendisk *disk)
1458 {
1459         struct disk_events *ev = disk->ev;
1460         unsigned long flags;
1461         bool cancel;
1462
1463         if (!ev)
1464                 return;
1465
1466         /*
1467          * Outer mutex ensures that the first blocker completes canceling
1468          * the event work before further blockers are allowed to finish.
1469          */
1470         mutex_lock(&ev->block_mutex);
1471
1472         spin_lock_irqsave(&ev->lock, flags);
1473         cancel = !ev->block++;
1474         spin_unlock_irqrestore(&ev->lock, flags);
1475
1476         if (cancel)
1477                 cancel_delayed_work_sync(&disk->ev->dwork);
1478
1479         mutex_unlock(&ev->block_mutex);
1480 }
1481
1482 static void __disk_unblock_events(struct gendisk *disk, bool check_now)
1483 {
1484         struct disk_events *ev = disk->ev;
1485         unsigned long intv;
1486         unsigned long flags;
1487
1488         spin_lock_irqsave(&ev->lock, flags);
1489
1490         if (WARN_ON_ONCE(ev->block <= 0))
1491                 goto out_unlock;
1492
1493         if (--ev->block)
1494                 goto out_unlock;
1495
1496         /*
1497          * Not exactly a latency critical operation, set poll timer
1498          * slack to 25% and kick event check.
1499          */
1500         intv = disk_events_poll_jiffies(disk);
1501         set_timer_slack(&ev->dwork.timer, intv / 4);
1502         if (check_now)
1503                 queue_delayed_work(system_nrt_freezable_wq, &ev->dwork, 0);
1504         else if (intv)
1505                 queue_delayed_work(system_nrt_freezable_wq, &ev->dwork, intv);
1506 out_unlock:
1507         spin_unlock_irqrestore(&ev->lock, flags);
1508 }
1509
1510 /**
1511  * disk_unblock_events - unblock disk event checking
1512  * @disk: disk to unblock events for
1513  *
1514  * Undo disk_block_events().  When the block count reaches zero, it
1515  * starts events polling if configured.
1516  *
1517  * CONTEXT:
1518  * Don't care.  Safe to call from irq context.
1519  */
1520 void disk_unblock_events(struct gendisk *disk)
1521 {
1522         if (disk->ev)
1523                 __disk_unblock_events(disk, false);
1524 }
1525
1526 /**
1527  * disk_flush_events - schedule immediate event checking and flushing
1528  * @disk: disk to check and flush events for
1529  * @mask: events to flush
1530  *
1531  * Schedule immediate event checking on @disk if not blocked.  Events in
1532  * @mask are scheduled to be cleared from the driver.  Note that this
1533  * doesn't clear the events from @disk->ev.
1534  *
1535  * CONTEXT:
1536  * If @mask is non-zero must be called with bdev->bd_mutex held.
1537  */
1538 void disk_flush_events(struct gendisk *disk, unsigned int mask)
1539 {
1540         struct disk_events *ev = disk->ev;
1541
1542         if (!ev)
1543                 return;
1544
1545         spin_lock_irq(&ev->lock);
1546         ev->clearing |= mask;
1547         if (!ev->block) {
1548                 cancel_delayed_work(&ev->dwork);
1549                 queue_delayed_work(system_nrt_freezable_wq, &ev->dwork, 0);
1550         }
1551         spin_unlock_irq(&ev->lock);
1552 }
1553
1554 /**
1555  * disk_clear_events - synchronously check, clear and return pending events
1556  * @disk: disk to fetch and clear events from
1557  * @mask: mask of events to be fetched and clearted
1558  *
1559  * Disk events are synchronously checked and pending events in @mask
1560  * are cleared and returned.  This ignores the block count.
1561  *
1562  * CONTEXT:
1563  * Might sleep.
1564  */
1565 unsigned int disk_clear_events(struct gendisk *disk, unsigned int mask)
1566 {
1567         const struct block_device_operations *bdops = disk->fops;
1568         struct disk_events *ev = disk->ev;
1569         unsigned int pending;
1570         unsigned int clearing = mask;
1571
1572         if (!ev) {
1573                 /* for drivers still using the old ->media_changed method */
1574                 if ((mask & DISK_EVENT_MEDIA_CHANGE) &&
1575                     bdops->media_changed && bdops->media_changed(disk))
1576                         return DISK_EVENT_MEDIA_CHANGE;
1577                 return 0;
1578         }
1579
1580         disk_block_events(disk);
1581
1582         /*
1583          * store the union of mask and ev->clearing on the stack so that the
1584          * race with disk_flush_events does not cause ambiguity (ev->clearing
1585          * can still be modified even if events are blocked).
1586          */
1587         spin_lock_irq(&ev->lock);
1588         clearing |= ev->clearing;
1589         ev->clearing = 0;
1590         spin_unlock_irq(&ev->lock);
1591
1592         disk_check_events(ev, &clearing);
1593         /*
1594          * if ev->clearing is not 0, the disk_flush_events got called in the
1595          * middle of this function, so we want to run the workfn without delay.
1596          */
1597         __disk_unblock_events(disk, ev->clearing ? true : false);
1598
1599         /* then, fetch and clear pending events */
1600         spin_lock_irq(&ev->lock);
1601         pending = ev->pending & mask;
1602         ev->pending &= ~mask;
1603         spin_unlock_irq(&ev->lock);
1604         WARN_ON_ONCE(clearing & mask);
1605
1606         return pending;
1607 }
1608
1609 /*
1610  * Separate this part out so that a different pointer for clearing_ptr can be
1611  * passed in for disk_clear_events.
1612  */
1613 static void disk_events_workfn(struct work_struct *work)
1614 {
1615         struct delayed_work *dwork = to_delayed_work(work);
1616         struct disk_events *ev = container_of(dwork, struct disk_events, dwork);
1617
1618         disk_check_events(ev, &ev->clearing);
1619 }
1620
1621 static void disk_check_events(struct disk_events *ev,
1622                               unsigned int *clearing_ptr)
1623 {
1624         struct gendisk *disk = ev->disk;
1625         char *envp[ARRAY_SIZE(disk_uevents) + 1] = { };
1626         unsigned int clearing = *clearing_ptr;
1627         unsigned int events;
1628         unsigned long intv;
1629         int nr_events = 0, i;
1630
1631         /* check events */
1632         events = disk->fops->check_events(disk, clearing);
1633
1634         /* accumulate pending events and schedule next poll if necessary */
1635         spin_lock_irq(&ev->lock);
1636
1637         events &= ~ev->pending;
1638         ev->pending |= events;
1639         *clearing_ptr &= ~clearing;
1640
1641         intv = disk_events_poll_jiffies(disk);
1642         if (!ev->block && intv)
1643                 queue_delayed_work(system_nrt_freezable_wq, &ev->dwork, intv);
1644
1645         spin_unlock_irq(&ev->lock);
1646
1647         /*
1648          * Tell userland about new events.  Only the events listed in
1649          * @disk->events are reported.  Unlisted events are processed the
1650          * same internally but never get reported to userland.
1651          */
1652         for (i = 0; i < ARRAY_SIZE(disk_uevents); i++)
1653                 if (events & disk->events & (1 << i))
1654                         envp[nr_events++] = disk_uevents[i];
1655
1656         if (nr_events)
1657                 kobject_uevent_env(&disk_to_dev(disk)->kobj, KOBJ_CHANGE, envp);
1658 }
1659
1660 /*
1661  * A disk events enabled device has the following sysfs nodes under
1662  * its /sys/block/X/ directory.
1663  *
1664  * events               : list of all supported events
1665  * events_async         : list of events which can be detected w/o polling
1666  * events_poll_msecs    : polling interval, 0: disable, -1: system default
1667  */
1668 static ssize_t __disk_events_show(unsigned int events, char *buf)
1669 {
1670         const char *delim = "";
1671         ssize_t pos = 0;
1672         int i;
1673
1674         for (i = 0; i < ARRAY_SIZE(disk_events_strs); i++)
1675                 if (events & (1 << i)) {
1676                         pos += sprintf(buf + pos, "%s%s",
1677                                        delim, disk_events_strs[i]);
1678                         delim = " ";
1679                 }
1680         if (pos)
1681                 pos += sprintf(buf + pos, "\n");
1682         return pos;
1683 }
1684
1685 static ssize_t disk_events_show(struct device *dev,
1686                                 struct device_attribute *attr, char *buf)
1687 {
1688         struct gendisk *disk = dev_to_disk(dev);
1689
1690         return __disk_events_show(disk->events, buf);
1691 }
1692
1693 static ssize_t disk_events_async_show(struct device *dev,
1694                                       struct device_attribute *attr, char *buf)
1695 {
1696         struct gendisk *disk = dev_to_disk(dev);
1697
1698         return __disk_events_show(disk->async_events, buf);
1699 }
1700
1701 static ssize_t disk_events_poll_msecs_show(struct device *dev,
1702                                            struct device_attribute *attr,
1703                                            char *buf)
1704 {
1705         struct gendisk *disk = dev_to_disk(dev);
1706
1707         return sprintf(buf, "%ld\n", disk->ev->poll_msecs);
1708 }
1709
1710 static ssize_t disk_events_poll_msecs_store(struct device *dev,
1711                                             struct device_attribute *attr,
1712                                             const char *buf, size_t count)
1713 {
1714         struct gendisk *disk = dev_to_disk(dev);
1715         long intv;
1716
1717         if (!count || !sscanf(buf, "%ld", &intv))
1718                 return -EINVAL;
1719
1720         if (intv < 0 && intv != -1)
1721                 return -EINVAL;
1722
1723         disk_block_events(disk);
1724         disk->ev->poll_msecs = intv;
1725         __disk_unblock_events(disk, true);
1726
1727         return count;
1728 }
1729
1730 static const DEVICE_ATTR(events, S_IRUGO, disk_events_show, NULL);
1731 static const DEVICE_ATTR(events_async, S_IRUGO, disk_events_async_show, NULL);
1732 static const DEVICE_ATTR(events_poll_msecs, S_IRUGO|S_IWUSR,
1733                          disk_events_poll_msecs_show,
1734                          disk_events_poll_msecs_store);
1735
1736 static const struct attribute *disk_events_attrs[] = {
1737         &dev_attr_events.attr,
1738         &dev_attr_events_async.attr,
1739         &dev_attr_events_poll_msecs.attr,
1740         NULL,
1741 };
1742
1743 /*
1744  * The default polling interval can be specified by the kernel
1745  * parameter block.events_dfl_poll_msecs which defaults to 0
1746  * (disable).  This can also be modified runtime by writing to
1747  * /sys/module/block/events_dfl_poll_msecs.
1748  */
1749 static int disk_events_set_dfl_poll_msecs(const char *val,
1750                                           const struct kernel_param *kp)
1751 {
1752         struct disk_events *ev;
1753         int ret;
1754
1755         ret = param_set_ulong(val, kp);
1756         if (ret < 0)
1757                 return ret;
1758
1759         mutex_lock(&disk_events_mutex);
1760
1761         list_for_each_entry(ev, &disk_events, node)
1762                 disk_flush_events(ev->disk, 0);
1763
1764         mutex_unlock(&disk_events_mutex);
1765
1766         return 0;
1767 }
1768
1769 static const struct kernel_param_ops disk_events_dfl_poll_msecs_param_ops = {
1770         .set    = disk_events_set_dfl_poll_msecs,
1771         .get    = param_get_ulong,
1772 };
1773
1774 #undef MODULE_PARAM_PREFIX
1775 #define MODULE_PARAM_PREFIX     "block."
1776
1777 module_param_cb(events_dfl_poll_msecs, &disk_events_dfl_poll_msecs_param_ops,
1778                 &disk_events_dfl_poll_msecs, 0644);
1779
1780 /*
1781  * disk_{alloc|add|del|release}_events - initialize and destroy disk_events.
1782  */
1783 static void disk_alloc_events(struct gendisk *disk)
1784 {
1785         struct disk_events *ev;
1786
1787         if (!disk->fops->check_events)
1788                 return;
1789
1790         ev = kzalloc(sizeof(*ev), GFP_KERNEL);
1791         if (!ev) {
1792                 pr_warn("%s: failed to initialize events\n", disk->disk_name);
1793                 return;
1794         }
1795
1796         INIT_LIST_HEAD(&ev->node);
1797         ev->disk = disk;
1798         spin_lock_init(&ev->lock);
1799         mutex_init(&ev->block_mutex);
1800         ev->block = 1;
1801         ev->poll_msecs = -1;
1802         INIT_DELAYED_WORK(&ev->dwork, disk_events_workfn);
1803
1804         disk->ev = ev;
1805 }
1806
1807 static void disk_add_events(struct gendisk *disk)
1808 {
1809         if (!disk->ev)
1810                 return;
1811
1812         /* FIXME: error handling */
1813         if (sysfs_create_files(&disk_to_dev(disk)->kobj, disk_events_attrs) < 0)
1814                 pr_warn("%s: failed to create sysfs files for events\n",
1815                         disk->disk_name);
1816
1817         mutex_lock(&disk_events_mutex);
1818         list_add_tail(&disk->ev->node, &disk_events);
1819         mutex_unlock(&disk_events_mutex);
1820
1821         /*
1822          * Block count is initialized to 1 and the following initial
1823          * unblock kicks it into action.
1824          */
1825         __disk_unblock_events(disk, true);
1826 }
1827
1828 static void disk_del_events(struct gendisk *disk)
1829 {
1830         if (!disk->ev)
1831                 return;
1832
1833         disk_block_events(disk);
1834
1835         mutex_lock(&disk_events_mutex);
1836         list_del_init(&disk->ev->node);
1837         mutex_unlock(&disk_events_mutex);
1838
1839         sysfs_remove_files(&disk_to_dev(disk)->kobj, disk_events_attrs);
1840 }
1841
1842 static void disk_release_events(struct gendisk *disk)
1843 {
1844         /* the block count should be 1 from disk_del_events() */
1845         WARN_ON_ONCE(disk->ev && disk->ev->block != 1);
1846         kfree(disk->ev);
1847 }