fc59dcc4795b772c9aae54f266d50d9a79703db2
[linux-2.6.git] / kernel / resource.c
1 /*
2  *      linux/kernel/resource.c
3  *
4  * Copyright (C) 1999   Linus Torvalds
5  * Copyright (C) 1999   Martin Mares <mj@ucw.cz>
6  *
7  * Arbitrary resource management.
8  */
9
10 #include <linux/module.h>
11 #include <linux/errno.h>
12 #include <linux/ioport.h>
13 #include <linux/init.h>
14 #include <linux/slab.h>
15 #include <linux/spinlock.h>
16 #include <linux/fs.h>
17 #include <linux/proc_fs.h>
18 #include <linux/seq_file.h>
19 #include <linux/device.h>
20 #include <asm/io.h>
21
22
23 struct resource ioport_resource = {
24         .name   = "PCI IO",
25         .start  = 0,
26         .end    = IO_SPACE_LIMIT,
27         .flags  = IORESOURCE_IO,
28 };
29 EXPORT_SYMBOL(ioport_resource);
30
31 struct resource iomem_resource = {
32         .name   = "PCI mem",
33         .start  = 0,
34         .end    = -1,
35         .flags  = IORESOURCE_MEM,
36 };
37 EXPORT_SYMBOL(iomem_resource);
38
39 static DEFINE_RWLOCK(resource_lock);
40
41 #ifdef CONFIG_PROC_FS
42
43 enum { MAX_IORES_LEVEL = 5 };
44
45 static void *r_next(struct seq_file *m, void *v, loff_t *pos)
46 {
47         struct resource *p = v;
48         (*pos)++;
49         if (p->child)
50                 return p->child;
51         while (!p->sibling && p->parent)
52                 p = p->parent;
53         return p->sibling;
54 }
55
56 static void *r_start(struct seq_file *m, loff_t *pos)
57         __acquires(resource_lock)
58 {
59         struct resource *p = m->private;
60         loff_t l = 0;
61         read_lock(&resource_lock);
62         for (p = p->child; p && l < *pos; p = r_next(m, p, &l))
63                 ;
64         return p;
65 }
66
67 static void r_stop(struct seq_file *m, void *v)
68         __releases(resource_lock)
69 {
70         read_unlock(&resource_lock);
71 }
72
73 static int r_show(struct seq_file *m, void *v)
74 {
75         struct resource *root = m->private;
76         struct resource *r = v, *p;
77         int width = root->end < 0x10000 ? 4 : 8;
78         int depth;
79
80         for (depth = 0, p = r; depth < MAX_IORES_LEVEL; depth++, p = p->parent)
81                 if (p->parent == root)
82                         break;
83         seq_printf(m, "%*s%0*llx-%0*llx : %s\n",
84                         depth * 2, "",
85                         width, (unsigned long long) r->start,
86                         width, (unsigned long long) r->end,
87                         r->name ? r->name : "<BAD>");
88         return 0;
89 }
90
91 static const struct seq_operations resource_op = {
92         .start  = r_start,
93         .next   = r_next,
94         .stop   = r_stop,
95         .show   = r_show,
96 };
97
98 static int ioports_open(struct inode *inode, struct file *file)
99 {
100         int res = seq_open(file, &resource_op);
101         if (!res) {
102                 struct seq_file *m = file->private_data;
103                 m->private = &ioport_resource;
104         }
105         return res;
106 }
107
108 static int iomem_open(struct inode *inode, struct file *file)
109 {
110         int res = seq_open(file, &resource_op);
111         if (!res) {
112                 struct seq_file *m = file->private_data;
113                 m->private = &iomem_resource;
114         }
115         return res;
116 }
117
118 static const struct file_operations proc_ioports_operations = {
119         .open           = ioports_open,
120         .read           = seq_read,
121         .llseek         = seq_lseek,
122         .release        = seq_release,
123 };
124
125 static const struct file_operations proc_iomem_operations = {
126         .open           = iomem_open,
127         .read           = seq_read,
128         .llseek         = seq_lseek,
129         .release        = seq_release,
130 };
131
132 static int __init ioresources_init(void)
133 {
134         proc_create("ioports", 0, NULL, &proc_ioports_operations);
135         proc_create("iomem", 0, NULL, &proc_iomem_operations);
136         return 0;
137 }
138 __initcall(ioresources_init);
139
140 #endif /* CONFIG_PROC_FS */
141
142 /* Return the conflict entry if you can't request it */
143 static struct resource * __request_resource(struct resource *root, struct resource *new)
144 {
145         resource_size_t start = new->start;
146         resource_size_t end = new->end;
147         struct resource *tmp, **p;
148
149         if (end < start)
150                 return root;
151         if (start < root->start)
152                 return root;
153         if (end > root->end)
154                 return root;
155         p = &root->child;
156         for (;;) {
157                 tmp = *p;
158                 if (!tmp || tmp->start > end) {
159                         new->sibling = tmp;
160                         *p = new;
161                         new->parent = root;
162                         return NULL;
163                 }
164                 p = &tmp->sibling;
165                 if (tmp->end < start)
166                         continue;
167                 return tmp;
168         }
169 }
170
171 static int __release_resource(struct resource *old)
172 {
173         struct resource *tmp, **p;
174
175         p = &old->parent->child;
176         for (;;) {
177                 tmp = *p;
178                 if (!tmp)
179                         break;
180                 if (tmp == old) {
181                         *p = tmp->sibling;
182                         old->parent = NULL;
183                         return 0;
184                 }
185                 p = &tmp->sibling;
186         }
187         return -EINVAL;
188 }
189
190 /**
191  * request_resource - request and reserve an I/O or memory resource
192  * @root: root resource descriptor
193  * @new: resource descriptor desired by caller
194  *
195  * Returns 0 for success, negative error code on error.
196  */
197 int request_resource(struct resource *root, struct resource *new)
198 {
199         struct resource *conflict;
200
201         write_lock(&resource_lock);
202         conflict = __request_resource(root, new);
203         write_unlock(&resource_lock);
204         return conflict ? -EBUSY : 0;
205 }
206
207 EXPORT_SYMBOL(request_resource);
208
209 /**
210  * release_resource - release a previously reserved resource
211  * @old: resource pointer
212  */
213 int release_resource(struct resource *old)
214 {
215         int retval;
216
217         write_lock(&resource_lock);
218         retval = __release_resource(old);
219         write_unlock(&resource_lock);
220         return retval;
221 }
222
223 EXPORT_SYMBOL(release_resource);
224
225 #if defined(CONFIG_MEMORY_HOTPLUG) && !defined(CONFIG_ARCH_HAS_WALK_MEMORY)
226 /*
227  * Finds the lowest memory reosurce exists within [res->start.res->end)
228  * the caller must specify res->start, res->end, res->flags.
229  * If found, returns 0, res is overwritten, if not found, returns -1.
230  */
231 static int find_next_system_ram(struct resource *res)
232 {
233         resource_size_t start, end;
234         struct resource *p;
235
236         BUG_ON(!res);
237
238         start = res->start;
239         end = res->end;
240         BUG_ON(start >= end);
241
242         read_lock(&resource_lock);
243         for (p = iomem_resource.child; p ; p = p->sibling) {
244                 /* system ram is just marked as IORESOURCE_MEM */
245                 if (p->flags != res->flags)
246                         continue;
247                 if (p->start > end) {
248                         p = NULL;
249                         break;
250                 }
251                 if ((p->end >= start) && (p->start < end))
252                         break;
253         }
254         read_unlock(&resource_lock);
255         if (!p)
256                 return -1;
257         /* copy data */
258         if (res->start < p->start)
259                 res->start = p->start;
260         if (res->end > p->end)
261                 res->end = p->end;
262         return 0;
263 }
264 int
265 walk_memory_resource(unsigned long start_pfn, unsigned long nr_pages, void *arg,
266                         int (*func)(unsigned long, unsigned long, void *))
267 {
268         struct resource res;
269         unsigned long pfn, len;
270         u64 orig_end;
271         int ret = -1;
272         res.start = (u64) start_pfn << PAGE_SHIFT;
273         res.end = ((u64)(start_pfn + nr_pages) << PAGE_SHIFT) - 1;
274         res.flags = IORESOURCE_MEM | IORESOURCE_BUSY;
275         orig_end = res.end;
276         while ((res.start < res.end) && (find_next_system_ram(&res) >= 0)) {
277                 pfn = (unsigned long)(res.start >> PAGE_SHIFT);
278                 len = (unsigned long)((res.end + 1 - res.start) >> PAGE_SHIFT);
279                 ret = (*func)(pfn, len, arg);
280                 if (ret)
281                         break;
282                 res.start = res.end + 1;
283                 res.end = orig_end;
284         }
285         return ret;
286 }
287
288 #endif
289
290 /*
291  * Find empty slot in the resource tree given range and alignment.
292  */
293 static int find_resource(struct resource *root, struct resource *new,
294                          resource_size_t size, resource_size_t min,
295                          resource_size_t max, resource_size_t align,
296                          void (*alignf)(void *, struct resource *,
297                                         resource_size_t, resource_size_t),
298                          void *alignf_data)
299 {
300         struct resource *this = root->child;
301
302         new->start = root->start;
303         /*
304          * Skip past an allocated resource that starts at 0, since the assignment
305          * of this->start - 1 to new->end below would cause an underflow.
306          */
307         if (this && this->start == 0) {
308                 new->start = this->end + 1;
309                 this = this->sibling;
310         }
311         for(;;) {
312                 if (this)
313                         new->end = this->start - 1;
314                 else
315                         new->end = root->end;
316                 if (new->start < min)
317                         new->start = min;
318                 if (new->end > max)
319                         new->end = max;
320                 new->start = ALIGN(new->start, align);
321                 if (alignf)
322                         alignf(alignf_data, new, size, align);
323                 if (new->start < new->end && new->end - new->start >= size - 1) {
324                         new->end = new->start + size - 1;
325                         return 0;
326                 }
327                 if (!this)
328                         break;
329                 new->start = this->end + 1;
330                 this = this->sibling;
331         }
332         return -EBUSY;
333 }
334
335 /**
336  * allocate_resource - allocate empty slot in the resource tree given range & alignment
337  * @root: root resource descriptor
338  * @new: resource descriptor desired by caller
339  * @size: requested resource region size
340  * @min: minimum size to allocate
341  * @max: maximum size to allocate
342  * @align: alignment requested, in bytes
343  * @alignf: alignment function, optional, called if not NULL
344  * @alignf_data: arbitrary data to pass to the @alignf function
345  */
346 int allocate_resource(struct resource *root, struct resource *new,
347                       resource_size_t size, resource_size_t min,
348                       resource_size_t max, resource_size_t align,
349                       void (*alignf)(void *, struct resource *,
350                                      resource_size_t, resource_size_t),
351                       void *alignf_data)
352 {
353         int err;
354
355         write_lock(&resource_lock);
356         err = find_resource(root, new, size, min, max, align, alignf, alignf_data);
357         if (err >= 0 && __request_resource(root, new))
358                 err = -EBUSY;
359         write_unlock(&resource_lock);
360         return err;
361 }
362
363 EXPORT_SYMBOL(allocate_resource);
364
365 /*
366  * Insert a resource into the resource tree. If successful, return NULL,
367  * otherwise return the conflicting resource (compare to __request_resource())
368  */
369 static struct resource * __insert_resource(struct resource *parent, struct resource *new)
370 {
371         struct resource *first, *next;
372
373         for (;; parent = first) {
374                 first = __request_resource(parent, new);
375                 if (!first)
376                         return first;
377
378                 if (first == parent)
379                         return first;
380
381                 if ((first->start > new->start) || (first->end < new->end))
382                         break;
383                 if ((first->start == new->start) && (first->end == new->end))
384                         break;
385         }
386
387         for (next = first; ; next = next->sibling) {
388                 /* Partial overlap? Bad, and unfixable */
389                 if (next->start < new->start || next->end > new->end)
390                         return next;
391                 if (!next->sibling)
392                         break;
393                 if (next->sibling->start > new->end)
394                         break;
395         }
396
397         new->parent = parent;
398         new->sibling = next->sibling;
399         new->child = first;
400
401         next->sibling = NULL;
402         for (next = first; next; next = next->sibling)
403                 next->parent = new;
404
405         if (parent->child == first) {
406                 parent->child = new;
407         } else {
408                 next = parent->child;
409                 while (next->sibling != first)
410                         next = next->sibling;
411                 next->sibling = new;
412         }
413         return NULL;
414 }
415
416 /**
417  * insert_resource - Inserts a resource in the resource tree
418  * @parent: parent of the new resource
419  * @new: new resource to insert
420  *
421  * Returns 0 on success, -EBUSY if the resource can't be inserted.
422  *
423  * This function is equivalent to request_resource when no conflict
424  * happens. If a conflict happens, and the conflicting resources
425  * entirely fit within the range of the new resource, then the new
426  * resource is inserted and the conflicting resources become children of
427  * the new resource.
428  */
429 int insert_resource(struct resource *parent, struct resource *new)
430 {
431         struct resource *conflict;
432
433         write_lock(&resource_lock);
434         conflict = __insert_resource(parent, new);
435         write_unlock(&resource_lock);
436         return conflict ? -EBUSY : 0;
437 }
438
439 /**
440  * insert_resource_expand_to_fit - Insert a resource into the resource tree
441  * @root: root resource descriptor
442  * @new: new resource to insert
443  *
444  * Insert a resource into the resource tree, possibly expanding it in order
445  * to make it encompass any conflicting resources.
446  */
447 void insert_resource_expand_to_fit(struct resource *root, struct resource *new)
448 {
449         if (new->parent)
450                 return;
451
452         write_lock(&resource_lock);
453         for (;;) {
454                 struct resource *conflict;
455
456                 conflict = __insert_resource(root, new);
457                 if (!conflict)
458                         break;
459                 if (conflict == root)
460                         break;
461
462                 /* Ok, expand resource to cover the conflict, then try again .. */
463                 if (conflict->start < new->start)
464                         new->start = conflict->start;
465                 if (conflict->end > new->end)
466                         new->end = conflict->end;
467
468                 printk("Expanded resource %s due to conflict with %s\n", new->name, conflict->name);
469         }
470         write_unlock(&resource_lock);
471 }
472
473 /**
474  * adjust_resource - modify a resource's start and size
475  * @res: resource to modify
476  * @start: new start value
477  * @size: new size
478  *
479  * Given an existing resource, change its start and size to match the
480  * arguments.  Returns 0 on success, -EBUSY if it can't fit.
481  * Existing children of the resource are assumed to be immutable.
482  */
483 int adjust_resource(struct resource *res, resource_size_t start, resource_size_t size)
484 {
485         struct resource *tmp, *parent = res->parent;
486         resource_size_t end = start + size - 1;
487         int result = -EBUSY;
488
489         write_lock(&resource_lock);
490
491         if ((start < parent->start) || (end > parent->end))
492                 goto out;
493
494         for (tmp = res->child; tmp; tmp = tmp->sibling) {
495                 if ((tmp->start < start) || (tmp->end > end))
496                         goto out;
497         }
498
499         if (res->sibling && (res->sibling->start <= end))
500                 goto out;
501
502         tmp = parent->child;
503         if (tmp != res) {
504                 while (tmp->sibling != res)
505                         tmp = tmp->sibling;
506                 if (start <= tmp->end)
507                         goto out;
508         }
509
510         res->start = start;
511         res->end = end;
512         result = 0;
513
514  out:
515         write_unlock(&resource_lock);
516         return result;
517 }
518
519 static void __init __reserve_region_with_split(struct resource *root,
520                 resource_size_t start, resource_size_t end,
521                 const char *name)
522 {
523         struct resource *parent = root;
524         struct resource *conflict;
525         struct resource *res = kzalloc(sizeof(*res), GFP_KERNEL);
526
527         if (!res)
528                 return;
529
530         res->name = name;
531         res->start = start;
532         res->end = end;
533         res->flags = IORESOURCE_BUSY;
534
535         for (;;) {
536                 conflict = __request_resource(parent, res);
537                 if (!conflict)
538                         break;
539                 if (conflict != parent) {
540                         parent = conflict;
541                         if (!(conflict->flags & IORESOURCE_BUSY))
542                                 continue;
543                 }
544
545                 /* Uhhuh, that didn't work out.. */
546                 kfree(res);
547                 res = NULL;
548                 break;
549         }
550
551         if (!res) {
552                 /* failed, split and try again */
553
554                 /* conflict covered whole area */
555                 if (conflict->start <= start && conflict->end >= end)
556                         return;
557
558                 if (conflict->start > start)
559                         __reserve_region_with_split(root, start, conflict->start-1, name);
560                 if (!(conflict->flags & IORESOURCE_BUSY)) {
561                         resource_size_t common_start, common_end;
562
563                         common_start = max(conflict->start, start);
564                         common_end = min(conflict->end, end);
565                         if (common_start < common_end)
566                                 __reserve_region_with_split(root, common_start, common_end, name);
567                 }
568                 if (conflict->end < end)
569                         __reserve_region_with_split(root, conflict->end+1, end, name);
570         }
571
572 }
573
574 void reserve_region_with_split(struct resource *root,
575                 resource_size_t start, resource_size_t end,
576                 const char *name)
577 {
578         write_lock(&resource_lock);
579         __reserve_region_with_split(root, start, end, name);
580         write_unlock(&resource_lock);
581 }
582
583 EXPORT_SYMBOL(adjust_resource);
584
585 /**
586  * resource_alignment - calculate resource's alignment
587  * @res: resource pointer
588  *
589  * Returns alignment on success, 0 (invalid alignment) on failure.
590  */
591 resource_size_t resource_alignment(struct resource *res)
592 {
593         switch (res->flags & (IORESOURCE_SIZEALIGN | IORESOURCE_STARTALIGN)) {
594         case IORESOURCE_SIZEALIGN:
595                 return resource_size(res);
596         case IORESOURCE_STARTALIGN:
597                 return res->start;
598         default:
599                 return 0;
600         }
601 }
602
603 /*
604  * This is compatibility stuff for IO resources.
605  *
606  * Note how this, unlike the above, knows about
607  * the IO flag meanings (busy etc).
608  *
609  * request_region creates a new busy region.
610  *
611  * check_region returns non-zero if the area is already busy.
612  *
613  * release_region releases a matching busy region.
614  */
615
616 /**
617  * __request_region - create a new busy resource region
618  * @parent: parent resource descriptor
619  * @start: resource start address
620  * @n: resource region size
621  * @name: reserving caller's ID string
622  */
623 struct resource * __request_region(struct resource *parent,
624                                    resource_size_t start, resource_size_t n,
625                                    const char *name)
626 {
627         struct resource *res = kzalloc(sizeof(*res), GFP_KERNEL);
628
629         if (res) {
630                 res->name = name;
631                 res->start = start;
632                 res->end = start + n - 1;
633                 res->flags = IORESOURCE_BUSY;
634
635                 write_lock(&resource_lock);
636
637                 for (;;) {
638                         struct resource *conflict;
639
640                         conflict = __request_resource(parent, res);
641                         if (!conflict)
642                                 break;
643                         if (conflict != parent) {
644                                 parent = conflict;
645                                 if (!(conflict->flags & IORESOURCE_BUSY))
646                                         continue;
647                         }
648
649                         /* Uhhuh, that didn't work out.. */
650                         kfree(res);
651                         res = NULL;
652                         break;
653                 }
654                 write_unlock(&resource_lock);
655         }
656         return res;
657 }
658 EXPORT_SYMBOL(__request_region);
659
660 /**
661  * __check_region - check if a resource region is busy or free
662  * @parent: parent resource descriptor
663  * @start: resource start address
664  * @n: resource region size
665  *
666  * Returns 0 if the region is free at the moment it is checked,
667  * returns %-EBUSY if the region is busy.
668  *
669  * NOTE:
670  * This function is deprecated because its use is racy.
671  * Even if it returns 0, a subsequent call to request_region()
672  * may fail because another driver etc. just allocated the region.
673  * Do NOT use it.  It will be removed from the kernel.
674  */
675 int __check_region(struct resource *parent, resource_size_t start,
676                         resource_size_t n)
677 {
678         struct resource * res;
679
680         res = __request_region(parent, start, n, "check-region");
681         if (!res)
682                 return -EBUSY;
683
684         release_resource(res);
685         kfree(res);
686         return 0;
687 }
688 EXPORT_SYMBOL(__check_region);
689
690 /**
691  * __release_region - release a previously reserved resource region
692  * @parent: parent resource descriptor
693  * @start: resource start address
694  * @n: resource region size
695  *
696  * The described resource region must match a currently busy region.
697  */
698 void __release_region(struct resource *parent, resource_size_t start,
699                         resource_size_t n)
700 {
701         struct resource **p;
702         resource_size_t end;
703
704         p = &parent->child;
705         end = start + n - 1;
706
707         write_lock(&resource_lock);
708
709         for (;;) {
710                 struct resource *res = *p;
711
712                 if (!res)
713                         break;
714                 if (res->start <= start && res->end >= end) {
715                         if (!(res->flags & IORESOURCE_BUSY)) {
716                                 p = &res->child;
717                                 continue;
718                         }
719                         if (res->start != start || res->end != end)
720                                 break;
721                         *p = res->sibling;
722                         write_unlock(&resource_lock);
723                         kfree(res);
724                         return;
725                 }
726                 p = &res->sibling;
727         }
728
729         write_unlock(&resource_lock);
730
731         printk(KERN_WARNING "Trying to free nonexistent resource "
732                 "<%016llx-%016llx>\n", (unsigned long long)start,
733                 (unsigned long long)end);
734 }
735 EXPORT_SYMBOL(__release_region);
736
737 /*
738  * Managed region resource
739  */
740 struct region_devres {
741         struct resource *parent;
742         resource_size_t start;
743         resource_size_t n;
744 };
745
746 static void devm_region_release(struct device *dev, void *res)
747 {
748         struct region_devres *this = res;
749
750         __release_region(this->parent, this->start, this->n);
751 }
752
753 static int devm_region_match(struct device *dev, void *res, void *match_data)
754 {
755         struct region_devres *this = res, *match = match_data;
756
757         return this->parent == match->parent &&
758                 this->start == match->start && this->n == match->n;
759 }
760
761 struct resource * __devm_request_region(struct device *dev,
762                                 struct resource *parent, resource_size_t start,
763                                 resource_size_t n, const char *name)
764 {
765         struct region_devres *dr = NULL;
766         struct resource *res;
767
768         dr = devres_alloc(devm_region_release, sizeof(struct region_devres),
769                           GFP_KERNEL);
770         if (!dr)
771                 return NULL;
772
773         dr->parent = parent;
774         dr->start = start;
775         dr->n = n;
776
777         res = __request_region(parent, start, n, name);
778         if (res)
779                 devres_add(dev, dr);
780         else
781                 devres_free(dr);
782
783         return res;
784 }
785 EXPORT_SYMBOL(__devm_request_region);
786
787 void __devm_release_region(struct device *dev, struct resource *parent,
788                            resource_size_t start, resource_size_t n)
789 {
790         struct region_devres match_data = { parent, start, n };
791
792         __release_region(parent, start, n);
793         WARN_ON(devres_destroy(dev, devm_region_release, devm_region_match,
794                                &match_data));
795 }
796 EXPORT_SYMBOL(__devm_release_region);
797
798 /*
799  * Called from init/main.c to reserve IO ports.
800  */
801 #define MAXRESERVE 4
802 static int __init reserve_setup(char *str)
803 {
804         static int reserved;
805         static struct resource reserve[MAXRESERVE];
806
807         for (;;) {
808                 int io_start, io_num;
809                 int x = reserved;
810
811                 if (get_option (&str, &io_start) != 2)
812                         break;
813                 if (get_option (&str, &io_num)   == 0)
814                         break;
815                 if (x < MAXRESERVE) {
816                         struct resource *res = reserve + x;
817                         res->name = "reserved";
818                         res->start = io_start;
819                         res->end = io_start + io_num - 1;
820                         res->flags = IORESOURCE_BUSY;
821                         res->child = NULL;
822                         if (request_resource(res->start >= 0x10000 ? &iomem_resource : &ioport_resource, res) == 0)
823                                 reserved = x+1;
824                 }
825         }
826         return 1;
827 }
828
829 __setup("reserve=", reserve_setup);