Remove drivers/pci/onboard. The only purpose was for option ROMs, which are
[coreboot.git] / src / devices / device.c
1 /*
2  * This file is part of the coreboot project.
3  *
4  * It was originally based on the Linux kernel (arch/i386/kernel/pci-pc.c).
5  *
6  * Modifications are:
7  * Copyright (C) 2003 Eric Biederman <ebiederm@xmission.com>
8  * Copyright (C) 2003-2004 Linux Networx
9  * (Written by Eric Biederman <ebiederman@lnxi.com> for Linux Networx)
10  * Copyright (C) 2003 Ronald G. Minnich <rminnich@gmail.com>
11  * Copyright (C) 2004-2005 Li-Ta Lo <ollie@lanl.gov>
12  * Copyright (C) 2005-2006 Tyan
13  * (Written by Yinghai Lu <yhlu@tyan.com> for Tyan)
14  * Copyright (C) 2005-2006 Stefan Reinauer <stepan@openbios.org>
15  * Copyright (C) 2009 Myles Watson <mylesgw@gmail.com>
16  */
17
18 /*
19  *      (c) 1999--2000 Martin Mares <mj@suse.cz>
20  */
21 /* lots of mods by ron minnich (rminnich@lanl.gov), with
22  * the final architecture guidance from Tom Merritt (tjm@codegen.com)
23  * In particular, we changed from the one-pass original version to
24  * Tom's recommended multiple-pass version. I wasn't sure about doing
25  * it with multiple passes, until I actually started doing it and saw
26  * the wisdom of Tom's recommendations ...
27  *
28  * Lots of cleanups by Eric Biederman to handle bridges, and to
29  * handle resource allocation for non-pci devices.
30  */
31
32 #include <console/console.h>
33 #include <bitops.h>
34 #include <arch/io.h>
35 #include <device/device.h>
36 #include <device/pci.h>
37 #include <device/pci_ids.h>
38 #include <stdlib.h>
39 #include <string.h>
40 #include <smp/spinlock.h>
41
42 /** Linked list of ALL devices */
43 struct device *all_devices = &dev_root;
44 /** Pointer to the last device */
45 extern struct device **last_dev_p;
46
47
48 /**
49  * @brief Allocate a new device structure.
50  *
51  * Allocte a new device structure and attached it to the device tree as a
52  * child of the parent bus.
53  *
54  * @param parent parent bus the newly created device attached to.
55  * @param path path to the device to be created.
56  *
57  * @return pointer to the newly created device structure.
58  *
59  * @see device_path
60  */
61 static spinlock_t dev_lock = SPIN_LOCK_UNLOCKED;
62 device_t alloc_dev(struct bus *parent, struct device_path *path)
63 {
64         device_t dev, child;
65         int link;
66
67         spin_lock(&dev_lock);
68
69         /* Find the last child of our parent. */
70         for (child = parent->children; child && child->sibling; /* */ ) {
71                 child = child->sibling;
72         }
73
74         dev = malloc(sizeof(*dev));
75         if (dev == 0)
76                 die("DEV: out of memory.\n");
77
78         memset(dev, 0, sizeof(*dev));
79         memcpy(&dev->path, path, sizeof(*path));
80
81         /* Initialize the back pointers in the link fields. */
82         for (link = 0; link < MAX_LINKS; link++) {
83                 dev->link[link].dev = dev;
84                 dev->link[link].link = link;
85         }
86
87         /* By default devices are enabled. */
88         dev->enabled = 1;
89
90         /* Add the new device to the list of children of the bus. */
91         dev->bus = parent;
92         if (child) {
93                 child->sibling = dev;
94         } else {
95                 parent->children = dev;
96         }
97
98         /* Append a new device to the global device list.
99          * The list is used to find devices once everything is set up.
100          */
101         *last_dev_p = dev;
102         last_dev_p = &dev->next;
103
104         spin_unlock(&dev_lock);
105         return dev;
106 }
107
108 /**
109  * @brief round a number up to an alignment.
110  * @param val the starting value
111  * @param roundup Alignment as a power of two
112  * @returns rounded up number
113  */
114 static resource_t round(resource_t val, unsigned long pow)
115 {
116         resource_t mask;
117         mask = (1ULL << pow) - 1ULL;
118         val += mask;
119         val &= ~mask;
120         return val;
121 }
122
123 /** Read the resources on all devices of a given bus.
124  * @param bus bus to read the resources on.
125  */
126 static void read_resources(struct bus *bus)
127 {
128         struct device *curdev;
129
130         printk_spew("%s %s bus %x link: %d\n", dev_path(bus->dev), __func__,
131                     bus->secondary, bus->link);
132
133         /* Walk through all devices and find which resources they need. */
134         for (curdev = bus->children; curdev; curdev = curdev->sibling) {
135                 int i;
136                 if (!curdev->enabled) {
137                         continue;
138                 }
139                 if (!curdev->ops || !curdev->ops->read_resources) {
140                         printk_err("%s missing read_resources\n",
141                                    dev_path(curdev));
142                         continue;
143                 }
144                 curdev->ops->read_resources(curdev);
145
146                 /* Read in the resources behind the current device's links. */
147                 for (i = 0; i < curdev->links; i++)
148                         read_resources(&curdev->link[i]);
149         }
150         printk_spew("%s read_resources bus %d link: %d done\n",
151                     dev_path(bus->dev), bus->secondary, bus->link);
152 }
153
154 struct pick_largest_state {
155         struct resource *last;
156         struct device *result_dev;
157         struct resource *result;
158         int seen_last;
159 };
160
161 static void pick_largest_resource(void *gp, struct device *dev,
162                                   struct resource *resource)
163 {
164         struct pick_largest_state *state = gp;
165         struct resource *last;
166
167         last = state->last;
168
169         /* Be certain to pick the successor to last. */
170         if (resource == last) {
171                 state->seen_last = 1;
172                 return;
173         }
174         if (resource->flags & IORESOURCE_FIXED)
175                 return;         // Skip it.
176         if (last && ((last->align < resource->align) ||
177                      ((last->align == resource->align) &&
178                       (last->size < resource->size)) ||
179                      ((last->align == resource->align) &&
180                       (last->size == resource->size) && (!state->seen_last)))) {
181                 return;
182         }
183         if (!state->result ||
184             (state->result->align < resource->align) ||
185             ((state->result->align == resource->align) &&
186              (state->result->size < resource->size))) {
187                 state->result_dev = dev;
188                 state->result = resource;
189         }
190 }
191
192 static struct device *largest_resource(struct bus *bus,
193                                        struct resource **result_res,
194                                        unsigned long type_mask,
195                                        unsigned long type)
196 {
197         struct pick_largest_state state;
198
199         state.last = *result_res;
200         state.result_dev = NULL;
201         state.result = NULL;
202         state.seen_last = 0;
203
204         search_bus_resources(bus, type_mask, type, pick_largest_resource,
205                              &state);
206
207         *result_res = state.result;
208         return state.result_dev;
209 }
210
211 /* Compute allocate resources is the guts of the resource allocator.
212  *
213  * The problem.
214  *  - Allocate resource locations for every device.
215  *  - Don't overlap, and follow the rules of bridges.
216  *  - Don't overlap with resources in fixed locations.
217  *  - Be efficient so we don't have ugly strategies.
218  *
219  * The strategy.
220  * - Devices that have fixed addresses are the minority so don't
221  *   worry about them too much. Instead only use part of the address
222  *   space for devices with programmable addresses. This easily handles
223  *   everything except bridges.
224  *
225  * - PCI devices are required to have their sizes and their alignments
226  *   equal. In this case an optimal solution to the packing problem
227  *   exists. Allocate all devices from highest alignment to least
228  *   alignment or vice versa. Use this.
229  *
230  * - So we can handle more than PCI run two allocation passes on bridges. The
231  *   first to see how large the resources are behind the bridge, and what
232  *   their alignment requirements are. The second to assign a safe address to
233  *   the devices behind the bridge. This allows us to treat a bridge as just
234  *   a device with a couple of resources, and not need to special case it in
235  *   the allocator. Also this allows handling of other types of bridges.
236  *
237  */
238 static void compute_resources(struct bus *bus, struct resource *bridge,
239                        unsigned long type_mask, unsigned long type)
240 {
241         struct device *dev;
242         struct resource *resource;
243         resource_t base;
244         base = round(bridge->base, bridge->align);
245
246         printk_spew( "%s %s_%s: base: %llx size: %llx align: %d gran: %d limit: %llx\n",
247                dev_path(bus->dev), __func__,
248                (type & IORESOURCE_IO) ? "io" : (type & IORESOURCE_PREFETCH) ?
249                "prefmem" : "mem",
250                base, bridge->size, bridge->align, bridge->gran, bridge->limit);
251
252         /* For each child which is a bridge, compute_resource_needs. */
253         for (dev = bus->children; dev; dev = dev->sibling) {
254                 unsigned i;
255                 struct resource *child_bridge;
256
257                 if (!dev->links)
258                         continue;
259
260                 /* Find the resources with matching type flags. */
261                 for (i = 0; i < dev->resources; i++) {
262                         unsigned link;
263                         child_bridge = &dev->resource[i];
264
265                         if (!(child_bridge->flags & IORESOURCE_BRIDGE) ||
266                             (child_bridge->flags & type_mask) != type)
267                                 continue;
268
269                         /* Split prefetchable memory if combined.  Many domains
270                          * use the same address space for prefetchable memory
271                          * and non-prefetchable memory.  Bridges below them
272                          * need it separated.  Add the PREFETCH flag to the
273                          * type_mask and type.
274                          */
275                         link = IOINDEX_LINK(child_bridge->index);
276                         compute_resources(&dev->link[link], child_bridge,
277                                           type_mask | IORESOURCE_PREFETCH,
278                                           type | (child_bridge->flags &
279                                                   IORESOURCE_PREFETCH));
280                 }
281         }
282
283         /* Remember we haven't found anything yet. */
284         resource = NULL;
285
286         /* Walk through all the resources on the current bus and compute the
287          * amount of address space taken by them.  Take granularity and
288          * alignment into account.
289          */
290         while ((dev = largest_resource(bus, &resource, type_mask, type))) {
291
292                 /* Size 0 resources can be skipped. */
293                 if (!resource->size) {
294                         continue;
295                 }
296
297                 /* Propagate the resource alignment to the bridge resource. */
298                 if (resource->align > bridge->align) {
299                         bridge->align = resource->align;
300                 }
301
302                 /* Propagate the resource limit to the bridge register. */
303                 if (bridge->limit > resource->limit) {
304                         bridge->limit = resource->limit;
305                 }
306
307                 /* Warn if it looks like APICs aren't declared. */
308                 if ((resource->limit == 0xffffffff) &&
309                     (resource->flags & IORESOURCE_ASSIGNED)) {
310                         printk_err("Resource limit looks wrong! (no APIC?)\n");
311                         printk_err("%s %02lx limit %08Lx\n", dev_path(dev),
312                                    resource->index, resource->limit);
313                 }
314
315                 if (resource->flags & IORESOURCE_IO) {
316                         /* Don't allow potential aliases over the legacy PCI
317                          * expansion card addresses. The legacy PCI decodes
318                          * only 10 bits, uses 0x100 - 0x3ff. Therefore, only
319                          * 0x00 - 0xff can be used out of each 0x400 block of
320                          * I/O space.
321                          */
322                         if ((base & 0x300) != 0) {
323                                 base = (base & ~0x3ff) + 0x400;
324                         }
325                         /* Don't allow allocations in the VGA I/O range.
326                          * PCI has special cases for that.
327                          */
328                         else if ((base >= 0x3b0) && (base <= 0x3df)) {
329                                 base = 0x3e0;
330                         }
331                 }
332                 /* Base must be aligned. */
333                 base = round(base, resource->align);
334                 resource->base = base;
335                 base += resource->size;
336
337                 printk_spew("%s %02lx *  [0x%llx - 0x%llx] %s\n",
338                             dev_path(dev), resource->index,
339                             resource->base,
340                             resource->base + resource->size - 1,
341                             (resource->flags & IORESOURCE_IO) ? "io" :
342                             (resource->flags & IORESOURCE_PREFETCH) ?
343                              "prefmem" : "mem");
344         }
345         /* A pci bridge resource does not need to be a power
346          * of two size, but it does have a minimum granularity.
347          * Round the size up to that minimum granularity so we
348          * know not to place something else at an address postitively
349          * decoded by the bridge.
350          */
351         bridge->size = round(base, bridge->gran) -
352                        round(bridge->base, bridge->align);
353
354         printk_spew("%s %s_%s: base: %llx size: %llx align: %d gran: %d limit: %llx done\n",
355                     dev_path(bus->dev), __func__,
356                     (bridge->flags & IORESOURCE_IO) ? "io" :
357                      (bridge->flags & IORESOURCE_PREFETCH) ?  "prefmem" : "mem",
358                     base, bridge->size, bridge->align, bridge->gran, bridge->limit);
359 }
360
361 /**
362  * This function is the second part of the resource allocator.
363  *
364  * The problem.
365  *  - Allocate resource locations for every device.
366  *  - Don't overlap, and follow the rules of bridges.
367  *  - Don't overlap with resources in fixed locations.
368  *  - Be efficient so we don't have ugly strategies.
369  *
370  * The strategy.
371  * - Devices that have fixed addresses are the minority so don't
372  *   worry about them too much. Instead only use part of the address
373  *   space for devices with programmable addresses. This easily handles
374  *   everything except bridges.
375  *
376  * - PCI devices are required to have their sizes and their alignments
377  *   equal. In this case an optimal solution to the packing problem
378  *   exists. Allocate all devices from highest alignment to least
379  *   alignment or vice versa. Use this.
380  *
381  * - So we can handle more than PCI run two allocation passes on bridges. The
382  *   first to see how large the resources are behind the bridge, and what
383  *   their alignment requirements are. The second to assign a safe address to
384  *   the devices behind the bridge. This allows us to treat a bridge as just
385  *   a device with a couple of resources, and not need to special case it in
386  *   the allocator. Also this allows handling of other types of bridges.
387  *
388  * - This function assigns the resources a value.
389  *
390  * @param bus The bus we are traversing.
391  * @param bridge The bridge resource which must contain the bus' resources.
392  * @param type_mask This value gets anded with the resource type.
393  * @param type This value must match the result of the and.
394  */
395 static void allocate_resources(struct bus *bus, struct resource *bridge,
396                         unsigned long type_mask, unsigned long type)
397 {
398         struct device *dev;
399         struct resource *resource;
400         resource_t base;
401         base = bridge->base;
402
403         printk_spew("%s %s_%s: base:%llx size:%llx align:%d gran:%d limit:%llx\n",
404                dev_path(bus->dev), __func__,
405                (type & IORESOURCE_IO) ? "io" : (type & IORESOURCE_PREFETCH) ?
406                "prefmem" : "mem",
407                base, bridge->size, bridge->align, bridge->gran, bridge->limit);
408
409         /* Remember we haven't found anything yet. */
410         resource = NULL;
411
412         /* Walk through all the resources on the current bus and allocate them
413          * address space.
414          */
415         while ((dev = largest_resource(bus, &resource, type_mask, type))) {
416
417                 /* Propagate the bridge limit to the resource register. */
418                 if (resource->limit > bridge->limit) {
419                         resource->limit = bridge->limit;
420                 }
421
422                 /* Size 0 resources can be skipped. */
423                 if (!resource->size) {
424                         /* Set the base to limit so it doesn't confuse tolm. */
425                         resource->base = resource->limit;
426                         resource->flags |= IORESOURCE_ASSIGNED;
427                         continue;
428                 }
429
430                 if (resource->flags & IORESOURCE_IO) {
431                         /* Don't allow potential aliases over the legacy PCI
432                          * expansion card addresses. The legacy PCI decodes
433                          * only 10 bits, uses 0x100 - 0x3ff. Therefore, only
434                          * 0x00 - 0xff can be used out of each 0x400 block of
435                          * I/O space.
436                          */
437                         if ((base & 0x300) != 0) {
438                                 base = (base & ~0x3ff) + 0x400;
439                         }
440                         /* Don't allow allocations in the VGA I/O range.
441                          * PCI has special cases for that.
442                          */
443                         else if ((base >= 0x3b0) && (base <= 0x3df)) {
444                                 base = 0x3e0;
445                         }
446                 }
447
448                 if ((round(base, resource->align) + resource->size - 1) <=
449                     resource->limit) {
450                         /* Base must be aligned. */
451                         base = round(base, resource->align);
452                         resource->base = base;
453                         resource->flags |= IORESOURCE_ASSIGNED;
454                         resource->flags &= ~IORESOURCE_STORED;
455                         base += resource->size;
456                 } else {
457                         printk_err("!! Resource didn't fit !!\n");
458                         printk_err("   aligned base %llx size %llx limit %llx\n",
459                                round(base, resource->align), resource->size,
460                                resource->limit);
461                         printk_err("   %llx needs to be <= %llx (limit)\n",
462                                (round(base, resource->align) +
463                                 resource->size) - 1, resource->limit);
464                         printk_err("   %s%s %02lx *  [0x%llx - 0x%llx] %s\n",
465                                (resource->
466                                 flags & IORESOURCE_ASSIGNED) ? "Assigned: " :
467                                "", dev_path(dev), resource->index,
468                                resource->base,
469                                resource->base + resource->size - 1,
470                                (resource->
471                                 flags & IORESOURCE_IO) ? "io" : (resource->
472                                                                  flags &
473                                                                  IORESOURCE_PREFETCH)
474                                ? "prefmem" : "mem");
475                 }
476
477                 printk_spew("%s%s %02lx *  [0x%llx - 0x%llx] %s\n",
478                        (resource->flags & IORESOURCE_ASSIGNED) ? "Assigned: "
479                        : "",
480                        dev_path(dev), resource->index, resource->base,
481                        resource->size ? resource->base + resource->size - 1 :
482                        resource->base,
483                        (resource->flags & IORESOURCE_IO) ? "io" :
484                        (resource->flags & IORESOURCE_PREFETCH) ? "prefmem" :
485                        "mem");
486         }
487         /* A PCI bridge resource does not need to be a power of two size, but
488          * it does have a minimum granularity. Round the size up to that
489          * minimum granularity so we know not to place something else at an
490          * address positively decoded by the bridge.
491          */
492
493         bridge->flags |= IORESOURCE_ASSIGNED;
494
495         printk_spew("%s %s_%s: next_base: %llx size: %llx align: %d gran: %d done\n",
496                dev_path(bus->dev), __func__,
497                (type & IORESOURCE_IO) ? "io" : (type & IORESOURCE_PREFETCH) ?
498                "prefmem" : "mem",
499                base, bridge->size, bridge->align, bridge->gran);
500
501         /* For each child which is a bridge, allocate_resources. */
502         for (dev = bus->children; dev; dev = dev->sibling) {
503                 unsigned i;
504                 struct resource *child_bridge;
505
506                 if (!dev->links)
507                         continue;
508
509                 /* Find the resources with matching type flags. */
510                 for (i = 0; i < dev->resources; i++) {
511                         unsigned link;
512                         child_bridge = &dev->resource[i];
513
514                         if (!(child_bridge->flags & IORESOURCE_BRIDGE) ||
515                             (child_bridge->flags & type_mask) != type)
516                                 continue;
517
518                         /* Split prefetchable memory if combined.  Many domains
519                          * use the same address space for prefetchable memory
520                          * and non-prefetchable memory.  Bridges below them
521                          * need it separated.  Add the PREFETCH flag to the
522                          * type_mask and type.
523                          */
524                         link = IOINDEX_LINK(child_bridge->index);
525                         allocate_resources(&dev->link[link], child_bridge,
526                                            type_mask | IORESOURCE_PREFETCH,
527                                            type | (child_bridge->flags &
528                                                    IORESOURCE_PREFETCH));
529                 }
530         }
531 }
532
533 #if CONFIG_PCI_64BIT_PREF_MEM == 1
534         #define MEM_MASK (IORESOURCE_PREFETCH | IORESOURCE_MEM)
535 #else
536         #define MEM_MASK (IORESOURCE_MEM)
537 #endif
538 #define IO_MASK (IORESOURCE_IO)
539 #define PREF_TYPE (IORESOURCE_PREFETCH | IORESOURCE_MEM)
540 #define MEM_TYPE (IORESOURCE_MEM)
541 #define IO_TYPE (IORESOURCE_IO)
542
543 struct constraints {
544         struct resource pref, io, mem;
545 };
546
547 static void constrain_resources(struct device *dev, struct constraints* limits)
548 {
549         struct device *child;
550         struct resource *res;
551         struct resource *lim;
552         int i;
553
554         printk_spew("%s: %s\n", __func__, dev_path(dev));
555
556         /* Constrain limits based on the fixed resources of this device. */
557         for (i = 0; i < dev->resources; i++) {
558                 res = &dev->resource[i];
559                 if (!(res->flags & IORESOURCE_FIXED))
560                         continue;
561                 if (!res->size) {
562                         /* It makes no sense to have 0-sized, fixed resources.*/
563                         printk_err("skipping %s@%lx fixed resource, size=0!\n",
564                                    dev_path(dev), res->index);
565                         continue;
566                 }
567
568                 /* PREFETCH, MEM, or I/O - skip any others. */
569                 if ((res->flags & MEM_MASK) == PREF_TYPE)
570                         lim = &limits->pref;
571                 else if ((res->flags & MEM_MASK) == MEM_TYPE)
572                         lim = &limits->mem;
573                 else if ((res->flags & IO_MASK) == IO_TYPE)
574                         lim = &limits->io;
575                 else
576                         continue;
577
578                 /* Is it already outside the limits? */
579                 if (((res->base + res->size -1) < lim->base) || (res->base > lim->limit))
580                         continue;
581
582                 /* Choose to be above or below fixed resources.  This
583                  * check is signed so that "negative" amounts of space
584                  * are handled correctly.
585                  */
586                 if ((signed long long)(lim->limit - (res->base + res->size -1)) >
587                     (signed long long)(res->base - lim->base))
588                         lim->base = res->base + res->size;
589                 else
590                         lim->limit = res->base -1;
591         }
592
593         /* Descend into every enabled child and look for fixed resources. */
594         for (i = 0; i < dev->links; i++)
595                 for (child = dev->link[i].children; child;
596                      child = child->sibling)
597                         if (child->enabled)
598                                 constrain_resources(child, limits);
599 }
600
601 static void avoid_fixed_resources(struct device *dev)
602 {
603         struct constraints limits;
604         struct resource *res;
605         int i;
606
607         printk_spew("%s: %s\n", __func__, dev_path(dev));
608         /* Initialize constraints to maximum size. */
609
610         limits.pref.base = 0;
611         limits.pref.limit = 0xffffffffffffffffULL;
612         limits.io.base = 0;
613         limits.io.limit = 0xffffffffffffffffULL;
614         limits.mem.base = 0;
615         limits.mem.limit = 0xffffffffffffffffULL;
616
617         /* Constrain the limits to dev's initial resources. */
618         for (i = 0; i < dev->resources; i++) {
619                 res = &dev->resource[i];
620                 if ((res->flags & IORESOURCE_FIXED))
621                         continue;
622                 printk_spew("%s:@%s %02lx limit %08Lx\n", __func__,
623                              dev_path(dev), res->index, res->limit);
624                 if ((res->flags & MEM_MASK) == PREF_TYPE &&
625                     (res->limit < limits.pref.limit))
626                         limits.pref.limit = res->limit;
627                 if ((res->flags & MEM_MASK) == MEM_TYPE &&
628                     (res->limit < limits.mem.limit))
629                         limits.mem.limit = res->limit;
630                 if ((res->flags & IO_MASK) == IO_TYPE &&
631                     (res->limit < limits.io.limit))
632                         limits.io.limit = res->limit;
633         }
634
635         /* Look through the tree for fixed resources and update the limits. */
636         constrain_resources(dev, &limits);
637
638         /* Update dev's resources with new limits. */
639         for (i = 0; i < dev->resources; i++) {
640                 struct resource *lim;
641                 res = &dev->resource[i];
642
643                 if ((res->flags & IORESOURCE_FIXED))
644                         continue;
645
646                 /* PREFETCH, MEM, or I/O - skip any others. */
647                 if ((res->flags & MEM_MASK) == PREF_TYPE)
648                         lim = &limits.pref;
649                 else if ((res->flags & MEM_MASK) == MEM_TYPE)
650                         lim = &limits.mem;
651                 else if ((res->flags & IO_MASK) == IO_TYPE)
652                         lim = &limits.io;
653                 else
654                         continue;
655
656                 printk_spew("%s2: %s@%02lx limit %08Lx\n", __func__,
657                              dev_path(dev), res->index, res->limit);
658                 printk_spew("\tlim->base %08Lx lim->limit %08Lx\n",
659                              lim->base, lim->limit);
660
661                 /* Is the resource outside the limits? */
662                 if (lim->base > res->base)
663                         res->base = lim->base;
664                 if (res->limit > lim->limit)
665                         res->limit = lim->limit;
666         }
667 }
668
669 #if CONFIG_VGA_BRIDGE_SETUP == 1
670 device_t vga_pri = 0;
671 static void set_vga_bridge_bits(void)
672 {
673         /*
674          * FIXME: Modify set_vga_bridge so it is less PCI centric!
675          * This function knows too much about PCI stuff, it should be just
676          * an iterator/visitor.
677          */
678
679         /* FIXME: Handle the VGA palette snooping. */
680         struct device *dev, *vga, *vga_onboard, *vga_first, *vga_last;
681         struct bus *bus;
682         bus = 0;
683         vga = 0;
684         vga_onboard = 0;
685         vga_first = 0;
686         vga_last = 0;
687         for (dev = all_devices; dev; dev = dev->next) {
688                 if (!dev->enabled)
689                         continue;
690                 if (((dev->class >> 16) == PCI_BASE_CLASS_DISPLAY) &&
691                     ((dev->class >> 8) != PCI_CLASS_DISPLAY_OTHER)) {
692                         if (!vga_first) {
693                                 if (dev->on_mainboard) {
694                                         vga_onboard = dev;
695                                 } else {
696                                         vga_first = dev;
697                                 }
698                         } else {
699                                 if (dev->on_mainboard) {
700                                         vga_onboard = dev;
701                                 } else {
702                                         vga_last = dev;
703                                 }
704                         }
705
706                         /* It isn't safe to enable other VGA cards. */
707                         dev->command &= ~(PCI_COMMAND_MEMORY | PCI_COMMAND_IO);
708                 }
709         }
710
711         vga = vga_last;
712
713         if (!vga) {
714                 vga = vga_first;
715         }
716 #if CONFIG_CONSOLE_VGA_ONBOARD_AT_FIRST == 1
717         if (vga_onboard)        // Will use on board VGA as pri.
718 #else
719         if (!vga)               // Will use last add on adapter as pri.
720 #endif
721         {
722                 vga = vga_onboard;
723         }
724
725         if (vga) {
726                 /* VGA is first add on card or the only onboard VGA. */
727                 printk_debug("Setting up VGA for %s\n", dev_path(vga));
728                 /* All legacy VGA cards have MEM & I/O space registers. */
729                 vga->command |= (PCI_COMMAND_MEMORY | PCI_COMMAND_IO);
730                 vga_pri = vga;
731                 bus = vga->bus;
732         }
733         /* Now walk up the bridges setting the VGA enable. */
734         while (bus) {
735                 printk_debug("Setting PCI_BRIDGE_CTL_VGA for bridge %s\n",
736                              dev_path(bus->dev));
737                 bus->bridge_ctrl |= PCI_BRIDGE_CTL_VGA;
738                 bus = (bus == bus->dev->bus) ? 0 : bus->dev->bus;
739         }
740 }
741
742 #endif
743
744 /**
745  * @brief  Assign the computed resources to the devices on the bus.
746  *
747  * @param bus Pointer to the structure for this bus
748  *
749  * Use the device specific set_resources method to store the computed
750  * resources to hardware. For bridge devices, the set_resources() method
751  * has to recurse into every down stream buses.
752  *
753  * Mutual recursion:
754  *      assign_resources() -> device_operation::set_resources()
755  *      device_operation::set_resources() -> assign_resources()
756  */
757 void assign_resources(struct bus *bus)
758 {
759         struct device *curdev;
760
761         printk_spew("%s assign_resources, bus %d link: %d\n",
762                     dev_path(bus->dev), bus->secondary, bus->link);
763
764         for (curdev = bus->children; curdev; curdev = curdev->sibling) {
765                 if (!curdev->enabled || !curdev->resources) {
766                         continue;
767                 }
768                 if (!curdev->ops || !curdev->ops->set_resources) {
769                         printk_err("%s missing set_resources\n",
770                                    dev_path(curdev));
771                         continue;
772                 }
773                 curdev->ops->set_resources(curdev);
774         }
775         printk_spew("%s assign_resources, bus %d link: %d\n",
776                     dev_path(bus->dev), bus->secondary, bus->link);
777 }
778
779 /**
780  * @brief Enable the resources for a specific device
781  *
782  * @param dev the device whose resources are to be enabled
783  *
784  * Enable resources of the device by calling the device specific
785  * enable_resources() method.
786  *
787  * The parent's resources should be enabled first to avoid having enabling
788  * order problem. This is done by calling the parent's enable_resources()
789  * method and let that method to call it's children's enable_resoruces()
790  * method via the (global) enable_childrens_resources().
791  *
792  * Indirect mutual recursion:
793  *      enable_resources() -> device_operations::enable_resource()
794  *      device_operations::enable_resource() -> enable_children_resources()
795  *      enable_children_resources() -> enable_resources()
796  */
797 void enable_resources(struct device *dev)
798 {
799         if (!dev->enabled) {
800                 return;
801         }
802         if (!dev->ops || !dev->ops->enable_resources) {
803                 printk_err("%s missing enable_resources\n", dev_path(dev));
804                 return;
805         }
806         dev->ops->enable_resources(dev);
807 }
808
809 /**
810  * @brief Reset all of the devices a bus
811  *
812  * Reset all of the devices on a bus and clear the bus's reset_needed flag.
813  *
814  * @param bus pointer to the bus structure
815  *
816  * @return 1 if the bus was successfully reset, 0 otherwise.
817  *
818  */
819 int reset_bus(struct bus *bus)
820 {
821         if (bus && bus->dev && bus->dev->ops && bus->dev->ops->reset_bus) {
822                 bus->dev->ops->reset_bus(bus);
823                 bus->reset_needed = 0;
824                 return 1;
825         }
826         return 0;
827 }
828
829 /**
830  * @brief Scan for devices on a bus.
831  *
832  * If there are bridges on the bus, recursively scan the buses behind the
833  * bridges. If the setting up and tuning of the bus causes a reset to be
834  * required, reset the bus and scan it again.
835  *
836  * @param busdev Pointer to the bus device.
837  * @param max Current bus number.
838  * @return The maximum bus number found, after scanning all subordinate buses.
839  */
840 unsigned int scan_bus(struct device *busdev, unsigned int max)
841 {
842         unsigned int new_max;
843         int do_scan_bus;
844         if (!busdev || !busdev->enabled || !busdev->ops ||
845             !busdev->ops->scan_bus) {
846                 return max;
847         }
848
849         do_scan_bus = 1;
850         while (do_scan_bus) {
851                 int link;
852                 new_max = busdev->ops->scan_bus(busdev, max);
853                 do_scan_bus = 0;
854                 for (link = 0; link < busdev->links; link++) {
855                         if (busdev->link[link].reset_needed) {
856                                 if (reset_bus(&busdev->link[link])) {
857                                         do_scan_bus = 1;
858                                 } else {
859                                         busdev->bus->reset_needed = 1;
860                                 }
861                         }
862                 }
863         }
864         return new_max;
865 }
866
867 /**
868  * @brief Determine the existence of devices and extend the device tree.
869  *
870  * Most of the devices in the system are listed in the mainboard Config.lb
871  * file. The device structures for these devices are generated at compile
872  * time by the config tool and are organized into the device tree. This
873  * function determines if the devices created at compile time actually exist
874  * in the physical system.
875  *
876  * For devices in the physical system but not listed in the Config.lb file,
877  * the device structures have to be created at run time and attached to the
878  * device tree.
879  *
880  * This function starts from the root device 'dev_root', scan the buses in
881  * the system recursively, modify the device tree according to the result of
882  * the probe.
883  *
884  * This function has no idea how to scan and probe buses and devices at all.
885  * It depends on the bus/device specific scan_bus() method to do it. The
886  * scan_bus() method also has to create the device structure and attach
887  * it to the device tree.
888  */
889 void dev_enumerate(void)
890 {
891         struct device *root;
892         printk_info("Enumerating buses...\n");
893         root = &dev_root;
894
895         show_all_devs(BIOS_SPEW, "Before Device Enumeration.");
896         printk_spew("Compare with tree...\n");
897         show_devs_tree(root, BIOS_SPEW, 0, 0);
898
899         if (root->chip_ops && root->chip_ops->enable_dev) {
900                 root->chip_ops->enable_dev(root);
901         }
902         if (!root->ops || !root->ops->scan_bus) {
903                 printk_err("dev_root missing scan_bus operation");
904                 return;
905         }
906         scan_bus(root, 0);
907         printk_info("done\n");
908 }
909
910 /**
911  * @brief Configure devices on the devices tree.
912  *
913  * Starting at the root of the device tree, travel it recursively in two
914  * passes. In the first pass, we compute and allocate resources (ranges)
915  * requried by each device. In the second pass, the resources ranges are
916  * relocated to their final position and stored to the hardware.
917  *
918  * I/O resources grow upward. MEM resources grow downward.
919  *
920  * Since the assignment is hierarchical we set the values into the dev_root
921  * struct.
922  */
923 void dev_configure(void)
924 {
925         struct resource *res;
926         struct device *root;
927         struct device *child;
928         int i;
929
930 #if CONFIG_VGA_BRIDGE_SETUP == 1
931         set_vga_bridge_bits();
932 #endif
933
934         printk_info("Allocating resources...\n");
935
936         root = &dev_root;
937
938         /* Each domain should create resources which contain the entire address
939          * space for IO, MEM, and PREFMEM resources in the domain. The
940          * allocation of device resources will be done from this address space.
941          */
942
943         /* Read the resources for the entire tree. */
944
945         printk_info("Reading resources...\n");
946         read_resources(&root->link[0]);
947         printk_info("Done reading resources.\n");
948
949         print_resource_tree(root, BIOS_SPEW, "After reading.");
950
951         /* Compute resources for all domains. */
952         for (child = root->link[0].children; child; child = child->sibling) {
953                 if (!(child->path.type == DEVICE_PATH_PCI_DOMAIN))
954                         continue;
955                 for (i = 0; i < child->resources; i++) {
956                         res = &child->resource[i];
957                         if (res->flags & IORESOURCE_FIXED)
958                                 continue;
959                         if (res->flags & IORESOURCE_PREFETCH) {
960                                 compute_resources(&child->link[0],
961                                                res, MEM_MASK, PREF_TYPE);
962                                 continue;
963                         }
964                         if (res->flags & IORESOURCE_MEM) {
965                                 compute_resources(&child->link[0],
966                                                res, MEM_MASK, MEM_TYPE);
967                                 continue;
968                         }
969                         if (res->flags & IORESOURCE_IO) {
970                                 compute_resources(&child->link[0],
971                                                res, IO_MASK, IO_TYPE);
972                                 continue;
973                         }
974                 }
975         }
976
977         /* For all domains. */
978         for (child = root->link[0].children; child; child=child->sibling)
979                 if (child->path.type == DEVICE_PATH_PCI_DOMAIN)
980                         avoid_fixed_resources(child);
981
982         /* Now we need to adjust the resources. MEM resources need to start at
983          * the highest address managable.
984          */
985         for (child = root->link[0].children; child; child = child->sibling) {
986                 if (child->path.type != DEVICE_PATH_PCI_DOMAIN)
987                         continue;
988                 for (i = 0; i < child->resources; i++) {
989                         res = &child->resource[i];
990                         if (!(res->flags & IORESOURCE_MEM) ||
991                             res->flags & IORESOURCE_FIXED)
992                                 continue;
993                         res->base = resource_max(res);
994                 }
995         }
996
997         /* Store the computed resource allocations into device registers ... */
998         printk_info("Setting resources...\n");
999         for (child = root->link[0].children; child; child = child->sibling) {
1000                 if (!(child->path.type == DEVICE_PATH_PCI_DOMAIN))
1001                         continue;
1002                 for (i = 0; i < child->resources; i++) {
1003                         res = &child->resource[i];
1004                         if (res->flags & IORESOURCE_FIXED)
1005                                 continue;
1006                         if (res->flags & IORESOURCE_PREFETCH) {
1007                                 allocate_resources(&child->link[0],
1008                                                res, MEM_MASK, PREF_TYPE);
1009                                 continue;
1010                         }
1011                         if (res->flags & IORESOURCE_MEM) {
1012                                 allocate_resources(&child->link[0],
1013                                                res, MEM_MASK, MEM_TYPE);
1014                                 continue;
1015                         }
1016                         if (res->flags & IORESOURCE_IO) {
1017                                 allocate_resources(&child->link[0],
1018                                                res, IO_MASK, IO_TYPE);
1019                                 continue;
1020                         }
1021                 }
1022         }
1023         assign_resources(&root->link[0]);
1024         printk_info("Done setting resources.\n");
1025         print_resource_tree(root, BIOS_SPEW, "After assigning values.");
1026
1027         printk_info("Done allocating resources.\n");
1028 }
1029
1030 /**
1031  * @brief Enable devices on the device tree.
1032  *
1033  * Starting at the root, walk the tree and enable all devices/bridges by
1034  * calling the device's enable_resources() method.
1035  */
1036 void dev_enable(void)
1037 {
1038         printk_info("Enabling resources...\n");
1039
1040         /* now enable everything. */
1041         enable_resources(&dev_root);
1042
1043         printk_info("done.\n");
1044 }
1045
1046 /**
1047  * @brief Initialize all devices in the global device list.
1048  *
1049  * Starting at the first device on the global device link list,
1050  * walk the list and call the device's init() method to do deivce
1051  * specific setup.
1052  */
1053 void dev_initialize(void)
1054 {
1055         struct device *dev;
1056
1057         printk_info("Initializing devices...\n");
1058         for (dev = all_devices; dev; dev = dev->next) {
1059                 if (dev->enabled && !dev->initialized &&
1060                     dev->ops && dev->ops->init) {
1061                         if (dev->path.type == DEVICE_PATH_I2C) {
1062                                 printk_debug("smbus: %s[%d]->",
1063                                              dev_path(dev->bus->dev),
1064                                              dev->bus->link);
1065                         }
1066                         printk_debug("%s init\n", dev_path(dev));
1067                         dev->initialized = 1;
1068                         dev->ops->init(dev);
1069                 }
1070         }
1071         printk_info("Devices initialized\n");
1072         show_all_devs(BIOS_SPEW, "After init.");
1073 }