firewire: core: add forgotten dummy driver methods, remove unused ones
[linux-2.6.git] / drivers / firewire / core-card.c
1 /*
2  * Copyright (C) 2005-2007  Kristian Hoegsberg <krh@bitplanet.net>
3  *
4  * This program is free software; you can redistribute it and/or modify
5  * it under the terms of the GNU General Public License as published by
6  * the Free Software Foundation; either version 2 of the License, or
7  * (at your option) any later version.
8  *
9  * This program is distributed in the hope that it will be useful,
10  * but WITHOUT ANY WARRANTY; without even the implied warranty of
11  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12  * GNU General Public License for more details.
13  *
14  * You should have received a copy of the GNU General Public License
15  * along with this program; if not, write to the Free Software Foundation,
16  * Inc., 59 Temple Place - Suite 330, Boston, MA 02111-1307, USA.
17  */
18
19 #include <linux/bug.h>
20 #include <linux/completion.h>
21 #include <linux/crc-itu-t.h>
22 #include <linux/device.h>
23 #include <linux/errno.h>
24 #include <linux/firewire.h>
25 #include <linux/firewire-constants.h>
26 #include <linux/jiffies.h>
27 #include <linux/kernel.h>
28 #include <linux/kref.h>
29 #include <linux/list.h>
30 #include <linux/module.h>
31 #include <linux/mutex.h>
32 #include <linux/spinlock.h>
33 #include <linux/workqueue.h>
34
35 #include <asm/atomic.h>
36 #include <asm/byteorder.h>
37
38 #include "core.h"
39
40 int fw_compute_block_crc(__be32 *block)
41 {
42         int length;
43         u16 crc;
44
45         length = (be32_to_cpu(block[0]) >> 16) & 0xff;
46         crc = crc_itu_t(0, (u8 *)&block[1], length * 4);
47         *block |= cpu_to_be32(crc);
48
49         return length;
50 }
51
52 static DEFINE_MUTEX(card_mutex);
53 static LIST_HEAD(card_list);
54
55 static LIST_HEAD(descriptor_list);
56 static int descriptor_count;
57
58 static __be32 tmp_config_rom[256];
59 /* ROM header, bus info block, root dir header, capabilities = 7 quadlets */
60 static size_t config_rom_length = 1 + 4 + 1 + 1;
61
62 #define BIB_CRC(v)              ((v) <<  0)
63 #define BIB_CRC_LENGTH(v)       ((v) << 16)
64 #define BIB_INFO_LENGTH(v)      ((v) << 24)
65 #define BIB_BUS_NAME            0x31333934 /* "1394" */
66 #define BIB_LINK_SPEED(v)       ((v) <<  0)
67 #define BIB_GENERATION(v)       ((v) <<  4)
68 #define BIB_MAX_ROM(v)          ((v) <<  8)
69 #define BIB_MAX_RECEIVE(v)      ((v) << 12)
70 #define BIB_CYC_CLK_ACC(v)      ((v) << 16)
71 #define BIB_PMC                 ((1) << 27)
72 #define BIB_BMC                 ((1) << 28)
73 #define BIB_ISC                 ((1) << 29)
74 #define BIB_CMC                 ((1) << 30)
75 #define BIB_IRMC                ((1) << 31)
76 #define NODE_CAPABILITIES       0x0c0083c0 /* per IEEE 1394 clause 8.3.2.6.5.2 */
77
78 static void generate_config_rom(struct fw_card *card, __be32 *config_rom)
79 {
80         struct fw_descriptor *desc;
81         int i, j, k, length;
82
83         /*
84          * Initialize contents of config rom buffer.  On the OHCI
85          * controller, block reads to the config rom accesses the host
86          * memory, but quadlet read access the hardware bus info block
87          * registers.  That's just crack, but it means we should make
88          * sure the contents of bus info block in host memory matches
89          * the version stored in the OHCI registers.
90          */
91
92         config_rom[0] = cpu_to_be32(
93                 BIB_CRC_LENGTH(4) | BIB_INFO_LENGTH(4) | BIB_CRC(0));
94         config_rom[1] = cpu_to_be32(BIB_BUS_NAME);
95         config_rom[2] = cpu_to_be32(
96                 BIB_LINK_SPEED(card->link_speed) |
97                 BIB_GENERATION(card->config_rom_generation++ % 14 + 2) |
98                 BIB_MAX_ROM(2) |
99                 BIB_MAX_RECEIVE(card->max_receive) |
100                 BIB_BMC | BIB_ISC | BIB_CMC | BIB_IRMC);
101         config_rom[3] = cpu_to_be32(card->guid >> 32);
102         config_rom[4] = cpu_to_be32(card->guid);
103
104         /* Generate root directory. */
105         config_rom[6] = cpu_to_be32(NODE_CAPABILITIES);
106         i = 7;
107         j = 7 + descriptor_count;
108
109         /* Generate root directory entries for descriptors. */
110         list_for_each_entry (desc, &descriptor_list, link) {
111                 if (desc->immediate > 0)
112                         config_rom[i++] = cpu_to_be32(desc->immediate);
113                 config_rom[i] = cpu_to_be32(desc->key | (j - i));
114                 i++;
115                 j += desc->length;
116         }
117
118         /* Update root directory length. */
119         config_rom[5] = cpu_to_be32((i - 5 - 1) << 16);
120
121         /* End of root directory, now copy in descriptors. */
122         list_for_each_entry (desc, &descriptor_list, link) {
123                 for (k = 0; k < desc->length; k++)
124                         config_rom[i + k] = cpu_to_be32(desc->data[k]);
125                 i += desc->length;
126         }
127
128         /* Calculate CRCs for all blocks in the config rom.  This
129          * assumes that CRC length and info length are identical for
130          * the bus info block, which is always the case for this
131          * implementation. */
132         for (i = 0; i < j; i += length + 1)
133                 length = fw_compute_block_crc(config_rom + i);
134
135         WARN_ON(j != config_rom_length);
136 }
137
138 static void update_config_roms(void)
139 {
140         struct fw_card *card;
141
142         list_for_each_entry (card, &card_list, link) {
143                 generate_config_rom(card, tmp_config_rom);
144                 card->driver->set_config_rom(card, tmp_config_rom,
145                                              config_rom_length);
146         }
147 }
148
149 static size_t required_space(struct fw_descriptor *desc)
150 {
151         /* descriptor + entry into root dir + optional immediate entry */
152         return desc->length + 1 + (desc->immediate > 0 ? 1 : 0);
153 }
154
155 int fw_core_add_descriptor(struct fw_descriptor *desc)
156 {
157         size_t i;
158         int ret;
159
160         /*
161          * Check descriptor is valid; the length of all blocks in the
162          * descriptor has to add up to exactly the length of the
163          * block.
164          */
165         i = 0;
166         while (i < desc->length)
167                 i += (desc->data[i] >> 16) + 1;
168
169         if (i != desc->length)
170                 return -EINVAL;
171
172         mutex_lock(&card_mutex);
173
174         if (config_rom_length + required_space(desc) > 256) {
175                 ret = -EBUSY;
176         } else {
177                 list_add_tail(&desc->link, &descriptor_list);
178                 config_rom_length += required_space(desc);
179                 descriptor_count++;
180                 if (desc->immediate > 0)
181                         descriptor_count++;
182                 update_config_roms();
183                 ret = 0;
184         }
185
186         mutex_unlock(&card_mutex);
187
188         return ret;
189 }
190 EXPORT_SYMBOL(fw_core_add_descriptor);
191
192 void fw_core_remove_descriptor(struct fw_descriptor *desc)
193 {
194         mutex_lock(&card_mutex);
195
196         list_del(&desc->link);
197         config_rom_length -= required_space(desc);
198         descriptor_count--;
199         if (desc->immediate > 0)
200                 descriptor_count--;
201         update_config_roms();
202
203         mutex_unlock(&card_mutex);
204 }
205 EXPORT_SYMBOL(fw_core_remove_descriptor);
206
207 static int reset_bus(struct fw_card *card, bool short_reset)
208 {
209         int reg = short_reset ? 5 : 1;
210         int bit = short_reset ? PHY_BUS_SHORT_RESET : PHY_BUS_RESET;
211
212         return card->driver->update_phy_reg(card, reg, 0, bit);
213 }
214
215 void fw_schedule_bus_reset(struct fw_card *card, bool delayed, bool short_reset)
216 {
217         /* We don't try hard to sort out requests of long vs. short resets. */
218         card->br_short = short_reset;
219
220         /* Use an arbitrary short delay to combine multiple reset requests. */
221         fw_card_get(card);
222         if (!schedule_delayed_work(&card->br_work,
223                                    delayed ? DIV_ROUND_UP(HZ, 100) : 0))
224                 fw_card_put(card);
225 }
226 EXPORT_SYMBOL(fw_schedule_bus_reset);
227
228 static void br_work(struct work_struct *work)
229 {
230         struct fw_card *card = container_of(work, struct fw_card, br_work.work);
231
232         /* Delay for 2s after last reset per IEEE 1394 clause 8.2.1. */
233         if (card->reset_jiffies != 0 &&
234             time_is_after_jiffies(card->reset_jiffies + 2 * HZ)) {
235                 if (!schedule_delayed_work(&card->br_work, 2 * HZ))
236                         fw_card_put(card);
237                 return;
238         }
239
240         fw_send_phy_config(card, FW_PHY_CONFIG_NO_NODE_ID, card->generation,
241                            FW_PHY_CONFIG_CURRENT_GAP_COUNT);
242         reset_bus(card, card->br_short);
243         fw_card_put(card);
244 }
245
246 static void allocate_broadcast_channel(struct fw_card *card, int generation)
247 {
248         int channel, bandwidth = 0;
249
250         if (!card->broadcast_channel_allocated) {
251                 fw_iso_resource_manage(card, generation, 1ULL << 31,
252                                        &channel, &bandwidth, true,
253                                        card->bm_transaction_data);
254                 if (channel != 31) {
255                         fw_notify("failed to allocate broadcast channel\n");
256                         return;
257                 }
258                 card->broadcast_channel_allocated = true;
259         }
260
261         device_for_each_child(card->device, (void *)(long)generation,
262                               fw_device_set_broadcast_channel);
263 }
264
265 static const char gap_count_table[] = {
266         63, 5, 7, 8, 10, 13, 16, 18, 21, 24, 26, 29, 32, 35, 37, 40
267 };
268
269 void fw_schedule_bm_work(struct fw_card *card, unsigned long delay)
270 {
271         fw_card_get(card);
272         if (!schedule_delayed_work(&card->bm_work, delay))
273                 fw_card_put(card);
274 }
275
276 static void bm_work(struct work_struct *work)
277 {
278         struct fw_card *card = container_of(work, struct fw_card, bm_work.work);
279         struct fw_device *root_device;
280         struct fw_node *root_node;
281         int root_id, new_root_id, irm_id, bm_id, local_id;
282         int gap_count, generation, grace, rcode;
283         bool do_reset = false;
284         bool root_device_is_running;
285         bool root_device_is_cmc;
286
287         spin_lock_irq(&card->lock);
288
289         if (card->local_node == NULL) {
290                 spin_unlock_irq(&card->lock);
291                 goto out_put_card;
292         }
293
294         generation = card->generation;
295         root_node = card->root_node;
296         fw_node_get(root_node);
297         root_device = root_node->data;
298         root_device_is_running = root_device &&
299                         atomic_read(&root_device->state) == FW_DEVICE_RUNNING;
300         root_device_is_cmc = root_device && root_device->cmc;
301         root_id  = root_node->node_id;
302         irm_id   = card->irm_node->node_id;
303         local_id = card->local_node->node_id;
304
305         grace = time_after(jiffies, card->reset_jiffies + DIV_ROUND_UP(HZ, 8));
306
307         if ((is_next_generation(generation, card->bm_generation) &&
308              !card->bm_abdicate) ||
309             (card->bm_generation != generation && grace)) {
310                 /*
311                  * This first step is to figure out who is IRM and
312                  * then try to become bus manager.  If the IRM is not
313                  * well defined (e.g. does not have an active link
314                  * layer or does not responds to our lock request, we
315                  * will have to do a little vigilante bus management.
316                  * In that case, we do a goto into the gap count logic
317                  * so that when we do the reset, we still optimize the
318                  * gap count.  That could well save a reset in the
319                  * next generation.
320                  */
321
322                 if (!card->irm_node->link_on) {
323                         new_root_id = local_id;
324                         fw_notify("IRM has link off, making local node (%02x) root.\n",
325                                   new_root_id);
326                         goto pick_me;
327                 }
328
329                 card->bm_transaction_data[0] = cpu_to_be32(0x3f);
330                 card->bm_transaction_data[1] = cpu_to_be32(local_id);
331
332                 spin_unlock_irq(&card->lock);
333
334                 rcode = fw_run_transaction(card, TCODE_LOCK_COMPARE_SWAP,
335                                 irm_id, generation, SCODE_100,
336                                 CSR_REGISTER_BASE + CSR_BUS_MANAGER_ID,
337                                 card->bm_transaction_data, 8);
338
339                 if (rcode == RCODE_GENERATION)
340                         /* Another bus reset, BM work has been rescheduled. */
341                         goto out;
342
343                 bm_id = be32_to_cpu(card->bm_transaction_data[0]);
344
345                 spin_lock_irq(&card->lock);
346                 if (rcode == RCODE_COMPLETE && generation == card->generation)
347                         card->bm_node_id =
348                             bm_id == 0x3f ? local_id : 0xffc0 | bm_id;
349                 spin_unlock_irq(&card->lock);
350
351                 if (rcode == RCODE_COMPLETE && bm_id != 0x3f) {
352                         /* Somebody else is BM.  Only act as IRM. */
353                         if (local_id == irm_id)
354                                 allocate_broadcast_channel(card, generation);
355
356                         goto out;
357                 }
358
359                 if (rcode == RCODE_SEND_ERROR) {
360                         /*
361                          * We have been unable to send the lock request due to
362                          * some local problem.  Let's try again later and hope
363                          * that the problem has gone away by then.
364                          */
365                         fw_schedule_bm_work(card, DIV_ROUND_UP(HZ, 8));
366                         goto out;
367                 }
368
369                 spin_lock_irq(&card->lock);
370
371                 if (rcode != RCODE_COMPLETE) {
372                         /*
373                          * The lock request failed, maybe the IRM
374                          * isn't really IRM capable after all. Let's
375                          * do a bus reset and pick the local node as
376                          * root, and thus, IRM.
377                          */
378                         new_root_id = local_id;
379                         fw_notify("BM lock failed, making local node (%02x) root.\n",
380                                   new_root_id);
381                         goto pick_me;
382                 }
383         } else if (card->bm_generation != generation) {
384                 /*
385                  * We weren't BM in the last generation, and the last
386                  * bus reset is less than 125ms ago.  Reschedule this job.
387                  */
388                 spin_unlock_irq(&card->lock);
389                 fw_schedule_bm_work(card, DIV_ROUND_UP(HZ, 8));
390                 goto out;
391         }
392
393         /*
394          * We're bus manager for this generation, so next step is to
395          * make sure we have an active cycle master and do gap count
396          * optimization.
397          */
398         card->bm_generation = generation;
399
400         if (root_device == NULL) {
401                 /*
402                  * Either link_on is false, or we failed to read the
403                  * config rom.  In either case, pick another root.
404                  */
405                 new_root_id = local_id;
406         } else if (!root_device_is_running) {
407                 /*
408                  * If we haven't probed this device yet, bail out now
409                  * and let's try again once that's done.
410                  */
411                 spin_unlock_irq(&card->lock);
412                 goto out;
413         } else if (root_device_is_cmc) {
414                 /*
415                  * We will send out a force root packet for this
416                  * node as part of the gap count optimization.
417                  */
418                 new_root_id = root_id;
419         } else {
420                 /*
421                  * Current root has an active link layer and we
422                  * successfully read the config rom, but it's not
423                  * cycle master capable.
424                  */
425                 new_root_id = local_id;
426         }
427
428  pick_me:
429         /*
430          * Pick a gap count from 1394a table E-1.  The table doesn't cover
431          * the typically much larger 1394b beta repeater delays though.
432          */
433         if (!card->beta_repeaters_present &&
434             root_node->max_hops < ARRAY_SIZE(gap_count_table))
435                 gap_count = gap_count_table[root_node->max_hops];
436         else
437                 gap_count = 63;
438
439         /*
440          * Finally, figure out if we should do a reset or not.  If we have
441          * done less than 5 resets with the same physical topology and we
442          * have either a new root or a new gap count setting, let's do it.
443          */
444
445         if (card->bm_retries++ < 5 &&
446             (card->gap_count != gap_count || new_root_id != root_id))
447                 do_reset = true;
448
449         spin_unlock_irq(&card->lock);
450
451         if (do_reset) {
452                 fw_notify("phy config: card %d, new root=%x, gap_count=%d\n",
453                           card->index, new_root_id, gap_count);
454                 fw_send_phy_config(card, new_root_id, generation, gap_count);
455                 reset_bus(card, true);
456                 /* Will allocate broadcast channel after the reset. */
457                 goto out;
458         }
459
460         if (root_device_is_cmc) {
461                 /*
462                  * Make sure that the cycle master sends cycle start packets.
463                  */
464                 card->bm_transaction_data[0] = cpu_to_be32(CSR_STATE_BIT_CMSTR);
465                 rcode = fw_run_transaction(card, TCODE_WRITE_QUADLET_REQUEST,
466                                 root_id, generation, SCODE_100,
467                                 CSR_REGISTER_BASE + CSR_STATE_SET,
468                                 card->bm_transaction_data, 4);
469                 if (rcode == RCODE_GENERATION)
470                         goto out;
471         }
472
473         if (local_id == irm_id)
474                 allocate_broadcast_channel(card, generation);
475
476  out:
477         fw_node_put(root_node);
478  out_put_card:
479         fw_card_put(card);
480 }
481
482 void fw_card_initialize(struct fw_card *card,
483                         const struct fw_card_driver *driver,
484                         struct device *device)
485 {
486         static atomic_t index = ATOMIC_INIT(-1);
487
488         card->index = atomic_inc_return(&index);
489         card->driver = driver;
490         card->device = device;
491         card->current_tlabel = 0;
492         card->tlabel_mask = 0;
493         card->split_timeout_hi = 0;
494         card->split_timeout_lo = 800 << 19;
495         card->split_timeout_cycles = 800;
496         card->split_timeout_jiffies = DIV_ROUND_UP(HZ, 10);
497         card->color = 0;
498         card->broadcast_channel = BROADCAST_CHANNEL_INITIAL;
499
500         kref_init(&card->kref);
501         init_completion(&card->done);
502         INIT_LIST_HEAD(&card->transaction_list);
503         INIT_LIST_HEAD(&card->phy_receiver_list);
504         spin_lock_init(&card->lock);
505
506         card->local_node = NULL;
507
508         INIT_DELAYED_WORK(&card->br_work, br_work);
509         INIT_DELAYED_WORK(&card->bm_work, bm_work);
510 }
511 EXPORT_SYMBOL(fw_card_initialize);
512
513 int fw_card_add(struct fw_card *card,
514                 u32 max_receive, u32 link_speed, u64 guid)
515 {
516         int ret;
517
518         card->max_receive = max_receive;
519         card->link_speed = link_speed;
520         card->guid = guid;
521
522         mutex_lock(&card_mutex);
523
524         generate_config_rom(card, tmp_config_rom);
525         ret = card->driver->enable(card, tmp_config_rom, config_rom_length);
526         if (ret == 0)
527                 list_add_tail(&card->link, &card_list);
528
529         mutex_unlock(&card_mutex);
530
531         return ret;
532 }
533 EXPORT_SYMBOL(fw_card_add);
534
535 /*
536  * The next few functions implement a dummy driver that is used once a card
537  * driver shuts down an fw_card.  This allows the driver to cleanly unload,
538  * as all IO to the card will be handled (and failed) by the dummy driver
539  * instead of calling into the module.  Only functions for iso context
540  * shutdown still need to be provided by the card driver.
541  *
542  * .read/write_csr() should never be called anymore after the dummy driver
543  * was bound since they are only used within request handler context.
544  * .set_config_rom() is never called since the card is taken out of card_list
545  * before switching to the dummy driver.
546  */
547
548 static int dummy_read_phy_reg(struct fw_card *card, int address)
549 {
550         return -ENODEV;
551 }
552
553 static int dummy_update_phy_reg(struct fw_card *card, int address,
554                                 int clear_bits, int set_bits)
555 {
556         return -ENODEV;
557 }
558
559 static void dummy_send_request(struct fw_card *card, struct fw_packet *packet)
560 {
561         packet->callback(packet, card, RCODE_CANCELLED);
562 }
563
564 static void dummy_send_response(struct fw_card *card, struct fw_packet *packet)
565 {
566         packet->callback(packet, card, RCODE_CANCELLED);
567 }
568
569 static int dummy_cancel_packet(struct fw_card *card, struct fw_packet *packet)
570 {
571         return -ENOENT;
572 }
573
574 static int dummy_enable_phys_dma(struct fw_card *card,
575                                  int node_id, int generation)
576 {
577         return -ENODEV;
578 }
579
580 static struct fw_iso_context *dummy_allocate_iso_context(struct fw_card *card,
581                                 int type, int channel, size_t header_size)
582 {
583         return ERR_PTR(-ENODEV);
584 }
585
586 static int dummy_start_iso(struct fw_iso_context *ctx,
587                            s32 cycle, u32 sync, u32 tags)
588 {
589         return -ENODEV;
590 }
591
592 static int dummy_set_iso_channels(struct fw_iso_context *ctx, u64 *channels)
593 {
594         return -ENODEV;
595 }
596
597 static int dummy_queue_iso(struct fw_iso_context *ctx, struct fw_iso_packet *p,
598                            struct fw_iso_buffer *buffer, unsigned long payload)
599 {
600         return -ENODEV;
601 }
602
603 static const struct fw_card_driver dummy_driver_template = {
604         .read_phy_reg           = dummy_read_phy_reg,
605         .update_phy_reg         = dummy_update_phy_reg,
606         .send_request           = dummy_send_request,
607         .send_response          = dummy_send_response,
608         .cancel_packet          = dummy_cancel_packet,
609         .enable_phys_dma        = dummy_enable_phys_dma,
610         .allocate_iso_context   = dummy_allocate_iso_context,
611         .start_iso              = dummy_start_iso,
612         .set_iso_channels       = dummy_set_iso_channels,
613         .queue_iso              = dummy_queue_iso,
614 };
615
616 void fw_card_release(struct kref *kref)
617 {
618         struct fw_card *card = container_of(kref, struct fw_card, kref);
619
620         complete(&card->done);
621 }
622
623 void fw_core_remove_card(struct fw_card *card)
624 {
625         struct fw_card_driver dummy_driver = dummy_driver_template;
626
627         card->driver->update_phy_reg(card, 4,
628                                      PHY_LINK_ACTIVE | PHY_CONTENDER, 0);
629         fw_schedule_bus_reset(card, false, true);
630
631         mutex_lock(&card_mutex);
632         list_del_init(&card->link);
633         mutex_unlock(&card_mutex);
634
635         /* Switch off most of the card driver interface. */
636         dummy_driver.free_iso_context   = card->driver->free_iso_context;
637         dummy_driver.stop_iso           = card->driver->stop_iso;
638         card->driver = &dummy_driver;
639
640         fw_destroy_nodes(card);
641
642         /* Wait for all users, especially device workqueue jobs, to finish. */
643         fw_card_put(card);
644         wait_for_completion(&card->done);
645
646         WARN_ON(!list_empty(&card->transaction_list));
647 }
648 EXPORT_SYMBOL(fw_core_remove_card);