[PATCH] fix NMI lockup with CFQ scheduler
[linux-2.6.git] / include / scsi / scsi_device.h
1 #ifndef _SCSI_SCSI_DEVICE_H
2 #define _SCSI_SCSI_DEVICE_H
3
4 #include <linux/device.h>
5 #include <linux/list.h>
6 #include <linux/spinlock.h>
7 #include <asm/atomic.h>
8
9 struct request_queue;
10 struct scsi_cmnd;
11 struct scsi_mode_data;
12
13
14 /*
15  * sdev state: If you alter this, you also need to alter scsi_sysfs.c
16  * (for the ascii descriptions) and the state model enforcer:
17  * scsi_lib:scsi_device_set_state().
18  */
19 enum scsi_device_state {
20         SDEV_CREATED = 1,       /* device created but not added to sysfs
21                                  * Only internal commands allowed (for inq) */
22         SDEV_RUNNING,           /* device properly configured
23                                  * All commands allowed */
24         SDEV_CANCEL,            /* beginning to delete device
25                                  * Only error handler commands allowed */
26         SDEV_DEL,               /* device deleted 
27                                  * no commands allowed */
28         SDEV_QUIESCE,           /* Device quiescent.  No block commands
29                                  * will be accepted, only specials (which
30                                  * originate in the mid-layer) */
31         SDEV_OFFLINE,           /* Device offlined (by error handling or
32                                  * user request */
33         SDEV_BLOCK,             /* Device blocked by scsi lld.  No scsi 
34                                  * commands from user or midlayer should be issued
35                                  * to the scsi lld. */
36 };
37
38 struct scsi_device {
39         struct Scsi_Host *host;
40         struct request_queue *request_queue;
41
42         /* the next two are protected by the host->host_lock */
43         struct list_head    siblings;   /* list of all devices on this host */
44         struct list_head    same_target_siblings; /* just the devices sharing same target id */
45
46         volatile unsigned short device_busy;    /* commands actually active on low-level */
47         spinlock_t list_lock;
48         struct list_head cmd_list;      /* queue of in use SCSI Command structures */
49         struct list_head starved_entry;
50         struct scsi_cmnd *current_cmnd; /* currently active command */
51         unsigned short queue_depth;     /* How deep of a queue we want */
52         unsigned short last_queue_full_depth; /* These two are used by */
53         unsigned short last_queue_full_count; /* scsi_track_queue_full() */
54         unsigned long last_queue_full_time;/* don't let QUEUE_FULLs on the same
55                                            jiffie count on our counter, they
56                                            could all be from the same event. */
57
58         unsigned int id, lun, channel;
59
60         unsigned int manufacturer;      /* Manufacturer of device, for using 
61                                          * vendor-specific cmd's */
62         unsigned sector_size;   /* size in bytes */
63
64         void *hostdata;         /* available to low-level driver */
65         char devfs_name[256];   /* devfs junk */
66         char type;
67         char scsi_level;
68         char inq_periph_qual;   /* PQ from INQUIRY data */      
69         unsigned char inquiry_len;      /* valid bytes in 'inquiry' */
70         unsigned char * inquiry;        /* INQUIRY response data */
71         char * vendor;          /* [back_compat] point into 'inquiry' ... */
72         char * model;           /* ... after scan; point to static string */
73         char * rev;             /* ... "nullnullnullnull" before scan */
74         unsigned char current_tag;      /* current tag */
75         struct scsi_target      *sdev_target;   /* used only for single_lun */
76
77         unsigned int    sdev_bflags; /* black/white flags as also found in
78                                  * scsi_devinfo.[hc]. For now used only to
79                                  * pass settings from slave_alloc to scsi
80                                  * core. */
81         unsigned writeable:1;
82         unsigned removable:1;
83         unsigned changed:1;     /* Data invalid due to media change */
84         unsigned busy:1;        /* Used to prevent races */
85         unsigned lockable:1;    /* Able to prevent media removal */
86         unsigned locked:1;      /* Media removal disabled */
87         unsigned borken:1;      /* Tell the Seagate driver to be 
88                                  * painfully slow on this device */
89         unsigned disconnect:1;  /* can disconnect */
90         unsigned soft_reset:1;  /* Uses soft reset option */
91         unsigned sdtr:1;        /* Device supports SDTR messages */
92         unsigned wdtr:1;        /* Device supports WDTR messages */
93         unsigned ppr:1;         /* Device supports PPR messages */
94         unsigned tagged_supported:1;    /* Supports SCSI-II tagged queuing */
95         unsigned simple_tags:1; /* simple queue tag messages are enabled */
96         unsigned ordered_tags:1;/* ordered queue tag messages are enabled */
97         unsigned single_lun:1;  /* Indicates we should only allow I/O to
98                                  * one of the luns for the device at a 
99                                  * time. */
100         unsigned was_reset:1;   /* There was a bus reset on the bus for 
101                                  * this device */
102         unsigned expecting_cc_ua:1; /* Expecting a CHECK_CONDITION/UNIT_ATTN
103                                      * because we did a bus reset. */
104         unsigned use_10_for_rw:1; /* first try 10-byte read / write */
105         unsigned use_10_for_ms:1; /* first try 10-byte mode sense/select */
106         unsigned skip_ms_page_8:1;      /* do not use MODE SENSE page 0x08 */
107         unsigned skip_ms_page_3f:1;     /* do not use MODE SENSE page 0x3f */
108         unsigned use_192_bytes_for_3f:1; /* ask for 192 bytes from page 0x3f */
109         unsigned no_start_on_add:1;     /* do not issue start on add */
110         unsigned allow_restart:1; /* issue START_UNIT in error handler */
111         unsigned no_uld_attach:1; /* disable connecting to upper level drivers */
112         unsigned select_no_atn:1;
113         unsigned fix_capacity:1;        /* READ_CAPACITY is too high by 1 */
114         unsigned retry_hwerror:1;       /* Retry HARDWARE_ERROR */
115
116         unsigned int device_blocked;    /* Device returned QUEUE_FULL. */
117
118         unsigned int max_device_blocked; /* what device_blocked counts down from  */
119 #define SCSI_DEFAULT_DEVICE_BLOCKED     3
120
121         atomic_t iorequest_cnt;
122         atomic_t iodone_cnt;
123         atomic_t ioerr_cnt;
124
125         int timeout;
126
127         struct device           sdev_gendev;
128         struct class_device     sdev_classdev;
129
130         enum scsi_device_state sdev_state;
131         unsigned long           sdev_data[0];
132 } __attribute__((aligned(sizeof(unsigned long))));
133 #define to_scsi_device(d)       \
134         container_of(d, struct scsi_device, sdev_gendev)
135 #define class_to_sdev(d)        \
136         container_of(d, struct scsi_device, sdev_classdev)
137 #define transport_class_to_sdev(class_dev) \
138         to_scsi_device(class_dev->dev)
139
140 /*
141  * scsi_target: representation of a scsi target, for now, this is only
142  * used for single_lun devices. If no one has active IO to the target,
143  * starget_sdev_user is NULL, else it points to the active sdev.
144  */
145 struct scsi_target {
146         struct scsi_device      *starget_sdev_user;
147         struct list_head        siblings;
148         struct list_head        devices;
149         struct device           dev;
150         unsigned int            reap_ref; /* protected by the host lock */
151         unsigned int            channel;
152         unsigned int            id; /* target id ... replace
153                                      * scsi_device.id eventually */
154         unsigned long           create:1; /* signal that it needs to be added */
155         unsigned long           starget_data[0];
156 } __attribute__((aligned(sizeof(unsigned long))));
157
158 #define to_scsi_target(d)       container_of(d, struct scsi_target, dev)
159 static inline struct scsi_target *scsi_target(struct scsi_device *sdev)
160 {
161         return to_scsi_target(sdev->sdev_gendev.parent);
162 }
163 #define transport_class_to_starget(class_dev) \
164         to_scsi_target(class_dev->dev)
165
166 extern struct scsi_device *__scsi_add_device(struct Scsi_Host *,
167                 uint, uint, uint, void *hostdata);
168 #define scsi_add_device(host, channel, target, lun) \
169         __scsi_add_device(host, channel, target, lun, NULL)
170 extern void scsi_remove_device(struct scsi_device *);
171 extern int scsi_device_cancel(struct scsi_device *, int);
172
173 extern int scsi_device_get(struct scsi_device *);
174 extern void scsi_device_put(struct scsi_device *);
175 extern struct scsi_device *scsi_device_lookup(struct Scsi_Host *,
176                                               uint, uint, uint);
177 extern struct scsi_device *__scsi_device_lookup(struct Scsi_Host *,
178                                                 uint, uint, uint);
179 extern struct scsi_device *scsi_device_lookup_by_target(struct scsi_target *,
180                                                         uint);
181 extern struct scsi_device *__scsi_device_lookup_by_target(struct scsi_target *,
182                                                           uint);
183 extern void starget_for_each_device(struct scsi_target *, void *,
184                      void (*fn)(struct scsi_device *, void *));
185
186 /* only exposed to implement shost_for_each_device */
187 extern struct scsi_device *__scsi_iterate_devices(struct Scsi_Host *,
188                                                   struct scsi_device *);
189
190 /**
191  * shost_for_each_device  -  iterate over all devices of a host
192  * @sdev:       iterator
193  * @host:       host whiches devices we want to iterate over
194  *
195  * This traverses over each devices of @shost.  The devices have
196  * a reference that must be released by scsi_host_put when breaking
197  * out of the loop.
198  */
199 #define shost_for_each_device(sdev, shost) \
200         for ((sdev) = __scsi_iterate_devices((shost), NULL); \
201              (sdev); \
202              (sdev) = __scsi_iterate_devices((shost), (sdev)))
203
204 /**
205  * __shost_for_each_device  -  iterate over all devices of a host (UNLOCKED)
206  * @sdev:       iterator
207  * @host:       host whiches devices we want to iterate over
208  *
209  * This traverses over each devices of @shost.  It does _not_ take a
210  * reference on the scsi_device, thus it the whole loop must be protected
211  * by shost->host_lock.
212  *
213  * Note:  The only reason why drivers would want to use this is because
214  * they're need to access the device list in irq context.  Otherwise you
215  * really want to use shost_for_each_device instead.
216  */
217 #define __shost_for_each_device(sdev, shost) \
218         list_for_each_entry((sdev), &((shost)->__devices), siblings)
219
220 extern void scsi_adjust_queue_depth(struct scsi_device *, int, int);
221 extern int scsi_track_queue_full(struct scsi_device *, int);
222
223 extern int scsi_set_medium_removal(struct scsi_device *, char);
224
225 extern int scsi_mode_sense(struct scsi_device *sdev, int dbd, int modepage,
226                            unsigned char *buffer, int len, int timeout,
227                            int retries, struct scsi_mode_data *data);
228 extern int scsi_test_unit_ready(struct scsi_device *sdev, int timeout,
229                                 int retries);
230 extern int scsi_device_set_state(struct scsi_device *sdev,
231                                  enum scsi_device_state state);
232 extern int scsi_device_quiesce(struct scsi_device *sdev);
233 extern void scsi_device_resume(struct scsi_device *sdev);
234 extern void scsi_target_quiesce(struct scsi_target *);
235 extern void scsi_target_resume(struct scsi_target *);
236 extern void scsi_scan_target(struct device *parent, unsigned int channel,
237                              unsigned int id, unsigned int lun, int rescan);
238 extern void scsi_target_reap(struct scsi_target *);
239 extern void scsi_target_block(struct device *);
240 extern void scsi_target_unblock(struct device *);
241 extern void scsi_remove_target(struct device *);
242 extern const char *scsi_device_state_name(enum scsi_device_state);
243 extern int scsi_is_sdev_device(const struct device *);
244 extern int scsi_is_target_device(const struct device *);
245 static inline int scsi_device_online(struct scsi_device *sdev)
246 {
247         return sdev->sdev_state != SDEV_OFFLINE;
248 }
249
250 /* accessor functions for the SCSI parameters */
251 static inline int scsi_device_sync(struct scsi_device *sdev)
252 {
253         return sdev->sdtr;
254 }
255 static inline int scsi_device_wide(struct scsi_device *sdev)
256 {
257         return sdev->wdtr;
258 }
259 static inline int scsi_device_dt(struct scsi_device *sdev)
260 {
261         return sdev->ppr;
262 }
263 static inline int scsi_device_dt_only(struct scsi_device *sdev)
264 {
265         if (sdev->inquiry_len < 57)
266                 return 0;
267         return (sdev->inquiry[56] & 0x0c) == 0x04;
268 }
269 static inline int scsi_device_ius(struct scsi_device *sdev)
270 {
271         if (sdev->inquiry_len < 57)
272                 return 0;
273         return sdev->inquiry[56] & 0x01;
274 }
275 static inline int scsi_device_qas(struct scsi_device *sdev)
276 {
277         if (sdev->inquiry_len < 57)
278                 return 0;
279         return sdev->inquiry[56] & 0x02;
280 }
281 #endif /* _SCSI_SCSI_DEVICE_H */