add is_buffer_dma_capable helper function
[linux-2.6.git] / include / linux / dma-mapping.h
1 #ifndef _LINUX_DMA_MAPPING_H
2 #define _LINUX_DMA_MAPPING_H
3
4 #include <linux/device.h>
5 #include <linux/err.h>
6
7 /* These definitions mirror those in pci.h, so they can be used
8  * interchangeably with their PCI_ counterparts */
9 enum dma_data_direction {
10         DMA_BIDIRECTIONAL = 0,
11         DMA_TO_DEVICE = 1,
12         DMA_FROM_DEVICE = 2,
13         DMA_NONE = 3,
14 };
15
16 #define DMA_BIT_MASK(n) (((n) == 64) ? ~0ULL : ((1ULL<<(n))-1))
17
18 /*
19  * NOTE: do not use the below macros in new code and do not add new definitions
20  * here.
21  *
22  * Instead, just open-code DMA_BIT_MASK(n) within your driver
23  */
24 #define DMA_64BIT_MASK  DMA_BIT_MASK(64)
25 #define DMA_48BIT_MASK  DMA_BIT_MASK(48)
26 #define DMA_47BIT_MASK  DMA_BIT_MASK(47)
27 #define DMA_40BIT_MASK  DMA_BIT_MASK(40)
28 #define DMA_39BIT_MASK  DMA_BIT_MASK(39)
29 #define DMA_35BIT_MASK  DMA_BIT_MASK(35)
30 #define DMA_32BIT_MASK  DMA_BIT_MASK(32)
31 #define DMA_31BIT_MASK  DMA_BIT_MASK(31)
32 #define DMA_30BIT_MASK  DMA_BIT_MASK(30)
33 #define DMA_29BIT_MASK  DMA_BIT_MASK(29)
34 #define DMA_28BIT_MASK  DMA_BIT_MASK(28)
35 #define DMA_24BIT_MASK  DMA_BIT_MASK(24)
36
37 #define DMA_MASK_NONE   0x0ULL
38
39 static inline int valid_dma_direction(int dma_direction)
40 {
41         return ((dma_direction == DMA_BIDIRECTIONAL) ||
42                 (dma_direction == DMA_TO_DEVICE) ||
43                 (dma_direction == DMA_FROM_DEVICE));
44 }
45
46 static inline int is_device_dma_capable(struct device *dev)
47 {
48         return dev->dma_mask != NULL && *dev->dma_mask != DMA_MASK_NONE;
49 }
50
51 static inline int is_buffer_dma_capable(u64 mask, dma_addr_t addr, size_t size)
52 {
53         return addr + size <= mask;
54 }
55
56 #ifdef CONFIG_HAS_DMA
57 #include <asm/dma-mapping.h>
58 #else
59 #include <asm-generic/dma-mapping-broken.h>
60 #endif
61
62 /* Backwards compat, remove in 2.7.x */
63 #define dma_sync_single         dma_sync_single_for_cpu
64 #define dma_sync_sg             dma_sync_sg_for_cpu
65
66 extern u64 dma_get_required_mask(struct device *dev);
67
68 static inline unsigned int dma_get_max_seg_size(struct device *dev)
69 {
70         return dev->dma_parms ? dev->dma_parms->max_segment_size : 65536;
71 }
72
73 static inline unsigned int dma_set_max_seg_size(struct device *dev,
74                                                 unsigned int size)
75 {
76         if (dev->dma_parms) {
77                 dev->dma_parms->max_segment_size = size;
78                 return 0;
79         } else
80                 return -EIO;
81 }
82
83 static inline unsigned long dma_get_seg_boundary(struct device *dev)
84 {
85         return dev->dma_parms ?
86                 dev->dma_parms->segment_boundary_mask : 0xffffffff;
87 }
88
89 static inline int dma_set_seg_boundary(struct device *dev, unsigned long mask)
90 {
91         if (dev->dma_parms) {
92                 dev->dma_parms->segment_boundary_mask = mask;
93                 return 0;
94         } else
95                 return -EIO;
96 }
97
98 /* flags for the coherent memory api */
99 #define DMA_MEMORY_MAP                  0x01
100 #define DMA_MEMORY_IO                   0x02
101 #define DMA_MEMORY_INCLUDES_CHILDREN    0x04
102 #define DMA_MEMORY_EXCLUSIVE            0x08
103
104 #ifndef ARCH_HAS_DMA_DECLARE_COHERENT_MEMORY
105 static inline int
106 dma_declare_coherent_memory(struct device *dev, dma_addr_t bus_addr,
107                             dma_addr_t device_addr, size_t size, int flags)
108 {
109         return 0;
110 }
111
112 static inline void
113 dma_release_declared_memory(struct device *dev)
114 {
115 }
116
117 static inline void *
118 dma_mark_declared_memory_occupied(struct device *dev,
119                                   dma_addr_t device_addr, size_t size)
120 {
121         return ERR_PTR(-EBUSY);
122 }
123 #endif
124
125 /*
126  * Managed DMA API
127  */
128 extern void *dmam_alloc_coherent(struct device *dev, size_t size,
129                                  dma_addr_t *dma_handle, gfp_t gfp);
130 extern void dmam_free_coherent(struct device *dev, size_t size, void *vaddr,
131                                dma_addr_t dma_handle);
132 extern void *dmam_alloc_noncoherent(struct device *dev, size_t size,
133                                     dma_addr_t *dma_handle, gfp_t gfp);
134 extern void dmam_free_noncoherent(struct device *dev, size_t size, void *vaddr,
135                                   dma_addr_t dma_handle);
136 #ifdef ARCH_HAS_DMA_DECLARE_COHERENT_MEMORY
137 extern int dmam_declare_coherent_memory(struct device *dev, dma_addr_t bus_addr,
138                                         dma_addr_t device_addr, size_t size,
139                                         int flags);
140 extern void dmam_release_declared_memory(struct device *dev);
141 #else /* ARCH_HAS_DMA_DECLARE_COHERENT_MEMORY */
142 static inline int dmam_declare_coherent_memory(struct device *dev,
143                                 dma_addr_t bus_addr, dma_addr_t device_addr,
144                                 size_t size, gfp_t gfp)
145 {
146         return 0;
147 }
148
149 static inline void dmam_release_declared_memory(struct device *dev)
150 {
151 }
152 #endif /* ARCH_HAS_DMA_DECLARE_COHERENT_MEMORY */
153
154 #ifndef CONFIG_HAVE_DMA_ATTRS
155 struct dma_attrs;
156
157 #define dma_map_single_attrs(dev, cpu_addr, size, dir, attrs) \
158         dma_map_single(dev, cpu_addr, size, dir)
159
160 #define dma_unmap_single_attrs(dev, dma_addr, size, dir, attrs) \
161         dma_unmap_single(dev, dma_addr, size, dir)
162
163 #define dma_map_sg_attrs(dev, sgl, nents, dir, attrs) \
164         dma_map_sg(dev, sgl, nents, dir)
165
166 #define dma_unmap_sg_attrs(dev, sgl, nents, dir, attrs) \
167         dma_unmap_sg(dev, sgl, nents, dir)
168
169 #endif /* CONFIG_HAVE_DMA_ATTRS */
170
171 #endif