[CRYPTO] api: Allow multiple frontends per backend
[linux-2.6.git] / crypto / internal.h
1 /*
2  * Cryptographic API.
3  *
4  * Copyright (c) 2002 James Morris <jmorris@intercode.com.au>
5  * Copyright (c) 2005 Herbert Xu <herbert@gondor.apana.org.au>
6  *
7  * This program is free software; you can redistribute it and/or modify it
8  * under the terms of the GNU General Public License as published by the Free
9  * Software Foundation; either version 2 of the License, or (at your option) 
10  * any later version.
11  *
12  */
13 #ifndef _CRYPTO_INTERNAL_H
14 #define _CRYPTO_INTERNAL_H
15
16 #include <crypto/algapi.h>
17 #include <linux/completion.h>
18 #include <linux/mm.h>
19 #include <linux/highmem.h>
20 #include <linux/interrupt.h>
21 #include <linux/init.h>
22 #include <linux/list.h>
23 #include <linux/module.h>
24 #include <linux/kernel.h>
25 #include <linux/notifier.h>
26 #include <linux/rwsem.h>
27 #include <linux/slab.h>
28 #include <asm/kmap_types.h>
29
30 /* Crypto notification events. */
31 enum {
32         CRYPTO_MSG_ALG_REQUEST,
33         CRYPTO_MSG_ALG_REGISTER,
34         CRYPTO_MSG_ALG_UNREGISTER,
35         CRYPTO_MSG_TMPL_REGISTER,
36         CRYPTO_MSG_TMPL_UNREGISTER,
37 };
38
39 struct crypto_instance;
40 struct crypto_template;
41
42 struct crypto_larval {
43         struct crypto_alg alg;
44         struct crypto_alg *adult;
45         struct completion completion;
46         u32 mask;
47 };
48
49 extern struct list_head crypto_alg_list;
50 extern struct rw_semaphore crypto_alg_sem;
51 extern struct blocking_notifier_head crypto_chain;
52
53 extern enum km_type crypto_km_types[];
54
55 static inline enum km_type crypto_kmap_type(int out)
56 {
57         return crypto_km_types[(in_softirq() ? 2 : 0) + out];
58 }
59
60 static inline void *crypto_kmap(struct page *page, int out)
61 {
62         return kmap_atomic(page, crypto_kmap_type(out));
63 }
64
65 static inline void crypto_kunmap(void *vaddr, int out)
66 {
67         kunmap_atomic(vaddr, crypto_kmap_type(out));
68 }
69
70 static inline void crypto_yield(u32 flags)
71 {
72         if (flags & CRYPTO_TFM_REQ_MAY_SLEEP)
73                 cond_resched();
74 }
75
76 #ifdef CONFIG_PROC_FS
77 void __init crypto_init_proc(void);
78 void __exit crypto_exit_proc(void);
79 #else
80 static inline void crypto_init_proc(void)
81 { }
82 static inline void crypto_exit_proc(void)
83 { }
84 #endif
85
86 static inline unsigned int crypto_digest_ctxsize(struct crypto_alg *alg)
87 {
88         unsigned int len = alg->cra_ctxsize;
89
90         if (alg->cra_alignmask) {
91                 len = ALIGN(len, (unsigned long)alg->cra_alignmask + 1);
92                 len += alg->cra_digest.dia_digestsize;
93         }
94
95         return len;
96 }
97
98 static inline unsigned int crypto_cipher_ctxsize(struct crypto_alg *alg)
99 {
100         return alg->cra_ctxsize;
101 }
102
103 static inline unsigned int crypto_compress_ctxsize(struct crypto_alg *alg)
104 {
105         return alg->cra_ctxsize;
106 }
107
108 struct crypto_alg *crypto_mod_get(struct crypto_alg *alg);
109 struct crypto_alg *__crypto_alg_lookup(const char *name, u32 type, u32 mask);
110 struct crypto_alg *crypto_alg_mod_lookup(const char *name, u32 type, u32 mask);
111
112 int crypto_init_digest_ops(struct crypto_tfm *tfm);
113 int crypto_init_cipher_ops(struct crypto_tfm *tfm);
114 int crypto_init_compress_ops(struct crypto_tfm *tfm);
115
116 void crypto_exit_digest_ops(struct crypto_tfm *tfm);
117 void crypto_exit_cipher_ops(struct crypto_tfm *tfm);
118 void crypto_exit_compress_ops(struct crypto_tfm *tfm);
119
120 void crypto_larval_error(const char *name, u32 type, u32 mask);
121
122 void crypto_shoot_alg(struct crypto_alg *alg);
123 struct crypto_tfm *__crypto_alloc_tfm(struct crypto_alg *alg, u32 type,
124                                       u32 mask);
125
126 int crypto_register_instance(struct crypto_template *tmpl,
127                              struct crypto_instance *inst);
128
129 int crypto_register_notifier(struct notifier_block *nb);
130 int crypto_unregister_notifier(struct notifier_block *nb);
131
132 static inline void crypto_alg_put(struct crypto_alg *alg)
133 {
134         if (atomic_dec_and_test(&alg->cra_refcnt) && alg->cra_destroy)
135                 alg->cra_destroy(alg);
136 }
137
138 static inline int crypto_tmpl_get(struct crypto_template *tmpl)
139 {
140         return try_module_get(tmpl->module);
141 }
142
143 static inline void crypto_tmpl_put(struct crypto_template *tmpl)
144 {
145         module_put(tmpl->module);
146 }
147
148 static inline int crypto_is_larval(struct crypto_alg *alg)
149 {
150         return alg->cra_flags & CRYPTO_ALG_LARVAL;
151 }
152
153 static inline int crypto_is_dead(struct crypto_alg *alg)
154 {
155         return alg->cra_flags & CRYPTO_ALG_DEAD;
156 }
157
158 static inline int crypto_is_moribund(struct crypto_alg *alg)
159 {
160         return alg->cra_flags & (CRYPTO_ALG_DEAD | CRYPTO_ALG_DYING);
161 }
162
163 static inline int crypto_notify(unsigned long val, void *v)
164 {
165         return blocking_notifier_call_chain(&crypto_chain, val, v);
166 }
167
168 #endif  /* _CRYPTO_INTERNAL_H */
169