329de412c0ba5bce47293c4b680e9a035732cbad
[linux-2.6.git] / include / net / xfrm.h
1 #ifndef _NET_XFRM_H
2 #define _NET_XFRM_H
3
4 #include <linux/compiler.h>
5 #include <linux/xfrm.h>
6 #include <linux/spinlock.h>
7 #include <linux/list.h>
8 #include <linux/skbuff.h>
9 #include <linux/socket.h>
10 #include <linux/pfkeyv2.h>
11 #include <linux/ipsec.h>
12 #include <linux/in6.h>
13 #include <linux/mutex.h>
14 #include <linux/audit.h>
15
16 #include <net/sock.h>
17 #include <net/dst.h>
18 #include <net/ip.h>
19 #include <net/route.h>
20 #include <net/ipv6.h>
21 #include <net/ip6_fib.h>
22
23 #define XFRM_PROTO_ESP          50
24 #define XFRM_PROTO_AH           51
25 #define XFRM_PROTO_COMP         108
26 #define XFRM_PROTO_IPIP         4
27 #define XFRM_PROTO_IPV6         41
28 #define XFRM_PROTO_ROUTING      IPPROTO_ROUTING
29 #define XFRM_PROTO_DSTOPTS      IPPROTO_DSTOPTS
30
31 #define XFRM_ALIGN8(len)        (((len) + 7) & ~7)
32 #define MODULE_ALIAS_XFRM_MODE(family, encap) \
33         MODULE_ALIAS("xfrm-mode-" __stringify(family) "-" __stringify(encap))
34 #define MODULE_ALIAS_XFRM_TYPE(family, proto) \
35         MODULE_ALIAS("xfrm-type-" __stringify(family) "-" __stringify(proto))
36
37 extern struct sock *xfrm_nl;
38 extern u32 sysctl_xfrm_aevent_etime;
39 extern u32 sysctl_xfrm_aevent_rseqth;
40 extern int sysctl_xfrm_larval_drop;
41 extern u32 sysctl_xfrm_acq_expires;
42
43 extern struct mutex xfrm_cfg_mutex;
44
45 /* Organization of SPD aka "XFRM rules"
46    ------------------------------------
47
48    Basic objects:
49    - policy rule, struct xfrm_policy (=SPD entry)
50    - bundle of transformations, struct dst_entry == struct xfrm_dst (=SA bundle)
51    - instance of a transformer, struct xfrm_state (=SA)
52    - template to clone xfrm_state, struct xfrm_tmpl
53
54    SPD is plain linear list of xfrm_policy rules, ordered by priority.
55    (To be compatible with existing pfkeyv2 implementations,
56    many rules with priority of 0x7fffffff are allowed to exist and
57    such rules are ordered in an unpredictable way, thanks to bsd folks.)
58
59    Lookup is plain linear search until the first match with selector.
60
61    If "action" is "block", then we prohibit the flow, otherwise:
62    if "xfrms_nr" is zero, the flow passes untransformed. Otherwise,
63    policy entry has list of up to XFRM_MAX_DEPTH transformations,
64    described by templates xfrm_tmpl. Each template is resolved
65    to a complete xfrm_state (see below) and we pack bundle of transformations
66    to a dst_entry returned to requestor.
67
68    dst -. xfrm  .-> xfrm_state #1
69     |---. child .-> dst -. xfrm .-> xfrm_state #2
70                      |---. child .-> dst -. xfrm .-> xfrm_state #3
71                                       |---. child .-> NULL
72
73    Bundles are cached at xrfm_policy struct (field ->bundles).
74
75
76    Resolution of xrfm_tmpl
77    -----------------------
78    Template contains:
79    1. ->mode            Mode: transport or tunnel
80    2. ->id.proto        Protocol: AH/ESP/IPCOMP
81    3. ->id.daddr        Remote tunnel endpoint, ignored for transport mode.
82       Q: allow to resolve security gateway?
83    4. ->id.spi          If not zero, static SPI.
84    5. ->saddr           Local tunnel endpoint, ignored for transport mode.
85    6. ->algos           List of allowed algos. Plain bitmask now.
86       Q: ealgos, aalgos, calgos. What a mess...
87    7. ->share           Sharing mode.
88       Q: how to implement private sharing mode? To add struct sock* to
89       flow id?
90
91    Having this template we search through SAD searching for entries
92    with appropriate mode/proto/algo, permitted by selector.
93    If no appropriate entry found, it is requested from key manager.
94
95    PROBLEMS:
96    Q: How to find all the bundles referring to a physical path for
97       PMTU discovery? Seems, dst should contain list of all parents...
98       and enter to infinite locking hierarchy disaster.
99       No! It is easier, we will not search for them, let them find us.
100       We add genid to each dst plus pointer to genid of raw IP route,
101       pmtu disc will update pmtu on raw IP route and increase its genid.
102       dst_check() will see this for top level and trigger resyncing
103       metrics. Plus, it will be made via sk->sk_dst_cache. Solved.
104  */
105
106 /* Full description of state of transformer. */
107 struct xfrm_state
108 {
109         /* Note: bydst is re-used during gc */
110         struct hlist_node       bydst;
111         struct hlist_node       bysrc;
112         struct hlist_node       byspi;
113
114         atomic_t                refcnt;
115         spinlock_t              lock;
116
117         struct xfrm_id          id;
118         struct xfrm_selector    sel;
119
120         u32                     genid;
121
122         /* Key manger bits */
123         struct {
124                 u8              state;
125                 u8              dying;
126                 u32             seq;
127         } km;
128
129         /* Parameters of this state. */
130         struct {
131                 u32             reqid;
132                 u8              mode;
133                 u8              replay_window;
134                 u8              aalgo, ealgo, calgo;
135                 u8              flags;
136                 u16             family;
137                 xfrm_address_t  saddr;
138                 int             header_len;
139                 int             trailer_len;
140         } props;
141
142         struct xfrm_lifetime_cfg lft;
143
144         /* Data for transformer */
145         struct xfrm_algo        *aalg;
146         struct xfrm_algo        *ealg;
147         struct xfrm_algo        *calg;
148
149         /* Data for encapsulator */
150         struct xfrm_encap_tmpl  *encap;
151
152         /* Data for care-of address */
153         xfrm_address_t  *coaddr;
154
155         /* IPComp needs an IPIP tunnel for handling uncompressed packets */
156         struct xfrm_state       *tunnel;
157
158         /* If a tunnel, number of users + 1 */
159         atomic_t                tunnel_users;
160
161         /* State for replay detection */
162         struct xfrm_replay_state replay;
163
164         /* Replay detection state at the time we sent the last notification */
165         struct xfrm_replay_state preplay;
166
167         /* internal flag that only holds state for delayed aevent at the
168          * moment
169         */
170         u32                     xflags;
171
172         /* Replay detection notification settings */
173         u32                     replay_maxage;
174         u32                     replay_maxdiff;
175
176         /* Replay detection notification timer */
177         struct timer_list       rtimer;
178
179         /* Statistics */
180         struct xfrm_stats       stats;
181
182         struct xfrm_lifetime_cur curlft;
183         struct timer_list       timer;
184
185         /* Last used time */
186         u64                     lastused;
187
188         /* Reference to data common to all the instances of this
189          * transformer. */
190         struct xfrm_type        *type;
191         struct xfrm_mode        *inner_mode;
192         struct xfrm_mode        *outer_mode;
193
194         /* Security context */
195         struct xfrm_sec_ctx     *security;
196
197         /* Private data of this transformer, format is opaque,
198          * interpreted by xfrm_type methods. */
199         void                    *data;
200 };
201
202 /* xflags - make enum if more show up */
203 #define XFRM_TIME_DEFER 1
204
205 enum {
206         XFRM_STATE_VOID,
207         XFRM_STATE_ACQ,
208         XFRM_STATE_VALID,
209         XFRM_STATE_ERROR,
210         XFRM_STATE_EXPIRED,
211         XFRM_STATE_DEAD
212 };
213
214 /* callback structure passed from either netlink or pfkey */
215 struct km_event
216 {
217         union {
218                 u32 hard;
219                 u32 proto;
220                 u32 byid;
221                 u32 aevent;
222                 u32 type;
223         } data;
224
225         u32     seq;
226         u32     pid;
227         u32     event;
228 };
229
230 struct net_device;
231 struct xfrm_type;
232 struct xfrm_dst;
233 struct xfrm_policy_afinfo {
234         unsigned short          family;
235         struct dst_ops          *dst_ops;
236         void                    (*garbage_collect)(void);
237         struct dst_entry        *(*dst_lookup)(int tos, xfrm_address_t *saddr,
238                                                xfrm_address_t *daddr);
239         int                     (*get_saddr)(xfrm_address_t *saddr, xfrm_address_t *daddr);
240         struct dst_entry        *(*find_bundle)(struct flowi *fl, struct xfrm_policy *policy);
241         void                    (*decode_session)(struct sk_buff *skb,
242                                                   struct flowi *fl);
243         int                     (*get_tos)(struct flowi *fl);
244         int                     (*fill_dst)(struct xfrm_dst *xdst,
245                                             struct net_device *dev);
246 };
247
248 extern int xfrm_policy_register_afinfo(struct xfrm_policy_afinfo *afinfo);
249 extern int xfrm_policy_unregister_afinfo(struct xfrm_policy_afinfo *afinfo);
250 extern void km_policy_notify(struct xfrm_policy *xp, int dir, struct km_event *c);
251 extern void km_state_notify(struct xfrm_state *x, struct km_event *c);
252
253 struct xfrm_tmpl;
254 extern int km_query(struct xfrm_state *x, struct xfrm_tmpl *t, struct xfrm_policy *pol);
255 extern void km_state_expired(struct xfrm_state *x, int hard, u32 pid);
256 extern int __xfrm_state_delete(struct xfrm_state *x);
257
258 struct xfrm_state_afinfo {
259         unsigned int            family;
260         unsigned int            proto;
261         unsigned int            eth_proto;
262         unsigned int            nf_post_routing;
263         struct module           *owner;
264         struct xfrm_type        *type_map[IPPROTO_MAX];
265         struct xfrm_mode        *mode_map[XFRM_MODE_MAX];
266         int                     (*init_flags)(struct xfrm_state *x);
267         void                    (*init_tempsel)(struct xfrm_state *x, struct flowi *fl,
268                                                 struct xfrm_tmpl *tmpl,
269                                                 xfrm_address_t *daddr, xfrm_address_t *saddr);
270         int                     (*tmpl_sort)(struct xfrm_tmpl **dst, struct xfrm_tmpl **src, int n);
271         int                     (*state_sort)(struct xfrm_state **dst, struct xfrm_state **src, int n);
272         int                     (*output)(struct sk_buff *skb);
273         int                     (*extract_input)(struct xfrm_state *x,
274                                                  struct sk_buff *skb);
275         int                     (*extract_output)(struct xfrm_state *x,
276                                                   struct sk_buff *skb);
277         int                     (*transport_finish)(struct sk_buff *skb,
278                                                     int async);
279 };
280
281 extern int xfrm_state_register_afinfo(struct xfrm_state_afinfo *afinfo);
282 extern int xfrm_state_unregister_afinfo(struct xfrm_state_afinfo *afinfo);
283
284 extern void xfrm_state_delete_tunnel(struct xfrm_state *x);
285
286 struct xfrm_type
287 {
288         char                    *description;
289         struct module           *owner;
290         __u8                    proto;
291         __u8                    flags;
292 #define XFRM_TYPE_NON_FRAGMENT  1
293 #define XFRM_TYPE_REPLAY_PROT   2
294 #define XFRM_TYPE_LOCAL_COADDR  4
295 #define XFRM_TYPE_REMOTE_COADDR 8
296
297         int                     (*init_state)(struct xfrm_state *x);
298         void                    (*destructor)(struct xfrm_state *);
299         int                     (*input)(struct xfrm_state *, struct sk_buff *skb);
300         int                     (*output)(struct xfrm_state *, struct sk_buff *pskb);
301         int                     (*reject)(struct xfrm_state *, struct sk_buff *, struct flowi *);
302         int                     (*hdr_offset)(struct xfrm_state *, struct sk_buff *, u8 **);
303         /* Estimate maximal size of result of transformation of a dgram */
304         u32                     (*get_mtu)(struct xfrm_state *, int size);
305 };
306
307 extern int xfrm_register_type(struct xfrm_type *type, unsigned short family);
308 extern int xfrm_unregister_type(struct xfrm_type *type, unsigned short family);
309
310 struct xfrm_mode {
311         /*
312          * Remove encapsulation header.
313          *
314          * The IP header will be moved over the top of the encapsulation
315          * header.
316          *
317          * On entry, the transport header shall point to where the IP header
318          * should be and the network header shall be set to where the IP
319          * header currently is.  skb->data shall point to the start of the
320          * payload.
321          */
322         int (*input2)(struct xfrm_state *x, struct sk_buff *skb);
323
324         /*
325          * This is the actual input entry point.
326          *
327          * For transport mode and equivalent this would be identical to
328          * input2 (which does not need to be set).  While tunnel mode
329          * and equivalent would set this to the tunnel encapsulation function
330          * xfrm4_prepare_input that would in turn call input2.
331          */
332         int (*input)(struct xfrm_state *x, struct sk_buff *skb);
333
334         /*
335          * Add encapsulation header.
336          *
337          * On exit, the transport header will be set to the start of the
338          * encapsulation header to be filled in by x->type->output and
339          * the mac header will be set to the nextheader (protocol for
340          * IPv4) field of the extension header directly preceding the
341          * encapsulation header, or in its absence, that of the top IP
342          * header.  The value of the network header will always point
343          * to the top IP header while skb->data will point to the payload.
344          */
345         int (*output2)(struct xfrm_state *x,struct sk_buff *skb);
346
347         /*
348          * This is the actual output entry point.
349          *
350          * For transport mode and equivalent this would be identical to
351          * output2 (which does not need to be set).  While tunnel mode
352          * and equivalent would set this to a tunnel encapsulation function
353          * (xfrm4_prepare_output or xfrm6_prepare_output) that would in turn
354          * call output2.
355          */
356         int (*output)(struct xfrm_state *x, struct sk_buff *skb);
357
358         struct xfrm_state_afinfo *afinfo;
359         struct module *owner;
360         unsigned int encap;
361         int flags;
362 };
363
364 /* Flags for xfrm_mode. */
365 enum {
366         XFRM_MODE_FLAG_TUNNEL = 1,
367 };
368
369 extern int xfrm_register_mode(struct xfrm_mode *mode, int family);
370 extern int xfrm_unregister_mode(struct xfrm_mode *mode, int family);
371
372 struct xfrm_tmpl
373 {
374 /* id in template is interpreted as:
375  * daddr - destination of tunnel, may be zero for transport mode.
376  * spi   - zero to acquire spi. Not zero if spi is static, then
377  *         daddr must be fixed too.
378  * proto - AH/ESP/IPCOMP
379  */
380         struct xfrm_id          id;
381
382 /* Source address of tunnel. Ignored, if it is not a tunnel. */
383         xfrm_address_t          saddr;
384
385         unsigned short          encap_family;
386
387         __u32                   reqid;
388
389 /* Mode: transport, tunnel etc. */
390         __u8                    mode;
391
392 /* Sharing mode: unique, this session only, this user only etc. */
393         __u8                    share;
394
395 /* May skip this transfomration if no SA is found */
396         __u8                    optional;
397
398 /* Bit mask of algos allowed for acquisition */
399         __u32                   aalgos;
400         __u32                   ealgos;
401         __u32                   calgos;
402 };
403
404 #define XFRM_MAX_DEPTH          6
405
406 struct xfrm_policy
407 {
408         struct xfrm_policy      *next;
409         struct hlist_node       bydst;
410         struct hlist_node       byidx;
411
412         /* This lock only affects elements except for entry. */
413         rwlock_t                lock;
414         atomic_t                refcnt;
415         struct timer_list       timer;
416
417         u32                     priority;
418         u32                     index;
419         struct xfrm_selector    selector;
420         struct xfrm_lifetime_cfg lft;
421         struct xfrm_lifetime_cur curlft;
422         struct dst_entry       *bundles;
423         u16                     family;
424         u8                      type;
425         u8                      action;
426         u8                      flags;
427         u8                      dead;
428         u8                      xfrm_nr;
429         /* XXX 1 byte hole, try to pack */
430         struct xfrm_sec_ctx     *security;
431         struct xfrm_tmpl        xfrm_vec[XFRM_MAX_DEPTH];
432 };
433
434 struct xfrm_migrate {
435         xfrm_address_t          old_daddr;
436         xfrm_address_t          old_saddr;
437         xfrm_address_t          new_daddr;
438         xfrm_address_t          new_saddr;
439         u8                      proto;
440         u8                      mode;
441         u16                     reserved;
442         u32                     reqid;
443         u16                     old_family;
444         u16                     new_family;
445 };
446
447 #define XFRM_KM_TIMEOUT                30
448 /* which seqno */
449 #define XFRM_REPLAY_SEQ         1
450 #define XFRM_REPLAY_OSEQ        2
451 #define XFRM_REPLAY_SEQ_MASK    3
452 /* what happened */
453 #define XFRM_REPLAY_UPDATE      XFRM_AE_CR
454 #define XFRM_REPLAY_TIMEOUT     XFRM_AE_CE
455
456 /* default aevent timeout in units of 100ms */
457 #define XFRM_AE_ETIME                   10
458 /* Async Event timer multiplier */
459 #define XFRM_AE_ETH_M                   10
460 /* default seq threshold size */
461 #define XFRM_AE_SEQT_SIZE               2
462
463 struct xfrm_mgr
464 {
465         struct list_head        list;
466         char                    *id;
467         int                     (*notify)(struct xfrm_state *x, struct km_event *c);
468         int                     (*acquire)(struct xfrm_state *x, struct xfrm_tmpl *, struct xfrm_policy *xp, int dir);
469         struct xfrm_policy      *(*compile_policy)(struct sock *sk, int opt, u8 *data, int len, int *dir);
470         int                     (*new_mapping)(struct xfrm_state *x, xfrm_address_t *ipaddr, __be16 sport);
471         int                     (*notify_policy)(struct xfrm_policy *x, int dir, struct km_event *c);
472         int                     (*report)(u8 proto, struct xfrm_selector *sel, xfrm_address_t *addr);
473         int                     (*migrate)(struct xfrm_selector *sel, u8 dir, u8 type, struct xfrm_migrate *m, int num_bundles);
474 };
475
476 extern int xfrm_register_km(struct xfrm_mgr *km);
477 extern int xfrm_unregister_km(struct xfrm_mgr *km);
478
479 extern unsigned int xfrm_policy_count[XFRM_POLICY_MAX*2];
480
481 /*
482  * This structure is used for the duration where packets are being
483  * transformed by IPsec.  As soon as the packet leaves IPsec the
484  * area beyond the generic IP part may be overwritten.
485  */
486 struct xfrm_skb_cb {
487         union {
488                 struct inet_skb_parm h4;
489                 struct inet6_skb_parm h6;
490         } header;
491
492         /* Sequence number for replay protection. */
493         u64 seq;
494 };
495
496 #define XFRM_SKB_CB(__skb) ((struct xfrm_skb_cb *)&((__skb)->cb[0]))
497
498 /*
499  * This structure is used by the afinfo prepare_input/prepare_output functions
500  * to transmit header information to the mode input/output functions.
501  */
502 struct xfrm_mode_skb_cb {
503         union {
504                 struct inet_skb_parm h4;
505                 struct inet6_skb_parm h6;
506         } header;
507
508         /* Copied from header for IPv4, always set to zero and DF for IPv6. */
509         __be16 id;
510         __be16 frag_off;
511
512         /* TOS for IPv4, class for IPv6. */
513         u8 tos;
514
515         /* TTL for IPv4, hop limitfor IPv6. */
516         u8 ttl;
517
518         /* Protocol for IPv4, NH for IPv6. */
519         u8 protocol;
520
521         /* Used by IPv6 only, zero for IPv4. */
522         u8 flow_lbl[3];
523 };
524
525 #define XFRM_MODE_SKB_CB(__skb) ((struct xfrm_mode_skb_cb *)&((__skb)->cb[0]))
526
527 /*
528  * This structure is used by the input processing to locate the SPI and
529  * related information.
530  */
531 struct xfrm_spi_skb_cb {
532         union {
533                 struct inet_skb_parm h4;
534                 struct inet6_skb_parm h6;
535         } header;
536
537         unsigned int nhoff;
538         unsigned int daddroff;
539 };
540
541 #define XFRM_SPI_SKB_CB(__skb) ((struct xfrm_spi_skb_cb *)&((__skb)->cb[0]))
542
543 /* Audit Information */
544 struct xfrm_audit
545 {
546         u32     loginuid;
547         u32     secid;
548 };
549
550 #ifdef CONFIG_AUDITSYSCALL
551 static inline struct audit_buffer *xfrm_audit_start(u32 auid, u32 sid)
552 {
553         struct audit_buffer *audit_buf = NULL;
554         char *secctx;
555         u32 secctx_len;
556
557         audit_buf = audit_log_start(current->audit_context, GFP_ATOMIC,
558                               AUDIT_MAC_IPSEC_EVENT);
559         if (audit_buf == NULL)
560                 return NULL;
561
562         audit_log_format(audit_buf, "auid=%u", auid);
563
564         if (sid != 0 &&
565             security_secid_to_secctx(sid, &secctx, &secctx_len) == 0) {
566                 audit_log_format(audit_buf, " subj=%s", secctx);
567                 security_release_secctx(secctx, secctx_len);
568         } else
569                 audit_log_task_context(audit_buf);
570         return audit_buf;
571 }
572
573 extern void xfrm_audit_policy_add(struct xfrm_policy *xp, int result,
574                                   u32 auid, u32 sid);
575 extern void xfrm_audit_policy_delete(struct xfrm_policy *xp, int result,
576                                   u32 auid, u32 sid);
577 extern void xfrm_audit_state_add(struct xfrm_state *x, int result,
578                                  u32 auid, u32 sid);
579 extern void xfrm_audit_state_delete(struct xfrm_state *x, int result,
580                                     u32 auid, u32 sid);
581 #else
582 #define xfrm_audit_policy_add(x, r, a, s)       do { ; } while (0)
583 #define xfrm_audit_policy_delete(x, r, a, s)    do { ; } while (0)
584 #define xfrm_audit_state_add(x, r, a, s)        do { ; } while (0)
585 #define xfrm_audit_state_delete(x, r, a, s)     do { ; } while (0)
586 #endif /* CONFIG_AUDITSYSCALL */
587
588 static inline void xfrm_pol_hold(struct xfrm_policy *policy)
589 {
590         if (likely(policy != NULL))
591                 atomic_inc(&policy->refcnt);
592 }
593
594 extern void __xfrm_policy_destroy(struct xfrm_policy *policy);
595
596 static inline void xfrm_pol_put(struct xfrm_policy *policy)
597 {
598         if (atomic_dec_and_test(&policy->refcnt))
599                 __xfrm_policy_destroy(policy);
600 }
601
602 #ifdef CONFIG_XFRM_SUB_POLICY
603 static inline void xfrm_pols_put(struct xfrm_policy **pols, int npols)
604 {
605         int i;
606         for (i = npols - 1; i >= 0; --i)
607                 xfrm_pol_put(pols[i]);
608 }
609 #else
610 static inline void xfrm_pols_put(struct xfrm_policy **pols, int npols)
611 {
612         xfrm_pol_put(pols[0]);
613 }
614 #endif
615
616 extern void __xfrm_state_destroy(struct xfrm_state *);
617
618 static inline void __xfrm_state_put(struct xfrm_state *x)
619 {
620         atomic_dec(&x->refcnt);
621 }
622
623 static inline void xfrm_state_put(struct xfrm_state *x)
624 {
625         if (atomic_dec_and_test(&x->refcnt))
626                 __xfrm_state_destroy(x);
627 }
628
629 static inline void xfrm_state_hold(struct xfrm_state *x)
630 {
631         atomic_inc(&x->refcnt);
632 }
633
634 static __inline__ int addr_match(void *token1, void *token2, int prefixlen)
635 {
636         __be32 *a1 = token1;
637         __be32 *a2 = token2;
638         int pdw;
639         int pbi;
640
641         pdw = prefixlen >> 5;     /* num of whole __u32 in prefix */
642         pbi = prefixlen &  0x1f;  /* num of bits in incomplete u32 in prefix */
643
644         if (pdw)
645                 if (memcmp(a1, a2, pdw << 2))
646                         return 0;
647
648         if (pbi) {
649                 __be32 mask;
650
651                 mask = htonl((0xffffffff) << (32 - pbi));
652
653                 if ((a1[pdw] ^ a2[pdw]) & mask)
654                         return 0;
655         }
656
657         return 1;
658 }
659
660 static __inline__
661 __be16 xfrm_flowi_sport(struct flowi *fl)
662 {
663         __be16 port;
664         switch(fl->proto) {
665         case IPPROTO_TCP:
666         case IPPROTO_UDP:
667         case IPPROTO_UDPLITE:
668         case IPPROTO_SCTP:
669                 port = fl->fl_ip_sport;
670                 break;
671         case IPPROTO_ICMP:
672         case IPPROTO_ICMPV6:
673                 port = htons(fl->fl_icmp_type);
674                 break;
675         case IPPROTO_MH:
676                 port = htons(fl->fl_mh_type);
677                 break;
678         default:
679                 port = 0;       /*XXX*/
680         }
681         return port;
682 }
683
684 static __inline__
685 __be16 xfrm_flowi_dport(struct flowi *fl)
686 {
687         __be16 port;
688         switch(fl->proto) {
689         case IPPROTO_TCP:
690         case IPPROTO_UDP:
691         case IPPROTO_UDPLITE:
692         case IPPROTO_SCTP:
693                 port = fl->fl_ip_dport;
694                 break;
695         case IPPROTO_ICMP:
696         case IPPROTO_ICMPV6:
697                 port = htons(fl->fl_icmp_code);
698                 break;
699         default:
700                 port = 0;       /*XXX*/
701         }
702         return port;
703 }
704
705 extern int xfrm_selector_match(struct xfrm_selector *sel, struct flowi *fl,
706                                unsigned short family);
707
708 #ifdef CONFIG_SECURITY_NETWORK_XFRM
709 /*      If neither has a context --> match
710  *      Otherwise, both must have a context and the sids, doi, alg must match
711  */
712 static inline int xfrm_sec_ctx_match(struct xfrm_sec_ctx *s1, struct xfrm_sec_ctx *s2)
713 {
714         return ((!s1 && !s2) ||
715                 (s1 && s2 &&
716                  (s1->ctx_sid == s2->ctx_sid) &&
717                  (s1->ctx_doi == s2->ctx_doi) &&
718                  (s1->ctx_alg == s2->ctx_alg)));
719 }
720 #else
721 static inline int xfrm_sec_ctx_match(struct xfrm_sec_ctx *s1, struct xfrm_sec_ctx *s2)
722 {
723         return 1;
724 }
725 #endif
726
727 /* A struct encoding bundle of transformations to apply to some set of flow.
728  *
729  * dst->child points to the next element of bundle.
730  * dst->xfrm  points to an instanse of transformer.
731  *
732  * Due to unfortunate limitations of current routing cache, which we
733  * have no time to fix, it mirrors struct rtable and bound to the same
734  * routing key, including saddr,daddr. However, we can have many of
735  * bundles differing by session id. All the bundles grow from a parent
736  * policy rule.
737  */
738 struct xfrm_dst
739 {
740         union {
741                 struct dst_entry        dst;
742                 struct rtable           rt;
743                 struct rt6_info         rt6;
744         } u;
745         struct dst_entry *route;
746 #ifdef CONFIG_XFRM_SUB_POLICY
747         struct flowi *origin;
748         struct xfrm_selector *partner;
749 #endif
750         u32 genid;
751         u32 route_mtu_cached;
752         u32 child_mtu_cached;
753         u32 route_cookie;
754         u32 path_cookie;
755 };
756
757 static inline void xfrm_dst_destroy(struct xfrm_dst *xdst)
758 {
759         dst_release(xdst->route);
760         if (likely(xdst->u.dst.xfrm))
761                 xfrm_state_put(xdst->u.dst.xfrm);
762 #ifdef CONFIG_XFRM_SUB_POLICY
763         kfree(xdst->origin);
764         xdst->origin = NULL;
765         kfree(xdst->partner);
766         xdst->partner = NULL;
767 #endif
768 }
769
770 extern void xfrm_dst_ifdown(struct dst_entry *dst, struct net_device *dev);
771
772 struct sec_path
773 {
774         atomic_t                refcnt;
775         int                     len;
776         struct xfrm_state       *xvec[XFRM_MAX_DEPTH];
777 };
778
779 static inline struct sec_path *
780 secpath_get(struct sec_path *sp)
781 {
782         if (sp)
783                 atomic_inc(&sp->refcnt);
784         return sp;
785 }
786
787 extern void __secpath_destroy(struct sec_path *sp);
788
789 static inline void
790 secpath_put(struct sec_path *sp)
791 {
792         if (sp && atomic_dec_and_test(&sp->refcnt))
793                 __secpath_destroy(sp);
794 }
795
796 extern struct sec_path *secpath_dup(struct sec_path *src);
797
798 static inline void
799 secpath_reset(struct sk_buff *skb)
800 {
801 #ifdef CONFIG_XFRM
802         secpath_put(skb->sp);
803         skb->sp = NULL;
804 #endif
805 }
806
807 static inline int
808 xfrm_addr_any(xfrm_address_t *addr, unsigned short family)
809 {
810         switch (family) {
811         case AF_INET:
812                 return addr->a4 == 0;
813         case AF_INET6:
814                 return ipv6_addr_any((struct in6_addr *)&addr->a6);
815         }
816         return 0;
817 }
818
819 static inline int
820 __xfrm4_state_addr_cmp(struct xfrm_tmpl *tmpl, struct xfrm_state *x)
821 {
822         return  (tmpl->saddr.a4 &&
823                  tmpl->saddr.a4 != x->props.saddr.a4);
824 }
825
826 static inline int
827 __xfrm6_state_addr_cmp(struct xfrm_tmpl *tmpl, struct xfrm_state *x)
828 {
829         return  (!ipv6_addr_any((struct in6_addr*)&tmpl->saddr) &&
830                  ipv6_addr_cmp((struct in6_addr *)&tmpl->saddr, (struct in6_addr*)&x->props.saddr));
831 }
832
833 static inline int
834 xfrm_state_addr_cmp(struct xfrm_tmpl *tmpl, struct xfrm_state *x, unsigned short family)
835 {
836         switch (family) {
837         case AF_INET:
838                 return __xfrm4_state_addr_cmp(tmpl, x);
839         case AF_INET6:
840                 return __xfrm6_state_addr_cmp(tmpl, x);
841         }
842         return !0;
843 }
844
845 #ifdef CONFIG_XFRM
846
847 extern int __xfrm_policy_check(struct sock *, int dir, struct sk_buff *skb, unsigned short family);
848
849 static inline int xfrm_policy_check(struct sock *sk, int dir, struct sk_buff *skb, unsigned short family)
850 {
851         if (sk && sk->sk_policy[XFRM_POLICY_IN])
852                 return __xfrm_policy_check(sk, dir, skb, family);
853
854         return  (!xfrm_policy_count[dir] && !skb->sp) ||
855                 (skb->dst->flags & DST_NOPOLICY) ||
856                 __xfrm_policy_check(sk, dir, skb, family);
857 }
858
859 static inline int xfrm4_policy_check(struct sock *sk, int dir, struct sk_buff *skb)
860 {
861         return xfrm_policy_check(sk, dir, skb, AF_INET);
862 }
863
864 static inline int xfrm6_policy_check(struct sock *sk, int dir, struct sk_buff *skb)
865 {
866         return xfrm_policy_check(sk, dir, skb, AF_INET6);
867 }
868
869 extern int xfrm_decode_session(struct sk_buff *skb, struct flowi *fl, unsigned short family);
870 extern int __xfrm_route_forward(struct sk_buff *skb, unsigned short family);
871
872 static inline int xfrm_route_forward(struct sk_buff *skb, unsigned short family)
873 {
874         return  !xfrm_policy_count[XFRM_POLICY_OUT] ||
875                 (skb->dst->flags & DST_NOXFRM) ||
876                 __xfrm_route_forward(skb, family);
877 }
878
879 static inline int xfrm4_route_forward(struct sk_buff *skb)
880 {
881         return xfrm_route_forward(skb, AF_INET);
882 }
883
884 static inline int xfrm6_route_forward(struct sk_buff *skb)
885 {
886         return xfrm_route_forward(skb, AF_INET6);
887 }
888
889 extern int __xfrm_sk_clone_policy(struct sock *sk);
890
891 static inline int xfrm_sk_clone_policy(struct sock *sk)
892 {
893         if (unlikely(sk->sk_policy[0] || sk->sk_policy[1]))
894                 return __xfrm_sk_clone_policy(sk);
895         return 0;
896 }
897
898 extern int xfrm_policy_delete(struct xfrm_policy *pol, int dir);
899
900 static inline void xfrm_sk_free_policy(struct sock *sk)
901 {
902         if (unlikely(sk->sk_policy[0] != NULL)) {
903                 xfrm_policy_delete(sk->sk_policy[0], XFRM_POLICY_MAX);
904                 sk->sk_policy[0] = NULL;
905         }
906         if (unlikely(sk->sk_policy[1] != NULL)) {
907                 xfrm_policy_delete(sk->sk_policy[1], XFRM_POLICY_MAX+1);
908                 sk->sk_policy[1] = NULL;
909         }
910 }
911
912 #else
913
914 static inline void xfrm_sk_free_policy(struct sock *sk) {}
915 static inline int xfrm_sk_clone_policy(struct sock *sk) { return 0; }
916 static inline int xfrm6_route_forward(struct sk_buff *skb) { return 1; }  
917 static inline int xfrm4_route_forward(struct sk_buff *skb) { return 1; } 
918 static inline int xfrm6_policy_check(struct sock *sk, int dir, struct sk_buff *skb)
919
920         return 1; 
921
922 static inline int xfrm4_policy_check(struct sock *sk, int dir, struct sk_buff *skb)
923 {
924         return 1;
925 }
926 static inline int xfrm_policy_check(struct sock *sk, int dir, struct sk_buff *skb, unsigned short family)
927 {
928         return 1;
929 }
930 #endif
931
932 static __inline__
933 xfrm_address_t *xfrm_flowi_daddr(struct flowi *fl, unsigned short family)
934 {
935         switch (family){
936         case AF_INET:
937                 return (xfrm_address_t *)&fl->fl4_dst;
938         case AF_INET6:
939                 return (xfrm_address_t *)&fl->fl6_dst;
940         }
941         return NULL;
942 }
943
944 static __inline__
945 xfrm_address_t *xfrm_flowi_saddr(struct flowi *fl, unsigned short family)
946 {
947         switch (family){
948         case AF_INET:
949                 return (xfrm_address_t *)&fl->fl4_src;
950         case AF_INET6:
951                 return (xfrm_address_t *)&fl->fl6_src;
952         }
953         return NULL;
954 }
955
956 static __inline__ int
957 __xfrm4_state_addr_check(struct xfrm_state *x,
958                          xfrm_address_t *daddr, xfrm_address_t *saddr)
959 {
960         if (daddr->a4 == x->id.daddr.a4 &&
961             (saddr->a4 == x->props.saddr.a4 || !saddr->a4 || !x->props.saddr.a4))
962                 return 1;
963         return 0;
964 }
965
966 static __inline__ int
967 __xfrm6_state_addr_check(struct xfrm_state *x,
968                          xfrm_address_t *daddr, xfrm_address_t *saddr)
969 {
970         if (!ipv6_addr_cmp((struct in6_addr *)daddr, (struct in6_addr *)&x->id.daddr) &&
971             (!ipv6_addr_cmp((struct in6_addr *)saddr, (struct in6_addr *)&x->props.saddr)|| 
972              ipv6_addr_any((struct in6_addr *)saddr) || 
973              ipv6_addr_any((struct in6_addr *)&x->props.saddr)))
974                 return 1;
975         return 0;
976 }
977
978 static __inline__ int
979 xfrm_state_addr_check(struct xfrm_state *x,
980                       xfrm_address_t *daddr, xfrm_address_t *saddr,
981                       unsigned short family)
982 {
983         switch (family) {
984         case AF_INET:
985                 return __xfrm4_state_addr_check(x, daddr, saddr);
986         case AF_INET6:
987                 return __xfrm6_state_addr_check(x, daddr, saddr);
988         }
989         return 0;
990 }
991
992 static __inline__ int
993 xfrm_state_addr_flow_check(struct xfrm_state *x, struct flowi *fl,
994                            unsigned short family)
995 {
996         switch (family) {
997         case AF_INET:
998                 return __xfrm4_state_addr_check(x,
999                                                 (xfrm_address_t *)&fl->fl4_dst,
1000                                                 (xfrm_address_t *)&fl->fl4_src);
1001         case AF_INET6:
1002                 return __xfrm6_state_addr_check(x,
1003                                                 (xfrm_address_t *)&fl->fl6_dst,
1004                                                 (xfrm_address_t *)&fl->fl6_src);
1005         }
1006         return 0;
1007 }
1008
1009 static inline int xfrm_state_kern(struct xfrm_state *x)
1010 {
1011         return atomic_read(&x->tunnel_users);
1012 }
1013
1014 static inline int xfrm_id_proto_match(u8 proto, u8 userproto)
1015 {
1016         return (!userproto || proto == userproto ||
1017                 (userproto == IPSEC_PROTO_ANY && (proto == IPPROTO_AH ||
1018                                                   proto == IPPROTO_ESP ||
1019                                                   proto == IPPROTO_COMP)));
1020 }
1021
1022 /*
1023  * xfrm algorithm information
1024  */
1025 struct xfrm_algo_auth_info {
1026         u16 icv_truncbits;
1027         u16 icv_fullbits;
1028 };
1029
1030 struct xfrm_algo_encr_info {
1031         u16 blockbits;
1032         u16 defkeybits;
1033 };
1034
1035 struct xfrm_algo_comp_info {
1036         u16 threshold;
1037 };
1038
1039 struct xfrm_algo_desc {
1040         char *name;
1041         char *compat;
1042         u8 available:1;
1043         union {
1044                 struct xfrm_algo_auth_info auth;
1045                 struct xfrm_algo_encr_info encr;
1046                 struct xfrm_algo_comp_info comp;
1047         } uinfo;
1048         struct sadb_alg desc;
1049 };
1050
1051 /* XFRM tunnel handlers.  */
1052 struct xfrm_tunnel {
1053         int (*handler)(struct sk_buff *skb);
1054         int (*err_handler)(struct sk_buff *skb, __u32 info);
1055
1056         struct xfrm_tunnel *next;
1057         int priority;
1058 };
1059
1060 struct xfrm6_tunnel {
1061         int (*handler)(struct sk_buff *skb);
1062         int (*err_handler)(struct sk_buff *skb, struct inet6_skb_parm *opt,
1063                            int type, int code, int offset, __be32 info);
1064         struct xfrm6_tunnel *next;
1065         int priority;
1066 };
1067
1068 extern void xfrm_init(void);
1069 extern void xfrm4_init(void);
1070 extern void xfrm6_init(void);
1071 extern void xfrm6_fini(void);
1072 extern void xfrm_state_init(void);
1073 extern void xfrm4_state_init(void);
1074 extern void xfrm6_state_init(void);
1075 extern void xfrm6_state_fini(void);
1076
1077 extern int xfrm_state_walk(u8 proto, int (*func)(struct xfrm_state *, int, void*), void *);
1078 extern struct xfrm_state *xfrm_state_alloc(void);
1079 extern struct xfrm_state *xfrm_state_find(xfrm_address_t *daddr, xfrm_address_t *saddr, 
1080                                           struct flowi *fl, struct xfrm_tmpl *tmpl,
1081                                           struct xfrm_policy *pol, int *err,
1082                                           unsigned short family);
1083 extern struct xfrm_state * xfrm_stateonly_find(xfrm_address_t *daddr,
1084                                                xfrm_address_t *saddr,
1085                                                unsigned short family,
1086                                                u8 mode, u8 proto, u32 reqid);
1087 extern int xfrm_state_check_expire(struct xfrm_state *x);
1088 extern void xfrm_state_insert(struct xfrm_state *x);
1089 extern int xfrm_state_add(struct xfrm_state *x);
1090 extern int xfrm_state_update(struct xfrm_state *x);
1091 extern struct xfrm_state *xfrm_state_lookup(xfrm_address_t *daddr, __be32 spi, u8 proto, unsigned short family);
1092 extern struct xfrm_state *xfrm_state_lookup_byaddr(xfrm_address_t *daddr, xfrm_address_t *saddr, u8 proto, unsigned short family);
1093 #ifdef CONFIG_XFRM_SUB_POLICY
1094 extern int xfrm_tmpl_sort(struct xfrm_tmpl **dst, struct xfrm_tmpl **src,
1095                           int n, unsigned short family);
1096 extern int xfrm_state_sort(struct xfrm_state **dst, struct xfrm_state **src,
1097                            int n, unsigned short family);
1098 #else
1099 static inline int xfrm_tmpl_sort(struct xfrm_tmpl **dst, struct xfrm_tmpl **src,
1100                                  int n, unsigned short family)
1101 {
1102         return -ENOSYS;
1103 }
1104
1105 static inline int xfrm_state_sort(struct xfrm_state **dst, struct xfrm_state **src,
1106                                   int n, unsigned short family)
1107 {
1108         return -ENOSYS;
1109 }
1110 #endif
1111
1112 struct xfrmk_sadinfo {
1113         u32 sadhcnt; /* current hash bkts */
1114         u32 sadhmcnt; /* max allowed hash bkts */
1115         u32 sadcnt; /* current running count */
1116 };
1117
1118 struct xfrmk_spdinfo {
1119         u32 incnt;
1120         u32 outcnt;
1121         u32 fwdcnt;
1122         u32 inscnt;
1123         u32 outscnt;
1124         u32 fwdscnt;
1125         u32 spdhcnt;
1126         u32 spdhmcnt;
1127 };
1128
1129 extern struct xfrm_state *xfrm_find_acq_byseq(u32 seq);
1130 extern int xfrm_state_delete(struct xfrm_state *x);
1131 extern int xfrm_state_flush(u8 proto, struct xfrm_audit *audit_info);
1132 extern void xfrm_sad_getinfo(struct xfrmk_sadinfo *si);
1133 extern void xfrm_spd_getinfo(struct xfrmk_spdinfo *si);
1134 extern int xfrm_replay_check(struct xfrm_state *x, __be32 seq);
1135 extern void xfrm_replay_advance(struct xfrm_state *x, __be32 seq);
1136 extern void xfrm_replay_notify(struct xfrm_state *x, int event);
1137 extern int xfrm_state_mtu(struct xfrm_state *x, int mtu);
1138 extern int xfrm_init_state(struct xfrm_state *x);
1139 extern int xfrm_prepare_input(struct xfrm_state *x, struct sk_buff *skb);
1140 extern int xfrm_input(struct sk_buff *skb, int nexthdr, __be32 spi,
1141                       int encap_type);
1142 extern int xfrm_output_resume(struct sk_buff *skb, int err);
1143 extern int xfrm_output(struct sk_buff *skb);
1144 extern int xfrm4_extract_header(struct sk_buff *skb);
1145 extern int xfrm4_extract_input(struct xfrm_state *x, struct sk_buff *skb);
1146 extern int xfrm4_rcv_encap(struct sk_buff *skb, int nexthdr, __be32 spi,
1147                            int encap_type);
1148 extern int xfrm4_transport_finish(struct sk_buff *skb, int async);
1149 extern int xfrm4_rcv(struct sk_buff *skb);
1150
1151 static inline int xfrm4_rcv_spi(struct sk_buff *skb, int nexthdr, __be32 spi)
1152 {
1153         return xfrm4_rcv_encap(skb, nexthdr, spi, 0);
1154 }
1155
1156 extern int xfrm4_extract_output(struct xfrm_state *x, struct sk_buff *skb);
1157 extern int xfrm4_prepare_output(struct xfrm_state *x, struct sk_buff *skb);
1158 extern int xfrm4_output(struct sk_buff *skb);
1159 extern int xfrm4_tunnel_register(struct xfrm_tunnel *handler, unsigned short family);
1160 extern int xfrm4_tunnel_deregister(struct xfrm_tunnel *handler, unsigned short family);
1161 extern int xfrm6_extract_header(struct sk_buff *skb);
1162 extern int xfrm6_extract_input(struct xfrm_state *x, struct sk_buff *skb);
1163 extern int xfrm6_rcv_spi(struct sk_buff *skb, int nexthdr, __be32 spi);
1164 extern int xfrm6_transport_finish(struct sk_buff *skb, int async);
1165 extern int xfrm6_rcv(struct sk_buff *skb);
1166 extern int xfrm6_input_addr(struct sk_buff *skb, xfrm_address_t *daddr,
1167                             xfrm_address_t *saddr, u8 proto);
1168 extern int xfrm6_tunnel_register(struct xfrm6_tunnel *handler, unsigned short family);
1169 extern int xfrm6_tunnel_deregister(struct xfrm6_tunnel *handler, unsigned short family);
1170 extern __be32 xfrm6_tunnel_alloc_spi(xfrm_address_t *saddr);
1171 extern void xfrm6_tunnel_free_spi(xfrm_address_t *saddr);
1172 extern __be32 xfrm6_tunnel_spi_lookup(xfrm_address_t *saddr);
1173 extern int xfrm6_extract_output(struct xfrm_state *x, struct sk_buff *skb);
1174 extern int xfrm6_prepare_output(struct xfrm_state *x, struct sk_buff *skb);
1175 extern int xfrm6_output(struct sk_buff *skb);
1176 extern int xfrm6_find_1stfragopt(struct xfrm_state *x, struct sk_buff *skb,
1177                                  u8 **prevhdr);
1178
1179 #ifdef CONFIG_XFRM
1180 extern int xfrm4_udp_encap_rcv(struct sock *sk, struct sk_buff *skb);
1181 extern int xfrm_user_policy(struct sock *sk, int optname, u8 __user *optval, int optlen);
1182 #else
1183 static inline int xfrm_user_policy(struct sock *sk, int optname, u8 __user *optval, int optlen)
1184 {
1185         return -ENOPROTOOPT;
1186
1187
1188 static inline int xfrm4_udp_encap_rcv(struct sock *sk, struct sk_buff *skb)
1189 {
1190         /* should not happen */
1191         kfree_skb(skb);
1192         return 0;
1193 }
1194 #endif
1195
1196 struct xfrm_policy *xfrm_policy_alloc(gfp_t gfp);
1197 extern int xfrm_policy_walk(u8 type, int (*func)(struct xfrm_policy *, int, int, void*), void *);
1198 int xfrm_policy_insert(int dir, struct xfrm_policy *policy, int excl);
1199 struct xfrm_policy *xfrm_policy_bysel_ctx(u8 type, int dir,
1200                                           struct xfrm_selector *sel,
1201                                           struct xfrm_sec_ctx *ctx, int delete,
1202                                           int *err);
1203 struct xfrm_policy *xfrm_policy_byid(u8, int dir, u32 id, int delete, int *err);
1204 int xfrm_policy_flush(u8 type, struct xfrm_audit *audit_info);
1205 u32 xfrm_get_acqseq(void);
1206 extern int xfrm_alloc_spi(struct xfrm_state *x, u32 minspi, u32 maxspi);
1207 struct xfrm_state * xfrm_find_acq(u8 mode, u32 reqid, u8 proto,
1208                                   xfrm_address_t *daddr, xfrm_address_t *saddr,
1209                                   int create, unsigned short family);
1210 extern int xfrm_policy_flush(u8 type, struct xfrm_audit *audit_info);
1211 extern int xfrm_sk_policy_insert(struct sock *sk, int dir, struct xfrm_policy *pol);
1212 extern int xfrm_bundle_ok(struct xfrm_policy *pol, struct xfrm_dst *xdst,
1213                           struct flowi *fl, int family, int strict);
1214
1215 #ifdef CONFIG_XFRM_MIGRATE
1216 extern int km_migrate(struct xfrm_selector *sel, u8 dir, u8 type,
1217                       struct xfrm_migrate *m, int num_bundles);
1218 extern struct xfrm_state * xfrm_migrate_state_find(struct xfrm_migrate *m);
1219 extern struct xfrm_state * xfrm_state_migrate(struct xfrm_state *x,
1220                                               struct xfrm_migrate *m);
1221 extern int xfrm_migrate(struct xfrm_selector *sel, u8 dir, u8 type,
1222                         struct xfrm_migrate *m, int num_bundles);
1223 #endif
1224
1225 extern wait_queue_head_t km_waitq;
1226 extern int km_new_mapping(struct xfrm_state *x, xfrm_address_t *ipaddr, __be16 sport);
1227 extern void km_policy_expired(struct xfrm_policy *pol, int dir, int hard, u32 pid);
1228 extern int km_report(u8 proto, struct xfrm_selector *sel, xfrm_address_t *addr);
1229
1230 extern void xfrm_input_init(void);
1231 extern int xfrm_parse_spi(struct sk_buff *skb, u8 nexthdr, __be32 *spi, __be32 *seq);
1232
1233 extern void xfrm_probe_algs(void);
1234 extern int xfrm_count_auth_supported(void);
1235 extern int xfrm_count_enc_supported(void);
1236 extern struct xfrm_algo_desc *xfrm_aalg_get_byidx(unsigned int idx);
1237 extern struct xfrm_algo_desc *xfrm_ealg_get_byidx(unsigned int idx);
1238 extern struct xfrm_algo_desc *xfrm_aalg_get_byid(int alg_id);
1239 extern struct xfrm_algo_desc *xfrm_ealg_get_byid(int alg_id);
1240 extern struct xfrm_algo_desc *xfrm_calg_get_byid(int alg_id);
1241 extern struct xfrm_algo_desc *xfrm_aalg_get_byname(char *name, int probe);
1242 extern struct xfrm_algo_desc *xfrm_ealg_get_byname(char *name, int probe);
1243 extern struct xfrm_algo_desc *xfrm_calg_get_byname(char *name, int probe);
1244
1245 struct hash_desc;
1246 struct scatterlist;
1247 typedef int (icv_update_fn_t)(struct hash_desc *, struct scatterlist *,
1248                               unsigned int);
1249
1250 extern int skb_icv_walk(const struct sk_buff *skb, struct hash_desc *tfm,
1251                         int offset, int len, icv_update_fn_t icv_update);
1252
1253 static inline int xfrm_addr_cmp(xfrm_address_t *a, xfrm_address_t *b,
1254                                 int family)
1255 {
1256         switch (family) {
1257         default:
1258         case AF_INET:
1259                 return (__force __u32)a->a4 - (__force __u32)b->a4;
1260         case AF_INET6:
1261                 return ipv6_addr_cmp((struct in6_addr *)a,
1262                                      (struct in6_addr *)b);
1263         }
1264 }
1265
1266 static inline int xfrm_policy_id2dir(u32 index)
1267 {
1268         return index & 7;
1269 }
1270
1271 static inline int xfrm_aevent_is_on(void)
1272 {
1273         struct sock *nlsk;
1274         int ret = 0;
1275
1276         rcu_read_lock();
1277         nlsk = rcu_dereference(xfrm_nl);
1278         if (nlsk)
1279                 ret = netlink_has_listeners(nlsk, XFRMNLGRP_AEVENTS);
1280         rcu_read_unlock();
1281         return ret;
1282 }
1283
1284 static inline int xfrm_alg_len(struct xfrm_algo *alg)
1285 {
1286         return sizeof(*alg) + ((alg->alg_key_len + 7) / 8);
1287 }
1288
1289 #ifdef CONFIG_XFRM_MIGRATE
1290 static inline struct xfrm_algo *xfrm_algo_clone(struct xfrm_algo *orig)
1291 {
1292         return kmemdup(orig, xfrm_alg_len(orig), GFP_KERNEL);
1293 }
1294
1295 static inline void xfrm_states_put(struct xfrm_state **states, int n)
1296 {
1297         int i;
1298         for (i = 0; i < n; i++)
1299                 xfrm_state_put(*(states + i));
1300 }
1301
1302 static inline void xfrm_states_delete(struct xfrm_state **states, int n)
1303 {
1304         int i;
1305         for (i = 0; i < n; i++)
1306                 xfrm_state_delete(*(states + i));
1307 }
1308 #endif
1309
1310 #endif  /* _NET_XFRM_H */