]> nv-tegra.nvidia Code Review - linux-2.6.git/blob - arch/arm/mach-ux500/cache-l2x0.c
Merge branch 'upstream' of git://git.linux-mips.org/pub/scm/ralf/upstream-linus
[linux-2.6.git] / arch / arm / mach-ux500 / cache-l2x0.c
1 /*
2  * Copyright (C) ST-Ericsson SA 2011
3  *
4  * License terms: GNU General Public License (GPL) version 2
5  */
6
7 #include <linux/io.h>
8 #include <asm/cacheflush.h>
9 #include <asm/hardware/cache-l2x0.h>
10 #include <mach/hardware.h>
11 #include <mach/id.h>
12
13 static void __iomem *l2x0_base;
14
15 static inline void ux500_cache_wait(void __iomem *reg, unsigned long mask)
16 {
17         /* wait for the operation to complete */
18         while (readl_relaxed(reg) & mask)
19                 cpu_relax();
20 }
21
22 static inline void ux500_cache_sync(void)
23 {
24         writel_relaxed(0, l2x0_base + L2X0_CACHE_SYNC);
25         ux500_cache_wait(l2x0_base + L2X0_CACHE_SYNC, 1);
26 }
27
28 /*
29  * The L2 cache cannot be turned off in the non-secure world.
30  * Dummy until a secure service is in place.
31  */
32 static void ux500_l2x0_disable(void)
33 {
34 }
35
36 /*
37  * This is only called when doing a kexec, just after turning off the L2
38  * and L1 cache, and it is surrounded by a spinlock in the generic version.
39  * However, we're not really turning off the L2 cache right now and the
40  * PL310 does not support exclusive accesses (used to implement the spinlock).
41  * So, the invalidation needs to be done without the spinlock.
42  */
43 static void ux500_l2x0_inv_all(void)
44 {
45         uint32_t l2x0_way_mask = (1<<16) - 1;   /* Bitmask of active ways */
46
47         /* invalidate all ways */
48         writel_relaxed(l2x0_way_mask, l2x0_base + L2X0_INV_WAY);
49         ux500_cache_wait(l2x0_base + L2X0_INV_WAY, l2x0_way_mask);
50         ux500_cache_sync();
51 }
52
53 static int __init ux500_l2x0_unlock(void)
54 {
55         int i;
56
57         /*
58          * Unlock Data and Instruction Lock if locked. Ux500 U-Boot versions
59          * apparently locks both caches before jumping to the kernel. The
60          * l2x0 core will not touch the unlock registers if the l2x0 is
61          * already enabled, so we do it right here instead. The PL310 has
62          * 8 sets of registers, one per possible CPU.
63          */
64         for (i = 0; i < 8; i++) {
65                 writel_relaxed(0x0, l2x0_base + L2X0_LOCKDOWN_WAY_D_BASE +
66                                i * L2X0_LOCKDOWN_STRIDE);
67                 writel_relaxed(0x0, l2x0_base + L2X0_LOCKDOWN_WAY_I_BASE +
68                                i * L2X0_LOCKDOWN_STRIDE);
69         }
70         return 0;
71 }
72
73 static int __init ux500_l2x0_init(void)
74 {
75         if (cpu_is_u5500())
76                 l2x0_base = __io_address(U5500_L2CC_BASE);
77         else if (cpu_is_u8500())
78                 l2x0_base = __io_address(U8500_L2CC_BASE);
79         else
80                 ux500_unknown_soc();
81
82         /* Unlock before init */
83         ux500_l2x0_unlock();
84
85         /* 64KB way size, 8 way associativity, force WA */
86         l2x0_init(l2x0_base, 0x3e060000, 0xc0000fff);
87
88         /* Override invalidate function */
89         outer_cache.disable = ux500_l2x0_disable;
90         outer_cache.inv_all = ux500_l2x0_inv_all;
91
92         return 0;
93 }
94
95 early_initcall(ux500_l2x0_init);