Use non atomic unlock
[linux-2.6.git] / mm / slub.c
index ac836d3..bccfb6a 100644 (file)
--- a/mm/slub.c
+++ b/mm/slub.c
@@ -1219,7 +1219,7 @@ static __always_inline void slab_lock(struct page *page)
 
 static __always_inline void slab_unlock(struct page *page)
 {
-       bit_spin_unlock(PG_locked, &page->flags);
+       __bit_spin_unlock(PG_locked, &page->flags);
 }
 
 static __always_inline int slab_trylock(struct page *page)