f2fs: use meta_inode cache to improve roll-forward speed
[linux-3.10.git] / fs / f2fs / recovery.c
index f78efa5..72583cb 100644 (file)
@@ -141,7 +141,7 @@ static int find_fsync_dnodes(struct f2fs_sb_info *sbi, struct list_head *head)
 {
        unsigned long long cp_ver = cur_cp_version(F2FS_CKPT(sbi));
        struct curseg_info *curseg;
-       struct page *page;
+       struct page *page = NULL;
        block_t blkaddr;
        int err = 0;
 
@@ -149,20 +149,14 @@ static int find_fsync_dnodes(struct f2fs_sb_info *sbi, struct list_head *head)
        curseg = CURSEG_I(sbi, CURSEG_WARM_NODE);
        blkaddr = NEXT_FREE_BLKADDR(sbi, curseg);
 
-       /* read node page */
-       page = alloc_page(GFP_F2FS_ZERO);
-       if (!page)
-               return -ENOMEM;
-       lock_page(page);
-
        while (1) {
                struct fsync_inode_entry *entry;
 
-               err = f2fs_submit_page_bio(sbi, page, blkaddr, READ_SYNC);
-               if (err)
-                       return err;
+               if (blkaddr < SM_I(sbi)->main_blkaddr ||
+                       blkaddr >= (SM_I(sbi)->seg0_blkaddr + TOTAL_BLKS(sbi)))
+                       return 0;
 
-               lock_page(page);
+               page = get_meta_page_ra(sbi, blkaddr);
 
                if (cp_ver != cpver_of_node(page))
                        break;
@@ -216,11 +210,9 @@ static int find_fsync_dnodes(struct f2fs_sb_info *sbi, struct list_head *head)
 next:
                /* check next segment */
                blkaddr = next_blkaddr_of_node(page);
+               f2fs_put_page(page, 1);
        }
-
-       unlock_page(page);
-       __free_pages(page, 0);
-
+       f2fs_put_page(page, 1);
        return err;
 }
 
@@ -435,7 +427,7 @@ static int recover_data(struct f2fs_sb_info *sbi,
 {
        unsigned long long cp_ver = cur_cp_version(F2FS_CKPT(sbi));
        struct curseg_info *curseg;
-       struct page *page;
+       struct page *page = NULL;
        int err = 0;
        block_t blkaddr;
 
@@ -443,28 +435,19 @@ static int recover_data(struct f2fs_sb_info *sbi,
        curseg = CURSEG_I(sbi, type);
        blkaddr = NEXT_FREE_BLKADDR(sbi, curseg);
 
-       /* read node page */
-       page = alloc_page(GFP_F2FS_ZERO);
-       if (!page)
-               return -ENOMEM;
-
-       lock_page(page);
-
        while (1) {
                struct fsync_inode_entry *entry;
 
-               err = f2fs_submit_page_bio(sbi, page, blkaddr, READ_SYNC);
-               if (err) {
-                       f2fs_msg(sbi->sb, KERN_INFO,
-                               "%s: f2fs_readpage failed: %d",
-                               __func__, err);
-                       return err;
-               }
+               if (blkaddr < SM_I(sbi)->main_blkaddr ||
+                       blkaddr >= (SM_I(sbi)->seg0_blkaddr + TOTAL_BLKS(sbi)))
+                       break;
 
-               lock_page(page);
+               page = get_meta_page_ra(sbi, blkaddr);
 
-               if (cp_ver != cpver_of_node(page))
+               if (cp_ver != cpver_of_node(page)) {
+                       f2fs_put_page(page, 1);
                        break;
+               }
 
                entry = get_fsync_inode(head, ino_of_node(page));
                if (!entry)
@@ -472,6 +455,7 @@ static int recover_data(struct f2fs_sb_info *sbi,
 
                err = do_recover_data(sbi, entry->inode, page, blkaddr);
                if (err) {
+                       f2fs_put_page(page, 1);
                        f2fs_msg(sbi->sb, KERN_INFO,
                                "%s: do_recover_data failed: %d",
                                __func__, err);
@@ -486,11 +470,8 @@ static int recover_data(struct f2fs_sb_info *sbi,
 next:
                /* check next segment */
                blkaddr = next_blkaddr_of_node(page);
+               f2fs_put_page(page, 1);
        }
-
-       unlock_page(page);
-       __free_pages(page, 0);
-
        if (!err)
                allocate_new_segments(sbi);
        return err;
@@ -541,6 +522,10 @@ out:
        destroy_fsync_dnodes(&inode_list);
        kmem_cache_destroy(fsync_entry_slab);
 
+       /* truncate meta pages to be used by the recovery */
+       truncate_inode_pages_range(META_MAPPING(sbi),
+               SM_I(sbi)->main_blkaddr << PAGE_CACHE_SHIFT, -1);
+
        if (err) {
                truncate_inode_pages(NODE_MAPPING(sbi), 0);
                truncate_inode_pages(META_MAPPING(sbi), 0);