====== ZFSでRAID10プールの作成と後からRAID1メンバーを追加する方法 ====== ===== コマンド ===== ==== プールの作成 ==== ZFSでRAID 1+0のプールを作るには、''zpool create''でmirror vdevを並べてやればよい。 zpool create プール名 \ mirror RAID1ペア1のデバイス1 RAID1ペア1のデバイス2 \ mirror RAID1ペア2のデバイス1 RAID1ペア2のデバイス2 上記コマンドではストレージ2台から成るミラーを2セットでRAID10としている。ミラーのメンバ数(各mirror行に指定するデバイス数)や、ストライピング数(mirrorの行数)は任意に変えられる。 大雑把に言うと、''zpool create''は引数のデバイスでストライプ構成のプールを作成するコマンドである。従って、与デバイスとしてHDD/SSDを直接指定すればRAID0プールとなるし、mirror vdevを渡せばRAID10となる。RAID-ZやRAID-Z2も同様。 ==== RAID1セットの追加 ==== 既存のRAID 1+0プールにRAID1セットを追加するには、''zpool add''で以下のようにする。 * zpool add プール名 mirror RAID1ペアのデバイス1 RAID1ペアのデバイス2 冒頭のプールで本コマンドを実行したとすると、ストレージ2台から成るミラーが3セットのRAID10プールに変わることとなる。 ===== 実例 ===== ==== 試した環境 ==== * NAS4Free 11.0.0.4 * 4TB HDD × 6本 * 2本1組のRAID1を3ユニット束ねてRAID10とする ==== 手順 ==== ↓こんな感じで4TBのHDDが6本ある。 # camcontrol devlist at scbus0 target 0 lun 0 (ada0,pass0) at scbus1 target 0 lun 0 (ada1,pass1) at scbus2 target 0 lun 0 (ada2,pass2) at scbus4 target 0 lun 0 (ada4,pass3) at scbus5 target 0 lun 0 (ada5,pass4) at scbus6 target 0 lun 0 (ada6,pass5) デバイス番号(adaX)が飛んでるのは、下図のようなSATAエンクロージャの上下にHDDを各3本挿し、上下のペアでミラーとしたため。 +---+---+---+---+ | | | | | | 0 | 1 | 2 | 3 | | | | | | +---+---+---+---+ | | | | | | 4 | 5 | 6 | 7 | | | | | | +---+---+---+---+ GPTで初期化する。 # gpart create -s gpt ada0 # gpart create -s gpt ada1 # gpart create -s gpt ada2 # gpart create -s gpt ada4 # gpart create -s gpt ada5 # gpart create -s gpt ada6 ZFS用にパーティションを切る。ディスク全体を使ってもいいのだが(実際ZFSではそのような使い方が推奨されている)、微妙な容量差で同一公称容量のHDDと交換出来ないと詰むため、敢えてパーティションを切って使っている。 # gpart add -a 4k -s 7800000000 -t freebsd-zfs ada0 # gpart add -a 4k -s 7800000000 -t freebsd-zfs ada1 # gpart add -a 4k -s 7800000000 -t freebsd-zfs ada2 # gpart add -a 4k -s 7800000000 -t freebsd-zfs ada4 # gpart add -a 4k -s 7800000000 -t freebsd-zfs ada5 # gpart add -a 4k -s 7800000000 -t freebsd-zfs ada6 # gpart show => 40 7814037088 ada0 GPT (3.6T) 40 7800000000 1 freebsd-zfs (3.6T) 7800000040 14037088 - free - (6.7G) => 40 7814037088 ada1 GPT (3.6T) 40 7800000000 1 freebsd-zfs (3.6T) 7800000040 14037088 - free - (6.7G) => 40 7814037088 ada2 GPT (3.6T) 40 7800000000 1 freebsd-zfs (3.6T) 7800000040 14037088 - free - (6.7G) => 40 7814037088 ada4 GPT (3.6T) 40 7800000000 1 freebsd-zfs (3.6T) 7800000040 14037088 - free - (6.7G) => 40 7814037088 ada5 GPT (3.6T) 40 7800000000 1 freebsd-zfs (3.6T) 7800000040 14037088 - free - (6.7G) => 40 7814037088 ada6 GPT (3.6T) 40 7800000000 1 freebsd-zfs (3.6T) 7800000040 14037088 - free - (6.7G) RAID10ボリュームを作成する。後の実験のために2ペア4台しか指定していないが、実際には初めから全てのHDDを使ったほうがいいだろう。 # zpool create zdata mirror ada0p1 ada4p1 mirror ada1p1 ada5p1 # zpool status pool: zdata state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM zdata ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ada0p1 ONLINE 0 0 0 ada4p1 ONLINE 0 0 0 mirror-1 ONLINE 0 0 0 ada1p1 ONLINE 0 0 0 ada5p1 ONLINE 0 0 0 errors: No known data errors RAID1のペアを追加してみる。 # zpool add zdata mirror ada2p1 ada6p1 # zpool status pool: zdata state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM zdata ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ada0p1 ONLINE 0 0 0 ada4p1 ONLINE 0 0 0 mirror-1 ONLINE 0 0 0 ada1p1 ONLINE 0 0 0 ada5p1 ONLINE 0 0 0 mirror-2 ONLINE 0 0 0 ada2p1 ONLINE 0 0 0 ada6p1 ONLINE 0 0 0 errors: No known data errors 念のためashiftを確認。シフト量はvdevごとに存在することに注意。 # zdb -C zdata | grep ashift ashift: 12 ashift: 12 ashift: 12