RAID1 HDDディスク容量拡大
今回のCentOS 7でのサーバー再構築の途中で古い500GBのハードディスクが破損してしまい、新たに1TBのHDDで再構築を行いましたが、500GBのRAID1構成で生き残っていたHDDをベースに1TBのHDDに移植したため、1TBのハードディスクであっても500GBしか認識しない状況になっていました。
過去にも同様のことがあり、何とか容量拡大をできたのですが、やり方を忘れてしまい、いろいろ調べてようやく完了したので備忘録として記述しておくことにしました。
まず/bootとSwap領域はそのままで、/ だけの拡大なので、/ のデバイスを調べます。
# cat /proc/mdstat Personalities : [raid1] md125 : active raid1 sda2[2] sdb2[3] 307904 blocks super 1.2 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunk md126 : active raid1 sda3[2] sdb3[3] 483848192 blocks super 1.2 [2/2] [UU] bitmap: 2/4 pages [8KB], 65536KB chunk md127 : active raid1 sda1[2] sdb1[3] 4096000 blocks super 1.2 [2/2] [UU] unused devices:
割り当てサイズから / は md126であることが判りましたので、次はRAID1で同期するアレイエリアを拡大します。
# mdadm --grow /dev/md126 --size=max mdadm: component size of /dev/md126 has been set to 972131032
この作業は2時間ほど時間がかかりました。
こんな感じでmd126のアレイエリアの拡大の様子が解ります。
# cat /proc/mdstat Personalities : [raid1] md125 : active raid1 sda2[2] sdb2[3] 307904 blocks super 1.2 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunk md126 : active raid1 sda3[2] sdb3[3] 972131032 blocks super 1.2 [2/2] [UU] [===========>.........] resync = 56.5% (550092800/972131032) finish=128.4min speed=54771K/sec bitmap: 2/4 pages [8KB], 131072KB chunk md127 : active raid1 sda1[2] sdb1[3] 4096000 blocks super 1.2 [2/2] [UU] unused devices:
アレイエリアの拡大が終わってもHDDのボリューム拡大がなされていないのでHDD容量はまだ少ないままです。 この容量を拡大するコマンドが xfs_growfsです。 以前はresize2fsコマンドでしたがCentOS7からはxfs_growfsに変わったようです。
# xfs_growfs /dev/md126 meta-data=/dev/md126 isize=512 agcount=4, agsize=30240512 blks = sectsz=512 attr=2, projid32bit=1 = crc=1 finobt=0 spinodes=0 data = bsize=4096 blocks=120962048, imaxpct=25 = sunit=0 swidth=0 blks naming =version 2 bsize=4096 ascii-ci=0 ftype=1 log =internal bsize=4096 blocks=59063, version=2 = sectsz=512 sunit=0 blks, lazy-count=1 realtime =none extsz=4096 blocks=0, rtextents=0 data blocks changed from 120962048 to 243032758
データブロックの割り当てが増えています。 dfコマンドで見てみると
# df Filesystem 1K-blocks Used Available Use% Mounted on devtmpfs 1922184 0 1922184 0% /dev tmpfs 1939524 0 1939524 0% /dev/shm tmpfs 1939524 207076 1732448 11% /run tmpfs 1939524 0 1939524 0% /sys/fs/cgroup /dev/md126 971894780 231665944 740228836 24% / /dev/md125 304484 229904 74580 76% /boot tmpfs 387908 48 387860 1% /run/user/0 tmpfs 387908 0 387908 0% /run/user/1000
容量が増え使用率が減りました。 拡大前のちょうど2倍の容量、使用率は半分になっています。
1TBのHDDの全部に電気が通じた感じですかね・・・(笑)