RAID1 HDDディスク容量拡大

今回のCentOS 7でのサーバー再構築の途中で古い500GBのハードディスクが破損してしまい、新たに1TBのHDDで再構築を行いましたが、500GBのRAID1構成で生き残っていたHDDをベースに1TBのHDDに移植したため、1TBのハードディスクであっても500GBしか認識しない状況になっていました。

過去にも同様のことがあり、何とか容量拡大をできたのですが、やり方を忘れてしまい、いろいろ調べてようやく完了したので備忘録として記述しておくことにしました。

まず/bootとSwap領域はそのままで、/ だけの拡大なので、/ のデバイスを調べます。

# cat /proc/mdstat
Personalities : [raid1] 
md125 : active raid1 sda2[2] sdb2[3]
      307904 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md126 : active raid1 sda3[2] sdb3[3]
      483848192 blocks super 1.2 [2/2] [UU]
      bitmap: 2/4 pages [8KB], 65536KB chunk

md127 : active raid1 sda1[2] sdb1[3]
      4096000 blocks super 1.2 [2/2] [UU]
      
unused devices: 

割り当てサイズから / は md126であることが判りましたので、次はRAID1で同期するアレイエリアを拡大します

# mdadm --grow /dev/md126 --size=max

mdadm: component size of /dev/md126 has been set to 972131032

この作業は2時間ほど時間がかかりました。

こんな感じでmd126のアレイエリアの拡大の様子が解ります。

# cat /proc/mdstat
Personalities : [raid1] 
md125 : active raid1 sda2[2] sdb2[3]
      307904 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md126 : active raid1 sda3[2] sdb3[3]
      972131032 blocks super 1.2 [2/2] [UU]
      [===========>.........]  resync = 56.5% (550092800/972131032) finish=128.4min speed=54771K/sec
      bitmap: 2/4 pages [8KB], 131072KB chunk

md127 : active raid1 sda1[2] sdb1[3]
      4096000 blocks super 1.2 [2/2] [UU]
      
unused devices: 

アレイエリアの拡大が終わってもHDDのボリューム拡大がなされていないのでHDD容量はまだ少ないままです。 この容量を拡大するコマンドが xfs_growfsです。 以前はresize2fsコマンドでしたがCentOS7からはxfs_growfsに変わったようです。

# xfs_growfs /dev/md126
meta-data=/dev/md126             isize=512    agcount=4, agsize=30240512 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0 spinodes=0
data     =                       bsize=4096   blocks=120962048, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal               bsize=4096   blocks=59063, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
data blocks changed from 120962048 to 243032758

データブロックの割り当てが増えています。 dfコマンドで見てみると

# df
Filesystem     1K-blocks      Used Available Use% Mounted on
devtmpfs         1922184         0   1922184   0% /dev
tmpfs            1939524         0   1939524   0% /dev/shm
tmpfs            1939524    207076   1732448  11% /run
tmpfs            1939524         0   1939524   0% /sys/fs/cgroup
/dev/md126     971894780 231665944 740228836  24% /
/dev/md125        304484    229904     74580  76% /boot
tmpfs             387908        48    387860   1% /run/user/0
tmpfs             387908         0    387908   0% /run/user/1000

使用容量が増え使用率が減りました。 拡大前のちょうど2倍の容量、使用率は半分になっています。

1TBのHDDの全部に電気が通じた感じですかね・・・(笑)

 

Visits: 861

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

*