mdadm + LVM の RAID1 をディスク交換して容量を増やす

概要

3 TB HDD × 2 で構築していた RAID1 を 8 TB HDD × 2 に交換した記録。

前提と作業内容

今回は、/dev/sdb1 と /dev/sdc1 の2パーティションで RAID1 (/dev/md0) を構成している前提。
ファイルシステムは XFS を使用。

手順としては、RAID 再構築 → RAID 拡張 → LVM 拡張 → ファイルシステム拡張の4ステップ。

8 TB のドライブの使い方として、 3 TB + 5 TB に分けて2つの RAID1 を作成して LVM でまとめることもできるけど、今回は 8 TB の大きなアレイを作成することにした。

手順

1.ディスク交換

1-1.1本目のディスクを故障状態にして RAID から外す

# mdadm /dev/md0 --fail /dev/sdb1
# mdadm /dev/md0 --remove /dev/sdb1
# shutdown -h now

1-2.物理的に1本目のディスクを交換

1-3.1本目のディスクのパーティション作成

今回は 8TB 全体を使う1のパーティション (/dev/sdb1) を作った。
パーティションのタイプは Linux RAID (29) を指定する。

# fdisk /dev/sdb

1-4.1本目の同期

3 TB 領域を同期する。大体5時間かかった。

# mdadm /dev/md0 --add /dev/sdb1

1-5.2本目のディスクを故障状態にして RAID から外す

# mdadm /dev/md0 --fail /dev/sdc1
# mdadm /dev/md0 --remove /dev/sdc1
# shutdown -h now

1-6.物理的に2本目のディスクを交換

1-7.2本目のディスクのパーティション作成

# fdisk /dev/sdc

1-8.2本目の同期

# mdadm /dev/md0 --add /dev/sdc1

2.RAID 領域の拡張

このままだと前の容量の 3 TB しか使えないので、RAID 領域を拡張する。
残りの 5 TB 分の同期に8時間ほどかかった。
RAID1 なので、 --assume-clean しても良かったと思うけど、今回は同期しておいた。

# mdadm --grow /dev/md0 -z max

3.LVM の拡張

Physical Volume の拡張

# pvresize /dev/md0

LV に設定する PE 数の確認(Total PE)

# pvdisplay

LV の拡張

# lvextend -l [PE数] [LV path]

4.ファイルシステムの拡張

# xfs_growfs [マウントポイント]

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください