RAID1で構築しているパーティションが余っていたので、その領域を縮小させ、こちらのパーティションを拡張する。
ここからは、アレイを復旧していく。
ここまでの作業で、縮小したいディスクスペースについては、
- ファイルシステムのサイズの縮小
- ファイルシステムが入ったRAID1ボリュームのサイズの縮小
- ファイルシステムが入ったRAID1構成から、ディスクの片方の取り外し
- 取り外したディスク1本のパーティションサイズの縮小
を行った。
加えて、拡張したいディスクスペースについては、RAID1においては
- ファイルシステムが入ったRAID1構成から、ディスクの片方の取り外し
- 取り外したディスク1本のパーティションサイズの拡張
を行った。
また、拡張したいRAID0においては、
- ファイルシステムが入ったRAID0構成は、RAID0を停止
- 取り外したディスク1本のパーティションサイズの拡張
を行った。
次は、取り外していたディスクをRAIDに戻す。
なお、戻すのはRAID1のみ。RAID0はファイルシステムとして成り立たないので、もう一本のディスクの作業が終わってから、新規にRAID0を再構築する。
まずは現状のmdstatを確認する。
片肺で動いていることが確認できる。
root@edo / # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [raid0] [raid1] [raid10] [linear] [multipath] md3 : active raid1 sda3[2] 33553336 blocks super 1.2 [2/1] [U_] md4 : active raid1 sda4[2] 125829120 blocks super 1.2 [2/1] [U_] bitmap: 0/1 pages [0KB], 65536KB chunk md1 : active raid1 sda1[0] 524224 blocks [2/1] [U_] unused devices: <none>まずは容量の小さいmd1に、sdb1を戻す。
mdadm --addを使用する。
root@edo / # mdadm --add /dev/md1 /dev/sdb1 mdadm: hot added /dev/sdb1同期の状態を確認する。
サイズが小さいので一瞬で同期完了。
root@edo / # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [raid0] [raid1] [raid10] [linear] [multipath] md3 : active raid1 sda3[2] 33553336 blocks super 1.2 [2/1] [U_] md4 : active raid1 sda4[2] 125829120 blocks super 1.2 [2/1] [U_] bitmap: 0/1 pages [0KB], 65536KB chunk md1 : active raid1 sdb1[1] sda1[0] 524224 blocks [2/2] [UU] unused devices: <none>続いて、md3にsdb3を戻す。
こちらはそこそこ容量があるので、同期に時間がかかっていることがわかる。
root@edo /
# mdadm --add /dev/md3 /dev/sdb3 mdadm: added /dev/sdb3 root@edo / # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [raid0] [raid1] [raid10] [linear] [multipath] md3 : active raid1 sdb3[3] sda3[2] 33553336 blocks super 1.2 [2/1] [U_] [>....................] recovery = 1.1% (401792/33553336) finish=2.7min speed=200896K/sec md4 : active raid1 sda4[2] 125829120 blocks super 1.2 [2/1] [U_] bitmap: 0/1 pages [0KB], 65536KB chunk md1 : active raid1 sdb1[1] sda1[0] 524224 blocks [2/2] [UU] unused devices: <none> root@edo / # mdadm -D /dev/md3 /dev/md3: Version : 1.2 Creation Time : Fri Nov 30 02:19:12 2012 Raid Level : raid1 Array Size : 33553336 (32.00 GiB 34.36 GB) Used Dev Size : 33553336 (32.00 GiB 34.36 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Sun Aug 2 13:10:36 2020 State : clean, degraded, recovering Active Devices : 1 Working Devices : 2 Failed Devices : 0 Spare Devices : 1 Consistency Policy : resync Rebuild Status : 12% complete Name : edo:/ (local to host edo) UUID : 1a4518b9:879d5121:f1651760:8b1a1f02 Events : 32836 Number Major Minor RaidDevice State 2 8 3 0 active sync /dev/sda3 3 8 19 1 spare rebuilding /dev/sdb3
root@edo / # mdadm -D /dev/md3 /dev/md3: Version : 1.2 Creation Time : Fri Nov 30 02:19:12 2012 Raid Level : raid1 Array Size : 33553336 (32.00 GiB 34.36 GB) Used Dev Size : 33553336 (32.00 GiB 34.36 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Sun Aug 2 13:13:12 2020 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Consistency Policy : resync Name : edo:/ (local to host edo) UUID : 1a4518b9:879d5121:f1651760:8b1a1f02 Events : 32900 Number Major Minor RaidDevice State 2 8 3 0 active sync /dev/sda3 3 8 19 1 active sync /dev/sdb3 root@edo / # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [raid0] [raid1] [raid10] [linear] [multipath] md3 : active raid1 sdb3[3] sda3[2] 33553336 blocks super 1.2 [2/2] [UU] md4 : active raid1 sda4[2] 125829120 blocks super 1.2 [2/1] [U_] bitmap: 0/1 pages [0KB], 65536KB chunk md1 : active raid1 sdb1[1] sda1[0] 524224 blocks [2/2] [UU] unused devices: <none>
最後にmd4に、sdb4を戻す。
root@edo / # mdadm --add /dev/md4 /dev/sdb4 mdadm: added /dev/sdb4 root@edo / # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [raid0] [raid1] [raid10] [linear] [multipath] md3 : active raid1 sdb3[3] sda3[2] 33553336 blocks super 1.2 [2/2] [UU] md4 : active raid1 sdb4[3] sda4[2] 125829120 blocks super 1.2 [2/1] [U_] [>....................] recovery = 0.3% (447424/125829120) finish=9.3min speed=223712K/sec bitmap: 0/1 pages [0KB], 65536KB chunk md1 : active raid1 sdb1[1] sda1[0] 524224 blocks [2/2] [UU] unused devices: <none> root@edo / # mdadm -D /dev/md4 /dev/md4: Version : 1.2 Creation Time : Sat Aug 1 16:49:39 2015 Raid Level : raid1 Array Size : 125829120 (120.00 GiB 128.85 GB) Used Dev Size : 125829120 (120.00 GiB 128.85 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Sun Aug 2 13:14:42 2020 State : clean, degraded, recovering Active Devices : 1 Working Devices : 2 Failed Devices : 0 Spare Devices : 1 Consistency Policy : bitmap Rebuild Status : 1% complete Name : edo:/data (local to host edo) UUID : 8f55590b:38f15e8a:4ea20fad:c34229d8 Events : 7305 Number Major Minor RaidDevice State 2 8 4 0 active sync /dev/sda4 3 8 20 1 spare rebuilding /dev/sdb4
こちらも、同期完了にしばらく時間がかかった。
root@edo / # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [raid0] [raid1] [raid10] [linear] [multipath] md3 : active raid1 sdb3[3] sda3[2] 33553336 blocks super 1.2 [2/2] [UU] md4 : active raid1 sdb4[3] sda4[2] 125829120 blocks super 1.2 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunk md1 : active raid1 sdb1[1] sda1[0] 524224 blocks [2/2] [UU] unused devices: <none> root@edo / # mdadm -D /dev/md4 /dev/md4: Version : 1.2 Creation Time : Sat Aug 1 16:49:39 2015 Raid Level : raid1 Array Size : 125829120 (120.00 GiB 128.85 GB) Used Dev Size : 125829120 (120.00 GiB 128.85 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Sun Aug 2 13:25:11 2020 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Consistency Policy : bitmap Name : edo:/data (local to host edo) UUID : 8f55590b:38f15e8a:4ea20fad:c34229d8 Events : 7429 Number Major Minor RaidDevice State 2 8 4 0 active sync /dev/sda4 3 8 20 1 active sync /dev/sdb4同じ作業をsdaに対しても行う。
0 件のコメント:
新しいコメントは書き込めません。