2022/06/11

LinuxのRAIDディスクの移植(PCの機体を交換)

サーバにしていたPCの電源が入らなくなったので、PC本体を交換し、ディスクはそのまま移植することにした。

新PCではSSDのスロットが1個しかないので、今まではSATA SSD x2で運用していたが、SATA SSD + M.2 SSDの構成に変更する。


学んだこと

SATAのディスクをそのまま付け替えてもBIOS(UEFIだった)が起動可能ディスクとして認識しない。USBブートで起動させると、認識はしているのでディスクが壊れているわけではない。

旧PCはBIOS機、新PCはUEFI機であり、そのままディスクを差し替えても、起動可能ディスクとして認識されない。

UEFIで起動できるようにパーティション構成を変更する必要がある。

運良く、GPTで構成していたので最小限で済んだ。


RAIDは片系のみ

このLinuxはGentooなので、GentooのAdmin CD(Minumal Installation CDではコマンドが足りない。と思うが、それは試行錯誤したせいで、最短コースで進めばMinimal Installation CDでも良かったのかもしれない。)をダウンロードして、Rufus等でUSBに書き込む。

USBブートで起動して、RAIDの状況を確認する。

# cat /proc/mdstat
Personalities : [raid1]
md125 : inactive sda4[2](S)
      209584128 blocks super 1.2

md126 : inactive raid1 sda3[2](S)
      62913536 blocks super 1.2

md127 : inactive raid1 sda1[0](S)
      524224 blocks

unused devices: <none>

一応、RAIDのディスクであることは認識されているようだ。ただし、どれもinactive。RAIDを一旦停止して、再度登録する。例えば、/dev/md127を停止した後に、Scanさせると/dev/md1として認識され、activeになった。

# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sda1[0]
      524224 blocks [2/1] [U_]

md125 : inactive sda4[2](S)
      209584128 blocks super 1.2

md126 : inactive raid1 sda3[2](S)
      62913536 blocks super 1.2

unused devices: <none>

具体的なコマンド(/dev/md126についての例)

# mdadm --detail /dev/md126
/dev/md126:
           Version : 1.2
        Raid Level : raid0
     Total Devices : 1
       Persistence : Superblock is persistent

             State : inactive
   Working Devices : 1

Consistency Policy : resync

              Name : edo:/
              UUID : 1a4518b9:879d5121:f1651760:8b1a1f02
            Events : 35387

    Number   Major   Minor   RaidDevice

       -       8        3        -      /dev/sda3

# mdadm --examine /dev/md126
#
# mdadm --stop /dev/md126
mdadm: stopped /dev/md126
# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sda1[0]
      524224 blocks [2/1] [U_]

md125 : inactive sda4[2](S)
      209584128 blocks super 1.2

unused devices: <none>

# mdadm --assemble --scan
mdadm: /dev/md/edo:- has been started with 1 drive (out of 2).
# cat /proc/mdstat
Personalities : [raid1]
md127 : active raid1 sda3[2](S)
      62913536 blocks super 1.2 [2/1] [U_]

md1 : active raid1 sda1[0]
      524224 blocks [2/1] [U_]

md125 : inactive sda4[2](S)
      209584128 blocks super 1.2

unused devices: <none>

こんな感じで/dev/md126はなくなり、/dev/md127としてactiveな状態になった。/dev/md125も同様。

# mdadm --detail /dev/md125
/dev/md125:
           Version : 1.2
        Raid Level : raid0
     Total Devices : 1
       Persistence : Superblock is persistent

             State : inactive
   Working Devices : 1

Consistency Policy : resync

              Name : edo:/data
              UUID : 8f55590b:38f15e8a:4ea20fad:c34229d8
            Events : 11921

    Number   Major   Minor   RaidDevice

       -       8        3        -      /dev/sda4

# mdadm --examine /dev/md125
#
# mdadm --stop /dev/md125
mdadm: stopped /dev/md125
# cat /proc/mdstat
Personalities : [raid1]
md127 : active raid1 sda3[2](S)
      62913536 blocks super 1.2 [2/1] [U_]

md1 : active raid1 sda1[0]
      524224 blocks [2/1] [U_]

unused devices: <none>

# mdadm --assemble --scan
mdadm: /dev/md/edo:- has been started with 1 drive (out of 2).
# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sda4[2](S)
      209584128 blocks super 1.2 [2/1] [U_]
      bitmap: 0/2 pages [0KB], 65536KB chunk

md127 : active raid1 sda3[2](S)
      62913536 blocks super 1.2 [2/1] [U_]

md1 : active raid1 sda1[0]
      524224 blocks [2/1] [U_]

unused devices: <none>

これでRAID全部がactiveになった。ネットの記事ではこの後リブートさせるとあったが、手元の環境ではリブートすると元に戻っていた(3つともinactiveになっていた)。

同じ作業を繰り返し、ごちゃごちゃいじったあとに再起動した際は、activeのままだったので、直後にリブートしてはいけないのかもしれない。

ともあれ、activeになったあとはmountできるようになる

# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sda1[0]
      524224 blocks [2/1] [U_]

md126 : active raid1 sda3[2]
      62913536 blocks super 1.2 [2/1] [U_]

md125 : active raid1 sda4[2]
      209584128 blocks super 1.2 [2/1] [U_]
      bitmap: 1/2 pages [4KB], 65536KB chunk

unused devices: <none>

# mount /dev/md1 /boot

grub2のインストールを試みる(が、失敗する。これのやり方はBIOS用なので当然失敗する)

# grub-install /dev/sda
Installing for x86_64-efi platform.
grub-instsall: error: cannot find EFI directory.

EFIディレクトリがないと言われるので、/etc/fstabにマウントポイントの情報が必要っぽいが、USBブートなので今の/etc/fstabに書き込んでも仕方がない。chrootする。

# umount /boot
# mount /dev/md127 /mnt/gentoo
# mount /dev/md1 /mnt/gentoo/boot
# mount /dev/md126 /mnt/gentoo/data
# chroot /mnt/gentoo
# grub-install /dev/sda
Installing for i386-pc platform.
grub-install: error: cannot find a devcie for /boot/grub (Is /dev/ mounted?)
#

chrootの前には/devや/sysなどのシステム関連をマウントする必要があった。マウントすべきものはGentoo handbookのchrootの所を参照:

# exit
# mount --types proc /proc /mnt/gentoo/proc
# mount --rbind /sys /mnt/gentoo/sys
# mount --make-rslave /mnt/gentoo/sys
# mount --rbind /dev /mnt/gentoo/dev
# mount --make-rslave /mnt/gentoo/dev
# mount --bind /run /mnt/gentoo/run
# mount --make-slave /mnt/gentoo/run
# chroom /mnt/gentoo
# grub-install /dev/sda
installing for x86_64-efi platform.
grub-install: error: cannot find EFI directory.
#

またエラー。/mnt/gentoo/etc/fstabに入力されている/dev/mdXXXの番号と、今回表示されている番号が異なるので、fstabを更新してみたが同じエラー。

grub-install時にefiのディレクトリの場所を指定する必要があるのかと思い、調べて下記を実行

# grub-install --target=x86_64-efi --efi-directory=/boot
Installing for x86_64-efi platform.
grub-install: error: /boot doesn't look like an EFI pertition.

このEFI pertitionに見えないというエラーがヒントになり、ネットの情報から、BIOSとEFIでGrub2用のパーティションが違うことに気がついた。

https://wiki.gentoo.org/wiki/Handbook:AMD64/Installation/Bootloader/ja

    • BIOS を利用する場合:
root #grub-install /dev/sda
    • UEFI を利用する場合:
 Important
grub-install を実行する前に EFI システムパーティションがマウントされているか必ず確認してください。 grub-install が GRUB EFI ファイル (grubx64.efi) を間違ったディレクトリにインストールしてしまい、しかも間違ったディレクトリが使われた形跡をまったく残さないということが起こりえます。
root #grub-install --target=x86_64-efi --efi-directory=/boot
 Note
--efi-directory オプションは、 EFI システムパーティションのルートに変更してください。これは /boot パーティションが FAT の亜種でフォーマットされていない場合、必須です。


 https://wiki.gentoo.org/wiki/Handbook:AMD64/Installation/Disks/ja

EFI システムパーティション (ESP) とは

オペレーティングシステムを起動するのに (BIOS ではなく) UEFI を使うシステムに Gentoo をインストールするときは、EFI システムパーティションを作成することが重要です。この手順については後述の説明でも述べます。BIOS/Legacy モードで起動する場合には、EFI システムパーティションは不要です。


ということで、パーティションの切り直しが必要。

もともとのパーティション

# fdisk -l /dev/sda
Disk /dev/sda: 465.76 GiB, 500107862016 bytes, 976773168 sectors
Disk model: Samsung SSD 850
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 431735A7-BD0D-410F-A96C-C292628A24CA

Device         Start       End   Sectors  Size Type
/dev/sda1       2048   1050623   1048576  512M Linux RAID
/dev/sda2    1050624   1116159     65536   32M BIOS boot
/dev/sda3    1116160 126945279 125829120   60G Linux RAID
/dev/sda4  126945280 546375679 419430400  200G Linux RAID
/dev/sda5  546375680 963708927 417333248  199G Linux RAID
/dev/sda6  963708928 976773134  13064207  6.2G Linux swap


UEFI対応にするにはGPTでパーティションを切る必要があるとのことだが、運良く、GPTで作成していたのでディスク全体でのパーティションの切り直しは不要。

/dev/sda1 (=/boot) のパーティションのタイプをEFI Systemに変更し、FAT32でフォーマットすれが良さそう。/bootの中身をコピーしておく。

fdiskを立ち上げると「This disk is currentl in use」と警告が生じされたので、再起動をしたが表示される。swapを全てoffにしても表示されるので、使っていないはず!と考えて無視した。(実際にはRAIDになっているので使われていたのだが。)

# cp -a /boot /boot_tmp
# swapoff --all
# fdisk /dev/sda
---中略----
Command (m for help): t
Pertition number (1-6, default 6): 1
Pertition type or alias (Type L to list all): 1

Changed type of partition 'Linux RAID' to 'EFI System'. 

Command (m for help): w
The partition table has been altered. 
Syncing disks. 

# mkfs.vfat -F 32 /dev/sda1
mkfs.fat 4.2 (2021-01-31)
mkfs.vfat: unable to open /dev/sda1: Device or resource busy

fdiskでの警告と同様、mkfs.vfatでもエラーが出た。lsofでみると確かに/dev/mdXXXにアクセスしている人がいるのだが、よくわからない。いろいろ調べて、再度再起動もして、mountはされていない、/etc/mtabにも記載はない、multipath -llでも何も返ってこない(multipathdも動いていない)、fuser /dev/sdaもfuser /dev/sda1も何も返さない、ということでわからず。ふと、RAIDを止めたらどうなるんだ?と思い、停止したらできた。

# mdadm --stop /dev/md127
# mkfs.vfat -F 32 /dev/sda1
mkfs.fat 4.2 (2021-01-31)
# 

FAT32でのフォーマットが成功。

# mount /dev/md127 /mnt/gentoo
# mount --types proc /proc /mnt/gentoo/proc
# mount --rbind /sys /mnt/gentoo/sys
# mount --make-rslave /mnt/gentoo/sys
# mount --rbind /dev /mnt/gentoo/dev
# mount --make-rslave /mnt/gentoo/dev
# mount --bind /run /mnt/gentoo/run
# mount --make-slave /mnt/gentoo/run
# mount /dev/md1 /mnt/gentoo/boot
mount /mnt/gentoo/boot: unknown filesystem type 'linux_raid_member'
#

フォーマットはしたものの、RAIDの情報が残っているようだ。RAIDのsuper blockを消す。

# mdadm --zero-superblock /dev/sda1
mdadm: Couldn't open /dev/sda1 for write - not zeroing
# 

なぜだろうと思ってmountコマンドで見るけれど、マウントはされていない。が、/proc/mdstatを見るといつの間にかに勝手にRAIDが起動していた。

# mount | grep sda
# cat /proc/mdstat
Personalities : [raid1]
md127 : active raid1 sda1[0]
      524224 blocks [2/1] [U_]

md125 : active raid1 sda4[2]
      209584128 blocks super 1.2 [2/1] [U_]
      bitmap: 1/2 pages [4KB], 65536KB chunk

md126 : active raid1 sda3[2]
      62913536 blocks super 1.2 [2/1] [U_]

unused devices: <none>
# mdadm --stop /dev/md127
mdadm: stopped /dev/md127
# mdadm --zero-superblock /dev/sda1

その後、念のため、fdiskでパーティションタイプのEFI Systemに再設定して、mkfs.vfatで初期化も再度行っておいた

# mount /dev/sda1 /mnt/gentoo/boot
# chroot /mnt/gentoo
# grub-install --target=x86_64-efi --efi-directory=/boot
Installing for x86_64-efi platform.
Installation finished. No error reported.

# ls /boot
./  ../  EFI/  grub/

# cp -a /boot_tmp/System.map-* /boot
# cp -a /boot_tmp/config-* /boot
# cp -a /boot_tmp/initramfs-* /boot
# cp -a /boot_tmp/vmlinuz-* /boot
# grub-mkconfig -o /boot/grub/grub.cfg
---中略---
/user/sbin/grub-probe: warning: Couldn't find physical volume `(null)'. Some modules may be missing from core image..
Warning: os-prober will not be executed to detect other bootable partitions. 
Systems on them will not be added to the GRUB boot configuration. 
Check GRUB_DISABLE_OS_PROBER documentation entry.
Adding boot menu entry for UEFI Firmware Settings ...
done

#

/boot/grub/grub.cfgを軽く見てみたが、カーネルは登録されているようなので問題なさそう。

# exit
exit
# umount -l /mnt/gentoo/dev
# umount -R /mnt/gentoo
# reboot

再起動時にboot optionを確認すると、SATA 1が認識されており、Linuxを起動できるようになった。

起動可能になってからのパーティション

# fdisk -l /dev/sda
Disk /dev/sda: 465.76 GiB, 500107862016 bytes, 976773168 sectors
Disk model: Samsung SSD 850
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 431735A7-BD0D-410F-A96C-C292628A24CA

Device         Start       End   Sectors  Size Type
/dev/sda1       2048   1050623   1048576  512M EFI System
/dev/sda2    1050624   1116159     65536   32M BIOS boot
/dev/sda3    1116160 126945279 125829120   60G Linux RAID
/dev/sda4  126945280 546375679 419430400  200G Linux RAID
/dev/sda5  546375680 963708927 417333248  199G Linux RAID
/dev/sda6  963708928 976773134  13064207  6.2G Linux swap

/dev/sda2は使っていない。/dev/sda5はLVMを使ってもう一台のSSDとRAID 0を構成した領域で、日次バックアップファイルやportageのリポジトリを入れてあった所なので、なくなっても問題はない領域。





 

0 件のコメント:

コメントを投稿