サーバにしていたPCの電源が入らなくなったので、PC本体を交換し、ディスクはそのまま移植することにした。
新PCではSSDのスロットが1個しかないので、今まではSATA SSD x2で運用していたが、SATA SSD + M.2 SSDの構成に変更する。
学んだこと
SATAのディスクをそのまま付け替えてもBIOS(UEFIだった)が起動可能ディスクとして認識しない。USBブートで起動させると、認識はしているのでディスクが壊れているわけではない。
旧PCはBIOS機、新PCはUEFI機であり、そのままディスクを差し替えても、起動可能ディスクとして認識されない。
UEFIで起動できるようにパーティション構成を変更する必要がある。
運良く、GPTで構成していたので最小限で済んだ。
RAIDは片系のみ
このLinuxはGentooなので、GentooのAdmin CD(Minumal Installation CDではコマンドが足りない。と思うが、それは試行錯誤したせいで、最短コースで進めばMinimal Installation CDでも良かったのかもしれない。)をダウンロードして、Rufus等でUSBに書き込む。
USBブートで起動して、RAIDの状況を確認する。
# cat /proc/mdstat
Personalities : [raid1]
md125 : inactive sda4[2](S)
209584128 blocks super 1.2
md126 : inactive raid1 sda3[2](S)
62913536 blocks super 1.2
md127 : inactive raid1 sda1[0](S)
524224 blocks
unused devices: <none>
一応、RAIDのディスクであることは認識されているようだ。ただし、どれもinactive。RAIDを一旦停止して、再度登録する。例えば、/dev/md127を停止した後に、Scanさせると/dev/md1として認識され、activeになった。
# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sda1[0]
524224 blocks [2/1] [U_]
md125 : inactive sda4[2](S)
209584128 blocks super 1.2
md126 : inactive raid1 sda3[2](S)
62913536 blocks super 1.2
unused devices: <none>
具体的なコマンド(/dev/md126についての例)
# mdadm --detail /dev/md126 /dev/md126: Version : 1.2 Raid Level : raid0 Total Devices : 1 Persistence : Superblock is persistent State : inactive Working Devices : 1 Consistency Policy : resync Name : edo:/ UUID : 1a4518b9:879d5121:f1651760:8b1a1f02 Events : 35387 Number Major Minor RaidDevice - 8 3 - /dev/sda3 # mdadm --examine /dev/md126 # # mdadm --stop /dev/md126 mdadm: stopped /dev/md126 # cat /proc/mdstat Personalities : [raid1] md1 : active raid1 sda1[0] 524224 blocks [2/1] [U_] md125 : inactive sda4[2](S) 209584128 blocks super 1.2 unused devices: <none> # mdadm --assemble --scan mdadm: /dev/md/edo:- has been started with 1 drive (out of 2). # cat /proc/mdstat Personalities : [raid1] md127 : active raid1 sda3[2](S) 62913536 blocks super 1.2 [2/1] [U_] md1 : active raid1 sda1[0] 524224 blocks [2/1] [U_] md125 : inactive sda4[2](S) 209584128 blocks super 1.2 unused devices: <none>
こんな感じで/dev/md126はなくなり、/dev/md127としてactiveな状態になった。/dev/md125も同様。
# mdadm --detail /dev/md125 /dev/md125: Version : 1.2 Raid Level : raid0 Total Devices : 1 Persistence : Superblock is persistent State : inactive Working Devices : 1 Consistency Policy : resync Name : edo:/data UUID : 8f55590b:38f15e8a:4ea20fad:c34229d8 Events : 11921 Number Major Minor RaidDevice - 8 3 - /dev/sda4 # mdadm --examine /dev/md125 # # mdadm --stop /dev/md125 mdadm: stopped /dev/md125 # cat /proc/mdstat Personalities : [raid1] md127 : active raid1 sda3[2](S) 62913536 blocks super 1.2 [2/1] [U_] md1 : active raid1 sda1[0] 524224 blocks [2/1] [U_] unused devices: <none> # mdadm --assemble --scan mdadm: /dev/md/edo:- has been started with 1 drive (out of 2). # cat /proc/mdstat Personalities : [raid1] md126 : active raid1 sda4[2](S) 209584128 blocks super 1.2 [2/1] [U_] bitmap: 0/2 pages [0KB], 65536KB chunk md127 : active raid1 sda3[2](S) 62913536 blocks super 1.2 [2/1] [U_] md1 : active raid1 sda1[0] 524224 blocks [2/1] [U_] unused devices: <none>
これでRAID全部がactiveになった。ネットの記事ではこの後リブートさせるとあったが、手元の環境ではリブートすると元に戻っていた(3つともinactiveになっていた)。
同じ作業を繰り返し、ごちゃごちゃいじったあとに再起動した際は、activeのままだったので、直後にリブートしてはいけないのかもしれない。
ともあれ、activeになったあとはmountできるようになる
# cat /proc/mdstat Personalities : [raid1] md1 : active raid1 sda1[0] 524224 blocks [2/1] [U_] md126 : active raid1 sda3[2] 62913536 blocks super 1.2 [2/1] [U_] md125 : active raid1 sda4[2] 209584128 blocks super 1.2 [2/1] [U_] bitmap: 1/2 pages [4KB], 65536KB chunk unused devices: <none> # mount /dev/md1 /boot
grub2のインストールを試みる(が、失敗する。これのやり方はBIOS用なので当然失敗する)
# grub-install /dev/sda Installing for x86_64-efi platform. grub-instsall: error: cannot find EFI directory.
EFIディレクトリがないと言われるので、/etc/fstabにマウントポイントの情報が必要っぽいが、USBブートなので今の/etc/fstabに書き込んでも仕方がない。chrootする。
# umount /boot # mount /dev/md127 /mnt/gentoo # mount /dev/md1 /mnt/gentoo/boot # mount /dev/md126 /mnt/gentoo/data # chroot /mnt/gentoo # grub-install /dev/sda Installing for i386-pc platform. grub-install: error: cannot find a devcie for /boot/grub (Is /dev/ mounted?) #
chrootの前には/devや/sysなどのシステム関連をマウントする必要があった。マウントすべきものはGentoo handbookのchrootの所を参照:
# exit # mount --types proc /proc /mnt/gentoo/proc # mount --rbind /sys /mnt/gentoo/sys # mount --make-rslave /mnt/gentoo/sys # mount --rbind /dev /mnt/gentoo/dev # mount --make-rslave /mnt/gentoo/dev # mount --bind /run /mnt/gentoo/run # mount --make-slave /mnt/gentoo/run # chroom /mnt/gentoo # grub-install /dev/sda installing for x86_64-efi platform. grub-install: error: cannot find EFI directory. #
またエラー。/mnt/gentoo/etc/fstabに入力されている/dev/mdXXXの番号と、今回表示されている番号が異なるので、fstabを更新してみたが同じエラー。
grub-install時にefiのディレクトリの場所を指定する必要があるのかと思い、調べて下記を実行
# grub-install --target=x86_64-efi --efi-directory=/boot Installing for x86_64-efi platform. grub-install: error: /boot doesn't look like an EFI pertition.
このEFI pertitionに見えないというエラーがヒントになり、ネットの情報から、BIOSとEFIでGrub2用のパーティションが違うことに気がついた。
https://wiki.gentoo.org/wiki/Handbook:AMD64/Installation/Bootloader/ja
- BIOS を利用する場合:
root #
grub-install /dev/sda
- UEFI を利用する場合:
Important
grub-install を実行する前に EFI システムパーティションがマウントされているか必ず確認してください。 grub-install が GRUB EFI ファイル (grubx64.efi) を間違ったディレクトリにインストールしてしまい、しかも間違ったディレクトリが使われた形跡をまったく残さないということが起こりえます。
root #
grub-install --target=x86_64-efi --efi-directory=/boot
Note
--efi-directory
オプションは、 EFI システムパーティションのルートに変更してください。これは /boot パーティションが FAT の亜種でフォーマットされていない場合、必須です。
https://wiki.gentoo.org/wiki/Handbook:AMD64/Installation/Disks/ja
EFI システムパーティション (ESP) とは
オペレーティングシステムを起動するのに (BIOS ではなく) UEFI を使うシステムに Gentoo をインストールするときは、EFI システムパーティションを作成することが重要です。この手順については後述の説明でも述べます。BIOS/Legacy モードで起動する場合には、EFI システムパーティションは不要です。
ということで、パーティションの切り直しが必要。
もともとのパーティション
# fdisk -l /dev/sda Disk /dev/sda: 465.76 GiB, 500107862016 bytes, 976773168 sectors Disk model: Samsung SSD 850 Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: gpt Disk identifier: 431735A7-BD0D-410F-A96C-C292628A24CA Device Start End Sectors Size Type /dev/sda1 2048 1050623 1048576 512M Linux RAID /dev/sda2 1050624 1116159 65536 32M BIOS boot /dev/sda3 1116160 126945279 125829120 60G Linux RAID /dev/sda4 126945280 546375679 419430400 200G Linux RAID /dev/sda5 546375680 963708927 417333248 199G Linux RAID /dev/sda6 963708928 976773134 13064207 6.2G Linux swap
UEFI対応にするにはGPTでパーティションを切る必要があるとのことだが、運良く、GPTで作成していたのでディスク全体でのパーティションの切り直しは不要。
/dev/sda1 (=/boot) のパーティションのタイプをEFI Systemに変更し、FAT32でフォーマットすれが良さそう。/bootの中身をコピーしておく。
fdiskを立ち上げると「This disk is currentl in use」と警告が生じされたので、再起動をしたが表示される。swapを全てoffにしても表示されるので、使っていないはず!と考えて無視した。(実際にはRAIDになっているので使われていたのだが。)
# cp -a /boot /boot_tmp # swapoff --all # fdisk /dev/sda ---中略---- Command (m for help): t Pertition number (1-6, default 6): 1 Pertition type or alias (Type L to list all): 1 Changed type of partition 'Linux RAID' to 'EFI System'. Command (m for help): w The partition table has been altered. Syncing disks. # mkfs.vfat -F 32 /dev/sda1 mkfs.fat 4.2 (2021-01-31) mkfs.vfat: unable to open /dev/sda1: Device or resource busy
fdiskでの警告と同様、mkfs.vfatでもエラーが出た。lsofでみると確かに/dev/mdXXXにアクセスしている人がいるのだが、よくわからない。いろいろ調べて、再度再起動もして、mountはされていない、/etc/mtabにも記載はない、multipath -llでも何も返ってこない(multipathdも動いていない)、fuser /dev/sdaもfuser /dev/sda1も何も返さない、ということでわからず。ふと、RAIDを止めたらどうなるんだ?と思い、停止したらできた。
# mdadm --stop /dev/md127 # mkfs.vfat -F 32 /dev/sda1 mkfs.fat 4.2 (2021-01-31) #
FAT32でのフォーマットが成功。
# mount /dev/md127 /mnt/gentoo # mount --types proc /proc /mnt/gentoo/proc # mount --rbind /sys /mnt/gentoo/sys # mount --make-rslave /mnt/gentoo/sys # mount --rbind /dev /mnt/gentoo/dev # mount --make-rslave /mnt/gentoo/dev # mount --bind /run /mnt/gentoo/run # mount --make-slave /mnt/gentoo/run # mount /dev/md1 /mnt/gentoo/boot mount /mnt/gentoo/boot: unknown filesystem type 'linux_raid_member' #
フォーマットはしたものの、RAIDの情報が残っているようだ。RAIDのsuper blockを消す。
# mdadm --zero-superblock /dev/sda1 mdadm: Couldn't open /dev/sda1 for write - not zeroing #
なぜだろうと思ってmountコマンドで見るけれど、マウントはされていない。が、/proc/mdstatを見るといつの間にかに勝手にRAIDが起動していた。
# mount | grep sda # cat /proc/mdstat Personalities : [raid1] md127 : active raid1 sda1[0] 524224 blocks [2/1] [U_] md125 : active raid1 sda4[2] 209584128 blocks super 1.2 [2/1] [U_] bitmap: 1/2 pages [4KB], 65536KB chunk md126 : active raid1 sda3[2] 62913536 blocks super 1.2 [2/1] [U_] unused devices: <none> # mdadm --stop /dev/md127 mdadm: stopped /dev/md127 # mdadm --zero-superblock /dev/sda1
その後、念のため、fdiskでパーティションタイプのEFI Systemに再設定して、mkfs.vfatで初期化も再度行っておいた
# mount /dev/sda1 /mnt/gentoo/boot # chroot /mnt/gentoo # grub-install --target=x86_64-efi --efi-directory=/boot Installing for x86_64-efi platform. Installation finished. No error reported. # ls /boot ./ ../ EFI/ grub/ # cp -a /boot_tmp/System.map-* /boot # cp -a /boot_tmp/config-* /boot # cp -a /boot_tmp/initramfs-* /boot # cp -a /boot_tmp/vmlinuz-* /boot # grub-mkconfig -o /boot/grub/grub.cfg ---中略--- /user/sbin/grub-probe: warning: Couldn't find physical volume `(null)'. Some modules may be missing from core image.. Warning: os-prober will not be executed to detect other bootable partitions. Systems on them will not be added to the GRUB boot configuration. Check GRUB_DISABLE_OS_PROBER documentation entry. Adding boot menu entry for UEFI Firmware Settings ... done #
/boot/grub/grub.cfgを軽く見てみたが、カーネルは登録されているようなので問題なさそう。
# exit exit # umount -l /mnt/gentoo/dev # umount -R /mnt/gentoo # reboot
再起動時にboot optionを確認すると、SATA 1が認識されており、Linuxを起動できるようになった。
起動可能になってからのパーティション
# fdisk -l /dev/sda Disk /dev/sda: 465.76 GiB, 500107862016 bytes, 976773168 sectors Disk model: Samsung SSD 850 Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: gpt Disk identifier: 431735A7-BD0D-410F-A96C-C292628A24CA Device Start End Sectors Size Type /dev/sda1 2048 1050623 1048576 512M EFI System /dev/sda2 1050624 1116159 65536 32M BIOS boot /dev/sda3 1116160 126945279 125829120 60G Linux RAID /dev/sda4 126945280 546375679 419430400 200G Linux RAID /dev/sda5 546375680 963708927 417333248 199G Linux RAID /dev/sda6 963708928 976773134 13064207 6.2G Linux swap
/dev/sda2は使っていない。/dev/sda5はLVMを使ってもう一台のSSDとRAID 0を構成した領域で、日次バックアップファイルやportageのリポジトリを入れてあった所なので、なくなっても問題はない領域。
0 件のコメント:
コメントを投稿