Das Problem
Nachdem das System hochgefahren ist, fehlt md0 und alle LVs, die auf md0 verwendet werden, sind nicht gemountet
# mount -a mount: special device /dev/mapper/vg_test-x0 does not exist mount: special device /dev/mapper/vg_test-y0 does not exist
# cat /etc/mdadm.conf ARRAY /dev/md0 level=raid5 num-devices=6 metadata=0.90 spares=1 UUID=73560e25:92fb30cb:1c74ff07:ca1df0f7
# cat /proc/mdstat Personalities : unused devices: [none]
Weitere Daten, die zeigen, dass /dev/md0 fehlt:
# mdadm --detail /dev/md0 mdadm: cannot open /dev/md0: No such file or directory
md0 ist überhaupt nicht sichtbar, /var/log/messages enthält keine IO-Probleme auf lokalen Festplatten, die von md0 verwendet werden.
Die Lösung
Der Fehler ist auf falsche Einstellungen in /etc/mdadm.conf zurückzuführen . Führen Sie die folgenden Schritte aus, um das Problem zu beheben:
1. Scannen Sie zuerst alle möglichen md-Geräteereignisse:
# mdadm --examine /dev/sd[a-z] | egrep 'Event|/dev/sd'
Oder scannen Sie nach allen Geräten mit detaillierten Informationen über md raid UUID
# mdadm --examine /dev/sd[a-z]
Der mdadm-Untersuchungsbefehl versucht, alle verfügbaren Laufwerksinformationen zu überprüfen und zu überprüfen, ob sie Teil eines md-Raids sind.
Beispielausgabe:
# mdadm --examine /dev/sd[a-z] /dev/sdb: Magic : a92b4efc Version : 0.90.00 UUID : 08877d71:d7dc9c1b:16f3496b:a22042b7 Creation Time : Wed Aug 31 14:19:18 2016 Raid Level : raid5 Used Dev Size : 586061696 (558.91 GiB 600.13 GB) Array Size : 2930308480 (2794.56 GiB 3000.64 GB) Raid Devices : 6 Total Devices : 6 Preferred Minor : 0 Update Time : Wed Sep 21 11:33:48 2016 State : clean Active Devices : 6 Working Devices : 6 Failed Devices : 0 Spare Devices : 0 Checksum : 153be7ed - correct Events : 202 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 0 8 16 0 active sync /dev/sdb 0 0 8 16 0 active sync /dev/sdb 1 1 8 48 1 active sync /dev/sdd 2 2 8 64 2 active sync /dev/sde 3 3 8 80 3 active sync /dev/sdf 4 4 8 96 4 active sync /dev/sdg 5 5 8 112 5 active sync /dev/sdh
mdadm ist also in der Lage, ein mdraid-Gerät mit der richtigen UUID dieses md0-Raids zu finden, die UUID von md0 lautet:08877d71:d7dc9c1b:16f3496b:a22042b7
2. Vergleichen Sie diese UUID mit der in /etc/mdadm.conf:
# cat /etc/mdadm.conf ARRAY /dev/md0 level=raid5 num-devices=6 metadata=0.90 spares=1 UUID=73560e25:92fb30cb:1c74ff07:ca1df0f7
Beide UUIDs stimmen nicht wirklich überein.
3. Es besteht die Möglichkeit, mdraid manuell zu mounten, indem Sie jedes Gerät als Teil von md0 raid angeben:
# mdadm --assemble /dev/md0 /dev/sdb /dev/sdd /dev/sde /dev/sdf /dev/sdg /dev/sdh mdadm: /dev/md0 has been tarted with 6 drives.
# ls -l /dev/md0 brw-r----- 1 root disk 9, 0 Sep 23 11:18 /dev/md0
# mdadm --detail /dev/md0 /dev/md0: Version : 0.90 Creation Time : Wed Aug 31 14:19:18 2016 Raid Level : raid5 Array Size : 2930308480 (2794.56 GiB 3000.64 GB) Used Dev Size : 586061696 (558.91 GiB 600.13 GB) Raid Devices : 6 Total Devices : 6 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Wed Sep 21 11:33:48 2016 State : clean Active Devices : 6 Working Devices : 6 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 64K UUID : 08877d71:d7dc9c1b:16f3496b:a22042b7 Events : 0.202 Number Major Minor RaidDevice State 0 8 16 0 active sync /dev/sdb 1 8 48 1 active sync /dev/sdd 2 8 64 2 active sync /dev/sde 3 8 80 3 active sync /dev/sdf 4 8 96 4 active sync /dev/sdg 5 8 112 5 active sync /dev/sdh
4. Jetzt ist md0 sichtbar, scannen Sie nach pv und vg:
# pvscan PV /dev/md0 VG vg_data lvm2 [2.73 TB / 546.56 GB free] Total: 1 [2.73 TB] / in use: 1 [2.73 TB] / in no VG: 0 [0 ]
# vgscan Reading all physical volumes. This may take a while... Found volume group "vg_data" using metadata type lvm2
5. Jetzt vg aktivieren:
# vgchange -a y
6. Überprüfen Sie, ob LVs jetzt aktiv und sichtbar sind
# lvscan ACTIVE '/dev/vg_data/lvm-admin' [200.00 GB] inherit ACTIVE '/dev/vg_data/lvm-backup' [2.00 TB] inherit
7. Führen Sie nun den Mount-Befehl
aus# mount -a
8. Um die falsche UUID in mdadm.conf tatsächlich zu beheben, führen Sie den folgenden Befehl aus:
– Backup der aktuellen mdadm.conf erstellen
# cp /etc/mdadm.conf /etc/mdadm.conf.bak1
– Ersetzen Sie nun die aktuelle Konfigurationsdatei durch den folgenden Befehl:
# mdadm --examine --scan > /etc/mdadm.conf
Der obige Befehl aktualisiert /etc/mdadm.conf mit der richtigen RAID-Konfigurationszeile.