J’ai un problème de raid après avoir ré-installer LM 18.3 Cinnamon 64-bit (la partition système). Si quelqu’un peut m’aider à récupérer mes donées, j’en serais très reconnaissant.
“D’habitude” j’installe mdadm et je n’ai plus qu’à remonter le raid 5 (md0 composé de 3 disques de 1 To) au bon endroit. Mais cette fois pas de trace de md0 après l’installation de mdadm,
Code: Select all
sudo fdisk – l
La commande :
Code: Select all
mdadm --examine --scan /dev/sdb1 /dev/sdc1 /dev/sdd1
La commande :
Code: Select all
sudo mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 >> raid.status
Il semble donc y avoir un problème sur sdb1 et sdd1 avec le “.” qui veut dire “mising”, mais qu’est-ce qui manque ?/dev/sdb1 :
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 7c2a4cf9:1c05ef0f:8e59b39b:906eb464
Name : max-System-Product-Name:0 (local to host max-System-Product-Name)
Creation Time : Tue Mar 27 03:58:09 2018
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 1953260976 (931.39 GiB 1000.07 GB)
Array Size : 1953260544 (1862.77 GiB 2000.14 GB)
Used Dev Size : 1953260544 (931.39 GiB 1000.07 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=432 sectors
State : clean
Device UUID : 7b570cf4: b1148325:1164a204: dd3db581
Internal Bitmap : 8 sectors from superblock
Update Time : Wed Aug 1 01:11:56 2018
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : e1c67edb – correct
Events : 12283
Layout : left-symmetric
Chunk Size : 512 K
Device Role : Active device 1
Array State : AA. (“A” == active, '.' == missing, “R” == replacing)
/dev/sdc1 :
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 7c2a4cf9:1c05ef0f:8e59b39b:906eb464
Name : max-System-Product-Name:0 (local to host max-System-Product-Name)
Creation Time : Tue Mar 27 03:58:09 2018
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 1953260976 (931.39 GiB 1000.07 GB)
Array Size : 1953260544 (1862.77 GiB 2000.14 GB)
Used Dev Size : 1953260544 (931.39 GiB 1000.07 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=432 sectors
State : clean
Device UUID : c679d2eb: d0e46e2c: e8c23887: c39043e6
Internal Bitmap : 8 sectors from superblock
Update Time : Fri Jul 20 18:17:25 2018
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : c78d1546 – correct
Events : 993
Layout : left-symmetric
Chunk Size : 512 K
Device Role : Active device 2
Array State : AAA (“A” == active, '.' == missing, “R” == replacing)
/dev/sdd1 :
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 7c2a4cf9:1c05ef0f:8e59b39b:906eb464
Name : max-System-Product-Name:0 (local to host max-System-Product-Name)
Creation Time : Tue Mar 27 03:58:09 2018
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 1953260976 (931.39 GiB 1000.07 GB)
Array Size : 1953260544 (1862.77 GiB 2000.14 GB)
Used Dev Size : 1953260544 (931.39 GiB 1000.07 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=432 sectors
State : clean
Device UUID : 067c47e8:25146689:2a275100:2841949e
Internal Bitmap : 8 sectors from superblock
Update Time : Wed Aug 1 01:11:56 2018
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : 5272693e – correct
Events : 12283
Layout : left-symmetric
Chunk Size : 512 K
Device Role : Active device 0
Array State : AA. (“A” == active, '.' == missing, “R” == replacing)
Puis, j’ai essayé de ré-assembler le raid avec :
Code: Select all
sudo mdadm – Ss
sudo mdadm – A /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm : /dev/md0 has been started with 2 drives (out of 3).
Code: Select all
sudo mdadm --detail /dev/md0
Je pense donc qu’il y a un problème sur /dev/sdc1 suite à la ré-installation, mais les données smart indiquent que ce disque est sain. Et vu que la panne est survenue juste au moment de la ré-installation, ça pourrait être une erreur logicielle… De plus, c'est le seul disque à avoir "AAA" comme valeure "Array State"./dev/md0 :
Version : 1.2
Creation Time : Tue Mar 27 03:58:09 2018
Raid Level : raid5
Array Size : 1953260544 (1862.77 GiB 2000.14 GB)
Used Dev Size : 976630272 (931.39 GiB 1000.07 GB)
Raid Devices : 3
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Wed Aug 1 01:11:56 2018
State : clean, degraded
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512 K
Name : max-System-Product-Name:0 (local to host max-System-Product-Name)
UUID : 7c2a4cf9:1c05ef0f:8e59b39b:906eb464
Events : 12283
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 17 1 active sync /dev/sdb1
4 0 0 4 removed
Je pourrais peut-être lancer la procédure pour remplacer le disque qui pose problème (/dev/sdc1 ?) par lui-même, mais ça pourrait être risqué, à moins qu’il y est beaucoup plus simple ? (Peut-être que je n'ai rien compris.)