[Résolu] Raid 5 HS

Forum de support pour les utilisateurs francophones

Moderator: Laurent85

Forum rules
Topics in this forum are automatically closed 6 months after creation.
Locked
Hel
Level 1
Level 1
Posts: 24
Joined: Tue Oct 03, 2017 12:10 pm

[Résolu] Raid 5 HS

Post by Hel »

Bonjour,
J’ai un problème de raid après avoir ré-installer LM 18.3 Cinnamon 64-bit (la partition système). Si quelqu’un peut m’aider à récupérer mes donées, j’en serais très reconnaissant.

“D’habitude” j’installe mdadm et je n’ai plus qu’à remonter le raid 5 (md0 composé de 3 disques de 1 To) au bon endroit. Mais cette fois pas de trace de md0 après l’installation de mdadm,

Code: Select all

sudo fdisk – l
ne m’affiche que les partitions de chaque disque physique.
La commande :

Code: Select all

mdadm --examine --scan /dev/sdb1 /dev/sdc1 /dev/sdd1
ne renvoit rien.
La commande :

Code: Select all

sudo mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 >> raid.status
donne :
/dev/sdb1 :
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 7c2a4cf9:1c05ef0f:8e59b39b:906eb464
Name : max-System-Product-Name:0 (local to host max-System-Product-Name)
Creation Time : Tue Mar 27 03:58:09 2018
Raid Level : raid5
Raid Devices : 3

Avail Dev Size : 1953260976 (931.39 GiB 1000.07 GB)
Array Size : 1953260544 (1862.77 GiB 2000.14 GB)
Used Dev Size : 1953260544 (931.39 GiB 1000.07 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=432 sectors
State : clean
Device UUID : 7b570cf4: b1148325:1164a204: dd3db581

Internal Bitmap : 8 sectors from superblock
Update Time : Wed Aug 1 01:11:56 2018
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : e1c67edb – correct
Events : 12283

Layout : left-symmetric
Chunk Size : 512 K

Device Role : Active device 1
Array State : AA. (“A” == active, '.' == missing, “R” == replacing)
/dev/sdc1 :
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 7c2a4cf9:1c05ef0f:8e59b39b:906eb464
Name : max-System-Product-Name:0 (local to host max-System-Product-Name)
Creation Time : Tue Mar 27 03:58:09 2018
Raid Level : raid5
Raid Devices : 3

Avail Dev Size : 1953260976 (931.39 GiB 1000.07 GB)
Array Size : 1953260544 (1862.77 GiB 2000.14 GB)
Used Dev Size : 1953260544 (931.39 GiB 1000.07 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=432 sectors
State : clean
Device UUID : c679d2eb: d0e46e2c: e8c23887: c39043e6

Internal Bitmap : 8 sectors from superblock
Update Time : Fri Jul 20 18:17:25 2018
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : c78d1546 – correct
Events : 993

Layout : left-symmetric
Chunk Size : 512 K

Device Role : Active device 2
Array State : AAA (“A” == active, '.' == missing, “R” == replacing)
/dev/sdd1 :
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 7c2a4cf9:1c05ef0f:8e59b39b:906eb464
Name : max-System-Product-Name:0 (local to host max-System-Product-Name)
Creation Time : Tue Mar 27 03:58:09 2018
Raid Level : raid5
Raid Devices : 3

Avail Dev Size : 1953260976 (931.39 GiB 1000.07 GB)
Array Size : 1953260544 (1862.77 GiB 2000.14 GB)
Used Dev Size : 1953260544 (931.39 GiB 1000.07 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=432 sectors
State : clean
Device UUID : 067c47e8:25146689:2a275100:2841949e

Internal Bitmap : 8 sectors from superblock
Update Time : Wed Aug 1 01:11:56 2018
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : 5272693e – correct
Events : 12283

Layout : left-symmetric
Chunk Size : 512 K

Device Role : Active device 0
Array State : AA. (“A” == active, '.' == missing, “R” == replacing)
Il semble donc y avoir un problème sur sdb1 et sdd1 avec le “.” qui veut dire “mising”, mais qu’est-ce qui manque ?

Puis, j’ai essayé de ré-assembler le raid avec :

Code: Select all

sudo mdadm – Ss
sudo mdadm – A /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1
qui renvoit :
mdadm : /dev/md0 has been started with 2 drives (out of 3).

Code: Select all

sudo mdadm --detail /dev/md0
donne :
/dev/md0 :
Version : 1.2
Creation Time : Tue Mar 27 03:58:09 2018
Raid Level : raid5
Array Size : 1953260544 (1862.77 GiB 2000.14 GB)
Used Dev Size : 976630272 (931.39 GiB 1000.07 GB)
Raid Devices : 3
Total Devices : 2
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Wed Aug 1 01:11:56 2018
State : clean, degraded
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 512 K

Name : max-System-Product-Name:0 (local to host max-System-Product-Name)
UUID : 7c2a4cf9:1c05ef0f:8e59b39b:906eb464
Events : 12283

Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 17 1 active sync /dev/sdb1
4 0 0 4 removed
Je pense donc qu’il y a un problème sur /dev/sdc1 suite à la ré-installation, mais les données smart indiquent que ce disque est sain. Et vu que la panne est survenue juste au moment de la ré-installation, ça pourrait être une erreur logicielle… De plus, c'est le seul disque à avoir "AAA" comme valeure "Array State".
Je pourrais peut-être lancer la procédure pour remplacer le disque qui pose problème (/dev/sdc1 ?) par lui-même, mais ça pourrait être risqué, à moins qu’il y est beaucoup plus simple ? (Peut-être que je n'ai rien compris.)
Last edited by LockBot on Wed Dec 28, 2022 7:16 am, edited 2 times in total.
Reason: Topic automatically closed 6 months after creation. New replies are no longer allowed.
Laurent85
Level 17
Level 17
Posts: 7081
Joined: Tue May 26, 2015 10:11 am

Re: Raid 5 HS

Post by Laurent85 »

Bonjour,
Hel wrote: Wed Aug 01, 2018 1:18 pm

Code: Select all

sudo mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 >> raid.status
donne :
...
/dev/sdc1 :
...
Update Time : Fri Jul 20 18:17:25 2018
La dernière mise à jour enregistrée de sdc1 est du 20 juillet, Je pense que ton raid5 fonctionne de façon dégradée sur les 2 membres sdb1 et sdd1 depuis cette date. Il s'est produit quelque chose ce jour là qui l'a mis en défaut.

Tu dois avoir accès aux données quand même non ? Fais une sauvegarde des données avant de poursuivre.

Etant donné que sdc1 n'est plus synchronisé au raid5 la seule solution me semble de le supprimer du raid5, d'effacer les signatures raid de sdc1 puis de l'ajouter comme nouveau membre.
Image
Hel
Level 1
Level 1
Posts: 24
Joined: Tue Oct 03, 2017 12:10 pm

Re: Raid 5 HS

Post by Hel »

Effectivement, j’ai eu une coupure de courant alors que le pc était justement en train écrire sur mon raid. Cela a causé plusieurs problèmes plus visibles(dont un bien embétant qui vient seulement de résoudre par la troisième ré-installation du système), mais je n’avais pas remarqué qu’un disque s’était désynchronisé du raid. Je surveille régulièrement l’état de santé des disques, mais je n’aurais jamais pensé à ça. Pourtant, j'ai opté pour un bloc d'alimentation récent d'une marque connue.

Oui, je n’avais même pas remarqué que je pouvais de nouveau accéder aux données. Très bien, je vais faire ça avant qu'un autre disque pose problème, merci beaucoup.
Hel
Level 1
Level 1
Posts: 24
Joined: Tue Oct 03, 2017 12:10 pm

Re: Raid 5 HS

Post by Hel »

Bonjour,
Alors, je n’ai pas réussi la manip avec sdc1 et j’ai perdu toutes les donnés, puis j’ai refait le raid. Heureusement, que j’avais tout copié avant.
Mon nouveau raid a fonctionné pendant quelques jours. J’ai même fait deux simulations de pannes, avec une reconstruction du raid qui a fonctionné.
Puis, aujourd’hui il n’est plus possible de le remonter sous ‘/mnt/Raid’ :

Code: Select all

sudo mount /dev/md0 /mnt/Raid/
mount : échec du montage de /dev/md0 sur /mnt/Raid: La structure a besoin d'un nettoyage
et avec gnome disk et les options qui marchaient précédemment :
‘Error mounting system-managed device /dev/md0: Command-line `mount "/mnt/Raid"' exited with non-zero exit status 32: mount: échec du montage de /dev/md0 sur /mnt/Raid: La structure a besoin d'un nettoyage (udisks-error-quark, 0)’

J’ai essayé :

Code: Select all

#tout oublier et rescanner
sudo mdadm -Ss 
# Assembler l' Array pré-existante (à adapter)
sudo mdadm -A /dev/md0 /dev/sd[ab]1
# s'en souvenir 
sudo mdadm --detail --scan >> /etc/mdadm/mdadm.conf
# mettre à jour initrd
sudo update-initramfs -v -u
# vous pouvez redémarrer /dev/md0 sera présent.
sudo reboot
'mdadm.conf' :
'ARRAY /dev/md0 metadata=1.2 name=max-System-Product-Name:0 UUID=ae4e4b38:f577e576:bdcb375e:ecc7d6c5'

Cela ne change rien.

Il ne semble pas y avoir de problème avec mdadm :

Code: Select all

sudo mdadm --examine /dev/sde1 /dev/sdc1 /dev/sdd1

/dev/sde1:

          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : ae4e4b38:f577e576:bdcb375e:ecc7d6c5
           Name : max-System-Product-Name:0  (local to host max-System-Product-Name)
  Creation Time : Wed Aug  8 20:10:05 2018
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 1953260976 (931.39 GiB 1000.07 GB)
     Array Size : 1953260544 (1862.77 GiB 2000.14 GB)
  Used Dev Size : 1953260544 (931.39 GiB 1000.07 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=432 sectors
          State : clean
    Device UUID : 5a71c66e:1f2d86ef:d9d633d4:9d92f7dd

Internal Bitmap : 8 sectors from superblock
    Update Time : Fri Aug 10 05:22:44 2018
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 1c7183ce - correct
         Events : 13223

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : ae4e4b38:f577e576:bdcb375e:ecc7d6c5
           Name : max-System-Product-Name:0  (local to host max-System-Product-Name)
  Creation Time : Wed Aug  8 20:10:05 2018
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 1953260976 (931.39 GiB 1000.07 GB)
     Array Size : 1953260544 (1862.77 GiB 2000.14 GB)
  Used Dev Size : 1953260544 (931.39 GiB 1000.07 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=432 sectors
          State : clean
    Device UUID : 42e146ac:e67e27c1:8103d6b3:399ee575

Internal Bitmap : 8 sectors from superblock
    Update Time : Fri Aug 10 05:22:44 2018
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : a3237dbe - correct
         Events : 13223

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : ae4e4b38:f577e576:bdcb375e:ecc7d6c5
           Name : max-System-Product-Name:0  (local to host max-System-Product-Name)
  Creation Time : Wed Aug  8 20:10:05 2018
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 1953260976 (931.39 GiB 1000.07 GB)
     Array Size : 1953260544 (1862.77 GiB 2000.14 GB)
  Used Dev Size : 1953260544 (931.39 GiB 1000.07 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=432 sectors
          State : clean
    Device UUID : 0e74456f:996f9a35:a2ce9aea:1b22a25f

Internal Bitmap : 8 sectors from superblock
    Update Time : Fri Aug 10 05:22:44 2018
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : fb165042 - correct
         Events : 13223

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)

Code: Select all

cat /proc/mdstat

Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md0 : active raid5 sde1[2] sdd1[3] sdc1[0]
      1953260544 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

unused devices: <none>
Hel
Level 1
Level 1
Posts: 24
Joined: Tue Oct 03, 2017 12:10 pm

Re: Raid 5 HS

Post by Hel »

PS :

Code: Select all

sudo e2fsck -fv /dev/md0
donne :

Code: Select all

e2fsck 1.42.13 (17-May-2015)
exet2fs_check_desc: Descripteur de groupe corrompu : bloc invalide pour le bitmap de blocs
e2fsck : Les descripteurs de groupe semblent en mauvais état... tentons d'utiliser les blocs de sauvetage...
Passe 1 : vérification des i-noeuds, des blocs et des tailles
Passe 2 : vérification de la structure des répertoires
Passe 3 : vérification de la connectivité des répertoires
Passe 4 : vérification des compteurs de référence
Passe 5 : vérification de l'information du sommaire de groupe
différences de bitmap de blocs :   -(230195200--230195208) ...
...
Corriger<o>?
Qu'est-ce que cela veux dire svp ?
Laurent85
Level 17
Level 17
Posts: 7081
Joined: Tue May 26, 2015 10:11 am

Re: Raid 5 HS

Post by Laurent85 »

Le système de fichiers est corrompu, réponds oui à la question corriger. Ce serait intéressant d'avoir l'état des données smart des disques :

Code: Select all

sudo smartctl -s on -iHA --log=error -f brief -q noserial /dev/sdc
sudo smartctl -s on -iHA --log=error -f brief -q noserial /dev/sdd
sudo smartctl -s on -iHA --log=error -f brief -q noserial /dev/sde
Image
Hel
Level 1
Level 1
Posts: 24
Joined: Tue Oct 03, 2017 12:10 pm

Re: Raid 5 HS

Post by Hel »

Bonjour, merci Laurent le simple fait d’avoir lancé cette commande semble avoir réparé suffisamment le disque pour que LM accepte de le monter. Mais entre temps, j’ai aussi relancé e2fsck avec l’option ‘-p’, pour le laissé tout corriger.
Mais finalement quelque minute plus tard, au moment d’éjecter mon disque dur externe de secours, j’ai eu un nouveau message d’erreur. Ce lecteur en NTFS, semble aussi avoir été corrompu subitement. Je l’ai fait réparer par l’outil de Windows automatiquement, la réparation assez longue, c’est fait en deux temps.
Après ça il était montable sous LM, mais plus lisible par nemo et thunar, malgré tout explorable en ligne de commande. J’ai finni par comprendre que ça venait d’un dossier caché 'found.000' laissé par scandisk, qu’il fallait supprimé sous windows.
Je pense donc que ce nouveau problème n’a probablement plus de rapport avec le raid.
J’ai débranché tous mes disques par sécurité de peur que mon système les endommage tous en même temps.
Est-ce parce que j’ai fait une ‘apt dist-upgrade’ après ma dernière installation pour gagner du temps ? Je ferais plutôt les MAJ par l’outil Mint à l’avenir et je ferais un instantané Timeshift avant de mettre à jour le noyau.
Je lancerais les tests smart tout à l’heure après la réinstalle avec une installation bien propre de LM 18.3, parce que ça va prendre un bout de temps.
Ps : juste avant d’avoir des problèmes avec mon dd externe, j'étais en train de transférer des donnés dessus. Après avoir effacé le dossier ‘found.000’ sous Windows, il a fait quelques « clicks of death » avant de bien vouloir se remonter et d’être enfin lisible par nemo.
Hel
Level 1
Level 1
Posts: 24
Joined: Tue Oct 03, 2017 12:10 pm

Re: Raid 5 HS

Post by Hel »

En fait c’était instantané, voilà ce que ça donne :

Code: Select all

sudo smartctl -s on -iHA --log=error -f brief -q noserial /dev/sdb

smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-38-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Hitachi Ultrastar A7K1000
Device Model:     Hitachi HUA721010KLA330
Firmware Version: GKAOAB0A
User Capacity:    1 000 204 886 016 bytes [1,00 TB]
Sector Size:      512 bytes logical/physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA/ATAPI-7 T13/1532D revision 1
Local Time is:    Tue Aug 14 13:22:39 2018 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAGS    VALUE WORST THRESH FAIL RAW_VALUE
  1 Raw_Read_Error_Rate     PO-R--   100   100   016    -    0
  2 Throughput_Performance  P-S---   130   130   054    -    151
  3 Spin_Up_Time            POS---   113   113   024    -    647 (Average 582)
  4 Start_Stop_Count        -O--C-   100   100   000    -    487
  5 Reallocated_Sector_Ct   PO--CK   100   100   005    -    0
  7 Seek_Error_Rate         PO-R--   100   100   067    -    0
  8 Seek_Time_Performance   P-S---   132   132   020    -    33
  9 Power_On_Hours          -O--C-   092   092   000    -    60557
 10 Spin_Retry_Count        PO--C-   100   100   060    -    0
 12 Power_Cycle_Count       -O--CK   100   100   000    -    443
192 Power-Off_Retract_Count -O--CK   100   100   000    -    493
193 Load_Cycle_Count        -O--C-   100   100   000    -    493
194 Temperature_Celsius     -O----   142   142   000    -    42 (Min/Max 12/58)
196 Reallocated_Event_Count -O--CK   100   100   000    -    0
197 Current_Pending_Sector  -O---K   100   100   000    -    0
198 Offline_Uncorrectable   ---R--   100   100   000    -    0
199 UDMA_CRC_Error_Count    -O-R--   200   200   000    -    0
                            ||||||_ K auto-keep
                            |||||__ C event count
                            ||||___ R error rate
                            |||____ S speed/performance
                            ||_____ O updated online
                            |______ P prefailure warning

SMART Error Log Version: 1
No Errors Logged

------

sudo smartctl -s on -iHA --log=error -f brief -q noserial /dev/sdc

smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-38-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Hitachi Ultrastar A7K1000
Device Model:     Hitachi HUA721010KLA330
Firmware Version: GKAOAB0A
User Capacity:    1 000 204 886 016 bytes [1,00 TB]
Sector Size:      512 bytes logical/physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA/ATAPI-7 T13/1532D revision 1
Local Time is:    Tue Aug 14 13:22:42 2018 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAGS    VALUE WORST THRESH FAIL RAW_VALUE
  1 Raw_Read_Error_Rate     PO-R--   100   100   016    -    0
  2 Throughput_Performance  P-S---   130   130   054    -    151
  3 Spin_Up_Time            POS---   116   116   024    -    621 (Average 582)
  4 Start_Stop_Count        -O--C-   100   100   000    -    510
  5 Reallocated_Sector_Ct   PO--CK   100   100   005    -    0
  7 Seek_Error_Rate         PO-R--   100   100   067    -    0
  8 Seek_Time_Performance   P-S---   132   132   020    -    33
  9 Power_On_Hours          -O--C-   092   092   000    -    60961
 10 Spin_Retry_Count        PO--C-   100   100   060    -    0
 12 Power_Cycle_Count       -O--CK   100   100   000    -    466
192 Power-Off_Retract_Count -O--CK   100   100   000    -    516
193 Load_Cycle_Count        -O--C-   100   100   000    -    516
194 Temperature_Celsius     -O----   133   133   000    -    45 (Min/Max 12/60)
196 Reallocated_Event_Count -O--CK   100   100   000    -    0
197 Current_Pending_Sector  -O---K   100   100   000    -    0
198 Offline_Uncorrectable   ---R--   100   100   000    -    0
199 UDMA_CRC_Error_Count    -O-R--   200   200   000    -    0
                            ||||||_ K auto-keep
                            |||||__ C event count
                            ||||___ R error rate
                            |||____ S speed/performance
                            ||_____ O updated online
                            |______ P prefailure warning

SMART Error Log Version: 1
No Errors Logged

------

sudo smartctl -s on -iHA --log=error -f brief -q noserial /dev/sde

smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-38-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     SAMSUNG SpinPoint F3
Device Model:     SAMSUNG HD103SJ
Firmware Version: 1AJ10001
User Capacity:    1 000 204 886 016 bytes [1,00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS T13/1699-D revision 6
SATA Version is:  SATA 2.6, 3.0 Gb/s
Local Time is:    Tue Aug 14 13:22:45 2018 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAGS    VALUE WORST THRESH FAIL RAW_VALUE
  1 Raw_Read_Error_Rate     POSR-K   100   100   051    -    1139
  2 Throughput_Performance  -OS--K   252   252   000    -    0
  3 Spin_Up_Time            PO---K   071   046   025    -    8847
  4 Start_Stop_Count        -O--CK   096   096   000    -    4228
  5 Reallocated_Sector_Ct   PO--CK   252   252   010    -    0
  7 Seek_Error_Rate         -OSR-K   252   252   051    -    0
  8 Seek_Time_Performance   --S--K   252   252   015    -    0
  9 Power_On_Hours          -O--CK   100   100   000    -    23653
 10 Spin_Retry_Count        -O--CK   252   252   051    -    0
 11 Calibration_Retry_Count -O--CK   100   100   000    -    3
 12 Power_Cycle_Count       -O--CK   096   096   000    -    4690
191 G-Sense_Error_Rate      -O---K   100   100   000    -    22
192 Power-Off_Retract_Count -O---K   252   252   000    -    0
194 Temperature_Celsius     -O----   064   054   000    -    35 (Min/Max 11/46)
195 Hardware_ECC_Recovered  -O-RCK   100   100   000    -    0
196 Reallocated_Event_Count -O--CK   252   252   000    -    0
197 Current_Pending_Sector  -O--CK   252   100   000    -    0
198 Offline_Uncorrectable   ----CK   252   252   000    -    0
199 UDMA_CRC_Error_Count    -OS-CK   100   100   000    -    7
200 Multi_Zone_Error_Rate   -O-R-K   100   100   000    -    310
223 Load_Retry_Count        -O--CK   100   100   000    -    3
225 Load_Cycle_Count        -O--CK   100   100   000    -    4786
                            ||||||_ K auto-keep
                            |||||__ C event count
                            ||||___ R error rate
                            |||____ S speed/performance
                            ||_____ O updated online
                            |______ P prefailure warning

SMART Error Log Version: 1
No Errors Logged
je ne vois rien d'anormal.
Laurent85
Level 17
Level 17
Posts: 7081
Joined: Tue May 26, 2015 10:11 am

Re: Raid 5 HS

Post by Laurent85 »

Hel wrote: Tue Aug 14, 2018 7:37 am je ne vois rien d'anormal.
Moi non plus. Mais je m'étonne de voir le trio des identifiants du raid5 varier entre entre "sdb sdc sdd" et "sdc sdd sde".
Image
Hel
Level 1
Level 1
Posts: 24
Joined: Tue Oct 03, 2017 12:10 pm

Re: Raid 5 HS

Post by Hel »

C'est que je n'ai pas dû les rebranchés exactement dans le même ordre. De plus, avec d'autres disques externes ou internes branchés ou non au démarrage, ça peut aussi changer leurs noms.
Locked

Return to “Français - French”