Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
sysadmin:software_raid [2009/11/10 15:21]
james ajout mdstat une fois terminé
sysadmin:software_raid [2019/12/18 19:59] (Version actuelle)
james ajout procedure remplacement disque complet
Ligne 1: Ligne 1:
 +{{tag>​RAID mdadm howto installation lvm}}
 ====== RAID soft ====== ====== RAID soft ======
  
Ligne 18: Ligne 19:
 ===== Création de la grappe ===== ===== Création de la grappe =====
  
-La création de la grappe RAID, ainsi que toutes les opérations concernant le RAID sont effectuées a l'aide de la commande mdadm.+La création de la grappe RAID, ainsi que toutes les opérations concernant le RAID sont effectuées a l'aide de la commande mdadm.\\ 
 + 
 + 
 +man mdadm vous donnera plein d'​options non décrites ici.\\ 
 + 
 La création de grappes RAID en utilisant des disques entiers semble poser probleme, c'est pour cela que nous utiliserons des partitions comme volume de base. La création de grappes RAID en utilisant des disques entiers semble poser probleme, c'est pour cela que nous utiliserons des partitions comme volume de base.
 En effet, les disques n'ont pas tous exactement la meme taille (au cylindre pres), et il est préférable de créer une partition légèrement plus petite quitte a perdre 10Mo sur chaque disque, plutot que de ne pas pouvoir remplacer un disque défectueux apres coup. En effet, les disques n'ont pas tous exactement la meme taille (au cylindre pres), et il est préférable de créer une partition légèrement plus petite quitte a perdre 10Mo sur chaque disque, plutot que de ne pas pouvoir remplacer un disque défectueux apres coup.
  
-Ces partitions doivent etre de type "Linux raid autodetect",​ soit FD .+Ces partitions doivent etre de type "Linux raid autodetect",​ soit FD en hexadécimal.
  
   * Pour créer une grappe RAID5 sur 3 partitions /dev/sda1 /dev/sdb1 et /dev/hda2 :<​code>​   * Pour créer une grappe RAID5 sur 3 partitions /dev/sda1 /dev/sdb1 et /dev/hda2 :<​code>​
 mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 ​ /dev/hda2 /dev/sda1 /dev/sdb1 mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 ​ /dev/hda2 /dev/sda1 /dev/sdb1
 +</​code>​Si vous aviez voulu créer la même grappe, en mode dégradé, si par exemple vous n'avez pas encore reçu votre dernier disque : (noter le mot clef "​missing"​)<​code>​
 +mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 missing /dev/sda1 /dev/sdb1
 </​code>​vous devriez obtenir quelque chose qui ressemble a :<​code>#​ mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 ​ /dev/hda2 /dev/sda1 /dev/sdb1 </​code>​vous devriez obtenir quelque chose qui ressemble a :<​code>#​ mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 ​ /dev/hda2 /dev/sda1 /dev/sdb1
 mdadm: layout defaults to left-symmetric mdadm: layout defaults to left-symmetric
Ligne 60: Ligne 68:
       140632704 blocks level 5, 64k chunk, algorithm 2 [3/2] [UU_]       140632704 blocks level 5, 64k chunk, algorithm 2 [3/2] [UU_]
       [>​....................] ​ recovery =  0.1% (92800/​70316352) finish=37.7min speed=30933K/​sec       [>​....................] ​ recovery =  0.1% (92800/​70316352) finish=37.7min speed=30933K/​sec
-</​code>​ +</​code>​La vitesse de (re)construction dépend de vos disques, mais est limitée par le systeme, comme peut le montrer un dmesg :<​code>​
- +
-La vitesse de (re)construction dépend de vos disques, mais est limitée par le systeme, comme peut le montrer un dmesg : +
-<​code>​+
 [360814.192484] md: recovery of RAID array md0 [360814.192484] md: recovery of RAID array md0
 [360814.192484] md: minimum _guaranteed_ ​ speed: 1000 KB/​sec/​disk. [360814.192484] md: minimum _guaranteed_ ​ speed: 1000 KB/​sec/​disk.
Ligne 91: Ligne 96:
 mdadm integre un démon de monitoring pour les grappes RAID qui envoie un mail a root en cas de probleme sur l'un des disques de la grappe, il faut donc vous assurer que les mails envoyés a root vous parviennent sous peine de louper le fait qu'un de vos disques vient de vous lâcher. Et si un 2e meurt, votre grappe (ainsi que les données) ne s'en remettra pas. mdadm integre un démon de monitoring pour les grappes RAID qui envoie un mail a root en cas de probleme sur l'un des disques de la grappe, il faut donc vous assurer que les mails envoyés a root vous parviennent sous peine de louper le fait qu'un de vos disques vient de vous lâcher. Et si un 2e meurt, votre grappe (ainsi que les données) ne s'en remettra pas.
  
 +===== Opérations courantes =====
 +Si l'un de vos disques meurt, la grappe passe en mode "​dégradé",​ mais vous continuez a accéder a vos données tant qu'un autre disque ne rend pas l'âme a son tour.
  
 +==== Marquer une partition comme défectueuse ====
 +Au besoin, attention a ne pas en marquer une qui ne l'es pas si votre grappe est dégradée :<​code>​
 +mdadm --manage /dev/md0 --fail /​dev/​sda1</​code>​
  
-      ​+==== Exclure une partition de la grappe ==== 
 + 
 +Pour pouvoir exclure une partition il faut d'​abord qu'​ellene soit pas "​active"​ (ie : marquée en tant que "​spare"​ ou "​failed",​ grace a la commande ci dessus par exemple) . 
 + 
 + 
 +<​code>​mdadm --manage /dev/md0 --remove /​dev/​sda1</​code>​ 
 + 
 +==== Ajouter une nouvelle partition de la grappe ==== 
 + 
 +Une fois le disque flambant neuf reçu, installez le physiquement dans votre PC (ordinateur éteind bien sur dans la plupart des cas).<​code>​mdadm /dev/md0 --add /​dev/​sda1</​code>​ 
 + 
 +==== Remplacer un disque defectueux ==== 
 +<note warning>​Attention à ne pas vous tromper de sens des disques et pensez bien que cela va copier l'​intégralité (en écrasant) de la table de partition d'un disque sur l'​autre</​note>​ 
 + 
 +Admettons qu'un disque defectueux soit remplacé on va devoir, si par exemple votre disque OK est /dev/sdb et que le nouveau vierge est /dev/sda : 
 +  * Recréer une table de partition identique sur le disque flambant neuf :<​code>#​ sfdisk --dump /dev/sdb | sfdisk /​dev/​sda</​code>​ 
 +  * Vous pouvez ensuite verifier avec lsblk ou encore fdisk -l que vous voyez bien les nouvelles partitions sur le nouveau disque 
 +  * Rajouter ensuite toutes les partitions "aux bonnes grappes",​ donc si vous avez fait ca un peu bien :<​code>#​ mdadm --manage /dev/md1 --add /dev/sda1 
 +# mdadm --manage /dev/md2 --add /dev/sda2 
 +# mdadm --manage /dev/md2 --add /dev/sda2 
 +[...] 
 +</​code>​ 
 +  * Pour les impatients vous pouvez suivre l'​avancement de la reconstruction des grappes avec : <​code>#​ watch cat /​proc/​mdstat</​code>​ 
 + 
 +==== Surveiller l'​état de la grappe ==== 
 + 
 +Il existe plusieurs moyen : 
 +  * A la main : 
 +    * le "cat /​proc/​mdstat"​ vu au dessus qui vous indique la progression de la reconstruction le cas échéant 
 +    * <​code>​mdadm --examine /​dev/​sda1</​code>​qui devrait vous donner quelque chose de similaire a :<​code>​ 
 +# mdadm --examine /dev/sda1 
 +/​dev/​sda1:​ 
 +          Magic : a92b4efc 
 +        Version : 00.90.00 
 +           UUID : b3b0fcee:​6da97471:​bbd6c5d0:​6131c770 (local to host suricat) 
 +  Creation Time : Tue Nov 10 11:39:42 2009 
 +     Raid Level : raid5 
 +  Used Dev Size : 70316352 (67.06 GiB 72.00 GB) 
 +     Array Size : 140632704 (134.12 GiB 144.01 GB) 
 +   Raid Devices : 3 
 +  Total Devices : 3 
 +Preferred Minor : 0 
 + 
 +    Update Time : Tue Nov 10 18:00:08 2009 
 +          State : clean 
 + ​Active Devices : 3 
 +Working Devices : 3 
 + ​Failed Devices : 0 
 +  Spare Devices : 0 
 +       ​Checksum : 81b31f1e - correct 
 +         ​Events : 14 
 + 
 +         ​Layout : left-symmetric 
 +     Chunk Size : 64K 
 + 
 +      Number ​  ​Major ​  ​Minor ​  ​RaidDevice State 
 +this     ​1 ​      ​8 ​      ​33 ​       1      active sync   /​dev/​sda1 
 + 
 +   ​0 ​    ​0 ​      ​3 ​       2        0      active sync   /​dev/​hda2 
 +   ​1 ​    ​1 ​      ​8 ​      ​33 ​       1      active sync   /​dev/​sda1 
 +   ​2 ​    ​2 ​      ​8 ​      ​49 ​       2      active sync   /​dev/​sdb1 
 +</​code>​ 
 + 
 +  * en automatique : 
 +    * mdadm dispose d'un moniteur qui alerte par mail en cas de problème, et qui est démarré par défaut (sauf mention expresse du contraire dans /​etc/​default/​mdadm sous debian) 
 + 
 +===== Un peu plus loin ===== 
 + 
 +Le probleme avec cette installatin est que sur une installation en utilisant des volumes iscsi (seule la partition hda2 est locale), lors du redemarrage,​ mdadm voit une des partitions du rAID, et se dit "​chouette,​ du RAID? activons tout ca". 
 +Sauf que bien sur à ce moment la , le réseau de la machine n'est pas encore démarré, et donc les volumes iSCSI ne sont pas encore présents ;-) 
 + 
 +LA solution consiste donc a mettre <​code>​INITRDSTART='​none'</​code>​ dans le /​etc/​default/​mdadm pour l'​empecher d'​activer automatiquement les grappes RAID lors du boot (a exclure bien sur si vous avec une partition de boot comme / sur le RAID 
 + 
 +===== Destruction de la grappe ===== 
 +Pour détruire une grappe, des informations etant stockées dans le superblock de chacune des partitions, il faut : 
 +  * marquer en "​faulty"​ chacune des partitions composant le RAID :<​code>​ 
 +mdadm --manage /dev/md0 --fail /dev/sda1 
 +mdadm --manage /dev/md0 --fail /dev/sdb1 
 +mdadm --manage /dev/md0 --fail /dev/hda2 
 +</​code>​ 
 +  * les enlever de la grappe : <​code>​ 
 +mdadm --manage /dev/md0 --remove /dev/sda1 
 +mdadm --manage /dev/md0 --remove /dev/sdb1 
 +mdadm --manage /dev/md0 --remove /dev/hda2 
 +</​code>​ 
 +  * et enfin "​arreter"​ la grappe :<​code>​ 
 +mdadm --manage --stop /dev/md0 
 +</​code>​ 
 +  * penser ensuite a enlever la ligne concernant la grappe supprimée (/dev/md0) dans le fichier /​etc/​mdadm/​mdadm.conf
  
 +Cela evitera que mdadm veuille réutiliser cette grappe au prochain redemarrage/​découverte des partitions "RAID autodetect"​.
  
 +===== Références =====
 +  * https://​www.thomas-krenn.com/​en/​wiki/​Linux_Software_RAID#​Superblock_Metadata_Version_0.90
  
sysadmin/software_raid.1257862916.txt.gz · Dernière modification: 2009/11/10 15:21 par james
Driven by DokuWiki Recent changes RSS feed Valid CSS Valid XHTML 1.0