L'objectif de cette partie est de simuler la perte d'une unité de disque du tableau RAID 1 et de provoquer la reconstruction de ce tableau depuis l'unité de disque réseau iSCSI. On illustre ainsi le mécanisme de tolérance aux pannes.
Q56. |
Comment provoquer une panne de disque côté Initiator ?
|
une fois les deux systèmes redémarrés, procédez aux vérifications suivantes :
|
|
Q57. |
Comment identifier la panne sur le tableau RAID 1 ? Même si le système de fichiers est accessible grâce à la tolérance aux pannes fournie par le mirroring RAID 1, le tableau est en défaut. Relevez les différences entre les résultats de la commande lsblk obtenus dans la Section 8, « Créer un tableau RAID 1 » et ceux obtenus avec la panne. Recherchez, toujours dans la Section 8, « Créer un tableau RAID 1 », la commande d'affichage de l'état du tableau RAID 1. |
Lancez la commande lsblk et relevez l'absence de
référence au périphérique RAID
lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS sda 8:0 0 32G 0 disk └─md0 9:0 0 32G 0 raid1 └─lab--vg-lvol0 252:0 0 16G 0 lvm /mnt/lvol0 sr0 11:0 1 1024M 0 rom vda 254:0 0 366K 0 disk nvme1n1 259:0 0 32G 0 disk nvme0n1 259:1 0 120G 0 disk ├─nvme0n1p1 259:2 0 3M 0 part ├─nvme0n1p2 259:3 0 124M 0 part /boot/efi └─nvme0n1p3 259:4 0 119,9G 0 part / Affichez l'état du tableau RAID 1. cat /proc/mdstat Personalities : [raid0] [raid1] [raid4] [raid5] [raid6] [raid10]
md0 : active raid1 sda[0]
33520640 blocks super 1.2 [2/1] [U_]
bitmap: 1/1 pages [4KB], 65536KB chunk
unused devices: <none>
Les marqueurs |
|
Q58. |
Comment réparer le tableau RAID 1 et revenir à un fonctionnement nominal ? Recherchez dans les options de la commande mdadm, celle qui affiche l'état du second disque du tableau. Ajoutez le « nouveau » second disque pour revenir à l'état nominal. |
Affichez l'état détaillé du tableau RAID 1. sudo mdadm --detail /dev/md0 /dev/md0: Version : 1.2 Creation Time : Sun Aug 31 08:48:01 2025 Raid Level : raid1 Array Size : 33520640 (31.97 GiB 34.33 GB) Used Dev Size : 33520640 (31.97 GiB 34.33 GB) Raid Devices : 2 Total Devices : 1 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Mon Sep 1 08:56:50 2025 State : clean, degraded Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0 Consistency Policy : bitmap Name : initiator:0 (local to host initiator) UUID : b194fed7:429ef21c:1e3a9890:d2963f45 Events : 45 Number Major Minor RaidDevice State 0 8 0 0 active sync /dev/sda - 0 0 1 removed Reprenez la commande d'initialisation du second disque avant de l'ajouter au tableau. sudo mdadm --zero-superblock /dev/disk/by-id/nvme-QEMU_NVMe_Ctrl_feedcafe1 mdadm: Unrecognised md component device - /dev/disk/by-id/nvme-QEMU_NVMe_Ctrl_feedcafe1 Le résultat montre que ce disque ne faisait déjà partie d'un tableau RAID antérieurement et que l'on peut l'ajouter sans risque de compromission des données. Ajoutez le second disque au tableau, toujours avec la commande mdadm. sudo mdadm --manage /dev/md0 --add /dev/disk/by-id/nvme-QEMU_NVMe_Ctrl_feedcafe1 mdadm: added /dev/disk/by-id/nvme-QEMU_NVMe_Ctrl_feedcafe1 |
|
Q59. |
Comment vérifier que le tableau RAID 1 est reconstruit correctement ? Reprenez les commandes de la question précédente et relevez les différences. |
Affichez l'état de la reconstruction en cours. Attention ! La reconstruction prend très peu de temps compte tenu du volume de données très faible stocké sur le tableau. cat /proc/mdstat Personalities : [raid0] [raid1] [raid4] [raid5] [raid6] [raid10] md0 : active raid1 nvme1n1[2] sda[0] 33520640 blocks super 1.2 [2/1] [U_] [=>...................] recovery = 5.3% (1800832/33520640) finish=2.3min speed=225104K/sec bitmap: 1/1 pages [4KB], 65536KB chunk unused devices: <none> Affichez à nouveau les détails du tableau avec la commande mdadm. sudo mdadm --detail /dev/md0 /dev/md0:
Version : 1.2
Creation Time : Sun Aug 31 08:48:01 2025
Raid Level : raid1
Array Size : 33520640 (31.97 GiB 34.33 GB)
Used Dev Size : 33520640 (31.97 GiB 34.33 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Sep 1 11:25:50 2025
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : initiator:0 (local to host initiator)
UUID : b194fed7:429ef21c:1e3a9890:d2963f45
Events : 81
Number Major Minor RaidDevice State
0 8 0 0 active sync /dev/sda
2 259 0 1 active sync /dev/nvme1n1
L'indicateur d'état |