En ocasiones el RAID1 por software se degrada, este es un ejemplo de un raid software degradado:
# mdadm --query --detail /dev/md1 /dev/md1: Version : 0.90 Creation Time : Sat Feb 6 06:41:35 2010 Raid Level : raid1 Array Size : 10485696 (10.00 GiB 10.74 GB) Used Dev Size : 10485696 (10.00 GiB 10.74 GB) Raid Devices : 2 Total Devices : 1 Preferred Minor : 1 Persistence : Superblock is persistent Update Time : Wed May 11 13:07:39 2011 State : clean, degraded Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0 UUID : c8c59155:37c5de10:a4d2adc2:26fd5302 Events : 0.6628193 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 0 0 1 removed
Vemos que el dispositivo 1 está eliminado del RAID, correspondería a la partición /dev/sdb1
Podríamos añadirlo, siempre que el disco físico esté bien, con:
# mdadm --add /dev/md1 /dev/sdb1
Si es imposible añadirlo, muy probablemente el disco esté roto o dañado. Comprobar si el sistema lo detecta y existe el dispositivo /dev/sdb1. Si no existe, hay que reemplazar el disco (en este caso el segundo).
Este sería un ejemplo de un RAID1 funcionando correctamente:
# mdadm --query --detail /dev/md1 /dev/md1: Version : 0.90 Creation Time : Wed May 11 20:51:50 2011 Raid Level : raid1 Array Size : 20478912 (19.53 GiB 20.97 GB) Used Dev Size : 20478912 (19.53 GiB 20.97 GB) Raid Devices : 2 Total Devices : 2 Preferred Minor : 1 Persistence : Superblock is persistent Update Time : Fri May 13 10:49:37 2011 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 UUID : ddd55827:6feafc33:a4d2adc2:26fd5302 Events : 0.1 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 17 1 active sync /dev/sdb1
Si tenemos uno de los discos en recostrucción, podemos ver lo siguiente:
$ mdadm --query --detail /dev/md1
Version : 00.90 Creation Time : Wed May 11 20:51:50 2011 Raid Level : raid1 Array Size : 20478912 (19.53 GiB 20.97 GB) Used Dev Size : 20478912 (19.53 GiB 20.97 GB) Raid Devices : 2 Total Devices : 2 Preferred Minor : 1 Persistence : Superblock is persistent Update Time : Wed Aug 31 15:04:27 2011 State : clean, degraded, recovering Active Devices : 1 Working Devices : 2 Failed Devices : 0 Spare Devices : 1 Rebuild Status : 15% complete UUID : ddd55827:6feafc33:a4d2adc2:26fd5302 (local to host rescue.ovh.net) Events : 0.947676 Number Major Minor RaidDevice State 2 8 1 0 spare rebuilding /dev/sda1 1 8 17 1 active sync /dev/sdb1
Podemos ver el estado de la reconstrucción:
$ cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] md1 : active raid1 sda1[2] sdb1[1] 20478912 blocks [2/1] [_U] [===>.................] recovery = 15.4% (3160256/20478912) finish=878.3min speed=328K/sec md2 : active raid1 sda2[2] sdb2[1] 467378112 blocks [2/1] [_U] resync=DELAYED
En este caso va por el 14% y existe un segundo array (md2) que necesita reconstruirse.