Ri-Assemblaggio RAID5

Riconoscimento, installazione e configurazione delle periferiche.
Scrivi risposta
Pyno
Prode Principiante
Messaggi: 10
Iscrizione: mercoledì 30 maggio 2018, 18:09
Distribuzione: Ubuntu 16.04.4 LTS i686
Sesso: Maschile

Ri-Assemblaggio RAID5

Messaggio da Pyno »

Ciao a tutti,
sono nuovissimo qui, e anche molto inesperto di Linux che sto iniziando a studiare.
Dopo molti tentativi sono riuscito ad installare Ubuntu Server 16.04 LTS su di un vecchissimo PC (CPU Intel Pentium 4 3 GHz, su una mobo con FSB 800, disco di sistema da 60 GB [sda] con 3 partizioni [una Estesa + 1 swap + sistema ext4], bootloader su chiavetta USB [sdc] nn ho trovato il sistema per fare il boot direttamente dal device sda perché nn trovavo il driver della scheda con gli slot SATA così ho usato questo accrocchio)
+ 3 dischi da 2 TB cadauno montati in RAID5, fs ext4 sdb3, sdd3 e sde3, per 3,6 TiB
Tutti con tabella GPT (tranne la USBkey)
Dopo circa 6 mesi di uso la scheda madre si è guastata. Ora l’ho sostituita con una della stessa marca e modello e, rimontato tutto il PC, ho collegato i 3 HD per recuperare i dati. Vorrei ripristinare il RAID5 senza riformattare Probabilmente dovrei riconfigurare il tutto ma data l’inesperienza non vorrei dover sperimentare le soluzioni proprio sul mio sistema per timore di perdere i dati (e comunque il backup richiederebbe 2 TiB di spazio che al momento nn ho)
Con fdisk ho visto che avevo questi device

Codice: Seleziona tutto

Disk /dev/sda: 55,9 GiB, 60022480896 bytes, 117231408 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x8da373d1

Dispositivo Avvio   Start      Fine   Settori  Size Id Tipo
/dev/sda1            2046   7813119   7811074  3,7G  5 Esteso
/dev/sda2         7813120 117229567 109416448 52,2G 83 Linux
/dev/sda5            2048   7813119   7811072  3,7G 82 Linux swap / Solaris

Partition table entries are not in disk order.

Disk /dev/sdb: 1,8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 9E1F530F-BA3D-461D-81FB-E7EF8AEA36B3

Dispositivo      Start       Fine    Settori   Size Tipo
/dev/sdb1           40    1060289    1060250 517,7M Microsoft basic data
/dev/sdb2      1060296    2120579    1060284 517,7M Microsoft basic data
/dev/sdb3      2120584 3889240109 3887119526   1,8T Microsoft basic data
/dev/sdb4   3889240112 3890300399    1060288 517,7M Microsoft basic data
/dev/sdb5   3890300408 3907007999   16707592     8G Microsoft basic data

Disk /dev/sdc: 2 GiB, 2070937600 bytes, 4044800 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xbc4cf1b2
E altri 2 dispositivi sdd e sde identici a sdb

Perciò ho pensato di ricreare il raid 5 con

Codice: Seleziona tutto

sudo mdadm --create /dev/md0 --level=raid5 --raid-devices=3 /dev/sdb3 /dev/sdd3 /dev/sde3
e poi ho cercato di montarlo con

Codice: Seleziona tutto

sudo mount /dev/md0 /media/raid5
ma ho ricevuto questo messaggio di errore

Codice: Seleziona tutto

mount: wrong fs type, bad option, bad superblock on /dev/md0,
       missing codepage or helper program, or other error

       In some cases useful info is found in syslog - try
       dmesg | tail or so.
Inoltre dopo un riavvio del computer ho visto che il Raid era indicato come md127 e nn md0

Codice: Seleziona tutto

Disk /dev/md127: 3,6 TiB, 3980141789184 bytes, 7773714432 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 524288 bytes / 1048576 bytes
E’ molto probabile che stia sbagliando qualcosa, ma che cosa?

Grazie a tutti. Ciao
Avatar utente
axilot
Imperturbabile Insigne
Imperturbabile Insigne
Messaggi: 2704
Iscrizione: lunedì 7 luglio 2008, 17:29
Distribuzione: Ubuntu 16.04 64bit

Re: Ri-Assemblaggio RAID5

Messaggio da axilot »

scusa ma in di dischi da 2 Tb dall ouptup di fdisk che hai postato ne vedo solo 1 (sdb), lo hai forse postato parzialmente?
poi il raid lo dovevi solo riassemblare non ricreare ex novo.
"Experience, the name men give to their mistakes" (O.Wilde)
Pc principale: Ubuntu 16.04 64Bit - Pc secondario: Ubuntu 18.04 64 Bit - Raspberry Pi: Rpi 1B+, Rpi 2, Rpi 3+, Rpi Zero W
Pyno
Prode Principiante
Messaggi: 10
Iscrizione: mercoledì 30 maggio 2018, 18:09
Distribuzione: Ubuntu 16.04.4 LTS i686
Sesso: Maschile

Re: Ri-Assemblaggio RAID5

Messaggio da Pyno »

grazie per la risposta
Si ho postato solo il primo perchè gli altri 2 sono identici.
Inoltre dopo un ennesimo riavvio i dischi sono stati riordinati nell'ordine iniziale (qll del server con la mobo iniziale) ovvero ora i dispositivi del Raid sono sdC sdD sdE.
Per ricapitolare questo il risultato dello fdisk

Codice: Seleziona tutto

Disk /dev/loop0: 143,7 MiB, 150695936 bytes, 294328 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/loop1: 81,6 MiB, 85598208 bytes, 167184 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes








Disk /dev/sda: 55,9 GiB, 60022480896 bytes, 117231408 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x8da373d1

Dispositivo Avvio   Start      Fine   Settori  Size Id Tipo
/dev/sda1            2046   7813119   7811074  3,7G  5 Esteso
/dev/sda2         7813120 117229567 109416448 52,2G 83 Linux
/dev/sda5            2048   7813119   7811072  3,7G 82 Linux swap / Solaris

Partition table entries are not in disk order.


Disk /dev/sdb: 2 GiB, 2070937600 bytes, 4044800 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xbc4cf1b2

Dispositivo Avvio Start    Fine Settori  Size Id Tipo
/dev/sdb1   *      2048 4042751 4040704  1,9G 83 Linux


Disk /dev/sdc: 1,8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 9E1F530F-BA3D-461D-81FB-E7EF8AEA36B3

Dispositivo      Start       Fine    Settori   Size Tipo
/dev/sdc1           40    1060289    1060250 517,7M Microsoft basic data
/dev/sdc2      1060296    2120579    1060284 517,7M Microsoft basic data
/dev/sdc3      2120584 3889240109 3887119526   1,8T Microsoft basic data
/dev/sdc4   3889240112 3890300399    1060288 517,7M Microsoft basic data
/dev/sdc5   3890300408 3907007999   16707592     8G Microsoft basic data


Disk /dev/sdd: 1,8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 1F4C8410-7BC5-4B4C-BDFF-3251DDA375CA

Dispositivo      Start       Fine    Settori   Size Tipo
/dev/sdd1           40    1060289    1060250 517,7M Microsoft basic data
/dev/sdd2      1060296    2120579    1060284 517,7M Microsoft basic data
/dev/sdd3      2120584 3889240109 3887119526   1,8T Microsoft basic data
/dev/sdd4   3889240112 3890300399    1060288 517,7M Microsoft basic data
/dev/sdd5   3890300408 3907007999   16707592     8G Microsoft basic data


Disk /dev/sde: 1,8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 01BFA5D5-A9E4-41A5-BB04-472931A54D86

Dispositivo      Start       Fine    Settori   Size Tipo
/dev/sde1           40    1060289    1060250 517,7M Microsoft basic data
/dev/sde2      1060296    2120579    1060284 517,7M Microsoft basic data
/dev/sde3      2120584 3889240109 3887119526   1,8T Microsoft basic data
/dev/sde4   3889240112 3890300399    1060288 517,7M Microsoft basic data
/dev/sde5   3890300408 3907007999   16707592     8G Microsoft basic data


Disk /dev/md127: 3,6 TiB, 3980141789184 bytes, 7773714432 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 524288 bytes / 1048576 bytes
Quanto al Riassemblaggio hai ragione infatti, cercando in rete ho trovato che il comando dovrebbe essere

Codice: Seleziona tutto

sudo mdadm --assemble --force /dev/md127 /dev/sdc3 /dev/sdd3 /dev/sde3
da cui ottenevo

Codice: Seleziona tutto

mdadm: /dev/md127 has been started with 2 drives (out of 3) and 1 rebuilding.
Se ho capito bene la macchina stava ricostruendo i dati sul terzo disco. Infatti oggi con

Codice: Seleziona tutto

sudo mdadm --detail /dev/md127
ho ottenuto

Codice: Seleziona tutto

/dev/md127:
        Version : 1.2
  Creation Time : Tue May 29 23:27:21 2018
     Raid Level : raid5
     Array Size : 3886857216 (3706.80 GiB 3980.14 GB)
  Used Dev Size : 1943428608 (1853.40 GiB 1990.07 GB)
   Raid Devices : 3
  Total Devices : 3
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Thu May 31 17:20:09 2018
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : ubusrv:0  (local to host ubusrv)
           UUID : 9f5f6b50:8f347a53:f7dafde9:42f20485
         Events : 9028

    Number   Major   Minor   RaidDevice State
       0       8       35        0      active sync   /dev/sdc3
       1       8       51        1      active sync   /dev/sdd3
       3       8       67        2      active sync   /dev/sde3
Sembrerebbe tutto a posto, ma ancora non sono riuscito a montare il Raid. Mi risponde con il solito errore:

Codice: Seleziona tutto

mount: wrong fs type, bad option, bad superblock on /dev/md127,
       missing codepage or helper program, or other error

       In some cases useful info is found in syslog - try
       dmesg | tail or so.
Ora devo ancora tentare il Riassemblaggio prima di montare il Raid?
Pyno
Prode Principiante
Messaggi: 10
Iscrizione: mercoledì 30 maggio 2018, 18:09
Distribuzione: Ubuntu 16.04.4 LTS i686
Sesso: Maschile

Re: Ri-Assemblaggio RAID5 - errore SuperBlock file Sys corro

Messaggio da Pyno »

Dunque mi sembra di progredire nell'indagine del problema: sono con il Raid ri-assemblato, ma
con sudo fsck /dev/md0
ho scoperto che il superblocco ha qualcosa che non va, probabilm. una corruzione del FileSystem (cosa plausibile in quanto la rottura della scheda madre è avvenuta mentre il Server era in uso con conseguente improvviso blocco seppure il Pc risultava ancora acceso, quindi con grossa probabilità di qualche cortocircuto sulla mobo).
comunque qst il responso dello FSCK

Codice: Seleziona tutto

fsck da util-linux 2.27.1
e2fsck 1.42.13 (17-May-2015)
ext2fs_open2: Valore magic non corretto nel super-blocco
fsck.ext2: Superblock invalid, trying backup blocks...
fsck.ext2: Valore magic non corretto nel super-blocco nell'aprire /dev/md0

The super-blocco could not be read or does not describe a valid ext2/ext3/ext4
file system.  If the device is valid and it really contains an ext2/ext3/ext4
file system (and not swap or ufs or something else), then the super-blocco
is corrupt, and you might try running e2fsck with an alternate super-blocco:
    e2fsck -b 8193 <device>
 or
    e2fsck -b 32768 <device>
Ora prima di fare altri danni attenderei un vostro consiglio... riparazioni con fsck o uso di e2fsck mi sembrano assai delicate;
ho modificato anche l'oggetto perchè ora non so se esiste una sezione del forum più adatta per qst post
Pyno
Prode Principiante
Messaggi: 10
Iscrizione: mercoledì 30 maggio 2018, 18:09
Distribuzione: Ubuntu 16.04.4 LTS i686
Sesso: Maschile

Re: Ri-Assemblaggio RAID5

Messaggio da Pyno »

Or bene proseguendo nell’indagine ho letto che bisogna cercare un backup relativo al superblocco con

Codice: Seleziona tutto

sudo mke2fs -n /dev/md0
da cui ho ottenuto

Codice: Seleziona tutto

mke2fs 1.42.13 (17-May-2015)
Creazione del file system con 971714304 4k blocchi e 242933760 inode
Etichetta del file system=0a0bcc7f-c013-4bb8-bad2-632083d9a5ad
Backup del superblocco salvati nei blocchi:
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
        4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
        102400000, 214990848, 512000000, 550731776, 644972544
Quindi si dovrebbe ripristinare uno di qst backup, ho iniziato dal primo valore ma siccome mi ridava sempre lo stesso errore di SUPERBLOCK INVALID ho proseguito con i successivi, ma sempre senza successo.
Fino al valore 71663616 dove c'e' stata una novità, con

Codice: Seleziona tutto

sudo e2fsck -b 71663616 /dev/md0
ho ricevuto una NUOVA DIVERSA RISPO

Codice: Seleziona tutto

e2fsck 1.42.13 (17-May-2015)
e2fsck: Argomento non valido nell'aprire /dev/md0
Ho pertanto provato a riavviare, e stoppato il RAID ho ritentato il montaggio del raid md0, ma nn ho avuto successo
sempre lo stesso errore

Codice: Seleziona tutto

mount: wrong fs type, bad option, bad superblock on /dev/md0,
       missing codepage or helper program, or other error

       In some cases useful info is found in syslog - try
       dmesg | tail or so.
Ho provato anche un'altra opzione di mdadm la --update=summaries (suggerimento raccolto sempre online)

Codice: Seleziona tutto

sudo mdadm --assemble /dev/md0  -f --update=summaries /dev/sdb3 /dev/sdd3 /dev/sde3
ma ancora con esito negativo con qst rispo

Codice: Seleziona tutto

mdadm: --update=summaries not understood for 1.x metadata
Per ricapitolare ora il RAID si assembla bene, i 3 dischi sembrano a posto (testato anche con i comandi S.M.A.R.T. e nn sono segnalati difetti fisici) ma nn riesco a montarlo, ottenendo errore nel SuperBlock che comq nn riesco a risolvere.

Diciamo cmq che l'obiettivo nn è di utilizzare nuovamente il RAID bensì solo qll di recuperare i dati, senza dover ricorrere ai costosissimi servizi di recovery commerciale.
Avatar utente
axilot
Imperturbabile Insigne
Imperturbabile Insigne
Messaggi: 2704
Iscrizione: lunedì 7 luglio 2008, 17:29
Distribuzione: Ubuntu 16.04 64bit

Re: Ri-Assemblaggio RAID5

Messaggio da axilot »

Ha provato a guardare nel syslog e dmesg come consigliato?

Prova pure a dare il comando assemble con l opzione "--update=name" come qui

https://superuser.com/questions/1239996 ... ksum-error

Edit: Comunque controlla di nuovo tramite test SMART se per caso uno dei tre dischi fosse danneggiato, perchè potrebbe essere quella la causa, puoi sempre montare un Raid5 degradato con solo 2 dischi su 3 e copiarti comunque i dati.
"Experience, the name men give to their mistakes" (O.Wilde)
Pc principale: Ubuntu 16.04 64Bit - Pc secondario: Ubuntu 18.04 64 Bit - Raspberry Pi: Rpi 1B+, Rpi 2, Rpi 3+, Rpi Zero W
Pyno
Prode Principiante
Messaggi: 10
Iscrizione: mercoledì 30 maggio 2018, 18:09
Distribuzione: Ubuntu 16.04.4 LTS i686
Sesso: Maschile

Re: Ri-Assemblaggio RAID5

Messaggio da Pyno »

grz 1k x le info.
Dunque ho stoppato e riassemblato il raid come da suggerimento

Codice: Seleziona tutto

 sudo mdadm  --assemble --update=name /dev/md0 /dev/sdb3 /dev/sdd3 /dev/sde3
 mdadm: /dev/md0 has been started with 3 drives.
Ma al montaggio solito errore

Codice: Seleziona tutto

 mount: wrong fs type, bad option, bad superblock on /dev/md0,
       missing codepage or helper program, or other error
analizzando il syslog

Codice: Seleziona tutto

dmesg | tail
[260228.350906] md/raid:md0: allocated 3234kB
[260228.355511] md/raid:md0: raid level 5 active with 3 out of 3 devices, algorithm 2
[260228.355519] RAID conf printout:
[260228.355523]  --- level:5 rd:3 wd:3
[260228.355529]  disk 0, o:1, dev:sdb3
[260228.355534]  disk 1, o:1, dev:sdd3
[260228.355538]  disk 2, o:1, dev:sde3
[260228.355819] created bitmap (15 pages) for device md0
[260228.357977] md0: bitmap initialized from disk: read 1 pages, set 0 of 29655 bits
[260228.371675] md0: detected capacity change from 0 to 3980141789184
Che era tra l’altro identico a qll fatto nei giorni scorsi ai primi messaggi di errore; nn mi sembra segnali alcun errore ma forse mi sfugge qualcosa.

Inoltre notare che i dispositivi sono tornati sdBx, oltre a sdDx e sdE, com’era all’inizio del tentativo di ripristino: probabilm. qualche backup del SuperBlock ha originato qst reset.

Ora ho ritestato tutti e 3 i device con smartctl e nn rileva nessun errore fisico su tutti e 3 i dischi

Direi che sia il caso di lasciare da parte il ripristino del sistema com’era, e seguire il consiglio di montare un raid degradato con 2 soli dischi e copiare i dati.
Ora per avere un’idea chiara di qll che andremo a fare, io so che un Raid 5 a 3 dischi salva i dati su 2 dischi con i controlli di parità sul terzo con uno schema di qst tipo:
A1 - A2 - Ap
B1 - Bp - B2
Cp - C1 - C2
Ora montando solo 2 dischi dovrei avere tutti i dati A1 e A2 e quindi posso copiare subito i dati A, mentre avendo i B1 i B2 li ricalcola da Bp, idem per i C, e quindi ora dovrei essere in grado di copiare anche i dati B e i C .
Se qst è l’operazione logica che andremo a fare devo procurarmi un altro disco (nel mio caso avendo circa 1,8 TiB di dati mi servirebbe un 3 TB) su cui copiare i dati quindi posso riutilizzare i 3 dischi precedenti riformattandoli e ricreando un nuovo RAID5.
Ovvero nn cercheremo più di ricostriure il RAID con i 3 dischi originari, ma ne useremo solo 2 per copiare i dati su di un quarto nuovo disco.
Giusto per confermare se ho capito bene, poi mi cercherò i camandi per eseguire qst operazioni. grz
Pyno
Prode Principiante
Messaggi: 10
Iscrizione: mercoledì 30 maggio 2018, 18:09
Distribuzione: Ubuntu 16.04.4 LTS i686
Sesso: Maschile

Re: Ri-Assemblaggio RAID5

Messaggio da Pyno »

PS avrei un dubbio teorico:
con sudo fdisk -l vedo che ho ben 5 partizioni sui dischi del RAID

Codice: Seleziona tutto

Dispositivo      Start       Fine    Settori   Size Tipo
/dev/sdb1           40    1060289    1060250 517,7M Microsoft basic data
/dev/sdb2      1060296    2120579    1060284 517,7M Microsoft basic data
/dev/sdb3      2120584 3889240109 3887119526   1,8T Microsoft basic data
/dev/sdb4   3889240112 3890300399    1060288 517,7M Microsoft basic data
/dev/sdb5   3890300408 3907007999   16707592     8G Microsoft basic data

Dispositivo      Start       Fine    Settori   Size Tipo
/dev/sdd1           40    1060289    1060250 517,7M Microsoft basic data
/dev/sdd2      1060296    2120579    1060284 517,7M Microsoft basic data
/dev/sdd3      2120584 3889240109 3887119526   1,8T Microsoft basic data
/dev/sdd4   3889240112 3890300399    1060288 517,7M Microsoft basic data
/dev/sdd5   3890300408 3907007999   16707592     8G Microsoft basic data

Dispositivo      Start       Fine    Settori   Size Tipo
/dev/sde1           40    1060289    1060250 517,7M Microsoft basic data
/dev/sde2      1060296    2120579    1060284 517,7M Microsoft basic data
/dev/sde3      2120584 3889240109 3887119526   1,8T Microsoft basic data
/dev/sde4   3889240112 3890300399    1060288 517,7M Microsoft basic data
/dev/sde5   3890300408 3907007999   16707592     8G Microsoft basic data
Nn si dovranno montare anche qst altri RAID? E cmq cosa sono qst altre partizioni?
Avatar utente
axilot
Imperturbabile Insigne
Imperturbabile Insigne
Messaggi: 2704
Iscrizione: lunedì 7 luglio 2008, 17:29
Distribuzione: Ubuntu 16.04 64bit

Re: Ri-Assemblaggio RAID5

Messaggio da axilot »

Effettivamente avevo notato il partizionamento, non ho idea di cosa rappresentino le altre partizioni .

Mi viene in mente di provare a far assemblare tutto quello che trova con

Codice: Seleziona tutto

mdadm --assemble --scan
Anche forzandolo con

Codice: Seleziona tutto

mdadm --assemble --scan --force
"Experience, the name men give to their mistakes" (O.Wilde)
Pc principale: Ubuntu 16.04 64Bit - Pc secondario: Ubuntu 18.04 64 Bit - Raspberry Pi: Rpi 1B+, Rpi 2, Rpi 3+, Rpi Zero W
Pyno
Prode Principiante
Messaggi: 10
Iscrizione: mercoledì 30 maggio 2018, 18:09
Distribuzione: Ubuntu 16.04.4 LTS i686
Sesso: Maschile

Re: Ri-Assemblaggio RAID5

Messaggio da Pyno »

Ciao, grz ancora per il supporto, Axilot.
Dunque prima di provare altri assemblaggi vorrei condividerti che cosa ho trovato circa le altre partizioni
Con il comando sudo mdadm --examine --scan
ho trovato

Codice: Seleziona tutto

ARRAY /dev/md/9    metadata=1.0 UUID=dceecb46:abb44384:1e947eb3:81a7a733 name=9
ARRAY /dev/md/256  metadata=1.0 UUID=d0fafd19:c1af7586:84dffb9b:6f2caa56 name=256   spares=2
ARRAY /dev/md/0    metadata=1.2 UUID=9f5f6b50:8f347a53:f7dafde9:42f20485 name=ubusrv:0
ARRAY /dev/md/13   metadata=1.0 UUID=d0afbef5:a7bade77:883d0c11:fe6d2301 name=13
ARRAY /dev/md/322  metadata=1.0 UUID=32b6511c:a73fbd48:a7104015:0eeed470 name=322   spares=2
Infatti anche con sudo cat /proc/mdstat avevo

Codice: Seleziona tutto

Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md13 : inactive sdb4[32](S) sdd4[33](S) sde4[34](S)
      1590384 blocks super 1.0
md256 : inactive sde2[4](S) sdd2[3](S) sdb2[2](S)
      1590372 blocks super 1.0
md0 : active (auto-read-only) raid5 sdd3[1] sde3[3] sdb3[0]
      3886857216 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
      bitmap: 0/15 pages [0KB], 65536KB chunk
md9 : inactive sde1[34](S) sdb1[32](S) sdd1[33](S)
      1590324 blocks super 1.0
md322 : inactive sdd5[3](S) sde5[4](S) sdb5[2](S)
      25061340 blocks super 1.0
       
unused devices: <none>
Inoltre con sudo parted /dev/sde su di un disco preso a caso (SDE)
(parted) print
ho trovato

Codice: Seleziona tutto

Modello: ATA WDC WD20EARS-00M (scsi)
Disco /dev/sde: 2000GB
Dimensione del settore (logica/fisica): 512B/512B
Tabella delle partizioni: gpt
Flag del disco:

N.   Inizio    Fine   Dimens.  File system        Nome      Flag
1    20,5kB   543MB   543 MB   ext3             primary   msftdata
2    543MB   1086MB   543 MB   linux-swap(v1)   primary   msftdata
3   1086MB   1991GB   1990GB                    primary   msftdata
4   1991GB   1992GB   543 MB   ext3             primary   msftdata
5   1992GB   2000GB   8554MB   linux-swap(v1)   primary   msftdata
Per cui possiamo dire che le partizioni 2 da 543 MB (517,7 MiB) e 5 da 8 GiB sono gli swap, la partiz. 3 è qll componente il Raid per i dati, mentre mi restano ignote le 2 partizioni, la 1 e la 4, entrambe da 517,7 MiB con FS ext3.
E altrettanto resta ignota anche il FileSys della partiz. dati la 3. (ma mi sembra di ricordare che l'avessi formattato in Ext4)

Forse bisognerebbe che si assemblassero anche i device md9 md256 md13 e md 322
Perciò ho provato con il tuo consiglio

Codice: Seleziona tutto

mdadm --assemble --scan --force
Ma al montaggio ancora il solito errore
Inoltre andando a leggere lo stato degli array con sudo cat /proc/mdstat, ho visto che i 4 array per così dire “accessori” erano ancora inattivi

Codice: Seleziona tutto

Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid5 sdb3[0] sde3[3] sdd3[1]
      3886857216 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      bitmap: 0/15 pages [0KB], 65536KB chunk
md13 : inactive sdd4[33](S) sde4[34](S) sdb4[32](S)
      1590384 blocks super 1.0
md322 : inactive sdd5[3](S) sde5[4](S) sdb5[2](S)
      25061340 blocks super 1.0
md9 : inactive sdd1[33](S) sdb1[32](S) sde1[34](S)
      1590324 blocks super 1.0
md256 : inactive sdd2[3](S) sdb2[2](S) sde2[4](S)
      1590372 blocks super 1.0

unused devices: <none>
Ora cosa mi suggeriresti: assemblo manualmente tutti e 5 gli array e poi tento il montaggio della md0?
Pyno
Prode Principiante
Messaggi: 10
Iscrizione: mercoledì 30 maggio 2018, 18:09
Distribuzione: Ubuntu 16.04.4 LTS i686
Sesso: Maschile

Re: Ri-Assemblaggio RAID5

Messaggio da Pyno »

Nuovo aggiornamento: ho scoperto perchè l'assemble --scan non ha funzionato, e cioè i 4 RAID accessori andavano stoppati prima dell'assemblaggio.
Per cui prima fermarli con

Codice: Seleziona tutto

sudo mdadm --stop /dev/md13
sudo mdadm --stop /dev/md322
sudo mdadm --stop /dev/md9
sudo mdadm --stop /dev/md256
poi assemblarli

Codice: Seleziona tutto

sudo mdadm --assemble --scan --force

mdadm: /dev/md/322_0 has been started with 1 drive (out of 2) and 2 spares.
mdadm: /dev/md/13_0 has been started with 3 drives (out of 32).
mdadm: /dev/md/256_0 has been started with 1 drive (out of 2) and 2 spares.
mdadm: /dev/md/9_0 has been started with 3 drives (out of 32).
mdadm: /dev/md/0 has been started with 3 drives.
per cui ora questa è la situazione

Codice: Seleziona tutto

Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]

md0 : active raid5 sdb3[0] sde3[3] sdd3[1]
      3886857216 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      bitmap: 0/15 pages [0KB], 65536KB chunk

md124 : active raid1 sdb1[32] sde1[34] sdd1[33]
      530048 blocks super 1.0 [32/3] [_UUU____________________________]
      bitmap: 1/1 pages [4KB], 65536KB chunk
md125 : active raid1 sdb2[2] sdd2[3] sde2[4](S)
      530112 blocks super 1.0 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk
md126 : active raid1 sdb4[32] sde4[34] sdd4[33]
      458880 blocks super 1.0 [32/3] [_UUU____________________________]
      bitmap: 1/1 pages [4KB], 65536KB chunk
md127 : active raid1 sdb5[2] sdd5[3] sde5[4](S)
      7235136 blocks super 1.0 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

unused devices: <none>

Codice: Seleziona tutto

ARRAY /dev/md/9  metadata=1.0 UUID=dceecb46:abb44384:1e947eb3:81a7a733 name=9
ARRAY /dev/md/256  metadata=1.0 UUID=d0fafd19:c1af7586:84dffb9b:6f2caa56 name=256   spares=1
ARRAY /dev/md/0  metadata=1.2 UUID=9f5f6b50:8f347a53:f7dafde9:42f20485 name=ubusrv:0
ARRAY /dev/md/13  metadata=1.0 UUID=d0afbef5:a7bade77:883d0c11:fe6d2301 name=13
ARRAY /dev/md/322  metadata=1.0 UUID=32b6511c:a73fbd48:a7104015:0eeed470 name=322   spares=1
Pyno
Prode Principiante
Messaggi: 10
Iscrizione: mercoledì 30 maggio 2018, 18:09
Distribuzione: Ubuntu 16.04.4 LTS i686
Sesso: Maschile

Re: Ri-Assemblaggio RAID5

Messaggio da Pyno »

Purtroppo al montaggio di dev/md0 sia con opzione -t ext4 che ext3 ricevo sempre il consueto msg di errore

Codice: Seleziona tutto

mount: wrong fs type, bad option, bad superblock on /dev/md0,
       missing codepage or helper program, or other error

       In some cases useful info is found in syslog - try
       dmesg | tail or so.
e al solito a dmesg | tail mi dice

Codice: Seleziona tutto

.............
.............
[966519.673040] EXT4-fs (md0): VFS: Can't find ext4 filesystem
.............
.............

Posto qui di seguito la risposta completa

Codice: Seleziona tutto

[1039202.491754] audit: type=1400 audit(1528914391.197:84226): apparmor="DENIED" operation="open" profile="snap.chromium.chromium" name=2F686F6D652F766567612F736E61702F6368726F6D69756D2F3334342F2E636F6E6669672F6368726F6D69756D2F44656661756C742F53796E6320446174612F53796E63446174612E73716C697465332D6A6F75726E616C pid=27496 comm="Chrome_SyncThre" requested_mask="wc" denied_mask="wc" fsuid=1000 ouid=1000

[1039212.490594] audit: type=1400 audit(1528914401.197:84227): apparmor="DENIED" operation="open" profile="snap.chromium.chromium" name=2F686F6D652F766567612F736E61702F6368726F6D69756D2F3334342F2E636F6E6669672F6368726F6D69756D2F44656661756C742F53796E6320446174612F53796E63446174612E73716C697465332D6A6F75726E616C pid=27496 comm="Chrome_SyncThre" requested_mask="wc" denied_mask="wc" fsuid=1000 ouid=1000

[1039222.491669] audit: type=1400 audit(1528914411.197:84228): apparmor="DENIED" operation="open" profile="snap.chromium.chromium" name=2F686F6D652F766567612F736E61702F6368726F6D69756D2F3334342F2E636F6E6669672F6368726F6D69756D2F44656661756C742F53796E6320446174612F53796E63446174612E73716C697465332D6A6F75726E616C pid=27496 comm="Chrome_SyncThre" requested_mask="wc" denied_mask="wc" fsuid=1000 ouid=1000

[1039232.491025] audit: type=1400 audit(1528914421.197:84229): apparmor="DENIED" operation="open" profile="snap.chromium.chromium" name=2F686F6D652F766567612F736E61702F6368726F6D69756D2F3334342F2E636F6E6669672F6368726F6D69756D2F44656661756C742F53796E6320446174612F53796E63446174612E73716C697465332D6A6F75726E616C pid=27496 comm="Chrome_SyncThre" requested_mask="wc" denied_mask="wc" fsuid=1000 ouid=1000

[1039242.492265] audit: type=1400 audit(1528914431.201:84230): apparmor="DENIED" operation="open" profile="snap.chromium.chromium" name=2F686F6D652F766567612F736E61702F6368726F6D69756D2F3334342F2E636F6E6669672F6368726F6D69756D2F44656661756C742F53796E6320446174612F53796E63446174612E73716C697465332D6A6F75726E616C pid=27496 comm="Chrome_SyncThre" requested_mask="wc" denied_mask="wc" fsuid=1000 ouid=1000

[1039252.492371] audit: type=1400 audit(1528914441.201:84231): apparmor="DENIED" operation="open" profile="snap.chromium.chromium" name=2F686F6D652F766567612F736E61702F6368726F6D69756D2F3334342F2E636F6E6669672F6368726F6D69756D2F44656661756C742F53796E6320446174612F53796E63446174612E73716C697465332D6A6F75726E616C pid=27496 comm="Chrome_SyncThre" requested_mask="wc" denied_mask="wc" fsuid=1000 ouid=1000

[1039262.492473] audit: type=1400 audit(1528914451.201:84232): apparmor="DENIED" operation="open" profile="snap.chromium.chromium" name=2F686F6D652F766567612F736E61702F6368726F6D69756D2F3334342F2E636F6E6669672F6368726F6D69756D2F44656661756C742F53796E6320446174612F53796E63446174612E73716C697465332D6A6F75726E616C pid=27496 comm="Chrome_SyncThre" requested_mask="wc" denied_mask="wc" fsuid=1000 ouid=1000

[1039272.492336] audit: type=1400 audit(1528914461.201:84233): apparmor="DENIED" operation="open" profile="snap.chromium.chromium" name=2F686F6D652F766567612F736E61702F6368726F6D69756D2F3334342F2E636F6E6669672F6368726F6D69756D2F44656661756C742F53796E6320446174612F53796E63446174612E73716C697465332D6A6F75726E616C pid=27496 comm="Chrome_SyncThre" requested_mask="wc" denied_mask="wc" fsuid=1000 ouid=1000

[1039280.142376] EXT4-fs (md0): VFS: Can't find ext4 filesystem

[1039282.492727] audit: type=1400 audit(1528914471.200:84234): apparmor="DENIED" operation="open" profile="snap.chromium.chromium" name=2F686F6D652F766567612F736E61702F6368726F6D69756D2F3334342F2E636F6E6669672F6368726F6D69756D2F44656661756C742F53796E6320446174612F53796E63446174612E73716C697465332D6A6F75726E616C pid=27496 comm="Chrome_SyncThre" requested_mask="wc" denied_mask="wc" fsuid=1000 ouid=1000
Avatar utente
axilot
Imperturbabile Insigne
Imperturbabile Insigne
Messaggi: 2704
Iscrizione: lunedì 7 luglio 2008, 17:29
Distribuzione: Ubuntu 16.04 64bit

Re: Ri-Assemblaggio RAID5

Messaggio da axilot »

Ma hai per caso il file "/etc/mdadm/mdadm.conf" originale da qualche parte? per avere conferma esattamente di come era configurato il raid in origine.
Purtroppo non mi vengono in mente altre idee.
"Experience, the name men give to their mistakes" (O.Wilde)
Pc principale: Ubuntu 16.04 64Bit - Pc secondario: Ubuntu 18.04 64 Bit - Raspberry Pi: Rpi 1B+, Rpi 2, Rpi 3+, Rpi Zero W
Pyno
Prode Principiante
Messaggi: 10
Iscrizione: mercoledì 30 maggio 2018, 18:09
Distribuzione: Ubuntu 16.04.4 LTS i686
Sesso: Maschile

Re: Ri-Assemblaggio RAID5

Messaggio da Pyno »

axilot, grz 1k per il tuo aiuto.
Il RAID è stato riassemblato.
Il problema adesso è chiaro : è stata corrotta la tabella della partizione , che era originariamente una EFI GPT, con file Sytem ext4.

Sto provando ora a fare un RECOVERY dei file usando TESTDisk e PhotoREC in particolare in qnt , mi pare , non sia possibile ricostruire la Partition table.
Cmq mi pare che a questo punto il topic di questa discussione sia cambiato... credo si debba chiederla o spostarla..... o cosa?
Scrivi risposta

Ritorna a “Driver e periferiche”

Chi c’è in linea

Visualizzano questa sezione: 0 utenti iscritti e 14 ospiti