Zoeken op website

RAID-niveau 6 instellen (Striping met dubbel gedistribueerde pariteit) in Linux - Deel 5


RAID 6 is een geüpgradede versie van RAID 5, waarbij het twee gedistribueerde pariteiten heeft die fouttolerantie bieden, zelfs nadat twee schijven uitvallen. Bedrijfskritisch systeem nog steeds operationeel in het geval van twee gelijktijdige schijfstoringen. Het lijkt op RAID 5, maar is robuuster, omdat het nog een schijf gebruikt voor pariteit.

In ons eerdere artikel hebben we gedistribueerde pariteit gezien in RAID 5, maar in dit artikel gaan we RAID 6 zien met dubbele gedistribueerde pariteit. Verwacht geen extra prestaties dan welke andere RAID dan ook, als dat zo is, moeten we ook een speciale RAID-controller installeren. Hier in RAID 6 kunnen we, zelfs als we onze twee schijven verliezen, de gegevens terugkrijgen door een reserveschijf te vervangen en deze vanaf pariteit op te bouwen.

Om een RAID 6 in te stellen, zijn minimaal 4 schijven of meer in een set vereist. RAID 6 heeft meerdere schijven, zelfs in sommige sets kan het een aantal schijven hebben. Tijdens het lezen zal het van alle schijven lezen, dus lezen zou sneller zijn, terwijl schrijven slecht zou zijn omdat het moet streep over meerdere schijven.

Velen van ons komen nu tot de conclusie waarom we RAID 6 moeten gebruiken, terwijl deze niet presteert zoals elke andere RAID. Hmm... degenen die deze vraag stellen, moeten weten dat, als ze een hoge fouttolerantie nodig hebben, RAID 6 kiezen. In elke hogere omgeving met hoge beschikbaarheid voor de database gebruiken ze RAID 6 omdat de database de belangrijkste en meest belangrijke is. moet koste wat het kost veilig zijn, maar het kan ook handig zijn voor videostreamingomgevingen.

Voor- en nadelen van RAID6

  1. De prestaties zijn goed.
  2. RAID 6 is duur, omdat er twee onafhankelijke schijven moeten worden gebruikt voor pariteitsfuncties.
  3. Verliest een capaciteit van twee schijven voor het gebruik van pariteitsinformatie (dubbele pariteit).
  4. Geen gegevensverlies, zelfs niet nadat twee schijven uitvallen. We kunnen opnieuw opbouwen vanaf pariteit na het vervangen van de defecte schijf.
  5. Lezen zal beter zijn dan RAID 5, omdat er vanaf meerdere schijven wordt gelezen. Maar de schrijfprestaties zullen zeer slecht zijn zonder speciale RAID-controller.

Vereisten

Er zijn minimaal 4 aantallen schijven vereist om een RAID 6 te maken. Als u meer schijven wilt toevoegen, kan dat, maar u moet wel over een speciale raid-controller beschikken. Bij software-RAID zullen we geen betere prestaties krijgen in RAID 6. We hebben dus een fysieke RAID-controller nodig.

Degenen die nieuw zijn bij het instellen van RAID, raden we aan de onderstaande RAID-artikelen door te nemen.

  1. Basisconcepten van RAID in Linux – Deel 1
  2. Software RAID 0 (Stripe) maken in Linux – Deel 2
  3. RAID 1 (mirroring) instellen in Linux – Deel 3
Mijn serverconfiguratie
Operating System :	CentOS 6.5 Final
IP Address	 :	192.168.0.228
Hostname	 :	rd6.tecmintlocal.com
Disk 1 [20GB]	 :	/dev/sdb
Disk 2 [20GB]	 :	/dev/sdc
Disk 3 [20GB]	 :	/dev/sdd
Disk 4 [20GB]	 : 	/dev/sde

Dit artikel is Deel 5 van een RAID-serie met 9 tutorials. Hier gaan we zien hoe we Software RAID 6 of Striping met dubbel gedistribueerde pariteit kunnen maken en instellen in Linux-systemen of -servers die vier schijven van 20 GB gebruiken met de namen /dev/sdb, /dev/sdc, /dev/sdd en /dev/sde.

Stap 1: Mdadm Tool installeren en schijven onderzoeken

1. Als je onze laatste twee Raid-artikelen volgt (Deel 2 en Deelart 3), waarin we al hebben laten zien hoe je installeer het hulpprogramma 'mdadm'. Als dit artikel nieuw voor je is, wil ik je uitleggen dat ‘mdadm’ een tool is om Raid in Linux-systemen te maken en te beheren. Laten we de tool installeren met behulp van de volgende opdracht, afhankelijk van je Linux-distributie.

yum install mdadm		[on RedHat systems]
apt-get install mdadm 	[on Debain systems]

2. Na het installeren van de tool is het nu tijd om de aangesloten vier schijven die we gaan gebruiken voor het maken van raids te verifiëren met behulp van de volgende ‘fdisk’ opdracht.

fdisk -l | grep sd

3. Voordat u RAID-schijven maakt, moet u altijd onze schijfstations onderzoeken of er al een RAID op de schijven is aangemaakt.

mdadm -E /dev/sd[b-e]
mdadm --examine /dev/sdb /dev/sdc /dev/sdd /dev/sde

Opmerking: In de bovenstaande afbeelding wordt weergegeven dat er geen superblok is gedetecteerd of dat er geen RAID is gedefinieerd in vier schijfstations. We kunnen verder gaan en beginnen met het maken van RAID 6.

Stap 2: Schijfpartitionering voor RAID 6

4. Maak nu partities voor raid op '/dev/sdb', '/dev/sdc', '/dev/ sdd' en '/dev/sde' met behulp van het volgende fdisk commando. Hier laten we zien hoe u een partitie op de sdb schijf kunt maken en later zullen dezelfde stappen worden gevolgd voor de rest van de schijven.

Maak een /dev/sdb-partitie
fdisk /dev/sdb

Volg de onderstaande instructies voor het maken van een partitie.

  1. Druk op ‘n‘ om een nieuwe partitie aan te maken.
  2. Kies vervolgens ‘P‘ voor Primaire partitie.
  3. Kies vervolgens het partitienummer als 1.
  4. Definieer de standaardwaarde door tweemaal op de Enter-toets te drukken.
  5. Druk vervolgens op ‘P‘ om de gedefinieerde partitie af te drukken.
  6. Druk op ‘L‘ om alle beschikbare typen weer te geven.
  7. Typ ‘t‘ om de partities te kiezen.
  8. Kies ‘fd‘ voor Linux raid auto en druk op Enter om toe te passen.
  9. Gebruik dan opnieuw ‘P‘ om de wijzigingen af te drukken die we hebben aangebracht.
  10. Gebruik ‘w‘ om de wijzigingen te schrijven.

Maak een /dev/sdb-partitie
fdisk /dev/sdc

Maak een /dev/sdd-partitie
fdisk /dev/sdd

Maak /dev/sde partitie
fdisk /dev/sde

5. Nadat u partities heeft gemaakt, is het altijd een goede gewoonte om de schijven te onderzoeken op superblokken. Als superblokken niet bestaan, kunnen we een nieuwe RAID-opstelling maken.

mdadm -E /dev/sd[b-e]1


or

mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1

Stap 3: MD-apparaat aanmaken (RAID)

6. Nu is het tijd om Raid-apparaat 'md0' (dat wil zeggen /dev/md0) te maken en het raid-niveau toe te passen op alle nieuw gemaakte partities en bevestig de raid met de volgende opdrachten.

mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
cat /proc/mdstat

7. Je kunt het huidige raid-proces ook controleren met de opdracht watch, zoals weergegeven in de onderstaande schermafbeelding.

watch -n1 cat /proc/mdstat

8. Controleer de raid-apparaten met behulp van de volgende opdracht.

mdadm -E /dev/sd[b-e]1

Opmerking:: het bovenstaande commando zal de informatie van de vier schijven weergeven, wat vrij lang is, dus het is niet mogelijk om de uitvoer of schermafbeelding hier te posten.

9. Controleer vervolgens de RAID-array om te bevestigen dat het opnieuw synchroniseren is gestart.

mdadm --detail /dev/md0

Stap 4: Bestandssysteem aanmaken op Raid-apparaat

10. Maak een bestandssysteem met ext4 voor ‘/dev/md0‘ en mount het onder /mnt/raid6. Hier hebben we ext4 gebruikt, maar je kunt elk type bestandssysteem naar keuze gebruiken.

mkfs.ext4 /dev/md0

11. Mount het aangemaakte bestandssysteem onder /mnt/raid6 en verifieer de bestanden onder het mountpunt. We kunnen de map verloren+gevonden zien.

mkdir /mnt/raid6
mount /dev/md0 /mnt/raid6/
ls -l /mnt/raid6/

12. Maak enkele bestanden onder het koppelpunt en voeg wat tekst toe aan een van de bestanden om de inhoud te verifiëren.

touch /mnt/raid6/raid6_test.txt
ls -l /mnt/raid6/
echo "tecmint raid setups" > /mnt/raid6/raid6_test.txt
cat /mnt/raid6/raid6_test.txt

13. Voeg een item toe in /etc/fstab om het apparaat automatisch te koppelen bij het opstarten van het systeem en voeg het onderstaande item toe. Het koppelpunt kan verschillen afhankelijk van uw omgeving.

vim /etc/fstab

/dev/md0                /mnt/raid6              ext4    defaults        0 0

14. Voer vervolgens de opdracht ‘mount -a‘ uit om te verifiëren of er een fout zit in de fstab-invoer.

mount -av

Stap 5: Sla de RAID 6-configuratie op

15. Houd er rekening mee dat RAID standaard geen configuratiebestand heeft. We moeten het handmatig opslaan door onderstaande opdracht te gebruiken en vervolgens de status van apparaat ‘/dev/md0‘ te verifiëren.

mdadm --detail --scan --verbose >> /etc/mdadm.conf
mdadm --detail /dev/md0

Stap 6: Een reserveschijf toevoegen

16. Nu heeft het 4 schijven en zijn er twee pariteitsinformatie beschikbaar. In sommige gevallen, als een van de schijven defect raakt, kunnen we de gegevens ophalen, omdat er dubbele pariteit is in RAID 6.

Als de tweede schijf defect raakt, kunnen we mogelijk een nieuwe toevoegen voordat we de derde schijf verliezen. Het is mogelijk om een reserveschijf toe te voegen tijdens het maken van onze RAID-set, maar ik heb de reserveschijf niet gedefinieerd tijdens het maken van onze raid-set. Maar we kunnen een reserveschijf toevoegen na een schijfstoring of tijdens het maken van de RAID-set. Nu we de RAID-set al hebben gemaakt, wil ik een reserveschijf toevoegen voor demonstratie.

Voor demonstratiedoeleinden heb ik een nieuwe HDD-schijf (d.w.z. /dev/sdf) hot-plugged. Laten we de aangesloten schijf verifiëren.

ls -l /dev/ | grep sd

17. Bevestig nu opnieuw of de nieuw aangesloten schijf voor elke raid al is geconfigureerd of niet met behulp van dezelfde mdadm-opdracht.

mdadm --examine /dev/sdf

Opmerking: Zoals gewoonlijk moeten we, net zoals we eerder partities voor vier schijven hebben gemaakt, op dezelfde manier een nieuwe partitie op de nieuwe aangesloten schijf maken met behulp van fdisk< opdracht.

fdisk /dev/sdf

18. Nadat je een nieuwe partitie hebt aangemaakt op /dev/sdf, bevestig je de raid op de partitie en voeg je de reserveschijf toe aan /dev/md0 > raid-apparaat en verifieer het toegevoegde apparaat.

mdadm --examine /dev/sdf
mdadm --examine /dev/sdf1
mdadm --add /dev/md0 /dev/sdf1
mdadm --detail /dev/md0

Stap 7: Controleer de Raid 6-fouttolerantie

19. Laten we nu controleren of de reserveschijf automatisch werkt als een schijf defect raakt in onze array. Voor het testen heb ik persoonlijk gemarkeerd dat een van de schijven mislukt is.

Hier gaan we /dev/sdd1 markeren als defecte schijf.

mdadm --manage --fail /dev/md0 /dev/sdd1

20. Ik wil nu de details van de RAID-set opvragen en controleren of onze reserve begon te synchroniseren.

mdadm --detail /dev/md0

Hoera! Hier kunnen we zien dat de reserve geactiveerd werd en het herbouwproces begon. Onderaan zien we dat de defecte schijf /dev/sdd1 als defect wordt vermeld. We kunnen het bouwproces volgen met behulp van de volgende opdracht.

cat /proc/mdstat

Conclusie:

Hier hebben we gezien hoe je RAID 6 kunt instellen met vier schijven. Dit RAID-niveau is een van de dure configuraties met hoge redundantie. In de volgende artikelen zullen we zien hoe u een Nested RAID 10 instelt en nog veel meer. Blijf tot die tijd verbonden met TECMINT.