Zoeken op website

Clusterconfiguratie synchroniseren en failover-instellingen in knooppunten verifiëren - Deel 4


Hallo mensen. Allereerst mijn excuses voor de vertraging van het laatste deel van deze clusterserie. Laten we aan het werk gaan zonder nog meer vertraging.

Omdat velen van jullie alle drie voorgaande delen hebben voltooid, zal ik jullie kort vertellen wat we tot nu toe hebben voltooid. Nu hebben we al voldoende kennis om clusterpakketten voor twee knooppunten te installeren en configureren en hekwerk en failover in een geclusterde omgeving mogelijk te maken.

Je kunt mijn vorige delen raadplegen als je het niet meer weet, aangezien het iets langer duurde om het laatste deel te plaatsen.

Inleiding tot Linux-clustering en de voordelen/nadelen van clustering – Deel 1

Cluster met twee knooppunten installeren en configureren in Linux – Deel 2

Schermen en een failover toevoegen aan clustering – Deel 3

We beginnen met het toevoegen van bronnen aan het cluster. In dit geval kunnen we naar wens een bestandssysteem of een webservice toevoegen. Nu heb ik de /dev/sda3 partitie aangekoppeld op /x01 die ik wil toevoegen als bestandssysteembron.

1. Ik gebruik het onderstaande commando om een bestandssysteem als bron toe te voegen:

ccs -h 172.16.1.250 --addresource fs name=my_fs device=/dev/mapper/tecminttest_lv_vol01 mountpoint=/x01 fstype=ext3

Als u bovendien een service wilt toevoegen, kunt u de onderstaande methodologie gebruiken. Geef de volgende opdracht.

ccs -h 172.16.1.250 --addservice my_web domain=testdomain recovery=relocate autostart=1

Je kunt dit verifiëren door het bestand cluster.conf te bekijken, zoals we in eerdere lessen deden.

2. Voer nu de volgende invoer in het bestand cluster.conf in om een referentietag aan de service toe te voegen.

<fs ref="my_fs"/>

3. Helemaal klaar. Nee, we zullen zien hoe we de configuraties kunnen synchroniseren die we hebben gemaakt om te clusteren tussen de twee knooppunten die we hebben. Het volgende commando zal het nodige doen.

ccs -h 172.16.1.250 --sync --activate

Opmerking: voer wachtwoorden in die we voor ricci hebben ingesteld in de vroege stadia toen we pakketten installeerden.

U kunt uw configuraties verifiëren door de onderstaande opdracht te gebruiken.

ccs -h 172.16.1.250 --checkconf

4. Nu is het tijd om aan de slag te gaan. U kunt een van de onderstaande opdrachten gebruiken zoals u wilt.

Om slechts één knooppunt te starten, gebruikt u de opdracht met het relevante IP-adres.

ccs -h 172.16.1.222 start

Of als u alle knooppunten wilt starten, gebruikt u de --startall optie als volgt.

ccs -h 172.16.1.250 –startall

U kunt stop of --stopall gebruiken als u het cluster wilt stoppen.

In een scenario waarin u het cluster wilt starten zonder de bronnen in te schakelen (bronnen worden automatisch ingeschakeld wanneer het cluster wordt gestart), zoals een situatie waarin u opzettelijk de bronnen in een bepaald knooppunt hebt uitgeschakeld om hekwerklussen uit te schakelen, wil deze bronnen niet inschakelen wanneer het cluster wordt gestart.

Voor dat doel kunt u de onderstaande opdracht gebruiken die het cluster start, maar de bronnen niet inschakelt.

ccs -h 172.16.1.250 --startall --noenable 

5. Nadat het cluster is opgestart, kunt u de statistieken bekijken door de opdracht clustat te geven.

clustat

Bovenstaande uitvoer zegt dat er twee knooppunten in het cluster zijn en dat beide momenteel actief zijn.

6. U kunt zich herinneren dat we in onze vorige lessen een failover-mechanisme hebben toegevoegd. Wil je controleren of het werkt? Dit is hoe je het doet. Forceer shutdown één knooppunt en zoek naar clusterstatistieken met de opdracht clustat voor de resultaten van de failover.

Ik heb mijn node02server(172.16.1.223) afgesloten met de opdracht shutdown -h now. Voer vervolgens de opdracht clustat uit vanaf mijn cluster_server(172.16.1.250).

Bovenstaande uitvoer maakt duidelijk dat knooppunt 1 online is, terwijl knooppunt 2 offline is gegaan toen we het hebben afgesloten. Toch zijn de service en het bestandssysteem dat we deelden nog steeds online, zoals je kunt zien als je het aanvinkt op node01 dat online is.

df -h /x01

Raadpleeg het bestand cluster.conf met de volledige configuratieset die relevant is voor onze installatie die wordt gebruikt voor tecmint.

<?xml version="1.0"?>
<cluster config_version="15" name="tecmint_cluster">
        <fence_daemon post_join_delay="10"/>
        <clusternodes>
                <clusternode name="172.16.1.222" nodeid="1">
                        <fence>
                                <method name="Method01">
                                        <device name="tecmintfence"/>
                                </method>
                        </fence>
                </clusternode>
                <clusternode name="172.16.1.223" nodeid="2">
                        <fence>
                                <method name="Method01">
                                        <device name="tecmintfence"/>
                                </method>
                        </fence>
                </clusternode>
        </clusternodes>
        <cman/>
        <fencedevices>
                <fencedevice agent="fence_virt" name="tecmintfence"/>
        </fencedevices>
        <rm>
                <failoverdomains>
                        <failoverdomain name="tecmintfod" nofailback="0" ordered="1" restricted="0">
                                <failoverdomainnode name="172.16.1.222" priority="1"/>
                                <failoverdomainnode name="172.16.1.223" priority="2"/>
                        </failoverdomain>
                </failoverdomains>
                <resources>
                        <fs device="/dev/mapper/tecminttest_lv_vol01" fstype="ext3" mountpoint="/x01" name="my_fs"/>
                </resources>
                <service autostart="1" domain="testdomain" name="my_web" recovery="relocate"/>
                <fs ref="my_fs"/>
       </rm>
</cluster>

Ik hoop dat je genoten hebt van de hele reeks clusterlessen. Houd dagelijks contact met tecmint voor meer handige handleidingen en geef gerust commentaar op uw ideeën en vragen.