Quorum Disk und Fencing: So erstellen Sie hochverfügbare Linux-Nodes

Ein Linux Hochverfügbarkeits-Cluster lässt sich mit Quorum Disk und Fencing noch zuverlässiger machen. Eine Anleitung für das Red Hat HA Add-On.

Sobald Sie einen Linux High Availability Cluster mit dem Red Hat High Availability Add-On erstellt haben, können...

Sie diesen über Fencing und durch das Hinzufügen einer Quorum Disk noch zuverlässiger machen.

Auf diese Weise nutzt der Cluster eine sogenannte Quorum Disk oder Quorum-Festplatte und bestimmt damit, ob er noch vollständig ist. Zum Beispiel kann ein Node so überprüfen, ob er die Verbindung zu anderen Nodes im Cluster verloren hat. Durch die Konfiguration einer Quorum Disk können Sie also auf den Nodes Tests laufen lassen und dadurch bestimmen, ob diese und der gesamte Cluster immer noch einsatzfähig sind.

I/O-Fencing wiederum benutzt man für Nodes, die die Verbindung zum Rest des Hochverfügbarkeits-Clusters bereits verloren haben. Fencing schaltet ausgefallene Nodes ab, damit sich die Ressourcen an anderer Stelle sicher starten lassen. Somit vermeiden Sie Schäden, die durch multiple Startvorgänge verursacht werden könnten.

Die Konfiguration von Quorum Disks

Bei Quorum Disks geht es um Stimmen. Standardmäßig hat jeder Node eine einzige Stimme. Kann ein Node nun mindestens die Hälfte der anderen Nodes plus einen weiteren sehen, dann ist das notwendige Quorum (die Mindestanzahl) erreicht. Damit erreicht ein Node nur dann das Quorum, wenn er die Mehrheit der verfügbaren Stimmen erhält. Bei Clustern mit nur zwei Nodes gilt allerdings eine Ausnahme, da hier niemals ein Quorum erreicht werden kann wenn ein Node abgeschaltet ist. Zumindest nicht mit den Standard-Regeln.

Die Konfiguration einer Quorum Disk setzt die gemeinsame Nutzung von Storage und Heuristik voraus. Der gemeinsam genutzte Storage muss von allen Nodes dieses Clusters erreichbar sein, während die Heuristik aus mindestens einem Test besteht, den ein Node erfolgreich abschließen muss. Erst dann kann er sich mit der Quorum Disk verbinden.

Kommt es zu einem so genannten „Split-Brain“-Problem, bei der ein Node vom Rest des Clusters getrennt ist, konsultieren alle Nodes die Quorum Disk. Sind diese in der Lage, den Heuristik-Test erfolgreich zu absolvieren, kann sich der entsprechende Node eine Stimme gutschreiben. Sollte der Test nicht erfolgreich sein, hat er keinen Zugriff auf die von der Quorum Disk angebotenen Stimme. Damit wird das Quorum nicht erreicht und der Node weiß somit, dass er sich abschalten muss.

Data Center, die gemeinsam genutztes Storage und Red Hat Enterprise Linux benutzen, brauchen für die Quorum Disk eine eigene Partition. Mithilfe des Tools mkqdisk können Sie diese Partition als Quorum Disk kennzeichnen. Danach spezifizieren Sie die zu verwendende Heuristik im LuCI Web Management Interface.

Mit dem Linux-Tool fdisk können Sie eine Partition auf dem Shared Storage für einen Cluster-Knoten erstellen. 100 MByte sollten für diese Aufgabe ausreichend sein. Auf den anderen Nodes müssen Sie anschließend den Befehl partprobe ausführen, um die Partitions-Tabelle zu aktualisieren.

Den Befehl mkqdisk -c /dev/sdb1 -l quorumdisk sollten Sie allerdings nur auf einem einzigen Node ausführen, um hierauf die Quorum Disk zu erstellen. Überprüfen Sie aber auf jeden Fall vorher sorgfältig den Namen des Geräts.

Abbildung 1: Über die LuCI-Schnittstelle spezifizieren Sie die Eigenschaften der Quorum Disk.

Auf einem anderen Node können sie nun den Befehl mkqdisk -L ausführen, um alle Quorum Disks angezeigt zu bekommen. An dieser Stelle sollten Sie die Quorum Disk sehen, die Sie gerade erstellt haben und sie sollte natürlich quorumdisk heißen.

Über die LuCI-Schnittstelle können Sie über den Reiter ConfigurationQDisk Use a Quorum Disk das zu verwendende Gerät auswählen, indem Sie hier die gerade erstellte Quorum Disk angeben.

Im nächsten Schritt muss noch die Heuristik definiert werden. Es handelt sich hierbei um einen kleinen Test, den ein Node erfolgreich absolvieren muss, um Zugriff auf die Stimme der Quorum Disk zu erhalten. Dies kann beispielsweise ein ping-Befehl sein, der das Standard-Gateway anpingt. Sie spezifizieren diesen Test, indem Sie im Feld Path to Program Folgendes hinterlegen: ping -c 1 192.168.1.70. Bei Interval geben Sie an, wie oft dieser Test ausgeführt wird. In der Regel ist alle fünf Sekunden ein guter Wert. Bei Score geben Sie an, welche Wertung dieser Test einbringt. Verwenden Sie mehr als einen Heuristik-Test, können Sie verschiedene Wertungen angeben. In unserem einfachen Beispiel benutzen Sie einfach die 1. Time to Knock Out (TKO) definiert die Toleranz dieses Tests. Ist dieser Wert für unser Beispiel auf zwölf Sekunden gesetzt, darf der Heurisitk-Test nicht mehr als zwei Mal hintereinander scheitern. Minimum Total Score gibt an, wie viele Punkte sich der Node zuschreiben kann, wenn die komplette Heuristik erfolgreich ausgeführt wurde.

Nachdem Sie das Quorum-Gerät erschaffen haben, können Sie mithilfe des Befehls cman_tool eine ordnungsgemäße Funktionalität überprüfen. Sehen Sie sich in dem Beispiel unten die Nummer der Nodes an, die auf 2 gesetzt ist. Die Anzahl der erwarteten Knoten liegt aber bei 3. Den Grund dafür finden wir bei den Quorum Device Votes, die auf 1 gesetzt sind. Das bedeutet, dass das Quorum-Gerät funktioniert.

Liste 1: Benutzen Sie cman_tool status, um ein Funktionieren des Quorum-Geräts zu verifizieren.

[root@node1 ~]# cman_tool status
Version: 6.2.0
Config Version: 2
Cluster Name: colorado
Cluster Id: 17154
Cluster Member: Yes
Cluster Generation: 320
Membership state: Cluster-Member
Nodes: 2
Expected votes: 3
Quorum device votes: 1
Total votes: 3
Node votes: 1
Quorum: 2
Active subsystems: 11
Flags:
Ports Bound: 0 11 177 178
Node name: node1
Node ID: 1
Multicast addresses: 239.192.67.69
Node addresses: 192.168.1.80

Das Einrichten von I/O-Fencing

Fencing hilft dabei, die Integrität des Cluster aufrecht zu halten. Wenn Protokoll-Pakete des Clusters, die über das Corosync Messaging Framework versendet werden, keinen anderen Node mehr erreichen können, sollte über Hardware-Fencing sichergestellt werden, dass der Node auch tatsächlich abgeschaltet ist.

Abbildung 2: So wird ein Fencing-Gerät definiert.

Hardware-Fencing setzt ein Gerät voraus, das einen ausgefallenen Node terminiert. In der Regel handelt es sich hier um einen Schalter oder um integrierte Lösungen wie HP ILO oder Dell Drac.

Die Konfiguration von Fencing erfolgt in zwei Schritten: Zunächst muss das Fencing-Gerät eingerichtet werden, im Anschluss wird das Fencing-Gerät den Nodes im Netzwerk zugewiesen. Um ein Fencing-Gerät in unserem hochverfügbaren Linux-Cluster zu definieren, öffnen Sie in Red Hats Conga Cluster Management Interface den Reiter Fence Devices. Nachdem Sie auf Add geklickt haben, sehen Sie eine Liste mit allen verfügbaren Fencing-Geräten. Ein populärer Geräte-Typ wäre zum Beispiel IPMI LAN.

Abbildung 3: So werden den Nodes Fencing-Geräte zugewiesen.

Nachdem Sie ein Fencing-Gerät ausgewählt haben, müssen Sie dessen Eigenschaften definieren. Diese sind von Gerät zu Gerät verschieden. Allerdings enthalten sie oftmals einen Anwendernamen, ein Passwort und eine IP-Adresse. Nachdem Sie diese Parameter eingegeben haben, können Sie die Konfiguration mit einem Klick auf Submit bestätigen (Abbildung 2).

Sobald das Fencing-Gerät eingerichtet ist, können Sie es via Nodes in der LuCI-Management-Schnittstelle mit den vorhandenen Nodes verbinden. Nachdem Sie einen Node ausgewählt haben, scrollen Sie durch dessen Eigenschaften und klicken auf die Schaltfläche Add Fence Method. Im Anschluss geben Sie einen Namen für die von Ihnen verwendete Fencing-Methode an. So fügen Sie für jede gewünschte Methode das eben erschaffene Gerät mit einem Klick auf die Schaltfläche Add Fence Instance hinzu. Bestätigen Sie die Konfiguration und wiederholen Sie diese Prozedur für alle Nodes in Ihrem Cluster.

Über den Autor: Sander van Vugt ist freiberuflicher Trainer und Consultant, der in den Niederlanden ansässig ist. Er ist Experte in den Bereichen Linux High Availability, Virtualisierung und Performance. Sander van Vugt war in mehreren Projekten involviert, die alle drei Bereiche vereinten. Weiterhin ist er der Autor einiger Bücher über Linux. Dazu gehören Beginning the Linux Command Line, Beginning Ubuntu Server Administration und Pro Ubuntu Server Administration.

Artikel wurde zuletzt im April 2014 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Linux-Server

0 Kommentare

Älteste Beiträge 

Passwort vergessen?

Kein Problem! Tragen Sie Ihre E-Mail-Adresse unten ein. Wir werden Ihnen eine E-Mail mit Ihrem Passwort schicken.

Ihr Passwort wurde an die folgende E-Mail-Adresse gesendet::

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchEnterpriseSoftware.de

Close