Netzwerkkarte beim Thomas Krenn HA Linux Cluster nachrüsten

Aus Thomas-Krenn-Wiki
Wechseln zu: Navigation, Suche
Hinweis: Bitte beachten Sie, dass dieser Artikel / diese Kategorie sich entweder auf ältere Software/Hardware Komponenten bezieht oder aus sonstigen Gründen nicht mehr gewartet wird.
Diese Seite wird nicht mehr aktualisiert und ist rein zu Referenzzwecken noch hier im Archiv abrufbar.

Dieser Artikel beschreibt wie in einem Thomas Krenn HA Linux Cluster mit Virtuozzo 3 SP1 zusätzliche Netzwerkkarten eingebaut und konfiguriert werden können. Der Artikel bezieht sich dabei auf den 2 HE Intel SR2500 Cluster.

Wichtiger Hinweis: Durch das Nachrüsten von zusätzlichen Netzwerkkarten kann es dazu kommen, dass sich die Virtuozzo HWIDs (Hardware IDs) ändern und die Lizenz aktualisiert werden muss. Dies haben wir beim Nachrüsten von quad-Port NICs beobachtet (bei single- bzw. dual-port NICs haben wir dies bisher nicht beobachtet, können es aber nicht ausschließen). Die Zeit bis zum Neuausstellen der Lizenz kann mit einer allgemeinen demo-Lizenz für einige Tage überbrückt werden. Kontaktieren Sie uns diebsbezüglich am besten im Vorhinein. Falls sich die HWID ändert und die Lizenz aktualisiert wird, sichern Sie anschließend die Cluster Konfiguration (unter dem Punkt „Wartung“ im Cluster Management) in eine Datei. In dieser Datei wird damit auch die neue Virtuozzo Lizenz gesichert.

Ausgangssituation

Der Cluster besteht aus zwei Intel SR2500 Server. In der Standardkonfiguration hat jeder Server zwei Netzwerkanschlüsse (eth0 und eth1). Diese werden für folgende Aufgaben genutzt:

  • eth0: Anbindung an externes Netzwerk, Konfiguration Cluster Management, Heartbeat (der Heartbeat auf eth0 ist über das Cluster Management deaktivierbar)
  • eth1: Datenreplikation (DRBD), Kommunikation Cluster Management, Heartbeat

Um weitere Netzwerkports (z.B. für unterschiedliche DMZ's) in den einzelnen Gastsystemen nutzen zu können, sollen nun eine oder mehrere Netzwerkinterfaces ergänzt werden.

Vorgangsweise Nachrüsten einer Single/Dual/Quad Port NIC

Der Cluster arbeitet im active/passive Betrieb. Im Beispiel hier ist zu Beginn Node 1 der aktive Node und Node 2 der passive Node. Für einen möglichst unterbrechungsfreien Einbau der NICs empfehlen wir Ihnen die folgende Vorgehensweise.

Einbau der Netzwerkkarte im ursprünglichen passiven Node

  1. Fahren Sie den passiven Node (hier im Beispiel Node 2) über das Cluster Management herunter.
  2. Bauen Sie nun die entsprechende Netzwerkkarte ein (z.B. eine Intel Quad Port NIC falls Sie vier zusätzliche Ports benötigen).
  3. Starten Sie nach dem Einbau den Server wieder. Nach dem Neustart erfolgt eine kurze Datensynchronisation. Sie sehen den Fortschritt dazu entweder im Cluster Management oder mittels cat /proc/drbd am Server. Warten Sie die Resynchronisation ab bevor Sie fortfahren.
  4. Verbinden Sie sich per SSH auf den soeben neugestarteten Server und erstellen Sie dort für jedes neue Netzwerkinterface eine Konfigurationsdatei wie im Absatz Nutzung von zusätzlichen Netzwerk-Interfaces (z.B. eth2) beschrieben. In der Konfigurationsdatei die drei angeführten Zeilen eingetragen (bei DEVICE ist das jeweilige Device, z.B. eth2 einzutragen). Wenn Sie eine Quad Port Netzwerkkarte einbauen erstellen Sie also folgende vier Konfigurationsdateien:
    • /etc/sysconfig/network-scripts/ifcfg-eth2
    • /etc/sysconfig/network-scripts/ifcfg-eth3
    • /etc/sysconfig/network-scripts/ifcfg-eth4
    • /etc/sysconfig/network-scripts/ifcfg-eth5
  5. Starten Sie nun den Server erneut neu durch. Nach dem Neustart erfolgt wieder eine kurze Datensynchronisation. Warten Sie diese wieder ab bevor Sie fortfahren.
  6. Verbinden Sie sich wieder per SSH auf den Server. Nun sollte das Kommando ifconfig anzeigen, dass die neuen Interfaces up sind.

Einbau der Netzwerkkarte im ursprünglichen aktiven Node

  1. Gehen Sie ins Cluster Management und führen Sie einen Switchover oder einen Live Switchover durch.
  2. Sobald der (Live) Switchover abgeschlossen ist, ist der ursprüngliche aktive Node (hier im Beispiel Node 1) nun der passive Node.
  3. Führen Sie nun auf diesem Node ebenfalls die gleichen Schritte durch, die oben im Absatz Einbau der Netzwerkkarte im ursprünglichen passiven Node erläutert sind.
  4. Abschließend können Sie erneut einen (Live) Switchover durchführen, wenn Sie möchten, dass Node 1 wieder der aktive Node ist.

Konfiguration der neuen Netze

Da nun die neuen Netzwerk-Interfaces auf den beiden Servern am Basissystem vorhanden sind, können diese nun den Gastsystemen zugänglich gemacht werden.

Dazu können Sie mit dem vznetcfg Kommando Netzwerk Bridges erstellen (das sind quasi virtuelle Switche). Informationen dazu und wie Sie mittels vzctl set den Gastsystemen virtuelle Netzwerkkarten zuweisen und diese virtuellen Netzwerkkarten dann an die Bridges anschließen können finden Sie im Artikel Netzwerk des Clusters konfigurieren im Absatz Konfiguration mit veth.


Foto Werner Fischer.jpg

Autor: Werner Fischer

Werner Fischer, tätig im Bereich Communications / Knowledge Transfer bei Thomas-Krenn, hat sein Studium zu Computer- und Mediensicherheit an der FH Hagenberg abgeschlossen. Er ist regelmäßig Autor in Fachzeitschriften und Speaker bei Konferenzen wie LinuxCon, OSDC, OSMC, LinuxTag u.v.m. Seine Freizeit gestaltet er sehr abwechslungsreich. In einem Moment absolviert er seinen Abschluss im Klavierspielen, im anderen läuft er beim Linzmarathon in der Staffel mit oder interessiert sich für OpenStreetMap.


Das könnte Sie auch interessieren

1 HE Supermicro SMCI-5015 Cluster
Downloads Thomas Krenn HA Linux Cluster
Ethernet Latenz Einfluss auf DRBD