Load Balancing für Server in einer privaten Cloud

Für eine perfekte Performance beim Cloud Computing ist die richtige Zuteilung der Workloads auf die Server von entscheidender Bedeutung.

In vielerlei Hinsicht unterscheidet sich das Management einer privaten Cloud kaum vom Management eines Rechenzentrums...

vor Ort: In beiden Fällen müssen Administratoren wichtige Maßnahmen zur Überwachung und für eine ausgewogene Auslastung der Infrastruktur treffen. Dabei beruht der Erfolg einer Cloud-Umgebung auf einer Reihe unterschiedlicher Komponenten: Sicherheit, Serverdichte, Netzwerkplanung und Workload-Management.

Vor der Zuteilung irgendeiner Workload an einen Server in der Cloud müssen die Systemverwalter zunächst einmal die physische Server-Umgebung planen. In diesem Stadium können die Cloud-Manager den Umfang der Systemumgebung festlegen, die nötigen Workloads ermitteln und sich einen kompletten Überblick über die verfügbaren Ressourcen verschaffen.

Eine verteilte Rechenumgebung erlaubt Benutzern, sich jederzeit von allen Standorten und jedem Endgerät aus einzuloggen. Die Cloud-Umgebung muss also in der Lage sein, Schwankungen der Nutzerzahl zu bewältigen; dies gilt insbesondere für internationale Unternehmen, bei denen sich die Anwender aus unterschiedlichen Zeitzonen einloggen. Ohne eine gute Verteilung der Server-Lasten kann die Performance der Cloud-Umgebung rasch nachlassen, weil manche Cloud-Server über ihre Kapazität hinaus Workloads übernehmen.

Ohne eine gute Verteilung der Server-Lasten kann die Performance einer Cloud-Umgebung rasch nachlassen, weil manche Cloud-Server über ihre Kapazität hinaus Workloads übernehmen.

Wichtig ist, dass Administratoren in Ruhe überprüfen, welche Workloads in der Cloud untergebracht werden, weil sich jede unterschiedlich auf den Cloud-basierten Server auswirkt. Soll zum Beispiel eine virtuelle Desktop-Umgebung realisiert werden, dann müssen sowohl die Image-Größe als auch die Anzahl der Anwender, die problemlos auf einem physischen Server untergebracht werden können, vorab bekannt sein. Load-Balancing ermittelt die Größe und übernimmt die korrekte Konfiguration der Hardware auf Server-Ebene. Denn wenn ein Server überlastet ist, tritt eine Ressourcen-Blockade ein, die sich negativ auf die Performance und damit die Endnutzer-Erfahrung auswirken kann.

Klare Blicke in die Cloud

Ein Unternehmen mit mehreren Cloud-Standorten sollte unbedingt einen klaren Blick auf seine räumlich entfernte Rechenzentren sicherstellen, um Komplikationen vermeiden und die Server in gutem Zustand halten zu können. Indem sie die auf den Cloud-Servern laufende Software überwachen und Warnmeldungen für den Fall von Störungen einrichten, sind Systemverwalter in der Lage, proaktive Maßnahmen zur Lastverteilung über die gesamte Umgebung zu ergreifen.

Unterstützt wird die Einsehbarkeit durch den Einsatz von Werkzeugen zur Endpunkt-Überwachung. Werden zum Beispiel die Ressourcen eines Servers übermäßig in Anspruch genommen, muss ein Techniker darüber informiert werden, damit er das Problem rasch beheben kann. Kontinuierlicher Einblick, also eine Überwachung der Zugriffe auf die Cloud-Rechner und der Nutzer-Dichte, kann bei Problemen mit der Lastverteilung helfen.

Auf diese Weise bekommen Sie zugleich mehr Informationen darüber, wie Ihre Ressourcen konkret genutzt werden. Dementsprechend sind Sie imstande, die angemessenen Nutzerzahlen zuzuweisen oder rechtzeitig zu erkennen, wenn eine Umgebung zusätzliche Server für seine Workloads benötigt.

Techniken zur Lastverteilung in einer privaten Cloud

Manager von Rechenzentren und Clouds gehen fälschlicherweise davon aus, dass es sich bei Load-Balancing primär um eine Server-basierte Funktion handelt. In Wirklichkeit aber müssen sich Administratoren um die Überwachung und Lastverteilung mehrerer Geräte in der Cloud-Umgebung kümmern. Eine solide Serverlast-Verteilung ist kein Kunststück, solange sie vorausschauend vorgenommen wird.

Server. Physische Ressourcen auf einem Server sind nur in begrenztem Ausmaß vorhanden. Wird ein System nicht ordnungsgemäß überwacht und gleichmäßig ausgelastet, dann kann es schnell durch zu viele Workloads und Anwender überfordert werden. Wenn Sie mit Cloud-basierten Rechenzentren arbeiten, sollten Sie sich die physischen Hosts und virtuellen Server, die darauf laufen, genauer ansehen.

Manager von Rechenzentren und Clouds gehen fälschlicherweise davon aus, dass es sich bei Load-Balancing primär um eine Server-basierte Funktion handelt. In Wirklichkeit aber müssen sich Administratoren um die Überwachung und Lastverteilung mehrerer Geräte in der Cloud-Umgebung kümmern.

Betreibt ein Unternehmen eine private Cloud und verteilt Anwendungen zum Beispiel über die XenApp von Citrix, dann sollte es darüber Bescheid wissen, wie viele Anwendungen auf dem Server installiert sind und wie viele Nutzer problemlos unterstützt werden können. Wird Adie MaschineB diaten bemessen, so könneoren die Nutzerzahl für eine Maschine beschränken und weitere Benutzeranmeldungereichen der dieser Grenzejligen Schwellnmeldungen müssen in diesem Falldanndere Rechner, der zu Lastverteilungszwecken bereitgestellt wird, erfolgen.

Access-Gateways. Fällt das Access-Gateway aus, dann können auch keine Cloud-Workloads mehr gestartet werden. Bei Global Server Load Balancing (GSLB) handelt es sich um eine in der Appliance NetScaler von Citrix verfügbare Funktion, die Administratoren beim Einrichten einer stabilen und redundanten Systemumgebung unterstützt: Wenn ein Standort ausfällt, dann erkennt GLSB den Verbindungsverlust und leitet die Last sofort auf die nächste verfügbare Appliance weiter. So wird selbst bei Störung einer Komponente eine ständige Zugriffsmöglichkeit gewährleistet.

Sicherheitsgeräte. Jedes Sicherheitsgerät akzeptiert nur eine begrenzte Anzahl von Verbindung; ein Reserve-Gerät für den Fall einer Panne ist deshalb unverzichtbar. Die korrekte Bemessung der Sicherheits-Appliance hängt von der Cloud-Umgebung und der darauf zugreifenden Nutzerzahl ab. Wesentlich ist eine Möglichkeit zur Authentifizierung der Benutzer überall im WAN, damit Uptime und Stabilität der Umgebung erhalten bleiben.

Netzwerk-Infrastruktur. Bei einer schlecht ausgelegten Switching-Infrastruktur können Engpässe im Cloud-Datenverkehr auftreten. Dies verursacht Belastungen in Form von schlechterer Performance und möglicherweise vielen Stunden für Fehlersuche und -behebung. Netzwerk-Administratoren sollten deshalb mit einem zuverlässigen Core-Switch beginnen und einen sekundären Switch verfügbar halten. Eine Überprüfung des Datenverkehrsaufkommens im Netzwerk lässt schnell erkennen, ob die Umgebung großzügig genug bemessen ist oder ob zusätzliche Hardware benötigt wird. 

Bill Kleyman, MBA, MISM, ist begeisterter Technologie-Experte mit umfangreicher Erfahrung im Management von Netzwerk-Infrastrukturen. Als Ingenieur hat er unter anderem große Virtualisierungsprojekte realisiert sowie Netzwerke für Unternehmen geplant und implementiert. Derzeit arbeitet er als Architekt für Virtualisierungslösungen bei MTM Technologies, einer USA-weit tätigen IT Beratungsfirma.

Artikel wurde zuletzt im Januar 2012 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Private-Cloud-Infrastruktur

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchEnterpriseSoftware.de

Close