Zum idealen Verhältnis der Server-Konsolidierung in virtuellen Umgebungen

Bei der Server-Konsolidierung in virtuellen Umgebungen muss auf das richtige Verhältnis geachtet werden. Wir geben grundlegende Tipps.

Das ideale Verhältnis hinsichtlich der Konsolidierung auf virtuellen Servern kann schwer zu erfassen sein. Größere...

Server und mehr Prozessor-Kerne sind verlockend. Allerdings halten Lizenz-Modelle und Uptime-Sorgen IT-Manager davon ab, übermäßig zu konsolidieren.

Wollen Sie eine Konsolidierungsstrategie für virtuelle Server erstellen, stellen Sie sich folgende Fragen: Wie viel ist zu viel? Wie viel ist zu wenig? Wenn Sie Server virtualisieren, kann das Finden einer Antwort überraschend schwierig sein.

In der Steinzeit der Virtualisierung war das Ziel für das Verhältnis der Server-Konsolidierung in der Regel „je mehr, desto besser“. Stopfen Sie so viele virtuelle Maschinen (VM) auf einen Server, wie das nur irgendwie möglich ist. Diese Agenda haben IT-Manager damals ausgegeben, da man natürlich einen maximalen ROI aus der Investition in einen Hypervisor herausholen wollte.

Das geschah aber zu einer Zeit, in der Virtualisierung wenige Transaktionen stemmen und nur leichte Aufgaben verrichten musste. In der heutigen Zeit beherbergen virtuelle Server immer mehr geschäftskritische Applikationen, die einfach nicht ausfallen dürfen. Das gilt schon gar nicht, wenn der Grund in schlechter Kapazitätsplanung zu suchen ist. Zum Großteil ist letzteres dafür mitverantwortlich dafür, dass man die Konsolidierungsverhältnisse nicht mehr übertreibt. Diverse IT-Manager haben das auf die harte Weise lernen müssen und wurden zurück auf den Boden der Tatsachen gebracht. Heutzutage schätzt man angemessenes Ressourcen-Provisioning und eine gute Uptime.

Der Traum von einem maximalen Konsolidierungsverhältnis wurde außerdem im Juli 2011 zerschlagen. Zu diesem Zeitpunkt hat VMware, damals schon führender Anbieter von Virtualisierungslösungen, ein neue Preismodell vorgestellt, durch das IT-Manager den Ressourcenverbrauch wieder stärker in den Fokus genommen haben. VMware verkaufte die vSphere Suite auf einer Per-Prozessor-Basis. Es gab zwar kein Limit, wie viele virtuelle Maschinen auf einem Host laufen durften, aber die vSphere 5 Suite enthielt ein vRAM-Lizenzmodell. Damit wurde die Menge des physischen Arbeitsspeichers limitiert, die virtuelle Maschinen in Bezug auf die Lizenz nutzen durften. Virtuelle Maschinen sind in vielerlei Hinsicht an physischen Arbeitsspeicher gebunden und das neue Lizenzmodell limitierte die Anzahl der virtuellen Maschinen, die sich kosteneffizient auf einem Server betreiben ließen.

VMware war der einzige Anbieter von Virtualisierungslösungen, der ein ressourcenbasiertes Lizenzmodell verfolgte. Andere Virtualisierungs-Anbieter hielten sich strikt an ein CPU-basiertes Modell und hatten damit einen leichten Vorteil im Konkurrenzkampf. In der Zwischenzeit und mit Einführung von vSphere 5.1 wurde das umstrittene vRAM-Lizenzmodell wieder abgeschafft. Auch die Kerne spielen keine Rolle mehr. Sie müssen lediglich die Sockel lizenzieren, also die physisch verbauten Prozessoren. Zunächst dachten viele, dass die Anbieter für den Verbrauch der darunterliegenden Ressourcen kassieren würden, weil man für immer mehr Workloads virtualisierte und Cloud-basierte Modelle einsetzte. Das ist allerdings nicht ganz eingetreten, da VMware mit Version 5.5 sogar beim kostenlosen Hypervisor die Grenze des physischen RAMs von 32 GByte aufgehoben hat.

Infrastruktur-Anbieter stellen immer größere und virtualisierungsfreundlichere Server her. Somit können Sie mehrere Dutzend virtuelle Maschinen auf einem einzelnen Host betreiben. Die Notwendigkeit, virtuelle Maschinen in Bezug auf Größe und Platzierung zu optimieren, wird immer geringer. Allerdings hat das Konsolidierungsverhältnis in Bezug auf virtuelle Server auch seinen Preis. Wir sprechen dabei nicht nur von Hardware und Lizenzen, sondern auch von Uptime. Fällt ein hoch-konsolidierter Server aus, kann das drastische Konsequenzen für die Verfügbarkeit der Applikationen haben.

Das Konsolidierungsverhältnis virtueller Server variiert enorm

Mit diesem Hintergrundwissen stellt sich nun die Frage, welches Konsolidierungsverhältnis IT-Administratoren in der heutigen Zeit einsetzen sollten? Die Antwort ist wenig überraschend: Es kommt darauf an.

In den Tagen von VMware ESX 3.x waren vier virtuelle Maschinen pro Prozessor-Kern eine gute Faustregel für die Konsolidierung auf virtuelle Server. Das sagte Joe Sanchez, IT-Manager beim Hosting-Provider Go Daddy. Bei einem Quad-Core-Server mit Dual-Prozessoren waren das somit acht virtuelle Maschinen pro Host. Anders gesagt ein 8:1-Verhältnis.

Heutzutage können die meisten Hypervisoren theoretisch mit einer größeren Anzahl an virtuellen Maschinen pro Kern umgehen. Aber auch heute gilt laut Sanchez, dass vier virtuelle Maschinen mit einer oder zwei virtuellen CPUs (vCPUs) pro Prozessor-Kern immer noch ein guter Leitfaden ist. Das ist dann der Fall, wenn ausbalancierte Performance das oberste Ziel ist.

Bryan Semple ist VKernels Chef für Marketing. Er hat in einem Blog-Eintrag geschrieben: „Ich habe festgestellt, dass die höheren Konsolidierungsverhältnisse im Data Center wenig mit der effizienteren Nutzung von CPU und Arbeitsspeicher zu tun haben. Stattdessen orientieren sich die Verhältnisse fast immer an Intels Fähigkeit, die Kern-Dichte pro Host zu erhöhen.“

Intels Xeon-E7-Westmere-Prozessoren können bis zu zehn Prozessor-Kerne beinhalten und AMDs Opteron Interlagos bis zu 16. Mit diesen Leistungs-Merkmalen lassen sich Konsolidierungsverhältnisse von 100:1 realisieren, ohne dass die skalierten Server auch nur mit der Wimper zucken. VKernels Semple hat das so formuliert: „Bitte schicken Sie Intels CEO, Paul Otellini, eine Dankeschön-Karte.“

Die Konzepte der Cluster und Ressource-Pools haben ebenfalls dazu beigetragen, dass wir uns nicht mehr so sehr auf individuelle Server und deren Konfigurationen fokussieren müssen. Adrian Jane ist Infrastruktur- und Betriebs-Manager an der Universität in Plymouth, Großbritannien. Er sagte: „Wir denken nicht so sehr über die Server nach, sondern sehen das Konstrukt als ganzheitlichen Ressourcen-Pool.“ Die Universität richtet einen Server danach aus, die größte VM der Organisation beherbergen zu können. Das ist eine virtuelle Maschine mit acht vCPUs und 24 GByte Arbeitsspeicher. Darauf läuft Microsoft Exchange und VMware Distributed Resource Scheduler erledigt den Rest.

Schalter und Regler helfen bei der Optimierung des Konsolidierungsverhältnisses

Virtualisierung etabliert sich immer mehr. Allerdings achten Unternehmen in der heutigen Zeit auch auf das Budget. Deswegen ist das Bedürfnis, das optimale Konsolidierungsverhältnis zu finden, immer wichtiger. Das sagte der Produkt Marketing Manager von VKernel, Alex Rosemblat.

Sollte der Kauf eines neuen Servers nicht anstehen, haben IT-Manager laut Rosemblat dennoch diverse Optionen, um ihre Konsolidierungsverhältnisse zu optimieren.

Seiner Erfahrung nach sind eine große Anzahl virtueller Maschinen mit Arbeitsspeicher und virtuellen CPUs von Beginn an überversorgt. Das liegt allerdings nicht nur an den Administratoren, da die Eigentümer der Applikationen laut Rosemblat oftmals mehr Ressourcen verlangen, als sie eigentlich benötigen.

Ein weiterer häufiger Konfigurationsfehler sind die Speicherlimits der virtuellen Maschinen. Diese legt man manchmal fest und denkt später nicht mehr an den Grund. Das kann zu einem Problem werden, wenn Administratoren Performance-Probleme bei einer VM mit der Zuweisung von mehr Arbeitsspeicher lösen wollen. Möglicherweise wurde aber das Limit gesetzt, damit man verhindert, dass die virtuelle Maschine diese zusätzlichen Kapazitäten nutzt.

Als IT-Abteilungen mit Virtualisierung im größeren Stil begannen, stand vor allem der ROI im Vordergrund. Wenige haben sich dabei die Frage gestellt, wie man mehr Ersparnisse aus der Umgebung holen könnte, sagt Rosemblat. Nehmen Sie eine Umgebung mit 100 Hosts und konsolidieren Sie das auf 20 Hosts. Das wäre ein Verhältnis von 5:1. „Selbst mit dieser relativ geringen Dichte freuten sich Unternehmen, eine gute Investitions-Rentabilität erzielt zu haben.“, fügt er an.

Denken wir ein paar Jahre in die Zukunft. „Die Leute haben sich daran gewöhnt, nur 20 Hosts laufen zu lassen und die Kosten steigen.“, sagt Rosemblat. Die Sache wird noch verschlimmert, weil man mithilfe von Virtualisierung neue Server einfach ausrollen kann. Man bezeichnet diese Ausuferung auch als Virtual Sprawl. Die Budgets sind aber aufgebraucht oder im Keller und IT-Manager versuchen aktiv, Kosten zu senken. Die Erweiterung der Serverkonsolidierung ist dabei eine einfache Möglichkeit.

Echtzeit-Anforderungen drosseln das Konsolidierungsverhältnis virtueller Server

IT-Manager äußern reale Besorgnisse in Bezug auf die Uptime. Dieser Umstand verhindert, dass die Konsolidierungsverhältnisse der Server nicht höher ausfallen.

Zum Beispiel lässt die Universität in Plymouth ihre virtuelle Umgebung in einer Aktiv-Aktiv-Konfiguration laufen. Dafür sind laut Jane eine primäres Data Center und ein geleastes, das mehrere Kilometer entfernt liegt, zuständig. Man bemüht sich, die Auslastung unter 45 Prozent zu halten. Sollte ein Ort komplett ausfallen, kann die andere sofort alle Workloads übernehmen und es gibt noch eine Puffer-Zone.

Zusätzliche least die Organisation die Ausrüstung und umgeht damit, dass man alle vier Jahre alles neu kaufen muss. Ist es an der Zeit für den Kauf neuer Server, müssen diese so ausgelegt sein, dass ein Komplett-Ausfall eines Data Centers inklusive des Wachstums von vier Jahren abgefangen werden kann.

Als die Universität zum letzten Mal durch die Prozedur der Server-Bemessung musste, hat das Team errechnet, dass man einen Pool mit 180 Kernen für die Unterstützung der Workloads benötigt. Somit hat man insgesamt 384 Prozessor-Kerne geordert. Diese wurden über 32 IBM BladeCender HS22 Blades mit zwei Prozessoren und sechs Kernen verteilt.

Das scheint sehr üppig gerechnet zu sein. Jane hofft allerdings, dass man mit diesen Vorsorge-Maßnahmen  immer noch genug Ressourcen hat, sobald ein Upgrade ansteht. Als die Universität das letzte Mal upgraden musste, lag die Auslastung bei 55 Prozent. Somit konnte man das Upgrade nicht durchführen, indem man einfach ein Failover auf das zweite Data Center eingeleitet hat. Er sagt: „Wir mussten uns entscheiden, welche virtuellen Maschinen wir herunterfahren. Das war nicht einfach.“

Wird die Cloud die Rettung sein?

Wie bei anderen heiklen IT-Problemen könnte Cloud-Computing eine mögliche Lösung darstellen, um das Konsolidierungsverhältnis virtueller Server auszubalancieren.

Die Universität in Plymouth hängt noch einige Jahre am Leasing-Vertrag fest. Jane ist der Meinung, dass nach Ablauf der Frist Cloud-Computing erwachsen geworden sein müsste und dann sei seiner Meinung nach das Overprovisioning von Servern nicht mehr nötig.

Statt zusätzliche Kapazitäten kaufen zu müssen, würde Jane lieber ein Cloud-basiertes Ressourcen-Angebot nutzen. Das könnte die Universität dann buchen, wenn es entsprechend notwendig ist und man kurz- oder langfristig zusätzliche Kapazitäten braucht.

Folgen Sie SearchDataCenter.de auch auf Facebook, Twitter und Google+!

Artikel wurde zuletzt im Mai 2012 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Server-Konsolidierung mit Virtualisierung

0 Kommentare

Älteste Beiträge 

Passwort vergessen?

Kein Problem! Tragen Sie Ihre E-Mail-Adresse unten ein. Wir werden Ihnen eine E-Mail mit Ihrem Passwort schicken.

Ihr Passwort wurde an die folgende E-Mail-Adresse gesendet::

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchEnterpriseSoftware.de

Close