Welche Rolle spielt der Markenname beim Hardwarekauf zur Server-Virtualisierung?

Immer mehr Unternehmen erwägen No-Name-Hardware für die Server-Virtualisierung. In den meisten Fällen ergeben sich daraus keine Nachteile.

Beim heutigen Ausmaß der Abstraktion physischer von virtueller Hardware, spielt da der Markenname eines Servers bei der Virtualisierung noch eine Rolle? Für viele Jahre hinweg lautete die Antwort auf diese Frage „selbstverständlich“. Applikationen wurden auf Hardware ausgeführt, der man vertraute, und die meisten Unternehmen banden sich sehr eng an ihre Auswahl auserkorener Hersteller.

Die Abstraktion der Hardware vom Server-Betriebssystem und den darauf laufenden Applikationen ist allerdings eine der Schlüsselfunktionen der Server-Virtualisierung, und damit haben wir einen Weg beschritten, auf dem der Server-Hersteller oft keine Rolle mehr spielt. Trotzdem sind viele Unternehmen noch immer sehr skeptisch, wenn es um die Verwendung sogenannter White-Box-Server geht.

Unter der Haube sind alle Server gleich

Egal wie weit wir die Abstraktion vorantreiben, am Ende spielt die Hardware natürlich schon eine gewisse Rolle. Was ist Virtualisierungssoftware schließlich ohne die Hardware? Allerdings nutzen die allermeisten Systeme beispielsweise Prozessoren von Intel oder AMD, und auch bei vielen anderen Komponenten nutzen auffallend viele Server-Hersteller die gleichen Bauteile.

Das bedeutet natürlich wiederum nicht, dass Qualität bei der Herstellung keine Rolle spielt. Aber nachdem die meisten Zulieferer standardisierte Komponenten anbieten, ist ein Großteil der Server-Plattformen bemerkenswert ähnlich aufgebaut. Aus diesem Grund geht es bei der Auswahl von Server-Hardware eher um zusätzliche Dienstleistungen des Anbieters, um Konfigurationsmöglichkeiten und um Zusatzsoftware, weniger um die pure Hardware selbst.

Viele Funktionen werden kaum gebraucht – aber mitgekauft

Natürlich stehen viele Hardwareanbieter dieser Sichtweise ablehnend gegenüber. Oft werden dabei als Argument für Markenprodukte der bessere Wärmeschutz und umfangreichere Betriebsdaten ins Feld geführt. Heutige Server arbeiten aber fast alle nach dem Common Information Model, das ein offenes Framework zur Sammlung operativer Betriebsdaten wie Server-Temperatur oder Lüfterdrehzahlen bietet.

Liefert ein Server mit mehr Sensoren aber auch wirklich eine größere Anzahl sinnvoller Messdaten? In einer idealen Welt würde die Antwort natürlich positiv ausfallen. Mit einem entsprechenden Management-System und ausreichend Personal ließe sich ein Server so rund um die Uhr überwachen und man könnte proaktiv auf mögliche Probleme reagieren und die Leistung optimieren. In der Realität machen personelle Engpässe und knappe Projektzeiten dieses Maß an Überwachung höchst unwahrscheinlich. In der Praxis vermarkten viele Server-Hersteller diese Funktionen aber als wichtige Voraussetzung für ein effizientes Data Center, obwohl es für viele Unternehmen in der Form unerreichbar sein dürfte.

Als weiteres Argument für Marken-Server wird oft auch dynamische Kühlung angeführt, mit der sich die Temperatur eines Servers überwachen lässt und man die Lüftergeschwindigkeit reduzieren oder ungenutzte CPU-Kerne herunterfahren kann, um den Energieverbrauch zu senken. Alle Bestrebungen in Richtung eines energieeffizienteren Rechenzentrums sind absolut zu begrüßen, allerdings sollte man immer auch die Fehleranfälligkeit beachten, wenn Änderungen an der Hardware durchgeführt werden.

Der Energieverbrauch im Data Center ist ein wichtiges Thema, und auch nur Einsparungen von wenigen Watt pro Server addieren sich mit der Zeit zu weitaus größeren Energieeinsparungen. Dabei wird aber nur zu oft das erhöhte Risiko von Ausfällen übersehen. Ausfälle können auf verschiedene Ursachen zurückzuführen sein, beispielsweise auf Herstellungsfehler, unsachgemäße Nutzung oder auch zu starke Hitzeeinwirkung. Hardware im Rechenzentrum läuft bis auf gelegentliche Reboots für Updates und Patches oft jahrelang ununterbrochen durch, was bei einem Systemneustart zu Problemen führen kann.

In meiner bisherigen IT-Karriere gab es bisher einen wirklich großen Rechenzentrumsausfall. Was dabei bemerkenswert war, ist die große Menge an Hardware, die beim Hochfahren ausfiel. Der Ausfall dauerte etwa 40 Minuten, wodurch das Data-Center-Equipment, das jahrelang mit einer konstanten Betriebstemperatur lief, deutlich abgekühlt war. Unglücklicherweise konnte ein Teil der Hardware mit diesem Temperaturunterschied nicht gut umgehen und fiel sofort aus, als die Energieversorgung wiederhergestellt wurde. Da stellt sich die Frage, ob Einsparungen von ein paar Euro im Jahr das erhöhte Ausfallrisiko rechtfertigen.

Diese Mehrwerte bieten Server-Hersteller

Dieses Argument stützt die Idee, dass Server-Hardware inzwischen beinahe schon zur alltäglichen Massenware geworden ist und andere Optionen wie Konfigurationsmöglichkeiten und Softwareangebote des Server-Herstellers wichtiger werden. Beispielsweise gibt es immer wieder Diskussionen darüber, für welche Einsatzzwecke Rack- oder Blade-Server besser geeignet sind. Jede der beiden Varianten hat ihre Berechtigung, und wenn ein Server-Hersteller Modelle in beiden Bereichen anbietet, ermöglicht dies bei nur einem Anbieter eine größere Flexibilität und verringert die Komplexität bei Bereitstellung und Management. In anderen Bereichen, beispielsweise beim Architektur-Design, könnten andere, spezialisierte Unternehmen Server-Herstellern allerdings vorzuziehen sein.

Unter diesen Voraussetzungen könnte der Hauptgrund für einen bestimmten Hardwarehersteller ironischerweise gerade die Software sein. Wenn ein Server hardwarebedingt ausfällt, dann wird er meist einfach gegen eine andere Appliance ausgetauscht. Dabei ist es dann aber die Software, die die Hardware gegenüber der Konkurrenz hervorstehen lässt. Jeder Hersteller bringt über die Software eigene Erfahrungen und Funktionen in die Hardware ein. Für die Server-Virtualisierung kann das zum Beispiel das Remote-Management beinhalten, oder APIs für die Automatisierung.

Die reine Hardwarebox an sich wird immer unwichtiger. Selbst konvergente Hardwarelösungen sehen sich diesem Trend mittlerweile ausgesetzt. Je stärker softwaredefiniert das Data Center dabei wird, umso mehr wird sich dieser Trend auch fortsetzen.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im September 2015 aktualisiert

Erfahren Sie mehr über Data-Center-Design

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchEnterpriseSoftware.de

Close