michelangelus - Fotolia

Performance hyperkonvergenter Infrastruktur-Lösungen: Was heißt das eigentlich?

Bei der Auswahl hyperkonvergenter IT spielt auch die Performance eine wichtige Rolle. Die Leistungsmessung geht dabei aber weit über IOPS hinaus.

Mit dem Markterfolg und wachsenden Angebot lautet die Frage heute nicht mehr, ob hyperkonvergente Infrastrukturen die Anforderungen von Unternehmen erfüllen können, sondern wie und vor allem wie gut. Viele dieser Anforderungen hängen dabei mit der Frage nach der Leistung zusammen – doch was genau bedeutet Performance in diesem Kontext?

In den guten alten Zeiten separater Speicherlösungen war diese Frage einfach zu beantworten. Was zählte waren Geschwindigkeit, Durchsatz und Antwortzeiten, und die Zahl der gemessenen IOPS war entscheidend. Flash-Speicher und leichtgewichtige Workload-Generatoren zur oberflächlichen Simulation von Geschäftsanwendungen (zum Beispiel Dateiserver, Datenbankserver, E-Mail-Systeme und so weiter) haben diese Zahl noch einmal massiv erhöht. Doch auch hier wurde lediglich der Zugriff auf den Speicher gemessen. Dies ergibt jedoch immer weniger Sinn, je mehr die ehemals getrennten Infrastrukturkomponenten wie Rechenleistung, Netzwerk und Speicher in so genannten hyperkonvergenten Lösungen miteinander verschmelzen.

Folglich kommt es in hyperkonvergenten Rechenzentren – wie in der Public Cloud – auf die Leistung der Infrastruktur insgesamt an und nicht auf die Performance einzelner Bestandteile. Die Experten der Enterprise Strategy Group haben in diesem Zusammenhang drei Fragen formuliert, die sich Unternehmen bei der Auswahl hyperkonvergenter Lösungen stellen sollten:

  1. Wie schnell arbeiten die eigenen Applikationen auf einer gemeinsam genutzten Infrastruktur?
  2. Wie sieht es mit der Geschwindigkeit aus, wenn die Last steigt oder die Infrastruktur wächst?
  3. Welche Auswirkungen haben Funktionsstörungen in der Infrastruktur auf die Anwendungen?

In softwaregesteuerten Rechenzentren, die wie die Public Cloud funktionieren, lassen sich diese Fragen nicht mehr allein anhand der drei traditionellen Kriterien IOPS, Durchsatz und Antwortzeiten beantworten. Sie bleiben freilich weiterhin wichtig, müssen aber um applikationsspezifische Kriterien wie zum Beispiel die Zahl der erledigten Transaktionen pro Sekunde im Fall einer OLTP-Datenbank ergänzt werden.

Aussagekräftige Messungen, die spezifische Metriken enthalten, lassen sich im Grunde nur auf der zu evaluierenden Infrastruktur selbst vornehmen. Theoretische Messwerte nützen außer als Vergleichsgrößen wenig, wenn es auf das Zusammenspiel der verschiedenen Komponenten und Parameter ankommt. Das lehrt uns nicht erst der Dieselskandal.

HCI-Performance: Testbedingungen müssen realistisch sein

Eine solche Testmethode legt ganz nebenbei zwei weitere wesentliche Faktoren offen: Ein Test auf den Zielsystemen in der engeren Auswahl zeigt, wie schnell und einfach sich die eigenen Anwendungen implementieren lassen. Zudem läuft in hyperkonvergenten Infrastrukturen eine Reihe von Diensten im Hintergrund, die das Zusammenspiel der gemeinsam genutzten Ressourcen in Clustern, bestehend aus verschiedenen Knoten, überwachen und koordinieren.

Dazu zählen etwa Services wie die redundante Verteilung der Daten aus Gründen der Datensicherheit und Zuverlässigkeit oder deren Deduplizierung und Komprimierung für eine effiziente und optimierte Nutzung der vorhandenen Ressourcen. Solche notwendigen Dienste dürfen nicht selbst zum Flaschenhals werden und die Funktionsfähigkeit der geschäftskritischen Anwendungen beeinträchtigen. Diese beiden wichtigen Aspekte bei der Entscheidungsfindung lassen sich nicht theoretisch ermitteln, sondern sozusagen nur am „lebenden Objekt“.

Weitere Artikel zu hyperkonvergenter IT:

DIY-Ansatz verhindert Vendor-Lock-in

Herausforderung Storage- und Compute-Skalierung

Wie Software-defined ist hyperkonvergente IT?

Applikationen dürfen sich nicht gegenseitig beeinflussen

Mit einem solchen Vorgehen wäre also die erste der obigen Fragen beantwortet. Gleichzeitig erlaubt die Messung der Hintergrunddienste eine Einschätzung, ob sich die in Frage kommende hyperkonvergente Infrastruktur tatsächlich linear skalieren lässt oder eben nicht. Im Idealfall bedeutet eine Verdopplung der Ressourcen im Cluster doppelte Leistung. Aber steht diese Leistung dann auch den Applikationen uneingeschränkt zur Verfügung?

Dies lässt sich nur herausfinden, wenn mehrere Applikationen unter verschiedener Last und bei unterschiedlichen Infrastrukturkapazitäten getestet werden. Schließlich darf eine Nachbaranwendung unter Last nicht die Leistung der anderen Applikationen negativ beeinflussen. Zumindest muss aus den Tests klar hervorgehen, ab welchem Punkt eine Beeinträchtigung beginnt und wie die Infrastruktur daher skaliert werden muss, damit diese Situation weder zum Zeitpunkt des Kaufs einer hyperkonvergenten Infrastruktur noch danach eintritt.

Performance beim Ausfall hyperkonvergenter IT

Bleibt noch die Frage, was mit der Performance hyperkonvergenter IT passiert, wenn Fehler auftreten, wenn ein oder mehrere Knoten ausfallen, ein Netzwerkkabel lose ist, eine Festplatte entfernt wird oder ein ganzer Cluster nicht antwortet. Diese Frage gilt es zudem bei Upgrades zu beantworten. Eine hyperkonvergente Infrastrukturlösung muss in solchen Fällen in der Lage sein, die Last in kürzester Zeit auf die anderen, redundant vorgehaltenen Ressourcen zu verteilen, um etwaige Leistungseinbußen auszugleichen. Dabei gilt folgende Faustregel: Je geringer diese Einbußen ausfallen, je weniger sie für die Anwender spürbar sind und je schneller der Ausgleich erfolgt, desto besser ist die evaluierte Lösung für das testende Unternehmen geeignet.

„Die Frage lautet heute nicht mehr, ob hyperkonvergente Infrastrukturen die Anforderungen von Unternehmen erfüllen können, sondern wie und vor allem wie gut.“

Dr. Markus Pleier, Nutanix

Die Leistungsfähigkeit der IT von Unternehmen muss sich heute an der Leistungsfähigkeit der Public Cloud messen lassen. Denn sie formt die Erwartungen der Anwender. Einzelne technische Leistungsdaten spielen aus deren Sicht überhaupt keine Rolle. Wie schnell bekomme ich den Service, den ich benötige? Läuft dieser stabil, schnell und ohne Unterbrechung? Lässt er sich problemlos und ohne Leistungseinbußen skalieren, wenn er häufiger genutzt wird? Das sind die entscheidenden Fragen aus der Sicht der Fachanwender.

Es ist dieser multidimensionale Leistungsbegriff, den die Unternehmen an ihre Infrastruktur heute anlegen müssen. Softwaregesteuerte Rechenzentren können dieser komplexen Leistungsanforderung gerecht werden, wenn die gewählte hyperkonvergente Infrastrukturlösung geeignet ist, für eine echte Cloud-Erfahrung im Unternehmen zu sorgen. Hyperkonvergenz ist schließlich kein Selbstzweck, sondern ein Mittel, um – je nach Anforderung des Unternehmens – eine Alternative oder Ergänzung zur Public Cloud zu schaffen, ohne dass die Anwender einen Unterschied zwischen Unternehmens-IT und Cloud bemerken.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+, Xing und Facebook!

Artikel wurde zuletzt im Mai 2017 aktualisiert

Erfahren Sie mehr über Private-Cloud-Infrastruktur

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchEnterpriseSoftware.de

Close