vege - Fotolia

Zwischen Hybrid Cloud und Utility Computing: Die Rechenzentrums-Trends 2017

Data Analytics, Hybrid Cloud und Utility Computing – mit diesen Trends der Enterprise IT sollten Betreiber von Rechenzentren im Jahr 2017 rechnen.

Der traditionell zurückhaltende Rechenzentrumsmarkt bereitet sich in den kommenden zwölf Monaten auf eine größere Veränderung vor. Diese hat Auswirkungen sowohl auf die Technologien als auch die Produkte, nach denen CIOs größerer Unternehmen Ausschau halten.

Natürlich werden zahlreiche Dinge im Rechenzentrum wie gehabt im laufenden Jahr weitergehen, wie zum Beispiel die Virtualisierung von Workloads, die Integration von Altanwendungen und bestehender Infrastruktur und das anscheinend endlose Streben nach mehr Leistung und Kapazität. Daneben aber wird die wachsende Akzeptanz der Public Cloud als Schlüsselkomponente für die digitale Transformation die bereits unter enormem Druck stehenden IT-Abteilungen vor völlig neue Herausforderungen stellen – wie auch das Wachstum von Big-Data-Anwendungen, das Internet der Dinge, Prozessautomatisierung und andere Technologien, die zunehmend als wesentlich für die Zukunft digitaler Unternehmen angesehen werden.

Daten auch 2017 im IT-Fokus

Eine der größten Veränderungen wird 2017 darin bestehen, dass sich der Fokus weg von der Rechenleistung hin zum Thema Storage verschiebt. Grund sind Big-Data-Anwendungen und die Flut an Werkzeugen zur Datenanalyse, die 2016 im Rechenzentrum Einzug gehalten haben.

Hardwareseitig wird dies den jetzt schon forschen Gang in Richtung Dominanz von Flash gegenüber der konventionellen magnetischen Speicherung beschleunigen. Denn die Unternehmen werden All-Flash-Architekturen einführen, um sowohl die Leistung zu verbessern als auch Silos zu beseitigen. Darüber hinaus werden Anbieter 2017 eine Reihe von innovativen neuen Technologien in diesem Bereich auf den Markt bringen. Dazu zählen etwa NVMe und 3D XPoint, durch die Daten mit Geschwindigkeiten à la DRAM-Speicher, jedoch zu Preisen auf dem Niveau von Flash-Storage bereitgestellt werden können.

Zwar wird es eine Weile dauern, bis diese Entwicklungen die Mehrheit der Unternehmen erfasst haben. Sie versprechen jedoch, die Leistung der Speicher und die Agilität deutlich zu erhöhen und gleichzeitig die operativen Kosten zu senken. Die Unternehmen werden dadurch in die Lage versetzt, sich völlig neue Anwendungsszenarien für Storage auszudenken, um das Geschäft nach vorne zu bringen. Gleichzeitig erhält dadurch die Entwicklung innovativer Speicherlösungen einen Schub, um den wachsenden Bedarf an verteilten Storage-Ressourcen abzudecken und somit die Daten so nahe wie möglich dorthin zu bringen, wo sie benötigt werden, ohne dass davon Leistung, Kontrolle und Sicherheit beeinträchtigt werden.

Dieser Veränderung wird unter anderem das einst so dominierende Storage Area Network zum Opfer fallen. Schließlich werden immer häufiger Alternativen vorliegen, die zudem noch skalierbarer sind und den Administrationsaufwand für SANs überflüssig machen. Eine zunehmende Verfügbarkeit und ein tieferes Verständnis über die Vorzüge von Data-Analytics im Rechenzentrum leisten hierzu ebenfalls einen Beitrag. Wir dürfen deshalb neue Werkzeuge erwarten, um sowohl die rechen- als auch die speicherlastigen Workloads besser auszubalancieren und das Management dieses Prozesses über verschiedene Plattformen hinweg zu automatisieren.

Kommt das Ende des Rechenzentrums?

Der Plattformmix, mit dem die IT in den Unternehmen umgehen muss, wird zunehmend auch die Public Cloud einschließen. Für einige bedeutet dies das Ende des traditionellen Rechenzentrums, da die Komplexität der Aufgabe, eigene Infrastrukturen aufzubauen und zu verwalten, die Fähigkeiten der IT-Abteilungen übersteige, diese im Griff zu halten. Es ist jedoch unwahrscheinlich, dass Unternehmen ihre Rechenzentren sozusagen kampflos aufgeben werden. Und es gibt klare Anzeichen dafür, dass ein hybrider Ansatz nicht nur 2017 vorherrschen, sondern sich auch darüber hinaus als De-facto-Standard in der Unternehmens-IT etablieren wird.

Die Anbieter unterschiedlichster Couleur sind dabei, diesen Trend anzuerkennen, selbst Amazon, das einst behauptete, niemand brauche ein eigenes Rechenzentrum. Inzwischen hat das Unternehmen seine Ansicht jedoch geändert und die Migration wie Ausbalancierung von Workloads zwischen öffentlichen und privaten Domänen vereinfacht. Andere wiederum, wie auch Nutanix, integrieren Technologien der Public Cloud in ihren Produkten. Damit sollen Unternehmen in die Lage versetzt werden, von der schnellen Skalierbarkeit und der verbrauchsabhängen Wirtschaftlichkeit zu profitieren, ohne jedoch die Eigentümerschaft, Kontrolle und Sicherheit von On-Premise-Alternativen aufzugeben.

Der Weg geht in Richtung Utility Computing

Schließlich werden offensichtlich Schritte unternommen, um das inhärente Problem der Komplexität hybrider Ansätze zu lösen, und zwar sowohl auf der Ebene der Infrastruktur als auch bei Applikationen und betriebswirtschaftlichen Aspekten.

„Eine der größten Veränderungen wird 2017 darin bestehen, dass sich der Fokus weg von der Rechenleistung hin zum Thema Storage verschiebt.“
Dr. Markus Pleier, Nutanix

xxx

Was die Infrastruktur betrifft, finden die Virtualisierungs-Technologien, die beim Management der Rechenressourcen so erfolgreich waren, zunehmend auch in den Bereichen Speicher und Netzwerk Anwendung. Der Reifegrad entsprechender Technologien und Produkte steigt schnell. Es sieht deshalb ganz danach aus, dass 2017 das Jahr ist, in dem das softwaregesteuerte Rechenzentrum (SDDC, Software defined Data Center) endlich Realität wird.

Hinzu kommen große Fortschritte beim Management von Anwendungs-Workloads und der Entwicklung ausgeklügelter geschäftsrelevanter Automatisierungs-Tools unter Nutzung von Datenanalysen. Vielleicht kündigen diese Werkzeuge sogar den Beginn der sehnlichst erwarteten „Utility“-Ära der Unternehmens-IT an. Auf jeden Fall aber werden sie die Organisationen in die Lage versetzen, die Regeln, anhand derer sie ihre digitalen Systeme überwachen, verwalten und messen lassen wollen, rein auf Basis geschäftlicher Begriffe zu definieren. Außerdem lassen sie sich von smarter Software ausführen, und zwar unabhängig von der jeweils genutzten Plattform – ob im eigenen Rechenzentrum, in extern gehosteten Private Cloud oder über Public-Cloud-Services. Sie können dadurch genau diejenige IT bereitstellen, die das Unternehmen will, wo und wann auch immer es diese benötigt.

Über den Autor:
Dr. Markus Pleier ist Director Systrems Engineering Germany & Austria bei Nutanix.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+, Xing und Facebook!

Artikel wurde zuletzt im Januar 2017 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Public-Cloud-Infrastruktur

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchEnterpriseSoftware.de

Close