Die Zukunft des Data Centers erfordert die Cloud und intelligente Netze

Data Center kommen in Zukunft ohne die Cloud und Network as a Service (NaaS) nicht mehr aus, wenn sie kostengünstig und flexibel arbeiten sollen.

Eugen Gebhard

Die Datenmenge, die heute weltweit in Unternehmen gespeichert ist, beträgt 2,2 ZByte (Zettabyte) – das sind mehr als zwei Milliarden TByte (Terabyt)e und entspricht etwa 320 Milliarden DVDs. Diese Datenmenge wächst stetig: laut Symantec in kleinen und mittelständischen Unternehmen (um 178 Prozent) noch schneller als in Großkonzernen (um 67 Prozent). Unternehmen müssen also jeden Tag mehr und mehr digitale Inhalte speichern und auch schützen – das erhöht den Druck, in den Ausbau der Rechenzentren zu investieren.

Zweifelsohne verursacht ein erhöhter Speicherbedarf auch mehr Kosten. Eine Studie der Analysten von Canalys besagt, dass die Investitionen in Data-Center-Infrastruktur jedes Jahr um etwa fünf Prozent steigen werden, bis sie im Jahr 2016 circa 115 Milliarden Euro erreichen. Laut dem Analystenhaus IDC gibt es weltweit über sieben Millionen Data Center. Angefangen bei der Größe eines Schrankes in kleinen und mittelständischen Unternehmen bis hin zu 45.000 Quadratmeter großen Spezialgebäuden, in denen die Rechenzentren von Service-Providern untergebracht sind.

Inzwischen verschieben viele Unternehmen Teile der Datenflut in die Cloud und in Data Center, in denen auch Daten anderer Unternehmen gehostet werden. Das hilft den Anstieg der Datenmenge im eigenen Data Center auszubalancieren und führt dazu, dass Rechenzentren mehr und mehr als Dienstleistung nachgefragt werden. Außerdem haben Unternehmen damit begonnen, einige ihrer datenverarbeitenden Workloads in gemietete Data Center und in die Cloud zu migrieren. Das passiert insbesondere dann, wenn Traffic-Spitzen abzusehen sind oder aus anderen Gründen deutlich höhere Anforderungen erfüllt werden müssen.

Kapazität nach Bedarf

So war es auch im Jahr 2008 als das Startup Animoto der Amazon Cloud-Lösung Amazon Web Services einen der ersten Erfolge beschert hat. Die Facebook-App hatte ein unglaubliches Wachstum von 750.000 registrierten Nutzern in drei Tagen erlebt. Normalerweise ein Ansturm, dem kein Startup gewachsen gewesen wäre, aber Amazon war in der Lage, die Cloud-basierten Server-Kapazitäten so zu skalieren, dass diese dem rapiden Wachstum des Startups folgen konnten. Die Zahl der Unternehmen, die Cloud-Services nutzen, steigt seit dieser Zeit kontinuierlich an – getrieben von der Nachfrage von Verbrauchern, Unternehmen und staatlichen Institutionen. Denn Cloud-Dienste bieten On-Demand-Zugriff auf einen flexiblen Ressourcen-Pool.

Viele Workloads, die sich zwischen Rechenzentren hin und her bewegen, haben Lastspitzen oder benötigen periodische Datenübertragungen. Das können Vorgänge sein wie Videodateien transportieren, das Ausbalancieren von Workloads zu unterstützen oder um schnell auf ungeplante Ereignisse reagieren zu können. Das Verfahren dahinter klingt erst einmal einfach, ist in der Realität aber sehr komplex. Wir werden es hier an einem konkreten Beispiel nachvollziehen.

Ein Unternehmen muss beispielsweise mit einer Datenverbindung von 200 Mb/s eine Server-Plattform wechseln, ohne dabei das komplette Tagesgeschäft lahmzulegen. Hier bietet es sich an, die Anwendungen auf dem betroffenen Server eine Weile auf ein Pendant in der Public Cloud zu verlegen. Auf diesem Server können sich dann beispielsweise zehn virtuelle Maschinen von ungefähr der gleichen Größe wie ein Amazon AWS Medium-Server befinden, mit 5 GByte Arbeitsspeicher und ein TByte Datenspeicher pro virtueller Maschine. Das bedeutet, dass insgesamt etwas über zehn TByte (10 x (5 GByte Arbeitsspeicher + 1 TByte Datenspeicher)) Daten übertragen werden müssten. Allerdings würde die Übertragung von zehn TByte Daten über eine typische 200 Mb/s Netzwerkverbindung fast eine Woche dauern. Das gilt selbst wenn die volle Bandbreite zur Verfügung steht, es keine Neu-Übertragungen gibt und das Netz nur zu 80 Prozent ausgelastet ist. Ganz offensichtlich ist dieses Unternehmen also nicht in der Lage, diesen relativ einfachen Workload-Transfer ohne Weiteres auszuführen.

Die Rettung: Network as a Service (NaaS) und die Cloud

Diese Problemstellung kann folglich ganze Unternehmen lahmlegen. Deshalb werden neue Optionen für die Anbindung an die Cloud benötigt. Nur so kann ein effizientes Netz in einer aufeinander abgestimmten Umgebung geschaffen werden, das Performance auf Abruf liefert. Das Netz, das diese Umgebung unterstützt, muss dabei genauso skalierbar und virtuell sein, wie Speicher und Server es heute schon sind. Im oben beschriebenen Szenario könnte mit einem flexiblen Network as a Service (NaaS) die Datenverbindung auf 1 Gb/s oder mehr skaliert werden, um diesen Workload in weniger als einem Tag übertragen zu können. Danach könnte das Unternehmen den Zugang wieder auf die ursprüngliche Geschwindigkeit drosseln.

Konsolidierung, Virtualisierung, Datenschutz und Cloud-Services sind die Treiber dafür, dass Unternehmen ihre Rechenzentren immer weiter entwickeln. Ein wesentlicher Grund für diese Entwicklungen ist die Notwendigkeit, das Wachstum in den Griff zu bekommen, ohne dass dabei die Kosten explodieren. Mit den neuen As-a-Service-Nutzungsszenarien erhalten Unternehmen ein größeres Maß an Flexibilität. Diese bedarfsorientierten Modelle können als Betriebskosten abgerechnet werden, im Gegensatz zu wenig flexiblen Investitionskosten, die für den Ausbau eigener Kapazitäten notwendig wären.

Abbildung 1: Ein Cloud-Backbone-Netzwerk verbindet verschiedene physische Rechenzentren zu einem Rechenzentrum ohne Wände. (Quelle: Ciena)

Konsequenzen für Carrier

Das Data Center verändert sich auch für Carrier und Service-Provider. Dienstleistungen entwickeln sich kontinuierlich weiter: von gemieteten statischen, physischen Kapazitäten in bestimmten Rechenzentren eines Providers über Managed Services bis hin zu Infrastructure as a Service (IaaS). Rechen- und Speicherkapazitäten werden so zu Dienstleistungen, die je nach Bedarf genutzt und auch nutzungsabhängig bezahlt werden.

Die Entstehung von virtuellen Rechenzentrumsinfrastrukturen, die mit einem Cloud-Backbone-Netzwerk verbunden sind, wird vorangetrieben von:

  • Der Entwicklung der Cloud hin zum Grundversorger für IT-Services.
  • Der Notwendigkeit für Service-Provider, Cloud-Infrastruktur-Dienste effizient auszuliefern.

Verschiedene Rechenzentren von Providern und Unternehmenskunden sind miteinander vernetzt, um so Workloads und Traffic flexibel zu verarbeiten. Die physischen Wände eines Data Centers existieren demnach nicht mehr – dafür gibt es virtuelle Rechenzentrumskapazitäten, die mehrere physische Data Center umfassen.

Das „Data Center ohne Wände“

Diese Architektur lässt sich mit dem Begriff „Data Center ohne Wände“ beschreiben. Also eine Architektur, die aus mehreren Rechenzentren besteht, die sich in einer Hybrid Cloud-Umgebung befinden. Sie funktionieren zusammen wie ein einziges virtuelles Data Center, um so Workloads flexibel zu verarbeiten. Von einem solchen Angebot profitieren sowohl die Cloud-Service-Provider als auch Carrier- und Enterprise-IT-Kunden. So werden ein nahtloser Arbeitsfluss geschaffen und Ressourcen effizienter genutzt.

Ein solches „Data Center ohne Wände“ ermöglicht einen großen Ressourcen-Pool, der nach Untersuchungen von Ciena für Service-Provider insgesamt bis zu 33 Prozent effizienter sein kann. Zudem werden auch Ausfallsicherheit und Performance gegenüber isolierten Rechenzentrums-Architekturen verbessert. Außerdem können IT-Abteilungen mit dieser neuen hybriden Cloud-Architektur bis zu 25 Prozent ihrer IT-Dienstleistungen und Hardware-Kosten einsparen.

Um von dieser Effizienz zu profitieren, müssen Data-Center-Provider ihren Fokus verschieben – vom Konnektivitätsbedarf innerhalb des Data Centers hin zum Bedarf, den vernetzte Rechenzentren haben. Das gilt insbesondere, wenn neue Cloud-Anwendungen unterstützt werden, die von Faktoren wie Bandbreite, Skalierbarkeit, Latenz und Sicherheit abhängen. Denn die Cloud kann nur so gut sein wie die Netzanbindung, die ihr zugrunde liegt.

Die Fähigkeit, auf unterschiedliche Workload-Anforderungen je nach Bedarf zu reagieren, ist der größte Vorteil eines intelligenten Netzes in der Cloud. Zusätzliche Schlüsselfaktoren sind dynamische Bandbreiten, höhere Verfügbarkeit und Zuverlässigkeit sowie geringere Latenz, da das Netz für geschäftskritische Infrastruktur-Dienste entworfen wurde. Mit dieser Art von Netz hat ein IT-Manager die Freiheit, die physischen Grenzen seines Rechenzentrums zu erweitern. Er kann so flexibel über ein „Data Center ohne Wände“ verfügen, das den gleichen Nutzungskomfort bietet wie das eigene Data Center – aber auf einer wirtschaftlichen Pay-as-you-go-Basis.

Während die entsprechenden Werkzeuge zur Abstimmung von Workloads immer weiter reifen, wird die Unterscheidung zwischen physischen und Cloud-Rechenzentren weiter verwischen. Das Data Center der Zukunft wird eng mit anderen vernetzt sein – über ein intelligentes zentrales Netzwerk.

Artikel wurde zuletzt im August 2013 aktualisiert

Erfahren Sie mehr über Data Center: Gehostete Services

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchEnterpriseSoftware.de

Close