Feature

Die Schattenseite des Software Defined Data Centers

Vor ungefähr einem Jahr, auf der VMworld 2012, haben die Virtualisierungs-Experten von VMware einen neuen Begriff für die nächste Generation des Rechenzentrums vorgestellt: Das Software-Defined Data Center oder kurz SDDC.

Im Schlepptau von Software-Defined Networking (SDN) und Software-Defined Storage (SDS), kündigte sich mit SDDC eine neue Ära des Rechenzentrums an. VMware will das große Ganze verändern, wie man Hardware und die darauf laufenden Applikationen behandelt.

Ein Software Defined Data Center ist ein Ort, in dem Elemente der Infrastruktur wie zum Beispiel Netzwerk, Storage, Prozessoren und Sicherheit virtualisiert sind. Diese Komponenten werden bei Bedarf als Dienste ausgeliefert. Der Betrieb der Infrastruktur ist dabei komplett automatisiert und durch Software gesteuert.

Als positiven Punkt kann man die Abstraktion zwischen der Hardware und den Applikationen in einer virtualisierten Umgebung herausstellen. Wäre das nicht der Fall, könnte Virtualisierung sein Versprechen nicht halten. Physikalische Hardware und Applikationen hängen zu einem gewissen Grad weiterhin voneinander ab. Eine Cloud lässt sich ohne eine Abstraktions-Schicht in keinster Weise implementieren.

Ein SDDC adressiert das eben genannte Problem. Das Zusammenspiel der Applikationen, das Ausrollen von Programmen, die Überwachung und das Lösen von Problemen liegen nun in einer Ebene oberhalb der physikalischen Plattform.

Für viele Firmen bedeutet das eine Migration

    Kostenlose Registrierung notwendig

    • Um diesen Artikel vollständig zu lesen, melden Sie sich bitte kostenlos an. Falls Sie schon ein Mitlgied sind, loggen Sie sich einfach oben links auf der Webseite an.

      Mit dem Absenden bestätige ich, dass ich die Bedingungen und die Einverständniserklärung gelesen habe und diese akzeptiere.

bereits bestehender Lösungen, um die neuen Möglichkeiten der Virtualisierung optimal nutzen zu können. Dies kann durch Eigenentwicklungen oder Zukäufe erfolgen.

CA hat zum Beispiel kürzlich Layer 7 Technologies und Nolio akquiriert. Dieser Schritt ergänzt die früheren Einkäufe von 3Tera und Nimsoft, welche wiederum Lücken in den vorhandenen Lösungen Unicenter und Clarity geschlossen haben. IBM ist ebenfalls auf Shopping-Tour, die den Ausbau der hauseigenen Plattform Tivoli System Management unterstützen soll.

VMware versucht mit der eigenen vCloud, so viele Komponenten der IT-Umgebung wie möglich zu virtualisieren.

Dies kann allerdings einige Probleme ans Tageslicht bringen, die auf den ersten Blick nicht offensichtlich sind.

In einem Software-Defined Rechenzentrum müssen Administratoren die physikalischen und virtuellen Komponenten als eine Einheit verwalten können. Es ist kontraproduktiv, wenn ein Tool einen Fehler in der virtuellen Umgebung meldet und dieser in Wirklichkeit auf der physikalischen Schicht seinen Ursprung hat. Das Werkzeug hat in diesem Fall das Problem für sie nicht identifiziert. Funktioniert das Zusammenspiel der Tools für die virtuellen und physikalischen Umgebungen nicht, sind sie nutzlos.

Fehlende Standards können sich ebenfalls als Stolperstein entpuppen.

Der Begriff SDDC wurde erstmalig von VMware ins Spiel gebracht. Die Firma bekräftigte damals nachhaltig, dass das Produkt SDDC die Hypervisoren VMware ESX und ESXi mehr als andere unterstützen wird.

Konkurrenten werden versuchen, so viele Umgebungen wie möglich zu unterstützen. Verschiedene Funktionalitäten bei den unterschiedlichen Plattformen, wie zum Beispiel ESX, Microsoft Hyper-V und Citrix Xen, machen dieses Unterfangen in keiner Weise einfacher.

Die Problematik endet allerdings nicht bei den unterschiedlichen Hypervisoren. Nehmen Sie irgendein modernes System. Das könnte vBlock, Cisco UCS (Unified Computing System) oder vStart sein. All diese Systeme sind hochentwickelt und bieten eingebaute Management-Möglichkeiten an. Jedes übergreifende SDDC-System müsste sich mit den eben erwähnten verständigen können. Eine zweite Möglichkeit wäre, diese komplett außen vor zu lassen. Letzteres würde allerdings die Frage in den Raum werfen, warum man eine hochentwickelte Lösung überhaupt angeschafft hat.

Viele Hersteller untersuchen außerdem die Möglichkeiten, Grafik-Prozessoren (GPUs) in die eingesetzten Systeme zu integrieren. Damit lassen sich bestimmte Arbeiten auf Plattformen auslagern, die den Anforderungen dafür besser gerecht werden.

Andere, wie zum Beispiel Azul Systems, verwenden ganz spezielle Hardware, um Java-basierte Workloads nativ laufen zu lassen. Wie wahrscheinlich ist es, dass ein SDDC-System mit der bunten Mischung all dieser Komponenten umgehen kann?

Dann haben wir noch IBM mit seinen PureFlex-Systemen.

In diesem Fall sprechen wir nicht nur von einer eigenen Management-Lösung, sondern es ist auch noch unterschiedliche Hardware im Spiel. Von x86 über Power, bis zu diversen Mainframe CPUs ist hier einiges denkbar. IBM hat einen eigenen intelligenten Workload-Manager innerhalb PureFlex am Start. Ein SDDC-System müsste damit kommunizieren können.

Der Einfluss anderer SDxy oder „Software-Defined-Irgendwas“ ist ebenfalls zu untersuchen.

Im Idealfall deckt ein SDDC-System natürlich alles ab: Prozessoren, Storage und Netzwerke. SDN kocht allerdings sein eigenes Süppchen und entwickelt sich, verglichen mit einem Software-Defined Rechenzentrum, in einer anderen Geschwindigkeit.

Software-Defined Storage ist im Moment eine Nische für einige Anbieter. Sobald die Storage Networking Industry Association (SNIA) mehr Standards für Cloud Storage definiert, nimmt dieses Feld mit Sicherheit an Wichtigkeit zu.

SDDC an sich ist alles andere als eine schlechte Idee, denn genau so sollte die Cloud funktionieren. Das Problem ist, dass zu viele Anbieter andere Ansichten haben. Wie üblich fühlen sich diese nicht dazu genötigt, irgendwelche Standards zu 100 Prozent umzusetzen.

Die Realität sieht wohl so aus, wie man das schon oft gesehen hat. Anbieter werden ankündigen, SDDC unterstützen und verwenden zu wollen - natürlich mit einigen Extra-Funktionalitäten, die nur mit den hauseigenen Systemen funktionieren.

Auf lange Sicht gesehen könnte das Software-Defined Rechenzentrum eine Ansammlung an Management- und Implementierungs-Funktionen zur Verfügung stellen, an die sich Anbieter anflanschen und die Funktionalität mit eigenen Tools erweitern. Somit ließen sie sich mit jedem System betreiben und der Administrator könnte die komplette Infrastruktur überwachen.

Das ist technisch gesehen vielleicht nicht die eleganteste Lösung. Allerdings sollte das funktionieren und die Interessen von Anbietern und Kunden gleichermaßen vertreten.

Vor ungefähr einem Jahr, auf der VMworld 2012, haben die Virtualisierungs-Experten von VMware einen neuen Begriff für die nächste Generation des Rechenzentrums vorgestellt: Das Software-Defined Data Center oder kurz SDDC.

Im Schlepptau von Software-Defined Networking (SDN) und Software-Defined Storage (SDS), kündigte sich mit SDDC eine neue Ära des Rechenzentrums an. VMware will das große Ganze verändern, wie man Hardware und die darauf laufenden Applikationen behandelt.

Ein Software Defined Data Center ist ein Ort, in dem Elemente der Infrastruktur wie zum Beispiel Netzwerk, Storage, Prozessoren und Sicherheit virtualisiert sind. Diese Komponenten werden bei Bedarf als Dienste ausgeliefert. Der Betrieb der Infrastruktur ist dabei komplett automatisiert und durch Software gesteuert.

Als positiven Punkt kann man die Abstraktion zwischen der Hardware und den Applikationen in einer virtualisierten Umgebung herausstellen. Wäre das nicht der Fall, könnte Virtualisierung sein Versprechen nicht halten. Physikalische Hardware und Applikationen hängen zu einem gewissen Grad weiterhin voneinander ab. Eine Cloud lässt sich ohne eine Abstraktions-Schicht in keinster Weise implementieren.

Ein SDDC adressiert das eben genannte Problem. Das Zusammenspiel der Applikationen, das Ausrollen von Programmen, die Überwachung und das Lösen von Problemen liegen nun in einer Ebene oberhalb der physikalischen Plattform.

Für viele Firmen bedeutet das eine Migration bereits bestehender Lösungen, um die neuen Möglichkeiten der Virtualisierung optimal nutzen zu können. Dies kann durch Eigenentwicklungen oder Zukäufe erfolgen.

CA hat zum Beispiel kürzlich Layer 7 Technologies und Nolio akquiriert. Dieser Schritt ergänzt die früheren Einkäufe von 3Tera und Nimsoft, welche wiederum Lücken in den vorhandenen Lösungen Unicenter und Clarity geschlossen haben. IBM ist ebenfalls auf Shopping-Tour, die den Ausbau der hauseigenen Plattform Tivoli System Management unterstützen soll.

VMware versucht mit der eigenen vCloud, so viele Komponenten der IT-Umgebung wie möglich zu virtualisieren.

Dies kann allerdings einige Probleme ans Tageslicht bringen, die auf den ersten Blick nicht offensichtlich sind.

In einem Software-Defined Rechenzentrum müssen Administratoren die physikalischen und virtuellen Komponenten als eine Einheit verwalten können. Es ist kontraproduktiv, wenn ein Tool einen Fehler in der virtuellen Umgebung meldet und dieser in Wirklichkeit auf der physikalischen Schicht seinen Ursprung hat. Das Werkzeug hat in diesem Fall das Problem für sie nicht identifiziert. Funktioniert das Zusammenspiel der Tools für die virtuellen und physikalischen Umgebungen nicht, sind sie nutzlos.

Fehlende Standards können sich ebenfalls als Stolperstein entpuppen.

Der Begriff SDDC wurde erstmalig von VMware ins Spiel gebracht. Die Firma bekräftigte damals nachhaltig, dass das Produkt SDDC die Hypervisoren VMware ESX und ESXi mehr als andere unterstützen wird.

Konkurrenten werden versuchen, so viele Umgebungen wie möglich zu unterstützen. Verschiedene Funktionalitäten bei den unterschiedlichen Plattformen, wie zum Beispiel ESX, Microsoft Hyper-V und Citrix Xen, machen dieses Unterfangen in keiner Weise einfacher.

Die Problematik endet allerdings nicht bei den unterschiedlichen Hypervisoren. Nehmen Sie irgendein modernes System. Das könnte vBlock, Cisco UCS (Unified Computing System) oder vStart sein. All diese Systeme sind hochentwickelt und bieten eingebaute Management-Möglichkeiten an. Jedes übergreifende SDDC-System müsste sich mit den eben erwähnten verständigen können. Eine zweite Möglichkeit wäre, diese komplett außen vor zu lassen. Letzteres würde allerdings die Frage in den Raum werfen, warum man eine hochentwickelte Lösung überhaupt angeschafft hat.

Viele Hersteller untersuchen außerdem die Möglichkeiten, Grafik-Prozessoren (GPUs) in die eingesetzten Systeme zu integrieren. Damit lassen sich bestimmte Arbeiten auf Plattformen auslagern, die den Anforderungen dafür besser gerecht werden.

Andere, wie zum Beispiel Azul Systems, verwenden ganz spezielle Hardware, um Java-basierte Workloads nativ laufen zu lassen. Wie wahrscheinlich ist es, dass ein SDDC-System mit der bunten Mischung all dieser Komponenten umgehen kann?

Dann haben wir noch IBM mit seinen PureFlex-Systemen.

In diesem Fall sprechen wir nicht nur von einer eigenen Management-Lösung, sondern es ist auch noch unterschiedliche Hardware im Spiel. Von x86 über Power, bis zu diversen Mainframe CPUs ist hier einiges denkbar. IBM hat einen eigenen intelligenten Workload-Manager innerhalb PureFlex am Start. Ein SDDC-System müsste damit kommunizieren können.

Der Einfluss anderer SDxy oder „Software-Defined-Irgendwas“ ist ebenfalls zu untersuchen.

Im Idealfall deckt ein SDDC-System natürlich alles ab: Prozessoren, Storage und Netzwerke. SDN kocht allerdings sein eigenes Süppchen und entwickelt sich, verglichen mit einem Software-Defined Rechenzentrum, in einer anderen Geschwindigkeit.

Software-Defined Storage ist im Moment eine Nische für einige Anbieter. Sobald die Storage Networking Industry Association (SNIA) mehr Standards für Cloud Storage definiert, nimmt dieses Feld mit Sicherheit an Wichtigkeit zu.

SDDC an sich ist alles andere als eine schlechte Idee, denn genau so sollte die Cloud funktionieren. Das Problem ist, dass zu viele Anbieter andere Ansichten haben. Wie üblich fühlen sich diese nicht dazu genötigt, irgendwelche Standards zu 100 Prozent umzusetzen.

Die Realität sieht wohl so aus, wie man das schon oft gesehen hat. Anbieter werden ankündigen, SDDC unterstützen und verwenden zu wollen - natürlich mit einigen Extra-Funktionalitäten, die nur mit den hauseigenen Systemen funktionieren.

Auf lange Sicht gesehen könnte das Software-Defined Rechenzentrum eine Ansammlung an Management- und Implementierungs-Funktionen zur Verfügung stellen, an die sich Anbieter anflanschen und die Funktionalität mit eigenen Tools erweitern. Somit ließen sie sich mit jedem System betreiben und der Administrator könnte die komplette Infrastruktur überwachen.

Das ist technisch gesehen vielleicht nicht die eleganteste Lösung. Allerdings sollte das funktionieren und die Interessen von Anbietern und Kunden gleichermaßen vertreten.

Vor ungefähr einem Jahr, auf der VMworld 2012, haben die Virtualisierungs-Experten von VMware einen neuen Begriff für die nächste Generation des Rechenzentrums vorgestellt: Das Software-Defined Data Center oder kurz SDDC.

Im Schlepptau von Software-Defined Networking (SDN) und Software-Defined Storage (SDS), kündigte sich mit SDDC eine neue Ära des Rechenzentrums an. VMware will das große Ganze verändern, wie man Hardware und die darauf laufenden Applikationen behandelt.

Ein Software Defined Data Center ist ein Ort, in dem Elemente der Infrastruktur wie zum Beispiel Netzwerk, Storage, Prozessoren und Sicherheit virtualisiert sind. Diese Komponenten werden bei Bedarf als Dienste ausgeliefert. Der Betrieb der Infrastruktur ist dabei komplett automatisiert und durch Software gesteuert.

Als positiven Punkt kann man die Abstraktion zwischen der Hardware und den Applikationen in einer virtualisierten Umgebung herausstellen. Wäre das nicht der Fall, könnte Virtualisierung sein Versprechen nicht halten. Physikalische Hardware und Applikationen hängen zu einem gewissen Grad weiterhin voneinander ab. Eine Cloud lässt sich ohne eine Abstraktions-Schicht in keinster Weise implementieren.

Ein SDDC adressiert das eben genannte Problem. Das Zusammenspiel der Applikationen, das Ausrollen von Programmen, die Überwachung und das Lösen von Problemen liegen nun in einer Ebene oberhalb der physikalischen Plattform.

Für viele Firmen bedeutet das eine Migration bereits bestehender Lösungen, um die neuen Möglichkeiten der Virtualisierung optimal nutzen zu können. Dies kann durch Eigenentwicklungen oder Zukäufe erfolgen.

CA hat zum Beispiel kürzlich Layer 7 Technologies und Nolio akquiriert. Dieser Schritt ergänzt die früheren Einkäufe von 3Tera und Nimsoft, welche wiederum Lücken in den vorhandenen Lösungen Unicenter und Clarity geschlossen haben. IBM ist ebenfalls auf Shopping-Tour, die den Ausbau der hauseigenen Plattform Tivoli System Management unterstützen soll.

VMware versucht mit der eigenen vCloud, so viele Komponenten der IT-Umgebung wie möglich zu virtualisieren.

Dies kann allerdings einige Probleme ans Tageslicht bringen, die auf den ersten Blick nicht offensichtlich sind.

In einem Software-Defined Rechenzentrum müssen Administratoren die physikalischen und virtuellen Komponenten als eine Einheit verwalten können. Es ist kontraproduktiv, wenn ein Tool einen Fehler in der virtuellen Umgebung meldet und dieser in Wirklichkeit auf der physikalischen Schicht seinen Ursprung hat. Das Werkzeug hat in diesem Fall das Problem für sie nicht identifiziert. Funktioniert das Zusammenspiel der Tools für die virtuellen und physikalischen Umgebungen nicht, sind sie nutzlos.

Fehlende Standards können sich ebenfalls als Stolperstein entpuppen.

Der Begriff SDDC wurde erstmalig von VMware ins Spiel gebracht. Die Firma bekräftigte damals nachhaltig, dass das Produkt SDDC die Hypervisoren VMware ESX und ESXi mehr als andere unterstützen wird.

Konkurrenten werden versuchen, so viele Umgebungen wie möglich zu unterstützen. Verschiedene Funktionalitäten bei den unterschiedlichen Plattformen, wie zum Beispiel ESX, Microsoft Hyper-V und Citrix Xen, machen dieses Unterfangen in keiner Weise einfacher.

Die Problematik endet allerdings nicht bei den unterschiedlichen Hypervisoren. Nehmen Sie irgendein modernes System. Das könnte vBlock, Cisco UCS (Unified Computing System) oder vStart sein. All diese Systeme sind hochentwickelt und bieten eingebaute Management-Möglichkeiten an. Jedes übergreifende SDDC-System müsste sich mit den eben erwähnten verständigen können. Eine zweite Möglichkeit wäre, diese komplett außen vor zu lassen. Letzteres würde allerdings die Frage in den Raum werfen, warum man eine hochentwickelte Lösung überhaupt angeschafft hat.

Viele Hersteller untersuchen außerdem die Möglichkeiten, Grafik-Prozessoren (GPUs) in die eingesetzten Systeme zu integrieren. Damit lassen sich bestimmte Arbeiten auf Plattformen auslagern, die den Anforderungen dafür besser gerecht werden.

Andere, wie zum Beispiel Azul Systems, verwenden ganz spezielle Hardware, um Java-basierte Workloads nativ laufen zu lassen. Wie wahrscheinlich ist es, dass ein SDDC-System mit der bunten Mischung all dieser Komponenten umgehen kann?

Dann haben wir noch IBM mit seinen PureFlex-Systemen.

In diesem Fall sprechen wir nicht nur von einer eigenen Management-Lösung, sondern es ist auch noch unterschiedliche Hardware im Spiel. Von x86 über Power, bis zu diversen Mainframe CPUs ist hier einiges denkbar. IBM hat einen eigenen intelligenten Workload-Manager innerhalb PureFlex am Start. Ein SDDC-System müsste damit kommunizieren können.

Der Einfluss anderer SDxy oder „Software-Defined-Irgendwas“ ist ebenfalls zu untersuchen.

Im Idealfall deckt ein SDDC-System natürlich alles ab: Prozessoren, Storage und Netzwerke. SDN kocht allerdings sein eigenes Süppchen und entwickelt sich, verglichen mit einem Software-Defined Rechenzentrum, in einer anderen Geschwindigkeit.

Software-Defined Storage ist im Moment eine Nische für einige Anbieter. Sobald die Storage Networking Industry Association (SNIA) mehr Standards für Cloud Storage definiert, nimmt dieses Feld mit Sicherheit an Wichtigkeit zu.

SDDC an sich ist alles andere als eine schlechte Idee, denn genau so sollte die Cloud funktionieren. Das Problem ist, dass zu viele Anbieter andere Ansichten haben. Wie üblich fühlen sich diese nicht dazu genötigt, irgendwelche Standards zu 100 Prozent umzusetzen.

Die Realität sieht wohl so aus, wie man das schon oft gesehen hat. Anbieter werden ankündigen, SDDC unterstützen und verwenden zu wollen - natürlich mit einigen Extra-Funktionalitäten, die nur mit den hauseigenen Systemen funktionieren.

Auf lange Sicht gesehen könnte das Software-Defined Rechenzentrum eine Ansammlung an Management- und Implementierungs-Funktionen zur Verfügung stellen, an die sich Anbieter anflanschen und die Funktionalität mit eigenen Tools erweitern. Somit ließen sie sich mit jedem System betreiben und der Administrator könnte die komplette Infrastruktur überwachen.

Das ist technisch gesehen vielleicht nicht die eleganteste Lösung. Allerdings sollte das funktionieren und die Interessen von Anbietern und Kunden gleichermaßen vertreten.

Vor ungefähr einem Jahr, auf der VMworld 2012, haben die Virtualisierungs-Experten von VMware einen neuen Begriff für die nächste Generation des Rechenzentrums vorgestellt: Das Software-Defined Data Center oder kurz SDDC.

Im Schlepptau von Software-Defined Networking (SDN) und Software-Defined Storage (SDS), kündigte sich mit SDDC eine neue Ära des Rechenzentrums an. VMware will das große Ganze verändern, wie man Hardware und die darauf laufenden Applikationen behandelt.

Ein Software Defined Data Center ist ein Ort, in dem Elemente der Infrastruktur wie zum Beispiel Netzwerk, Storage, Prozessoren und Sicherheit virtualisiert sind. Diese Komponenten werden bei Bedarf als Dienste ausgeliefert. Der Betrieb der Infrastruktur ist dabei komplett automatisiert und durch Software gesteuert.

Als positiven Punkt kann man die Abstraktion zwischen der Hardware und den Applikationen in einer virtualisierten Umgebung herausstellen. Wäre das nicht der Fall, könnte Virtualisierung sein Versprechen nicht halten. Physikalische Hardware und Applikationen hängen zu einem gewissen Grad weiterhin voneinander ab. Eine Cloud lässt sich ohne eine Abstraktions-Schicht in keinster Weise implementieren.

Ein SDDC adressiert das eben genannte Problem. Das Zusammenspiel der Applikationen, das Ausrollen von Programmen, die Überwachung und das Lösen von Problemen liegen nun in einer Ebene oberhalb der physikalischen Plattform.

Für viele Firmen bedeutet das eine Migration bereits bestehender Lösungen, um die neuen Möglichkeiten der Virtualisierung optimal nutzen zu können. Dies kann durch Eigenentwicklungen oder Zukäufe erfolgen.

CA hat zum Beispiel kürzlich Layer 7 Technologies und Nolio akquiriert. Dieser Schritt ergänzt die früheren Einkäufe von 3Tera und Nimsoft, welche wiederum Lücken in den vorhandenen Lösungen Unicenter und Clarity geschlossen haben. IBM ist ebenfalls auf Shopping-Tour, die den Ausbau der hauseigenen Plattform Tivoli System Management unterstützen soll.

VMware versucht mit der eigenen vCloud, so viele Komponenten der IT-Umgebung wie möglich zu virtualisieren.

Dies kann allerdings einige Probleme ans Tageslicht bringen, die auf den ersten Blick nicht offensichtlich sind.

In einem Software-Defined Rechenzentrum müssen Administratoren die physikalischen und virtuellen Komponenten als eine Einheit verwalten können. Es ist kontraproduktiv, wenn ein Tool einen Fehler in der virtuellen Umgebung meldet und dieser in Wirklichkeit auf der physikalischen Schicht seinen Ursprung hat. Das Werkzeug hat in diesem Fall das Problem für sie nicht identifiziert. Funktioniert das Zusammenspiel der Tools für die virtuellen und physikalischen Umgebungen nicht, sind sie nutzlos.

Fehlende Standards können sich ebenfalls als Stolperstein entpuppen.

Der Begriff SDDC wurde erstmalig von VMware ins Spiel gebracht. Die Firma bekräftigte damals nachhaltig, dass das Produkt SDDC die Hypervisoren VMware ESX und ESXi mehr als andere unterstützen wird.

Konkurrenten werden versuchen, so viele Umgebungen wie möglich zu unterstützen. Verschiedene Funktionalitäten bei den unterschiedlichen Plattformen, wie zum Beispiel ESX, Microsoft Hyper-V und Citrix Xen, machen dieses Unterfangen in keiner Weise einfacher.

Die Problematik endet allerdings nicht bei den unterschiedlichen Hypervisoren. Nehmen Sie irgendein modernes System. Das könnte vBlock, Cisco UCS (Unified Computing System) oder vStart sein. All diese Systeme sind hochentwickelt und bieten eingebaute Management-Möglichkeiten an. Jedes übergreifende SDDC-System müsste sich mit den eben erwähnten verständigen können. Eine zweite Möglichkeit wäre, diese komplett außen vor zu lassen. Letzteres würde allerdings die Frage in den Raum werfen, warum man eine hochentwickelte Lösung überhaupt angeschafft hat.

Viele Hersteller untersuchen außerdem die Möglichkeiten, Grafik-Prozessoren (GPUs) in die eingesetzten Systeme zu integrieren. Damit lassen sich bestimmte Arbeiten auf Plattformen auslagern, die den Anforderungen dafür besser gerecht werden.

Andere, wie zum Beispiel Azul Systems, verwenden ganz spezielle Hardware, um Java-basierte Workloads nativ laufen zu lassen. Wie wahrscheinlich ist es, dass ein SDDC-System mit der bunten Mischung all dieser Komponenten umgehen kann?

Dann haben wir noch IBM mit seinen PureFlex-Systemen.

In diesem Fall sprechen wir nicht nur von einer eigenen Management-Lösung, sondern es ist auch noch unterschiedliche Hardware im Spiel. Von x86 über Power, bis zu diversen Mainframe CPUs ist hier einiges denkbar. IBM hat einen eigenen intelligenten Workload-Manager innerhalb PureFlex am Start. Ein SDDC-System müsste damit kommunizieren können.

Der Einfluss anderer SDxy oder „Software-Defined-Irgendwas“ ist ebenfalls zu untersuchen.

Im Idealfall deckt ein SDDC-System natürlich alles ab: Prozessoren, Storage und Netzwerke. SDN kocht allerdings sein eigenes Süppchen und entwickelt sich, verglichen mit einem Software-Defined Rechenzentrum, in einer anderen Geschwindigkeit.

Software-Defined Storage ist im Moment eine Nische für einige Anbieter. Sobald die Storage Networking Industry Association (SNIA) mehr Standards für Cloud Storage definiert, nimmt dieses Feld mit Sicherheit an Wichtigkeit zu.

SDDC an sich ist alles andere als eine schlechte Idee, denn genau so sollte die Cloud funktionieren. Das Problem ist, dass zu viele Anbieter andere Ansichten haben. Wie üblich fühlen sich diese nicht dazu genötigt, irgendwelche Standards zu 100 Prozent umzusetzen.

Die Realität sieht wohl so aus, wie man das schon oft gesehen hat. Anbieter werden ankündigen, SDDC unterstützen und verwenden zu wollen - natürlich mit einigen Extra-Funktionalitäten, die nur mit den hauseigenen Systemen funktionieren.

Auf lange Sicht gesehen könnte das Software-Defined Rechenzentrum eine Ansammlung an Management- und Implementierungs-Funktionen zur Verfügung stellen, an die sich Anbieter anflanschen und die Funktionalität mit eigenen Tools erweitern. Somit ließen sie sich mit jedem System betreiben und der Administrator könnte die komplette Infrastruktur überwachen.

Das ist technisch gesehen vielleicht nicht die eleganteste Lösung. Allerdings sollte das funktionieren und die Interessen von Anbietern und Kunden gleichermaßen vertreten.

Vor ungefähr einem Jahr, auf der VMworld 2012, haben die Virtualisierungs-Experten von VMware einen neuen Begriff für die nächste Generation des Rechenzentrums vorgestellt: Das Software-Defined Data Center oder kurz SDDC.

Im Schlepptau von Software-Defined Networking (SDN) und Software-Defined Storage (SDS), kündigte sich mit SDDC eine neue Ära des Rechenzentrums an. VMware will das große Ganze verändern, wie man Hardware und die darauf laufenden Applikationen behandelt.

Ein Software Defined Data Center ist ein Ort, in dem Elemente der Infrastruktur wie zum Beispiel Netzwerk, Storage, Prozessoren und Sicherheit virtualisiert sind. Diese Komponenten werden bei Bedarf als Dienste ausgeliefert. Der Betrieb der Infrastruktur ist dabei komplett automatisiert und durch Software gesteuert.

Als positiven Punkt kann man die Abstraktion zwischen der Hardware und den Applikationen in einer virtualisierten Umgebung herausstellen. Wäre das nicht der Fall, könnte Virtualisierung sein Versprechen nicht halten. Physikalische Hardware und Applikationen hängen zu einem gewissen Grad weiterhin voneinander ab. Eine Cloud lässt sich ohne eine Abstraktions-Schicht in keinster Weise implementieren.

Ein SDDC adressiert das eben genannte Problem. Das Zusammenspiel der Applikationen, das Ausrollen von Programmen, die Überwachung und das Lösen von Problemen liegen nun in einer Ebene oberhalb der physikalischen Plattform.

Für viele Firmen bedeutet das eine Migration bereits bestehender Lösungen, um die neuen Möglichkeiten der Virtualisierung optimal nutzen zu können. Dies kann durch Eigenentwicklungen oder Zukäufe erfolgen.

CA hat zum Beispiel kürzlich Layer 7 Technologies und Nolio akquiriert. Dieser Schritt ergänzt die früheren Einkäufe von 3Tera und Nimsoft, welche wiederum Lücken in den vorhandenen Lösungen Unicenter und Clarity geschlossen haben. IBM ist ebenfalls auf Shopping-Tour, die den Ausbau der hauseigenen Plattform Tivoli System Management unterstützen soll.

VMware versucht mit der eigenen vCloud, so viele Komponenten der IT-Umgebung wie möglich zu virtualisieren.

Dies kann allerdings einige Probleme ans Tageslicht bringen, die auf den ersten Blick nicht offensichtlich sind.

In einem Software-Defined Rechenzentrum müssen Administratoren die physikalischen und virtuellen Komponenten als eine Einheit verwalten können. Es ist kontraproduktiv, wenn ein Tool einen Fehler in der virtuellen Umgebung meldet und dieser in Wirklichkeit auf der physikalischen Schicht seinen Ursprung hat. Das Werkzeug hat in diesem Fall das Problem für sie nicht identifiziert. Funktioniert das Zusammenspiel der Tools für die virtuellen und physikalischen Umgebungen nicht, sind sie nutzlos.

Fehlende Standards können sich ebenfalls als Stolperstein entpuppen.

Der Begriff SDDC wurde erstmalig von VMware ins Spiel gebracht. Die Firma bekräftigte damals nachhaltig, dass das Produkt SDDC die Hypervisoren VMware ESX und ESXi mehr als andere unterstützen wird.

Konkurrenten werden versuchen, so viele Umgebungen wie möglich zu unterstützen. Verschiedene Funktionalitäten bei den unterschiedlichen Plattformen, wie zum Beispiel ESX, Microsoft Hyper-V und Citrix Xen, machen dieses Unterfangen in keiner Weise einfacher.

Die Problematik endet allerdings nicht bei den unterschiedlichen Hypervisoren. Nehmen Sie irgendein modernes System. Das könnte vBlock, Cisco UCS (Unified Computing System) oder vStart sein. All diese Systeme sind hochentwickelt und bieten eingebaute Management-Möglichkeiten an. Jedes übergreifende SDDC-System müsste sich mit den eben erwähnten verständigen können. Eine zweite Möglichkeit wäre, diese komplett außen vor zu lassen. Letzteres würde allerdings die Frage in den Raum werfen, warum man eine hochentwickelte Lösung überhaupt angeschafft hat.

Viele Hersteller untersuchen außerdem die Möglichkeiten, Grafik-Prozessoren (GPUs) in die eingesetzten Systeme zu integrieren. Damit lassen sich bestimmte Arbeiten auf Plattformen auslagern, die den Anforderungen dafür besser gerecht werden.

Andere, wie zum Beispiel Azul Systems, verwenden ganz spezielle Hardware, um Java-basierte Workloads nativ laufen zu lassen. Wie wahrscheinlich ist es, dass ein SDDC-System mit der bunten Mischung all dieser Komponenten umgehen kann?

Dann haben wir noch IBM mit seinen PureFlex-Systemen.

In diesem Fall sprechen wir nicht nur von einer eigenen Management-Lösung, sondern es ist auch noch unterschiedliche Hardware im Spiel. Von x86 über Power, bis zu diversen Mainframe CPUs ist hier einiges denkbar. IBM hat einen eigenen intelligenten Workload-Manager innerhalb PureFlex am Start. Ein SDDC-System müsste damit kommunizieren können.

Der Einfluss anderer SDxy oder „Software-Defined-Irgendwas“ ist ebenfalls zu untersuchen.

Im Idealfall deckt ein SDDC-System natürlich alles ab: Prozessoren, Storage und Netzwerke. SDN kocht allerdings sein eigenes Süppchen und entwickelt sich, verglichen mit einem Software-Defined Rechenzentrum, in einer anderen Geschwindigkeit.

Software-Defined Storage ist im Moment eine Nische für einige Anbieter. Sobald die Storage Networking Industry Association (SNIA) mehr Standards für Cloud Storage definiert, nimmt dieses Feld mit Sicherheit an Wichtigkeit zu.

SDDC an sich ist alles andere als eine schlechte Idee, denn genau so sollte die Cloud funktionieren. Das Problem ist, dass zu viele Anbieter andere Ansichten haben. Wie üblich fühlen sich diese nicht dazu genötigt, irgendwelche Standards zu 100 Prozent umzusetzen.

Die Realität sieht wohl so aus, wie man das schon oft gesehen hat. Anbieter werden ankündigen, SDDC unterstützen und verwenden zu wollen - natürlich mit einigen Extra-Funktionalitäten, die nur mit den hauseigenen Systemen funktionieren.

Auf lange Sicht gesehen könnte das Software-Defined Rechenzentrum eine Ansammlung an Management- und Implementierungs-Funktionen zur Verfügung stellen, an die sich Anbieter anflanschen und die Funktionalität mit eigenen Tools erweitern. Somit ließen sie sich mit jedem System betreiben und der Administrator könnte die komplette Infrastruktur überwachen.

Das ist technisch gesehen vielleicht nicht die eleganteste Lösung. Allerdings sollte das funktionieren und die Interessen von Anbietern und Kunden gleichermaßen vertreten.

Vor ungefähr einem Jahr, auf der VMworld 2012, haben die Virtualisierungs-Experten von VMware einen neuen Begriff für die nächste Generation des Rechenzentrums vorgestellt: Das Software-Defined Data Center oder kurz SDDC.

Im Schlepptau von Software-Defined Networking (SDN) und Software-Defined Storage (SDS), kündigte sich mit SDDC eine neue Ära des Rechenzentrums an. VMware will das große Ganze verändern, wie man Hardware und die darauf laufenden Applikationen behandelt.

Ein Software Defined Data Center ist ein Ort, in dem Elemente der Infrastruktur wie zum Beispiel Netzwerk, Storage, Prozessoren und Sicherheit virtualisiert sind. Diese Komponenten werden bei Bedarf als Dienste ausgeliefert. Der Betrieb der Infrastruktur ist dabei komplett automatisiert und durch Software gesteuert.

Als positiven Punkt kann man die Abstraktion zwischen der Hardware und den Applikationen in einer virtualisierten Umgebung herausstellen. Wäre das nicht der Fall, könnte Virtualisierung sein Versprechen nicht halten. Physikalische Hardware und Applikationen hängen zu einem gewissen Grad weiterhin voneinander ab. Eine Cloud lässt sich ohne eine Abstraktions-Schicht in keinster Weise implementieren.

Ein SDDC adressiert das eben genannte Problem. Das Zusammenspiel der Applikationen, das Ausrollen von Programmen, die Überwachung und das Lösen von Problemen liegen nun in einer Ebene oberhalb der physikalischen Plattform.

Für viele Firmen bedeutet das eine Migration bereits bestehender Lösungen, um die neuen Möglichkeiten der Virtualisierung optimal nutzen zu können. Dies kann durch Eigenentwicklungen oder Zukäufe erfolgen.

CA hat zum Beispiel kürzlich Layer 7 Technologies und Nolio akquiriert. Dieser Schritt ergänzt die früheren Einkäufe von 3Tera und Nimsoft, welche wiederum Lücken in den vorhandenen Lösungen Unicenter und Clarity geschlossen haben. IBM ist ebenfalls auf Shopping-Tour, die den Ausbau der hauseigenen Plattform Tivoli System Management unterstützen soll.

VMware versucht mit der eigenen vCloud, so viele Komponenten der IT-Umgebung wie möglich zu virtualisieren.

Dies kann allerdings einige Probleme ans Tageslicht bringen, die auf den ersten Blick nicht offensichtlich sind.

In einem Software-Defined Rechenzentrum müssen Administratoren die physikalischen und virtuellen Komponenten als eine Einheit verwalten können. Es ist kontraproduktiv, wenn ein Tool einen Fehler in der virtuellen Umgebung meldet und dieser in Wirklichkeit auf der physikalischen Schicht seinen Ursprung hat. Das Werkzeug hat in diesem Fall das Problem für sie nicht identifiziert. Funktioniert das Zusammenspiel der Tools für die virtuellen und physikalischen Umgebungen nicht, sind sie nutzlos.

Fehlende Standards können sich ebenfalls als Stolperstein entpuppen.

Der Begriff SDDC wurde erstmalig von VMware ins Spiel gebracht. Die Firma bekräftigte damals nachhaltig, dass das Produkt SDDC die Hypervisoren VMware ESX und ESXi mehr als andere unterstützen wird.

Konkurrenten werden versuchen, so viele Umgebungen wie möglich zu unterstützen. Verschiedene Funktionalitäten bei den unterschiedlichen Plattformen, wie zum Beispiel ESX, Microsoft Hyper-V und Citrix Xen, machen dieses Unterfangen in keiner Weise einfacher.

Die Problematik endet allerdings nicht bei den unterschiedlichen Hypervisoren. Nehmen Sie irgendein modernes System. Das könnte vBlock, Cisco UCS (Unified Computing System) oder vStart sein. All diese Systeme sind hochentwickelt und bieten eingebaute Management-Möglichkeiten an. Jedes übergreifende SDDC-System müsste sich mit den eben erwähnten verständigen können. Eine zweite Möglichkeit wäre, diese komplett außen vor zu lassen. Letzteres würde allerdings die Frage in den Raum werfen, warum man eine hochentwickelte Lösung überhaupt angeschafft hat.

Viele Hersteller untersuchen außerdem die Möglichkeiten, Grafik-Prozessoren (GPUs) in die eingesetzten Systeme zu integrieren. Damit lassen sich bestimmte Arbeiten auf Plattformen auslagern, die den Anforderungen dafür besser gerecht werden.

Andere, wie zum Beispiel Azul Systems, verwenden ganz spezielle Hardware, um Java-basierte Workloads nativ laufen zu lassen. Wie wahrscheinlich ist es, dass ein SDDC-System mit der bunten Mischung all dieser Komponenten umgehen kann?

Dann haben wir noch IBM mit seinen PureFlex-Systemen.

In diesem Fall sprechen wir nicht nur von einer eigenen Management-Lösung, sondern es ist auch noch unterschiedliche Hardware im Spiel. Von x86 über Power, bis zu diversen Mainframe CPUs ist hier einiges denkbar. IBM hat einen eigenen intelligenten Workload-Manager innerhalb PureFlex am Start. Ein SDDC-System müsste damit kommunizieren können.

Der Einfluss anderer SDxy oder „Software-Defined-Irgendwas“ ist ebenfalls zu untersuchen.

Im Idealfall deckt ein SDDC-System natürlich alles ab: Prozessoren, Storage und Netzwerke. SDN kocht allerdings sein eigenes Süppchen und entwickelt sich, verglichen mit einem Software-Defined Rechenzentrum, in einer anderen Geschwindigkeit.

Software-Defined Storage ist im Moment eine Nische für einige Anbieter. Sobald die Storage Networking Industry Association (SNIA) mehr Standards für Cloud Storage definiert, nimmt dieses Feld mit Sicherheit an Wichtigkeit zu.

SDDC an sich ist alles andere als eine schlechte Idee, denn genau so sollte die Cloud funktionieren. Das Problem ist, dass zu viele Anbieter andere Ansichten haben. Wie üblich fühlen sich diese nicht dazu genötigt, irgendwelche Standards zu 100 Prozent umzusetzen.

Die Realität sieht wohl so aus, wie man das schon oft gesehen hat. Anbieter werden ankündigen, SDDC unterstützen und verwenden zu wollen - natürlich mit einigen Extra-Funktionalitäten, die nur mit den hauseigenen Systemen funktionieren.

Auf lange Sicht gesehen könnte das Software-Defined Rechenzentrum eine Ansammlung an Management- und Implementierungs-Funktionen zur Verfügung stellen, an die sich Anbieter anflanschen und die Funktionalität mit eigenen Tools erweitern. Somit ließen sie sich mit jedem System betreiben und der Administrator könnte die komplette Infrastruktur überwachen.

Das ist technisch gesehen vielleicht nicht die eleganteste Lösung. Allerdings sollte das funktionieren und die Interessen von Anbietern und Kunden gleichermaßen vertreten.


Artikel wurde zuletzt im Mai 2013 aktualisiert

Ihre Meinung zum Artikel Kommentar

Teilen
Kommentare

    Ergebnisse

    Tragen Sie zu dem Gespräch bei

    Alle Felder sind erforderlich. Kommentare werden unterhalb des Artikels erscheinen.