JNT Visual - Fotolia

Einführung in die Vorteile und Grenzen von Composable Infrastructure

Auf Hyperkonvergenz und Software-defined folgt Composable Infrastructure. Derzeit plagen den jungen Markt aber noch so einige Probleme.

Während Technologien wie die Virtualisierung, konvergente IT-Produkte oder auch Software-definierte Infrastrukturlösungen das Workload-Provisioning beschleunigen und das Ressourcen-Management verbessern, wird die heutige IT noch immer von Silos und der andauernden Trennung von Hardware und Software begrenzt.

Composable Infrastructure, oft auch als disaggregierte Server bezeichnet, könnte dieses Problem als nächste Evolutionsstufe der Data-Center-IT lösen. Dabei handelt es sich im Kern um Software-definierte Infrastruktur (SDI), mit der sich Ressourcen in Minuten skalieren und als Service bereitstellen lassen.

Wie funktioniert Composable Infrastructure?

Konvergente und erst recht hyper-konvergente Infrastrukturlösungen stellen einen großen Schritt vorwärts dar und verdeutlichen den großen Wert von integrierter Hard- und Software – hyperkonvergente Produkte vereinen Server-, Storage- und Netzwerkhardware zusammen mit einer einheitlichen Management- und Virtualisierungs-Schicht. (Hyper-)Konvergenz erstreckt sich aber in den allermeisten Fällen nur auf die Produkte eines einzelnen Herstellers und bindet selten auch konkurrierende oder ergänzende Produkte oder Systeme mit ein. Irgendetwas fehlt hier also immer.

Ein weiterer Fortschritt sind Software-definierte Infrastrukturen. Diese Technologie hat bereits mehrere Iterationen hinter sich und beinhaltet heute meist Software-defined Storage (SDS) und Software-defined Networking (SDN). Trotzdem integrieren all diese Ansätze in der heutigen Form ebenfalls nur einen Teil der Infrastruktur, während das ultimative Ziel darin bestehen muss, alle Komponenten eines Rechenzentrums anzusprechen, zu koordinieren und zu verwalten.

Composable Infrastructure geht hier einen anderen Weg. Anstatt Compute- oder Storage-Ressourcen aus bestimmten, unterschiedlichen Systemen herauszunehmen, nutzt Composable Infrastructure Software, um alle Ressourcen in einem Data Center zu registrieren und anschließend zu einem großen logischen Pool zusammenzuführen – egal wo sich die Ressourcen physisch befinden und welche Hardware darunter liegt. Anschließend werden diese Pools in Service-Tiers angeordnet und über hochintegrierte und automatisierte Tools als Compute-, Storage- oder Netzwerkservice ausgeliefert.

Dem englischen Wortsinn von „compose“ – zusammensetzen – nach können Administratoren so tatsächlich Infrastruktur On-Demand je nach Bedarf aus den Ressourcen-Pools frei zusammensetzen und mit beliebigen Service-Leveln einem Workload zur Verfügung stellen. Anders als bei Konvergenz und Hyperkonvergenz wird bei Composable Infrastructure und disaggregierten Servern wieder der andere Weg eingeschlagen: Es geht nicht mehr um eine möglichst enge Integration der Hardware auf einer Plattform, die Hardware wird vielmehr wieder in separate Ressourcen-Pools für Compute, Storage und Netzwerk aufgeteilt, um sie nach Bedarf neu anordnen zu können. Auch hier müssen sich Administratoren nicht darum kümmern, welche Server-, Netzwerk- oder Disk-Hardware jeweils im Einzelnen im Spiel ist.

Composable Infrastructure verbindet in diesem Sinne verschiedene IT-Konzepte wie Infrastructure as Code (IaC), Sofware-defined Infrastructure, Software-defined Data Center (SDDC), Disaggregation oder auch Software-defined Everything.

Was unterscheidet Composable Infrastructure von Virtualisierung und SDI?

Virtualisierung ist die Basis für Software-definierte Infrastrukturen, deren Vorteile wiederum Composable Infrastructure nutzt. Die Virtualisierung abstrahiert Workloads von der darunter liegenden Hardware. Damit kann beispielsweise durch Server-Konsolidierung der Verbrauch physischer Ressourcen optimiert werden, gleichzeitig lassen sich so virtuelle Maschinen problemlos zwischen lokalen und entfernten Servern migrieren, eine Anwendung ist also nicht mehr an eine physische Maschine gebunden.

Bei all diesen Vorteilen müssen virtuelle Maschinen auf dieser Stufe aber noch immer manuell provisioniert werden. Damit wird die Notwendigkeit für eine weitere Abstraktionsschicht deutlich, die durch Software-definierte Infrastrukturen Einzug in moderne Data Center hält.

SDI hat sich über Software-defined Storage und Software-defined Networking bis hin zum Software-defined Data Center weiterentwickelt. All diese Technologien setzten auf ein Software-Framework auf, mit dem sich über die Virtualisierung logische Entitäten – beispielsweise virtuelle Maschinen oder virtuelle Netzwerksegmente – von der physischen Hardware abstrahieren lassen.

Die jüngste Weiterentwicklung Software-definierter Infrastrukturen geht in der Abstraktion der Software von der Hardware noch einen Schritt weiter und ermöglicht so als Composable Infrastructure das freie Zusammensetzen gerade benötigter Ressourcen aus großen Ressourcen-Pools.

Gibt es bereits kommerzielle Produkte im Bereich Composable Infrastructure?

Schon heute gibt es einige Hersteller, die Composable Infrastructure verkaufen, darunter zum Beispiel Cisco und HPE. Von Cisco wurde ursprünglich die M-Serie des Unified Computing System (UCS) für Composable Infrastructure angekündigt. Inzwischen verweist Cisco allerdings auf die C-Serie an Rack-Servern und an die B-Serie an Blade-Servern.

HPE konzentriert sich bei Composable Infrastructure ganz auf seine Synergy-Plattform. HPE Synergy bietet Compute-, Storage- und Netzwerk-Fabric als disaggregierten Ressourcen-Pool, aus dem sich über eine Softwareschicht bedarfsgerecht für jeden beliebigen Workload Infrastrukturen erstellen lassen. Da Composable Infrastructure für die Automatisierung und Bereitstellung sehr von Software abhängt, liegt dabei ein großer Fokus auf den Programmierschnittstellen, über die sich die Plattform mit Drittanbieter-Tools integrieren lässt.

Andere Anbieter wie Dell sind derzeit noch nicht mit Composable Infrastructure auf dem Markt und konzentrieren sich eher auf alternative modulare Ansätze zur weiteren Abstraktion der physischen Infrastruktur. VMware hat mit EVO SDDC eine Art Referenzprodukt auf den Markt gebracht, dass OEM-Partner von VMware mit konkreten Produkten füllen. EVO SDDC ist dabei durchaus dem Bereich Composable Infrastructure zuzuordnen, auch wenn beispielsweise HPE Synergy über die Möglichkeiten von EVO SDDC hinausgeht, da hier auch Bare-Metal-Ressourcen bereitgestellt werden können.

Welche Beschränkungen gehen mit Composable Infrastructure einher?

Die größte Hürde, mit der Composable Infrastructure derzeit zu kämpfen hat, ist der drohende Vendor-Lock-in. Derzeit gibt es nur eine kleine Anzahl an Herstellern, wodurch sich noch kein industrieweiter Standard entwickeln konnte. Daher treibt aktuell noch jeder Hersteller seine eigenen Produkte und Standards voran, wodurch die daraus entstehenden Lösungen proprietär und monolithisch sind.

Composable Infrastructure muss aber offen und interoperabel ausgelegt sein. Immerhin besteht das Ziel ja darin, automatisch jede beliebige Hardware von jedem Hersteller zu umfassenden Ressourcen-Pools vereinen zu können. Composable Infrastructure sollte für White-Box-Hardware genauso funktionieren wie für proprietäre Hardware großer Hersteller.

Auch der Software-Stack macht heute aber noch Probleme. Bei Composable Infrastructure kommen Programmierschnittstellen zum Einsatz, um die Ressourcen zu verwalten und zuzuteilen. Diese APIs müssen einfach, offen und erweiterbar sein, damit Entwickler über Code die Infrastruktur ansprechen können. Der so entstandene Code sollte auf jeder Composable-Infrastructure-Plattform gleichermaßen funktionieren.

Ein weiteres Problem betrifft zusätzliche Softwarekomponenten, beispielsweise bei Virtualisierung, Automatisierung oder Orchestrierung, die Admins vor einem Einsatz mit Composable Infrastructure sorgfältig überprüfen müssen. Jedes Problem kann sich unmittelbar auf die Composable-Infrastructure-Plattform auswirken und im schlimmsten Fall den Ausfall der kompletten Ressourcen-Pools nach sich ziehen.

Auch im Softwarebereich ist aber natürlich ordentlich Bewegung. Standards wie beispielsweise DMTFs Redfish API werden allmählich immer weiter ausgeweitet, um auch möglichst alle Komponenten eines Data Centers über eine einzige, konsistente API registrieren, inventarisieren, konfigurieren, organisieren, orchestrieren und überwachen zu können. Andere Softwareplattformen wie OpenStack kommen häufig für SDI-Funktionen wie Orchestrierung und Automatisierung zum Einsatz. Trotzdem wird es so schnell keine industrieweiten Standards für Composable Infrastructure geben.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+, Xing und Facebook!

Artikel wurde zuletzt im Februar 2017 aktualisiert

Erfahren Sie mehr über x86-Rack-Server

Dem Gespräch beitreten

1 Kommentar

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

In der guten alten Zeit gab's nur konvergente Systeme: Jeder Rechner hatte seine eigenen Speicher- und Kommunikationssubsysteme, da war alles aus einem Hand und ließ sich recht einfach verwalten.

Mit dem Siegeszug der PC's kam dann das Client/Server-Prinzip auf, und clevere Sparfüchse erkannten dass man eigentlich gar keine richtigen Rechner mehr braucht wenn man etliche PC's hochkant stellt und ihnen Bildschirm und Tastatur wegnimmt - der Server war geboren. Was damals als schlichte Regallösung in der hintersten Ecke des Rechenzentrums begann sieht heute in den Serverracks sehr professionell aus und hat in vielen Fällen das gesamte RZ erobert - nur die den PC's innewohnende IT-Funktion ist im wesentlichen die gleiche geblieben.

Dann kam die Mode auf, Server und Speichersysteme strikt voneinander zu trennen - was vor allem zusätzliche Arbeitsplätze und mehr Kommunikationsbedarf innerhalb der RZ-Mannschaft mit sich brachte.

Daraufhin folgte der Trend, diese Trennung wieder aufzuheben und mittels konvergenter Systeme die benötigten Systemkomponente wieder zusammenzubringen. In etwa zeitgleich kam auch die Virtualisierung auf, durch Einfügen zusätzlicher Softwareschichten wurde die Komplexität der IT weiter erhöht wodurch dann der Nutzen konvergenter Systeme teilweise überdeckt wurde.

Voll im Trend liegt heute die Hyperkonvergenz: Server-, Speicher- und Kommunikationskomponenten sind mittlerweile so stark geschrumpft dass man etliche von ihnen ohne große Mühe in einen typischerweise zwei Höheneinheiten messenden Einschub hineinquetschen kann. Die Marketingleute versprechen auch, dass man mittels ihrer cleveren Managementsoftware die in den verschiedenen hyperkonvergenten Einschüben befindlichen Komponenten einzeln nutzen und auch beliebig miteinander verknüpfen könne. Die Virtualisierung tut ein übriges, Flexibilität und Agilität sind kaum noch zu steigern ...

Als nächster Hype wird nun die "composable infrastructure" propagiert - bei genauerer Betrachtung eine etwas komplexere Bladearchitektur, bei der etliche kleine Hardwarekomponenten in entsprechende Einschubpositionen innerhalb eines größeren Blades gesteckt werden können. Selbiges ist auf Teleskopschienen ausziehbar, und das Ein- und Ausbauen von Komponenten kann wohl auch im laufenden Betrieb erfolgen. Für den Hardwarefreak ist dies sicher eine tolle Sache, nur vielleicht etwas teuer und aus der Sicht des Software Defined Data Center nicht unbedingt notwendig - bei Einsatz hyperkonvergenter Systeme sollte sich der gleiche Effekt per Mausklick erzielen lassen. Aber vielleicht schaffte es ja noch jemand, den Nutzen der „composable infrastructure“ zu erläutern.

Abbrechen

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchEnterpriseSoftware.de

Close