Von DevOps bis Software-defined: Sechs Trends für das Data Center im Jahr 2015

Welche Trends bringt das Jahr 2015 für das Data Center? Wenn es nach unseren Experten geht, vor allem Open Source, DevOps und Software-defined.

Dieser Artikel behandelt

Data-Center-Design

ÄHNLICHE THEMEN

Wir haben Branchen-Experten und IT-Profis gefragt, was sie für das Jahr 2015 im Bereich Data Center erwarten. Flash-Storage,...

DevOps, neue Infrastruktur-Optionen im Data Center und der Anstieg von Open Source im geschäftlichen Umfeld waren ganz oben auf den Listen.

1. Open Source

Open-Source-Communities stellen sicher, dass die Entwicklung schnell voranschreitet. Ebenso gibt es immer neue Ideen, die meist komplett kostenlos sind. Dann und wann kann es in diesem Bereich aber auch etwas chaotisch zugehen. Das Betriebssystem Linux ist ein Beispiel für Open-Source-Software in der Enterprise-IT, für das es komplett kostenlose Optionen sowie kostenpflichtige Versionen mit Support gibt.

Die Mehrheit (95 Prozent) der IT-Abteilungen werden laut Gartner im Jahre 2016 verschiedene Open-Source-Elemente einsetzen, um damit unternehmenskritische Workloads zu betreiben. Das wäre gegenüber 2010 ein Anstieg um 20 Prozent. Somit müssen IT-Abteilungen sowohl offene als auch proprietäre Technologien unterstützen. Gartner warnt, dass Open-Source-Erstanwender diese Betriebsmittel üblicherweise beim Management stiefmütterlich behandeln.

„Immer mehr Workloads werden mithilfe von offenen Technologien betrieben“, sagt Adam Jollans, Linux und Open Source Strategy Manager bei IBM. „Dabei spielen nicht nur Linux und Apache, sondern zunehmend nun auch OpenStack, CloudFoundry, Hadoop, Docker und so weiter eine immer größere Rolle.“

Open Source wird sich in diesem Jahr in IT-Hardware manifestieren, angeführt vom Open Compute Project (OCP). Bisher hatte das OCP einen eher inspirierenden Charakter für die Unternehmens-IT unterhalb der Web-Struktur. So zumindest Jason Taylor, Vice President Infrastructure bei Facebook und Aufsichtsradmitglied des OCP. Er geht davon aus, dass offene Hardware in die IT-Abteilungen Einzug hält, um damit reale Probleme lösen zu können. Weiterhin sagt er ein Wachstum für Software-Provider voraus, die eine Appliance-Lösung anbieten.

2. DevOps

DevOps ist eine Strategie, um IT-Abteilung zu modernisieren und besser mit anderen Abteilungen zusammenzubringen. DevOps unterstützt zudem das Überleben traditioneller Unternehmen gegenüber Web-2.0-Unternehmen, so Shannon Poulin, Vice President der Data Center Group und Geschäftsführer von Intels Enterprise IT Solutions Group und Datacenter Marketing Group.

Was hemmt klassischerweise IT-Abteilung? In erster Linie nicht die veraltete Infrastruktur, die man recht schnell mithilfe von Einkaufszyklen von drei bis vier Jahren sanieren kann, erklärt er.

„Das Problem sind meist eher Prozesse, Methoden, Geschäftsmodelle und das Personalmanagement. Viele Mitarbeiter befinden sich in Silos und sind nicht eng genug mit der Geschäftseinheit verbunden“, fügt Poulin hinzu.

Die IT ist in einem Teufelskreis gefangen und soll immer mehr Leistungsfähigkeit liefern. Das Ganze noch am besten schneller und dabei mit weniger Kostenaufwand als bisher. Sie wissen dabei aber niemals, ob Sie die richtigen Leistungsmerkmale ausliefern oder die Kosten an der richtigen Stelle reduzieren. Mithilfe von DevOps können IT-Abteilungen schnell einen neuen und für den Geschäftsbetrieb notwendigen Service bereitstellen. Die Kosten sollten dabei sogar sinken, während mit DevOps die nötige Agilität gegeben ist, um in Zukunft auf unbekannte Situationen reagieren zu können.

„Wir sind [von komplett On-Premises-Rechenzentren] in die Cloud umgezogen, um schnelle Umsetzung von Innovationen und Skalierbarkeit zu ermöglichen“, erklärt Justin Franks, leitender Cloud-Techniker bei Lithium Technologies, einem Social-Software-Provider aus San Francisco. „Die alten Methoden funktionieren einfach nicht mehr gut und deswegen müssen wir auf ein DevOps-Modell setzen: Konfigurationsmanagement, Automatisierung, Chef und sehr viele Frameworks.“

Mit Service Discovery und Konfigurations-Tools wie zum Beispiel Consul von HashiCorp konnte Lithium 15 Prozent seiner Server in der Cloud und am Standort reduzieren. Neue Technologien, neue Denkprozesse und neue Betriebsarten bedeuten allerdings auch jede Menge Training und Veränderungen. Lithium betreibt zwar noch keine Continuous Integration oder Continuous Deployment, Franks hofft aber, dass DevOps im Jahr 2015 vollständig ankommt.

Die Experten von Gartner empfehlen, dass die IT-Abteilung zweigleisig fährt: Traditionelle Release-Zyklen für stabile Bestandssysteme und schnelle DevOps-Prozesse bei Systemen, bei denen es vor allem um Innovation geht.

Agile Methoden wie DevOps und standardisierte Frameworks wie zum Beispiel ITIL sind beides effiziente Mechanismen. Sie können sich entweder reiben oder zusammen am Erfolg beteiligt sein, so David Jones, leitender Consultant des ITIL-Tranings- und Zertifizierungs-Providers Pink Elephant in Großbritannien. Sie müssen nicht in Konkurrenz zueinander stehen, sondern dienen zwei Funktionen, die sich gegenseitig ergänzen.

„Agil bedeutet, dass Sie zu einem bestimmten Zeitpunkt spezifische Ergebnisse sehen wollen“, erklärt Jones. „IT-Service-Management dagegen schreibt vor, dass entsprechende Funktionen zuerst getestet werden müssen.“

3. Flexibilität durch Software-definierte Umgebungen

Software-definierte Hardware drehte sich ursprünglich vor allem um Konsolidierung. Zum Beispiel virtualisierte man 20 physische Server auf drei Host-Servern, auf denen 20 virtuelle Maschinen liefen. Die Software-definierte Infrastruktur im Jahr 2015 wird sich allerdings mehr um die schnelle Bereitstellung von Services und ein flexibles Back-End-System als um eine effektive Auslastung drehen.

„Ich sehe immer mehr Bandbreite für annehmbare Kosten, womit sich die lokale Haltung der Daten und einige Data-Storage-Kompromisse wie zum Beispiel Komprimierung transformiert“, führt Facebooks Taylor aus.

SDN (Software-defined Networking) und SDS (Software-defined Storage) werden sich nicht gleichmäßig in allen Data Centern durchsetzen. Zu den Branchen, die zum Beispiel sofort davon profitieren können, gehören Telekommunikationsunternehmen mit Software-definierten Netzwerken. Diese Branche dürfte die Technologien im Jahr 2015 schon alleine aus Bedarfsgründen annehmen.

„Statische, spezifische Hardware ist inzwischen nicht mehr länger die Norm,“ so Jollan. DevOps und flexible Infrastrukturen werden somit auch Veränderungen bei der Belegschaft mit sich bringen. Während die Anzahl der Server pro Administrator nach oben skaliert, bringen diese Trends auch Mobilität für die Workloads und dynamisches Workload-Management mit sich.

„Sie benötigen Leute, die das verwalten, und das sind möglicherweise mehr Menschen als Sie denken“, wirft Enzo Greco ein, Vice President und General Manager Software, Data Center Solutions bei Emerson Network Power.

IBMs Jollen rät entsprechend dazu, dass man im Jahre 2015 Pilotprojekte starten sollte und sich mit automatisierter Orchestrierung sowie den ständig umformenden Plattformen befassen sollte, sobald die Workloads das erfordern.

4. Modulare und hyperkonvergente Hardware

Neue und etablierte Hardware-Anbieter stellen modularere, konfigurierbare Methoden zur Verfügung. Es geht hier von hyper-konvergenter Infrastruktur bis zu OCPs disaggregated Racks, die Upgrades modularer machen.

„Seit 20 Jahren hängen wir an der Denkweise, dass Software an einen Server gebunden ist. [Durch disaggregated Hardware] präsentieren jetzt mehrere Computer einen Service“, erklärt Taylor. „Wenn Sie mehr von etwas benötigen, können Sie einfach einen Einschub mit Arbeitsspeicher hinzufügen. Sie müssen also keine 1.000 Server mehr öffnen und jedem mehr RAM spendieren.“

Das Konzept der Modularität weitet sich auch auf Prozessor-Ebene aus. Von Prozessoren erwartet man, dass sie spezielle Aufgaben erfüllen und andere an Co-Prozessoren auslagern. Während Single-Core-CPUs inzwischen an ihre Computing-Limits kommen, werden die Workloads immer breiter gefächert und leistungsintensiver. 

Somit werden Server laut IBMs Jollan auf eine gewisse Prozessor-Heterogenität setzen: x86, GPU, IBM Power und so weiter. Open-Source-Hardware auf Chip-Ebene und das OpenPOWER Consortium adressieren genau diesen Trend.

„Die Ansicht, dass Sie Computing-Ressourcen in einem bestimmten Baustein kaufen, wie zum Beispiel 1U- oder 2U-Rack-basierte Systeme mit X Prozessoren und Y Massenspeichern, wird in den kommenden fünf Jahren unter Druck geraten“, glaubt auch Intels Poulin.

2015 wird laut 451 Research das Jahr der konvergenten Infrastruktur. Die Enterprise-IT wird effizienter, indem man Computing-, Storage- und Networking-Ressourcen integriert, auch wenn dazu möglicherweise einige Anpassungen notwendig sind.

„Vergleichen Sie die Kosten einer konvergenten Hardware mit der eines herkömmlichen Servers, ergibt sich auf den ersten Blick ein riesiger Unterschied“, erklärt Steve Schaaf, CIO von Francis Drilling Fluids Ltd., einer Logistik-Service-Firma für Öl- und Gas-Transporte. 

Das Unternehmen ist im letzten Jahr von IBM Blade-Server auf SimpliVity OmniCube umgestiegen. „Wenn Sie aber die Kosten für Backups und Disaster Recovery in die Gleichung mit aufnehmen, oder das Upgrade von Storage, oder die hohen Wartungskosten, die ich bei einer konvergenten Infrastruktur nicht habe, dann lohnt sich der Umstieg.“

Schaaf machte sich damit frei vom regelmäßigen Server-Kauf und den Upgrade-Zyklen für Storage und hat in mehr OmniCube-Kapazität investiert, sobald neue Projekte wie beispielsweise eine virtuelle Desktop-Infrastruktur, danach verlangt haben.

5. Flash-Storage gegen Performance-Flaschenhälse

Das Storage für das Data Center hat in den letzten Jahren eine enorme Evolution durchgemacht. Von herkömmlichen Festplatten ging es über SSDs (Solid-State Drives) bis hin zu NVM (Non-Volatile Memory). Für das Jahr 2015 darf man erwarten, dass NVM überall dort Einsatz findet, wo es einen Flaschenhals gibt. Die weitere Verbreitung von Flash wird Unternehmen zudem veranlassen, noch mehr Daten je nach Performance-Anforderungen zu segmentieren.

„Flash hat sich für unsere Datenbanken als wegweisend erwiesen. Sie sind reaktionsfreudiger, haben weniger Ausreißer und geringere Latenz“, erklärt Facebooks Taylor. „Das ändert komplett, was Applikationen leisten.“

Aber auch kleinere IT-Abteilungen profitieren von Flash. Die Steuerberatungsfirma Thomas, Judy and Tucker P.S. hat in diesem Jahr von Direct-attached Storage mit herkömmlichen Festplatten auf StorTrends 3500i Storage-Array mit Flash- und Festplatten-Storage via iSCSI- und 1-GbE-Verbindungen umgestellt.

„Die Direct-attached-Kapazität hat uns an der Expansion gehindert,“ sagt Drew Green, IT-Director des Unternehmens. „Snapshots bei unternehmenskritischen virtuellen Maschinen haben die Applikationen bis zur Unbrauchbarkeit verlangsamt“, fügt er an.

Green hat einige der entscheidenden virtuellen Maschinen auf das Flash-Tier verlagert und weist die am meisten verwendeten Daten einer mit Solid-State Storage realisierten Caching-Schicht zu. „Wir führen den ganzen Tag Snapshots durch und es gibt keine merklichen Verlangsamungen mehr.“

Laut Poulin ändern Hardware-Anbieter vermehrt ihre Konfigurationen, um Flash-Geräte via PCIe-Schnittstellen für schnelleres Storage zu unterstützen. Das hilft bei Szenarien, bei denen man große Mengen an Storage benötigt. Big-Data-Analytik wäre so ein Fall.

Taylor erwartet einen erhöhten Einsatz bessere PCIe-Karten. Es hört aber nicht bei PCIe oder Flash auf, man brauche auch neue Arten an NVM, die nach Meinung von Experten direkt mit den Prozessoren verbunden werden müssen.

6. Gebäude- und Infrastruktur-Management wachsen zusammen

Egal ob es sich um ein eigenes Data Center oder um Platz in einem Colocation-Gebäude handelt, die eigene Infrastruktur sollte stets überwacht und im Auge behalten werden.

Bei eigenen Data Centern gilt dies vor allem auch für den Energieverbrauch. Das geht bis auf die Ebene der Betriebsmittel, damit man die physische mit der IT-Ebene in Einklang bringen kann. Dieser Meinung ist Phil Fischer, Data-Center-Segment-Manager der Eaton Corporation, die Infrastruktur im Energiebereich zur Verfügung stellt.

Sowohl die IT-Abteilung als auch das Gebäudemanagement wollen in diesem Punkt einen besseren Überblick und mehr Klarheit. Im Jahre 2015 werden Unternehmen daher die Art und Weise wesentlich verbessern, wie sie das Monitoring auf Geräteebene besser mit Data Center Infrastructure Management (DCIM) und Gebäudemanagement integrieren.

„Das schreit förmlich nach einer stärkeren Integration“, erklärt Emersons Greco, „da das Data Center noch immer eine sehr Hardware-lastige Einrichtung mit wenig Monitoring und Management ist.“

Folgen Sie SearchDataCenter.de auch auf Facebook, Twitter und Google+!

Artikel wurde zuletzt im Januar 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Design

Dem Gespräch beitreten

1 Kommentar

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

Hallo zusammen,
sehr interessant, herzlichen Dank dafür. Im Artikel wird von hohen Bandbreiten, immer schnellere Maschinene. usw. gesprochen. Das ist sicherlich die Zukunft. Es geht ja auch nicht ohne. Worüber leider nicht gesprochen wird ist das "Nervensystem" eines jeden Rechenzentrums, "Die Verkabelung" ohne die geht leider nichts, wird aber immer wieder gerne vernachlässigt. Am Beispl. des Menschlichen Körpers ist doch auch zu erkennen, dass es ohne ein gesundes Nervensystem kein, oder nur ein eingeschränktes Leben gibt. Vielleicht berücksichtigen Sie das Thema bei einer Ihrer weiteren Befragungen.
Gerne bin ich bereit Ihnen hierfür zur Verfügung zu stehen um wichtige Fragen zu beantworten.
Christian.meiserhubersuhner.com
Ein internettes Grüßle von mir
Christian Meiser
Abbrechen

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchEnterpriseSoftware.de

Close