Effiziente Hybrid-Cloud-Planung bringt Kostenvorteil und Skalierbarkeit

Viele Unternehmen zögern mit dem Schritt in die Hybrid Cloud. Mit der richtigen Planung bietet die Cloud aber Kostenvorteile bei hoher Skalierbarkeit.

Viele Jahre lang haben sich Unternehmen auf bewährte lokale Bereitstellungen von Anwendungen verlassen. Die Ausweitung...

hybrider Cloud-Ansätze ergänzt die Möglichkeiten allerdings um interessante neue Optionen.

Die Kombination aus On-Premises und Off-Premises betriebenen Compute-Umgebungen kann bei der Einsparung von Kosten helfen – eine oft an IT-Abteilungen herangetragene Aufgabe. Systeme, Netzwerke und Speichertechnologien stehen in raschem Wandel, und viele Unternehmen können mit der Geschwindigkeit dieser Fortschritte einfach nicht mithalten. Gleichzeitig sind Stromversorgung und Kühlung ebenfalls bedeutsame Kostenfaktoren im Data Center und setzen von Entwurf und Implementierung bis hin zu Betrieb spezifisches Fachwissen des Personals voraus.

Ein hybrider Cloud-Ansatz kann die Kosten eines Unternehmens für Energie und Kühlung deutlich reduzieren. Dennoch zögern noch viele Firmen mit dem Schritt in die Hybrid Cloud, weil das Konzept entfernt in fremden Rechenzentren betreuten IT-Equipments vielen Administratoren noch immer nicht ganz geheuer erscheint.

Die Cloud-Zurückhaltung ist eine Tatsache

Oft zögern Unternehmen, die physische Kontrolle über On-Premise-Hardware und die damit zusammenhängenden Workloads abzugeben. Meist ganz einfach aus Sorge vor unkontrollierbaren Kosten, schwacher Leistung und möglichen Sicherheitsproblemen in der Cloud. Unternehmen, die in hochregulierten Branchen arbeiten, Vorschriften zur nationalen Datenhaltung unterliegen oder Grundsätze der Unternehmensführung zu erfüllen haben, fürchten sogar den Bruch bestehender Gesetze.

Manche Unternehmenslenker sind zudem besorgt, über unzureichend Erfahrung und Wissen über die korrekte Analyse von Ausgaben und operationalen Kosten zu verfügen – ein beim Cloud-Computing sehr zentraler Aspekt.

Diese Sorgen sind durchaus berechtigt, aber sie können angegangen und gelöst werden. Eine gute Fortbildung der Entscheidungsträger kann hier viel zum Verständnis von Cloud-Computing beitragen und dessen Natur als weitere Art des Outsourcings verdeutlichen.

Eine Analyse der IT-Workloads zeigt meist sehr effektiv, welche Workloads am besten lokal gehostet werden sollten, und welche problemlos in Colocation oder in der Cloud gehostet werden können. Hochgradig proprietäre oder tiefgreifend regulierte Vorgänge eignen sich am ehesten für On-Premise-Infrastrukturen. Generische Lasten wie etwa Collaborative Computing, Messaging oder Customer Relationship Management sind dagegen erstklassige Kandidaten für die Cloud.

Die Nutzung des Data Centers eines Service-Providers drückt Kosten für Immobilien, Systeme und Softwarelizenzen und setzt IT-Personal frei, das anderweitig eingesetzt oder eingespart werden kann. Vereinfacht ausgedrückt sorgen Cloud-Service-Provider für die notwendigen Computing-Ressourcen bei Auslagerung der Betriebsverantwortung an Dritte.

Unternehmen in Branchen wie Produktion, Gesundheits- oder Finanzwesen könnten sich beispielsweise dazu entscheiden, sich auf ihre Kernkompetenzen zu konzentrieren, statt Zeit und Ressourcen in den Betrieb eigener Rechenzentren zu investieren. Wäre es nicht besser, nur für den Anteil eines Data Centers bezahlen zu müssen, der aktuell gerade benötigt wird? Diese Frage hat durchaus ihre Berechtigung.

Die sorgfältige Bedarfsplanung eines Unternehmens und der aktuellen IT-Landschaft ist ein wichtiger Schritt während der Entscheidungsfindungsprozesse. Unternehmen stellen dabei häufig fest, dass sie zu viele Data Center betreiben, zu viel Rechenzentrumsfläche nutzen oder Anlagen betreiben, die einer Erneuerung oder Konsolidierung bedürfen.

Strategische Fragen zur Hybrid Cloud

Unternehmen nehmen die Notwendigkeit einer fundierten Strategie oft nicht ernst genug, bevor sie sich für Architekturen und Technologien eines Data Centers entscheiden. IT-Planer haben diverse Aspekte zu berücksichtigen, wenn sie eine Data-Center-Strategie entwerfen. Im Folgenden listen wir einige der wichtigsten Fragen auf, die hierbei zu bedenken sind:

  • Welche Anwendungen und welche Workloads werden für den Geschäftserfolg benötigt? Welchem Lebenszyklus unterliegt jede dieser Anwendungen?
  • Welche Voraussetzungen bestehen bezüglich Leistung, Verfügbarkeit, Zuverlässigkeit, Beweglichkeit oder regulatorischer Anforderungen?
  • Sind die Anwendungen plattformneutral oder gibt es bestimmte Anforderungen an Systemarchitektur, Betriebssystem, Anwendungs-Frameworks, Datenbanken, Netzwerk oder Speichertechnologie?
  • Würden sich diese Anwendungen in einer virtuellen Maschine oder Betriebssystempartition ausführen lassen?
  • Welches Größenwachstum der Anwendung wird für das kommende Jahr erwartet bezüglich Prozessor, Arbeitsspeicher, Massenspeicher oder Netzwerk? Welches in den kommenden fünf Jahren? Welches in zehn?

Für die Definition der korrekten IT-Strategie bedarf es in der Regel ausgewiesener Expertise in unterschiedlichen Systemarchitekturen, verteiltem Computing, Betriebssystemen, Entwicklungs-Tools und -Umgebungen, Tools zur Datenbankverwaltung, Virtualisierungs-Software, Verwaltungs-Software, Netzwerk, Speicher und im operativen IT-Geschäft. Auch Expertise in Kühlung, Stromversorgung, Kommunikation und anderen Bereichen ist essentiell für die Ausarbeitung eines haltbaren Plans.

Viele Unternehmen haben keine ausreichende (wenn nicht gar keine) Expertise in diesen Bereichen, um eine entsprechend gründliche Planung zu leisten. An dieser Stelle kann ein externer Partner mit praktischer Erfahrung die Entscheider mit realistischen und tragfähigen Prognosen, Modellen und Kostenschätzungen unterstützen.

Heutzutage werden Anwendungen für die Ausführung auf verteilten Systemen konzipiert, wobei jede Komponente davon in unterschiedlichen Data Centern gehostet werden könnte. Statt auf die Leistung eines einzelnen Systems zu setzen, werden neue Anwendungen für eine Vielzahl von Transaktionen oder die Verwaltung enormer Datenmengen skalierbar entworfen.

Prozessoren werden immer schneller, kleiner, verbrauchen weniger Energie und benötigen daher oft weniger Kühlung. Auch Speicherplatz entwickelt sich rasend schnell weg von rotierenden Medien und hin zu verschiedensten Halbleitertechnologien. Auch hier ist entscheidend, dass kleinere und schnellere Speicher weniger Energie und Kühlung benötigen.

Data Center müssen für die Unterstützung heute gängiger Systeme geeignet und auch für zukünftige Veränderungen vorbereitet sein. Unternehmen sollten Rechenzentren daher regelmäßig daraufhin überprüfen, ob sie unterversorgt, überversorgt oder inzwischen gar gänzlich unnötig sind. Die Hybrid Cloud kann im Bedarfsfall eine kostengünstigere Alternative darstellen als lokal installierte Hardware.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im September 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Private-Cloud-Infrastruktur

0 Kommentare

Älteste Beiträge 

Passwort vergessen?

Kein Problem! Tragen Sie Ihre E-Mail-Adresse unten ein. Wir werden Ihnen eine E-Mail mit Ihrem Passwort schicken.

Ihr Passwort wurde an die folgende E-Mail-Adresse gesendet::

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchEnterpriseSoftware.de

Close