AWS startet neue EC2-Instanzen und Data Pipeline für Big Data

Amazon stellt zwei Data-Services zur Daten-Analytik und Data-Mining sowie eine Data Pipeline vor. Damit fällt es Kunden leichter, ihre Daten optimal zu nutzen

Amazon Web Services (AWS) hat neue Dienste eingeführt: Zwei neue EC2-Instanzen für Anwendungen und Analytik-Workloads, außerdem AWS Data Pipeline, einen Web-Service, mit dem Unternehmen Daten über unterschiedliche Systeme hinweg bewegen können.

Vorgestellt wurden die neuen Instanz-Typen im Rahmen von Elastic Compute Cloud (EC2) auf der re: Invent, der ersten Anwender-Konferenz von AWS. Sie sollen Unternehmen dabei helfen, neue anspruchsvolle Anwendungen rasch zu realisieren, sagte dort der AWS-Technologiechef Werner Vogels. Die neuen Instanzen für Analytik tragen die Bezeichnungen Cluster High-Memory EC2 Instance und High-Storage EC2 Instance.

„Für Unternehmen, die bisher Probleme hatten, extrem umfangreiche Analysen durchzuführen, ist High-Storage EC2 genau das Richtige“, sagte Vogels. Die neue Storage-Instanz bietet bis zu 48 TB an Kapazität. Cluster High-Memory wiederum richtet sich an Unternehmensanwender, die Anwendungen mit besonders hohen Arbeitsspeicher-Anforderungen entwickeln.

Außerdem stellte Vogels Amazon Data Pipeline vor. Der Cloud-Dienst zur Datenintegration soll Unternehmen dabei unterstützen, automatisierte und zeitlich vorausgeplante Datenströme zu realisieren. Laut Vogels ist er für die Automatisierung von Big-Data-Workflows im Bereich Business Intelligence geeignet. „Data Pipeline ist mit bestehenden AWS-Datenquellen vorintegriert und lässt sich auch mit anderen externen und unternehmensinternen Quellen verwenden“, sagte Vogels.

Einfaches Interface

Vorgeführt wurde der Dienst von Matt Wood, Chef-Datenwissenschaftler bei AWS. Wood zeigte das einfache Drag-and-Drop-Interface, mit dem Nutzer eine Daten-Pipeline erzeugen und Daten-intensive Programme zeitlich planen können.

Kyle Hilgendorf, leitender Research-Analyst bei Gartner, bezeichnete die Bedienung von Data Pipeline als „sauber und einfach“. „Ich hoffe, dass das GUI von AWS Data Pipeline als Vorschau auf die Zukunft der AWS-Managementkonsole ist“, sagte er.

Mit dem Dienst lassen sich auch tägliche und wöchentliche Analytik-Berichte für Daten-Analysen generieren. „Wir bekommen häufig dieselbe Anfrage von Kunden: Sie wollen wissen, wie sich die Replikation der Datenbank Dynamo DB zu Amazon S3 automatisieren lässt“, sagte Wood. Mit Data Pipeline werde jetzt genau das möglich.

In der Cloud gibt es sehr unterschiedliche Systeme zur Datensammlung, darunter DynamoDB, Amazom Simple Storage Service (Amazon S3), Amazon Elastic MapReduce (EMR) und neuerdings auch Redshoft, der neue Data-Warehouse-Dienst von Amazon. Dadurch kann es schwierig sein, alle Daten aus all diesen Quellen zu integrieren, sagte Wood. „Data Pipeline hilft Unternehmen, diese Big-Data-Herausforderung zu meistern und die einzelnen Daten an einem Ort zu konsolidieren.“

IT-Architektur und Anwendungen für das 21. Jahrhundert

In seiner Keynote sprach Vogels über seine Vision für Anwendungen und IT-Architektur im 21. Jahrhundert. „Neue Anwendungen müssen widerstandsfähig, Daten-getrieben, anpassungsfähig und kontrollierbar sein“, sagte er.

Den Punkt „kontrollierbar“ erläuterte Vogels als auf die Kosten bezogen: IT-Architekturen im 21. Jahrhundert müssten „kostenbewusst“ sein, worauf schon bei der Entwicklung zu achten sei. Auch sollten Unternehmen kontinuierlich die gesamte Vertriebskette für Anwendungen im Auge behalten und alles in Log-Dateien aufbewahren (Daten-Getriebenheit).

„Fehler im Code kann es immer geben“, erläuterte Vogels weiter, „gehen Sie nicht davon aus, dass das nur Ausnahmen sind. Aus diesem Grund sollten Sie bei der Entwicklung von Anwendungen an Widerstandsfähigkeit denken“.

Kein Platz für Bauchgefühl

Als letzten Punkt drängte Vogels Unternehmen dazu, nicht einfach mit Annahmen zu arbeiten, und empfahl ihnen, in Zeiten raschen technologischen Wandels anpassungsfähig zu bleiben. „Verlieben Sie sich nicht in Ihre IT-Infrastruktur. Server erwidern Ihre Liebe nicht“, sagte er.

Ebenfalls angesprochen wurde das Thema Cloud-Sicherheit. „Als Amazon.com entschied, alle seine Dienste in die AWS-Cloud zu verlagern, haben wir beschlossen, alles zu verschlüsseln – während der Übertragung, aber auch bei der Aufbewahrung“, sagte Vogels. Nach seinen Worten sollten Unternehmen erwägen, Sicherheit von Anfang an in ihren Anwendungen zu berücksichtigen.

„In der alten Welt war alles auf Technologie konzentriert“, so der AWS-Cheftechnologe. In der neuen Welt von heute aber sei alles auf das Geschäft konzentriert, und IT-Architekturen und Anwendungen müssten aus dieser Perspektive entwickelt werden.

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Public-Cloud-Infrastruktur

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchEnterpriseSoftware.de

Close