spainter_vfx - stock.adobe.com

Petaflops war gestern: Supercomputer werden leistungsfähiger

Seit Jahrzehnten wetteifern Anbieter und Nationen um Spitzenleistungen bei Supercomputern. Neue Technologien sollen die heutige Leistung vertausendfachen.

Ende Juni knallten am Oak Ridge National Laboratory die Sektkorken. Zum ersten Mal nach sechs Jahren übernahmen US-Amerikaner wieder die Spitze auf der Liste der schnellsten Supercomputer der Welt.

Das neue System mit dem Namen Summit schafft 122,3 Petaflops und übertrifft das bis dato führende System, den chinesischen Sunway Supercomputer, um knapp 30 Petaflops. Platz drei geht ebenfalls an die USA (Sierra mit 71,6 Petaflops) und Platz vier an China (Tianhe-2A mit 61,4 Petaflops). Auf dem fünften Platz folgt mit einem deutlichen Abstand Japan (AI-Bridge mit 19,9 Petaflops).

Exaflops im Visier

Doch diese Systeme werden bald schon übertrumpf, denn die neue Generation an Supercomputern wird in Exaflops gemessen. Das sind eine Milliarde mal eine Milliarde, also zehn hoch 18, Floating-Point-Operationen pro Sekunde. Oder, anders ausgedrückt, wenn jeder Mensch auf der Erde fünf Jahre lang ununterbrochen jede Sekunde eine arithmetische Operation ausführt, wäre am Ende genau so viel geleistet, wie eine Exaflop-Maschine in einer Sekunde schafft.

Bis 2021 soll das erste System mit dieser Leistungsfähigkeit verfügbar sein. Europa, Japan, China und die USA befinden sich hier in einem ehrgeizigen Wettrennen, um die Exascale-Marke als erster zu durchbrechen. Derzeit sieht es nach einem Kopf-an-Kopf-Rennen zwischen China und den USA aus. Beide Länder planen die Inbetriebnahme einer solchen Maschine in drei Jahren. Japan und Europa werden dann ein oder zwei Jahre später folgen. Das US-System wird unter dem Projektnamen Aurora von Cray Research und Intel gemeinsam entwickelt.

Dreidimensionale Chips

Um diese neue Leistungsstufe erreichen zu können, gibt es verschiedene Ansätze. So hat die Forschungsagentur des Pentagon, DARPA, zwei Projekte gestartet, für die 1,5 Milliarden Dollar bereitgestellt wurden. Beide zielen darauf ab, die Leistungsfähigkeit von Supercomputern deutlich zu erhöhen.

Beim Projekt ERI (Eletronics Resurgence Initiative) geht es um die Entwicklung eines dreidimensionalen System on a Chip (3 Dimensional Monolithic System on a Chip, 3DSoC). In der Projektbeschreibung heißt es unter anderem, dass man „Materialien, Tools und Fertigungsverfahren entwickeln will, um vertikal integrierte Chips zu schaffen, die neben dem Prozessor auch noch Memory und I/O-Teile enthalten“. Dadurch wird die Transferzeit zwischen den drei Hauptkomponenten (Prozessor, Speicher, Input/Output) drastisch reduziert. Bei DARPA erhofft man sich davon eine Leistungssteigerung um den Faktor 50, eine deutliche Steigerung der Energieeffizienz sowie einer I/O-Bandbreite von 50 Terabits pro Sekunde.

Abkehr vom von-Neumann-Flaschenhals

Das zweite DARPA-Projekt läuft unter dem Akronym FRANC (Foundations Required for Novel Compute). Hierbei handelt es sich mehr um Grundlagenforschung im Bereich der fundamentalen Funktionsweise von Computern. Dazu gehört zum Beispiel die Ablösung der von-Neumann-Architektur, insbesondere dem sogenannten von-Neumann-Flaschenhals, also dem Verbindungssystem zwischen dem Prozessor und dem Datenspeicher.

„Wir experimentieren mit Memory-zentrierten Architekturen, bei denen wir neue Non-Volatile-Storage-Chips testen, die genauso schnell sind wie heutige SRAMs“, sagt Y.K. Chen, Projektleiter bei DARPA. Zu den Technologien, die man hier testet, gehören unter andern Mott Memory, Kohlenstoff-Memory, Molekül-Memory und Ferro-elektrische Tunnel-Einspritzungen.

Kurzfristig wird sich das aber nicht auf Supercomputerlandschaft auswirken. Das 3DSoC-Projekt ist auf einen Zeitraum von 4,5 Jahre ausgelegt, das FRANC-Projekt auf 3,5 Jahre.

Einsatzfelder: Rüstung, Energie und KI

Abgesehen vom Prestige, einen Supercomputer zu bauen und zu betreiben, stellt sich die Frage: Wofür werden diese Power-Maschinen eigentlich genutzt? Ein Großteil der Anwendungen ist immer noch in Bereichen angesiedelt, für die bereits die ersten Supercomputer in den 1970er Jahren geschaffen wurden: Rüstung und Energie. In beiden Bereichen geht es immer noch um die Simulation von nuklearen Prozessen und deren Umgebungen.

Es gibt noch tausende ungelöste wissenschaftliche Aufgaben, für die selbst die heutigen Supercomputer noch zu schwach sind.
Martin Giles MIT Technology Review

In den letzten Jahren sind aber neue Bereiche hinzugekommen, die dichter an kommerziellen Anwendungen angesiedelt sind. Hierzu gehören vor allem künstliche, neuronale Netze, also ein Bereich der künstlichen Intelligenz, Umweltsimulationen, Klimaforschung- und -prognosen und Very Big Data Analytics in der Astronomie.

„Es gibt noch tausende ungelöste wissenschaftliche Aufgaben, für die selbst die heutigen Supercomputer noch zu schwach sind“, sagt Martin Giles von MIT Technology Review. Trotz der Anschaffungspreise von mehreren hundert Millionen Dollar sind Supercomputer ein lohnendes Geschäft.

Laut Hyperion Research beträgt der ROI für jeden in High Performance Computing investierten Dollar bis zu 500 Dollar. Folglich ist der Bedarf an solchen Exascale-Systemen – zumindest in den USA – vorhanden. So hat das Energieministerium der Vereinigten Staaten inzwischen zwei weitere Systeme in Auftrag gegeben, die noch bis 2023 geliefert werden sollen. Das gesamte Auftragsvolumen beläuft sich auf rund 1,8 Milliarden Dollar.

Supercomputer sollen stromsparend sein

Dabei gibt es noch viel zu tun, um Exascale-Systeme zum Laufen zu bringen, wobei die Grenzen nicht nur im Design und in der Konstruktion, sondern auch im späteren Betrieb liegen. So hat das US-Energieministerium, als Auftraggeber des Aurora-Systems, verlangt, dass die Leistungsaufnahme nicht mehr als 40 Megawatt betragen darf – das sind rund 40 Millionen Dollar Stromkosten pro Jahr.

Diese neuen Hochleistungssysteme benötigen aber nicht nur viel Strom, sondern auch neue Software, denn nur mit speziell zugeschnittenen Programmen können die raffinierten Systemarchitekturen voll ausgenutzt werden. In China arbeitet man an der Unterstützung von 15 verschiedenen Anwendungsgebieten, in den USA sind es 25.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Quantencomputer werden die Zukunft verändern.

Quantum-Computing nimmt Fahrt auf.

Kostenloser E-Guide: Ist IBM Watson reif oder nur ein Hype?

Artikel wurde zuletzt im Oktober 2018 aktualisiert

Erfahren Sie mehr über Data-Center-Systems-Management

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchEnterpriseSoftware.de

Close