Supercomputer: »Schneller als Moore´s Law«

Allgemein

IBM-Managerin Stephanie Kuehdorf über Supercomputer, wie das Technik-Know-how in die Server-Produkte einfließt und warum Cloud Computing und Supercomputer sich ergänzen.

Wenn es um High Performance Computing (HPC) geht, ist IBM einer der führenden Anbieter. Nicht nur deshalb, weil IBMs Roadrunner zur Zeit die Liste der 500 schnellsten Supercomputer anführt.

Im eWEEK-Interview erläutert Stephanie Kuehdorf, Managerin Deep Computing Sales bei IBM Deutschland, wie das Unternehmen bei der Entwicklung von Supercomputern vorgeht und wie High-Performance-Computing und Cloud Computing zusammenpassen.

eWEEK: Warum sind eigentlich immer die IBM-Rechner auf Platz 1 der Top500-Liste?
Stephanie Kuehdorf: Es wäre für uns schön, wenn das immer so wäre! Ein Grund für unsere derzeitige Stellung ist, dass wir die Herausforderungen, die so große und komplexe Installationen wie z.B. bei LLNL mit dem Roadrunner Projekt oder beim Forschungszentrum Jülich mit der Jugene stellen, bewältigt haben.

Was sind konkret die Herausforderungen?
Leistung, Stromverbrauch, Kühlung und Packungsdichte. Der Roadrunner ist das schnellste System der Welt, aber dennoch eins der energieeffizientesten. Die Jugene von Jülich hat für die Größe der Installation von 1 Petaflop einen sehr moderaten Stromverbrauch.

Was ist der Unterschied zwischen Großrechner, Supercomputer und HPC?
Aus meiner Sicht gibt es keinen Unterschied zwischen Supercomputern und HPC, die Begriffe sind synomym. Es gibt aber einen Unterschied zwischen Großrechnern und Supercomputern, bzw. HPC-Maschinen. Wenn wir bei IBM von Großrechnern sprechen, dann meinen wir oft System z-Installationen oder große Power-Installationen mit dem System p595. Wir haben Modelle, die speziell für den HPC Bereich optimiert sind. Das sind dann die Systeme, aus denen wir Supercomputer-Installationen aufbauen.

Wie schnell geht die Entwicklung der Performance bei Supercomputern? Ähnlich schnell wie im Desktop-Bereich? Moore’s Law besagt, dass sich die Packungsdichte von Transistoren alle 18 Monate verdoppelt.

Das geht sogar schneller als bei Desktop-PCs. Die Leistungsfähigkeit der Supercomputer wächst deutlich schneller als das Mooresche Gesetz vorgibt.
Heutzutage bringt die Miniaturisierung nicht mehr höhere Prozessortaktraten, dafür aber mehrere Prozessorkerne pro Chip. Das gilt auch für Supercomputer.
Ungefähr 80 Prozent der 500 schnellsten Supercomputer sind Linux-Cluster. Dafür werden meist Knoten eingesetzt, die mit zwei Prozessorsockeln ausgestattet sind und ansonsten – bis auf die fehlende Grafikkarte – eng verwandt sind mit Desktop-PCs.

Und wie schnell genau?
Die Leistungsfähigkeit der Supercomputer verdoppelt sich in weniger als 18 Monaten, also in ca. 14 Monaten. Dies liegt daran, dass die Systeme nicht nur mit schnelleren Prozessoren mit immer mehr Cores ausgestattet werden, sondern die Systeme selbst auch immer größer werden und damit mehr Computer-Knoten erhalten.

IBMs Roadrunner ist mit einer Billion Rechenoperationen pro Sekunde (1 Petaflop) der schnellste Supercomputer der Welt. Der Bolide steht im legendären Los Alamos National Laboratory in New Mexico, das zum US-Energieministerium gehört. (Bild: IBM)

In welchem Verhältnis stehen Supercomputer und Cloud Computing aus Sicht von Unternehmen? Macht Letzteres die Supercomputer irgendwann überflüssig?
Nein, ich sehe Cloud Computing als gute Ergänzung im HPC-Umfeld, um Rechenleistung einer größeren Anwenderschaft verfügbar zu machen. Wir haben bereits heute Kunden, die ein Cloud/Grid mit HPC-Rechnern betreiben.

Das Höchstleistungsrechenzentrum in Stuttgart ist ein Beispiel: Im Rahmen des Baden-Württemberg Grids unter der Federführung des HLRS wurden alle Fachhochschulen/ Universitäten in Baden-Württemberg miteinander vernetzt. Die Basis hierfür sind IBM-Blade-Systeme, die an jedem Standort installiert sind.


»In zehn Jahren können wir die 100fache Rechenleistung bei den schnellsten Supercomputern erwarten.« IBM-Managerin Stephanie Kuehdorf.

Verdient IBM mit Supercomputern Geld? Oder geht es dabei hauptsächlich um die Entwicklung der Technologie?
Natürlich möchten wir mit Supercomputern Geld verdienen. Aber die Weiterentwicklung der Technologie spielt ebenfalls eine wichtige Rolle, da einige innovative Funktionen im Bereich High Performance Computing im Laufe der Jahre als Standard in die Produktentwicklung eingehen. So werden heute beispielsweise Cluster-Dateisysteme in HPC-Rechnern für kommerzielle Cluster mit DB2 oder Oracle eingesetzt.

Wie fließt das Technik-Know-how in die Entwicklung von Servern oder anderer Hardware ein?
Zum einen gibt es zahlreiche Kooperationen mit Kunden und den IBM-Labors, um die Herausforderungen anzugehen, die Peta- und Exascale-Computing an uns stellen.

Die Software wird hierbei eine zentrale Rolle spielen. Sie muss z.B. in gewissem Maß fehlertolerant sein. Darüber hinaus ist der hohe Stromverbrauch ein Ärgernis für die Kunden. Dem begegnen wir mit optimierten Systemen, wie Blue Gene oder dem System iDataPlex.

Zum anderen sind wir ständig damit beschäftigt, die bestehenden Systeme zu optimieren. Wir sind Weltmeister in Patenten mit über 4000 Neuanmeldungen allein im Jahr 2008. Daran ist zu erkennen, dass wir versuchen, Grenzen zu pushen.

Für Supercomputer entwickelte Kühltechniken wie etwa diese mit der TH Zürich gemeinsam entwickelte spezielle Wasserkühlung könnte irgendwann auch in Standardprodukten wie Servern zum Einsatz kommen. (Bild: IBM)

Als IBM im Jahr 2006 die ersten POWER6 Systeme mit Wasserkühlung auf dem Chip vorstellte, wurden wir noch belächelt. Heute, ein paar Jahre später, ist die Wasserkühlung bei Systemen mit hoher Packungsdichte nicht mehr wegzudenken.

Was sind die nächsten technischen Hürden bei der Entwicklung der Superrechner?
Die Systeme werden voraussichtlich sehr große Cluster sein, mit sehr vielen Knoten. Systeme mit 50 000 Knoten entwickeln sich zum Standard. Das ist eine Herausforderung für den Energieverbrauch und die Stabilität. Je mehr Teile ein System hat, desto höher die Wahrscheinlichkeit von Ausfällen.

Wenn immer irgendwelche Komponenten ausfallen, ist das nicht eine Aufgabe für die Software Wie kann die solche Hardware-Pannen kompensieren?
Die Software muss einen Großteil der Redundanz übernehmen oder kleine Redundanzen tolerieren können.


Viele Entwicklungen bein Bau von Supercomputern gehen auf IBMs Stretch-Rechner zurück. Die Maschine schaffte mit 150 000 Transistoren rund 100 Milliarden Rechenoperationen – am Tag. (Bild: IBM)

Cray hat gerade einen »kleinen Supercomputer« für knapp 12 000 Dollar auf den Markt gebraucht. Was halten Sie von dieser Entwicklung? Werden Supercomputer immer billiger?
Das glaube ich nicht. Bereits heute sind 80 Prozent der 500 schnellsten Supercomputer Linux-Cluster, die im mittleren Preissegment angesiedelt sind. Man kann von daher auch schon ein kleines Linux Cluster als »kleinen Supercomputer« titulieren. Die großen HPC-In
stallationen werden aber auch in Zukunft komplex sein und ihren Preis kosten.

Was werden Supercomputer in zehn Jahren können?
Sie werden gigantische Rechenleistungen haben. In 10 Jahren können wir die 100fache Rechenleistung bei den schnellsten Supercomputern erwarten. Das wären dann 100 Petaflop pro Sekunde.
Danke für das Gespräch.

(mt)
Weblinks
IBM Deep Computing

Als Ingenieure noch mit Sakko und Fliege zur Arbeit kamen, hatte auch Supercomputer Stretch seine große Zeit. (Bild: IBM)