Schneller rechnen am SuperMUC-NG

SuperMUC-NG_Angabe Quelle_F Löchner_s

SuperMUC-NG am Leibniz-Rechenzentrum (Foto: F. Löchner)

Seit Anfang 2020 ist der SuperMUC-NG mindestens zu 80 Prozent ausgelastet. Mit seinen 311.040 Rechnerknoten arbeitet er 26,9 Billiarden Rechnungen pro Sekunde ab und bietet einen Speicherplatz von mehr als 700 Terabyte. Damit Wissenschaftler:innen den SuperMUC-NG und die schnellsten Rechner Europas an Leistungsgrenzen bringen, veranstaltet das Leibniz-Rechenzentrum (LRZ) ein- bis zweimal im Jahr einen Extreme Scaling Workshop. Expert:innen zeigen hier Tricks, wie Rechnerknoten anzusprechen sind und Bugs (Fehler) in Applikationen beseitigt werden. Interessenten bewerben sich mit ihren Projekten für den mehrtägigen Workshop. Gerald Mathias, habilitierter Physiker und im Application Supportteam des LRZ, weiß, wie Supercomputer Fahrt aufnehmen und noch schneller rechnen.

 

Wozu brauchen Nutzer von Supercomputern einen Extreme Scaling Workshop?

Dr. Gerald Mathias: Die Nutzer:innen vom SuperMUC-NG sind in erster Linie Wissenschaftler:innen, die für ihre Forschungsfragen Applikationen entwickeln. Bei ihnen stehen Simulationen und Daten im Vordergrund, nicht unbedingt Computertechnik. Allerdings sollten ihre Programme möglichst viele, am besten alle Knoten des SuperMUC-NG verwenden. Im Extrem Scaling Workshop geht es folglich darum, wie Applikationen optimiert werden können, die Maschine voll ausgenutzt wird und so Rechnungen beschleunigt werden. Der Workshop hilft den Teilnehmenden, die vergebene Rechenzeit optimal einzusetzen, und uns, den SuperMUC-NG besser auszulasten und die Anwendungen kennenzulernen, die in wenigen Jahren zum Alltag gehören werden.

 

Welche Themen stehen dabei im Mittelpunkt?

Dr. Mathias: Zum einen werden bestehende Programme getestet, manche Fehler oder Probleme werden erst bei extremen Größen sichtbar, wenn Applikationen etwa zu viel Speicher brauchen oder die Kommunikation zwischen den Rechnerknoten zu lange dauert. Das kostet Rechenzeit, daher wollen wir solche Fehler im Workshop aufspüren und beseitigen. Die Jagd nach Rekorden spielt dabei eine Rolle, wie auch das Ausloten von Technologie und Wissenschaft auf hohem Niveau. Wenn optimierte Programme beispielsweise noch größere und bessere Modelle zur Entstehung des Universums simulieren, dann freut das Forscher:innen und uns auch. Es geht um die Zukunftsfähigkeit von Simulationen. Was heute noch auf Supercomputern möglich ist, wird auf der nächsten Generation von Rechnern Alltag sein. Zum Debuggen und Optimieren muss man viele Jobs starten und auswerten, man wäre damit im Normalbetrieb monatelang beschäftigt, deshalb hilft der Extreme Scaling Workshop. Durch den exklusiven Zugriff auf die Maschine können die wichtigsten Optimierungen in drei Tagen erledigt werden – und die Teilnehmenden können auf die Hilfe von Experten bei Intel, Lenovo und des LRZ zugreifen.

 

Der Workshop ist für den SuperMUC-NG konzipiert – kann ich danach auch besser anderen Supercomputern arbeiten?

Dr. Mathias: Die Architektur heutiger Supercomputer ähnelt sich stark, sie bestehen alle aus vielen Rechnerknoten, die über ein schnelles Netzwerk verbunden sind. Auch wenn diese Knoten sich im Detail unterscheiden – Optimierung, Debugging, die Kommunikation zwischen den Knoten, das Nutzen von Speichern betrifft alle anderen Computer auch. So gesehen hilft der Extrem Scaling Workshop generell beim High Performance Computing auch auf anderen Maschinen.

 

Der Run auf diese Workshops ist hoch – Teilnehmende bewerben sich mit einem Large-Scale-Projekt: Nach welchen Kriterien wählen Sie diese aus?

Dr. Mathias: Wir können maximal acht Projekte berücksichtigen, oft stehen Teams dahinter. Teilnehmende brauchen Erfahrung im Umgang mit Supercomputern. Außerdem sollte die Rechnerleistung und die zu verarbeitende Datenmenge, also das Forschungsprojekt anspruchsvoll, wegweisend und innovativ sein. Und natürlich sollte der SuperMUC-NG mit den Projekten möglichst vollständig ausgelastet werden.