

Sie sind gerade zum Vorsitzenden des Gauss Center for Supercomputing oder GCS berufen worden. Welche Vorhaben haben Sie auf die Agenda für die nächsten beiden Jahre gesetzt?
Prof. Dieter Kranzlmüller: Spannende Herausforderungen liegen vor uns, für die wir im GCS-Verbund gemeinsam Strategien entwickeln. Wir befinden uns in der Planungsphase für die Nachfolgesysteme von Blue Lion am LRZ, Herder am HLRS und Jupiter am JSC – also die post-exascale Generation von GCS-Systemen. Das klassische Höchstleistungsrechnen verändert sich gerade durch Künstliche Intelligenz und Quantencomputing. Während KI und mit ihr die Graphics Processing Units (GPU) beinahe schon zum Alltag im wissenschaftlichen Rechnen gehören, starten wir gerade den Betrieb von ersten Quantensystemen, die mit unseren Supercomputern verbunden werden, um diese zu beschleunigen und Forschenden mehr Möglichkeiten für Berechnung und Simulation zu geben. Das weckt neue Wünsche unter Anwenderinnen, wir sind dabei, die Bedarfe zu klären und diese mit der technologischen Entwicklung in Einklang zu bringen.
Das sind langwierigere Planungen und Vorbereitungen, inwiefern werden die jetzt durch den Regierungswechsel beeinflusst?
Kranzlmüller: Als von der öffentlichen Hand finanzierte, wissenschaftliche Rechenzentren stimmen wir uns eng mit den Fördergebern in Bund und Ländern ab. Durch den Regierungswechsel in Berlin wurde aus dem Bundesministerium für Bildung und Forschung das Bundesministerium für Forschung, Technologie und Raumfahrt. Die Namensänderung zeigt, dass sich der Fokus verlagert hat, was unsere Aufgaben beeinflussten wird: Supercomputing ist Teil von Wissenschaft und Forschung, diese treiben wiederum technische Entwicklungen in der IT wie auch in der Raumfahrt, mit welchen Angeboten wir als HPC-Zentren auf diese Anforderung antworten können – das werden wir jetzt zusammen mit den dafür zuständigen Verantwortlichen in den Ministerien klären.
Auch Europa fördert Supercomputing und zurzeit insbesondere den Aufbau von skalierbaren Ressourcen für Künstliche Intelligenz oder KI.
Kranzlmüller: Nach dem Entschluss, 13 AI Factories für Wissenschaft und Unternehmen in Europa aufzubauen – je eines am HLRS in Stuttgart sowie am JSC in Jülich – plant die EU weitere, größere so genannte Giga Factories, damit Europa bei der Entwicklung von KI und vor allem bei den Anwendungen vorne dabeibleibt. Zurzeit läuft die Ausschreibung für mögliche Standorte – da sind wir als GCS gefordert, unsere Expertise mit dem Aufbau und Betrieb leistungsfähiger, großer Anlagen einzubringen. Hoch skalierbare KI-Cluster stellen wichtige Fragen, etwa zu ihrer Energieversorgung, damit zur Standortwahl, auch zu Betrieb und personeller Ausstattung. Technische und politische Herausforderungen, der Aufbau innovativer Systeme und weiterer Dienstleistungen – im GCS-Verbund wird uns die Arbeit nicht ausgehen. Mich persönlich erfüllen die Aufgaben mit Respekt, aber auch mit der Vorfreude, in den nächsten Jahren gemeinsam mit Thomas Lippert und Michael Resch Weichen stellen zu können.
Welche Schwerpunkte sind Ihnen dabei persönlich wichtig?
Kranzlmüller: Höchste Priorität hat für mich die Bereitstellung von effizienten, nachhaltigen und innovativen Computerressourcen für hochkarätige, international relevante Forschungsprojekte, außerdem die Ausbildung und Qualifizierung von Wissenschaftlerinnen, damit sie noch besser mit den Ressourcen der drei GCS-Zentren umgehen können. Das heißt heute insbesondere beim Entwickeln von wissenschaftlichen Codes einerseits die steigende technische Heterogenität und Komplexität der Systeme, aber auch Fragen zur Energieaufnahme und Effizienz zu berücksichtigen. KI und neuerdings Quantum wachsen enger mit klassischem Supercomputing zusammen, daraus entstehen viele spannende, neue Methoden und Möglichkeiten, gerade für die Verarbeitung von Forschungsdaten aus unterschiedlichsten Fachdisziplinen. Für die wissenschaftlichen Rechenzentren bedeutet das, nicht nur technische Innovationen zu evaluieren, sondern vor allem, die Beratung und Unterstützung von Wissenschaftlerinnen noch stärker auszubauen und immer weiter zu verbessern.
Sie haben es schon angesprochen, durch verschiedene Prozessoren- und Beschleunigertypen sowie durch Quantensysteme wächst die Heterogenität in den High-Performance Computingsystemen. Was bedeutet das für Anschaffungen des GCS?
Kranzlmüller: Jedes der Zentren verfolgt eine komplementäre Strategie bei der Konzeption von Rechnerarchitekturen, so können die drei Supercomputer bei verschiedenen Aufgaben Stärken ausspielen und gleichzeitig unterschiedliche User-Bedürfnisse bedienen. Mit Sicherheit werden die Systemarchitekturen noch komplexer. Wir diskutieren zurzeit, was unsere User für den Umgang mit den Systemen brauchen werden und konkret, ob es in den GCS-Zentren weiterhin große Ressourcen an Central Processing Units oder CPU geben wird. Die werden für klassische Simulationen Modellierungen weiterhin stark nachgefragt. Es geht also einerseits um den wachsenden Hunger nach mehr Rechenleistung durch die Forschung, der nur durch heterogene Systeme zu stillen ist. Andererseits fokussieren Gesellschaft, Politik, aber auch die Herstellerunternehmen zurzeit sehr stark auf KI, das klassische High-Performance Computing oder HPC muss dabei aber auch berücksichtigt werden.
Fällt dadurch die Förderung des HPC zurück, in Deutschland und Europa stehen zurzeit Programme für KI & Forschung ganz oben auf der politischen Agenda?
Kranzlmüller: Das wäre sehr kurzsichtig. Ergebnisse aus dem Hoch- und Höchstleistungsrechnen sind für KI-Anwendungen immanent wichtig. So liefern in den Umwelt- und Naturwissenschaften beispielsweise die Berechnungen aus mathematisch-physikalischen Simulationen Daten für weiterführende statistische Modelle, umgekehrt helfen diese wiederum die mathematischen Modelle zu optimieren, zu erweitern oder zu variieren.
Konkurrieren die europäischen AI und Giga Factories oder regionale Angebote wie BayernKI mit den Supercomputing-Zentren?
Kranzlmüller: Man muss nicht gleich überall Konkurrenz wittern – die AI Factories und regionale Angebote ergänzen das Supercomputing, ermöglichen Synergien zwischen den Rechenzentren und bieten Forschung und Wissenschaft mehr Möglichkeiten für eine effiziente, passgenaue Verarbeitung von Daten. Für Deutschland hat die EuroHPC Joint Undertaking zwei europäische AI Factories in GCS-Zentren platziert, wir haben darüber hinaus alle AI-Ressourcen aufgebaut, die aktuellen HPC-Systeme werden durch GPU beschleunigt und sind KI-fähig. Wie beim Hochleistungsrechnen wächst beim Einsatz von KI-Methoden mit der Erfahrung der Bedarf nach mehr Performance, so gesehen bereitet KI unsere Anwenderinnen auch aufs Supercomputing vor: Um etwa mit großen Sprachmodellen zu arbeiten, ist neben schnellem Datendurchsatz hohe Rechenkraft gefragt, das wird oft noch unterschätzt.
Auch durch die hungrigen KI-Anwendungen wird die Energiefrage drängender: Das LRZ plant ein Umspannwerk zur eigenen Energieversorgung. Gibt es im GCS gemeinsame Anstrengungen oder auch Richtlinien für mehr Nachhaltigkeit?
Kranzlmüller: Wir stehen in den Rechenzentren zu diesen Themen im regen Austausch, testen und erforschen unterschiedliche Ansätze, um diese vergleichen zu können. Richtlinien würden unsere Grundlagenforschung einengen oder reglementieren. Das gilt auch bei anderen Themen wie System- und Softwareentwicklung oder Gebäudemanagement – Faktoren, die ebenfalls die Energieaufnahme von Computeranlagen beeinflussen. Aus der Eigenständigkeit der Rechenzentren in strategischen Fragen wachsen unterschiedliche Lösungen, die wir evaluieren und vergleichen können. Das ist sinnvoll, effizient und auch von der Politik gewünscht.
Zurzeit beantragen Forschende Rechenzeit für Large-Scale-Projekte beim GCS, der Wissenschaftsausschuss weist diese dem geeigneten Rechenzentrum in Garching, Jülich oder Stuttgart zu. Werden Anträge jetzt auch an KI-Cluster oder AI Factories weitergereicht?
Kranzlmüller: Die drei Supercomputing-Zentren arbeiten eng mit den Rechenzentren des Nationalen Hochschulrechnens, dem NHR-Verein, zusammen, wir nutzen dasselbe Antragssystem. So können wir flexibel Projekte dem Rechenzentrum zuteilen, das die dafür passenden Ressourcen – Supercomputer, Hochleistungs-System oder KI-Cluster – bereithält. Außerdem laden GCS und NHR gemeinsam zum regelmäßigen KI- und HPC-Café ein, damit Forschende praktische Fragen zeitnah online mit Spezialistinnen klären.
Supercomputing ist international – wie wirkt sich die aktuelle US-amerikanische Politik darauf aus? Beeinflussen Mittelkürzungen oder eingestellte Datentransfers Forschungsprojekte?
Kranzlmüller: Wissenschaft ist inhaltlich unpolitisch, liefert aber Impulse für die Politik. Ich bin sehr froh, dass die zurzeit erratische US-Politik sich nicht auf die Zusammenarbeit zwischen Forschungsinstituten auswirkt. Gleichzeitig ist nicht zu übersehen, dass Forderungen nach europäischer Souveränität in vielen Bereichen und insbesondere in der IT oder bei der Digitalisierung stärker Gehör finden. Das ist eine positive Entwicklung. Ich fände es gut, wenn wir uns in Europa auf unsere Stärken besinnen und zum Beispiel bei Themen wie Energieeffizienz und Softwareentwicklung oder in der Grundlagenforschung enger zusammenrücken, außerdem internationale Partnerschaften nach Asien oder in den globalen Süden ausweiten. Wir könnten dort noch so viel mehr Arbeits- und Denkweisen kennenlernen, die uns nicht nur wissenschaftlich weiterbringen. (vs | LRZ)