LRZ-Newsletter Nr. 07/2019 vom 04.07.2019

Unsere Themen:


Neuigkeiten


Prof. Dr. Dieter Kranzlmüller leitet Gauss Centre für Supercomputing

Für zwei Jahre führt Prof. Dr. Dieter Kranzlmüller, Leiter des Leibniz-Rechenzentrums (LRZ) in Garching, das Gauss Centre for Supercomputing (GCS), ein Verbund der drei nationalen Höchstleistungs-Rechenzentren in Stuttgart, Jülich und München: "Zusammen mit dem Bundesministerium für Bildung und Forschung und den drei verantwortlichen Landesministerien Bayerns, Baden-Württembergs und Nordrhein-Westfalens werden wir die Exascale-Strategie des GCS weiter vorantreiben und die drei Höchstleistungs-Rechenzentren noch besser miteinander vernetzen", hat sich Kranzlmüller für seine Amtszeit vorgenommen.

Bessere Vernetzung, mehr Zusammenarbeit

Das Leibniz-Rechenzentrum (LRZ) in München, das Höchstleistungsrechenzentrum in Stuttgart (HLRS) sowie das Jülich Supercomputing Centre (JSC) bereiten sich gerade auf die nächste Generation der Supercomputer, das so genannte Exascale Computing vor. Diese schaffen mindestens eine Trillion Berechnungen pro Sekunde und legen damit die Grundlagen für exaktere, detailgetreuere, größere und schnellere Simulationen sowie eine noch effizientere Verarbeitung von riesigen Datenmengen.

Nachdem 2018 bereits der Datenaustausch zwischen den Rechenzentren technisch beschleunigt wurde, stehen nun die gemeinsame Verwaltung von Rechenzeiten an den Supercomputern auf der Agenda, außerdem die Optimierung der Echtzeitvisualisierung von Simulationen im Verbund. "Deutschland verfügt mit dem GCS über eine ausgezeichnete Infrastruktur für Höchstleistungsrechnen", sagt Kranzlmüller. "Diese können wir noch besser vernetzen, um so Wissenschaft und Forschung mit Rechenkapazität und Know-how bei der Verarbeitung und Analyse unterschiedlichster Daten zu unterstützen."

Integration in europäische Projekte

Kranzlmüllers Anliegen ist außerdem, die nationalen Projekte zum Höchst- und Hochleistungsrechnen weiter in die bestehenden, europäischen zu integrieren: so etwa der Aufbau und die Weiterentwicklung des Wissenschaftsnetzes European Open Science Cloud (EOSC), die europäische Initiative der Höchstleistungsrechner EuroHPC oder die PRACE-Initiative, welche die Leistung der Hochleistungsrechner aus 25 europäischen Ländern vernetzt.

Den Vorstand des GCS bilden die drei Leiter der deutschen Höchstleistungs-Rechenzentren, die Professoren Thomas Lippert (JSC), Michael M. Resch (HLRS) und Dieter Kranzlmüller (LRZ). Sie wählen alle zwei Jahren einen neuen Vorsitzenden. Kranzlmüller übernahm sein neues Amt von HLRS-Leiter Resch.

Autorin: S. Vieser

Zurück zum Inhaltsverzeichnis


Energieverbrauch senken durch Messen und Integrieren

Effizienter rechnen mit weniger Strom: Der SuperMUC des Leibniz-Rechenzentrums (LRZ) in Garching bei München verbraucht im Schnitt 800 Kilowatt beim Rechnen, der neue SuperMUC-NG indes etwa das Dreifache. "Am Stromverbrauch der Maschinen können wir aktuell wenig drehen, vielleicht noch ein paar Prozent mehr herausholen", stellt Michael Ott fest. Der promovierte Informatiker beschäftigt sich am LRZ mit der Effizienz von Höchstleistungsrechnern und der Messung ihrer Verbrauchsdaten: "Mehr Erfolg verspricht dagegen die Arbeit an den Infrastrukturen der Rechner, etwa an der Kühlung, am Aufbau oder an Programmen und Anwendungen, beim Supercomputing sollten alle Bereiche verzahnt werden, um Effizienz-Potenziale zu heben."

Neues Messtool, bessere Schnittstellen

Das LRZ beschäftigt sich in mehreren Projekten damit, wie Höchstleistungsrechner energiesparender arbeiten. Zwei laufende Projekte erreichten jetzt Meilensteine: Das Team um Ott stellte auf der International Supercomputing Conference (ISC) sein Monitoring-Programm Datacenter Data Base (DCDB) zur Diskussion. Neben Daten aus den IT-Systemen und von Sensoren aus der näheren Umgebung des Rechners nimmt dieses jetzt auch Metriken aus dem Rechner auf. Solche Daten weisen wiederum auf mögliche Stellschrauben hin, an denen die Superrechner und ihr Verbrauch optimiert werden können.

Außerdem traf sich im Vorfeld der ISC in München eine internationale Arbeitsgruppe am Leibniz-Rechenzentrum, die an den Schnittstellen für Management-Systeme von Höchstleistungsrechnern arbeitet: "Werden die Jobs oder Aufgaben für den Rechner besser organisiert, arbeitet er besser und sinkt der Verbrauch", erläutert Josef Weidendorfer, promovierter Informatiker, der sich dem Aufbau von Netzwerken und Rechnern widmet. "In Superrechnern werden meistens die Komponenten unterschiedlicher Hersteller verbaut, deshalb brauchen wir einheitliche Schnittstellen für diese Ressource- oder Energie-Management-Software."

Internationale Zusammenarbeit an neuen Schnittstellen

Die Arbeitsgruppe, die sich im Sommer 2018 formierte, setzt sich daher nicht nur aus Forschern internationaler Universitäten und Organisationen zusammen, auch Vertreter von Herstellern wie ARM, Cray, Intel, Lenovo sind vertreten. Erste Schritte für die neuen Schnittstellen sind bereits geschafft: Mit Referenz-Implementierungen sollen diese Ideen in Open-Source-Programmen, außerdem im Global Extensible Open Power Manager (GEOPM), eine Software für das Energie-Management in Rechnern von Intel, eingebettet und ausprobiert werden. "Nächster Schritt ist ein Whitepaper, in dem wir erklären, warum die hersteller-übergreifenden Schnittstellen beim Aufbau von energieeffizienten Superrechnern notwendig sind", so Weidendorfer. "So wollen wir Geldgeber und Mitstreiter in anderen Rechenzentren und Universitäten gewinnen, um bessere Schnittstellen aufzubauen und das Supercomputing weiter zu verbessern." Mit den unabhängigen Schnittstellen könnten die Job- oder Energie-Ressource-Managementsysteme auf unterschiedlichsten Rechnern laufen. Nach den Diskussionen und der Aufgabenverteilung am LRZ wurde das Projekt auf der ISC in Frankfurt präsentiert und diskutiert. Nächster Treffpunkt ist die SC19 am 17. November in Denver.

Vorbereitung auf Exascale-Zeiten

Integration spielte auch bei dem Monitoring-Programm DCDB eine Rolle: Das Programm vernetzt verschiedene Datensilos und harmonisiert Messwerte, die bisher aus diversen Quellen zusammengetragen wurden. "Uns war der modulare Aufbau wichtig, weil so Flexibilität entsteht und wir ohne großen Aufwand weitere Datenbanken oder Softwaretools anschließen können", sagt Ott. Das Programm wird seit etwa einem halben Jahr Rechenzentren und Forschern als Open Source-Software zur Verfügung gestellt und auf verschiedenen Veranstaltungen, so auch auf der ISC 2019, präsentiert. "Es hapert noch an der Visualisierung", meint Ott. Doch grundsätzlich sammelt Datacenter Data Base bereits Informationen aus den Supercomputern in München.

Mit diesen Daten sowie den Schnittstellen zur Optimierung von Energie-Managementsystemen werden außerdem die Grundlagen für die nächste Generation der Höchstleistungsrechner, den Exascale-Computern, gelegt. Sie helfen die Ausschreibung von technischen Komponenten, IT-Systemen und Programmen durch neue Forderungen und Kriterien verbessern.

Autorin: S. Vieser

Zurück zum Inhaltsverzeichnis


Delegieren führt zu neuem Wissen

Den Computern die Arbeit überlassen: Das ist die zurzeit wichtigste Entwicklung im Bereich künstliche Intelligenz (KI), Machine- oder Deep Learning und führt zu neuen Erkenntnissen. Forschung und Wirtschaft beschäftigen sich daher mit dem automatisierten Maschinenlernen (AutoML), für das Algorithmen und künstlich angelegte, neuronale Netze weitgehend selbsttätig große Datenmengen verarbeiten und bewerten. "Viele Nutzer und AI-Experten glauben noch nicht, dass das wirklich funktioniert", sagt Yu Wang, Senior KI-Scientist am Münchner Leibniz-Rechenzentrum (LRZ) und promovierter Bio-Informatiker. "Aber Computer werden immer schneller und leistungsfähiger."

Datengetriebenes Design von Algorithmen

Mittelfristig gesehen sollen sie daher ihre eigenen Arbeitsstrukturen schaffen, um riesige Datenmengen noch effizienter zu organisieren und sortieren zu können. "Deep Topology Learning" heißt ein Projekt, an dem Wang mitarbeitet und das er während des Research-Days zum Thema Machine Learning während der International Supercomputing Conference (ISC) Ende Juni in Frankfurt vor Vertretern aus Industrie und Forschung diskutierte: "Ziel ist das automatisierte, datengetriebene Design von neuronalen Netzen und Algorithmen, was wiederum die Vorgabe von Aufgaben, Tasks oder Modellen an künstlich-intelligente Systeme vereinfachen und beschleunigen und die Rechenergebnisse deutlich verbessern wird." Dafür aber benötigen Computer und Algorithmen enorme Rechenkraft.

Wachsende Rechenleistung und Datenmengen

Hintergrund dieser Entwicklung sind nicht nur rapide wachsende Rechenleistungen - am LRZ kann der neue SuperMUC-NG pro Sekunde bis zu 27 Billiarden Additionen oder Multiplikationen (Gleitkomma-Operationen) pro Sekunde verarbeiten - sondern auch die wachsenden Mengen an Daten aus Industriemaschinen, dem Internet of Things sowie aus Forschung und Internet, die nun mit Hilfe von KI verarbeitet werden. Bislang setzen Entwickler beim Aufbau der Modelle, nach denen Algorithmen Daten sortieren sollen, noch stark auf menschliches Denken, auf Fachwissen und Erfahrungen. Sie entwickeln danach Algorithmen sowie künstliche neuronale Netze, also Systeme, die die Arbeit diverser Algorithmen kombinieren. Forscher beobachten jedoch, dass vernetzte Algorithmen effizienter zusammenarbeiten und besser auf neue Aufgaben vorzubereiten sind, wenn sie die Auswahl von Parametern voneinander lernen und die Auswertung der Daten selbst organisieren.

Abgeben fällt schwer

"Die Delegation dieser Aufgaben an Rechner und Software fällt schwer, obwohl Computer immer schneller arbeiten, mehr Daten speichern und obwohl praktische Erfahrungen mit künstlich-intelligenten Systemen den Erfolg purer Rechenleistung zeigen", erläutert der KI-Experte Yu Wang. "Denn die Datenverarbeitung findet so in einer Blackbox statt und kann nur noch über das Ergebnis bewertet und gesteuert werden." Licht in die abgeschlossene Arbeitswelt der Rechner zu bringen und die Kooperationsweisen von Algorithmen untereinander zu verstehen, um sie weiter optimieren zu können, ist ein Ziel des Forschungsprojektes Deep Topology Learning am Leibniz-Rechenzentrum in Garching. Von den Ergebnissen werden auch Gesellschaft und Unternehmen profitieren.

Ein Wendepunkt in der Zusammenarbeit von Mensch und Maschine war etwa das Go-Spiel mehrerer Weltmeister mit der Software AlphaGo im Jahr 2016. Die Technik besiegte die Könner, weil sie in den massenhaft gespeicherten Spielzügen selbständig nach Lösungswegen für die aktuelle Partie suchte. Dabei wurde sie mit jedem Spiel schneller und besser: Während die Meister im Schnitt nur 50 Schritte voraus denken konnte, berechnete die Maschine aus ihren Daten ein Vielfaches davon. Auch im Bereich Foto- und Gesichtserkennung brachte KI bessere Ergebnisse, wenn sie Datenmengen nach eigenen Mustern sortierte und mit immer mehr Bilddaten gefüttert wurde.

Muster erkennen und weiter entwickeln

Das Fundament für das automatisierte maschinelle Lernen und Deep Learning ist mit diesen Erkenntnissen gelegt: Fürs automatisierte Maschinenlernen (AutoML) wiederum werden Rechner und neuronale Netze heute so konfiguriert, dass sie Muster und Gesetzmäßigkeiten erkennen und ihre Lösungen automatisch auf neue Fragestellungen übertragen können: bei der Bilderkennung etwa nicht mehr nur nach einer bestimmten Tierart, etwa grünen Laubfröschen, sondern auch nach deren exotischen Verwandten, den bunten Pfeilgiftfröschen, suchen. "AutoML ist zum Trend geworden, weil die Datenmengen zurzeit exponentiell wachsen und Computerleistungen günstiger und schneller werden", erklärt Wang. Konnte die von Google um 2015 geschaffene KI GoogleNet "nur" sechs Millionen Parameter gleichzeitig verarbeiten, schafft das jüngste, größte und ebenfalls von Google konstruierte Netzwerk AmoebaNet schon 600 Millionen Variablen. Untersuchungen zeigen, dass die Fehlerquellen bei der automatisierten Datenverarbeitung rapide sinken: Laut Stanford Vision Lab lag die Fehlerquote bei Bilderkennungen 2011 noch bei rund 25 Prozent, bis 2015 sank sie unter vier Prozent. Tendenz weiter fallend.

Bessere Performance, niedrigere Kosten

Der nächste Schritt ist nun, KI nicht nur riesige Datenmengen bewerten zu lassen und damit wirtschaftliche oder wissenschaftliche Entscheidungen zu optimieren. In Zukunft soll auch das Design von neuronalen Netzen und Algorithmus-Systemen zur Datenauswertung an die Technik delegiert werden - noch ein Forschungsgebiet für das Projekt Deep Topology Learning. Die Aufmerksamkeit könnte sich damit einmal auf die Modellierung der Aufgaben für künstliche Intelligenzen konzentrieren und die Datenverarbeitung weiter beschleunigen. "High Performance Computer-Systeme sind dabei für unsere Arbeit noch unverzichtbar", so Wang. "Das heißt zwar Optimieren in der Blackbox, aber das datengetriebene Design neuronaler Netze bringt eine bessere Performance und hilft auf längere Sicht, die Kosten von KI und Machine Learning zu senken." So können mehr Alltagsroutinen bei der Datenverarbeitung von KI und Maschinen übernommen werden.

Autorin: S. Vieser

Zurück zum Inhaltsverzeichnis


GCSnews des Gauss Centre for Supercomputing (GCS)

Die aktuelle Ausgabe der GCSnews des Gauss Centre for Supercomputing (GCS) finden Sie hier. Alle Ausgaben sind über die Webseite des GCS verfügbar. Das Gauss Centre for Supercomputing (GCS) ist der Zusammenschluss der drei nationalen Höchstleistungsrechenzentren in Deutschland (FZ Jülich, HLRS in Stuttgart und LRZ in Garching bei München). GCS ist der deutsche Partner in der Partnership for Advanced Computing in Europe (PRACE).

Zurück zum Inhaltsverzeichnis


Infobrief der Gauß-Allianz

Die Gauß-Allianz (GA) ist der Zusammenschluss von 18 Rechenzentren und Institutionen in Deutschland zur nachhaltigen und effizienten Nutzung von Supercomputing-Ressourcen der obersten Leistungsklassen. Hier finden Sie die aktuelle Ausgabe des GA-Infobriefs. Die Gauß-Allianz schreibt den Namen des großen Mathematikers mit "ß", das Gauss Centre schreibt seinen Namen in britischem Englisch mit "ss" statt "ß".

Zurück zum Inhaltsverzeichnis


PRACE Newsletter

PRACE, the Partnership for Advanced Computing in Europe, was established in 2010 to create a persistent pan-European Research Infrastructure (RI) of world-class supercomputers. This infrastructure is currently made up of seven leading edge machines, hosted by five member countries, (France, Germany, Italy, Spain and Switzerland) and is accessible through an open peer-review process, complemented by national resources operated and accessible via High Performance Computing (HPC) centres throughout Europe. To receive PRACE' newsletter, please go to http://www.prace-ri.eu/subscribe-to-prace-gdpr-compliance/

Zurück zum Inhaltsverzeichnis


Termine, Kurse und Veranstaltungen


Firewall: Einführungs- und Fortgeschrittenen-Kurs am LRZ

Das LRZ bietet wieder verschiedene Kurse für die virtuellen Firewalls (pfsense) an.

Einführungskurse (Grundbedienung) finden am 23.07 und 19.09 statt.

Der erweiterte Kurs (Einrichtung VPN, NAT etc.) findet am 24.07 statt.

Die Kurse finden jeweils von 15:00 bis 16:30 (Ausnahme: 19.09 10:00-12:00 Uhr) am LRZ statt. Anmeldung nur über unsere Kurs-Webseite.

Autor: Philipp Tunka

Zurück zum Inhaltsverzeichnis


New: Deep Learning and GPU programming using OpenACC @ HLRS Stuttgart

Date: Monday, July 15 - Wednesday, July 17, 2019, 9:00-17:00

Location: HLRS, University of Stuttgart, Nobelstr. 19, D-70569 Stuttgart, Germany

Lecturer: Yu Wang (LRZ), Volker Weinberg (LRZ), Momme Allalen (LRZ)

Summary: The workshop combines lectures about fundamentals of Deep Learning for Computer Vision and Multiple Data Types with a lecture about Accelerated Computing with OpenACC.

Further information: http://www.hlrs.de/training/2019/DL1

All lectures are interleaved with many hands-on sessions using Jupyter Notebooks. The exercises will be done on a fully configured GPU-accelerated workstation in the cloud.All involved instructors are NVIDIA certified University Ambassadors.

Autor: Volker Weinberg

Zurück zum Inhaltsverzeichnis


Using ExaHyPE - ExaHyPE für Anwender

"ExaHyPE" (https://exahype.eu/) ist eine neue Open-Source-Simulationsmaschine zur Lösung von Systemen hyperbolischer Gleichungssysteme. In diesem viertägigen Workshop lernen Teilnehmer den Umgang mit dem Tool. Sie können erste Ideen entwickeln und Prototypen anlegen. Der Workshop findet vom 22. bis 26. Juli 2019 am LRZ in Garching bei München statt. Anmeldung unter: https://exahype-workshop.eventbrite.co.uk/

"ExaHyPE" (https://exahype.eu/) is an open source simulation engine to solve systems of hyperbolic equation systems. Once again we invite existing und interested users to join us for four days. Users can try out the engine while some developers are around, i.e. they start the week with a problem given as PDE in mind and go home with a working first prototype built on top of ExaHyPE. The workshop takes place at the Leibniz Supercomputing Centre in Garching (near Munich, Germany) from Monday, July 22, 2019 until Friday, July 26, 2019. Registration at: https://exahype-workshop.eventbrite.co.uk/

Autor: Volker Weinberg

Zurück zum Inhaltsverzeichnis


ANSYS CFD Training Course at LRZ on 02. - 06. September 2019

The last LRZ short course named "Introduction to ANSYS Fluid Dynamics (CFX, Fluent) on LRZ HPC Systems" was held on 08. - 12. April 2019 and with 18 highly motivated and enthusiastic short course participants it was a great success. Therefore it has been decided to provide a next upcoming date for this ANSYS CFD Introduction Short Course and it will now take place in the week from 02. - 06. September 2019 at LRZ. Interested ANSYS Software Users are asked to register as early as possible on the corresponding LRZ website: https://www.lrz.de/services/compute/courses/2019-09-02_hcfd2s19/

The focus of this 5-day course is targeted on students, PhD's and researchers with good knowledge in the fundamentals of fluid mechanics and potentially with some first experience in Computational Fluid Dynamics (CFD). The course will focus on the introduction to the ANSYS Fluid Dynamics software packages, i.e. ANSYS CFX and ANSYS Fluent. Further, participants will be familiarized with the main steps of the typical CFD workflow, in particular with CFD preprocessing / CFD setup creation, serial and parallel solver execution and CFD postprocessing in both CFD solver systems CFX and Fluent. Correctness of boundary conditions and CFD setup specifications, solver convergence control, solver monitoring, customization capabilities of the solvers and the post­processing as well as recommended CFD best practices are covered.

The course further focuses on the usage of the ANSYS CFD software in a typical Linux cluster environment for massively parallel computations. This includes a basic Linux primer, introduction to LRZ HPC systems and network environment, intro to the use of the SLURM scheduler, CFD remote visualization and aspects of successful CFD simulation strategies in such an HPC environment. Finally some aspects of workflow automation using Python as scripting language are targeted as well.

Autor: Thomas Frank

Zurück zum Inhaltsverzeichnis


Next HPC Courses and Workshops at LRZ

Following, please, find a list of the next HPC courses at LRZ

Deep Learning and GPU programming using OpenACC @ HLRS Stuttgart
Monday, July 15 - Wednesday, July 17, 2019, 9:00-17:00
Introduction to ANSYS Fluid Dynamics (CFX, Fluent) on LRZ HPC Systems
Monday, September 2 - Friday, September 6, 2019, 09:00-17:00
Advanced C++ with Focus on Software Engineering
Wednesday, November 20 - Friday, November 22, 2019, 9:00 - 17:00
C++ Language for Beginners
Monday, November 25 - Friday, November 29, 2019, 9:00 - 17:00
Past Courses
Archive of previous courses
Other Courses
Courses at other GCS and PRACE locations
Resources
Lecture Notes of Courses & Workshops

Information on further HPC courses:

Zurück zum Inhaltsverzeichnis


Stellenangebote / Job Opportunities


Sie finden alle aktuellen Stellenangebote des LRZ immer auf unser Webseite www.lrz.de/wir/stellen/.

You will find all job opportunities at LRZ, some of them in English, on our web page www.lrz.de/wir/stellen/.


Impressum

Herausgeber:
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
Anschrift:
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
Boltzmannstraße 1
D-85748 Garching
Telefon:
+49-89-35831-8000
Telefax:
+49-89-35831-9700
E-Mail:
lrzpost_AT_lrz.de
Redaktion:
PR-Team

Sollten Sie Schwierigkeiten mit der Darstellung unseres Newsletters haben, dann schicken Sie uns bitte eine kurze Beschreibung des Problems an <NewsletterRedaktion_AT_lrz.de>. Danke!

Bestellen und Abbestellen des Newsletters

Sie können den LRZ-Newsletter über unsere Webseite bestellen oder abbestellen.

Archiv

Frühere Ausgaben des LRZ-Newsletters finden Sie im Archiv.