LRZ-Newsletter Nr. 7/2020 vom 2.7.2020

Leibniz-Rechenzentrum in Garching b. München

Unsere Themen:


Aktuelles


Ausgezeichnete Daten-Forschung

Steuerungszentrale ComputerIn den mehr als 6480 Computerknoten des SuperMUC-NG arbeiten rund 15 Millionen Sensoren, die unterschiedlichste Daten aus dem System sammeln. "In Vorbereitung auf Exascale-Zeiten werden die Hochleistungsrechensysteme immer komplexer", erklärt Alessio Netti, Informatiker am Leibniz-Rechenzentrum (LRZ) in Garching. "Damit diese Systeme stabil laufen, besser steuerbar werden und vor allem deutlich weniger Energie verbrauchen, brauchen wir mehr Wissen und damit mehr Daten. Gleich zwei Projekte aus dem Umfeld des LRZ, die sich mit Betriebsdaten von Hochleistungsrechnern befassen, wurden Ende Juni ausgezeichnet: Die Jury der Stockholmer ACM HDPC 2020 honorierte das LRZ-Tool Wintermute als eines der innovativsten Analyseverfahren für High Performance Computing (HPC). Auf der ISC 2020 in Frankfurt gewann wiederum ein Forscherteam um Amir Raoofy von der Technischen Universität München (TUM) den Hans-Meuer-Preis für die beste Arbeit über eine neue Matrix zur Analyse von Langzeitdaten auf Supercomputern.

Die richtigen Daten sammeln und auswerten

Sensoren liefern bereits alle möglichen Informationen aus Supercomputern, etwa zu Temperatur, Leistung, Belastung und Beanspruchung von Komponenten. Am LRZ entstand bereits die Open-Source-Software Data Center Data Base (DCDB), die Daten von Millionen Sensoren einsammelt und so die Kontrolle von SuperMUC-NG und CoolMUC-3 ermöglicht. Um diese Systeme auch effizient steuern zu können, braucht es ein Analyse-Tool, vor allem aber eine Systematik zur Auswertung dieser Daten. Mit Wintermute präsentierte Netti bei der HDPC ein generisches Klassifizierungsmodell und damit eine Grundlage für die Operational Data Analytics (ODA). Sie soll ein möglichst umfassendes Bild von Supercomputern liefern und Prognosen sowie Anpassungen rund um die Technik ermöglichen. Dazu verarbeitet Wintermute Informationen, die in Komponenten erzeugt (In-Band-Daten) oder von diesen versendet werden (Out-of-Band-Daten), entweder in einem Streaming-Verfahren, kontinuierlich (Online-Verarbeitung) oder nur bei explizitem Bedarf (On-Demand-Verarbeitung).

Anhand von drei Fallstudien aus dem CoolMUC-3 zeigt der LRZ-Informatiker, mit welchen Daten sich etwa Anomalien in einzelnen Rechnerknoten aufspüren lassen, um sie auszutauschen oder zu optimieren. Auch der Energieverbrauch lässt sich mit Wintermute und ausgesuchten Monitoring-Daten nachverfolgen und anpassen. Außerdem zeigt das Open-Source-Tool, wo Computertechnologie für Engpässe bei der Simulation und Modellierung sorgt. "Wintermute nutzt Methoden des maschinellen Lernens, um die Operational Data Analytics aussagekräftiger und damit noch leistungsfähiger zu machen", so Netti. "Das Tool wurde so konzipiert, dass es in jedes bestehende Monitoringsystem integriert werden kann. Darauf verweist auch der Name: Wintermute heißt eine künstliche Intelligenz, die sich in einer Science-Fiction-Trilogie von William Gibson mit einer weiteren vereinigt und zur - besseren - digitalen Lebensform wird. Die Erkenntnisse aus Wintermute können helfen, Computersysteme der Zukunft zu verbessern.

Eine Matrix zum Sortieren von Daten

Auch Amir Raoofy, wissenschaftlicher Mitarbeiter am TUM-Lehrstuhl für Rechnerarchitektur und parallele Systeme von Professort Martin Schulz, arbeitet mit Daten, die tausende Sensoren aus Supercomputern oder aus den Überwachungssystemen von Kraftwerken über Wochen oder sogar Jahre liefern. Ihn interessiert jedoch, wie SuperMUC-NG und CoolMUC-3 mit den riesigen Datenmengen umgehen. "Mit Hilfe von Matrix-Profil-Algorithmen lassen sich Zeitreihen nach Mustern und Ähnlichkeiten durchsuchen", umreißt Raoofy das Problem. "Aber sie lassen sich nur schwer skalieren und sind nicht für HPC-Systeme geeignet". Allerdings erfordert die Auswertung großer Zeitreihen Supercomputing: Wer wissen will, unter welchen Bedingungen eine Gasturbine zuverlässig läuft und wann die ersten Komponenten reparaturanfällig werden, sollte viele Daten prüfen können. Die Rechenleistung und Fähigkeiten von Supercomputern ermöglichen solche Analysen erst im Verein mit skalierbaren Algorithmen.

Raoofy und Kollegen entwickelten den nun preisgekrönten skalierbaren Ansatz (MP)N. Dieser kann auf bis zu 256.000 Rechnerkernen, das sind rund 86 Prozent der Rechenressourcen des SuperMUC-NG, effizient ausgeführt werden. Dass er exakte Berechnungen liefert, wurde mit Leistungsdaten des SuperMUC-NG getestet. Zurzeit wird der Algorithmus zur Analyse von Daten, die zwei Gasturbinen der Stadtwerke München liefern, eingesetzt. TurbO heißt das Projekt, das die Bayerische Forschungsstiftung fördert. "In unseren Experimenten haben wir das schnellste und größte jemals berechnete mehrdimensionale Matrixprofil durchgeführt", berichtet Raoofy. "Wir erreichten eine projizierte Kernleistung von 1,3 Petaflop pro Sekunde." So können Supercomputer wie der SuperMUC-NG die Daten aus langen Zeitreihen schnell und effizient auswerten Wissenschaft und Technik werden das zu nutzen wissen. (vs)

Zurück zum Inhaltsverzeichnis


Supercomputer-Technik im Test

Cray-SystemAls erstes akademisches Rechenzentrum in der EU nimmt das Leibniz-Rechenzentrum ein HPE-System Cray CS500 mit Fujitsu A64FX-Prozessoren auf ARM-Basis in Betrieb. Dabei handelt es sich um die gleiche Architektur wie bei dem japanischen Höchstleistungsrechner Fugaku, der derzeit den ersten Platz in der der Top500-Liste der weltweit leistungsfähigsten Rechner belegt.

HPE ergänzt BEAST

Die ARM-basierte Architektur in den Fujitsu-Prozessoren, die von Hewlett Packard Enterprise (HPE) integriert wurde, soll sowohl für traditionelle Modellierungs- und Simulationsaufgaben, als auch für Datenanalysen, maschinelles Lernen und KI-Arbeitslasten geeignet sein. Sie wird in den nächsten Wochen in die LRZ-Testumgebung BEAST (Bavarian Energy, Architecture and Software Testbed) integriert. Neben dem internen Testbetrieb, soll das System ab dem frühen Herbst sowohl für enge Partner aus der Wissenschaftscommunity und ausgewählte Projekte als auch für die nächste Generation von HPC-Anwendern zur Verfügung stehen. "Als eines der weltweit führenden akademischen Höchstleistungsrechenzentren ist es eine unserer Kernaufgaben, neue und unterschiedliche Architekturen zu untersuchen. Dies machen wir gemeinsam mit engen Partnern aus der Wissenschaft im Rahmen unseres Future Computing Programs", sagt Dieter Kranzlmüller, Leiter des LRZ. "Im Mittelpunkt dieser Evaluierung steht, wie diese neuen Technologien die Forschung unserer Nutzer voranbringen können - vor allem im Bereich Höchstleistungsrechnen und künstliche Intelligenz."

Höhere Bandbreiten fürs Speichern

Für die Entwicklung von Anwendungen steht neben Open-Source-Tools (GCC/LLVM) auch das Cray Programming Environment zur Verfügung. Letztere verspricht eine gute Unterstützung der Vektoreinheiten der Fujitsu-Prozessoren. Jeder der Fujitsu A64FX ARM-basierten Prozessoren wird mit 32 GB HBM2-Speichermodulen (High Bandwidth Memory der 2. Generation) ausgestattet sein. Die Server kommunizieren miteinander über ein EDR-Infiniband Netzwerk. Den Anwendern bietet sich damit die Möglichkeit, die Performance der Fujitsu A64FX-Prozessoren im Alltag mit GPU und mit üblichen CPU zu vergleichen. Dabei ist insbesondere das Zusammenspiel der neuartigen Vektoreinheiten (Scalable Vector Extensions des ARM-Instruktionssatzes) mit den HBM2-Speichermodulen interessant. Letztere liefern eine um eine Größenordnung höhere Bandbreite zum Hauptspeicher als sie in aktuellen Systemen verfügbar ist. Das LRZ als energieeffizientes Rechenzentrum interessiert sich zudem besonders dafür, welche Rechenleistung pro Watt das System liefert. (lp)

Zurück zum Inhaltsverzeichnis


Hoffen auf die Quantencomputer

Leuchtkraft QuantumDas Konjunkturpaket, mit dem die deutsche Regierung die Wirtschaft reaktivieren will, enthält rund zwei Milliarden Euro für den Bau und die Entwicklung von zwei Quantencomputern. Wissenschaftler bauen indes auf die besseren Rechenkapazitäten, die diese für datenintensive Forschung versprechen: Quantentechnologie elektrisiert Forscher, Politik und Wirtschaft. Am Leibniz-Rechenzentrum (LRZ) wird das Thema bereits länger bearbeitet - und das zahlt sich nun in Form von Forschungsprojekten und internationalen Kontakten aus. Ein Jahr nach seinem Start gelingt es der Bavarian Quantum Computing eXchange-Gruppe (BQCX) immer besser, Wissenschaftler und Manager aus aller Welt mit spannenden Themen zu den Treffen an jedem zweiten Mittwoch eines Monats einzuladen: So diskutierten im Juni Travis Humble vom Oak Ridge National Laboratory (ORNL) und Max Henderson, Entwicklungschef von Hersteller Rigetti, wie Quantencomputer Wissenschaften und Maschinenlernen unterstützen. Ende Juni zeigte Dieter Kranzlmüller, Leiter des LRZ, bei der Veranstaltung "Reclaim the Future" auf, warum es sich für Europa lohnen könnte, eigene Quantentechnik zu entwickeln.

Unterschiedliche Technik, vergleichbare Ergebnisse

Noch befinden sich Quantencomputer im Experimentierzustand. Sie arbeiten mit Qubits, die neben den Werten 0 und 1 noch deren Überlagerungszustände annehmen. Wie sich Qubits mit chemischen, physikalischen und/oder mechanischen Methoden stabilisieren lassen, erklärte Humble, am ORNL Leiter des Instituts für Quantencomputing, anhand der ersten Quanten-Prozessoren von D-Wave, IBM, IonQ. Sie werden als "Noisy Intermediate Scale Quantum-Devices" (NISQ-Devices) bezeichnet, weil diese Systeme kleine Skalen haben und nicht fehlerkorrigiert, also unzuverlässig sind. Das ORNL überprüfte die Leistung von NISQ-Systemen verschiedener Hersteller mit Hilfe von Algorithmen aus Chemie und Materialwissenschaft. Obwohl unterschiedlich aufgebaut, erbrachten diese ersten Quantensysteme vergleichbare Ergebnisse, so Humble: "An NISQ-Geräten lassen sich die Konzepte von Quantencomputern und ihre Tauglichkeit fürs wissenschaftliche Rechnen testen. Hybride Variational Quantum Eigensolver oder VQE erfordern Kenntnisse darüber, wie die beste Leistung erzielt wird. Quantenrechnen für die Materialwissenschaft wird indes begrenzt durch die Topologie der Prozessoren."

Inspirationsquelle für Forschung

Der promovierte Physiker Henderson gab in seinem Vortrag einen Überblick über die Beziehung zwischen Quantencomputing und maschinellem Lernen. Gesteuert durch Algorithmen oder statistische Methoden zur Klassifizierung von Daten sollen Quantencomputer einmal gigantische Datenmengen verarbeiten. Damit sie Bilder erkennen und darin Muster finden, werden sie heute ähnlich wie künstlich intelligente Systeme oder neuronale Netze trainiert. Die Methoden unterscheiden sich nicht wesentlich, im Gegenteil - Henderson beobachtet, dass einige Trainingsschritte die Quantentechnologie bereits vorwegnehmen, obwohl sie eigentlich für konventionelle Computer entwickelt wurden. Er schließt daraus, dass Quantencomputing und quantentaugliche Algorithmen das maschinelle Lernen von Supercomputern und konventionellen Rechnern bereichern und zu alternativen Lösungsstrategien führen könnten.

Neue Geschäfte in Aussicht

Reclaim the Future Weit pragmatischer indes die Diskussionen um Quantencomputer bei der Veranstaltung "Reclaim the Future" - Can Europe become a Leader in Quentum-Computing" Ende Juni in der BMW-Welt. Sie konzentrierte sich auf die praktische Entwickung der Technologie sowie die Auswirkungen auf Wissenschaft, Gesellschaft, Industrie und regionale Wirtschaft. Schon arbeiten erste Forschungseinrichtungen an OpenSuperQ, einem Quantencomputer mit bis zu 100 Qbits, der seine Arbeit nächstes Jahr in Jülich aufnehmen soll. Das jüngste Konjunkturpaket des Bundes sieht die Beschaffung von zwei weiteren Quantencomputern in deutschen Forschungseinrichtungen vor. Garching ist eine konkurrenzfähige Option für ein System. "Wir haben hier alles, was ein erfolgreiches Ökosystem braucht. Das gibt es in der Welt sonst an kaum einem anderen Ort", wirbt LRZ-Leiter Kranzlmüller für den Standort. Konzerne wie BMW oder Allianz erkennen allmählich die Chancen der neuen Computertechnik, an der rund um München bereits geforscht und entwickelt wird. Mit IQM ist aus dem Umfeld der Münchener Universitäten und dem Walter Meissner-Institut für Tieftemperaturforschung bereits ein erstes Startup entstanden, das Quantencomputer und -Prozessoren bauen will. Weitere werden folgen: "Die Hardware ist nur ein Anfang, es braucht ein vollständiges Ökosystem für Qantencomputer", fordert Kranzlmüller. Quantencomputing soll auch neue Dienstleistungen anregen - und wenn Europa und Deutschland eigene Ideen zur neuen Technik beisteuern und verwirklichen, könnte sogar die gegenwärtige Abhängigkeit von Computertechnologie made in USA, Japan oder China sinken.

Die nächsten Termine: BQCX und LRZ beteiligen sich am 6. und 8. Juli an der Münchner Konferenz für Quantenwissenschaft und -technologie teil. Das LRZ ist außerdem bei Wissenschaft trifft Industrie am Dienstag, 7. Juli, ab 12:00 vertreten. Luigi Iapichino, Leiter des LRZ-Quantenzentrums, berichtet in einem Online-Vortrag von den LRZ-Aktivitäten im Quantencomputing und ist bei der anschließenden Podiumsdiskussion dabei. Am 29. Juli bringt das BQCX am LRZ eine Arbeitsdgruppe aus Quanteninformatik-Spezialisten zusammen, um mit ihnen zu klären, welche Ressourcen und Dienstleistungen rund um die neue Technologie Forscher benötigen werden (Info: bqcx_AT_lrz.de). Und am 12. August, beim BQCX-Treffen wird Philip Makotyn die jüngsten Fortschritte von Hersteller Honeywell beim Bau von Quantenprozessoren mit eingeschlossenen Ionen vorstellen. Nicht zuletzt werden sich an diesem Tag auch die Up-and-Comers formieren, eine Gruppe aus Studierenden, die sich besonders mit Quantencomputern auseinandersetzt. (vs)

Zurück zum Inhaltsverzeichnis


Lern-Bibliothek für dreidimensionale Tierpräparate

Unterkiefer von einem SchweinWas macht man mit annähernd 600 empfindlichen Präparaten? Bei der Tierärztlichen Fakultät der Ludwig-Maximilians-Universität (LMU) hatten sie sich schon einen Handscanner (Artec Space Spider) zugelegt, um Knochen, Zähne, Organe in digitale Anschauungsobjekte umzuwandeln. Langfristig sollte daraus eine Datenbank entstehen, mit der Studierende lernen können. Dann kam Corona: Und mit einem Mal musste alles sehr schnell gehen. "Das Leibniz-Rechenzentrum hat uns super weitergeholfen und Wege aufgezeigt, wie wir die Scans Studierenden schnell zur Verfügung stellen", sagt Privatdozent Sven Reese. Der promovierte Tiermediziner ließ sich vom Zentrum für Virtuelle Realität und Visualisierung (V2C) des LRZ beraten: "3D-Daten übers Internet zu präsentieren, ist gar nicht so einfach." Inzwischen sind knapp 300 der Präparate eingescannt, rund 40 davon können über die Lernplattform Moodle der Fakultät oder bei Sketchfab fürs Studium abgerufen werden. Mit der Unibibliothek planen die Veterinäre jetzt eine Plattform für dreidimensionale Objekte. Ein Interview mit den 3D-Spezialisten Lea Weil und Kristian Weinand vom V2C wie Digitalisierung und innovative Visualisierung Forschung und Lehre verändern.

Wann und wie begann die Kooperation mit der Tierärztlichen Fakultät?

Lea Weil:Im letzten Winter meldete sich Sven Reese und erkundigte sich, wie man Präparate in 3D visualisieren kann. Ein Scanner, der Farben und Texturen von Haut und Knochen darstellt, war bereits angeschafft, aber wie die virtuellen Präparate den Studenten zur Verfügung gestellt werden sollten, drüber herrschte Unsicherheit. Eine Smartphone-App erschien zuerst als die praktikable Plattform zur schnellen Bereitstellung, angereichert mit Augmented Reality-Funktionen wären die Präparate noch lebensechter erschienen. Allerdings nutzen viele Studierende Smartphones mit unterschiedlichen Systemen und Versionen, das hätte zu Problemen bei Installation und Darstellung führen können. Auf einer Online-Plattform können die Präparate über einen 3D-Viewer mit Computer, Notebook, Tablet oder Smartphone abgerufen werden – in diesem Fall der beste Weg.

Wie findet man solche Tools?

Kristian Weinand:Im Internet, bei Museen, Universitäten und anderen Spezialisten. Wir haben uns Tools wie Verge 3D, Blend4Web, Sketchfab und den Viewer, den das Smithsonian National Museum of Natural History in Washington einsetzt, angeschaut und dabei mit Scans der Tierärztlichen Fakultät experimentiert. Die Darstellung und Interaktion mit den Objekten sind vergleichbar, bei allen kann man die Objekte drehen und wenden. Für die Evaluation haben wir uns daher mit der Ansichtsqualität und Nutzerfreundlichkeit sowie mit den Kosten für die Nutzung auseinandergesetzt. Kriterien, wie die Begrenzung von Zugangsrechten, Datensicherheit und Datenspeicherung spielten außerdem eine Rolle. Weil es durch den Corona-Lockdown schneller gehen musste, empfahlen wir Sketchfab. Die Plattform ist gut etabliert, das Tool einfach zu handhaben, das Hochladen geht schnell und unkompliziert. Sketchfab bietet eine Website mit integriertem Viewer und viele Funktionen, etwa die Beschriftung oder Anmerkungen. Viele Universitäten und Museen publizieren ihre Exponate dort. Allerdings: Sketchfab speichert die Daten in den USA, mit der kostenlosen Version kann jeder alles downloaden. Die Tierärztliche Fakultät hat sich für ein Abo entschieden, um den Zugang zu begrenzen.
Weil:Langfristig wäre eine eigene Plattform praktischer, aber die Entwicklung ist finanziell nicht zu unterschätzen, zumal wenn sie mit den Anforderungen und Wünschen der Studierenden mitwachsen soll. Dann kann auch festgelegt werden, wo die Daten gespeichert werden. So setzt Bavarikon, das Internetportal des Freistaats Bayern, einen eigenen 3D-Viewer ein, um Kunst-, Kultur- und Wissensschätze in 3D zugänglich zu machen.

Scannen und hochladen - funktioniert das einfach so?

Weinand: Nicht ganz, wenn die Anschauungsobjekte schnell geladen sein sollen. 3D-Scans produzieren große Datenmengen, die optimiert werden müssen, sollen Nutzer darauf online und mit mobilen Geräten zugreifen. Die Scans bestehen aus einem feinen Gitternetz, das auf eine grobe Auflösung reduziert werden kann, um Dateigröße und Komplexität zu minimieren. Dadurch gehen aber Details verloren, die sich mit Hilfe von Texturen projizieren und erhalten lassen. Das erfordert aber ein paar Arbeitsschritte mehr und zusätzliche Software. In diesem Fall haben wir Blender empfohlen – ein kostenloses Open-Source-Programm. Es vereint viele Funktionalitäten, was die Optimierung von 3D-Modellen aber erschweren könnte. Für einen unkomplizierten Standard-Workflow haben wir daher eine Videoanleitung erstellt. Die hat prima funktioniert, und alle sind gut damit klargekommen.

Herz vom SchweinJetzt sind die Präparate bei Sketchfab abrufbar, was könnte man mit ihnen noch machen?

Weil: In Augmented- oder Virtual Reality-Apps integriert, könnten die einzelnen Präparate noch eindrücklicher, spielerischer und freier präsentiert und mit zusätzlichen Informationen angereichert werden. Sie vermitteln einen immersiven Eindruck, so als läge das dreidimensionale Modell auf dem Tisch und man könne damit natürlich interagieren. Das verdeutlicht die realen Größenverhältnisse, zeigt die Gemeinsamkeiten und Unterschiede zum Beispiel von Beckenknochen unterschiedlicher Tiere. In solchen Apps ließen sich Präparate außerdem virtuell zusammensetzen, etwa die Zähne mit den Kieferknochen. Die Anschauungsobjekte wirken lebensecht, auch das ist ein großer Vorteil beim Lernen. Kombiniert mit Animationen könnten komplexe Zusammenhänge veranschaulicht werden. Da ist eine ganze Menge denkbar.

Nicht nur Tierärzte haben räumliche Anschauungsobjekte, wo könnten Sketchfab und 3D-Viewer die Lehre noch unterstützen?

Weinand:In der Archäologie und Kunstgeschichte werden sie bereits eingesetzt, auch Architektur, Maschinenbau, Biologie und mehr Wissensbereiche arbeiten mit dreidimensionalen Modellen und profitieren von räumlicher Darstellung. An der LMU und der Uni-Bibliothek soll langfristig eine Online-Plattform für dreidimensionale Objekte entstehen. Daraus ergeben sich viele Möglichkeiten für den Informationsaustausch zwischen Universitäten, Lernenden und Interessierten weltweit. Seltene und empfindliche Präparate, die sonst gut geschützt in Universitäten oder Museen aufbewahrt werden, werden damit öffentlich zugänglich und das weltweit. Das ist super.
Weil: Ich bin mir sicher, dass Augmented, Virtual und Mixed Reality-Anwendungen oder Plattformen für 3D-Ansichten, die wir am Leibniz-Rechenzentrum auch aufbauen, Forschung und Lehre enorm bereichern. Die Corona-Schutzmaßnahmen haben die Digitalisierung von Lerninhalten gepusht. Hoffentlich werden die Erfahrungen daraus noch beachtet, wenn sich die Lage wieder erholt. Dann wird es nicht mehr lange gehen, dass angehende Mediziner und Ärztinnen Organe, Knochen und Gewebe von Menschen oder Tieren mit Hilfe einer Datenbrille und einer AR-App räumlich erforschen. So wird Lernen nachhaltiger, eindrücklicher. (vs)

Zurück zum Inhaltsverzeichnis


Pollendaten per App

PusteblumeKnapp drei Millionen Menschen in Bayern erwarten Frühling und Sommer mit gemischten Gefühlen: Beginnen Erle, Haselnuss und andere Pflanzen zu blühen, kribbelt es in der Nase, tränen die Augen, fällt das Atmen schwer. "Wir beobachten bei vielen Personen Allergien, die Natur reagiert auf den Klimawandel", stellt Caroline Herr vom Landesamt für Gesundheit und Lebensmittelsicherheit in Erlangen fest. "Wenn Allergiker wissen, wann welche Pollen fliegen, können sie rechtzeitig vorsorgen." Vor gut einem Jahr trat daher ePIN, das erste vollautomatisierte Pollen-Informationsnetzwerk seinen Dienst an. Es liefert tagesaktuelle Daten zur Luftbelastung mit Pollen von Beifuß, Birke, Erle, Esche, Gräsern, Haselnuss, Roggen und Traubenkraut oder Ambrosia, den wichtigsten Allergenen in Bayern. Die Daten können online und neuerdings sogar per App abgerufen werden.

Für ePIN arbeitet das Landesgesundheitsamt mit dem Zentrum Allergie und Umwelt (Zaum) der TUM und dem Helmholtz Zentrum München zusammen, das Leibniz-Rechenzentrum (LRZ) unterstützt das projekt beim Aufbau und betrieb der Infrastruktur und sorgt für die Speicherung der Daten. An acht Stellen in Bayern misst ePIN die Pollen-Konzentration in der Luft. Diese werden mit Hilfe von Bilderkennung und künstlicher Intelligenz sofort ausgewertet und veröffentlicht. Für jede Probe an den acht Messstellen entstehen Tausende Fotos - im Lauf eines Jahres kommen so Terabytes von Daten zusammen. Sie werden online und per Funk ans LRZ gesendet, dort gespeichert und öffentlich zugänglich gemacht: für Allergiker und Ärzte ebenso wie für Forscher aus aller Welt. Im Mai 2020 griffen rund 10.000 Nutzer auf die ePIN-Website des Landesgesundheitsamtes zu. Die Hoffnung ist, dass neben dem Landesgesundheitsamt weitere kommerzielle Wetter- und Appanbieter den Datenschatz zum Pollenflug entdecken und nutzen werden. (vs)

Zurück zum Inhaltsverzeichnis


Zahlen des Monats

Ein interessanter Nebeneffekt der Digitalisierung von Workshops und Seminaren: Die virtuellen Kurse vom Leibniz-Rechenzentrum (LRZ) und seinen Partnern PRACE, den wissenschaftlichen Rechenzentren in Erlangen, Ostrava, Stuttgart und Wien sowie den Technologieunternehmen Nvidia und Intel erweisen sich als Exportschlager seit dem Corona-Lockdown. Bis Ende Juni haben an 13 Schulungstagen 257 Interessierte aus 25 Ländern teilgenommen. Das LRZ verbreitet seine Lehre in ganz Europa, aber auch in Canada, USA, Argentinien, Saudi Arabien und Ägypten - auf 4 Kontinenten also. 17 Referenten, darunter aus dem LRZ Carla Guillen Carias, Momme Allalen, Juan Durillo Barrinuevo, Gerald Mathias und Volker Weinberg, zeigten den Teilnehmenden, wie sie Prozessoren und Deep Learning Netzwerke programmieren oder Codes und Algorithmen optimieren können. "Zwei Wochen lang war fast jeden Tag etwas los", schildert Volker Weinberg, Koordinator der Schulungsprogramme. "Mir haben die letzten zwei Wochen als Moderator und Referent wirklich sehr viel Spaß gemacht." (vs)

Videokonferenz zum Lernen

Zurück zum Inhaltsverzeichnis


Termine, Kurse und Veranstaltungen

Deep Learning und Programmieren mit OpenACC

Neuronale Netzwerke trainieren und Bilder, Videoclips oder Inhalte effizient beschreiben und wissenschaftliche Anwendungen mit OpenAcc beschleunigen: Der Online-Workshop des LRZ, des Stuttgarter HRLS und Nvidia vom 14. bis 17. Juli kombiniert Vorträge zu Deep Learning, Datentypen und zum Supercomputing mit praktischen Übungen und Programmierhilfen. Diese werden auf einer mit GPU-beschleunigten Workstation in der Cloud durchgeführt. Am letzten Tag geht es um die Aufbereitung von Daten für Supercomputer, im Speziellen die Systeme des HLRS. Information und Anmeldung

Zurück zum Inhaltsverzeichnis


Iterative lineare Solver und Parallelisierung

Der Schwerpunkt dieses fünftägigen Kompaktkurses vom 31. August bis 4. September liegt auf iterativen und parallelen Solvern, den parallelen Programmiermodellen MPI und OpenMP sowie der parallelen Middleware PETSc. Anhand von realen Anwendungen werden verschiedene moderne Krylov Subspace Methoden (CG, GMRES, BiCGSTAB ...) sowie hocheffiziente Vorkonditionierungstechniken vorgestellt. In Übungsaufgaben können Teilnehmende Lösungen testen und verstehen lernen. Kenntnisse in den Programmiersprachen C und Fortran sind notwendig. Der Online-Kurs wird von der Universität Kassel, dem Höchstleistungsrechenzentrum Stuttgart (HLRS), dem LRZ und dem IAG organisiert. Information und Anmeldung

Zurück zum Inhaltsverzeichnis


Deep Learning und Programmieren

Der Workshop vom 7. bis zum 10. September beschäftigt sich mit den Grundlagen des Deep Learning, der Computer Vision und dem Programmieren von Multi-GPU. Vorträge und praktische Übungen mit den Programmen Open ACC sowie den Programmiersprachen CUDA C / C ++ vertiefen die Theorie. Alle Übungen werden auf einer vollständig konfigurierten GPU-beschleunigten Workstation und auf Jupyter-Notebooks in der Cloud durchgeführt. Für den Workshop kooperieren PRACE, CSC (Finnland), IT4Innovations und LRZ mit Nvidia. Information und Anmeldung

Zurück zum Inhaltsverzeichnis


Fortran für Fortgeschrittene

Wissenschaftler, die ihre Kenntnisse in Fortran erweitern möchten, lernen in diesem viertägigen Kurs Objekte, Schnittstellen und objektbasiertes Programmieren kennen. Vorträge und Übungen behandeln zudem IEEE-Funktionen und Gleitkomma-Ausnahmen, die Interoperabilität mit C und Fortran 2003 E, außerdem die Vorteile von OO Design Patterns oder Coarrays. Information und Anmeldung

Zurück zum Inhaltsverzeichnis


C++ für die Softwareentwicklung

C++ für Fortgeschrittene: Die dreitägige Schulung vom 18. bis 20 November 2020 beschäftigt sich mit dem objektorientierten (OO) Softwaredesign, dabei werden Prinzipien, Konzepte und gute Anwendungsbeispiele diskutiert und in praktischen Übungen ausprobiert. Es geht dabei um spezialisierte Anwendungen, etwa das Template Meta Programming (TMP), außerdem um die Macken und Kuriositäten von C ++. Teilnehmende lernen die Tricks, mit denen sie ausgereifte, robuste Codes für ihre Anwendungen entewickeln können. Information und Anmeldung

Zurück zum Inhaltsverzeichnis


Stellenangebote / Job Opportunities


Sie finden ein internationales und diverses Team in Garching, das ständig wächst. Wenn Sie unten kein passendes Aufgabenprofil finden, besuchen Sie die Karriereseite oder schicken Sie gerne eine Initiativbewerbung. Wir sind LRZ – und neugierig auf Sie!

Zurück zum Inhaltsverzeichnis


Mehr Lesestoff


Hier finden Sie die Links zu den aktuellen Informationen aus der Supercomputing-Community und von unseren Kooperationspartnern:

Zurück zum Inhaltsverzeichnis


Informationen zum LRZ-Newsletter


  • Schwierigkeiten bei der Darstellung? Sollten Sie den Newsletter nicht gut lesen können, schicken Sie bitte eine kurze Beschreibung des Problems an <NewsletterRedaktion_AT_lrz.de>. Danke!
  • Sie können den LRZ-Newsletter über unsere Webseite bestellen oder abbestellen.
  • Das LRZ verschickt und veröffentlicht diesen Newsletter in deutscher und englischer Sprache. Die beiden Versionen sowie frühere Ausgaben finden Sie im Archiv.
  • Aktuelle Informationen übers LRZ sowie zu Kursen und Veranstaltungen finden Sie außerdem bei Twitter und bei LinkedIn.

Zurück zum Inhaltsverzeichnis


Impressum


Herausgeber:
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
Anschrift:
Boltzmannstraße 1
D-85748 Garching
Telefon:
+49-89-35831-8000
Telefax:
+49-89-35831-9700
E-Mail:
pr-team_AT_lrz.de; newsletter_AT_lrz.de
Twitter: LRZ_DE
LinkedIn: Leibniz-Rechenzentrum
Redaktion:
PR-Team
Fotos:
Volker Weinberg (LRZ), Dawid Nawila/Unsplash.com, Ibrahim Boran/Unsplash, Joshua Sortino/Unsplash, 1E9, Cray/HPE

Zurück zum Inhaltsverzeichnis