LRZ-Newsletter Nr. 07/2016 vom 07.07.2016

Unsere Themen:

Impressum, Abbestellen des Newsletters und Archiv



Termine, Veranstaltungen, Allgemeines


SuperMUC-Berichtsband 2016 erschienen

Das LRZ hat am 20. Juni auf der International Supercomputing Conference ISC2016 in Frankfurt den neuen SuperMUC-Berichtsband vorgestellt. Das Buch trägt den Titel "High Performance Computing in Science and Engineering - Garching/Munich 2016" und enthält 117 Beiträge von Projekten, die jeweils mindestens 4 Millionen Prozessorkernstunden (core-h) auf dem SuperMUC gerechnet haben. Gedruckte Exemplare sind beim LRZ erhältlich. Das Buch ist auch als PDF und E-Book (EPUB und MOBI) zum freien Download über die LRZ-Webseiten verfügbar: https://www.lrz.de/services/compute/supermuc/magazinesbooks/index.html#Books

Zurück zum Inhaltsverzeichnis


Heute: Vortrag Was ist die Zukunft der IT-Sicherheit?

Überholte Vertrauensmodelle, schlechte Benutzbarkeit, unsichere Standards - Was ist die Zukunft der IT-Sicherheit?

Zeit und Ort: 18:30 im HS 1100 im Stammgelände der TU München

Vortragender: Dr. Sebastian Gerling, CISPA - Center for IT-Security, Privacy and Accountability, Saarland University

Abstract:

Unsere IT-Sicherheit beruht heute fast ausschließlich auf Vertrauen: auf Entscheidungen von Entwicklern, auf die korrekte Funktion unserer Hard- und Software, auf Entscheidungen unserer Administratoren, auf der Korrektheit unserer eigenen Entscheidungen. Die meisten Sicherheitsprobleme entstehen durch Fehleinschätzungen in dieser Vertrauenskette. Wie können wir in Zukunft diese Form von Fehlern vermeiden? Wie kommen wir zu benutzbaren Sicherheitstechnologien und zu sicheren Standards?

Weitere Einzelheiten: https://www.it.tum.de/it-sicherheit/it-sicherheit-im-sommer/#c7459

Zurück zum Inhaltsverzeichnis

Wartung des zentralen Online-Speichers am 19./20. August 2016

Am Freitagabend, 19.8. und Samstag, 20. 8. 2016, findet am zentralen MWN-Speichersystem (NAS, \\nas.mwn.de) ein Software- und Hardware-Upgrade statt. Ab Freitag, 19. August 2016, 17 Uhr, steht der Speicher daher nicht mehr zur Verfügung. Wir gehen davon aus, dass der Zugriff ab Samstagnachmittag wieder möglich sein wird. Für unvorhergesehene Ereignisse ist jedoch auch noch Sonntag, 21. August, als Wartungszeit geplant.

Bitte informieren Sie schon jetzt alle Personen in Ihrem Bereich, dass der zentrale Speicher an dem genannten Augustwochenende nicht zur Verfügung steht. Während des Wochenendes benötigte Daten müssen daher vorab lokal gespeichert werden. Nach Abschluss des Upgrades können Sie wie gewohnt weiter arbeiten, der DNS-Name nas.mwn.de bleibt gleich. Da sich der IP-Adressbereich des Speichers ändert, schalten Sie bitte gegebenenfalls an Ihrer Firewall den IP-Bereich von 10.156.103.11 bis 10.156.103.20 frei.

Es folgen für interessierte Leser noch ein paar Hintergrundinformationen:

Aktuell wird der Dienst MWN-Speicher auf relativ alten Geräten der Firma NetApp betrieben. Zwei sogenannte Filerköpfe liefern die Daten der dahinterliegenden Plattenverbünde an die Zielsysteme aus. Die beiden Filerköpfe können sich gegenseitig vertreten. Bei Ausfall eines Kopfes übernimmt der andere dessen Funktion. In den letzten Jahren hat die Nutzung des MWN-Speichers stark zugenommen. Schon seit langem ist daher geplant auf eine leistungsfähigere und skalierbarere Konfiguration (c-mode) zu wechseln. Im Cluster-Modus (c-mode) können an das System jederzeit weitere Filerköpfe angeschlossen werden und die Last kann auf alle verteilt werden. Leistungsfähigkeit und Ausfallsicherheit werden damit gleichermaßen erhöht.

Leider erfordert die Umstellung das komplette Umkopieren der Daten auf das neue System. Die Migration von vielen hundert Terabyte dauert natürlich trotz leistungsstarker Hardware seine Zeit. Momentan läuft im Hintergrund transparent aus Nutzersicht der Aufbau eines Spiegels. Für den finalen Abgleich und das Umschalten des Systems ist schließlich eine eintägige Betriebsunterbrechung notwendig. An diesem Tag wird die eigentliche Dienstemigration vom alten System auf ein c-mode System durchgeführt. Um einen konsistenten Datenbestand zu erhalten muss zunächst der Zugriff auf das alte Produktivsystem unterbunden werden. Danach werden die letzten aufgelaufenen Änderungen an den Daten vom Quellsystem auf das Zielsystem übertragen. Danach wird der Cut-Over durchgeführt und gewisse Konfigurationseinstellungen übernommen.

Geplanter Ablauf

  • Dienste-Unterbrechung für den letzten Abgleich: Freitag 19. August 2016 ab 17:00
  • Finaler Abgleich in der Nacht von Freitag auf Samstag
  • Cut-Over am Samstag
  • Voraussichtliche Wiederinbetriebnahme: Samstag 20. August 2016 nachmittags
  • Puffer für unvorhergesehene Ereignisse: Sonntag 21.08.2016

Wir sind sehr zuversichtlich, dass der Puffer nicht genutzt werden muss. Ein Team von Spezialisten wird am Tag X bereitstehen, inklusive Fachleute der Herstellerfirma. Nach der Umstellung wird die Konfiguration mit 4 Filerköpfen betrieben, bei weiteren Upgrades sind keine derartig langen Unterbrechungen mehr notwendig.

Autor: Werner Baur

Zurück zum Inhaltsverzeichnis


Housing von HPC-Systemen am Linux-Cluster des LRZ: Beschaffung 2016

Das LRZ bietet den Benutzern bayerischer Hochschulen ein leistungsfähiges Linux-Cluster an, auf dem bereits eine umfangreiche Software-Palette genutzt werden kann. Darüber hinaus können natürlich eigene Anwendungen installiert und ausgeführt werden.

Im normalen Betrieb werden Rechenaufträge über ein Warteschlangensystem abgearbeitet und alle Benutzer teilen sich die verfügbaren Ressourcen. Diese Nutzung des Linux-Clusters ist kostenlos.

Für Benutzer, die ihre Berechnungen jederzeit sofort starten möchten, gibt es die Möglichkeit, im Rahmen des Linux-Cluster-Housings eigene Hardware in das Linux-Cluster zu integrieren. Diese Hardware erhält dann eine dedizierte Warteschlange, die der jeweiligen Benutzergruppe exklusiv zur Verfügung steht.

Das LRZ betreibt die Hardware im Rechenzentrum und übernimmt die Wartung und Pflege der Systeme. Die Linux-Cluster-Software ist ebenfalls vollständig verfügbar. Der Dienst ist in unserem Dienstleistungskatalog ab Seite 23 beschrieben. Diese Dienstleistung ist kostenpflichtig, wobei die Kosten je nach Grad der Abweichung von der "Standard-Konfiguration" des Clusters nach Absprache signifikant reduziert werden können.

Ende 2016 wird das LRZ einen Teil des Linux-Clusters erneuern und für die Beschaffung eine europaweite Ausschreibung durchführen. Derzeit sind folgende Teile geplant:

  • HPC-Systeme mit Manycore-Prozessoren
  • HPC-Systeme mit viel Arbeitspeicher (3 TB+)
  • HPC-Systeme mit Standard-Prozessoren (optional)

Falls Sie Interesse haben, in 2016 oder 2017 das Linux-Cluster-Housing am LRZ zu nutzen, kontaktieren Sie uns bitte, um Ihren Bedarf zu diskutieren. Wenn Sie Ihre HPC-Systeme im Rahmen dieser Ausschreibung mitbeschaffen, profitieren Sie von folgenden Vorteilen:

  • Deutlich günstigere Preise durch ein großes Beschaffungsvolumen
  • Kein Aufwand für eine eigene Ausschreibung
  • Vergünstigter Kostensatz für das Linux-Cluster-Housing in einer sicheren RZ-Umgebung

Kontaktieren Sie bitte unseren Servicedesk ( https://servicedesk.lrz.de/ oder servicedesk@lrz.de, Stichwort "Cluster Housing"), um einen Beratungstermin zu vereinbaren.

Autor: Christoph Biardzki

Zurück zum Inhaltsverzeichnis

CADFEM-Schulung am LRZ: Strukturmechanische Simulation mit ANSYS Mechanical

Die Firma CADFEM GmbH bietet exklusiv für die HochschulmitarbeiterInnen und Studierenden der Münchner Universitäten und Hochschulen eine viertägige ANSYS Schulung "Strukturmechanische Simulation mit ANSYS Mechanical" (25.07. – 28.07.2016, (tgl. 9 - 17 Uhr) im Kursraum 1 des LRZ (Raum H.U.002)) zu Sonderkonditionen an (HochschulmitarbeiterInnen: 500,- € zzgl. MwSt., Studierende: 200,- € zzgl. MwSt.).

Anmeldung und Informationen unter http://www.cadfem.de/EinfuehrungskursLRZ

Autor: Max Diehn

Zurück zum Inhaltsverzeichnis


Konfigurationsänderung an TSM-Nodes

Aufgrund einer umfassenden Umstrukturierung des DNS-Diensts des LRZ wird die Domain lrz-muenchen.de schrittweise stillgelegt. Davon betroffen sind alle TSM-Nodes, die vor dem 20.01.2015 beantragt wurden und in denen noch der alte TSM-Servername in der entsprechenden Konfigurationsdatei steht.

Aus diesem Grund muss die Konfiguration Ihrer TSM-Clients überprüft und gegebenenfalls; die TSM-Serveradresse (Parameter TCPSERVERADDRESS) geändert werden. Dazu wird lediglich lrz-muenchen.de durch abs.lrz.de im Namen ersetzt. Wie Sie die Überprüfung und ggf. die Änderung durchführen können, ist ausführlich auf unserer FAQ-Seite

http://www.lrz.de/services/datenhaltung/adsm/dat-support/faq/#kfaq28

beschrieben. Diese Änderung können Sie jederzeit vornehmen, spätestens jedoch bis zum

30.11.2016

Danach werden die alten Domainnamen endgültig gelöscht. Bitte beachten Sie, dass nach der Löschung kein Zugriff über die alten Namen, die auf lrz-muenchen.de enden, mehr möglich sein wird und damit keine TSM-Operationen (Archive/Backup/Retrieve/Restore) mehr durchgeführt werden können!

Bitte beachten Sie auch, dass gegebenenfalls Firewall-Einstellungen geändert werden müssen.

Für Rückfragen kontaktieren Sie bitte den Servicedesk.

Wir bitten um Verständnis für diese schon seit langem überfällige Bereinigungsaktion.

Ihr ABS-Team

Zurück zum Inhaltsverzeichnis

Configuration changes for TSM nodes

Due to the planned deactivation of the DNS domain lrz-muenchen.de, it is necessary to reconfigure TSM clients, using Nodes which were requested before 2015-01-20.

On these clients, you - the Node owner - have to review the configuration file and change the domain name of the TSM server (Configuration option TCPSERVERADDRESS) from lrz-muenchen.de to abs.lrz.de.

Further information on how to do this can be found in our FAQs: http://www.lrz.de/services/datenhaltung/adsm/dat-support/faq/#kfaq28

From 2016-11-30 on, all DNS names of TSM servers using the lrz-muenchen.de domain suffix will be deleted. Please make sure to change the TCPSERVERADDRESS option before that date. Otherwise you will not be able to carry out any TSM operations anymore after this date.

Please also bear in mind that if you are using firewalls, you may also have to adjust your firewall configuration.

Your ABS team

Zurück zum Inhaltsverzeichnis


Zentrale Systeme und Grid Computing



16th Gauss Call for Large Scale Projects

A "Call for Large-Scale Projects" is published by the Gauss Centre twice a year. Dates for closure of calls are usually at the end of winter and at the end of summer.

The current 16th call will be open

July 25th to August 26th 2016, 17:00 o’clock CEST (strict deadline)

Within this call there will be approx. 700 Mio core-hours available at SuperMUC.
Eligible are applications from German universities and publicly funded German research institutions, e.g., Max-Planck Society, and Helmholtz Association.

Please prepare your proposal now and submit it when the servers are open!

Supercomputing at the leading edge

The Gauss Centre for Supercomputing (GCS) provides computing power and services of the highest performance class for computational sciences and engineering at its three member sites in Garching (Leibniz Supercomputing Centre, LRZ), Jülich (Jülich Supercomputing Centre, JSC), and Stuttgart (High Performance Computing Center Stuttgart, HLRS). To ensure a most efficient utilisation of these highly valuable resources, GCS provides its users with world- leading support, education, and dissemination of best practices and methods in simulation science. GCS aims, in particular, at innovative and scientifically challenging large-scale projects that cannot be carried out within smaller infrastructures. Such projects will also benefit most from the existing successful support structures within the GCS and from their continuous synchronisation and optimization.

State-of-the-art systems

The GCS offers a highest-level computing and networking infrastructure.

  • At JSC an IBM Blue Gene/Q system JUQUEEN with about 5.9 PetaFlop/s peak performance is available for highly scalable applications.
  • LRZ’s SuperMUC System provides two system partitions, which share the same programming environment and file systems. Phase 1, an IBM System X iDataPlex consisting of 155,000 cores delivers a peak performance of 3.2 Petaflop/s. Phase 2, an IBM/Lenovo NeXtScale WCT system delivers an additional peak performance of 3.6 Petaflop/s with 86,016 cores.
  • HLRS offers its Cray System Hazel Hen, an XC40 based on Intel Processors and the Aries interconnect, with 7.4 PetaFlop/s peak performance.

The architectures of these machines are complementary and can accommodate a broad spectrum of applications. The systems within the GCS are continuously upgraded in a round robin fashion.

Large-Scale Projects

Large-scale projects and highly scalable parallel applications are characterised by large computing time requirements, not only for short time frames, but often for longer time periods. Projects are classified as “Large-Scale”, if they require 35 Mill. core-hours or more per year. For these large-scale projects a competitive review and resource allocation process is established by the GCS. Requests above this limit will be processed according to joint procedures of the GCS and will be reviewed in a national context. Requests below this limit and requests for test projects will be directly processed by the individual member centres.

Answering the Call

Leading, ground-breaking projects should deal with complex, demanding, innovative simula- tions that would not be possible without the GCS infrastructure, and which can benefit from the exceptional resources provided by GCS.

Application for a large-scale project should be performed by filling in the appropriate electronic application form that can be accessed from the GCS web page

http://www.gauss-centre.eu/large-scale-application

Please use the template for the project description of you GCS large-scale application which can be reached from the above web page and are provided in pdf, docx, and LaTeX format. Note that also the regular application forms of the GCS member centres can be reached from there.

Please note:

  • Projects with a running large-scale grant must clearly indicate and justify this.
  • Projects targeting multiple GCS platforms must clearly indicate and justify this.
  • Projects applying for an extension must clearly indicate the differences to the previous applications in the project description.
  • Project descriptions must not exceed 25 pages.
  • Grants from or applications to all German computing centres and PRACE have to be reported in the online application forms.

The proposals for large-scale projects will be reviewed with respect to their technical feasibility and peer-reviewed for a comparative scientific evaluation. On the basis of this evaluation by a GCS committee the projects will be approved for a period of one year and given their allocations.

Criteria for decision

Applications for compute resources are evaluated only according to their scientific excellence.

  • The proposed scientific tasks must be scientifically challenging, and their treatment must be of substantial interest.
  • Clear scientific goals and verifiable milestones on the way to reach these goals must be specified.
  • The implementation of the project must be technically feasible on the available computing systems, and must be in reasonable proportion to the performance characteristics of these systems.
  • The Principal Investigator must have a proven scientific record, and she/he must be able to successfully accomplish the proposed tasks. In particular, applicants must possess the necessary specialized know-how for the effective use of high-end computing systems. This has to be proven in the application for compute resources, e.g. by presenting work done on smaller computing system, scaling studies etc.
  • The specific features of the high-end computers should be optimally exploited by the program implementations. This will be checked regularly during the course of the project.

For further help please contact the member sites via http://www.gauss-centre.eu/contacts
or directly LRZ Support via http://www.lrz.de/services/compute/supermuc/contact_support/.

A PDF document of the call is avail at: http://www.lrz.de/services/compute/supermuc/calls/GaussCall16.pdf

Autor: Matthias Brehm

Zurück zum Inhaltsverzeichnis

Advanced High-level Support Call of the LRZ AstroLab (ADVISOR)

Second Call of the LRZ AstroLab (ADVISOR 2016)

The AstroLab invites current and potential SuperMUC users to apply for its high-level support in optimising and tuning their applications/codes to the current and upcoming HPC systems at LRZ. This call is restricted to the Astro and Plasma physics groups affiliated to German academic and research institutions (other users: please consider the similar PRACE Preparatory Access Type C calls). The proposed support call projects may request 1 person-month of AstroLab resources and are envisioned to take the form of a long-term computational collaboration with LRZ, ideally leading to joint publications or follow-up projects with external funding resources. The possible work areas for this call is listed in the application form.

The applicants are invited to fill out the application template describing their motivation, type of support requirement, detailed working plan and expected outcomes, and send to astrolab_AT_lists.lrz.de. For any queries please also feel free to contact us beforehand. We also kindly ask you to forward this support call to any interested colleague of yours, since our distribution list is far from being complete.

The application deadline for this call is 31st July 2016. The applications will be refereed internally and the selected projects will be contacted afterwards to start the work.

For earlier calls, please see our website.

Zurück zum Inhaltsverzeichnis


Kompaktkurs: Iterative Gleichungssystemlöser und Parallelisierung

Wann: 5. - 9. September 2016

Wo: LRZ, Garching bei Muenchen

Der Kompaktkurs wendet sich an Studierende höherer Semester und Doktoranden der Ingenieurwissenschaften, Physik, Informatik, Mathematik sowie Wissenschaftler an anwendungsorientierten Forschungsinstituten und der Industrie.

Innerhalb des Kurses wird ein Überblick ueber moderne Verfahren zur effizienten Lösung großer linearer Gleichungssysteme gegeben, die eine starke Verbreitung im Bereich des wissenschaftlichen Rechnens aufweisen. Zudem wird eine detaillierte praxisorientierte Einführung in die Parallelisierung gegeben. Dabei wird gezielt auf die Parallelisierung numerischer Verfahren und iterativer Gleichungssystemlöser eingegangen.

Kursinhalte:

Der Kompaktkurs ist praxisorientiert aufgebaut und in Vorträge und Übungen unterteilt. Den Teilnehmern wird im Rahmen des Kurses die Möglichkeit gegeben, die Lehrinhalte in Computerprogramme umzusetzen.

Der Kursus beinhaltet die Themen

  • Klassische Splitting-Verfahren
  • Krylov-Unterraummethoden (CG, GMRES, BiCGSTAB, CGS, ...)
  • Praekonditionierung
  • Mehrgitterverfahren
  • Parallelisierung
    • OpenMP
    • MPI
    • PETSc
    • iterativer Verfahren

Die ausfuehrlichen, kursbegleitenden Unterlagen

sind in der Teilnahmegebuehr enthalten.

Weitere Informationen und Anmeldung unter http://www.hlrs.de/training/2016/ITER-G

Anmeldeschluss ist der 7. Aug. 2016. Aufgrund der begrenzten Kapazität empfehlen wir eine frühzeitige Anmeldung.

WICHTIG ist eine frühzeitige Hotelbuchung für auswärtige Teilnehmer.

Zurück zum Inhaltsverzeichnis

Next HPC Courses at LRZ

Following, please, find a list of the next HPC courses at LRZ:

Zurückzum Inhaltsverzeichnis

Infobrief der Gauß-Allianz

Die Gauß-Allianz (GA) ist der Zusammenschluss von 18 Rechenzentren und Institutionen in Deutschland zur nachhaltigen und effizienten Nutzung von Supercomputing-Ressourcen der obersten Leistungsklassen. Hier finden Sie die aktuelle Ausgabe des GA-Infobriefs.
Das Gauss Centre for Supercomputing (GCS) ist der Zusammenschluss der drei nationalen Höchstleistungsrechenzentren in Deutschland (FZ Jülich, HLRS in Stuttgart und LRZ in Garching bei München). GCS ist der deutsche Partner in der Partnership for Advanced Computing in Europe (PRACE).
Die Gauß-Allianz schreibt den Namen des großen Mathematikers mit "ß", das Gauss Centre schreibt seinen Namen in britischem Englisch mit "ss" statt "ß".

Zurück zum Inhaltsverzeichnis

PRACE Newsletter

PRACE, the Partnership for Advanced Computing in Europe was established in 2010 to create a persistent pan-European Research Infrastructure (RI) of world-class supercomputers. This infrastructure is currently made up of six leading edge machines, hosted by four member countries, (France, Germany, Spain and Italy) and accessible through an open peer-review process, complemented by national resources operated and accessible via High Performance Computing (HPC) centres throughout Europe. Please, take a look at the latest PRACE newsletter.

Zurück zum Inhaltsverzeichnis


Stellenangebote / Job Opportunities


Sie finden alle aktuellen Stellenangebote des LRZ immer auch auf unser Webseite www.lrz.de/wir/stellen/.

You will find all job opportunities at LRZ, some of them in English, on our web page www.lrz.de/wir/stellen/.



Stellenangebot: Mitarbeiter(in) für den Bereich Sicherheit und ITSM

Das Leibniz-Rechenzentrum (LRZ) ist gemeinsames Rechenzentrum der Münchner Universitäten und der Bayerischen Akademie der Wissenschaften. Es erbringt vielfältige Dienste der Informationsverarbeitung, betreibt das Münchner Wissenschaftsnetz (MWN) und ist Zentrum für technisch-wissenschaftliches Höchstleistungsrechnen.

Für die Abteilung Kommunikationsnetze suchen wir

eine(n) Mitarbeiter(in) für den Bereich Sicherheit und IT-Service Management im Münchner Wissenschaftsnetz

mit abgeschlossenem Hochschulstudium (Master, Bachelor) in Informatik oder einem naturwissenschaftlich-technisch orientierten Studiengang.

 Das vorgesehene Aufgabengebiet umfasst

  • Mitarbeit beim Betrieb des Münchner Wissenschaftsnetzes insbesondere im Bereich Sicherheit und Sicherheitsvorfallbearbeitung
  • Betrieb und Weiterentwicklung folgender Sicherheitssysteme:
    • IDS-Systeme 
    • Security Information and Event Management (SIEM) System mit Integration von Datenquellen
    • (D)DoS-Monitoring

Das LRZ gestaltet sein Service-Management-System nach Vorgaben von FitSM und ISO/IEC 20000. Als zentrales informationsverarbeitendes System für die Prozesse des IT-Service- Managements (ITSM) betreibt das LRZ eine Configuration-Management-Database (CMDB), die kontinuierlich weiterentwickelt und ausgebaut wird.

Konkrete Aufgaben, die in diesem Bereich anstehen, umfassen u.a.

  • Konzeption der DV-technischen Erfassung des LRZ-Service-Portfolios
  • Anpassung der LRZ-CMDB zur Erfassung von Service-Portfolio- und Service-Katalog-Einträgen
  • Konzeption und Entwicklung einer toolunterstützten Erstellung und Aktualisierung von Service-Katalogen

Unsere Anforderungen an Sie:

  • Team- und Kommunikationsfähigkeit;
  • Fähigkeit zum selbständigen und konzeptuellen Arbeiten;
  • gute Kenntnisse in den Bereichen TCP/IP-Netze, Linux-basierter Serverdienste und Sicherheit
  • Grundkenntnisse in IT-Service-Management, z.B. ISO/IEC 20000, FitSM oder ITIL
  • Know-How in Datenbanksystemen (SQL) und Webentwicklung (PHP)
  • Sie haben praktische Erfahrungen auf mehreren der folgenden Gebiete und Interesse, sich in die anderen einzuarbeiten:
    • Konfiguration von Netz- und Sicherheitskomponenten;
    • Erstellung von Netzsicherheitskonzepten;
    • Programmierkenntnisse in Perl, Java oder Python;
    • Linux-Systeme und Programmierumgebungen.

Wir bieten

  • Tätigkeit in einem Fachgebiet mit Zukunft;
  • ein universitäres  und innovatives Arbeitsumfeld mit einem sehr guten Betriebsklima und Gestaltungsfreiräumen;
  • Möglichkeit zur Promotion;
  • einen Arbeitsplatz in einem modernen Rechenzentrum ausgestattet mit der neuesten technologischen Infrastruktur.

Die Stelle ist zunächst auf zwei Jahre befristet und kann sofort besetzt werden. Die Stelle kann auch in Teilzeit besetzt werden. Die Vergütung erfolgt nach TVL. Schwerbehinderte Bewerberinnen oder Bewerber werden bei gleicher Eignung bevorzugt.  Für eine erste Kontaktaufnahme und nähere Auskünfte wenden Sie sich an den Leiter der Gruppe NETB, Herrn Helmut Tröbs, (troebs_AT_lrz.de; Tel. 089-35831-8821) bzw. den Leiter des ITSM Projektes Herrn Dr. Michael Brenner (brenner_AT_lrz.de, Tel. 089-35831-8836).

Kontakt:

Senden Sie Ihre elektronische Bewerbung mit den üblichen Unterlagen (bitte als ein Dokument!) bis spätestens 8. Juli 2016 an

apel_AT_lrz.de

oder schriftlich an

Leibniz-Rechenzentrum
Frau Hannelore Apel
-Stichwort: Stelle Netzsicherheit  -
Boltzmannstraße 1
85748 Garching

Bitte beachten Sie, dass wir eingereichte Unterlagen aus organisatorischen Gründen generell nicht zurückschicken. Senden Sie daher am besten nur Kopien ein. Auf Umschlagsmappen und Schutzhüllen etc. kann verzichtet werden.

Zurück zum Inhaltsverzeichnis


Ausbildungsplatz IT-Systemelektroniker/-in

Das Leibniz-Rechenzentrum (LRZ) ist das gemeinsame Hochschulrechenzentrum für die Ludwig-Maximilians-Universität München, die Technische Universität München und die Bayerische Akademie der Wissenschaften. Wir bieten technisch interessierten Schulabsolventinnen und -absolventen die Möglichkeit der Ausbildung zum/zur
IT-Systemelektroniker/-in

Berufsbild


Als IT-Systemelektroniker/-innen planen und installieren Sie IT-Systeme einschließlich der entsprechenden Geräte, Komponenten und Netzwerke. Sie installieren die Stromversorgung und die Software und nehmen die Systeme in Betrieb. Sie analysieren Fehler und beseitigen Störungen (www.lrz.de/wir/ausbildung/berufsausbildung/).

Die Ausbildung

  •     Dauer der Ausbildung: drei Jahre
  •     Ausbildungsbeginn: 01. September 2017
  •     Fachpraktische Ausbildung in den verschiedenen Abteilungen des LRZ
  •     Ergänzend zur fachpraktischen Ausbildung interne Lehrgänge (z.B. Kommunikation, Präsentation)
  •     Berufsschule in München

Wir freuen uns über

  •     Interesse an allen Aspekten der Datenverarbeitung
  •     mittlerer Bildungsabschluss oder vergleichbare Schulqualifikation)
  •     gute Mathematik- und/oder Informatik-Noten
  •     gute Englischnote
  •     eine rasche Auffassungsgabe
  •     guter mündlicher und schriftlicher Ausdruck
  •     Zuverlässigkeit, Flexibilität, Engagement und Sorgfalt
  •     ein gutes technisches Verständnis
  •     Interesse am Lösen von Problemen
  •     Freude am Kontakt mit Menschen und der Arbeit im Team

Ihre Bewerbung muss spätestens bis zum 01. September 2016  bei uns eingehen:

Leibniz-Rechenzentrum
der Bayerischen Akademie der Wissenschaften
Stichwort: Ausbildung ITSE
Frau Hannelore Apel
Boltzmannstr. 1
85748 Garching b. München

E-Mail: bewerbungen_AT_lrz.de

Bei Bewerbungen per E-Mail bitten wir Sie, die Unterlagen als ein zusammenhängendes Word-, Postscript-, oder PDF-Dokument einzureichen (keinesfalls viele Einzeldateien).
Senden Sie am besten nur Kopien ein. Auf Umschlagmappen, Schutzhüllen etc. kann verzichtet werden. Nutzen Sie die Möglichkeit der elektronischen Bewerbung.

Für nähere Auskünfte rufen Sie Frau Petra Gärtner an, Tel: 089/35831-8844.

Ausbildungsplatz Fachinformatiker/-in Systemintegration

Das Leibniz-Rechenzentrum (LRZ) ist das gemeinsame Hochschulrechenzentrum für die Ludwig-Maximilians-Universität München, die Technische Universität München und die Bayerische Akademie der Wissenschaften. Wir bieten technisch interessierten Schulabsolventinnen und -absolventen die Möglichkeit der Ausbildung zum/zur
Fachinformatiker/in Systemintegration.

Berufsbild

Als Fachinformatiker/in für Systemintegration planen, konfigurieren und administrieren Sie Informations- und Kommunikationslösungen. Hierfür vernetzen Sie Hard- und Softwarekomponenten zu komplexen Systemen und sorgen für einen reibungslosen Betrieb. Daneben beraten und schulen Sie Benutzer. Siehe auch http://www.lrz.de/wir/ausbildung/berufsausbildung/.

Die Ausbildung

  •     Dauer der Ausbildung: drei Jahre
  •     Ausbildungsbeginn: 01. September 2017
  •     Fachpraktische Ausbildung in den verschiedenen Abteilungen des LRZ
  •     Ergänzend zur fachpraktischen Ausbildung interne Lehrgänge (z.B. Kommunikation, Präsentation)
  •     Berufsschule in München

Wir freuen uns über

  •     Interesse an allen Aspekten der Datenverarbeitung
  •     mittlerer Bildungsabschluss oder vergleichbare Schulqualifikation
  •     gute Mathematik- und/oder Informatik-Noten
  •     gute Englischnote
  •     eine rasche Auffassungsgabe
  •     guter mündlicher und schriftlicher Ausdruck
  •     Zuverlässigkeit, Flexibilität, Engagement und Sorgfalt
  •     ein gutes technisches Verständnis
  •     Interesse am Lösen von Problemen
  •     Freude am Kontakt mit Menschen und der Arbeit im Team

Ihre Bewerbung muss spätestens bis zum 01. September 2016 bei uns eingehen:

Leibniz-Rechenzentrum
der Bayerischen Akademie der Wissenschaften
Stichwort: Ausbildung FI Systemintegration
Frau Hannelore Apel
Boltzmannstr. 1
85748 Garching b.München
E-Mail:bewerbungen_AT_lrz.de

Bei Bewerbungen per E-Mail bitten wir Sie, die Unterlagen als ein zusammenhängendes Word-, Postscript-, oder PDF-Dokument einzureichen (keinesfalls viele Einzeldateien).
Senden Sie am besten nur Kopien ein. Auf Umschlagmappen, Schutzhüllen etc. kann verzichtet werden. Nutzen Sie die Möglichkeit der elektronischen Bewerbung.

Für nähere Auskünfte rufen Sie Frau Petra Gärtner an, Tel: 089 35831-8844.

Zurück zum Inhaltsverzeichnis


Initiativbewerbungen

Auch wenn in diesem LRZ-Newsletter keine für Sie passenden offenen Stellen aufgeführt sein sollten, so ist uns eine Initiativbewerbung immer willkommen.

Das Leibniz-Rechenzentrum (LRZ) ist gemeinsames Rechenzentrum der Münchner Universitäten und der Bayerischen Akademie der Wissenschaften. Das LRZ erbringt allgemeine IT-Dienste für mehr als 100.000 Kunden an den Hochschulen in München und für die Bayerische Akademie der Wissenschaften und stellt mit dem Münchner Wissenschaftsnetz (MWN) eine leistungsfähige Kommunikationsinfrastruktur bereit. Es ist Kompetenzzentrum für Datenkommunikationsnetze und betreibt Platten- und automatisierte Magnetband-Speicher zur Sicherung großer Datenmengen im Multi-Petabyte-Bereich.

Als Supercomputing-Zentrum beteiligt sich das LRZ am Aufbau einer leistungsfähigen europäischen Infrastruktur für Daten-, Informations- und Compute-Dienste und stellt Spitzenrechenleistung für anspruchsvollste deutsche und europäische Forschungsprojekte bereit.

Sollten Sie interessiert sein in diesem äußerst innovativen und spannenden Umfeld arbeiten zu wollen, so sind wir jederzeit an einer

Initiativbewerbung

von Ihnen interessiert. Insbesondere suchen wir für die Abteilungen Benutzernahe Dienste, Kommunikationsnetze und Hochleistungssysteme Mitarbeiter mit technisch-wissenschaftlicher Ausrichtung, wie etwa Informatiker, Mathematiker, Physiker, aber auch Chemiker, Geo-/Astrophysiker, Ingenieure usw. mit Diplom-, Master-, Bachelor- oder vergleichbarem Abschluss.

Bitte sprechen Sie uns auch an, falls Sie Interesse an einer Promotion oder Master-Arbeit haben. Im Umfeld der unterschiedlichen LRZ-Dienstleistungen ergeben sich laufend spannende Forschungsthemen mit starkem Praxisbezug.

Schicken Sie uns Ihre Bewerbung mit den üblichen Unterlagen entweder elektronisch (bitte nur ein zusammenhängendes PDF-Dokument) an:

bewerbungen_AT_lrz.de – Stellenangebot Initiativbewerbung –

oder schriftlich an:

Leibniz-Rechenzentrum
Frau Hannelore Apel
– Stellenangebot Initiativbewerbung –
Boltzmannstraße 1
85748 Garching b.München

Senden Sie am besten nur Kopien ein. Auf Umschlagmappen, Schutzhüllen etc. kann verzichtet werden. Nutzen Sie bitte möglichst den Weg der elektronischen Bewerbung.

Zurück zum Inhaltsverzeichnis


Impressum

Herausgeber:
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften

Anschrift:
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
Boltzmannstraße 1
D-85748 Garching

Telefon: +49-89-35831-8000
Telefax: +49-89-35831-9700
E-Mail: lrzpost_AT_lrz.de

Redaktion: Dr. Ludger Palm

Sollten Sie Schwierigkeiten mit der Darstellung unseres Newsletters haben, dann schicken Sie uns bitte eine kurze Beschreibung des Problems an NewsletterRedaktion_AT_lrz.de . Danke!

Bestellen und Abbestellen des Newsletters

Sie können den LRZ-Newsletter über unsere Webseite bestellen oder abbestellen.

Archiv

Frühere Ausgaben des LRZ-Newsletters finden Sie im Archiv.