LRZ-Newsletter Nr. 8/2011 vom 04.08.2011

Unsere Themen:

Impressum, Abbestellen des Newsletters und Archiv


Termine, Veranstaltungen, Allgemeines


Ausbau der Rechenkapazität für München und Bayern

In unserem letzten Newsletter konnten wir berichten, dass es am LRZ jetzt zwei Höchstleistungsrechner gibt, die es bis in die TOP500-Liste geschafft haben. Doch auch eine Etage tiefer tut sich viel: Im Juli wurde ein MEGWARE-Cluster in Betrieb genommen, das ebenso wie der SuperMUC mit heißem Wasser gekühlt werden kann. Bis die neue Kühlinfrastruktur im neuen Rechnergebäude zur Verfügung steht, wird er mit der jetzigen Kaltwasserinfrastruktur gekühlt. Die 178 AMD-Magny-Cours-Knoten mit Infiniband QDR-Technologie bringen es auf eine Peak-Performance von 22 Teraflops. Auch dieses System wird wie der SuperMUC ein weltweit hervorragendes Beispiel für Energieeffizienz sein.

Des Weiteren wurde die SGI Ultraviolet-Architektur am LRZ ausgebaut. Hier stehen jetzt Partitionen mit 3,3 Terabyte Shared Memory und einer Peak-Performance von 20 Teraflops zur Verfügung. Sowohl dieses SGI Ultraviolet-System als auch der neue MEGWARE-AMD-Cluster wurden im Wesentlichen aus Mitteln des Bundes und des Freistaates Bayern mit Beteiligung der Europäischen Kommission durch das PRACE-Projekt finanziert. Weitere Einzelheiten finden Sie auf unseren Webseiten über den Linux-Cluster.

Auch die Höchstleistungsrechner HLRB II, SuperMIG und SuperMUC stehen natürlich Forschern aus München und Bayern zur Verfügung. Dazu müssen diese sich dem üblichen Peer Reviewing-Verfahren unterziehen und ihre Projekte begutachten lassen. Wie die Statistik im Jahresbericht des LRZ zeigt, ist der Anteil bayerischer Forscher an der Rechenzeit der Höchstleistungsrechner seit Jahren bei fünfzig Prozent.

Zurück zum Inhaltsverzeichnis


Skype im Münchner Wissenschaftsnetz

In letzter Zeit kommt es bei der Verwendung von Skype auf Rechnern  innerhalb des Münchner Wissenschaftsnetzes (MWN) immer wieder zu  Sperrungen am NAT-o-MAT/Secomat. Das Problem tritt nach unseren  Erfahrungen dann auf, wenn der eigene Rechner zum Skype-Supernode  und/oder -Relay wird. In diesem Fall steigt die Anzahl der vom eigenen  Rechner ausgehenden UDP-Verbindungen rapide an, was vom NAT-o-MAT/Secomat  als Port-Scan gewertet und nach einiger Zeit mit einer Sperrung bestraft  wird. Dieses Verhalten ändert sich anscheinend von Skype-Version zu Skype-Version, so dass sich keine belastbaren Aussagen über einen Zusammenhang  zwischen Version und Verhalten machen lassen. Wir haben einen Katalog von  Massnahmen in Abhängigkeit von den jeweiligen Betriebsystemen  zusammengestellt, die das Problem schon erfolgreich beseitigt haben:
http://www.lrz.de/services/netzdienste/nat-o-mat/#skype_bremse

Autor: Claus Wimmer

Zurück zum Inhaltsverzeichnis


Internet-Mitbegründer Stephen Crocker spricht am 27.09.2011 am LRZ

Stephen D. Crocker, Internet-Koryphäe und einer der Mitbegründer des World Wide Web, und neu gewählter ICANN-Vorsitzender wird am 27. September 2011 um 10:00 Uhr zu Gast sein im Hörsaal (H.E.009) des LRZ in Garching.

Thema seines Vortrags: "History of the Internet and a look at the future"

Stephen Crocker ist der Erfinder der "Request for Comments“ RFC (Internet Standards) und Verfasser des allerersten RFC. Er studierte an der University of California, Los Angeles (UCLA), wo er 1968 den Bachelor- und 1977 den PhD-Grad erwarb. Stephan Crocker hat seit deren Gründung an der Entwicklung der Internet-Community mitgewirkt. Als Student der UCLA in den 1960er Jahren, war Crocker an der Erstellung der ARPANET-Protokolle beteiligt, die den Grundstein für das heutige Internet bildeten.

Für diese Arbeit wurde Crocker 2002 mit dem Internet Award ausgezeichnet.

Nach seinem Studium bekleidete er in zahlreichen Unternehmen leitende Funktionen und betätigte sich als Firmengründer. So war er u.a. Programm-Manager bei der Advanced Research Projects Agency (ARPA), leitender Forscher am Information Sciences Institute der University of Southern California, Gründer und Direktor des Computer Science Laboratory der Firma The Aerospace Corporation und Vice President der Firma Trusted Information Systems. Im Jahr 1994 war er Mitgründer und Chief Technology Officer von CyberCash, Inc. und 1998 gründete er Executive DSL, einen Internet Service Provider. Im Jahr 1999 war er Mitbegründer und CEO der Longitude Systems. Derzeit ist Crocker CEO von Shinkuro Inc., einem Forschungs- und Entwicklungs-unternehmen.

Stephen Crocker war maßgeblich beteiligt an der Schaffung der ARPA "Network Working Group", in deren Umfeld später die IETF entstand. Er war Direktor des IETF-Sicherheitsbereichs, Mitglied des Internet Architecture Board (IAB), Vorsitzender des ICANN Security und Stability Advisory Committee, Mitglied des Vorstandes der ISOC und war in zahlreichen anderen Internet-Gremien vertreten.

Autor: Dieter Kranzlmüller

Zurück zum Inhaltsverzeichnis


 

Zurück zum Inhaltsverzeichnis


Zentrale Systeme und Grid Computing


News on the HLRB II successor SuperMUC

The initial installation of the next-generation IBM system with 205 nodes, each containing 40 Westmere-EX cores and 256 GBytes of shared memory, will soon become ready for user operation. This enables us to provide more details about the time table for migration of users from the Altix 4700 to the new system:

  • We intend to start by selecting large-scale users (job sizes 1000 cores and more) early in August, and incrementally give access also to smaller-scale users throughout August, until all users will be able to access the system in early September
  • The target is that all HLRB-II users should be able to run their codes on the new system by end of September; in case of difficulties please contact the LRZ Service Desk.
  • IBM's LoadLeveler will be deployed as a batch queuing system; therefore you will need to make changes to your existing PBS job scripts.
  • During the intermediate operation phase (from August 2011 to summer 2012), the I/O bandwidth to the scratch disk and project subsystem will be lower than presently available on the Altix, and programs making use of parallel I/O via MPI-IO or HDF5 will require special configuration.
  • Migration of the LRZ software stack will start in July 2011, and may take until September to be completed. The development environment will be based on Intel's compilers (version 12.0), and either IBM MPI or Intel MPI can be used. Pure OpenMP programs can only be run efficiently with up to 40 threads.
  • The Altix 4700 will be retired from user operation in early October 2011.
  • Since there exists no access to scratch and project data produced ($OPT_TMP or $PROJECT) on HLRB-II from the new system, LRZ urgently asks you to delete unneeded data from the scratch and project areas and to write all important data to tape on HLRB-II within the next few weeks. A procedure for restoring TSM tape archives written on HLRB-II to the new system will be provided.
Documentation on the new system will be accessible via http://www.lrz.de/services/compute/supermuc/. Note that as of end of July 2011, this is still work in progress.

Further down the road, the following steps will be taken:

  • In early December 2011, LRZ - in collaboration with Intel and IBM - is planning a training workshop on handling the system and its development environment, to which all users of the HLRB II will be invited.
  • In summer 2012, the much bigger system (SuperMUC) with more than 6250 nodes (each with 16 Sandy Bridge-EP cores and 32 GBytes of memory) will become available for user operation. SuperMUC will have a peak performance of 3 PetaFlop/s (3,000 TFlop/s) which is roughly 50 times more than the present system. To fully exploit the capabilities of the new SIMD (AVX) units on the Sandy Bridge CPUs, further tuning measures may be appropriate, but programs compiled for the Westmere-based migration system should run without problems.
  • The system will also provide GPFS ("General Parallel File System") based disk storage with a total capacity of 10,000 TBytes and an aggregate bandwidth of 200 GBytes/s, which will fully support MPI-IO and HDF5-based parallel I/O. Furthermore, SuperMUC will have provisions in place to run jobs in an energy efficient manner e.g., by running processors at a lower frequency if the program's performance does not deteriorate.
  • Some months after SuperMUC's start of user operation, the nodes of the migration system will be integrated with the main system, forming a "fat node" island for programs which require a large shared memory.

Autor: Reinhold Bader

Zurück zum Inhaltsverzeichnis


Linux Cluster: Upgrade of the parallel computing capacity

LRZ has taken two new systems into user operation in its Linux Cluster infrastructure; these new systems are focused on efficient execution of large scale parallel programs.

The first system is an Infiniband-connected cluster of 16-way shared memory systems with more than 2500 cores delivered by MEGWare, and the second one consists of SGI Ultraviolet (UV) large-scale shared memory systems with more than 2000 cores in total.

The altix2 system will be retired from user operation once the new systems are fully available.

Users are advised that all new systems, which are targeted to running large parallel jobs, will use SLURM as a batch scheduler. Existing SGE scripts will not work on the new clusters - they will require rewriting of the control section, and will also need modification of the program startup procedure in the script section. Documentation for the new batch system are available via the Linux Cluster page. The usage instructions for startup of MPI programs will also be updated.

We hope that this capacity upgrade will reduce the rather long waiting times which nowadays are observed for parallel jobs. We intend to keep you informed about the status of these new systems via updates.

Autor: Reinhold Bader

Zurück zum Inhaltsverzeichnis


Gauss Call No. 6 for Large Scale Projects

Large-scale projects and highly scalable parallel applications are characterised by large computing time requirements, not only for short time frames, but frequently for longer time periods. The GCS centres will guarantee that large-scale projects can fully utilise the assigned resources, if necessary at the expense of normal or smaller projects.

Projects are classified as "Large-Scale", if they require more than 5% of the potentially available CPU cycles on a member centre's high-end system, i.e.

  • more than 70 Mill. core-hours at JSC (corresponding to 24 rack months IBM BG/P)
  • more than 30 Mill. core-hours at HLRS (HERMIT Step 1)
  • more than 4 Mill. core-hours at LRZ (IBM iDataPlex, Migration System for SuperMUC)
For these large-scale projects a competitive review and resource allocation process is established by the GCS. Requests for resources below these limits will be accepted by the individ­u­al member centres. Requests above these limits will be handed over to GCS, handled according to the joint procedures, and will be reviewed in the national context. Projects of smaller scale will be still handled by the local GCS member site.

A "Call for Large-Scale Projects" is published by the Gauss Centre twice a year. Dates for closure of calls are usually at the end of February and at the end of August of each year.

Eligible are applications from publicly funded academic and research institutions, e.g., universities, Max-Planck Society and Helmholtz Association.

The deadline for the current call is 31 August 2011, 17:00. To answer this call, please follow the detailed description.

The next call will be issued in January 2012.

Zurück zum Inhaltsverzeichnis


PRACE Summer School: Taking the Most Out of Supercomputers

PRACE, the Partnership for Advanced Computing in Europe organizes a summer school on 29 August to 1 September 2011 in Espoo, Finland. The school will be hosted by CSC - IT Center for Science Ltd and co-organized together by CSC and the PDC supercomputing centre in Stockholm, Sweden.

In this four-day event the participants will learn advanced parallel programming skills, which are necessary for taking the most out of the largest (Tier-0) supercomputers the PRACE Research Infrastructure is offering for European scientists and engineers.

The speaker list includes William Gropp (University of Illinois Urbana-Champaign), one of the key authors of MPI (Message Passing Interface) programming paradigm, and Rolf Rabenseifner (HLRS), one of the most renowned researchers of hybrid parallel programming models. In addition, the following topics will be covered: programming GPGPU clusters with CUDA+MPI, low-level single-core performance optimization as well as using the Python programming language in supercomputing.

The largest supercomputers in Scandinavia, i.e. the brand new Cray XE6 system at PDC and CSC's Cray XT4/XT5 system Louhi will be in disposal of the participants.

Attendance is free of charge for all academics affiliated to PRACE member countries. For further details and a registration please visit
http://www.csc.fi/courses/archive/prace-summer-school

Zurück zum Inhaltsverzeichnis


GridKa School/Swiss Grid School 2011

The program of the upcoming summer school "GridKa School/Swiss Grid School 2011" (September 5th to September 9th) includes:

  • talks on topics such as virtualization, data storage and cloud computing
  • hands-on practicals/workshops (in parallel tracks)
    • for users: gLite, UNICORE, Globus Toolkit, effective analysis programming, ROOT/PROOF
    • for admins: cloud computing, HADOOP, gLite administration, dCache, ARC, security workshop, volunteer computing

Auditorium presentations and hands-on practicals/workshops each cover about 50% of the schedule.

Simply register at http://gridka-school.scc.kit.edu/2011/57.php.

GridKa School/Swiss Grid School is hosted by Steinbuch Centre for Computing of Karlsruhe Institute of Technology (KIT). It is organized by KIT, the Swiss National Grid Iniative (SwiNG) and the HGF Alliance "Physics at the Terascale". The school cooperates with the European Grid Initiative (EGI), the European Middleware Initiative (EMI) and the Initiative for Globus in Europe (IGE). It offers a broad range of topics, which are chosen from the realm of these projects and beyond.

Zurück zum Inhaltsverzeichnis


Compact course: Iterative linear solvers and parallelization

Date: Monday, September 12 - Friday, September 16, 2011, 8:30-17:30

Location: LRZ Building, Garching/Munich, Boltzmannstr. 1

Contents: The focus of this compact course is on iterative and parallel solvers, the parallel programming models MPI and OpenMP, and the parallel middleware PETSc. Different modern Krylov Subspace Methods (CG, GMRES, BiCGSTAB...) as well as highly efficient preconditioning techniques are presented in the context of real life applications. Hands-on sessions (in C and Fortran) will allow users to immediately test and understand the basic constructs of iterative solvers, the Message Passing Interface (MPI) and the shared memory directives of OpenMP.

This course is organized by the University of Kassel, the high performance computing centre of Stuttgart (HLRS) and IAG.

For more details and application see our web page.

Zurück zum Inhaltsverzeichnis


Stellenangebote des Leibniz-Rechenzentrums


Stellenangebote: HPC Personnel

The Leibniz Supercomputing Centre (Leibniz-Rechenzentrum, LRZ) is part of the Bavarian Academy of Sciences and Humanities (Bayerische Akademie der Wissenschaften, BAdW). LRZ has been an active player in the area of high performance computing for over 20 years and provides computing power on several different levels. It offers its services to universities across Europe and to publicly funded research institutions, like Max-Planck and Helmholtz Institutes. In 2012, LRZ will put into service the fastest supercomputer in Europe (SuperMUC) with a peak performance of 3 Petaflop/s and more than 320 Terabytes of main memory.

In the field of High Performance Computing the Leibniz Supercomputing Centre in Garching (Munich) is looking for

scientific staff members
(university post graduate degree; master’s degree or equivalent)

The position is available immediately. Applications will be accepted until September 30th, 2011.

LRZ is collaborating closely with other European and internationally renowned supercomputing centres and industrial technology providers on researching new technologies for the hardware and software design of future supercomputers. Within these research projects, energy efficiency of future supercomputers is a key aspect of LRZ’s research, covering  both Petascaling of applications and the surrounding infrastructure for cooling, etc.

You will contribute to European HPC research projects and will be working in this multifaceted field on a variety of hardware and software related research, with the potential to influence the future design of supercomputers. You will be working at the boundaries between computer science, physics, and numerical mathematics. In particular, you might take responsibility for some of the following tasks:

  • conceptual design of energy efficient supercomputers and HPC centres;
  • design and implementation of energy monitoring software and databases for future HPC hardware;
  • design and implementation of energy aware operation software;
  • petascaling of important application codes;
  • investigation of algorithms targeted for massively parallel systems;
  • completing reports and documentation (primarily in English);
  • programming in C/C++, Python, Perl and shell scripting;
  • conceptual work on the installation and operation of a large HPC cluster;
  • scouting new technologies and development, focusing on system management of large compute clusters;
  • administering and monitoring cluster resources, installation of system software and configuration management;
  • installation and validation of system software;
  • completing reports and documentation (primarily in English);
  • supporting users executing HPC projects.

You should have the following qualifications:

  • a post graduate university degree in a scientifically oriented subject (computer science, mathematics, physics, etc.) with an above average GPA;
  • experience with the system administration of UNIX/Linux based systems and/or experience in parallel programming;
  • programming knowledge with shell and scripting languages (Perl, Python, etc.) and a high level programming language (C, C++, or Java);
  • good speaking and writing skills in English as well as a basic knowledge of the German language;
  • initiative, capacity for teamwork, and creativity.

Due to its state-of-the-art computing facilities and its proximity to the Munich universities, LRZ offers a very stimulating and innovative environment. Progressive policies such as flexible working hours support the combination of work and family life.

We offer you a pleasant and easygoing work environment in an internationally recognized HPC team with many years of experience that you can draw on for support, while also having ample opportunity to work independently and follow your individual preferences. In addition you have the option of pursuing advanced training or a doctorate (PhD) at one of the many nearby universities.

Salary is determined by TV-L. The position is time-limited, initially, to two years. Following the institute's goal of equal opportunity, qualified women are strongly encouraged to apply. Severely disabled persons will be hired preferentially over others with equal qualifications.

Please submit your application with resume (C.V.) GPA reports and letters of recommendation by September 30th, 2011 to:

Leibniz Supercomputing Centre
Mrs. Hannelore Apel
- keyword: HPC Administration - (2011/08)
Boltzmannstr. 1
85748 Garching near Munich

or via email to:
apel AT lrz.de

For submissions via email (preferred!) we kindly ask you to send your application as a single Word, postscript, or PDF document (not many individual files). Documents can only be returned if a self-addressed envelope with sufficient postage is included. Therefore it is best to send only copies of your documents. Protective covers or wrappers can be omitted.

For further information please contact:

Dr. Matthias Brehm (Tel: 089/35831-8773, Email: Brehm AT lrz.de)
Dr. Herbert Huber (Tel: 089/35831-8833, Email: Huber AT lrz.de)

Zurück zum Inhaltsverzeichnis


Stellenangebot: Unix-Spezialist

Das Leibniz-Rechenzentrum (LRZ) ist das gemeinsame Hochschulrechenzentrum für die Ludwig-Maximilians-Universität München, die Technische Universität München und die Bayerische Akademie der Wissenschaften. Es liefert u.a. die IT-Services für den Bibliotheksverbund Bayern bei der Bayerischen Staatsbibliothek.

Für den weiteren Ausbau der BVB-Services im Bereich digitaler Objekte und Archivierung mit der Anwendung „Rosetta“ suchen wir

eine(n) wissenschaftliche(n) Mitarbeiter(in)
(Universitätsdiplom oder Master).

Die Aufgabenstellung umfasst die

  • Administration der Solaris-Clustersysteme;
  • Implementierung und Betreuung der Software-Basis und -Tools;
  • Permanente Prüfung und Verbesserung von Technologien und Verfahren;
  • Serviceorientierte Kooperation mit internen und externen Partnern;
  • Praxisgerechte Unterstützung von Kollegen bei den Anwendungen.

Als idealer Kandidat erfüllen Sie möglichst viele der folgenden Punkte:

  • fachorientiertes Hochschulstudium oder eine vergleichbare in der Praxis erworbene Qualifikation;
  • fundierte Unix-Kenntnisse, idealerweise mit Cluster-Technologie;
  • Kenntnisse von Oracle-(RAC)-Datenbanken (systemnahe Administration);
  • Kenntnisse von Storage Technologien wie NAS und SAN;
  • Grundkenntnisse von Backup Systemen, vorzugsweise TSM;
  • Grundkenntnisse in Netztechnik;
  • Teamfähigkeit (soziale Kompetenz) mit der Bereitschaft, eigenes Wissen weiterzugeben;
  • hohe Belastbarkeit mit der Fähigkeit, auch in turbulenten Situationen (Fehlerfall) „kühlen Kopf“ zu bewahren.

Wir bieten:

  • fundierte Einarbeitung für Berufsanfänger;
  • Mitarbeit in einem abwechslungsreichen Projekt mit nachhaltigen Zielen;
  • ein universitäres Arbeitsumfeld mit zahlreichen Gestaltungsfreiräumen;
  • einen Arbeitsplatz in einem modernen Rechenzentrum, das einen der schnellsten Rechner der Welt beherbergt.

Die Stelle ist zunächst auf zwei Jahre befristet und kann sofort besetzt werden. Die Bezahlung erfolgt nach TV-L. Schwerbehinderte Bewerberinnen oder Bewerber werden bei gleicher Eignung bevorzugt.

Schicken Sie uns Ihre Bewerbung mit den üblichen Unterlagen bitte bis spätestens 16. September 2011, entweder elektronisch (bitte nur ein zusammenhängendes Dokument) an

apel_at_lrz.de (2011/09)  (Subject: Stellenangebot Rosetta 2011/10) 

oder schriftlich an

Leibniz-Rechenzentrum
Frau Hannelore Apel
– Stellenangebot Rosetta 2011/10 –
Boltzmannstraße 1

85748 Garching bei München

Bitte beachten Sie, dass wir eingereichte Unterlagen aus organisatorischen Gründen generell nicht zurückschicken. Senden Sie daher am besten nur Kopien ein. Auf Umschlagsmappen und Schutzhüllen etc. kann verzichtet werden.

Für eine erste Kontaktaufnahme oder für nähere Auskünfte wenden Sie sich bitte an

Herrn Gleixner (089/35831-8824, florian.gleixner_at_lrz.de) oder
Herrn Lichtinger (089/35831 -8818, bernhard.lichtinger_at_lrz.de).

Zurück zum Inhaltsverzeichnis


Stellenangebot: Grid-Computing/Cloud-Computing

Das Leibniz-Rechenzentrum ist eines der drei nationalen Höchstleistungsrechenzentren in Deutschland und betreibt einen der leistungsfähigsten Supercomputer in Europa. Im kommenden Jahr wird das LRZ den schnellsten Rechner Europas, den SuperMUC, in Betrieb nehmen. Im Rahmen von nationalen und europäischen Projekten stellt es eine auf neuesten Methoden basierende Grid-Computing-Infrastruktur für Daten-, Informations- und Rechen-Dienste Wissenschaftlern auf der ganzen Welt zur Verfügung.

Im Bereich Grid-Computing/Cloud-Computing suchen wir zur sofortigen Einstellung

eine(n) wissenschaftliche Mitarbeiter(in)
(Universitätsdiplom oder Master).

Sie werden in nationalen und europäischen Forschungsprojekten mitarbeiten (www.d-grid.de, www.cern.ch/lcg, www.prace-project.eu, www.egi.eu, www.ige-project.eu), bei denen teilweise die Leitung beim LRZ liegt. Ihre Aufgaben werden Teil eines vielfältigen Gebietes mit abwechslungsreichen Tätigkeiten und nachhaltigen Zielen sein. Sie kooperieren mit den größten Höchstleistungsrechenzentren in Europa und arbeiten mit den Hauptentwicklern von Globus in USA zusammen. Ihr Arbeitsschwerpunkt liegt dabei im Bereich "Monitoring von Grid-Infrastrukturen". Die von Ihnen erarbeiteten und implementierten Lösungen kommen anschließend in europäischen Großprojekten zum Einsatz.

Eine Auswahl der folgenden Aufgaben soll dabei von Ihnen übernommen werden:

  • Integration neuer "information provider" in die LRZ-Eigenentwicklung DMON;
  • Weiterentwicklung von Monitoring-Konzepten im Team mit anderen Mitarbeitern;
  • Anbindung und Erweiterung der Globus Middleware im Bereich Monitoring;
  • Bereitstellung und Betreuung von Monitoring Applikationen wie Ganglia, Inca und Nagios;
  • Untersuchung neuer Technologien und Entwicklungen, insbesondere im Hinblick auf die Verwendung von Cloud Computing in Grid Infrastrukturen;
  • Vertretung des LRZ in nationalen und internationalen Gremien;
  • Bindegliedfunktion zu wissenschaftlichen Communities (z.B. Astrophysik, Teilchenphysik, Geophysik, Medizin, Klimaforschung, Life Sciences, etc., je nach Ihrer bisherigen wissenschaftlichen Ausrichtung);
  • Betreuung von Grid Daten- und Rechenressourcen, Firewalls, Konfigurationsmanagement;
  • Erstellung und Präsentation von Vorträgen auf Arbeitstagungen, Fachtagungen und Symposien (vorwiegend auf Englisch);
  • Installation von Middleware (Globus, UNICORE, gLite, ARC) zum Management der Ressourcen im Grid;
  • Durchführung von Schulungen zur Benutzung der Grid-Middleware Globus;
  • Monitoring und Accounting;
  • Unterstützung der Benutzer bei der Durchführung von Grid-Projekten, Fehlerbehebung, Benutzersupport, Bearbeitung von Trouble Tickets;
  • Administration der Benutzer-Projekte im Grid-Bereich; 
  • Überwachung der Rechenkontingente und Erstellung von Statistiken;
  • Erstellung von Projektberichten und Deliverables (vorwiegend auf Englisch);
  • Erstellung interner und externer Dokumentation;
  • Pflege von Webseiten und internem Wiki;
  • Programmierarbeiten in C, C++, Java, Python, Perl, shell scripting.

Folgende Voraussetzungen sollten Sie mitbringen:

  • ein überdurchschnittlich abgeschlossenes Universitätsstudium in einem technisch-naturwissenschaftlich orientierten Studiengang (Informatik, Mathematik, Physik, etc.);
  • Erfahrungen mit UNIX-/Linux-basierten Systemen;
  • Programmiererfahrung in Shell- und Skriptsprachen (Perl, Python,) und einer höheren Programmiersprache (Java);
  • Erfahrung mit Grid Middleware, insbesondere Globus (kann aber auch im Job erworben werden);
  • Freude und Interesse an projektorientierter Forschung und wissenschaftlicher Arbeit;
  • Bereitschaft zur Teilnahme an Fachtagungen, Konferenzen und Arbeitstreffen, auch im Ausland (z.B. Bologna, Paris, Barcelona, Amsterdam, etc.);
  • gute Ausdrucksfähigkeit in Wort und Schrift sowie sehr gute Englischkenntnisse;
  • Eigeninitiative, Teamfähigkeit und Kreativität.

Folgende Fähigkeiten wären bei Ihren Aufgaben nützlich:

  • Erfahrung im Umgang mit XSL, XQuery, XSLT;
  • Beherrschen von HTML und CSS;
  • Vertrautheit mit Eclipse und Plugins dazu;
  • Kenntnisse einschlägiger Monitoring Werkzeuge wie Nagios, Ganglia, Inca, etc.;
  • Installations- und Konfigurationserfahrung mit Apache Webserver, Tomcat, REST interfaces;
  • Kenntnisse in der Konfiguration von Firewalls.

Durch das mit modernsten Komponenten ausgerüstete Rechenzentrum und die Nähe zu den Münchner Universitäten stellt das LRZ ein sehr interessantes und innovatives Umfeld dar. Zeitgemäße Arbeitsbedingungen wie flexible Arbeitszeiten erlauben Ihnen, Arbeit und Familie besonders gut zu vereinbaren.

Wir bieten Ihnen ein angenehmes, unkompliziertes Arbeitsklima in einem international anerkannten Forschungsteam, auf dessen langjährige Erfahrung Sie im Rahmen Ihrer Tätigkeit zurückgreifen können und das Ihnen zugleich selbständiges Arbeiten mit Gestaltungsfreiräumen ermöglicht. Deutschkenntnisse sind für die Arbeit am LRZ erforderlich, jedoch wird in unserem multinationalen Team überwiegend Englisch gesprochen. Auch Möglichkeiten zur Weiterbildung oder Promotion werden geboten.

Die Stelle ist zunächst auf zwei Jahre befristet und kann sofort besetzt werden. Die Bezahlung erfolgt nach TV-L. Schwerbehinderte Bewerberinnen oder Bewerber werden bei gleicher Eignung bevorzugt.

Schicken Sie uns Ihre Bewerbung mit den üblichen Unterlagen bitte bis spätestens 16. September 2011, entweder elektronisch (bitte nur ein zusammenhängendes Dokument) an

apel_at_lrz.de (Subject: Stellenangebot Grid-Computing (2011/09)

oder schriftlich an

Leibniz-Rechenzentrum
Frau Hannelore Apel
– Stellenangebot Grid-Computing (2011/09) –
Boltzmannstraße 1

85748 Garching bei München

Bitte beachten Sie, dass wir eingereichte Unterlagen aus organisatorischen Gründen generell nicht zurückschicken. Senden Sie daher am besten nur Kopien ein. Auf Umschlagsmappen und Schutz­hüllen etc. kann verzichtet werden.

Für nähere Auskünfte wenden Sie sich an:

Dr. Helmut Heller (Tel: 089/35831-8823, Email: heller_at_lrz.de)
Dr. Anton Frank (Tel: 089/35831-7841, Email: frank_at_lrz.de)

Zurück zum Inhaltsverzeichnis


Impressum

Herausgeber:
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften

Anschrift:
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
Boltzmannstraße 1
D-85748 Garching

Telefon: +49-89-35831-8000
Telefax: +49-89-35831-9700
E-Mail: lrzpost_AT_lrz.de

Redaktion: Dr. Ludger Palm

Bestellen und Abbestellen des Newsletters

Sie können den LRZ-Newsletter über unsere Webseite bestellen oder abbestellen.

Archiv

Frühere Ausgaben des LRZ-Newsletters finden Sie im Archiv.