LRZ-Newsletter Nr. 09/2012 vom 06.09.2012

Unsere Themen:

Impressum, Abbestellen des Newsletters und Archiv


Termine, Veranstaltungen, Allgemeines


Neuer Dienst 'postout' zum authentifizierten Versenden von Mails

Für das Versenden von Mails, d.h. als Postausgangsserver, bietet das LRZ seit langem den Dienst "mailout" an. Voraussetzung für die Nutzung dieses Dienstes ist, dass der sendende Rechner im MWN (Münchner Wissenschaftsnetz) liegt, d.h. eine IP-Adresse aus dem MWN hat. Das ist insbesondere für Nutzer von mobilen Geräten unbequem, da zum Versenden von Mails der Aufbau einer VPN-Verbindung notwendig ist (es sei denn das Versenden erfolgt über Exchange oder Webmail/Roundcube).

Wir haben daher einen neuen Dienst "postout" aufgebaut, der aus dem gesamten Internet nutzbar ist. Für die Nutzung ist eine Authentifizierung mit Kennung (oder Mailadresse) und Passwort erforderlich. Der Dienst kann von folgenden Nutzergruppen verwendet werden:

  • Nutzer des Posteingangsservers "mailin"
  • TUMonline-Nutzer
  • CampusLMU-Studenten
  • externe Studenten

Um "postout" für den Mailversand zu verwenden, müssen Sie den "Postausgangsserver" in Ihrem Mailclient wie folgt konfigurieren:

Server: postout.lrz.de
Port: 587 (submission port)
Verbindungssicherheit: STARTTLS (oder auch nur TLS)
Authentifizierungsmethode:    Passwort (oder auch "Passwort, normal")
Benutzername: <Ihre persönliche Kennung>

Im Unterschied zu "mailout" akzeptiert "postout" nur Absendeadressen, für die der Inhaber der betreffenden Kennung nutzungsberechtigt ist. Das sind:

  • Die persönliche, zur Kennung gehörige Mailadresse
  • Mailadressen von Funktionskennungen, für die der Kennungsinhaber als Verantwortlicher eingetragen ist bzw. "send as"-Berechtigung hat (TUMonline)
  • lmu.de-Adressen mit einer Weiterleitung auf die betreffende Kennung (CampusLMU)

Es ist also insbesondere nicht mehr möglich Mails mit Adressen anderer Provider (wie googlemail.com oder web.de) zu versenden. Diese Einschränkung wurde im Webmail-Bereich bereits bei der Umstellung von SquirrelMail auf Roundcube eingeführt und ist aufgrund der Anti-Spam-Maßnahmen anderer Provider notwendig geworden (Stichwort SPF, Sender Policy Framework).

Der bisherige mailout-Dienst wird noch für eine gewisse Übergangszeit parallel zum neuen postout-Dienst verfügbar bleiben. Mittelfristig wird "mailout" in etwas veränderter Form nur noch für lokale Mailserver im MWN, aber nicht mehr für einzelne Benutzer angeboten werden.

Autor: Ado Haarer

Zurück zum Inhaltsverzeichnis


Neue Sophos Enterprise Console 5.1 zum Download bereit

Betreiber von eigenen Sophos Verteilpunkten im MWN können die neue Version der Sophos Enterprise Console in der Version 5.1 vom LRZ herunterladen. Die CID am LRZ wurde bereits auf die neue Version 5.1 aktualisiert. Bitte aktualisieren Sie ihre Umgebungen in den nächsten Wochen. Die Installtionsquellen können von den Sophos Seiten am LRZ heruntergeladen werden.

Beachten Sie bitte bei der Installation, dass die Verschlüsselungskomponente, welche bei der Installation angeboten wird, nicht Teil des Lizenzvertrages ist.

Autor:  Thomas Niedermeier

Zurück zum Inhaltsverzeichnis


Lecture Virtual Reality in Archaeology

Lecture at the LRZ:

e-Heritage, Cyber Archaeology, and Cloud museum

Katsushi Ikeuchi

The University of Tokyo

Mittwoch, 12.09.2012, 16:00 – 17:00 LRZ, Boltzmannstraße 1, 85748 Garching, Hoersaal (H.E.009)

Abstract:

We have been conducting the e-Heritage project, which converts assets that form our cultural heritage into digital forms, by using computer vision and computer graphics technologies. We hope to utilize such forms

  1. for preservation in digital form of our irreplaceable treasures for future generations,
  2. for planning and physical restoration, using digital forms as basic models from which we can manipulate data,
  3. for cyber archaeology, i.e., investigation of digitized data through computer analysis, and
  4. for education and promotion through multimedia contents based on the digital data.
This talk briefly overviews our e-Heritage projects underway in Italy, Cambodia, and Japan. We will explain what hardware and software issues have arisen, how to overcome them by designing new sensors using recent computer vision technologies, as well as how to process these data using computer graphics technologies. We will also explain how to use such data for archaeological analysis, and review new findings. Finally, we will discuss a new way to display such digital data by using the mixed reality systems, i.e. head-mount displays on site, connected from cloud computers.

Biography:

Dr. Katsushi Ikeuchi is a Professor at the University of Tokyo. He received a Ph.D. degree in Information Engineering from the University of Tokyo in 1978. After working at the Massachusetts Institute of Technology’s AI Lab for two years, Electrotechnical Lab, Japan for five years, and Carnegie Mellon University for ten years, he joined the university in 1996. His research interest spans computer vision, robotics, and computer graphics. He has received several awards, including the IEEE Marr Award, the IEEE RAS “most active distinguished lecturer” award and the IEEE-CS ICCV Significant Researcher Award as well as Shiju Houshou (the Medal of Honor with Purple ribbon) from the Emperor of Japan. He is a fellow of IEEE, IEICE, IPSJ, and RSJ.

Autoren: Peter Weinert, Christoph Anthes

Zurück zum Inhaltsverzeichnis


From Do-It-Yourself to automated solutions in Materials Science

We would like to invite you to "From Do-It-Yourself to automated solutions in Materials Science", a free-of-charge Workshop about recent development in Computational Materials Science. The workshop covers new approaches to van-der-Waals interaction in DFT calculations, Structure-Activity Relations in Catalysis and how an Electronic Lab Notebook can be used in Materials Science. The list of confirmed speaker include Prof. Karsten Reuter, TU Munich; Dr. Andreas Jentys, Catalysis Research Center, Prof. Hans-Georg Frank, Ludwig Maximilians Universität Munich. The workshop is organised by Accelrys and the Leibniz Supercomputing Centre (LRZ) and it will be held at

the Leibniz Computer Center on September 13th, 2012.

For more details see agenda.

To attend, please complete the online registration.


Wir möchten Sie zu einem kostenlosen Accelrys Materials Science Workshop „From do-IT-yourself to automated solutions“ mit spannenden Vorträgen über rechnergestützte materialwissenschaftliche Anwendungen und Entwicklungen einladen.

Der Workshop wird sich u.a. neuen van-der-Waals-Wechselwirkungen in DFT-Rechnungen, Struktur-Wirkungs-Beziehungen in der Katalyse und der Anwendung Elektronischer Labor Journale widmen. Vorträge wird es von Prof. Karsten Reuter, TU München; Dr. Andreas Jentys, Catalysis Research Center, Prof. Hans-Georg Frank, Ludwig-Maximilians-Universität München und Dr. Johan Carlsson, Accelrys geben.

Der Workshop findet am 13. September 2012 am Leibniz-Rechenzentrum statt.

Weitere Einzelheiten finden Sie in der Agenda.

Es wird genügend Zeit geben, während der Mittagspause und bei den Hands-on Sessions am Nachmittag Ideen und Anwendungen auszutauschen.

Bitte melden Sie sich hier an.

Autoren: Momme Allalen und Kerstin Wilke

Zurück zum Inhaltsverzeichnis


Am LRZ abzugebende Geräte

Am LRZ werden folgende Geräte an berechtigte Einrichtungen aus dem  Hochschulbereich oder an andere Behörden gegen Abholung kostenlos  abgegeben.

  • Dell PowerEdge 2550, BJ 2001, 2x1x0,93GHz, 2048MB, 2x18GB(USCSI)
  • Dell PowerEdge 2550, BJ 2001, 2x1x0,93GHz, 1024MB, 2x24GB(USCSI)
  • Dell PowerEdge 2550, BJ 2001, 1x1x0,93GHz, 1024MB, 1x18GB; 1x36GB; 1x73GB (USCSI)
  • Dell PowerEdge 1650, BJ 2002, 1x1x1,13GHz, 1024MB, no HDD
  • Dell PowerEdge 1650, BJ 2002, 1x1x1,40GHz, 2048MB, 2x36GB(USCSI)
  • Dell PowerEdge 1650, BJ 2002, 1x1x1,40GHz, 2048MB, 2x36GB(USCSI)
  • Dell PowerEdge 1750, BJ 2003, 1x1x2,80GHz, 2048MB, 2x73GB(USCSI)
  • Dell PowerEdge 2650, BJ 2004, 2x2x2,80GHz, 4096MB, no HDD
  • Dell PowerEdge 2650, BJ 2004, 2x1x2,80GHz, 4096MB, 2x73GB(USCSI)
  • Dell PowerEdge 2650, BJ 2004, 1x1x3,20GHz, 2048MB, 2x73GB(USCSI)
  • Dell PowerEdge 2850, BJ 2005, 1x1x3,20GHz, 4096MB, 2x73GB(USCSI)
  • Dell PowerEdge 2850, BJ 2005, 1x1x3,20GHz, 4096MB, no HDD
  • Dell PowerEdge 1850, BJ 2005, 2x1x3,20GHz, 4096MB, 1x73GB(USCSI)
  • Dell PowerEdge 1850, BJ 2005, 1x1x3,20GHz, 4096MB, 2x73GB(SAS-15K)
  • Dell PowerEdge 1850, BJ 2005, 1x1x3,00GHz, 2048MB, no HDD
  • Dell PowerEdge 1850, BJ 2005, 1x1x3,00GHz, 2048MB, 2x73GB(USCSI)
  • Dell PowerEdge 1950, BJ 2006, 1x2x3,20GHz, 4096MB, 2x146GB(SAS-10K)
  • Dell PowerEdge 1950, BJ 2006, 1x2x3,20GHz, no RAM, 2x146GB(SAS-10K)

Von den folgenden Desktopsystemen stehen mehrere Geräte zur Verfügung. Alle Geräte werden ohne Software und Betriebssystem abgegeben

  • Dell OptiPlex 745, BJ 2006, Intel Pentium D 3.4GHz, RAM 2GB, HDD 80GB
  • Dell OptiPlex 620, BJ 2005, Intel Pentium 4 3,2GHz, RAM 1GB, HDD 80GB
  • Dell OptiPlex 270, BJ 2004, Intel Pentium 4 2,4GHz, RAM 1GB, HDD 80GB

Senden Sie bitte bei Interesse eine Nachricht an die E-Mail Adresse  benen_AT_lrz.de.

Zurück zum Inhaltsverzeichnis


Zentrale Systeme und Grid Computing


Gauss-Allianz-Infobrief: Neue Ausgabe erschienen

Es ist eine neue Ausgabe des Gauss-Allianz-Infobriefs erhältlich, den Sie auch abonnieren können.

Zurück zum Inhaltsverzeichnis


Course on Advanced Fortran Topics

For those of you who have an interest in using advanced features of modern Fortran like

  • object-oriented programming and design patterns
  • interoperation with C or Java
  • parallel programming with coarrays
LRZ offers a week-long workshop on the above and other topics starting on September 17, including hands-on sessions to train the acquired knowledge.

Details including information about the registration procedure can be found in the course schedule at http://www.lrz.de/services/compute/courses/#Advanced_Fortran1.

Autor: Reinhold Bader

Zurück zum Inhaltsverzeichnis


Call for Papers: PPHPS 2012 Special Journal Issue

Analysis of Performance and Power for Highly Parallel Systems

Special issue of Concurrency and Computation: Practice and Experience (CCPE)

This special issue will be focused on how performance and power properties of modern highly parallel systems can be analyzed using state-of-the-art modeling and analysis techniques, and real-world applications and tools.

Complex, hierarchical architectures are now the standard for almost all highly parallel computer systems. Without a good grip on relevant performance limitations any optimization attempt is just a shot in the dark.

Hence, it is vital to fully understand the performance properties and bottlenecks that come about with clustered multi- & many-core, multi-socket nodes. Another crucial aspect of modern systems is the complex interplay between power constraints and the need for compute performance.

The challenges ahead are many-fold as systems scale in size. While parallelism is increasing, memory systems, interconnection networks, storage, and uncertainties in programming models all add to the complexities. More rapid realization of energy savings will require significant increases in measurement resolution and optimization techniques. The interplay between performance, power, and reliability also leads to complex trade-offs.

Of particular interest are papers that identify and analyze novel ideas rather than providing incremental advances in the following areas:

  • Performance modeling techniques at core, socket, node, and system levels
  • State-of-the-art tools for analyzing performance and power
  • Novel techniques that enable power and/or energy optimizations
  • Experiences from current large-scale systems and applications
  • Analysis of future technologies that will provide improved energy efficiency

Submission Guidelines

Work that is submitted to this special issue must not have been previously published or currently being considered by other journal or conference venues. However, the papers that have been previously published with reputed conferences can be considered for publication in the special issue if they are substantially revised with at least 30% new content. Every submitted paper will receive at least three reviews.

There is a 20 page max length limit (12 point single space, inclusive of figures and tables). Wiley has LaTeX templates that can be used by authors.

Either LaTeX or Word submissions will be accepted. Submissions should be made through Manuscript Central (http://mc.manuscriptcentral.com/cpe) and must refer to "PPHPS 2012 special issue" in step 4 of the submission process. The CCPE submission guidelines can be found at

http://www.cc-pe.net/journalinfo/authors.html

Please also note the additional instructions for submission to CCPE special issues at

http://www.cc-pe.net/journalinfo/issues/authorinstructions.html

Important Dates

Notification of acceptance: September 16th 2012
Final Papers due: November 11th 2012
Final Decisions: December 14th 2012

Special Issue Guest Editors

Georg Hager University of Erlangen, Germany
Darren J. Kerbyson Pacific Northwest National Laboratory, USA
Abhinav Vishnu Pacific Northwest National Laboratory, USA
Gerhard Wellein University of Erlangen, Germany

Autor: Reinhold Bader

Zurück zum Inhaltsverzeichnis


EGI Technical Forum TF12 - Call for Participation

The EGI Technical Forum 2012 (TF12) will take place in Prague, Czech Republic, between 17-21 September, 2012.

The theme for the Forum is:

“The development of an open and sustainable EGI ecosystem that will support Open Science in the digital European Research Area.”

This theme provides an opportunity to reflect on the considerable progress made by the collaboration so far and looks forwards to the challenges of public availability, reusability and transparency of scientific methods and data in Open Science. The event will be hosted by EGI.eu in partnership with CESNET, the consortium of Czech universities and the Czech Academy of Sciences that represents the country in the EGI Council.

For more details please see the webpage of the venue.

Zurück zum Inhaltsverzeichnis


GlobusEUROPE 2012 - Call for Participation

The second GlobusEUROPE annual conference will be held at Prague, Czech Republic, on 17th September 2012. It is organized by the Initiative for Globus in Europe (IGE) and co-located with the Technical Forum of the European Grid Infrastructure (EGI). 

If you are a European Globus user, this is the must-attend event of the year! There is no better forum to connect with European Globus users and get your questions answered by experts from Europe and the US.

IGE is waiting to hear your success story using Globus!

Zurück zum Inhaltsverzeichnis


CECAM ScalaLife Workshop Oct 03-05, 2012

The ScalaLife project (http://www.scalalife.eu) is organising the CECAM workshop "High Performance Computing in Computational Chemistry and Molecular Biology: Challenges and Solutions provided by ScalaLife project", between October 3 and 5, in CECAM-HQ-EPFL, Lausanne, Switzerland.*

ScalaLife has invited renowned life scientists from Europe and USA to discuss recent advances in large scale simulations and showcase their latest results. The workshop will also present the newest developments in three life science software packages: GROMACS, DALTON and DISCRETE.

The workshop features multiple hands-on sessions, giving the participants the opportunity to practice the modelling capabilities of the three software packages. These sessions will also include user-clinics, a unique opportunity for users to bring in their own problems and discuss the challenges they face in modelling with the developers of these packages.

Registration

Life-scientist and researchers from academia and industry are cordially invited to participate in the workshop.

To apply for participation please go to http://www.cecam.org/workshop-6-672.html or send an email to scalalife@pdc.kth.se

The number of participants is limited. There is no attendance fee.

Deadline for registration is 1st of September

Coffee breaks, lunches and the workshop dinner listed in the program are covered by the workshop.

Agenda

The detailed program can be downloaded at http://www.scalalife.eu/content/cecam. The short version can be found online at http://www.cecam.org/workshop-2-672.html

Location

Please find here (http://www.cecam.org/upload/misc/EPFL-plan-campus-lausanne.jpg) the map of EPFL.

For more information on how to get to CECAM Headquarters: (http://www.cecam.org/lausanne2011.html). Information about near by hotels you will find in the confirmation email of your registration.

More information about the workshop can be found here.

Zurück zum Inhaltsverzeichnis


Stellenangebote / Job Opportunities


Stellenangebot: Studentische/wissenschaftliche Hilfskräfte

Das Leibniz-Rechenzentrum sucht für die Toolunterstützung des IT Service Management (ITSM) studentische oder wissenschaftliche Hilfskräfte als

Entwickler (m/w)

Aufgaben

Als Mitglied des Entwicklerteams für ITSM-Werkzeuge setzen Sie Anpassungen und Erweiterungen der am LRZ eingesetzten ITSM Suite auf Basis von ET Solutions ITSM um.

Anforderungen
  • Fundierte Kenntnisse in Java und SQL;
  • Wünschenswert: ITSM-Grundkenntnisse z.B. ITIL oder ISO/IEC 20000 Foundation;
  • Erfahrungen mit MS-SQL, Windows-Server, SVN, ASP net, Crystal Reports oder ITSM-Tools sind von Vorteil;
  • Da eine richtige Einarbeitung in die ITSM-Entwicklung erfahrungsgemäß mehrere Monate dauert, sollte die geplante Beschäftigungsdauer mindestens 12 Monate sein.
Unser Angebot
  • Je nach vorhandenem Abschluss, Vertrag als studentische oder wissenschaftliche Hilfskraft über 15 bis 20 Stunden pro Woche;
  • Bezahlung entsprechend den Vergütungssätzen für studentische bzw. wissenschaftliche Hilfskräfte;
  • Gelegenheit zur Weiterbildung und Sammeln von Praxiserfahrungen im ITSM-Bereich;
  • Teamorientiertes offenes Betriebsklima mit netten Kollegen an einem der führenden wissenschaftlichen Rechenzentren Europas.
Mehr Information / Bewerbung

Bei Interesse wenden Sie sich bitte an:

Dr. Michael Brenner, michael.brenner-AT-lrz.de, http://www.lrz.de/persons/brenner_michael/
Christian Richter, christian.richter-AT-lrz.de, http://www.lrz.de/persons/richter_christian/

Ihre Bewerbungsunterlagen (schriftlich oder bevorzugt per E-Mail) schicken an:
apel_AT_lrz.de (Subject: Entwickler 2012/06)

oder

Leibniz-Rechenzentrum
Frau Hannelore Apel
Stichwort:  Entwickler 2012/06
Boltzmannstraße 1
85748 Garching bei München

Zurück zum Inhaltsverzeichnis


Master-/Diplomarbeit

Master-/Diplomarbeit

Funktionsbewertung und Integrationsanalyse des
Cisco Unified Computing Systems für die LRZ Cloud

Hintergrund der Arbeit: Das Hosting von virtuellen Maschinen (VMs) beinhaltet schwerpunktmäßig den Betrieb von virtualisierten, hochverfügbaren Serverinstanzen auf LRZ-eigener Server-Hardware, welche im klimatisierten Sicherheitsbereich des Rechenzentrums mit unterbrechungsfreier Stromversorgung, diverser Zutrittsschutzsysteme, spezieller Brandschutzgase, 24-stündiger Überwachung u.s.w. untergebracht sind. Während zum Infrastruktur- und Betriebsmanagement VMware vSphere Enterprise Plus eingesetzt wird, besteht die Hardware-Infrastruktur zur Zeit aus mehreren HP c7000 Blade-Encosures mit jeweils zwei Flex-10 Gb Ethernet Modulen und 16 HP BL490c G6 Blades.
Für 2013/14 ist nun eine Erneuerung bzw. Erweiterung der vorhandenen Hardware-Infrastruktur geplant. Daher soll neben der Beurteilung eines Upgrades der vorhandenen Hardware-Infrastruktur auch eine Evaluierung alternativer Lösungen erfolgen.

Ziel der Arbeit: In dieser Diplom- oder Masterarbeit soll die Eignung des Cisco Unified Computing Systems sowie der zugehörigen Beta-Blades für das Hosting von virtuellen Maschinen am LRZ beurteilt werden. Im Fokus der Arbeit stehen daher verschiedene Funktions- und Integrationstests in Bezug auf den späteren möglichen Einsatzrahmen in der vorhandenen LRZ-Infrastruktur. Ein weiterer Aspekt ist die Beurteilung der Betriebsstabilität der bisher noch nicht von Cisco vertriebenen Beta-Blades insbesondere in Hinblick auf die durch massiven RAM-Ausbau (bis zu 1.6 TB pro Blade) erreichbare Konsolidierungsrate.

Konkrete Aufgaben: Recherche und Vergleich von verschiedenen Hardware-Infrastruktur-Lösungen zur Gestaltung einer mandantenfähigen, und robusten virtuellen Infrastruktur.
Installation und Einarbeitung in die UCS unter besonderer Berücksichtigung der Inbetriebnahme der bisher lediglich unter Laborbedingungen getesteten Cisco Beta-Blades.
Vergleichende Bewertung in Gegenüberstellung mit der bereits vorhandenen LRZ-Infrastruktur.
Durchführen und Analysieren von verschiedenen Integrationstests auch unter Einsatz unterschiedlicher
Virtualisierungsarchitekturen.
Konsolidierungstests in Bezug auf die Verwendung der Cisco Beta-Blades mit bis zu 1.6 TB RAM.
Ableiten von Anforderungen für den späteren produktiven Betrieb der Infrastruktur und Entwicklung eines Migrationsplanes. 
Die Arbeiten an der Testumgebung und die Einarbeitung erfolgen zusammen mit Cisco beim LRZ und erfordern Anwesenheit vor Ort. Es können also nur Teile der Arbeit von zu Hause aus durchgeführt werden. Die Besprechungen zur Arbeit finden hauptsächlich am LRZ (U-Bahn Forschungszentrum Garching) statt.

Ausblick: Im Rahmen dieser Arbeit erhält der Student tiefen Einblick in die aktuelle Ausstattung moderner Rechenzentren insbesondere in Bezug auf die Bereitstellung von Cloud-Infrastruktur-Lösungen mittels VMware, Xen, NetApp, sowie HP- und Cisco-Blades.

Aufgabensteller: Prof. Dr. Kranzlmüller, Priv.-Doz. Dr. H. Reiser

Anforderungen: Motivation und Eigeninitiative
Gute Kenntnisse in den Bereichen Netzwerk, Hardware, Betriebssysteme (Linux, Windows) und Virtualisierung.
Vorkenntnisse im IT Service Management vorteilhaft.

Dauer der Diplom-/Master: Arbeit: 6 Monate
Anzahl Bearbeiter: 1

Betreuer: Bastian Kemmler, Leibniz-Rechenzentrum, Boltzmannstr. 1, D-85748 Garching,
Tel. 089 35831-8725,  kemmler@lrz.de

Zurück zum Inhaltsverzeichnis


Initiativbewerbungen

Wir freuen uns immer über Ihre Initiativbewerbung!

Das Leibniz-Rechenzentrum (LRZ) ist gemeinsames Rechenzentrum der Münchner Universitäten und der Bayerischen Akademie der Wissenschaften. Das LRZ erbringt allgemeine IT-Dienste für mehr als 100.000 Kunden an den Hochschulen in München und für die Bayerische Akademie der Wissenschaften und stellt mit dem Münchner Wissenschaftsnetz (MWN) eine leistungsfähige Kommunikationsinfrastruktur bereit. Es ist Kompetenzzentrum für Datenkommunikationsnetze und betreibt Platten- und automatisierte Magnetband-Speicher zur Sicherung großer Datenmengen im Multi-Petabyte-Bereich.

Als Supercomputing-Zentrum beteiligt sich das LRZ am Aufbau einer leistungsfähigen europäischen Infrastruktur für Daten-, Informations- und Compute-Dienste und stellt Spitzenrechenleistung für anspruchsvollste deutsche und europäische Forschungsprojekte bereit. Der neue Höchstleistungsrechner am LRZ wird mit einer Leistung von 3 Petaflop/s der schnellste Rechner in Europa sein.

Sollten Sie interessiert sein in diesem äußerst innovativen und spannenden Umfeld arbeiten zu wollen, so sind wir jederzeit an einer

Initiativbewerbung

von Ihnen interessiert. Insbesondere suchen wir für die Abteilungen Benutzernahe Dienste, Kommunikationsnetze und Hochleistungssysteme Mitarbeiter mit technisch-wissenschaftlicher Ausrichtung, wie etwa Informatiker, Mathematiker, Physiker, aber auch Chemiker, Geo-/Astrophysiker, Ingenieure usw. mit Diplom-, Master-, Bachelor- oder vergleichbarem Abschluss.

Bitte sprechen Sie uns auch an, falls Sie Interesse an einer Promotion oder Master-Arbeit haben. Im Umfeld der unterschiedlichen LRZ-Dienstleistungen ergeben sich laufend spannende Forschungsthemen mit starkem Praxisbezug.

Bewerbungen (bevorzugt per E-Mail) mit den üblichen Unterlagen richten Sie bitte an:

Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
Stichwort: Initiativbewerbung
Frau Hannelore Apel
Boltzmannstrasse 1

85748 Garching b. München
E-Mail: apel_at_lrz.de

Zurück zum Inhaltsverzeichnis


Impressum

Herausgeber:
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften

Anschrift:
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
Boltzmannstraße 1
D-85748 Garching

Telefon: +49-89-35831-8000
Telefax: +49-89-35831-9700
E-Mail: lrzpost_AT_lrz.de

Redaktion: Dr. Ludger Palm

Bestellen und Abbestellen des Newsletters

Sie können den LRZ-Newsletter über unsere Webseite bestellen oder abbestellen.

Archiv

Frühere Ausgaben des LRZ-Newsletters finden Sie im Archiv.