Geschichte des Leibniz-Rechenzentrums

Anfangsjahre der Datenverarbeitung

Anlässlich der Feier des fünfzigjährigen Jubiläums des LRZ am 20.07.2012 erschien eine ausführliche gedruckte Chronik. Wenn Sie daran interessiert sind, wenden Sie sich bitte an presse@lrz.de.


Am 8.5.1956 erfolgte die Inbetriebnahme der PERM ("programmgesteuerte elektronische Rechenanlage München") an der TU München, die ab 1952 unter Leitung der Professoren Hans Piloty und Robert Sauer erbaut worden war.

Die zu geringe Rechenkapazität der PERM und die wachsende Bedeutung der Informationsverarbeitung führten auf Betreiben der Herren Sauer und Piloty am 7.3.1962 zur Gründung der Kommission für elektronisches Rechnen (seit 1975: Kommission für Informationsverarbeitung, seit 1990: Kommission für Informatik) an der Bayerischen Akademie der Wissenschaften; diese beschloss, mit Unterstützung durch den Freistaat Bayern ein Rechenzentrum zu errichten und Forschung auf dem Gebiet der Informatik ("Informationsverarbeitung") zu betreiben.

Im März 1964 nahm das Rechenzentrum der Kommission, das zunächst Akademie-Rechenzentrum genannt wurde, in der Richard-Wagner-Straße 18 seinen Betrieb auf mit der Rechenanlage TR4 der Firma Telefunken. Ein ALGOL-Compiler und ein Betriebssystem für die TR4 wurden im Rechenzentrum der Kommission erstellt. Seit Juli 1966 führte es zu Ehren des Erfinders der ersten Vier-Spezies-Rechenmaschine den Namen Leibniz-Rechenzentrum.

Bereits 1965 wurde die Notwendigkeit für einen Rechenzentrumsneubau und eine neue Großrechenanlage sichtbar. 1967 wurde der Grundstein des LRZ-Gebäudes in der Barer Straße gelegt, im Herbst 1968 fiel die Entscheidung für die Doppelprozessoranlage TR440 der Firma AEG-Telefunken. Nachdem am 18.12.1968 das Richtfest des LRZ-Gebäudes gefeiert worden war, fand im August 1970 der erste Teilumzug in den Neubau Barer Straße 21 statt.

Im Oktober 1970 wurde der TR440 als Monoprozessor geliefert und ein erster Probebetrieb aufgenommen. Im Februar 1971 erfolgte die Inbetriebnahme der LRZ-Datenstation im 1. OG, im März 1971 die Aufnahme des Konsolbetriebs nach Installation des TR86S als Satellitenrechner.

Der TR4, der bis Januar 1971 in der Richard-Wagner-Straße in Betrieb war, wurde zerlegt und an der Barer Straße wieder aufgebaut. Ab März 1971 stand er für Praktika und die ALGOL68-Gruppe zur Verfügung; er musste 1976 außer Dienst gestellt werden.

Ab September 1972 stand dem LRZ eine TR440-Doppelprozessoranlage zur Verfügung, der Monoprozessor TR440 wurde als Rechner des Instituts für Informatik der TU München am LRZ weiterbetrieben. Mit dem Rechner TR440 wurden erste Schritte auf dem Weg zum dezentralen Angebot von Rechenleistung beschritten: Anfang 1973 waren am Doppelprozessor TR440 14 Sichtgeräte und 42 Fernschreiber angeschlossen, die nicht mehr alle im LRZ-Gebäude untergebracht waren.

Universalsysteme Cyber, Aufbau des Hochschulnetzes

Schon ab 1973 konnte das LRZ nur mehr etwa die Hälfte des Rechenzeitbedarfs der zu versorgenden Hochschulinstitute decken. Nach Vorlage eines detaillierten Maschinenentwicklungsplans im August 1974 an das Ministerium und die Deutsche Forschungsgemeinschaft (DFG) und nach einer umfangreichen Erhebung bei allen Hochschulinstituten und Lehrstühlen im Sommer 1975 kam es endlich zur Ausschreibung für ein neues Rechensystem.

Nach Durchführung umfangreicher Benchmarks wurde im Herbst 1975 der Antrag auf Beschaffung eines zentralen Rechensystems der Firma Control Data, bestehend aus 2 Rechenanlagen Cyber 175, und auf ein Datenfernverarbeitungsnetz (DFV-Netz) der Firma AEG-Telefunken, bestehend aus 11 Stapelstationen mit Lochkartenleser, Lochstreifenleser und Schnelldrucker, 200 Textsichtgeräten, 5 graphischen Sichtgeräten und 10 seriellen Druckern (Hardcopy-Einrichtungen), gestellt. Das Bewilligungsverfahren und der Abschluss der letzten Kaufverträge zogen sich bis Dezember 1976 hin.

Im Januar 1977 erfolgte die Installation einer ersten Rechenanlage Cyber 175 mit Aufnahme des Benutzerbetriebs im März 1977 und anschließender Inbetriebnahme eines vorübergehend angemieteten kleineren DFV-Netzes der Firma Control Data. Die Cyber 175 wurde als Cyber 175 (A) bezeichnet. Im Folgenden wird, wo notwendig, in Klammern jeweils die LRZ-interne Anlagenbezeichnung angegeben.

Bis Ende 1977 stand das TR440-Doppelprozessorsystem noch übergangsweise den LRZ-Benutzern zur Verfügung; von 1978 bis zum Abbau im September 1983 wurde es - nach Abmietung und Abbau des TR440-Monoprozessors - hauptsächlich für die Bedürfnisse der Informatik benutzt.

Der Ausbau des Zentralsystems und des DFV-Netzes vollzog sich seit 1978 Schritt für Schritt:

August/September 1978 Installation und Inbetriebnahme einer zweiten Rechenanlage Cyber 175 (B).
März bis November 1978 Installation des DFV-Netzes der Firma AEG-Telefunken.
August 1978 bis Juni 1979 Schrittweise Inbetriebnahme und Erprobung des DFV-Netzes mit anschließender Abnahme des Hauptteils des Lieferumfangs im September 1979.
Dezember 1980 Installation und Inbetriebnahme des Plattenspeichersystems FMD 885 am Zentralsystem.
Dezember 1981 Erweiterung des Hauptspeichers der zweiten Anlage Cyber 175 und Umrüstung der Magnetbandgeräte auf höhere Schreibdichte (6250 bpi).

Die 1974 geplante Maschinenbeschaffung war damit 1981 abgeschlossen. Die Zentralanlagen waren aber bald schon so stark ausgelastet, dass im April 1981 eine Rechenzeitkontingentierung eingeführt werden musste.

Ursprünglich zur Durchführung von Systemsoftware-Anpassungen des AEG-Netzes an neuere Systemversionen der CDC-Zentralrechner geplant, wurde Ende 1983 eine gemietete kleinere Anlage CDC Cyber 825 (C) installiert und den Benutzern zur Verfügung gestellt.

Aber auch mit dieser zusätzlichen Anlage war das LRZ nicht in der Lage, den angewachsenen Rechenzeitbedarf abzudecken. Nach Vorarbeiten in den Jahren 1981 und 1982 wurde 1983 dem Bayerischen Kultusministerium und der Deutschen Forschungsgemeinschaft ein Maschinenentwicklungsplan für die Jahre 1984-1988 vorgelegt. Der Plan sah drei Schwerpunkte vor: den Ausbau der Universalrechenkapazität auf das Fünffache in zwei Schritten 1985/1986 mit einer Nachrüstung 1987, Beschaffung eines Vektorrechners im Jahre 1988 und einen Ausbau des Datenfernverarbeitungsnetzes mit einer weitgehenden Ersetzung des AEG-Netzes in den Jahren 1984/85 sowie mit drei Netzerweiterungen in den Jahren 1986, 1987 bzw. 1988.

Der Maschinenentwicklungsplan wurde im Prinzip von Ministerium und DFG gebilligt. Mit der Ausschreibung zur Beschaffung eines ersten Universalrechners mit etwa 5-facher Leistung einer Cyber 175 im Januar 1984 begann eine neue Runde im Rahmen der Hauptaufgabe des Leibniz-Rechenzentrums - den Benutzern hinreichend Rechenkapazität zur Durchführung von Aufgaben in Forschung und Lehre zur Verfügung zu stellen.

Im April 1984 fiel die Entscheidung, zwei Doppelprozessorsysteme CDC Cyber 180-990 mit je 32 MB Hauptspeicher, lauffähig unter dem bisherigen Betriebssystem NOS und dem neu entwickelten NOS/VE, zu beschaffen und 1986 bzw. 1987 zu installieren.

Die Abwicklung der daraufhin geschlossenen Kaufverträge, die Ersetzung des AEG-DFV-Netzes und der Ausbau des neuen, auf X.25- und Ethernet-Technologie basierenden Kommunikationsnetzes vollzogen sich dann wie folgt:

Mai 1985 Beginn des Benutzerbetriebes auf einer interimsweise installierten Anlage CDC Cyber 875 (D) mit etwa der 4-fachen Leistung einer Cyber 175. Die Anlage lief unter dem verbesserten Betriebssystem NOS2 und war über das neue Netz zugänglich.
September/Oktober 1985 Außerbetriebnahme der Cyber 175 (A), Kopplung von Cyber 175 (B) und Cyber 875 (D) und Betrieb über das neue Kommunikationsnetz ohne AEG-Komponenten.
Juli/August 1986 Lieferung der ersten Cyber 990 (E) mit 32 MB Hauptspeicher und Aufnahme des Benutzerbetriebs unter NOS2
Oktober/November 1986 Lieferung weiterer Plattenspeicher für die Cyber 990 und Aufnahme des Benutzerbetriebs unter dem virtuellen Betriebssystem NOS/VE.
Januar 1987 Außerdienststellung der Cyber 175 (B), Multi-Mainframe-Kopplung der verbliebenen Produktionsmaschinen Cyber 875 (D) und Cyber 990 (E) unter NOS2.
März/April 1987 Hauptspeichererweiterung der Cyber 990 (E) auf 64 MB, Abbau der Cyber 875, Installation der Cyber 180-990 (F) mit 64 MB und Aufnahme des Benutzerbetriebes auf den unter NOS eng gekoppelten Cyber-Anlagen.
Mai 1987 2. Hauptspeichererweiterung bei beiden Cyber-Anlagen auf je 128 MB. (Aus Cyber 990 wird dadurch Cyber 995E.)
Juni/Juli 1987 Die beiden Systeme erbringen während der Abnahme unter NOS/VE nicht die vertraglich zugesicherte Leistung; als Kompensation wird daher von CDC die für das LRZ kostenneutrale Bereitstellung einer dritten Cyber 995E zugesagt, die solange betrieben werden soll, wie die gekauften Maschinen die zugesicherte Leistung nicht erbringen.
Dezember 1987/Januar 1988 Aufstellung der dritten Cyber 995 (G) und Aufnahme des Benutzerbetriebs unter dem Betriebssystem NOS/VE.
August 1990 Einstellung des Benutzerbetriebs unter dem alten Betriebssystem NOS; Betrieb aller drei Cyber 995 nur noch unter NOS/VE.

Damit war der im Entwicklungsplan vorgesehene Ausbau der Universalrechenkapazität fast erreicht. Neben der Erhöhung der Rechenkapazität wurde auch der Platz für permanente Benutzer-Dateien von ca. 8 auf ca. 40 GByte erweitert.

Die im Maschinenentwicklungsplan von 1984 vorgesehenen Netzerweiterungen wurden von 1985 bis 1991 durchgeführt. Sie verfolgten folgende Ziele:

  • Aufbau eines leistungsfähigen Kommunikationsnetzes, das von den Instituten auch für interne Zwecke wie z.B. die Kopplung eigener Rechner genutzt werden kann und nicht nur - wie das ältere DFV-Netz - als Zubringernetz zu den zentralen Anlagen dient.
  • Verbindung der einzelnen Teilnetze an den verschiedenen Standorten der Münchner Hochschulen durch Poststrecken hoher Geschwindigkeit (64 kbit/s-Draht, 10 Mbit/s-Glasfaser).
  • Beschaffung von Arbeitsplatzrechnern und Peripheriegeräten.

Die Netzerweiterungen waren außer durch die neuen Kommunikationstechnologien auch geprägt von der Entwicklung auf dem Gebiet der Datenendgeräte (auch lokal einsetzbare Arbeitsplatzrechner statt nur am Zentralrechner angeschlossener und benutzbarer Sichtgeräte) und haben den Rechnereinsatz in Bereichen gefördert, die der Datenverarbeitung bisher eher fern standen (Geisteswissenschaften).

Hochleistungsrechner, Offene Systeme

Zur Vorbereitung der Beschaffung eines Vektorrechners fanden 1986 umfangreiche Untersuchungen und Abstimmungen mit dem Wissenschaftsministerium und den anderen Landesuniversitäten statt, die im Frühjahr und Sommer 1987 zur Ausschreibung, Auswahl, Beantragung und Bestellung einer Cray Y-MP4/432 als Landesvektorrechner für die bayerischen Hochschulen führten.
Auch die Installation des Vektorrechners erfolgte in Stufen: Im Oktober 1988 wurde eine Interimsmaschine Cray X-MP/24 (2 Prozessoren, 4 MWorte = 32 MByte Hauptspeicher) geliefert und im November dem Benutzerbetrieb übergeben. Diese Anlage wurde im Oktober 1989 gegen eine Cray Y-MP4/432 (4 Prozessoren, 32 MWorte = 256 MByte Hauptspeicher) ausgetauscht. Im April 1991 wurde der Hauptspeicher auf 64 MWorte = 512 MByte ausgebaut (jetzt: Cray Y-MP4/464).
Anfang 1990 wurde eine Studie zur Entwicklung des Leibniz-Rechenzentrums für die Jahre 1990 bis 1994 vorgelegt. Diese Studie sah einen Stufenplan mit folgenden Schwerpunkten vor: Konsequente Fortsetzung der dezentralen Versorgung mit Arbeitsplatzsystemen, Erhöhung der Universalkapazität durch Unix-basierte Systeme und Ablösung der Cyber-Systeme, Beschaffung eines Archivsystems zur langfristigen Speicherung sehr großer Datenmengen, Ausbau der Hochleistungsrechenkapazität (Vektorrechner und massiv parallele Systeme) und weiterer Ausbau des Kommunikationsnetzes im Hinblick auf deutlich höhere Übertragungsraten.
Etwa gleichzeitig mit der Vorlage dieser Studie wurde bekannt, dass beim Bau des LRZ-Gebäudes an vielen Stellen Spritzasbest verwendet worden war, der zu einer Gefahr werden konnte. Kritisch wurde die Situation dadurch, dass auch die zentrale Klima-Anlage davon betroffen war und völlig abgeschaltet werden musste. Der Betrieb der zentralen Rechner war daher ab Januar 1990 nur noch mit vielerlei Notmaßnahmen und großem Einsatz des LRZ-Personals aufrechtzuerhalten; normale Wartungsarbeiten im Doppelboden des Maschinenraums und Arbeiten an den Kabelkanälen konnten nicht ausgeführt werden, und wesentliche Neuinstallationen waren überhaupt nicht mehr möglich.
Alle Anstrengungen des LRZ richteten sich daher darauf, möglichst rasch eine Sanierung des LRZ-Gebäudes zu erreichen. Als vordringlich wurde dabei die Erstellung eines Erweiterungsbaus mit einer eigenen Klima-Anlage angesehen, um eine Auslagerung der zentralen Rechner und damit wieder einen normalen Betrieb zu ermöglichen. Es zeigte sich allerdings, dass die sehr hohen Kosten für die gesamte Asbest-Sanierung keine rasche Entscheidung der zuständigen Ministerien erwarten ließen, ja dass nicht einmal die Fertigstellung des Erweiterungsbaus vor Frühjahr 1992 möglich war. Daher wurde der ursprüngliche Zeitplan für die Entwicklung des LRZ überarbeitet, insbesondere die Ablösung der Cyber-Systeme auf den Zeitpunkt der Auslagerung der zentralen Systeme in den Erweiterungsbau vorgezogen.
Die stockwerksweise Asbestsanierung des LRZ-Gebäudes stellte eine gewaltige logistische Herausforderung für die ungestörte Erbringung aller Dienste in diesem Zeitraum dar, wurde aber 1997 erfolgreich abgeschlossen. Etwa um diese Zeit konkretisierten sich Pläne, das LRZ zu einem Bundeshöchstleistungsrechenzentrum auszubauen. Konzepte, Anträge und schließlich die Rechnerauswahl kulminierten in der Aufstellung einer Hitachi SR8000-F1 mit über einem TFlop/s LINPACK-Rechenleistung im März 2000 als Höchstleistungsrechner in Bayern (HLRB).
Das neue Jahrtausend brachte im Bereich der Compute-Server den Übergang zu Linux-Clustern auf PC-Hardware als dominanter Plattform für die Grundversorgung. Ausgehend von 8 Systemen im Jahr 1999 für lang laufende serielle Rechenjobs hat sich dieses Cluster zu einem System von Hunderten von PCs mit Partitionen für unterschiedliche Anforderungen (32 und 64 Bit, serielle und parallele Programme, shared memory Knoten) entwickelt.
Mit der Entscheidung, als Nachfolgesystem für den Bundeshöchstleistungsrechner Mitte 2006 nach dem Umzug nach Garching ein Cluster von sgi Altix-Systemen zu installieren, gibt es am LRZ nur noch ein großes, heterogenes Linux-Cluster für die Compute-Dienste. Im April 2007 verdoppelte der Höchstleistungsrechner in Bayern sgi Altix 4700 beim Übergang von Madison zu Montecito Prozessoren seine Spitzenrechenleistung auf 62,2 TFlop/s.
Das LRZ ist seit der Gründung des GCS e.V. zusammen mit dem HLRS und dem JSC Mitglied im Gauss Centre for Supercomputing (GCS) und damit seit Anfang 2008 auch Projektpartner in PRACE (Partnership for Advanced Computing in Europe). Im Rahmen des GCS wurde 2008 auch die Finanzierung der Nachfolge des HLRB II gesichert und nach über einjähriger Markterkundung der SuperMUC genannte Rechner Anfang 2010 ausgeschrieben und Ende 2010 IBM zugeschlagen.
Im Einzelnen verlief die Entwicklung hin zum Höchstleistungsrechenzentrum wie folgt:

Oktober 1988 Installation des ersten CRAY Vektorrechners am LRZ: eine Interimsmaschine Cray X-MP/24 (2 Prozessoren, 4 MWorte = 32 MByte Hauptspeicher)
Oktober 1989 Austausch der CRAY X-MP gegen eine Cray Y-MP4/432 (4 Prozessoren, 32 MWorte = 256 MByte Hauptspeicher)
April 1991 Erweiterung des Hauptspeicher der CRAY Y-MP auf 64 MWorte = 512 MByte
Januar 1992 Außerbetriebnahme der dritten Cyber 995 (G); Installation und Inbetriebnahme eines Unix-basierten 2-Prozessor-Systems CD 4680 MP von etwa gleicher Leistung.
März/April 1992 Nach Fertigstellung des Erweiterungsbaus Installation und Inbetriebnahme einer neuen CDC Cyber 2000V; Abschaltung der beiden restlichen Cyber 995 (E und F); Umzug des Landesvektorrechners Cray Y-MP.
Mai/Juni 1992 Installation und Inbetriebnahme von zwei Clustern mit insgesamt 14 Hochleistungsworkstations der Firma Hewlett Packard im Erweiterungsbau.
Juli 1992

Ausbau des Plattenspeichers an der Cray Y-MP auf insgesamt etwa 80 GByte Kapazität.

August 1992 Installation und Inbetriebnahme eines kleineren Vektorrechners Cray Y-MP EL 2/64 (2 Prozessoren, 64 MWorte = 512 MByte Hauptspeicher) als "Entwicklungsrechner" für den Landesvektorrechner.
Dezember 1992 Austausch der Cray Y-MP mit vier Prozessoren gegen eine solche mit acht Prozessoren (jetzt: Cray Y-MP8/864).
Februar 1993 Installation und Inbetriebnahme eines massiv parallelen Rechners SNI-KSR1-32 (mit 32 Prozessoren).
Juli 1993 Ausbau des Hauptspeichers der Cray Y-MP auf insgesamt 1024 MByte (jetzt: Cray Y-MP8/8128).
November 1993 Prozessor-Update bei den zwei bisherigen HP-Clustern und Erweiterung um ein weiteres HP-Cluster (auf insgesamt 23 leistungsstarke Workstations) mit doppelter Leistung.
Februar 1994 Installation und Probebetrieb des massiv parallelen Rechners SNI-KSR2-110 (mit 110 Prozessoren).
Juli 1994 Außerbetriebnahme der Cyber 2000V und damit des letzten klassischen Mainframe-Rechners am LRZ.
November 1994 Scheitern der Abnahme des Parallelrechners SNI-KSR2-110. Vorbereitung einer Ersatzlösung.
März 1995 Installation und Probebetrieb des Parallelrechners IBM 9076 SP2.
August 1995 Erfolgreiche Abnahme des Parallelrechners IBM 9076 SP2.
Februar 1996 Ausbau der Cray Y-MP EL auf 4 Prozessoren und 128 MWorte = 1024 MByte Hauptspeicher (jetzt: Cray Y-MP EL 4/128).
Juni 1996 Erweiterung des Plattenspeichers der Cray Y-MP EL auf insgesamt etwa 44 GByte.
Juli 1996 Installation, Probebetrieb und erfolgreiche Abnahme der Cray T90 (mit 4 Prozessoren und 128 MW Hauptspeicher).
Außerbetriebnahme der CDC 4680 MP.
September 1996 Außerbetriebnahme der Cray Y-MP8.
Juni 1997 Beginn des Benutzerbetriebs an der Fujitsu VPP700 mit 34 Prozessoren und je 2 GByte Memory.
November 1997 Änderung der Betriebsweise der IBM SP2 zur Vorbereitung der Ablösung des HP-Clusters (nur noch 40 Prozessoren im Parallelpool, die restlichen Knoten als "single nodes").
Januar 1998 Ausbau der Fujitsu VPP700 auf 52 Prozessoren.
März 1998 Außerbetriebnahme des HP-Clusters.
Januar 1999 Entscheidung des Wissenschaftsrates: Das LRZ wird bundesweites Höchstleistungsrechenzentrum.
Außerbetriebnahme der Cray Y-MP EL.
Mitte - Ende 1999 Aufbau des ersten Linux-Clusters mit 8 PCs  für lang laufende Jobs, vorrangig aus der Chemie.
März 2000 Installation der ersten Ausbaustufe (112 8-fach Knoten) des HLRB I Hitachi SR8000-F1. Vorbereitend war ein substantieller Ausbau der Elektrizitäts- und Klimainfrastruktur des LRZ erforderlich.
Dezember 2000 Erweiterung des Linux-Clusters um 6 Pentium4-Rechner, 10 Dual-PentiumIII- sowie zwei Quad-Xeon-Maschinen.
Mai 2001 Installation zweier IBM 4-fach SMP-Systeme.
August 2001 Außerbetriebnahme des Parallelrechners IBM RS/6000 SP2/77. Ausbau des Linux-Clusters als Ersatz in kleinen Schritten.
Oktober 2001 Stilllegung des LHR I Cray T94.
Dezember 2001 Ausbau des HLRB I auf 168 Knoten.
Januar 2002 Installation einer 8-Prozessor IBM p690 HPC mit 32 GByte Hauptspeicher, die die zwei interimistisch aufgestellten IBM 4-fach SMP-Systeme als Endlösung ablöste.
Anfang 2002 Erste Pilotversuche zum Einsatz von PVFS als parallelem, verteiltem Dateisystem am Linux-Cluster.
2002 Aktiver Einsatz von Computational Steering am HLRB I.
Oktober 2002 First Joint HLRB and KONWIHR Result and Reviewing Workshop.
Dezember 2002 Erstes Hosting von 12 Linux-Cluster-Knoten für ein Institut der TU München.
Januar 2003 Konzept für Beschaffung und Betrieb des nächsten Höchstleistungsrechners in Bayern (HLRB II) beim Wissenschaftsrat vorgelegt. Dies war Mitte des Jahres Grundlage für die erste Stufe der Mittelbewilligung.
Mitte 2003 Auswahl und Installation der Erweiterung des Linux-Clusters um 100 serielle IA32 PCs und 17 4-fach Itanium SMPs als parallele Partition von MEGWARE.
März 2004 Second Joint HLRB and KONWIHR Status and Result Workshop.
März 2004 HBFG-Anträge für den HLRB II und die Ersetzung des LHR II bei der DFG eingereicht.
Dezember 2004 Vertrag mit sgi über die Lieferung eines HLRB II 2006 (Phase 1) und 2007 (Phase 2) sowie die Lieferung einer 128-Prozessor sgi ALTIX 3700 BX2 als erste Stufe der Ersetzung des LHR II.
Januar 2005 Ablösung von PVFS durch Lustre als parallelem, verteiltem Dateisystem am Linux-Cluster
Februar 2005 Aufnahme des Benutzerbetriebs auf der sgi ALTIX 3700 BX2 als erste Stufe der Ersetzung des LHR II.
März 2005 Stilllegung des LHR II Fujitsu-Siemens VPP700/52.
Juli 2005 Nach Ausschreibung und Auswahl Aufnahme des Benutzerbetriebs auf der zweiten Stufe der Ersetzung des LHR II durch ein Cluster aus 67 Dual Itanium Knoten von MEGWARE.
Juli 2005 Anlieferung und Aufstellung des Test- und Migrationssystems für den HLRB II sgi Altix 3700 Bx2 mit 64 Madison-Prozessoren.
18. Juli 2005 Gründung des Munich Computational Science Centre MCSC zwischen LMU, MPG und TUM unter Mitwirkung von RZG und LRZ.
Dezember 2005 2 Montecito Testsysteme zur Sammlung erster Erfahrungen für den HLRB II installiert, der in Phase 2 auch Dual Core Prozessoren aufweisen wird.
März 2006 Umzug des Linux-Clusters nach Garching.
März – April 2006 Weitestgehend unterbrechungsfreier Umzug der Server nach Garching in sieben Chargen.
April 2006 Anlieferung der Platten des HLRB II im HRR in Garching.
Mai – Juni 2006 Anlieferung der Phase 1 des HLRB II sgi Altix 4700 mit 4096 Madison9M Prozessoren. Aufstellung in acht Rackreihen zu je zwei Partitionen.
Ende Juni 2006 Installation eines erweiterten Migrationssystems sgi Altix 4700 mit 256 Madison9M Prozessoren zur Überbrückung der Lieferverzögerung beim HLRB II.
Ende Juni 2006 Außerbetriebnahme und Verschrottung des HLRB I Hitachi SR8000-F1.
September 2006 Aufnahme des Benutzerbetriebs auf dem HLRB II sgi Altix 4700. LINPACK erreicht 24.5 TFlop/s.
Mitte März 2007 Erweiterung des parallelen Dateisystems Lustre auf dem Linux-Cluster von 12 auf 50 TByte.
März – April 2007 Ausbau des HLRB II von Madison9M auf Montecito  Prozessoren und Erweiterung auf 19 Partitionen mit zusammen 9728 Cores (je 512 Cores pro Partition).
April 2007 Aufnahme des Benutzerbetriebs auf der Phase 2 des HLRB II. LINPACK erreicht 56.5 TFlop/s und der HLRB II damit Platz 10 in der TOP500.
April 2007 Gründung des seit Juli 2006 durch ein MoU angestrebten GCS e.V. durch LRZ, HLRS und JSC als Vertretung Deutschlands in europäischen Projekten.
Januar 2008 Das LRZ wird innerhalb des GCS Mitglied im europäischen Projekt PRACE.
Ende 2008 Das GCS sichert die Finanzierung der nächsten Höchstleistungsrechner.
Ende 2009 Das schrittweise gewachsene Linux-Cluster überschreitet 5000 Cores und hat damit eine Spitzenrechenleistung von 45 TFlop/s.
Februar-Dezember 2010 Wettbewerblicher Dialog zur Beschaffung des SuperMUC als Nachfolger des HLRB II.
Dezember 2010 Vertragsabschluss mit IBM über die Lieferung des SuperMUC.

Neben der Beschaffung und dem Angebot an immer mehr und leistungsfähigerer "Hardware" geschah parallel - wenn auch meist nicht so spektakulär - in den letzten Jahren eine beachtliche Erhöhung des Angebots an "Software": den Benutzern der Rechensysteme werden immer mehr fertige Programme aus den verschiedensten Gebieten zur Verfügung gestellt, um ohne größeren Aufwand Problemlösungen angemessen realisieren zu können.

Grid-Computing

Ein Paradigmenwechsel im neuen Jahrtausend war die zunehmende Entwicklung und Verbreitung von Grid-Computing. Seit 1997 war das LRZ an der Entwicklung von UNICORE beteiligt. GLOBUS wurde installiert und betrieben und die Beteiligung des LRZ an Grid-Projekten wuchs stetig. Ab 2001 wurde Grid-Middleware im Produktivbetrieb eingesetzt, erst lokal im Münchner Raum, dann ab 2004 bayernweit in ByGrid, einer Kooperation mit dem RRZE in Erlangen, und ab 2005 auch deutschlandweit in D-Grid. 2005 brachte mit der Aufnahme des LRZ in DEISA auch die Integration mit den führenden nationalen Höchstleistungsrechenzentren in Europa. Im Januar 2006 unterzeichnete das LRZ ein Memorandum of Understanding über den Aufbau eines LCG Tier-2 Zentrums an RZG und LRZ, das in 2007 in Betrieb ging. Damit ist das LRZ in das weltweite Grid-System der Hochenergiephysiker eingebunden und leistet dort seinen Beitrag zur Erforschung der elementarsten Bestandteile der Materie.

1997 - 1999 Beteiligung des LRZ an der Entwicklung von UNICORE.
2000 - Mitglied im UNICORE Forum e.V.
2000 - Mitglied in der German Grid Group (G3) des DFN.
2000 - 2002 Beteiligung des LRZ an der Weiterentwicklung UNICORE Plus.
2001 Erste Einsätze von Grid-Middleware (GLOBUS, UNICORE) im Produktionsbetrieb.
2002 - 2005 Assoziierter Partner in GridLab: A Grid Application Toolkit and Testbed.
2002 - Teilnehmer am NorduGrid: A Grid Solution for Wide Area Computing and Data Handling; Beteiligung an den Atlas Data Challenges des LCG.
2003 Beteiligung in der „Global Data-Intensive Grid Collaboration“, einer Grid-Demonstration auf der Supercomputing Konferenz SC2003.
2004 - ByGrid Kooperation mit dem Regionalen Rechenzentrum in Erlangen zum Austausch von Rechenzeit über Grid-Middleware.
Mai 2005 - 2008 Mitgliedschaft im DEISA-Konsortium (Distributed  European Infrastructure for Supercomputing Applications), einem Zusammenschluss führender europäischer Rechenzentren.
September 2005 - 2008 Beteiligung am BMBF-Projekt D-Grid zum Aufbau einer  nationalen Grid-Infrastruktur in Deutschland. Als Höchstleistungsrechenzentrum  ist das LRZ einer der wichtigsten Ressourcen-Provider in diesem Rechnerverbund.
Juni 2006 Erweiterung des DEISA-Projekts (eDEISA).
Oktober 2006 Das BMBF stellt für das D-Grid Mittel zum Aufbau  dedizierter Grid-Computing-Ressourcen zur Verfügung. Neben einem eigenen Cluster  werden auch die Cluster der Münchner Astro- und Hochenergiephysik-Community  am LRZ gehostet.
Februar 2007 Inbetriebnahme des Rechen- und Speicher-Clusters zum Betrieb eines Tier-2-Zentrums für das LCG (Large Hadron Collider Computing Grid).

Entwicklung in der Datenhaltung

In der Anfangsphase der elektronischen Datenverarbeitung (EDV) kam Hintergrundspeicher immer als „direct attached storage, DAS“ (dies die moderne Sprechweise) mit Rechnern mit, die also ihre eigenen individuellen Platten- und Bandlaufwerke hatten. Nur mit proprietären Sonderlösungen war es möglich, dass gleichartige Systeme wechselseitig auf Hintergrundspeichergeräte zugreifen konnten. So konnten beispielsweise die letzten am LRZ betriebenen CDC NOS/VE Systeme der Mainframe-Zeit über einen schnellen, externen  Speicher (ESM) ein gemeinsames Dateisystem nutzen.
Ende der 1980er Jahre kam mit den ersten Workstations das Network File System (NFS) ans LRZ, das auf dem Client Server Paradigma basierend ein netzweit zugreifbares Dateisystem ermöglichte. Aufgrund seiner damaligen Beschränkungen in den Bereichen  Leistungsfähigkeit, Sicherheit und Administration wurde es außer im Sun-Cluster nur bedingt für die verteilte Nutzung spezifischer Daten am LRZ eingesetzt. Die ab 1992 aufgebaute AFS-Zelle (Andrew File System) des LRZ diente hingegen zum ersten Mal dem globaleren Ziel, allen Nutzern ein campusweit verfügbares zentrales Dateisystem anzubieten. AFS bot damals eine gegenüber NFS deutlich höhere Sicherheitsstufe, es skalierte deutlich besser und war wesentlich einfacher zu administrieren.
Über 10 Jahre lang war AFS das zentrale, gemeinsame Dateisystem aller Unix-Plattformen am Rechenzentrum. Das allenthalben als Nachfolger propagierte DCE/DFS konnte sich nicht durchsetzen, der geplante Wechsel auf dieses System wurde in letzter Minute abgebrochen. Nicht zuletzt durch die weite Verbreitung von  Desktop-Rechnern am LRZ und auf dem Campus, für die AFS nur bedingt geeignet war, traten schließlich neue Lösungen auf den Plan. Ab 2004 wurde am LRZ erstmals Network Attached Storage (NAS)  eingesetzt. Durch die NAS-Systeme konnten die Bedürfnisse von Desktopumgebungen ebenso abgedeckt werden, wie die hohen Leistungsanforderungen der Compute-Cluster.
Neben der reinen Rechenleistung wurde Hintergrundspeicher zu einer immer bedeutenderen Planungsgröße. Kurz vor der Jahrtausendwende wurde daher damit begonnen, für Anwendungen mit besonders hohem Datenaufkommen ein eigenes Speichernetz (Storage Area Network, SAN) aufzubauen. Während die Daten der NAS-Filer über das LAN transportiert werden, wird auf die Daten der Storageserver im SAN direkt über das Fibre Channel (FC) Speichernetz zugegriffen. Diese Technik lag auch dem Cluster-Filesystem CXFS von SGI zu Grunde, das am 2006 installierten Bundeshöchstleistungsrechner HLRB II für die temporäre Speicherung großer Datenmengen verwendet wurde. Am Linux-Compute-Cluster wurde zeitweise das Cluster-Filesystem LUSTRE eingesetzt, mit dem sich ebenfalls beachtliche Transferleistungen erzielen ließen. Aus Stabilitätsgründen wurde LUSTRE 2009 durch eine Lösung auf Basis der NAS-Architektur ersetzt. Auch in anderen Anwendungsbereichen, etwa für die virtuelle Serverinfrastruktur, wurden zunehmend NAS-Speichersysteme verwendet.
Das wachsende Datenaufkommen und die Dezentralisierung der Rechnerlandschaft Anfang der 90er Jahre machten Archiv- und Backupsysteme zur Langzeitspeicherung bzw. Sicherung der Daten notwendig. Die Geschichte dieser Systeme ist geprägt durch immer wieder notwendige Migration der Daten auf modernere Hardware und Software. Als 1994 der letzte klassische Mainframe-Rechner am LRZ abgeschaltet wurde, wurden zuvor die wichtigsten Benutzerdaten von den Spulenbändern auf das erste von einem Roboter bediente VHS-Kassettensystem am LRZ migriert. Die nächste Migration der Daten wurde bereits ein Jahr später wegen Problemen mit den VHS-Kassetten und der abbröckelnden Unterstützung der eingesetzten Software UniTree vollzogen. Hierbei erfolgte der Wechsel auf ADSM (späterer Name TSM, Tivoli Storage Manager) von IBM mit einer Bandkassettenbibliothek IBM 3494 und vier IBM Magstar 3590 Laufwerken. Die gleichzeitige Verlagerung der Daten auf neue Hardware und Software war technisch kompliziert, erforderte viel Improvisation und zog sich über ein halbes Jahr hin. Seit 1996 bildet TSM die Softwarebasis des Archiv-/Backup-Bereichs am LRZ. Die Datenträger und Laufwerkstechnologien wurden in dieser Zeit mehrfach gewechselt, z.B. von IBM 3590 auf IBM LTO2, von LTO2 auf SUN T10K und LTO4.

Eine große Herausforderung stellte Anfang 2006 die Verlagerung von 1 Petabyte Daten in den Archivsystemen von der Münchner Innenstadt nach Garching ins neue Rechenzentrum dar. Innerhalb weniger Tage wurden alle Komponenten inklusive zweier Bandbibliotheken mit einigen tausend Bändern umgezogen. Gleichzeitig wurde ein neues Hochleistungsarchivsystem in Betrieb genommen, das primär für die Speicherung von Daten aus dem HPC-Bereich zuständig war. Das System wurde 2009 grundlegend modernisiert und im Frühjahr 2010 um eine Library SUN SL8500 erweitert. Zwei Jahre später folgte ein neues HPC-Archiv für den damals schnellsten Rechner Europas.

Abseits der riesigen Datenmengen aus dem HPC-Umfeld wuchs ein weiterer Geschäftsbereich des LRZ heran: Die Langzeitarchiverung von Daten. Die Zusammenarbeit mit der Bayerischen Staatsbibliothek und dem Bibliotheksverbund Bayern wurde ständig intensiviert. Dabei fungierte das LRZ als IT Service Provider in den Bereichen Serverhosting, Clusterhousing, Storagehousing einerseits und als Projekt- und Kooperationspartner in verschiedenen Projekten andererseits. Die Bayerische Staatsbibliothek verfügte Ende 2012 über einen eigenen Online-Speicher mit 700 TB Kapazität am LRZ, der von verschiedenen Arbeitsgruppen und Projekten genutzt wird. Dieser Speicher ist auch Ausgangspunkt für die Übertragung der Daten ins Langzeitarchiv des LRZ, in dem sich mittlerweile knapp 500 TB Archivdaten befinden. 

Die Meilensteine auf dem Weg der Entwicklung der Speicherhaltung, insbesondere des Archiv- und Backupsystems und der gemeinsamen Dateisysteme, sind:

1992 Einführung von AFS am Sun-Cluster, später am HP-Cluster
1994 Inbetriebnahme des Metrum RS600 Roboters unter Unitree, Datenmigration auf VHS-Kassetten
Frühjahr 1995 Pilotinstallation des ersten ADSM-Systems mit einem StorageTek Silo ACS 4400.
2. Halbjahr 1995 Installation eines allgemein benutzbaren ADSM-Systems auf 2 IBM RS6000 R24 Systemen als High Availability (HA) Plattform.
1. Halbjahr 1996 Benutzerbetrieb und Migration der UniTree-Daten (etwa 1 TByte) auf 4 IBM Magstar 3590 Bandlaufwerke in einer IBM 3494 Roboterbibliothek.
1997 Beschaffung einer zweiten IBM 3494 Library mit weiteren 4 IBM Magstar 3590 Laufwerken. Migration der etwa 2 TByte Daten aus dem STK Silo, das stillgelegt wurde.
1998 Bestückung des StorageTek Silos ACS 4400 mit Redwood SD-3 Laufwerken, am Jahresende 15 TByte Bandkapazität.
1999 Installation des ersten SAN-Speichers:  IBM Enterprise Storageserver E20 mit 18 GB SSA-Platten, insgesamt 0,4 TB; Installation eines StorageTek Powderhorn Silos mit 8 STK 9840 Laufwerken
1999 Testbetrieb DCE/DFS
2000 Installation von 2 IBM 3575 Kassettenroboterbibliotheken, Upgrade des STK Silos auf STK Powderhorn; Austausch der STK SD-3 Bandlaufwerke gegen IBM 3590 FC-Laufwerke; Inbetriebnahme zweier Vierprozessor-Serversysteme IBM RS/6000 S7A mit 1,4 TByte Platten für Datenbanken und Cache.
Dezember 2000 Belegung im Archiv- und Backupsystem: 86 TB
2001 Aufrüstung des IBM ESS auf Modell F20, 0,8 TB Kapazität; Wechsel von AFS auf DCE/DFS gestoppt
Dezember 2001 Belegung im Archiv- und Backupsystem: 132 TB
2002 Ausbau ESS auf 3,5 TB
Dezember 2002 Belegung im Archiv- und Backupsystem: 217 TB
2003 Installation eines Storageserver STK D280 mit 11 TB, genutzt von AFS und TSM, Erneuerung der AFS Fileserver; Inbetriebnahme einer LTO-Library IBM 3584 mit 8 Laufwerken; Erste TSM-Server unter Linux; Erster NAS-Filer am LRZ für Maildienste: NetApp F940C
Oktober 2003 Vertrag zur landesweiten Nutzung der Tivoli Storage Produkte
Dezember 2003 Belegung im Archiv- und Backupsystem: 420 TB
2004 Installation eines NAS/SAN-Gateways GF940C, Migration von Netware auf NAS. Lieferung und Probebetrieb der sogenannten Petabyte-Konfiguration: 2 Libraries IBM 3584 mit 32 LTO II Laufwerken im SAN , TSM-Serverbetrieb unter einem Linux-Cluster, 80 TB Platten im SAN
Dezember 2004 Belegung im Archiv- und Backupsystem: 520 TB
Frühjahr 2005 Vollständige Inbetriebnahme der Petabyte-Konfiguration
November 2005 Erstmals ein Petabyte gespeicherte Daten auf den neuen Systemen
Dezember 2005 Endgültige Abschaltung der Libraries der ersten TSM-Generation (IBM 3494 und STK Powderhorn)
Februar 2006 Installation NAS-Filer 3050 im neuen Rechenzentrum in Garching; Unterbrechungsfreier Umzug der NAS-Daten von München nach Garching
März 2006 Installation eines Hochleistungsarchivsystems mit einer Library SUN SL8500 und 14 Bandlaufwerken SUN T10000; Umzug der beiden LTO-Libraries von München nach Garching
Februar 2007 Erstmals lagern mehr als 2 Petabytes Daten in den Archiven
Juni 2007 Mit dem Start des gemeinsamen Projekts "vd16digital" wird die Kooperation zwischen LRZ und Bayerischer Staatsbibliothek weiter ausgebaut. Ziel des Projekts ist die Digitalisierung und Archivierung des deutschen Schriftguts des 16. Jahrhunderts
Oktober 2008 Abschluss eines zweiten Landeslizenzvertrags zur Nutzung der Tivoli-Produkte mit fünfjähriger Laufzeit
Dezember 2008 Gesamtbelegung im Archiv- und Backupsystem über 5 Petabyte
Frühjahr 2008 Inbetriebnahme des "Speicher für die Wissenschaft". Den Wissenschaftlern und Studenten an TU und LMU werden 68 TB Online-Speicher für die gemeinsame fakultätsübergreifende Nutzung zur Verfügung gestellt. Basis dafür redundant konfigurierter  NAS-Speicher FAS6070C der Firma NetApp.
März 2009 Nach einer halbjährigen Aufbau- und Vorbereitungsphase startet das Projekt BSB-Google. In den nächsten Jahren soll der gesamte urheberrechtsfreie Buchbestand der BSB digitalisiert und am LRZ archiviert werden. Der Bestand umfasst mehr als 1 Million Werke.
2. Quartal 2009 Migration von Titanium A nach B. Der gesamte Datenbestand auf 6.000 Kassetten vom Typ Titanium A wird auf Kassetten vom Typ Titanium B umkopiert. Titanium A wird stillgelegt.
Januar 2010 Mehr als 10 PB im Archiv- und Backupsystem
März 2010 Ein hochverfügbares NAS-System FAS3170C für die virtuelle Serverinfrastruktur des LRZ wird in Betrieb genommen. Das System spiegelt seine Daten synchron in einen anderen Brandabschnitt.
Sommer 2010 Ablösung des alten LTO-Archiv- und Backupsystem auf Basis von LTO2 durch ein neues System auf Basis von LTO4/5. Eine weitere SUN Library SL8500 mit 16 LTO4-Laufwerken geht in Betrieb. Eine IBM-Library 3584 und insgesamt 40 LTO2-Laufwerke samt zugehöriger Cartridges werden stillgelegt, nachdem zuvor die Daten von 10.000 LTO2-Kassetten umkopiert wurden.
2011 Im Laufe des Jahres werden in Vorbereitung für den nächsten Supercomputer 2 PB NAS-Primärspeicher und 3 PB NAS-Sekundärspeicher installiert.
2012 Ein weiteres Archiv- und Backupsystem für die Daten des (im Sommer 2012) schnellsten Rechner Europas, den SuperMUC, wird in Betrieb genommen. Es umfasst 36.000 Stellplätze für Kassetten (LTO5) in zwei IBM-Libraries. Eine der beiden Bandbibliotheken wird am Rechenzentrum der Max-Planck-Gesellschaft (RZG) installiert. Dort werden aus Sicherheitsgründen Kopien der Archivdaten abgelegt.
Frühjahr 2013 Anfang des Jahres sind 5 Bandbibliotheken mit 98 Laufwerken in Betrieb. Sie verfügen über eine Speicherkapazität von 40, knapp 30 PB sind belegt.
Das RZG stellt in den Datenräumen des LRZ eine eigene Library auf für Sicherheitskopien ihrer Massendaten.
September 2013 Abschluss des 3. Landeslizenzvertrags zur Nutzung der Tivoli-Produkte mit fünfjähriger Laufzeit
4. Quartal 2013

Die Speicherkapazität der Archive wird um 18 Bandlaufwerke und 17.000 Kassetten erweitert. Erstmals kommt die LTO6-Technologie am LRZ zum Einsatz. Auch weiterer Plattenspeicher für die virtuelle Infrastruktur und den SuperMUC kommt hinzu. 10.000 Festplatten stellen Ende 2013  eine SAN- und NAS-basierte Kapazität von 18 PB bereit.

Januar 2014 Der letzte AFS-Server wird abgeschaltet. Damit endet die über 20 jährige Geschichte des Andrew Filesystems am LRZ. Über mehr als ein Jahrzent war AFS das zentrale verteilte Filesystem am Rechenzentrum.

Entwicklung des Kommunikationsnetzes

Wie bereits in den vorangehenden Abschnitten angedeutet, wurde das Datenfernverarbeitungsnetz zum Kommunikationsnetz ausgebaut. Diente früher das Datenfernverarbeitungsnetz dazu, Sichtgeräte und Stapelverarbeitungsgeräte (z.B. Lochkartenleser, Drucker, Plotter) an den (oder die) zentralen Rechner im LRZ-Gebäude anzubinden, so ist die Aufgabe des Kommunikationsnetzes, Rechnern jeglicher Größe (vom Smart Phone über den PC bis zum Großrechner) und sonstigen Spezialgeräten (Laborgeräte, Rastermikroskope, Mess- und Prüfstände, u.ä.)  die Kommunikation untereinander zu ermöglichen. Das Terminalzubringernetz wandelte sich in ein Kommunikationsnetz. Dazu war neben der wesentlichen Erhöhung der Übertragungsgeschwindigkeit auch eine flächendeckende Erweiterung der Netzstruktur notwendig.

Im DFV-Netz des Jahres 1980 wurden die Sichtgeräte mit der Übertragungsgeschwindigkeit 9.6 kbit/s angeschlossen, die heutige Übertragungsrate beim Anschluss liegt bei 100 Mbit/s bzw. 1 Gbit/s (Client-Rechner) oder 1 bzw. 10 Gbit/s (Serverrechner). Die Anschlussbandbreite ist also heute eine Million mal größer als noch im Jahr 1980. Das Kernnetz (Backbonenetz) wird mit 10 Gbit/s betrieben. Als Technik kommt Ethernet zum Einsatz. Das Netz entwickelte sich ebenso rasant wie die gesamte IT. Das Münchner Wissenschaftsnetz wurde in den letzten Jahrzehnten mehrmals sowohl in der Struktur als auch in der zugrundeliegenden Technik komplett umgebaut. Dabei waren technologische Sprünge und Neuentwicklungen auch immer Treiber für die Entwicklung im Kernnetz. So ist in der letzten Dekade beispielsweise die mobile Nutzung mittels Wireless-LAN (WLAN) und Mobilfunk neu hinzugekommen. Auch die Verfügbarkeit des Netzes und der darüber angebotenen Dienste wurde für die wissenschaftliche Arbeit immer wichtiger und damit auch kritischer. Deshalb wurden auch erhebliche Anstrengungen unternommen, um die Ausfallsicherheit und die Verfügbarkeit des Netzes zu erhöhen.

Das Kommunikationsnetz ist als eine infrastrukturelle Maßnahme anzusehen. Meilensteine beim Wachstum des Kommunikationsnetzes waren:

April 1980 Betrieb der ersten Modem-Wählzugänge (300 Bit/s und 1200 Bit/s)
Dezember 1982 Erste Installation eines LAN auf Basis von Ethernet im LRZ-Gebäude mit NET/ONE-Komponenten (Firma Ungermann-Bass).
Mai 1985 Anschluss an EARN/Bitnet mit weltweitem Email-Dienst.
Juni 1985 Anschluss an das öffentliche Datex-P-Netz.
Oktober 1985 Ersetzung des proprietären AEG-Netzes durch ein lokales X.25-Netz mit PADs als Anschlussmöglichkeit für Terminals und PCs.
September 1986 Beginn einer bedarfsorientierten Installation von Glasfaserstrecken und von Koaxkabeln im Bereich TU-Stammgelände, LMU-Theresienstraße und Campus Garching.
Dezember 1986 Installation des lokalen Netzes CDCNET der Firma Control Data auf Basis von Ethernet.
Oktober 1988 Aufbau und Betrieb eines Bayerischen Hochschul-Netzes (BHN), das alle bayerischen Hochschulen durch 64 Kbit/s-Standleitungen auf X.25-Basis miteinander verbindet.
Januar 1990 Anschluss an das Deutsche Wissenschaftsnetz WiN (zunächst mit 2 x 64 Kbit/s, X.25) für das LRZ und alle bayerischen Universitäten, dadurch Ablösung des BHN-Netzes.
November 1990 Realisierung eines stadtweiten Backbone-Netzes durch Installation von Routern.
April 1991 Anschluss an das Internet.
September 1991 Beginn der dreijährigen Testphase des DQDB-MAN-Netzes der DBP-Telekom (später unter der Bezeichnung DATEX-M im Angebot der Telekom) , Verbindung zum Rechenzentrum der Universität Stuttgart (RUS) als DFN-Projekt über diese Technik.
September 1992 Verbesserter Anschluss an das WiN (2 Mbit/s, X.25)
Dezember 1992 Abschluss eines Vertrages mit der DBP-Telekom über die langjährige Nutzung von 29 Glasfaserstrecken im Münchner Einzugsbereich. Beginn der Erhöhung der Übertragungsgeschwindigkeit auf dem Backbone-Netz von 10 Mbit/s auf 100 Mbit/s, Verbindung der zentralen Rechner im LRZ mit FDDI (100 Mbit/s).
Juli 1993 Installation einer 34 Mbit/s-Strecke zum Regionalen Rechenzentrum der Universität Erlangen (RRZE) zum Test neuer Netztechniken (z.B. Frame Relay, ATM) im Rahmen eines DFN-Projektes.
Januar 1994 Beginn der flächendeckenden Verkabelung im Bereich der LMU und TU München (ohne Medizin) im Rahmen des Netzinvestitionsprogramms NIP.
Juli 1994 Beginn der flächendeckenden Verkabelung im Bereich des Campus Weihenstephan im Rahmen des Netzinvestitionsprogramms NIP.
September 1994 Beginn des DFN-Projektes "RTB-Bayern" mit Laufzeit bis Ende 1996. In diesem Projekt wurden auf 34 Mbit/s-Strecken zwischen München und Erlangen bzw. Erlangen und Nürnberg neben neuer Netztechnik (ATM) zukunftsweisende Hochgeschwindigkeitsanwendungen im Bereich Teleteaching, Telemedizin, Telecomputing und Multimedia erprobt. Das Projekt war eines der Vorbereiter für das B-WiN des DFN.
Oktober 1995 Beginn der Ersetzung der Ethernet-Sternkoppler (Repeater) durch über 150 Switches. Damit wurde eine wesentliche Erhöhung der Netzkapazität bei gleicher Gebäude-Verkabelungsstruktur erreicht.
Februar 1996 Inbetriebnahme der neuen Wählzugangsserver (Ascend) in München und Weihenstephan mit einer Gesamtkapazität von anfänglich 150 Zugangskanälen (ISDN oder analog).
April 1996 Anschluss des Münchner Hochschulnetzes (MHN) und weiterer Bayern-Online-Projekte mit 34 Mbit/s an das B-WiN des DFN, das in seinem Kernnetz bereits ATM-Technik verwendet..
Juni 1996 Anschluss des Campusnetzes Weihenstephan mit 34 Mbit/s an das B-WiN. Das Campusnetz war bisher über drei 64 Kbit/s-Strecken direkt mit dem MHN verbunden.
August 1996 Erhöhung der Anschlussgeschwindigkeit des B-WiN auf 155 Mbit/s.
Oktober 1996 Abschluss eines Vertrages mit den Stadtwerken München über eine vorerst fünfjährige Nutzung von 8 Glasfaserstrecken im Münchner Stadtbereich.
November 1996 Außerbetriebnahme des Netzbetriebsrechners CD1. Gleichzeitig Außerdienststellung der letzten zum Teil seit 1985 betriebenen X.25-PAD- und CDCNET-Komponenten.
Dezember 1996 Umstrukturierung des MHN-Backbones. Der etwa 200 km große FDDI-Ring wurde durch einen Switch strukturiert, langsame Strecken werden mit 100 Mbit/s-Fast-Ethernet betrieben.
März 1997 Umstrukturierung des RZ-Netzes. Der bisherige FDDI-Ring, der die Serverrechner in den LRZ-Gebäuden miteinander verbindet, wurde durch einen Switch strukturiert. Damit ergibt sich eine Leistungssteigerung im Gesamtdurchsatz und eine bessere Fehlerseparierung. Projektantrag an den DFN über ein Gigabit-Testbed, das etwa 20 Anwendungsprojekte im Großraum Erlangen, München und Stuttgart miteinander breitbandig verbinden soll.
April 1997 Erste Anbindung einer abgesetzten Telefonanlage (Augustenstr. 77) an die zentrale Telefonanlage durch gleichzeitige Nutzung der Glasfaserstrecke für Daten und Sprache mittels Multiplexer.
Einstellung des seit 1990 betriebenen WiN-Anschlusses auf X.25-Basis.
August 1997 Inbetriebnahme eines weiteren Wählservers neuer Generation. Es sind jetzt 360 Wählzugänge geschaltet, davon können 224 analog genutzt werden. Anschluss des ersten Studentenwohnheimes (Studentenstadt Freimann) über eine 64 Kbit/s-Standleitung.
Januar 1998 Direkter Anschluss des Campusnetzes Weihenstephan über eine 44 km lange Glasfaserstrecke an das Münchner Hochschulnetz.
März 1998 Abschluss eines "uni@home"-Vertrages mit der Deutschen Telekom. Hierdurch werden kostenfrei Wählzugangs-Leitungen und -Server zur Verfügung gestellt, sowie eine 0180-Nummer, mit der es südlich der Donau möglich ist, zum Ortstarif die Wähleingänge des LRZ zu benutzen.
Juli 1998 Der B-WiN-Anschluss in Weihenstephan wird eingestellt, da Zugang zum WiN jetzt über München möglich. Inbetriebnahme einer Glasfaserstrecke nach Erlangen mit WDM-Systemen (3*2,5 Gbit/s) und ATM-Switches im Rahmen des Gigabit-Testbed Süd. Damit wurde weltweit erstmals auf der ATM-Netzebene eine solche Verbindungsstrecke  mit 2,448 Gbit/s betrieben.
August 1998 Offizielle Einweihungsfeier des Gigabit-Testbed Süd (zusammen mit dem Vektorrechner VPP700) in Anwesenheit von Bundesminister Dr. Jürgen Rüttgers und des Bayerischen Staatsministers Prof. Dr. Faltlhauser.
September 1998 Beginn des massiven Einsatzes von WDM-Systemen auf ausgewählten Glasfaserstrecken zum parallelen Transport verschiedener Netztechniken für das Gigabit-Testbed Süd, TK-Anbindungen und hochwertigen Vorlesungsübertragungen mittels ATM.
Erweiterung der bestehenden WWW-Proxy-Caches auf 68 Gbyte.
November 1998 Einführung einer strukturierten Hierarchie von Mail-Servern, zur Verhinderung der Weiterleitung von unerwünschten Werbe-E-Mails (Spam).
März 1999 Umbenennung des Münchener Hochschulnetzes (MHN) in Münchner Wissenschaftsnetz (MWN), da wissenschaftliche Institutionen (z. B. Max-Planck-Institute, Institute der Fraunhofer-Gesellschaft) in verstärktem Maß angeschlossen werden. Erweiterung des Gigabit-Testbed Süd durch eine Strecke von Erlangen nach Berlin.
April 1999 Inbetriebnahme des Netzes im Neubau der Fakultät für Chemie und Pharmazie in Großhadern mit über 1.300 Anschlüssen.
August 1999 Anbindung der Studentenstadt Freimann (1600 Wohnheimplätze) über eine Glasfaserstrecke mit 10 Mbit/s.
November 1999 Abschluss des langwierigen und zeitaufwendigen Auswahlverfahrens für die Backbone-Router.
Dezember 1999 Die Anzahl der verfügbaren Wählanschlüsse übersteigt 1.000, die der monatlichen Wählverbindungen 1.000.000 und die der aktiven Nutzer 25.000.

Zu Beginn des neuen Jahrtausends war aus dem Terminalzubringernetz im Jahr 1973 mit 14 Sichtgeräten und 42 Fernschreibern das Münchner Wissenschaftsnetz mit über 27.000 angeschlossenen Geräten geworden. Neben den bisherigen Hochschulen waren nun eine Vielzahl von Einrichtungen (z. B. Max-Planck-Institute, Institute der Fraunhofer-Gesellschaft, Museen, Studentenwohnheime, Studentenwerk, Versuchsgüter, Hochschule für Fernsehen und Film, Hochschule für Musik, Akademie der Bildenden Künste, Haus der Kulturen) aus dem wissenschaftlichen Umfeld Nutzer des Netzes. Das Backbone des MWN stand kurz vor seiner Umrüstung auf neue Router-Hardware von Cisco und einer Erhöhung der Übertragungsrate auf 1 Gbit/s. Der Anschluss ans B-WiN (Internet) hatte eine Übertragungsrate von 100 Mbit/s und transportierte pro Monat 10.000 GByte. Die verwendeten Glasfasern wurden durch den Einsatz von Wellenlängenmultiplexern parallel genutzt, somit konnten die Netztechniken FDDI, Ethernet, ATM und Verbindung von Telefonanlagen gleichzeitig über eine Glasfaser genutzt werden. Dennoch war eine Flächendeckung im Versorgungsbereich des LRZ noch nicht erreicht. Die in den früheren Jahren mit NIP (Netzinvestitionsprogramm) eingebaute Koaxstruktur (yellow cable) musste durch eine strukturierte Verkabelung basierend auf Kupfer- und Glasfaserkabeln ersetzt werden. Der Betrieb des Netzes beschäftigte sich vor allem mit Netzmissbrauch wie der Flut von Spam-Mails und Hackerangriffen. Die Proxy-Cache-Server zur schnelleren Bereitstellung von häufig nachgefragten WWW-Seiten wurden kräftig ausgebaut und im verstärkten Maße wurden Videoübertragungen zwischen Hörsälen (Vorlesungsübertragungen) und Operationssälen (für Kongresse) auf Basis von ATM genutzt.

Der weitere Ausbau sah folgende Meilensteine:

Februar 2000 Anschluss des ersten Studentenwohnheimes über Funk-LAN (6 Mbit/s).
März 2000 Ersetzung der Backbone-Router durch Cisco Catalyst 8540. Dadurch erhöht sich im Backbone und in den Gebäudenetzen die Übertragungsgeschwindigkeit auf bis zu 1 Gbit/s.
September 2000 Anschluss des MWN an das G-WiN (Gigabit-Wissenschaftsnetz) mit 622 Mbit/s und einer monatlich transportierten Datenmenge von 16.000 GByte.
Installation eines Testsystems mit 5 VoIP (Voice over IP)-Telefonen
Dezember 2000 Installation der ersten Funk-LAN Access-Points (Hotspot) in der Eingangshalle des LRZ.
Februar 2001 Installation der ersten 30 Wählanschlüsse von M-net. Damit war es M-net-Kunden in betriebsschwachen Zeiten (ab 18 Uhr, am Wochenende) möglich, sich kostenfrei ins MWN und Internet einzuwählen.
März 2001 Beginn der Ersetzung der Backbone-Router Cisco Catalyst 8540 durch Catalyst 6500. Dieser Austausch war notwendig, da nur der neue Router-Typ die vom LRZ geforderten Funktionen erbrachte.
August 2001 Einführung von Portsperren am G-WiN-Zugang zur Unterbindung der Nutzung von Peer-to-Peer-Protokollen. Seit längerer Zeit wurde ein geändertes Verkehrsverhalten und ein gewaltiger Anstieg des Datenvolumens vor allem in betriebsschwachen Zeiten (nachts und am Wochenende) am G-WiN-Zugang bemerkt. Messungen ergaben, dass dieses Verhalten auf die intensive Nutzung von Peer-to-peer-Protokollen (Austausch von Musikstücken und Filmen) und auf manipulierte (gehackte) Rechner zurückzuführen ist. Die Sperrung dieser Protokolle am Zugang zum WiN und die konsequente Benachrichtigung der Betreiber gehackter Rechner konnten das Verkehrsverhalten wieder auf Normalwerte bringen.
September 2001 Einführung des Reporting-Systems Infovista zur Qualitätskontrolle des Netz- und Systembetriebes.
Abschluss des Projektes Customer Network Management (CNM) für das WiN. CNM bezeichnet allgemein die kontrollierte Weitergabe von Managementinformationen durch den Anbieter eines Kommunikationsdienstes an die Dienstnehmer. CNM ermöglicht es den Dienstnehmern, sich über den Zustand und die Qualität der abonnierten Dienste zu informieren und diese in eingeschränktem Maße selbst zu managen. Somit werden den am WiN angeschlossenen Einrichtungen Informationen und Funktionalitäten bereitgestellt, die sie in Bezug auf ihren Anschluss (IP, SDH) an das WiN benötigen. Die CNM-Anwendung wurde auch für das Münchner Wissenschaftsnetz MWN eingeführt und den Netzverantwortlichen im MWN zur Verfügung gestellt.
Februar 2002 Installation eines Accountingsystems an der Schnittstelle MWN zum WiN, da ein Hinweis auf missbräuchliche Nutzung auch ein auffälliges Datenübertragungsverhalten einzelner Rechner sein kann. Deshalb werden die Verkehrsströme der Rechner beobachtet. Auffällige Rechner werden untersucht und bei gehackten Systemen die Verbindung ins WiN gesperrt.
Mai 2002 Realisierung eines kontrollierten Zugangs zum Bayerischen Behördennetz für alle Institutionen des Wissenschaftsministeriums über das LRZ.
Juni 2002 Positive Begutachtung und Befürwortung ohne Einschränkung von der DFG für die NIP II-Vorhaben (Koax-Ersetzung durch eine strukturierte Verkabelung) der beiden Münchner Universitäten. Dabei entfallen auf die
  • TU München/Garching Kosten in Höhe von 8,1 Mio. Euro
  • LMU Kosten in Höhe von 4,6 Mio. Euro
  • TU München/Weihenstephan Kosten in Höhe von 2,5 Mio. Euro
September 2002 Beschaffung von 6 IP-Codecs und mehrerer Video-Konferenzsysteme. Damit konnten die bisherigen Codes auf ATM-Basis abgelöst und in Verbindung mit dem VC-Dienst des DFN Konferenzen mit bis zu 10 Teilnehmern an unterschiedlichen Orten durchgeführt werden.
November 2002 Weiterer Ausbau des Funk-LANs. Ein Großteil der Studentenwohnheime ist über WLAN-Verbindungen angeschlossen, in öffentlichen Räumen des LRZ, der TU München und LMU wurden über 35 WLAN-Zugangspunkte (Access-Points) installiert und über 120 WLAN-Karten langfristig ausgeliehen.
März 2003 Realisation einer automatischen Backup-Möglichkeit über M-net ins Internet an Stelle des G-WiN-Zugangs, da im November 2002 und Januar 2003 Ausfälle der G-WiN-Anbindung (Unterbrechung der LWL-Anbindung nach Garching) von über 12 bzw. 46 Stunden auftraten.
August 2003 Eindringen des W.32-Blaster-Wurmes ins MWN. Trotz der installierten Portsperren konnte dies nicht verhindert werden, da verseuchte Laptops ans Netz angeschlossen wurden. Die Ausrottung des Wurmes gestaltet sich aufgrund der Netzgröße sehr schwierig.
Oktober 2003 Etwa 50.000 Geräte sind am Münchner Wissenschaftsnetz (MWN) angeschlossen, mit 622 Mbit/s ist das MWN am Gigabit-Wissenschaftsnetz (G-WiN) des DFN (Deutsches Forschungsnetz) angeschlossen, der externe Datenverkehr ist ca. 65.000 GByte pro Monat.
November 2003 Obligatorische Nutzung des WLAN über einen IPsec-VPN-Server.
Dies wurde eingeführt, um die Sicherheitslücke durch die Abhörmöglichkeit in Funkzellen zu schließen. Dadurch werden alle Daten von Anfang an verschlüsselt übertragen.
März 2004 Abschaltung der letzten ATM-Komponente im Fakultätsgebäude für Maschinenwesen in Garching. Das Gebäude wurde auf Wunsch der Fakultät bei seinem Neubau mit einem ATM-Netz versehen. Diese Netztechnologie hat sich als zu kostspielig und personalintensiv erwiesen.
August 2004 Beginn der Hochrüstung der Backbonestrecken des MWN von 1 Gbit/s auf 10 Gbit/s. Hierzu mussten die vorhandenen Router von Cisco und LWL-Multiplexer fast vollständig mit neuer Hardware versehen werden. Dies konnte ohne größere Unterbrechungen in den Semesterferien bis Mitte Oktober durchgeführt werden. Zudem werden bei Bedarf die Anbindungen von Gebäuden auf 1 Gbit/s erhöht.
Oktober 2004 Abschluss der NIP II-Aktivitäten in Weihenstephan
In 25 Gebäuden wurde Koax durch eine strukturierte Verkabelung ersetzt. Dabei wurden 125 km Kupferkabel für den Anschluss von 2063 Doppeldosen verbaut. An LWL-Kabeln wurden 8 km im Backbonebereich (Campus), 14 km im Sekundärbereich (Verbindung von Switches in Gebäude) und 45 km im Tertiärbereich (Verbindung von Switches zu 1126 LWL-Doppeldosen) gezogen. 34 Switches mit insgesamt 2454 Ports wurden installiert.
November 2004 Inbetriebnahme eines neuen VoIP (Voice over IP)-Gateway (Asterisk) mit neuer Schnittstelle (SIP) für Telefone.
Der Vorteil hierbei ist die Verwendung von IP-Telefonen mit der standardisierten SIP-Schnittstelle, sowie die Public-Domain-Software Asterisk. Sogar ein WLAN-SIP-IP-Telefon ist verfügbar und im Einsatz. Alle Telearbeiter des LRZ mit DSL-Anschluss werden nun über SIP-IP-Telefone über Asterisk in die bestehende TU-Telefonanlage eingebunden.
Dezember 2004 Aufnahme des Testbetriebes mit dem IPV6-Protokoll
Das MWN kann nun IPV6-Datenpakete transportieren (Router), wichtige Dienste (z.B. Name-Server) sind IPv6 fähig, Institutionen erhalten IPV6-Adressen im notwendigen Umfang (Mitgliedschaft des LRZ bei RIPE), das MWN ist an das weltweite IPV6-Netz (Tunnel zu 6-WiN) angeschlossen.
April 2005 Das letzte FDDI-Interface im MWN wird abgeschaltet.
Damit verschwindet aus dem MWN das FDDI-Protokoll, das mit 100 Mbit/s einige Jahre das Protokoll der Backbone-Verbindungen war. Der FDDI-Ring für das Bachbonenetz war über 200 km lang.
Juli 2005 Beginn der Umlegung aller im LRZ-Standort Barer Straße endenden LWL-Strecken an die Standorte TU München (Nordgelände, Strecken der Telekom) und LMU (Stammgelände, Strecken von M-net und Stadtwerke). Mit dieser Maßnahme wurde das MWN so umstrukturiert, dass ein problemloser Umzug des LRZ zum neuen Standort Garching im Jahr 2006 möglich ist. Die Umlegung wurde termingerecht Anfang August abgeschlossen.
Januar 2006 Aufbau der Netzinfrastruktur im Neubau des LRZ in Garching
Dazu gehörten die Abnahme und Inbetriebnahme der Vernetzung innerhalb des Rechnerwürfels mit Anschluss der Rechner- und Archivierungssysteme, die Abnahme und Inbetriebnahme der Verkabelung im Instituts- und Hörsaalbau und Aufbau des Facility-, Daten- und VoIP-Netzes.
Inbetriebnahme von 2 Server Load Balancern (SLB von f5) zur Lastverteilung für stark genutzte Dienste.
April 2006 Inbetriebnahme einer neuen VoIP-Telefonanlage im LRZ-Neubau
Die TK-Anlage ist nun ein von der bisher vom LRZ mitgenutzten TK-Anlage der TUM völlig unabhängiges System mit eigenem Nummernraum. Sie basiert auf vier Linux-Servern mit der Open Source Software Asterisk und eGroupWare. Die Außenanbindung ist über zwei auch als Modem/ISDN-Server betriebene Cisco-Komponenten (AS5350) mit acht S2m-Schnittstellen realisiert. Über die Anlage werden mit Hilfe des SIP-Protokolls 220 IP-Telefone (von der Firma SNOM) im LRZ-Gebäude und 40 IP-Telefone für Telearbeiter bedient. Die TK-Anlage ist über X-WiN (Internet) mit dem DFN-Breakout (Verbindungen ins Festnetz der Telekom) und über konventionelle Schnittstellen mit dem Querverbindungsnetz der Münchner Behörden (darunter auch LMU und TUM) verbunden. Mittels ENUM sind nicht nur die TK-Anlage des LRZ sondern auch sämtliche Anlagen des Münchner Querverbindungsnetzes mit Hilfe der VoIP-Technologie erreichbar.

Dezember 2006

Inbetriebnahme einer LWL-Strecke zwischen LMU-Stammgelände und LRZ-Neubau
Damit wurde das geplante Backbone-Dreieck des MWN realisiert, das bei Ausfall einer Leitung eine Verbindung über die redundante Strecke ermöglicht. Alle Verbindungsstrecken der Router und die Anbindung wichtiger Standorte sowie der X-WiN-Anschluss sind nun mit 10 Gigabit/s realisiert.

Januar 2007

Nyx: Ein System zur Lokalisierung von Rechnern wird in Betrieb genommen. Mit Hilfe von Nyx lassen sich Systeme nach Eingabe der MAC- bzw. der IP-Adresse im MWN lokalisieren, d.h. es lässt sich ermitteln, an welchem Switch und an welchem Port das gesuchte System angeschlossen ist. Nyx fragt dazu alle 5 Minuten alle Netzkomponenten ab und wendet maschinelles Lernen an, um die Topologie des Netzes zu erkennen.

Frühjahr 2007

Virtuelle Firewall als neuer Dienst: In den Kernnetz-Routern werden Firewall-Module eingebaut. Diese Module bieten die Möglichkeit, mandantenfähige Firewalls für die angeschlossenen Institute zur Verfügung zu stellen. Damit kann ein Institut einen eigenen Firewall-Kontext auf der Hardware des LRZ betreiben ohne andere Firewalls auf dem selben Modul zu beeinflussen. Das Institut kann damit auf eine lokale Firewall verzichten. Das LRZ übernimmt bei dem Dienst "Virtuelle Firewall" eine Grundkonfiguration, die vom Institut dann angepasst werden kann. Die Kosten für die Hardware und Lizenzen trägt das LRZ.

August 2007

Anschluss der Umwelt-Forschungsstation im Schneefernerhaus auf der Zugspitze: Der höchste Berg Deutschlands wird ans MWN angeschlossen.
Anschluss des Cluster or Excellence for Fundamental Physics ans MWN: Das Exzellenz-Cluster wird angebunden und mit Voice over IP durch das LRZ versorgt.

September 2007

Anschluss des Standortes Triesdorf: Die Gebäude der FH Weihenstephan-Triesdorf in Triesdorf wurden ans MWN angeschlossen.

Oktober 2007

Start des IT-Service Management (ITSM) Projektes zur Einführung eines prozessorientierten IT Service Managements mit dem Ziel einer Zertifizierung nach ISO/IEC 20000.
Außerbetriebnahme des letzten 3Com Switches
Vodafone Sponsoring der beiden Münchner Exzellenz-Universitäten mit UMTS-Geräten:
Im Rahmen der Exzellenz-Initiative sponsert Vodafone die LMU mit 1.500 und die TUM mit 1.000 UMTS-Geräten und entsprechenden SIM-Karten. Die dienstlichen Telefonate und ein monatliches Datenvolumen bis 5 GB sind kostenlos. Um die Geräte ins MWN einzubinden, setzt das LRZ in Zusammenarbeit mit Vodafone einen Corporate Data Access (CDA) auf. Damit erhalten alle Geräte private IP-Adressen aus dem MWN und werden über das MWN mit dem Internet verbunden.

November 2007

Weltweit erste Prüfung zur Personenzertifizierung nach ISO/IEC 20000 am LRZ
Im Rahmen einer vom LRZ selbst durchgeführten Schulung wurden die Grundlagen des IT-Service Managements an 19 Mitarbeiter vermittelt, die alle erfolgreich an einer Pilotprüfung teilnahmen.

1. Halbjahr 2008

Auswahl einer Netzmanagement-Plattform: Im Rahmen eines Auswahlverfahrens wurde auf Basis der Anforderungen im MWN ein Ersatz für die bestehende Netzmanagement-Plattform (HP Openview Network Node Manager) gesucht. Als für das MWN am Besten geeignete Produkt wurde IBM Tivoli Netcool ausgewählt und im Jahr 2009 beschafft.

Oktober 2008 bis Januar 2009

Durchführung einer Switch-Auswahl: Im Rahmen einer umfassenden Analyse verschiedener Switches von unterschiedlichen Herstellern wurden HP Procurve Switches als am Besten geeignet für die Anforderungen im MWN ausgewählt. Im Anschluss daran wurde eine Ausschreibung für einen Rahmenvertag durchgeführt.

März 2009

Start des Netzinvestitonsprogramms V (NIP V) der LMU: Der bayerische Landtag genehmigte das NIP V Programm der LMU im Umfang von 18,4 Mio. € zur Nachrüstung der Verkabelung in verschiedenen Gebäuden der LMU.

April 2009

Zur Erhöhung der Ausfallsicherheit wurde der Internet-Zugang zum X-WiN über zwei unabhängige Glasfasern realisiert. Selbst bei Ausfall einer Faser bleibt die Konnektivität ins Internet bestehen.
Aufbau eines DNS-Servers in Portugal: Zur Erhöhung der Ausfallsicherheit der Namens- und Adressauflösung (DNS) wurden die bestehenden drei Server durch einen weiteren Server ergänzt, der in Portugal aufgestellt wurde. Damit können Anfragen selbst dann noch beantwortet werden, wenn es Probleme im X-WiN geben sollte.
Im Rahmen einer Ausschreibung wurde ein Rahmenvertrag zur Beschaffung von Switches geschlossen.

Mai 2009

Zur Erhöhung der Ausfallsicherheit wurden der Campus Großhadern sowie das Maschinenwesen in Garching über redundante Lichtwellenleiter ans MWN angebunden.

September 2009

Produktivführung des Netzmanagementsystems IBM Tivoli Network Netcool und Außerbetriebnahme des HP Openview Network Node Managers

2. Halbjahr 2009

Aufbau und Produktivführung eines zentralen Security Information und Event Management (SIEM) auf Basis von AlienVaults OSSIM. Das SIEM dient als zentrales Integrations- und Alarmierungssystem für verschiedenste heterogene Sicherheitssensoren. Außerdem konnten damit die vollautomatischen Reaktionsmuster für "Standard-Sicherheitsvorfälle" ausgebaut und die manuelle Reaktion auf solche Vorfälle stark reduziert werden.

Dezember 2009 und Januar 2010

Erhöhung der Ausfallsicherheit im Rechenzentrumsnetz: Auf Basis zweier Chassis wurde ein virtueller Router (VSS: Virtual Switching System) aufgebaut. Damit bleibt die Routing-Funktionalität voll erhalten, selbst wenn ein Chassis komplett ausfällt. Im Nachgang dazu wurden zentrale Switches, wichtige Server sowie das Virtualisierungs-Cluster mehrfach an dieses virtuelle System angebunden. Mit Hilfe des Spanning Tree Protokolls konnte damit auch die Ausfallsicherheit kritischer Dienste erhöht werden.

März 2010

Abbau der letzten drei digitalen 64 kbit/s Stecken (Scheyern, Hirschau und Zurnhausen). Die damit versorgten Standorte wurden entweder per DSL angebunden oder aufgegeben.

September 2010

Inbetriebnahme von NeSSI: Im Rahmen eines Projektes wurde ein Self-Service-Portal für Netzverantwortliche entwickelt (NeSSI; Network Self-Service-Interface), mit dessen Hilfe der Zugang zu Werkzeugen für den Netzverantwortlichen realisiert wird.

Dezember 2010

Abschaltung des Bibliothekszugangs über DocWeb: Nachdem die Software DocWeb für den Zugang zu digitalen Zeitschriften, Bibliotheken und Datenbanken nicht mehr weiterentwickelt wird und es deshalb zu immer größeren Problemen bei der Nutzung kam, wurde in Zusammenarbeit mit den Bibliotheken der TUM und der LMU nach Ersatzlösungen gesucht und der Dienst DocWeb abgeschaltet.