Gigabit Testbed Süd

Gigabit Testbed Sued


Allgemeine Projekt-Koordination

Projektbeginn : 01.07.1998
Projektende : 30.06.2000

Folgende Institutionen sind am Gigabit Testbed Süd derzeit beteiligt:

  • Leibniz-Rechenzentrum München
  • Regionales Rechenzentrum Erlangen (RRZE)
  • Friedrich Alexander Universität Erlangen-Nürnberg (FAU)
  • Max-Planck Gesellschaft (München)
  • Technische Universität München (TUM)
  • Ludwig Maximilians Universität München (LMU)
  • Bayerische Akademie der Wissenschaften
  • Hochschule für Fernsehen und Film (HFF) (München)
  • Bayerischer Rundfunk (BR)
  • Institut für Rundfunktechnik (IRT) (München)

Ziele

Gesteigerter Bandbreitenbedarf und wachsende Dienstgüteanforderungen einzelner Anwendungen, die mit dem derzeit verfügbaren Breitband-Wissenschaftsnetz B-WiN nicht bedient werden künnen, sind ein ausschlaggebender Grund den Schritt in eine zukünftige Gigabit-Technik zu planen. Unter diesem Gesichtspunkt fördert der DFN-Verein dazu zwei Projekte, das Gigabit Testbed West und auch das Gigabit Testbed Süd, mit dem Ziel, die nächste Stufe der Hochgeschwindigkeitskommunikation in Deutschland durch den Einsatz fortschrittlicher Netztechnologien und durch zukunftsweisende, innovative Anwendungen vorzubereiten. Es soll damit helfen, den Wissenschaftsstandort Deutschland zu sichern.

Im Rahmen des Gigabit Testbeds Süd werden zwischen den Städten München - Erlangen (eine Erweiterung nach Berlin ist für Ende 1998 vorgesehen) innovative und zukunftsweisende Kommunikationsanwendungen realisiert. Diese Standorte zeichnen sich dadurch aus, daß sowohl die notwendige Infrastruktur im Höchstleistungs-Rechnerbereich, tiefgreifendes Know-How auf dem Bereich der Kommunikationsnetze (Mitarbeit an vielen DFN-Technologie-Projekten) und auch wissenschaftliches Potential zur Entwicklung entsprechender Anwendungsprojekte vorhanden ist.

Mit diesem Vorhaben

  • soll hierbei sowohl der Einstieg in die nächste Geschwindigkeitsstufe im WiN (Wissenschaftsnetz) vorbereitet und der Einsatz dafür geeigneter und notwendiger Technologien evaluiert werden (622 Mbit/s, 2,488 Gbit/s, Wave-Divison-Multiplexer (WDM), Richtfunksysteme hoher Bandbreite),
  • wie auch Know-How über den Stand der Technik und geeigneter Anwendungen gesammelt werden.

Dazu sind neben technologischen Untersuchungen auch Anwendungsprojekte vorgesehen.

Die technologischen Untersuchungen sollen dazu dienen

  • geeignete Komponenten zu finden,
  • ihre Einsetzbarkeit im lokalen und im regionalen Umfeld zu testen,
  • und Konnektivität, Performance, Stabilität und auch Interoperabilität zu überprüfen.


Im Rahmen der Anwendungs-Projekte sind Anwendungen vorgesehen,

  • die per se extreme Bandbreitenanforderungen und Dienstgüteanforderungen haben, die unter Produktionsbedingungen auf der derzeit verfügbaren Infrastruktur nicht ablauffähig sind (wie z.B. Bewegtbild, hohe Auflösung),
  • die bei intensiver Nutzung (via Skalierung) überproportionale Bandbreite erfordern (Verteil-Mechanismen, bevorzugt im Bereich Ausbildung),
  • die auf Grund von Bündelung klassischer Anwendungen (fortgeführte Regionale Testbeds, neue DFN-Breitbandanwendungen) auf Dauer mit der jetzt verfügbaren Bandbreite nicht auskommen.

Den meisten Projekten ist gemein, daß sie, dem Ziel gemäß, an der Grenze des heute Machbaren liegen. Dementsprechend hoch sind die (technischen) Risiken, die eingegangen werden.

Technik

Die Telekom hat für das Gigabit Testbed Süd die notwendige Infrastruktur zur Verfügung gestellt. Zur Verbindung der Standorte München und Erlangen wird hier innovative Technik in Form von optischen Wellenlängenmultiplexern (WDM-Systeme, Wave-Division-Multiplexer) eingesetzt. Benutzt werden Systeme vom Typ T31 der Firma Pirelli, von möglichen 8 Kanälen à 2,5 Gbit/s stehen derzeit 3 Kanäle zur transparenten Nutzung innerhalb des Gigabit-Testbed Süd zur Verfügung. Die WDM-Technik allgemein wird mittlerweile verstärkt im Carrier-Bereich (WAN-Umfeld) eingesetzt, findet aber immer mehr Anwendung in Stadtnetzen und auch zunehmend im lokalen Bereich.

Die einzelnen Kanäle können transparent und unabhängig voneinander beschaltet werden. Derzeit sind zwei Kanäle mit ATM-Komponenten belegt, als Abschlußeinheiten dienen ein Ascend GX-550 (mit einem 2,488 Gbit/s OC48-Interface auf der Verbindungsstrecke) und ein Fore ASX-1000 (mit einem 622 Mbit/s OC12-Interface auf der Verbindungsstrecke). Der verbleibende dritten Kanal wird neben allgemeinen Technologieuntersuchungen auch für eine transparente Verbindung der Höchstleistungsrechner in München (LRZ, MPG) und Erlangen auf der Basis von HiPPI (800 Mbit/s) genutzt werden.

An den einzelnen Standorten ist entsprechendes Know-How über die eingesetzten Technologien anzusammeln, da dies im lokalen und regionalen Versorgungsbereich ebenfalls benötigt wird. Arbeitsschwerpunkte bei den Netztechnologien werden sein:

  • High-Speed-ATM-Schnittstellen (622 Mbit/s, 2.488 Gbit/s,...),
  • Interoperabilitätsproblematiken bei Switch-Kopplungen im privaten Bereich,
  • Serial HiPPI-Kopplung (800 Mbit/s, ..) über lange Stecken,
  • Wellenlängen-Multiplex Einsatz im lokalen Bereich,
  • Richtfunkübertragungstrecken hoher Bandbreite (622 Mbit/s),
  • Durchsatzmessungen, Troubleshooting, Qualitätsüberwachung,
  • Untersuchungen über Management-Interfaces und Betriebsprobleme der eingesetzten Komponenten (SNMP, RMON,...)

Anwendungsprojekte im Überblick

Die geplanten Anwendungsprojekte lassen sich in folgende Klassen aufteilen, sie sind aus folgenden Bereichen :

  • Meta-Computing-Anwendungen
  • Medizinische Anwendungen
  • VoD (Video on Demand), Video-Server, MM-Anwendungen


Meta-Computing-Anwendungen

Mit den jüngst erfolgten Installationen hoher Rechenkapazitäten an den derzeitigen deutschen Hochleistungsrechenzentren

  • Forschungszentrum Jülich,
  • Höchstleistungsrechenzentrum Stuttgart,
  • Rechenzentrum Garching der Max-Planck Gesellschaft,
  • Leibniz-Rechenzentrum München,
  • Konrad-Zuse-Institut Berlin

wird die Chance geboten, in neue Dimensionen der wissenschaftlichen Forschung und Entwicklung vorzustoßen.

Die hohen Rechenkapazitäten sind zwangsläufig an wenigen Hochleistungsrechenzentren konzentriert. Die Anwender hingegen arbeiten in der Regel an Forschungseinrichtungen, die über ganz Deutschland verteilt sind.

Nur ein Teil der rechenintensiven Projekte kommt mit geringen Datenmengen aus. Der Großteil der rechenintensiven Projekte ist mit einem großen Datenaufkommen verbunden und kann mit den heutigen Netzwerktechnologien im WAN-Bereich nicht angemessen, sondern nur im lokalen Umfeld realisiert werden.

Um aber bei solchen Großprojekten die Kontrolle, Sichtung, Reduktion, Aus- und Bewertung sowie Archivierung dieser Datenmengen adäquat durchführen zu können, ist es zum Teil unerläßlich, die an Forschungseinrichtungen vorhandene und auf modernem Stand gehaltene Experimentier-, Datenauswertungs- und Visualisierungs-Infrastruktur über ein äußerst leistungsfähigeres Netzwerk an die entsprechende Hochleistungsrechenkapazität anzubinden.

Ein Teil der Projekte bezieht sich auf den Themenkomplex Meta-Computing und Visualisierung mit wegweisendem Charakter für die angestrebte Zielsetzung der entfernten graphischen Kontrolle von Simulationsrechnungen und Experimentdatenauswertung auf Hochleistungsrechnern, unter Einsatz effizienter Grafik-Hard- und Software durch die entsprechenden Wissenschaftler an ihrem Arbeitsplatz.

Die Projekte beinhalten Visualisierung und Kontrolle von

  • 3D-Bildrekonstruktionen aufgrund makromolekularer Elektronentomographie
  • Moleküldynamik-Simulationsrechnungen
  • zeitabhängigen Strömungssimulationen
  • Extraktionen von Iso-Flächen

Neben der leistungsstarken Anbindung von Visualisierungs-Infrastruktur an Hochleistungsrechenzentren wird auch eine schnelle Netzverbindung zwischen den jeweiligen Hochleistungsrechnerstandorten eminent wichtig.

Zum einen führen zeitversetzte Investitionszyklen zu regionalen Kapazitätsvariationen, die über schnelle Netzwerke äquilibriert werden können. Zum andern wird es immer eine Notwendigkeit bleiben, für herausragende Grand-Challenge-Projekte Zugriff auf die jeweils größtmöglich verfügbare Rechenleistung und Hauptspeicherausstattung zu unterstützen. Deshalb wird es wichtig, die Kopplung der jeweils leistungsfähigsten Rechner über ein extrem schnelles Netzwerk technologisch zu etablieren.

Zur Implementierung und Erprobung solcher Meta-Computing Szenarien ist der Einsatz der vereinten Rechenkapazitäten von Hochleistungsrechnern für einzelne reale Anwendungen vorgesehen. Im einzelnen sind dies:

  • eine homogene Kopplung von Fujitsu-VPP-Vektor-Parallelsystemen in München und Erlangen,
  • die Kopplung des Cray T3E/512-Systems in Garching mit den Fujitsu-VPP-Systemen am LRZ und in Erlangen (heterogenes Meta-Computing).

Medizinische Anwendungen

Den medizinischen Einrichtungen, die an Universitäten und Hochschulen angesiedelt sind, kommt eine gewisse Vorreiterrolle zu. Einerseits sind die dort verlegten (lokalen) Kommunikationsnetze mindestens vom gleichen Standard wie in anderen naturwissenschaftlichen Bereichen, andererseits sind wissenschaftliche Einrichtungen, die mit technischem Know-How zur Seite stehen können, quasi 'vor der Haustür'.

Daher haben sich aus dem medizinisch-technischen Bereich heraus, unterstützt von wissenschaftlichem Potential, Anforderungen für breitbandige und z.T. echtzeitfähige Datenkommunikation ergeben. Die dahinterliegenden Anwendungen sind bilddatenorientiert, haben online-Charakter und dienen dem Mediziner zur Unterstützung seiner Arbeit. Im einzelnen handelt es sich um

  • Visualisierung in der Kieferchirurgie
  • Nutzung geeigneter Übertragungs- und Codierverfahren von hochaufgelösten Videosignalen zur Qualitätssicherung in der Tumorchirurgie
  • Übertragung und Test von Aufzeichnungsverfahren für Videodatenströme über Hochgeschwindigkeitsnetze (Anwendungsfall: Teleendoskopie)

Visualisierung und Bewegtbildübertragung stellen derzeit, wie im Rundfunkbereich, sehr hohe Anforderungen an die Datenkommunikations-Infrastruktur und waren Nutzern des B-WiN in der geforderten Güte bisher versperrt.

Die Notwendigkeit, im Rahmen dieser Projekte WAN-Netze nutzen zu m&uumL;ssen, entstammt dem Problem, daß entweder

  • ein wesentlicher Rechner,
  • ein benötigter Spezialist oder
  • das Auditorium/der Kongreß

sich an anderer Stelle befindet und in die Aufgabe mit einbezogen werden muß.

Verteilte Video-Produktions und Video-on-Demand Dienste in Forschung und Lehre

Die Übertragung von synchronen Datenströmen (Audio- und Video-Daten) hoher Qualität in Echtzeit stellt höchste Anforderungen an die zugrunde liegende Kommunikationsinfrastruktur. Nach den ersten Erfahrungen auf diesem Gebiet, die im Rahmen einer regelmäßigen Übertragung von Lehrveranstaltungen (Informatik-Kolloquium) zwischen München und Erlangen gewonnen wurden, wurde klar, daß Dienste mit diesen hohen Anforderungen (Bandbreite, Quality of Service, u.ä.) nur in Ausnahmefällen über das bestehende B-WiN übertragen werden können.

Es handelt sich um ein Projekt zur

  • Einrichtung von VoD-Services über Distributed Video Production und optimierte Techniken zum Archivieren und Recherchieren von Multimedia-Datenströmen.

So ist geplant, im Rahmen von Lehrveranstaltungen das gewonnene Bild- und Ton-Material professionell nachzubearbeiten (unter Mithilfe des Instituts für Rundfunktechnik und des Bayerischen Rundfunks) und für einen späteren Abruf auf entsprechenden Video-Servern abzulegen. Bei diesem Projekt ist der Synergie-Effekt äußerst groß, da zum einen Spezialisten aus dem Medienbereich (BR und IRT) beteiligt sind, deren Hauptaufgabe tagtäglich darin besteht, professionelle Informationssendungen zu produzieren, zum anderen dem ein gro&szliges Potential an Know-How im Bereich der Netz- und Rechnertechnik gegenübersteht. Diese Thematik ist von allgemeinen Interesse, da vergleichbare Techniken auch an anderen Universitäten, aber auch bei Sendeanstalten Anwendung finden könnten. Je nach Art, Güte und Anzahl der gleichzeitig zu übertragenden synchronen Datenströme treten hierbei konstante Datenraten von teilweise mehr als 200 Mbit/s auf.

Anwendungsprojekte im Detail

  • Einrichten von Verteilten Video-Produktions- und Video-on-Demand-Teilnehmer-Diensten
    Projektkoordination :
    Dr. P. Holleczek ( holleczek@rrze.uni-erlangen.de)

  • CAFCAS - Nutzung breitbandiger Kommunikationsinfrastrukturen zur iterativen Qualitätskontrolle und -verbesserung am Beispiel der Planung und Simulation komplexer Operationen im Mund-Kiefer-Gesichtsbereich
    Projektkoordination :
    Dr. Dr. H.-F. Zeilhofer ( zeilhofer@mkg.med.tu-muenchen.de)
    Dr. Dr. R. Sader ( sader@mkg.med.tu-muenchen.de)
  • High-Performance Computing and Networking in der makromolekularen Elektronenmikroskopie
    Projektkoordination :
    Dr. H. Lederer ( hel@ipp.mpg.de)
  • Visual Supercomputing : Tele-Immersion - Kollision Schwarzer Löcher
    Projektkoordination :
    Dr. H. Lederer ( hel@ipp.mpg.de)
  • Polyatomare Systeme: Visuell gesteuerte Simulation und Analyse komplexer Oberflächenreaktionen
    Projektkoordination :
    Dr. H. Lederer ( hel@ipp.mpg.de)
  • Nutzung geeigneter Übertragungs- und Codierverfahren von hochaufgelösten Videosignalen zur Qalitätssicherung in der Tumorchirurgie
    Projektkoordination :
    Dr. P. Holleczek ( holleczek@rrze.uni-erlangen.de)
    Dr. B. Wentz
  • Übertragung und Test von Aufzeichnungsverfahren für Videodatenströme über Hochgeschwindigkeitsnetze am Bespiel aus der Teleendoskopie
    Projektkoordination :
    Dr. P. Holleczek ( holleczek@rrze.uni-erlangen.de)