LRZ-Mitteilungen Februar 1999

Diese Mitteilungen sind im Benutzerarbeitsraum und in der Anmeldung im LRZ-Gebäude sowie an den Außenstationen des LRZ erhältlich und über

http://www.lrz-muenchen.de/services/schriften/rundschreiben/

abrufbar. Sie werden auch an alle Lehrstühle der Münchner Hochschulen sowie an alle anderen bayerischen Hochschulen versandt. Übersichten über die Netzbenutzung am LRZ sind über

http://www.lrz-muenchen.de/services/netz/statistik/

erhältlich.


Einige wichtige Telefonnummern:

LRZ-Hotline: für alle Fragen (089) 289-28800
LRZ-Anmeldung (Benutzersekretariat) (089) 289-28784 und (089) 289-28886
  Telefax: (089) 289-28761

Herausgeber:

Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
Telefon: (089) 289-28784
Telefax: (089) 280 94 60
Email: lrzpost@lrz.de

Anschrift:

der Bayerischen Akademie der Wissenschaften
Barer Straße 21
D-80333 München

Redaktion:

Dr. Michael Wiseman
Wolfgang Beyer
Dr. Helmut Richter


Anmerkung der Redaktion:

Die neue deutsche Rechtschreibung wird ab Anfang 2000 in allen Artikeln der LRZ-Mitteilungen verwendet werden. Bis zu diesem Zeitpunkt werden – wie in dieser Ausgabe – je nach Geschmack der einzelnen Autoren sowohl die alte als auch die neue Variante verwendet.

Leitartikel

Wissenschaftsrat empfiehlt Einrichtung eines weiteren
Höchstleistungsrechenzentrums

Der Wissenschaftsrat hat den Antrag des Freistaats Bayern genehmigt, einen weiteren Höchstleistungsrechner für die Bundesrepublik Deutschland am Leibniz-Rechenzentrum zu installieren. Das LRZ begrüßt diesen Beschluß und sieht darin eine Anerkennung seiner Aktivitäten auf dem Gebiet des Höchstleistungsrechnens. Die zur Realisierung notwendigen Maßnahmen werden mit Hochdruck vorangetrieben. Die offizielle Pressemitteilung des Wissenschaftsrates vom 22. Januar 1999 veröffentlichen wir hier im Wortlaut:

Der Wissenschaftsrat hatte Mitte der neunziger Jahre erstmals die Einrichtung eines Höchstleistungsrechenzentrums, damals an der Universität Stuttgart, empfohlen. Aufgrund von Anträgen des Freistaats Bayern und eines Norddeutschen Verbundes von sechs Ländern hat er sich jetzt mit dem Aufbau eines weiteren Höchstleistungsrechenzentrums befaßt. Am Norddeutschen Verbund sind die Länder Berlin, Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen, Schleswig-Holstein unter Federführung des Landes Berlin beteiligt.

Die wachsende Zahl komplexer Fragestellungen – sogenannter Grand-Challenge-Vorhaben – etwa im Bereich der Klimaforschung und der Materialphysik einerseits und der in Deutschland im internationalen Vergleich zu beobachtende Rückstand auf dem Gebiet des wissenschaftlichen Höchstleistungsrechnens andererseits, erfordern den zügigen Aufbau eines weiteren Zentrums spätestens im Jahr 2000. Geeignete fachliche und technische Voraussetzungen sowie überzeugende Zielvorstellungen zur Einrichtung eines Höchstleistungsrechenzentrums haben den Wissenschaftsrat veranlaßt, dem bayerischen Antrag zuzustimmen. Die vom Freistaat Bayern beabsichtigte Installation einer moderat-parallelen Vektorrechneranlage am Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften in München stellt gegenwärtig und für die nächsten zwei bis drei Jahre die zur Bearbeitung von Grand-Challenge-Vorhaben überzeugendste Lösung dar. Der geplante Vektorrechner, der im Vergleich zu bereits vorhandenen Anlagen in Deutschland eine Kapazitätssteigerung von mindestens einer Zehnerpotenz darstellen wird, soll aufgrund der derzeit günstigen Marktsituation innerhalb eines Jahres installiert werden. Dies bietet die Chance, Spitzenrechenleistungen und den erforderlichen Qualitäts- und Leistungssprung auf dem Gebiet des Höchstleistungsrechnens in Deutschland zu erreichen und damit den Rückstand gegenüber den USA und Japan zu verringern. Die in der bayerischen Wissenschaftslandschaft – und hier insbesondere die am Leibniz-Rechenzentrum – vorhandene fachliche und technische Kompetenz sowie die bereits bestehenden Kontakte zur Industrie und zu außeruniversitären Forschungseinrichtungen stellen eine hervorragende Plattform für ein Höchstleistungsrechenzentrum dar.

Auch wenn der Wissenschaftsrat den in der Hochschulbauförderung bisher einmaligen wissenschaftlichen, wissenschaftspolitischen und finanzpolitischen Konsensbildungsprozeß der beteiligten Länder des Norddeutschen Verbunds würdigt, ist für ihn das Konzept des Norddeutschen Verbundes, das eine Aufteilung der Rechnerkapazitäten und der Investitionssumme (insgesamt 70 Mio. DM) auf zwei Standorte, Berlin und Hannover, vorsieht, noch nicht ausgereift. Der Norddeutsche Verbund wird gebeten, innerhalb eines Jahres ein überarbeitetes Konzept für ein Höchstleistungsrechenzentrum vorzulegen. Dabei ist die Rechenkapazität des Höchstleistungsrechners am Klimarechenzentrum Hamburg zu berücksichtigen.

Darüber hinaus hat der Wissenschaftsrat eine Arbeitsgruppe eingesetzt, die das ursprüngliche Konzept zum Aufbau nationaler Höchstleistungsrechenzentren überprüfen soll. Deren Aufgabe besteht darin, ein neues Konzept zu entwickeln, das den Aspekten der Netzanbindung und Software ebenso Rechnung trägt wie einer optimalen Nutzung der vorhandenen bzw. neu aufzubauenden Höchstleistungsrechner. In dieses Konzept sollen neben den universitären auch die außeruniversitären Höchstleistungsrechner einbezogen werden.

Termine, Veranstaltungen, Allgemeines

Weitere Informationen zu folgenden Terminen finden Sie in den Beiträgen der vorliegenden bzw. der angegebenen Mitteilungen.

Das Kursangebot für das Sommersemester finden Sie in diesen LRZ-Mitteilungen; außerdem ist es online abrufbar unter

http://www.lrz-muenchen.de/services/schulung/kurse_ss1999/

Hochleistungsrechnergespräch

Beim halbjährlichen Hochleistungsrechnergespräch des LRZ werden Fragen in Zusammenhang mit dem Betrieb der Hochleistungsrechner am LRZ (IBM SP2, Fujitsu VPP, CRAY T90) diskutiert. Alle jetzigen oder zukünftigen Nutzer der Hochleistungsrechner sind zu diesem Gespräch eingeladen.

Agenda:

  • LRZ als Standort eines Bundeshöchstleistungsrechners
  • MPI-2 an der VPP
  • geplanter MPI-2 Kurs
  • SALTT Performance Analyse Tool an der VPP
  • Nutzung der IBMBEN bei der interaktiven Entwicklung von parallelen Programmen
  • Planungen des LRZ zur Visualisierung und Datenauswertung am LRZ
  • Gaussian98 auf dem Linux-PC
  • Job-Management: Wünsche, Probleme?
  • Diskussion, Wünsche, Anregungen, ...
  • Ort: Barer Straße 21, LRZ-Seminarraum 2. OG S2534

    Termin: Donnerstag 25. Februar 1999

    Zeit: 9.00 Uhr bis ca. 11.00 Uhr

Matthias Brehm
E-Mail: Brehm@lrz.de

Am LRZ abzugebende Geräte

Am LRZ werden die unten aufgeführten Geräte nicht mehr eingesetzt bzw. nicht mehr benötigt. Die Geräte werden an Interessenten aus dem Hochschulbereich oder aus anderen Behörden kostenlos abgegeben.

Senden Sie bitte bei Interesse eine Nachricht an die E-Mail-Adresse:

podo@lrz-muenchen.de,

wegen der Schreibmaschine setzen Sie sich bitte mit Frau Kilian, Tel. 289-28712, in Verbindung. Wir werden dann mit Ihnen Kontakt aufnehmen.

Anzahl

Geräte

Jahr der Beschaffung

Erhaltungszustand/
Bemerkungen

1

IBM-Schreibmaschine

1964

reparaturbedürftig

1

HP7576A Stiftplotter DIN A0 (DraftPro/EXL) mit Zubehör

1991

leicht reparaturbedürftig

Anzahl

Möbel

Jahr der Beschaffung

Erhaltungszustand/
Bemerkungen

mehrere

Aktenböcke offen (78x43cm)

ca. 1974

z.T. reparaturbedürftig

mehrere

Aktenschränke (120x43cm)

ca. 1974

z.T. reparaturbedürftig

mehrere

Schreibtische (156x78x78cm)

1970-1975

z.T. reparaturbedürftig, ohne Schlüssel

1

Schrank (120x45x180cm)

1975

repariert, mit Schlüssel

1

Drehregistratur für Ordner,
3-etagig

1989

gut

mehrere

Schwenkarme für Schreibvorlagen, Telefon, PC

ca. 1990

z.T. leicht geneigt

mehrere

Schreibtischlampen, Wandleuchten, z.T. mit Teleskoparm

1965-1985

einsatzfähig

H. Breinlinger
E-Mail: Breinlinger@lrz.de

Kurse des Leibniz-Rechenzentrums im Sommersemester 1999

LRZ-Kurskalender April bis Juli 1999

Stellenangebot

Stellenangebot der Abteilung Kommunikationsnetze

Für die Abteilung

Kommunikationsnetze

wird für den Betrieb und weiteren Ausbau des Münchner Hochschulnetzes zum nächstmöglichen Zeitpunkt

ein Mitarbeiter
in der Gruppe Netzwartung

gesucht.

Das Aufgabengebiet umfaßt die Betreuung der aktiven und passiven Komponenten des Kommunikationsnetzes sowie die daran angeschlossenen Endgeräte (z.B. PCs). Dies beinhaltet u.a. die Installation der Komponenten und Geräte sowie Fehlersuche und Fehlerbehebung im Kommunikationsnetz.

Bewerber sollten vorzugsweise eine Ausbildung zum Kommunikationselektroniker nachweisen können. Grundkenntnisse auf dem Gebiet der Datenkommunikation und von Betriebssystemen für PCs werden erwartet.

Die Anstellung erfolgt nach BAT.

Schwerbehinderte werden bei gleicher Eignung bevorzugt.

Interessenten wenden sich bitte zu einer ersten Kontaktaufnahme oder für nähere Auskünfte an:

Herrn H. Glose
Tel.: (089) 289-28705
E-Mail: Glose@lrz.de

oder

Herrn A. Läpple
Tel.: (089) 289-28706
E-Mail: Laepple@lrz.de

Schriftliche Bewerbungen sind zu richten an das:

Leibniz-Rechenzentrum
z.H. Frau Wex
Barer Str. 21
80333 München

Landes-, Campus- und Sammellizenzen

Neu: (La)TeX-CD des LRZ

Seit kurzem ist am LRZ eine (La)TeX-CD erhältlich, die zwei TeX-Implementierungen für PCs enthält, und zwar das kommerzielle Produkt PCTeX for Windows (für Windows 3.1x, 95, 98 und NT 4.0) sowie die Public-Domain-Software emTeX (für MS-DOS und OS/2). Diese CD löst damit den bisher angebotenen PCTeX-Diskettensatz ab.

Was enthält die CD?

Was PCTeX for Windows angeht, so enthält die CD als Basis die derzeit vom Hersteller ausgelieferte Version 3.4. Da diese Version aber einige Mängel aufweist (z.B. veraltete LaTeX-Version, fehlende Unterstützung für deutschsprachige Dokumente), haben wir zusätzlich einige ZIP-Archive zusammengestellt und auf die CD gepackt, durch die sich die Originalversion relativ leicht aktualisieren bzw. ergänzen läßt.

Zu den Ergänzungen gehört u.a. DviPS, ein PostScript-Druckertreiber, mit dem man TeX-Ausgabedateien (DVI-Dateien) nach PostScript konvertieren kann. Dies kann man zwar auch innerhalb von PCTeX tun (unter Verwendung eines Windows-PostScript-Druckertreibers), doch hat DviPS einige Vorteile: DviPS ist schneller, erzeugt besseres PostScript und bietet eine größere Funktionalität bei der Einbindung von Grafiken. Daher empfiehlt sich die Installation von DviPS, falls Sie aus (La)TeX-Dateien PostScript-Dateien erzeugen wollen.

Bei emTeX wurde die derzeitige Originaldistribution unverändert auf die CD übernommen (ebenfalls inklusive DviPS).

Wer kann die CD bekommen und wo kann man sie bekommen?

Die CD können alle erhalten, für die die LRZ-Campuslizenz für PCTeX gilt, d.h. alle Einrichtungen, Mitarbeiter und Studenten der

Bayerischen Akademie der Wissenschaften
Ludwig-Maximilians-Universität München
Technischen Universität München
Fachhochschule München

Wenn Sie zu diesem Benutzerkreis gehören, können Sie die CD zum Preis von 10 DM im LRZ-Benutzersekretariat bekommen (gegen Vorlage eines Dienst- bzw. Studentenausweises sowie eines gültigen Lichtbildausweises).

Ado Haarer
E-Mail: Haarer@lrz.de

Kommunikation, Netzwerke

Zustand der Wählzugänge am LRZ

Dieser Artikel beschreibt den Status der Wählzugänge am MHN und die zukünftigen Planungen des LRZ. Die jetzt in den Abendstunden häufig belegten 630 Wählanschlüsse sollen im März 1999 um 150 Anschlüsse und einen Wählserver erweitert werden. Bei Bedarf wird das LRZ auch Wählanschlüsse anderer Provider zur Verfügung stellen. Kostenpflichtige "Premium"-Wählanschlüsse und Institutswählanschlüsse lehnt das LRZ ab.

Status der Wählanschlüsse:

In den letzten Jahren ergab sich eine beachtliche Steigerung in Bezug auf Nutzung von Wählanschlüssen. Dies kann folgende Tabelle verdeutlichen:

Stand
Ende
Dezember

Anzahl
der Verbindungen
pro Monat

Anzahl
aktiver Benutzer

Anzahl
Wählanschlüsse
München

Anzahl
Wählanschlüsse
Weihenstephan

1995

59.000

4.000

41

3

1996

157.000

7.000

209

32

1997

400.000

11.500

330

32

1998

700.000

19.000

510

30

Zur Zeit ergibt sich folgender Status der Wählzugänge (Januar 1999) am MHN:

Nummer

Typ des

Wählzugangs-Servers

Kanäle

maximal

insgesamt

davon

maximal

ISDN

davon

maximal

analog

Protokolle

 

089/28999005

01801/289000

Ascend MaxTNT

330

192

240

V.90, HDLC, X.75

 

089/2881010

Ascend

Max 4000

150

150

112

V.90, HDLC, X.75

089/28927777

Ascend

Max 4000

30

30

30

V.90, HDLC, X.75

089/2881190

(Expreßnummer, 19 Minuten maximale Verbindungsdauer)

Ascend

Max 4000

90

90

90

V.34+, HDLC, X.75

08161/48700

Freising/
Weihenstephan

Ascend

Max Classic

30

30

16

V.34+, HDLC, X.75

Insgesamt sind also 630 gleichzeitige Verbindungen möglich.

Die Nummer 01801/289000 kann in Telefonnetzen mit der Vorwahl 08... (ein großer Bereich südlich der Donau) genutzt werden. Hierdurch sind Verbindungen zum Ortstarif der Telekom möglich. Diese Nummer kann weder im Ortsnetz von München (Vorwahl 089) noch im angrenzenden Nahbereich genutzt werden. Es handelt sich dabei um die Ortsnetzbereiche 089, 08131, 08141, 08105, 08133, 0811, 08102, 08178, 08121, 08123, 08165, 08142, 08104, 08151, 08170, 08106, 08153.

Mit Abschluß des Vertrages uni@home – siehe hierzu LRZ-Mitteilungen im April 1998

http://www.lrz-muenchen.de/services/schriften/rundscreiben/1998-04

– hat sich die Telekom verpflichtet, Wählserver-Equipment in ausreichender Anzahl (mit geringer "Belegtwahrscheinlichkeit") zur Verfügung zu stellen. Inzwischen haben eine Vielzahl von Hochschulen in Deutschland dieses Angebot der Telekom angenommen.

Aufgrund dieses Vertrages werden am LRZ zur Zeit die Grundgebühren der 21 S2M-Telefonanschlüsse von der Telekom bezahlt, der Wählzugangs-Server Ascend MaxTNT gestellt und die 01801-Nummer betrieben. Trotz der hohen Anzahl der verfügbaren Anschlüsse ist in den Abendstunden zwischen 21 und ca. 24 Uhr (günstiger Ortstarif der Telekom) eine vollständige Auslastung zu beobachten. Auch die am 12.1.1999 durchgeführte Erhöhung um 90 Anschlüsse kann den Bedarf am Abend offenbar nicht abdecken. Zu anderen Zeiten steht genügend freie Kapazität zur Verfügung. Dies zeigt auch die aktuelle Auslastung der Wählanschlüsse, die im WWW-Server der LRZ unter

http://www.lrz-muenchen.de/services/netz/netzzustan

zu finden ist. Die Monatsstatistik ist unter

http://www.lrz-muenchen.de/services/netz/statistik/

abgelegt. Es soll auch nicht verschwiegen werden, daß beim Betrieb der Wählserver immer wieder Fehler auftreten, die einerseits in der hohen Auslastung, andererseits auch im Einsatz neuester Software (Verfügungstellung neuer Protokolle) zu suchen sind. Das LRZ bemüht sich in Zusammenarbeit mit dem Hersteller, die Fehler rasch zu beheben. Dennoch können Fehler immer wieder auftreten. Besonders ärgerlich sind solche Fehler, bei denen keine Verbindung zustande kommt, jedoch bereits eine Gebühreneinheit berechnet wird. Es wird daher vor einer Konfiguration gewarnt, die eine automatische Einwahl nach Fehlern bewirken soll.

So schlecht kann jedoch unser Service nicht sein, wie ein Leserbrief an die c't 21/98 (Seite 8) beweist:

Schneller als gut

(Verbindung mit Tücken, Probleme mit V.90-Modems, c't 20/98)

Ich besitze seit kurzem ein 56k-Modem. Ich kann die Erfahrungen des Autors bezüglich der Verbindungsgeschwindigkeit nicht teilen, 49333 Bit/s seien schon 'sehr gut'. Ich bekomme so gut wie immer eine Verbindung mit 52000 Bit/s zustande.

Sicher - das ist immer noch nicht das, was die Packungsaufschrift des Modems verspricht, aber doch rund 3 kBit/s schneller als der angegebene Wert. Zudem verwende ich eine recht lange Telefon-Strippe zwischen meinem Rechner und der Telefonbuchse. Liegt es vielleicht an meinem 'Provider', dem Leibniz-Rechenzentrum in München, das mir als Student den Dial-In-Zugang gewährt, oder zeigt Win95 die Connect-Rate falsch an?

Vielleicht verwenden kommerzielle Provider doch nicht immer die beste bzw. schnellste Technik?

Jens Vierschilling

Die erste Bedingung für hohe Connect-Raten ist eine sehr gute Leitung, und die haben Sie anscheinend. Tatsächlich kommen Verbindungen mit mehr als 49333 Bit/s in der Praxis nur selten vor.

Weitere Pläne:

Weiterer Ausbau

Da ein weiterer Ausbau des Wählzugangs-Servers Ascend MaxTNT technisch nicht möglich ist, ist von der Telekom ein weiterer Server dieses Typs bestellt worden, der etwa im März 1999 mit 150 weiteren Anschlüssen installiert werden soll. Dann kann auch die hohe Belastung des ersten Wählservers dieses Typs verringert werden, was hoffentlich auch die Fehleranfälligkeit eindämmt.

Günstigere Gebühren für Ortsgespräche mit anderen Providern?

Nachdem sich im Jahr 1998 die Kosten für Fernverbindungen wesentlich verringert haben, wird für das Jahr 1999 dies für Ortsgespräche erwartet. Das LRZ wird die Entwicklung in diesem Bereich aufmerksam verfolgen und bei einer kostengünstigeren Lösung für seine Nutzer entsprechend reagieren. Dann sind auch Wählanschlüsse, die direkt über einen anderen Provider erreicht werden können, denkbar. Eine solche Lösung muß jedoch einer Vielzahl von Benutzern zugute kommen. Das LRZ hat keinen Exklusiv-Vertrag mit der Telekom bezüglich der Wählanschlüsse abgeschlossen. Man kann die Wählanschlüsse ja auch über fremde Provider erreichen. Wie sich der Markt jedoch entwickeln wird, ist schlecht vorhersehbar. Hier nur einige Streiflichter aus diesem Bereich:

  • ADSL (feste Gebühr mit hoher Geschwindigkeit),
  • kostenlose Ortsgespräche mit Werbeunterbrechungen (eine Datenverbindung wird dabei unterbrochen),
  • kostenlose Ortsgespräche bei alleiniger Anbindung an einen Provider und zwischen diesen Anschlüssen des Providers,
  • hohe Belegtwahrscheinlichkeit bei "billigen" Providern,

Es ist noch viel zu klären. Sicher wird aber sein, daß dann auch die Telekom ihre Kosten für Ortgespräche anpassen wird.

Auch mit der Telekom wurden Gespräche über eine andere Tarifierung am Wählzugang des LRZ ("flat-Rate") geführt. Hier sind aber die örtlichen Ansprechpartner von den bundesweiten Vorgaben der Telekom abhängig. Zudem muß die Telekom zusätzlich ihre Tarife durch die Regulierungsbehörde genehmigen lassen.

Exklusive Wählanschlüsse?

Vereinzelt wurde der Wunsch geäußert, Wählanschlüsse für eine bevorzugte Benutzergruppe einzurichten, bei denen eine Erreichbarkeit garantiert wird, die jedoch dann (eventuell) kostenpflichtig sind. Das LRZ ist der Meinung, daß für alle seine Nutzer der gleiche Service zu leisten ist. Es wird verstärkt auf die Telekom einwirken, ihren vertraglichen Verpflichtungen nachzukommen und genügend Anschlüsse zur Verfügung zu stellen. Wählanschlüsse in ausreichender Anzahl stehen jetzt schon jederzeit außerhalb der Zeit von 21 bis 24 Uhr zur Verfügung, nur sind dann die Kosten für eine Verbindung entsprechend höher. Die Kosten zwischen 18 und 21 Uhr werktags sind DM 2,88 pro Stunde anstelle DM 1,80 pro Stunde von 21 Uhr bis 5 Uhr morgens. Eine geringere Besetztwahrscheinlichkeit dürfte auch die Expressnummer 2881190 haben, bei der die Dauer der 90 Verbindungen auf 19 Minuten beschränkt ist.

Wählanschlüsse in Instituten?

Ein Ausweg aus den "unzureichenden" Einwahldiensten des LRZ scheint für manche Institute die Realisation eigener Wählzugänge an Institutsrechnern zu sein. Das LRZ möchte darauf hinweisen, daß der Betrieb von eigenen Wählanschlüssen nach den "Richtlinien zum Betrieb des Münchner Hochschulnetzes (MHN)", siehe:

http://www.lrz-muenchen.de/wir/regelwerk/netzbenutzungsrichtlinien/

der Zustimmung des LRZ bedarf. Damit soll erreicht werden, daß die Nutzungsbedingungen des B-WiN (und damit des Internet) nicht von unkontrollierten Wählanschlüssen unterlaufen werden. Zudem ist der reibungslose Betrieb von Wählzugängen, die diese Anforderungen erfüllen sollen, nicht ganz einfach.

A. Läpple
E-Mail: Laepple@lrz.de

Betrieb von DHCP-Servern

Mit Hilfe des Dynamic Host Configuration Protocol (DHCP) lassen sich IP-Adressen und die IP-Konfiguration von Rechnern, Terminals, Druckern usw. zentral auf einem Server verwalten. Dabei kann es zu Problemen, wie z.B. falsch zugewiesenen IP-Adressen, kommen, wenn mehrere DHCP-Server an einem Netzsegment parallel betrieben werden. Der folgende Artikel gibt einen Überblick über diese Problematik und zeigt Möglichkeiten auf, wie Störungen vermieden werden können.

In den letzten Jahren hat sich DHCP als Instrument zur Verwaltung von IP-Adressen und zur zentralen IP-Konfiguration von Endgeräten immer mehr durchgesetzt. Im PC-Bereich ist seit der Einführung von Windows 95 in allen Microsoft-Betriebssystemen ein DHCP-Client integriert. Bei den meistverbreiteten PC-Server-Betriebssystemen (Netware, Windows NT) wird in den aktuellen Versionen auch gleich ein DHCP-Server mitgeliefert. Aber auch bei diversen Unix-Derivaten gehört ein DHCP-Client bzw. –Server mittlerweile zum Lieferumfang dazu. Daneben sind auch diverse Terminals, Drucker usw. erhältlich, die mittels DHCP konfiguriert werden können.

Probleme beim Einsatz von DHCP-Servern kann es dann geben, wenn in einem Netzsegment mehrere Server parallel betrieben werden (unter einem Netzsegment sind hierbei alle hinter einem einzelnen Router-Interface angeschlossenen Endgeräte zu verstehen). Die Ursache hierfür liegt darin begründet, daß ein DHCP-Client sich seinen DHCP-Server selber sucht, indem er seine Anfragen an die IP-Adresse 255.255.255.255 sendet. Werden diese Anfragen von mehreren Servern beantwortet, so wählt der Client einen Server aus. Der Algorithmus für die Auswahl ist dabei aber nicht festgelegt, sondern abhängig vom DHCP-Client. Meist wird jedoch derjenige Server genommen, der am schnellsten antwortet.

Was hat dies nun für Auswirkungen in der Praxis? Dazu stellen wir uns den Fall vor, daß Institut A und Institut B, die beide am selben Routerinterface angeschlossen sind, jeweils einen eigenen DHCP-Server installiert haben. Wenn nun ein Client im Institut A bootet, so sendet er eine Anfrage an die IP-Adresse 255.255.255.255. Diese Anfrage wird von beiden DHCP-Servern beantwortet. Welchen Server sich der Client auswählt, ist dabei mehr oder weniger vom Zufall abhängig. So ist es nicht sehr unwahrscheinlich, daß er anstelle des DHCP-Servers des Instituts A denjenigen des Instituts B auswählt. Dies hat zur Folge, daß er aus dessen IP-Adreßbereich eine Adresse belegt. Außerdem wird er mit den IP-Parametern, wie z.B. Nameserver, konfiguriert, die auf dem Server des Instituts B festgelegt wurden.

Wie lassen sich solche Probleme nun vermeiden? Dazu muß verhindert werden, daß der DHCP-Server im Institut A auf Anfragen von Clients aus Institut B antwortet und umgekehrt. Hierzu gibt es zwei Möglichkeiten:

  • Der DHCP-Server benutzt ausschließlich statische Adreßvergabe, d.h. auf dem Server wird eine feste Zuordnung zwischen der Ethernet- und der IP-Adresse der Clients vorgenommen. Dies hat natürlich gegenüber dynamischer Adreßvergabe einen erhöhten Arbeitsaufwand zur Folge, da sämtliche Ethernet- und IP-Adressen der DHCP-Clients in den Server eingetragen werden müssen.
  • Der DHCP-Server wird so konfiguriert, daß er nur bestimmten Clients antwortet. Dazu wird auf dem Server eine Liste mit den Ethernet-Adressen derjenigen Clients erstellt, denen der Server antworten soll. Anfragen von anderen Clients werden ignoriert. Leider ist diese Methode nur bei wenigen DHCP-Servern möglich. Bei den DHCP-Servern von Netware und Windows NT beispielsweise ist eine solche Beschränkung nicht möglich. Deshalb sei an dieser Stelle explizit auf den DHCP-Server des Internet Software Consortium

hingewiesen. Diese Public-Domain-Software läuft allerdings nur unter Unix (Linux, Solaris, HP-UX u.a.).

In jedem Fall sollte die Installation eines DHCP-Server vor der Inbetriebnahme an den zuständigen Arealbetreuer, siehe

http://www.lrz.de/services/netz/arealbetreuer

im LRZ gemeldet werden. Nur so läßt sich bereits im Vorfeld abklären, ob es zu Problemen mit bereits existierenden DHCP-Servern kommen kann.

Günter May
E-Mail: May@lrz.de

Verwaltung mehrerer (POP-) Mailboxen
(Forward, Collect-Dienst)

Dieser Artikel betrifft alle Benutzer, die mehr als eine Mailbox besitzen und diese nicht einzeln abfragen wollen. Es wird beschrieben, wie man die E-Mails aus den verschiedenen Mailboxen an eine zentrale Mailbox weiterleiten kann und warum das LRZ für sogenannte Collect-Dienste, wie sie von verschiedenen Mail-Forwardern wie usa.net angeboten werden, den Zugriff auf Mailboxen am LRZ unterbindet.

Wenn Sie mehrere Mailboxen, insbesondere bei verschiedenen Internet Service Providern, besitzen, so haben Sie sofort das Problem, wie sie diese Mailboxen verwalten. Bei einer der Mailboxen lohnt es sich vielleicht, diese täglich zu lesen, während bei einer anderen Mailbox nur einmal im Monat eine E-Mail ankommt.

Sofern es keine anderen Gründe gibt, die Inhalte der verschiedenen Mailboxen wirklich getrennt zu halten, ist es sicher am geschicktesten alle E-Mails in einer Mailbox zu konzentrieren, anstatt jede einzelne Mailbox oft vergebens nach neuem Inhalt abzufragen.

Der klassische Weg dies zu tun, ist der forward-Mechanismus des Programms sendmail unter dem Unix-Betriebssystem (diese Funktionalität wurde von vielen anderen Mailsystemen übernommen und steht somit auch dort zur Verfügung). Unter Unix legt man in seinem Homeverzeichnis einen File namens ".forward" an (der Punkt am Anfang ist wichtig!) und schreibt in diesen File die Mailadresse(n), an die eine ankommende E-Mail automatisch weitergeleitet werden soll. Zusätzlich kann man angeben, ob man auch eine Kopie der E-Mail lokal behalten will. Ansonsten wird die E-Mail einfach weitergeleitet und es sammeln sich keine E-Mails in dieser Mailbox an. Wie für die LRZ-Mailboxen ein .forward-File angelegt wird, ist seit langem unter http://www.lrz-muenchen.de/fragn/faq/mail3/ beschrieben. Liest man sich den Text durch, so stellt man insbesondere bei den Mailboxen im AFS-Cluster fest, daß dies relativ kompliziert ist. Aus diesem Grund haben wir ein neues WWW-Tool programmiert, mit dem man ganz einfach eine Weiterleitung konfigurieren kann. Sie finden dieses Tool unter

https://www.lrz-muenchen.de/tools/forward

Eine ganze andere, neue Art E-Mails in einer Mailbox zu konzentrieren, bieten sogenannte Collect-Dienste. Voraussetzung dafür ist, daß auf eine Mailbox über das POP- oder IMAP-Protokoll zugegriffen werden kann. Sie hinterlegen bei einem Collect-Dienst die Adresse des POP- oder IMAP-Servers, der auf Ihre Mailbox zugreifen kann, und geben zusätzlich Ihre Benutzerkennung und Ihr Paßwort an. Der Collect-Dienst baut periodisch, z.B. jede Stunde, eine Verbindung zu dem konfigurierten Server auf, sammelt alle neu eingetroffenen E-Mails auf und speichert sie in einer Mailbox (bei diesem Collect-Dienst) ab.

Meistens können Sie für diese Mailbox wiederum eine Weiterleitung an eine andere Mailbox konfigurieren. Genauso wie bei der Weiterleitung per .forward-File, kann es dabei zu einem Mail-Loop (= Schleife) kommen, wenn Sie die E-Mails an eine Mailbox weiterleiten, von der der Collect-Dienst die E-Mails wieder abholt. Solche Mail-Loops belasten dann unsere Mail-Server und bedeuten zusätzliche Arbeit für die Mail-Administration; insbesondere dann, wenn die E-Mails über zwei Loops geschickt werden und sich dabei immer wieder verdoppeln.

Welche Vor- und Nachteile bietet dieser neue Collect-Dienst gegenüber dem klassischen Forward-Mechanismus?

Vorteile:

  • Man kann an einer Stelle die Weiterleitung für alle Mailboxen konfigurieren. Dies ist insbesondere dann interessant, wenn man viele Mailboxen hat und die Konfiguration der Weiterleitung auf jedem System anders ist.
  • Erlaubt ein Mailboxsystem nicht die Konfiguration einer Weiterleitung, so kann auf diese Weise trotzdem eine Weiterleitung erreicht werden.

Nachteile:

  • Es handelt sich im Gegensatz zur klassischen Weiterleitung (Push-Verfahren) um ein Pull-Verfahren, d.h. ein Programm muß periodisch nachsehen, ob neue E-Mails angekommen sind. Dadurch kommt es auf allen beteiligten Systemen zu einem höheren Ressourcenverbrauch und zu einer Zeitverzögerung bis eine E-Mail beim Empfänger ankommt.
  • Auf die Mailbox muß vom Collect-Dienst über das POP- oder IMAP-Protokoll zugegriffen werden können. Dies bedingt, daß der Server der Mailbox eines dieser Protokolle unterstützt und daß der Zugang von außen nicht durch einen Firewall gesperrt ist.
  • Sie müssen das zu Ihrer Benutzerkennung gehörende Paßwort bei dem Collect-Dienst hinterlegen.

Insbesondere dieser letzte Punkt, die Weitergabe Ihres Paßwortes, ist ein gravierender Nachteil. Da Sie bei den zur Zeit existierenden Collect-Diensten so gut wie keine Möglichkeit haben, einen Mißbrauch Ihres Paßwortes zu verhindern oder bei einem Mißbrauch rechtliche Schritte gegen den Service Provider einzuleiten, würden wir Ihnen zur Zeit von der Benutzung eines Collect-Dienstes abraten.

Im Falle der LRZ-Mailboxen kommt noch ein ganz anderer Punkt zum Tragen. Hier ist mit der Benutzerkennung und dem Paßwort nicht nur der Zugriff auf die Mailbox möglich, sondern es ist damit auch der Zugang zum Münchner Hochschulnetz und bei den Benutzerkennungen des AFS-Clusters der Zugang zu allen Leistungen der Rechner im AFS-Cluster verbunden. Aus diesem Grund ist die Weitergabe von Benutzerkennung und Paßwort an andere und damit auch an einen Collect-Dienst ausdrücklich verboten, s. Benutzungsrichtlinien, § 4 Pflichten des Benutzers, Absatz 3,

http://www.lrz-muenchen.de/wir/regelwerk/benutzungsrichtlinien/

Daher dürfen Sie allein rechtlich gesehen keine E-Mails aus einer LRZ-Mailbox über einen Collect-Dienst abholen lassen. Damit dies auch technisch nicht mehr möglich ist, werden wir den Zugang zu den LRZ-Mailboxen für die uns bekannten Collect-Dienste zum

1. März 1999

sperren. Eine Einschränkung der Funktionalität ist damit aber nicht verbunden, da für jede LRZ-Mailbox der klassische Weg der Weiterleitung existiert. Der umgekehrte Weg, alle E-Mails in einer LRZ-Mailbox zu konzentrieren, ist dann möglich, wenn die anderen Mailserver die Konfiguration einer Weiterleitung erlauben. Einen Collect-Dienst bietet das LRZ hingegen zur Zeit nicht an.

Michael Storz
E-Mail: Storz@lrz.de

Schließung des LRZ-Pools im TUM-Stammgelände Nord
zum Jahresende 1999

Parallel zur Verbesserung der dezentralen DV-Versorgung (CIP- und WAP-Beschaffungen) wurden in den letzten Jahren die dezentralen LRZ-Gerätepools nach und nach abgebaut. Zum Ende des Jahres 1999 wird nun auch der LRZ-Pool im TU-Stammgelände Nord geschlossen.

Das LRZ betreibt an einigen Standorten öffentlich zugängliche Gerätepools, die überwiegend mit PCs, teilweise auch mit X-Terminals ausgestattet sind. Die PCs sind alle direkt ans Münchner Hochschulnetz und damit ans Internet angeschlossen; sie sind gleichzeitig in einem PC-Netz zusammengefaßt und werden von zentralen Novell-Servern mit Software versorgt. Die Nutzung der PCs ist nur mit einer persönlichen Kennung möglich, die üblicherweise für Mitarbeiter über den jeweiligen Master User bzw. für Studenten über das LRZ-Benutzersekretariat (als Ergänzung zu einer Internetkennung) vergeben wird.

Die Aufgabe dieser LRZ-Pools ist es, DV-Arbeitsplätze für jene Mitarbeiter und Studenten zu bieten, die im Rahmen der dezentralen DV-Versorgung noch keinen geeigneten DV-Zugang finden. Nachdem sich in den letzten Jahren die dezentrale DV-Ausstattung aber deutlich verbessert hat, werden seit der Erneuerung der PC-Ausstattung im Jahre 1997 LRZ-Pools nur noch an folgenden Standorten betrieben:

  • LRZ-Gebäude, Arbeitsraum Ost 1.OG
  • TUM-Stammgelände Nord, Raum N2155/9
  • LMU Theresienstraße 37-41, Raum A115, B120/1/2
  • LMU Konradstraße 8, Raum 408

Sämtliche LRZ-Pools außerhalb des LRZ-Gebäudes sind in Räumen untergebracht, die dem LRZ nur leihweise überlassen sind. Die Technische Universität hatte uns schon vor längerem informiert, daß sie ihre dem LRZ zur Verfügung gestellten Räume im Stammgelände Nord selbst benötigt, und hat jetzt darum gebeten, die Räume innerhalb eines Jahres freizumachen. Das LRZ wird daher den Betrieb dieses LRZ-Gerätepools (intern als "Knoten BZ" bezeichnet) zum Jahresende 1999 einstellen.

Im Rahmen der langjährigen Zusammenarbeit des LRZ mit der TU-Bibliothek war vorgesehen, einen größeren Teil der Geräte dieses Pools in der nahegelegenen Hauptbibliothek weiterzubetreiben. Diese Möglichkeit scheint jetzt aber wegen der geänderten Planungen im TU-Bibliotheksbereich hinfällig. Studenten, die den Pool im TUM-Stammgelände Nord nutzen, müssen wir daher auf die verbleibenden LRZ-Pools bzw. auf die CIP-Pools ihrer eigenen Fakultät verweisen. Institute, deren Mitarbeiter bisher diesen Gerätepool nutzen und keine andere Arbeitsmöglichkeit besitzen, mögen bitte Kontakt mit mir aufnehmen, um zu klären, ob das LRZ anderweitig Unterstützung anbieten kann.

P. Sarreither
E-Mail: Sarreither@lrz.de

Zukunft Optik: Gigabit-Testbed Süd –
Optische Übertragungstechnik und innovative Anwendungen

Modifizierter Abdruck aus den DFN-Mitteilungen 48, November 1998, S.11-14:

Am 13. August 1998 fand am Leibniz-Rechenzentrum (LRZ) die offizielle Einweihungsfeier für das "Gigabit-Testbed Süd" statt. Hierbei wurde die Strecke zwischen Erlangen und München von Bundesminister Dr. Jürgen Rüttgers und vom Bayerischen Staatsminister Prof. Dr. Faltlhauser unter der Anwesenheit des DFN-Vorstandes offiziell in Betrieb genommen. Bereits wenige Tage vorher konnten über diese Verbindungsstrecke weltweit erstmals 2,448 Gigabit-pro-Sekunde (Gbit/s) auf der ATM-Netzebene realisiert werden. Damit ist eine entscheidende Stufe für die Übertragung von Daten für Anwendungen mit hohem Kommunikationsbedarf und spezifischen Quality-of-Service Anforderungen, z.B. Meta-Computing, Virtual Reality und Multimedia erreicht worden.

Ziele im Gigabit-Testbed Süd

Das Gigabit-Testbed Süd sowie das bereits im August 1997 begonnene Gigabit-Testbed West wurden vom DFN-Verein initiiert, um Erfahrungen auf dem Gebiet neuer Netz- und Transportstrukturen, neuer Netzdienste und Anwendungen sowie der damit verbundenen Kosten zu sammeln. Das Bundesministerium für Bildung, Wissenschaft, Forschung und Technologie unterstützt den DFN-Verein bei der Finanzierung der Gigabit-Testbeds mit dem Ziel, die nächste Stufe der Hochgeschwindigkeitskommunikation in Deutschland vorzubereiten und damit den Wissenschaftsstandort Deutschland zu sichern. Auch der Freistaat Bayern beteiligt sich mit einem Drittel an der Finanzierung der Kosten der Netzinfrastruktur. Die Erfahrungen aus den Gigabit-Testbeds bilden die Grundlage für den Aufbau einer Gigabit-Infrastruktur im Deutschen Forschungsnetz im Jahr 2000.

Im Rahmen des Gigabit-Testbed Süd werden zwischen den Städten München, Erlangen und Berlin innovative und zukunftsweisende Kommunikationsanwendungen realisiert. Diese Standorte zeichnen sich dadurch aus, daß sowohl die notwendige Infrastruktur im Höchstleistungs-Rechnerbereich, tiefgreifendes Know-How im Bereich der Kommunikationsnetze (Mitarbeit an vielen DFN-Technologie-Projekten) und auch wissenschaftliches Potential zur Entwicklung entsprechender Anwendungsprojekte vorhanden sind.

Mit diesem Vorhaben sollen sowohl die für den Einstieg in die nächste Geschwindigkeitsstufe geeigneten und notwendigen Technologien evaluiert (622 Mbit/s, 2,488 Gbit/s, Wave-Divison-Multiplexer (WDM), optisches Switching in Verbindung mit WDM-Systemen), wie auch Know-How über den Stand geeigneter Anwendungen gesammelt werden. Dazu sind neben technologischen Untersuchungen bisher auch sieben Anwendungsprojekte vorgesehen.

Die technologischen Untersuchungen sollen dazu dienen

  • geeignete Komponenten für die zukünftige Kommunikationsinfrastruktur zu finden,
  • ihre Einsetzbarkeit im lokalen und im nationalen Umfeld zu testen,
  • und Konnektivität, Performance, Stabilität und auch Interoperabilität zu überprüfen.

Diese Untersuchungen werden am Leibniz-Rechenzentrum München, am Regionalen Rechenzentrum in Erlangen (RRZE) und am Rechenzentrum Garching der Max-Planck-Gesellschaft durchgeführt.

Im Rahmen der Anwendungsprojekte sind Anwendungen vorgesehen,

  • die per se extreme Bandbreitenanforderungen und Dienstgüteanforderungen haben, die unter Produktionsbedingungen auf der derzeit verfügbaren Infrastruktur nicht ablauffähig sind (wie z.B. Bewegtbilder mit hoher Auflösung),
  • die bei intensiver Nutzung (via Skalierung) überproportionale Bandbreite erfordern (Verteil-Mechanismen, bevorzugt im Bereich Ausbildung),
  • die auf Grund von Bündelung klassischer Anwendungen (fortgeführte regionale Testbeds, neue DFN-Breitbandanwendungen) auf Dauer mit der jetzt verfügbaren Bandbreite nicht auskommen.

Hieran beteiligen sich Institute der Universitäten in Erlangen und München, Max-Planck-Institute in Großhadern, Garching und Berlin, sowie die Hochschule für Fernsehen und Film (HFF), das Institut für Rundfunktechnik (IRT) und der Bayerische Rundfunk (BR).

Den meisten Projekten ist gemein, daß sie, dem Ziel gemäß, an der Grenze des heute technisch Machbaren liegen.

"Transparente" Technik

Die DeTeSystem / Deutsche Telekom hat für das Gigabit-Testbed Süd die notwendige Infrastruktur zur Verfügung gestellt. Im Gegensatz zum Gigabit-Testbed West, bei dem noch SDH-Technik zum Einsatz kommt, wird zur Verbindung der Standorte München und Erlangen "transparente" Technik in Form von optischen Wellenlängenmultiplexern (WDM-Systeme, Wave-Division-Multiplexer) eingesetzt. Hierbei handelt es sich um eine Technik, bei der mehrere Übertragungskanäle transparent und parallel über eine Glasfaserleitung übertragen werden. Dazu wird das Eingangssignal jedes einzelnen Übertragungskanals mittels eines Transponders auf eine spezifische Wellenlänge im 1500 nm-Fenster abgebildet. Der eigentliche Wellenlängenmultiplexer übernimmt dann die Bündelung der unterschiedlichen Eingangssignale zu einem optischen Signal, das über einen optischen Verstärker auf die verbindende Glasfaser geschickt wird. Auf der Gegenstelle empfängt ein Demultiplexer das Signal und "spaltet" es stark vereinfacht dargestellt wieder in die ursprünglichen Teilsignale auf. Da optische Signale aufgrund der Dämpfung der benutzten Glasfaserleitung nur eine beschränkte Reichweite besitzen, müssen zur Überbrückung längerer Distanzen zusätzliche Verstärker in die Leitung eingebaut werden. Bisher war dazu eine aufwendige "optisch-elektrisch-optische" Wandlung notwendig, die die maximale Reichweite ohne Regeneration in der Regel auf 20 bis 30 km begrenzt hatte. Parallel zur Entwicklung von WDM-Systemen wurden auch rein optische Leitungsverstärker (z.B. Erbium doped fiber amplifier, EDFA) entwickelt, die eine deutlich größere Reichweite (100 bis 200 km) ermöglichen und darüber hinaus auch in der Lage sind, das gesamte Wellenlängen-Spektrum zu verstärken. Somit ergänzen sich beide Systeme in idealer Weise und bilden dadurch ein rein optisches Übertragungssystem.

Am Markt verfügbare WDM-Systeme unterscheiden sich unter anderem in der maximalen Anzahl paralleler Kanäle, der dazu benutzten Wellenlängen (eine Standardisierung ist hier im Gange), und der maximalen Bandbreite pro transparentem Übertragungskanal. Das bedeutet, daß diese Systeme nicht an ein spezielles Übertragungsprotokoll wie z.B. SDH gebunden sind, sondern daß jedes Protokoll transparent übertragen werden kann (unter der Randbedingung, daß die dafür benötigte Bandbreite kleiner ist als die maximale Brandbreite für den Kanal). Die WDM-Technik allgemein wird mittlerweile verstärkt im Carrier-Bereich (WAN-Umfeld) eingesetzt, findet aber auch immer mehr Anwendung in Stadtnetzen und zunehmend auch im lokalen Bereich. Die derzeit verfügbare Technik ist auf 32 Kanäle mit einer maximalen Bandbreite von 2,5 Gbit/s pro Kanal begrenzt. Im Laborumfeld arbeitet man jedoch schon an Systemen mit einer Anzahl von bis zu 128 Kanälen und einer maximalen Übertragungsrate von bis zu 10 Gbit/s.

Im Rahmen des Gigabit-Testbed Süd werden Systeme vom Typ T31 der Firma Pirelli eingesetzt, von möglichen 8 Kanälen á 2,5 Gbit/s stehen derzeit 3 Kanäle zur transparenten Nutzung innerhalb des Testbeds zur Verfügung. Zur Überbrückung der Distanz von 220 km zwischen München und Erlangen wurden auf der Strecke zwei EDFA-Leitungsverstärker (in Pfaffenhofen und Heideck) eingebaut (siehe Abbildung).

Die einzelnen Kanäle können unabhängig voneinander verwendet werden. Zwei Kanäle sind mit ATM-Komponenten belegt, als Abschlußeinheiten dienen auf jeder Seite ein Ascend GX-550 (mit jeweils einem 2,488 Gbit/s STM16-Interface zum WDM-Kanal) und ein Fore ASX-1000 (mit jeweils einem 622 Mbit/s STM 4c-Interface zum WDM-Kanal). Der verbleibende dritte Kanal wird neben allgemeinen Technologieuntersuchungen auch für eine transparente Verbindung der Höchstleistungsrechner in München (LRZ, RZ der Max-Planck-Gesellschaft in Garching), Erlangen und später Berlin auf der Basis von HiPPI (800 Mbit/s) genutzt werden. An den einzelnen Standorten ist entsprechendes Know-How über die eingesetzten Technologien anzusammeln, da dies im lokalen und regionalen Versorgungsbereich ebenfalls benötigt wird. Arbeitsschwerpunkte bei den Netztechnologien werden sein:

  • High-Speed-ATM-Schnittstellen (622 Mbit/s, 2,488 Gbit/s,...),
  • Interoperabilitätsproblematiken bei Switch-Kopplungen im privaten Bereich,
  • Wellenlängen-Multiplex Einsatz im lokalen Bereich,
  • Optisches Switching in Verbindung mit WDM-Systemen,
  • Serial HiPPI-Kopplung (800 Mbit/s, ..) über lange Distanzen (WAN-Strecken),
  • Durchsatzmessungen, Troubleshooting, Qualitätsüberwachung,
  • Untersuchungen über Management-Interfaces und Betriebsprobleme der eingesetzten Komponenten (SNMP, RMON,...)

Anwendungsprojekte

Die derzeit genehmigten acht Anwendungsprojekte lassen sich grob in folgende Klassen aufteilen:

  • Meta-Computing-Anwendungen (4)
  • Medizinische Anwendungen (3)
  • Video on Demand (VoD), Video-Server, Multimedia-Anwendungen (1)

Meta-Computing-Anwendungen

Mit den jüngst erfolgten Installationen von Systemen mit hoher Rechenkapazität an den derzeitigen deutschen Hochleistungsrechenzentren in Jülich, Stuttgart, Garching bei München, München und Berlin wird die Voraussetzung geschaffen, in neue Dimensionen der wissenschaftlichen Forschung und Entwicklung vorzustoßen. Diese hohen Rechenkapazitäten sind zwangsläufig an wenigen Hochleistungsrechenzentren konzentriert, die Anwender hingegen arbeiten in der Regel an Forschungseinrichtungen, die über ganz Deutschland verteilt sind.

Nur ein Teil der rechenintensiven Projekte kommt mit geringen Datenmengen aus. Der Großteil der rechenintensiven Projekte ist mit einem großen Datenaufkommen verbunden und kann mit den heutigen Netztechnologien im WAN-Bereich nicht angemessen, sondern nur im lokalen Umfeld realisiert werden. Um aber bei solchen Großprojekten die Kontrolle, Sichtung, Reduktion, Aus- und Bewertung sowie Archivierung dieser Datenmengen entsprechend durchführen zu können, ist es zum Teil unerläßlich, vorhandene lokale Infrastrukturen (z.B. Experimentier-, Datenauswertungs- und Visualisierungs-Hardware) über ein äußerst leistungsfähiges Netz an die entsprechende Hochleistungsrechenkapazität anzubinden.

Ein Teil der Projekte bezieht sich auf den Themenkomplex Meta-Computing und Visualisierung, der fachspezifische Inhalt befaßt sich mit

  • 3D-Bildrekonstruktionen aufgrund makromolekularer Elektronentomographie,
  • Moleküldynamik-Simulationsrechnungen,
  • Gravitationsforschung: Kollision schwarzer Löcher.

Neben der leistungsstarken Anbindung von Visualisierungs-Infrastruktur an Hochleistungsrechenzentren wird auch eine schnelle Netzverbindung zwischen den jeweiligen Hochleistungsrechnerstandorten immer wichtiger. Zum einen führen zeitversetzte Investitionszyklen zu regionalen Kapazitätsvariationen, die über schnelle Netze ausgeglichen werden können. Zum andern gilt es immer für herausragende Grand-Challenge-Projekte den Zugriff auf die jeweils größtmöglich verfügbare Rechenleistung und Hauptspeicherausstattung zu unterstützen. Deshalb ist es notwendig, die Kopplung der jeweils leistungsfähigsten Rechner über ein extrem schnelles Netz technologisch zu etablieren.

Zur Implementierung und Erprobung solcher Meta-Computing Szenarien ist der Einsatz von Hochleistungsrechnern für einzelne reale Anwendungen vorgesehen. Hierfür werden das Cray T3E/784-System am Rechenzentrum Garching der Max-Planck-Gesellschaft, das Fujitsu VPP/52 System am LRZ in München, sowie das Cray T3E/224-System am Konrad-Zuse-Zentrum in Berlin eingesetzt werden. Mit den beiden Klassen einer homogenen Kopplung zwischen den beiden T3E-Systemen und einer heterogenen Kopplung zwischen VPP- und T3E-Systemen werden verschiedene Aspekte des Meta-Computings ausgeleuchtet.

Medizinische Anwendungen

Den medizinischen Einrichtungen, die an Universitäten und Hochschulen angesiedelt sind, kommt eine gewisse Vorreiterrolle zu. Einerseits sind die dort verlegten (lokalen) Kommunikationsnetze mindestens vom gleichen Standard wie in anderen naturwissenschaftlichen Bereichen, andererseits sind wissenschaftliche Einrichtungen, die mit technischem Know-How zur Seite stehen können, quasi ‘vor der Haustür’.

Daher haben sich aus dem medizinisch-technischen Bereich heraus, unterstützt von wissenschaftlichem Potential, Anforderungen für breitbandige und z.T. echtzeitfähige Datenkommunikation ergeben. Die dahinterliegenden Anwendungen sind bilddatenorientiert, haben Online-Charakter und dienen dem Mediziner zur Unterstützung seiner Arbeit. Im einzelnen handelt es sich um

  • Nutzung geeigneter Übertragungs- und Codierungsverfahren von hochaufgelösten Videosignalen zur Qualitätssicherung in der Tumorchirurgie,
  • Übertragung und Test von Aufzeichnungsverfahren für Videodatenströme über Hochgeschwindigkeitsnetze (Anwendungsfall: Teleendoskopie),
  • Operationen im virtuellen Raum.

Die Notwendigkeit, im Rahmen dieser Projekte WAN-Netze nutzen zu müssen, entstammt dem Problem, daß entweder ein Rechner mit einer spezifischen Ausstattung (z.B. Leistung, Funktion), ein benötigter Spezialist oder das Auditorium/der Kongreß sich an anderer Stelle befindet und in die globale Aufgabe mit einbezogen werden muß.

Das letztgenannte Projekt "Operationen im virtuellen Raum" wird an der Klinik und Poliklinik für Mund-Kiefer-Gesichtschirurgie (MKG) der Technischen Universität München durchgeführt. Es beinhaltet computergestützte 3D-Planungen und Simulationen von Operationen am Gesichtsschädel, die mit Hilfe von Hochleistungsrechnern im virtuellen Raum durchgeführt werden sollen. Zur Optimierung der dafür notwendigen Bildgebung werden die Bilddaten über das Gigabit-Testbed-Netz in Echtzeit bei den Projektpartnern an der TU München und der Universität Erlangen bearbeitet.

Die Chirurgie des Gesichtsschädels erfordert hohe Präzision in der Diagnostik, der Operationsplanung und deren Umsetzung am Patienten. Durch die Nutzung leistungsfähiger Datennetze und Höchstleistungsrechner kann der Chirurg zunehmend technische Hilfsmittel im Bereich bildgebender Verfahren, vor allem 3D-Verfahren, einsetzen, die den Chirurgen unterstützen und gleichzeitig den Patienten entlasten. So wird es möglich, mehrfache Untersuchungen mit Vollnarkose und anschließender Operation durch eine einzige Narkose zu ersetzen. Die bei der Untersuchung anfallenden Daten werden sofort in unterschiedlichen Programmen weiterverarbeitet, von Spezialisten mehrerer Disziplinen an verschiedenen Orten beurteilt und die Ergebnisse an den koordinierenden Chirurgen weitergeleitet. Dieser entscheidet dann über den weiteren Verlauf der Operation. Computersimulationen skizzieren dabei den möglichen Verlauf der Operation.

Verteilte Video-Produktions- und Video-on-Demand-Dienste

Die Übertragung von synchronen Datenströmen (Audio- und Video-Daten) hoher Qualität in Echtzeit stellt höchste Anforderungen an die zugrunde liegende Kommunikationsinfrastruktur. Nach den ersten Erfahrungen auf diesem Gebiet, die im Rahmen einer regelmäßigen Übertragung von Lehrveranstaltungen (Informatik-Kolloquium) zwischen München und Erlangen gewonnen wurden, wurde klar, daß Dienste mit diesen hohen Anforderungen (Bandbreite, Quality of Service, u.ä.) nur in Ausnahmefällen über das bestehende B-WiN übertragen werden können. Im Projekt "Uni-TV – Lernen wie im Fernsehen" handelt es sich um die Einrichtung von VoD-Services über Distributed Video Production und optimierte Techniken zum Archivieren und Recherchieren von Multimedia-Datenströmen.

Im Rahmen dieses Kooperationsprojektes soll multimediales Lehr- und Lernmaterial über das zur Verfügung stehende Gigabit-Testbed-Netz produziert und verteilt werden. Dazu werden Vorlesungen an den beteiligten Universitäten in Erlangen und München mit TV-Kameras aufgenommen und am Institut für Rundfunktechnik (IRT) mit Unterstützung des Bayerischen Rundfunks (BR) nach einem Drehbuch der Hochschule für Fernsehen und Film (HFF) online bearbeitet. Die fertigen Produktionen werden für einem späteren Abruf auf entsprechenden Video-Servern abgelegt und stehen sowohl den Hochschulen zum "on-Demand"-Abruf innerhalb ihrer lokalen Hochschulnetze als auch dem BR für seinen Bildungskanal zur Verfügung. Diese Art der Produktion erfordert eine hohe Dienstgüte im Netz, die im Gigabit-Testbed Süd erstmals und in der geforderten Größenordnung überregional verfügbar ist.

Bei diesem Projekt ist der Synergie-Effekt äußerst groß, da zum einen Spezialisten aus dem Medienbereich (BR und IRT) beteiligt sind, deren Hauptaufgabe tagtäglich darin besteht, professionelle Informationssendungen zu produzieren. Zum anderen steht dem ein großes Potential an Know-How im Bereich der Netz- und Rechnertechnik gegenüber. Diese Thematik ist von allgemeinem Interesse, da sie in vergleichbarer Weise auch an anderen Universitäten, aber auch bei Sendeanstalten Anwendung finden könnte. Je nach Art, Güte und Anzahl der gleichzeitig zu übertragenden synchronen Datenströme treten bei der Produktion hierbei konstante Datenraten von mehr als 200 Mbit/s auf. Auch der gleichzeitige Zugriff vieler Lernender auf dieses Bandbreiten-intensive Material von Arbeitsplätzen im Hochschulnetz und von Heimarbeitsplätzen aus läßt sich in heutigen Netzen in der geforderten Dienstgüte nur schwer realisieren. Die Verfügbarkeit von entsprechend leistungsfähigen Kommunikationsnetzen kann die Lehr- und Lernformen an den Universitäten grundlegend verändern: Audio-visuelles pädagogisches Material, produziert und angeboten wie TV-Sendungen, wird sowohl im Lernverbund als auch im Einzelstudium über die verbindende Netzinfrastruktur zur Verfügung gestellt.

Ausblick

Alle Projekte befinden sich noch in der Startphase, dem Aufbau der dafür notwendigen Infrastruktur und teilweise noch in der Aquisition der entsprechenden Mitarbeiter. Detailliertere Beschreibungen und konkrete Ergebnisse einzelner Teilprojekte werden in den zukünftigen Mitteilungen des DFN-Vereins erscheinen. Der aktuelle Status des gesamten Projektes und der jeweiligen Einzelprojekte, die einzelnen Projektverantwortlichen und weitergehendes Material ist unter

http://www.lrz.de/projekte/gigabit/

abrufbar.

Victor Apostolescu
E-Mail: apo@lrz.de

Zentrale Systeme

MPI-2 an VPP700 verfügbar

MPI ist die Abkürzung für Message Passing Interface. MPI dient dazu, zwischen Rechnern oder Prozessoren, die keinen gemeinsamen Speicher besitzen, Daten auszutauschen. MPI kommt vor allem bei der Parallelisierung von Programmen im technisch-wissenschaftlichen Bereich zum Einsatz. MPI-2 erweitert den bisherigen Standard MPI-1.

An der Fujitsu VPP700 ist nun eine Implementierung des MPI-2 Standards verfügbar. Die Firma Fujitsu konnte in Zusammenarbeit mit der deutschen Pallas GmbH als weltweit erste Firma eine vollständige Implementierung des MPI-2 Standards auf den Markt bringen. Am LRZ ist deutschlandweit die erste MPI-2 Implementierung auf Hochleistungsrechnern in Betrieb.

Konzepte von MPI-1

Wesentliches Konzept von MPI-1 ist die Punkt-zu-Punkt-Kommunikation. Dabei muss für jedes "Versenden" von Daten von einem Prozessor ein entsprechendes "Empfangen" auf einem anderen Prozessor vorliegen. Die MPI-Bibliothek sorgt für diesen Datenaustausch (Abb. 1). Neben der blockierenden Punkt-zu-Punkt-Kommunikation gibt es auch eine nicht-blockierende Kommunikation, bei der die Prozessoren während des Sende-/Empfangsvorgangs andere Arbeiten, z.B. Rechenoperationen, ausführen können (Abb.1).

Abb. 1: Blockierende Punkt-zu-Punkt-Kommunikation.

Abb 2: Kollektive Operation am Beispiel dreier Prozessoren

Ergänzend zu den Punkt-zu-Punkt-Operationen gibt es sogenannte globale Operationen, bei denen mehr als zwei Prozessoren Daten in einer bestimmten Art und Weise effizient austauschen. Als Beispiel sei hier die Reduce-Operation aufgeführt, bei der z.B. die Summe oder das Maximum von Daten auf allen Prozessoren berechnet wird (Abb. 2).

Neuerungen bei MPI-2

Gegenüber MPI-1 bietet MPI-2 folgende Neuerungen:

  • Einseitige Kommunikation
  • I/O: Paralleler I/O aus verschiedenen Prozessen heraus
  • Dynamisches Prozessmanagement
  • Interfaces zur Datenkonversion zwischen Sprachen (C und Fortran) und zwischen Prozessen, die auf unterschiedlichen Rechnerarchitekturen laufen.

Während in MPI-1 zu jedem Sender ein Empfänger gehören muss, kann in MPI-2 die Kommunikation von einer Seite aus angestoßen werden. Die einseitige Kommunikation ermöglicht Zugriffe auf Speicherbereiche des Partners, ohne dass der viel davon merkt (Remote Memory Access). Dabei können Daten in den Speicher eines anderen Prozessors geschrieben (PUT) oder aus diesem gelesen werden (GET). Dies erleichtert in vielen Fällen nicht nur das Programmieren, sondern kann auch die Leistung einer Applikation beträchtlich erhöhen. Stellen wir uns z.B. ein Programm vor, bei dem ein Prozess Daten in einen Speicherbereich schreibt, alle anderen Prozesse diese Daten nur lesen. Damit Prozesse sich nicht wild gegenseitig den gesamten Speicher manipulieren können, werden sogenannte Windows definiert, innerhalb denen nur ein Remote Memory Zugriff möglich ist (Abb.3).

Abb.3: Remote Memory Access

Die Neuerungen beim I/O wurden in einem eigenen Projekt (MPI-IO) entwickelt. Benutzer, die sich mit den Möglichkeiten des Parallelen Filesystems (PIOFS) auf der IBM SP2 näher auseinander gesetzt haben, werden hier vieles wiedererkennen. Grundsätzlich geht es darum, verteilt auf den einzelnen Prozessoren vorliegende Daten in sinnvoller und effizienter Weise in ein logisches Objekt (gemeinsamer record) zu schreiben. Der einfachste Fall wäre z.B. wenn Prozess 1 den Anfang des Files beschreibt, dann Prozess 2 seine Daten ablegt usw. Da man aber die Daten sehr flexibel ablegen will (z.B. Prozess 1 schreibt Datum 1 und 11, Prozess 2 schreibt Datum 2 und 21 usw.), definiert man über filetypes und views wie die Daten abgelegt werden und welche Sicht jeder Prozessor auf die Daten hat (Abb. 4).

Abb. 4: MPI-I/0

Eine weitere Neuerung stellt auch das dynamische Prozess-Management dar. Dabei können nun von einem Elternprozess weitere Prozesse gestartet werden. Dies kann z.B. dazu genutzt werden, fertig vorliegende parallele Programme (z.B. ein Strukturmechanik- und ein Strömungsprogramm) miteinander zu koppeln.

Ist das nicht alles zu kompliziert ? Welche Hilfen bietet das LRZ ?

Ja und nein. Der vollständige MPI-2 Standard ist recht umfangreich und sehr komplex. Die Erfahrung zeigt aber, dass Benutzer es recht rasch lernen, mit einem Teil der angebotenen Möglichkeiten von MPI umzugehen und beachtliche wissenschaftliche Erfolge erzielen. Das LRZ ist darüber hinaus bemüht, Benutzern bei der Parallelisierung ihrer Programme zu helfen und geeignete Online-Tutorials bereitzustellen. Weiterhin plant das LRZ in Zusammenarbeit mit den Firmen Siemens und Pallas, ein Tutorial zu MPI-2 zu veranstalten. Näheres wird nach Abschluss der Planungen bekanntgegeben.

Wo gibt es weitere Informationen ?

Eine Vielzahl von Informationen zu MPI erhält man über die MPI-Homepage:

http://www.mcs.anl.gov/mpi/

Hier gibt es auch Verweise auf Online-Tutorials und Antworten auf Frequently Asked Questions. Auch die durchaus lesenswerten Standarddefinitionen sind als PostScript-Files abrufbar.

Informationen zu MPI an der VPP700 erhält man unter:

http://www.lrz-muenchen.de/services/compute/vpp/message_passing/

Matthias Brehm
E-Mail: Brehm@lrz.de

Secure Shell auf IBM SP2

Seit kurzem gestattet auch die SP2 als letzte Hochleistungsplattform den Zugang mittels Secure Shell (ssh). Unter Verwendung des "Rotating Alias Mechanismus an der SP2" startet man die Login-Prozedur mittels:

ssh sp2.sp2.lrz-muenchen.de -l mein_benutzer_name

Das LRZ empfiehlt ausdrücklich die Verwendung dieser sicheren Alternative zu rsh, rlogin und telnet.

Eine ausführliche Beschreibung findet sich in dem Artikel

http://www.lrz-muenchen.de/services/compute/ssh/

Reinhold Bader
E-Mail: Bader@lrz.de

Gaussian 98 verfügbar

Die neueste Version des quantenchemischen Programmpaketes Gaussian 98 ist nun auf allen Hochleistungssystemen des LRZ (Fujitsu VPP700, IBM SP2, Cray T90) und auf einer IBM R50 Workstation (ibmben) verfügbar. An der Cray T90 und IBM SP2 steht eine parallelisierte Version von Gaussian 98 bereit. Die neue Version enthält in fast allen Modulen Verbesserungen gegenüber der Vorgängerversion Gaussian 94. An neuen Berechnungsmöglichkeiten bieten sich unter anderem:

  • Berechnung in Lösungsmitteln
  • Schnelle Multipolmethoden für SCF-Berechnungen
  • Molekülmechanische Berechnungen erlauben die Entwicklung neuer Kraftfelder, z.B. für Radikale
  • Das ONIOM-Schalenmodell erlaubt es, Schalen mit unterschiedlicher Genauigkeit zu rechnen, und somit Rechenzeit zu sparen, indem man sich auf die wesentlichen Molekülteile konzentriert. Damit können nun auch sehr große Moleküle, die von biologisch/pharmakologischem Interesse sind, behandelt werden.
  • Semi-empirische Methoden können nun bei Systemen mit hunderten von schweren Atomen verwendet werden.

Welcher der LRZ Rechner eignet sich für meine Probleme am besten ?

Diese sehr oft gestellte Frage lässt sich nicht allgemein beantworten, bei Bedarf sollten deshalb geeignete Testrechnungen durchgeführt werden. An dieser Stelle können nur ein paar allgemeine Hinweise gegeben werden

  • Fujitsu VPP700: große Probleme, die viel Memory benötigen oder die bei Out-of-core-Rechnungen das Memory-residente Filesystem benutzen können; Rechnungen im Batchbetrieb.
  • Cray T90: große Probleme, Probleme mit viel I/O-Aktivität; Rechnungen im Batchbetrieb.
  • IBM SP2: kleine bis mittlere Probleme und Probleme, die die parallelisierten Module von Gaussian benutzen können; Rechnungen im Interaktiv- und Batchbetrieb.
  • IBM R50: kleine Probleme; Rechnungen im Interaktivbetrieb.

Weitere Hinweise zu Gaussian und zur Nutzung von Gaussian 98 auf den LRZ-Rechnern finden Sie unter:

http://www.lrz-muenchen.de/services/software/chemie/gaussian/

Matthias Brehm
E-Mail: Brehm@lrz.de

Anhang

Aktuelle Landes-, Campus- und Sammellizenzen am LRZ

Zur Zeit können mehrere Software-Produkte für Zwecke der Lehre und Forschung zu günstigen Bedingungen über das LRZ bezogen werden.

Dieser Anhang enthält sowohl eine Kurzbeschreibung dieser Programme als auch eine Übersichtstabelle, die deren Verfügbarkeit an verschiedenen Plattformen zusammenfaßt. Landeslizenzen sind gesondert gekennzeichnet. Umfangreiche Produktsammlungen sind kursiv dargestellt.

Weitere Einzelheiten sind unter

http://www.lrz-muenchen.de/services/swbezug/lizenzen

zu finden.

Produkt

 

Landes-Lizenz?

Plattformen

Personal-Computer

Unix-

Systeme

3D Studio MAX

3D-Animationssoftware der Firma
Autodesk

 

Win 95

Win NT

 

Adobe

Verschiedene Software-Produkte der Firma Adobe

 

Win

Mac

nur einige Produkte für verschiedene Unix-Systeme

AIT

Cray-Workstation-Verbindungswerkzeuge

Ja

 

SunOS 4.1

Irix 3.3 +

Ultrix 4.1

AFS

verteiltes Dateisystem

 

 

X

AMD

Autodesk Mechanical Desktop

Zusatzpaket zu AutoCAD für die 3D- Konstruktion im Anwendungsbereich Maschinenbau

 

Win 95

Win NT

 

AutoCAD

2D-/3D-Computer-Aided-Design-System der Firma Autodesk
Release 13 oder 14

 

DOS

Win

Solaris
(nur Rel.13)

HP-UX

AIX

Irix

AVS

Visualisierungssystem

Ja

Win

X

BSD/386

Unix-Implementierung für PC

 

PC ab 386

 

Corel

Verschiedene Softwarepakete der Firma Corel Word Perfect Suite u.a.

 

DOS

Win

Mac

gängige Unix-Plattformen

DECcampus

Anwender- und System-Software der Firma DEC

 

 

versch. DEC-Betriebs-Systeme

ERDAS

Rasterbildsoftware

 

Win

X

ESRI

Geographische Informationssysteme

 

Win

X

FTN90

Fortran-90-Compiler der Firmen NAG und Salford

 

DOS

Win

Linux

 

FuLP

Verschiedene Softwareprodukte der Firma Inprise (vormals Borland)

Ja

Win

DOS

 

HP-Software

Compiler und weitere System-Software der Firma HP

 

 

HP-UX 10.0

IBM-Software

Compiler und weitere Software der Firma IBM

 

 

AIX

IDL

Grafik- und Bildverarbeitung

 

Win

Linux

Mac

X

IMSL

Fortran-Unterprogrammbibliothek

 

X

X

KHOROS

Visualisierungssystem

Ja

 

X

Lars

Archivierungs- und Recherche-System
(Bezug über ASKnet)

 

DOS

Win

 

LRZ-Grafik

Grafikpaket

Ja

DOS

X

Maple

Computer-Algebra-System

 

Win

Mac

OS/2

X

Mathematica

Computer-Algebra-System

 

Win

Mac

X

Micrografx

Verschiedene Produkte aus dem Bereich Grafik

Ja

Win

 

MLA

Netware und weitere Produkte der Firma Novell

 

X

 

NAG

Fortran-Unterprogrammbibliothek

Ja

DOS

X

OnNet

TCP/IP für PCs (Bezug über ASKnet)

 

Win

 

OnNet32

TCP/IP für PCs (Bezug über ASKnet)

 

Win

 

OSF/DCE

Verteilte Anwendungen

 

 

X

OSF/Motif

Toolkit für Window System X11

 

 

X

PC/TCP

TCP/IP für PCs
(Bezug über ASKnet)

 

DOS

Win

 

PC-TeX

Textsatzsystem Tex (incl. LaTeX)

 

Win

 

Pro/Engineer

CAD/CAM-3D-Modellierer für den Bereich Maschinenbau

Ja

Win

X

SAS

Statistik-Programmsystem

 

Win

 

ScholarPAC

Software und Betriebssystem-Wartung von Sun Microsystems GmbH

 

X 86
(Solaris
für PC)

Solaris

Select

Microsoft-Software aus den Bereichen Anwender-, System- und Server-Software

 

DOS

Win

Mac

 

Softbench

CASE-Tool

 

 

HP-UX

SunOS 4.1.x

Solaris 2.x

Dr. Solomons
Anti-Virus
Toolkit

Software zum Schutz gegen Computerviren

Ja

DOS

Win

OS/2

Mac

Netware

 

SPSS

Statistik-Programmsystem

 

DOS

Win

Mac

 

SPSS
Science

Statistik-Software-Pakete
(AllClear, AMOS, BMDP Classic, DBMS/COPY, DeltaGraph, LogXact, Systat, SIGMAStat und weitere Produkte)

 

X

 

StarOffice

Office-Paket der Firma StarDivision

 

DOS

Win

Linux

Mac

OS/2

Solaris

Irix

SYSTAT

Statistik-Programm

 

Win

Mac

 

Trumpet
Winsock

TCP/IP für MS-Windows (mit PPP)

 

Win 3.X

 

TUSTEP

System von Textverarbeitungsprogrammen

 

DOS

Win

Linux

 

UniChem

Quantenchemieprogramm

Ja

 

Irix 3.3.1 +

Irix 4.0.1 +

Varsity

Compiler und weitere Software der Firma SGI

 

 

Irix

X: auf allen gängigen Plattformen der jeweiligen Rubrik verfügbar

+: diese Systemversion oder höher

Kursiv gedruckt sind die Namen umfangreicher Produktsammlungen