Vienna Scientific Cluster: Ein Rechenzentrum für die Forschung
Bei der Beantwortung wissenschaftlicher Fragestellungen greifen Forscher bereits seit geraumer Zeit auf Supercomputer zurück. Die zur Zeit schnellsten Rechner Österreichs im Dienste der Forschung sind am Vienna Scientific Cluster (VSC) zusammengefasst. Die erste Anlage mit dem Namen VSC-1 erreichte bei seiner Inbetriebnahme im Jahr 2009 Platz 156 in der Liste der weltweit schnellsten Hochleistungsrechner. Mit dem VSC-3+ wird noch heuer die dritte Ausbaustufe in Betrieb gehen. Trotz der Erfolge beim Aufbau der Forschungs-Computerinfrastruktur, kritisieren Experten in einer Studie das Fehlen einer nationalen Gesamtstrategie in dem Bereich.
Von 2009 an wurde der VSC sukzessive erweitert. Der VSC-1 erreichte mit Gesamt-Investitionskosten von rund zwei Mio. Euro 35 Billionen Rechenschritte pro Sekunde (35 Teraflops). Die zweite Ausbaustufe (VSC-2) wurde 2011 in Betrieb genommen und erreichte anfangs 135 Teraflops, bei einer Investitionssumme von 4,2 Mio. Euro. Im Juni 2011 belegte der Rechner mit der Ausgangsleistung weltweit Platz 56. Das aktuelle Ranking (Stand November 2013) weist den VSC-2 mittlerweile mit 182,8 Teraflops immerhin noch auf Platz 303 aus.
Rückkehr in die Top-100 mit dem VSC-3+
Diese Marke wird der VSC-3+ deutlich übertreffen: Laut Informationen der für den Betrieb der Anlage zuständigen Zentralen Informatikdienste der beteiligten Universitäten wird das System eine Höchstperformance von 584 Billionen Rechenschritte erreichen und einen Arbeitsspeicher von unglaublichen 113,66 Terabyte haben. Im aktuellen Ranking würde das in etwa Platz 65 und somit die Rückkehr in die Top-100 bedeuten. Zum Vergleich: Am Swiss National Supercomputing Centre (CSCS) in Lugano werden 7.788,9 Teraflops erreicht (Platz 6), mit 54.902,4 Teraflops führt das National Super Computer Center in Guangzhou (China) die Rangliste an.
Wurden die ersten beiden Ausbaustufen noch von der Universität Wien, der Technischen Universität (TU) Wien und der Universität für Bodenkultur (Boku) betrieben, erweitert sich die Runde der Partner beim VSC-3+ um die Universität Innsbruck und den Universitäten-Cluster Süd, bestehend aus TU Graz, Uni Graz, Uni Klagenfurt und Montanuniversität Leoben. Damit stehen die Rechenkapazitäten nun weiten Teilen der heimischen universitären Forschungslandschaft zur Verfügung. Finanziert wird der neue Supercomputer gemeinsam von den beteiligten Universitäten im Rahmen ihrer Leistungsvereinbarungen mit dem Wissenschaftsministerium.
Auf dem Datenberg
Derart hohe Rechenleistungen sind in vielen Forschungsgebieten stark gefragt. Mit dem zunehmend detaillierten Verständnis für hochkomplexe Abläufe aller Art, wird es für Forscher immer wichtiger, Prozesse in die Formelsprache der Mathematik zu übersetzen, um sie dann in umfangreichen Simulationen am Computer durchzuspielen. Je komplexer die Systeme werden, über die die Wissenschaft mehr erfahren möchte, desto mehr Daten fallen in der Regel an. Solche Datenberge können schon lange nicht mehr "zu Fuß" erklommen werden, es braucht Rechenmaschinen wie die am Großlabor-Standort der TU Wien am Arsenal im Dritten Wiener Gemeindebezirk, die die Berge Schritt für Schritt abtragen helfen.
Wie schnell sich vermeintlich simple Rechenaufgaben zu schier unüberschaubaren Zahlenkolonnen auswachsen können, illustriert das berühmte "Travelling Salesman Problem" in der Informatik: Ein Handelsreisender muss eine Reihe von Orten in beliebiger Reihenfolge besuchen und soll dabei die Route so planen, dass die kürzesten Wege zwischen den Orten abzufahren sind. Sind es viele Orte, die auf der Liste stehen, erhöht sich die Anzahl der theoretisch möglichen Reihenfolgen rasant. Um die definitiv beste Option zu wählen, müssen alle Kombinationsmöglichkeiten abgearbeitet und verglichen werden. Das übersteigt bald auch die Kapazitäten sehr leistungsfähiger Computer.
Rechnerische Abkürzungen für die Rettung
Ein Forschungsteam um Richard Hartl von der Universität Wien nützt die VCS-Rechenleistung etwa, um kluge Computer-Algorithmen zu entwickeln, mit denen die Tourenplanung für Krankentransporte möglichst effizient gestaltet werden soll. Diese Touren optimal zu planen ist eine mathematische Herausforderung, besonders da es auch unvorhergesehene Ereignisse wie Staus oder Zusatzaufträge zu berücksichtigen gilt. In Zusammenarbeit mit Kollegen von der Universität Linz geht es den Forschern nicht darum, die ultimativ beste Variante herauszuarbeiten, sondern Strategien für mathematische Abkürzungen (Heuristiken) zu entwickeln, mit denen in möglichst wenigen Rechenschritten gute Ergebnisse erzielt werden können. So sollen Rettungswägen zukünftig schneller an ihr Ziel gelangen.
Auch in vielen Bereichen der Physik kommt man ohne umfangreiche Computersimulationen nicht mehr aus. Vor allem, wenn es darum geht, herauszufinden, was in Materialien auf der atomarer Ebene vor sich geht, wird oft am Rechner nach Antworten gesucht. Aber auch exotischen physikalischen Phänomenen gehen Wissenschafter in Simulationen auf den Grund.
Schwerelosigkeit im Computer
So analysieren etwa Physiker der TU Wien wie sich Teilchen in einem Tropfen in Schwerelosigkeit in relativ kurzer Zeit zu regelmäßigen Bändern zusammenfügen. Die treibende Kraft dahinter ist die Oberflächenspannung. Am VSC laufen Computerberechnungen mit denen Experimente in Schwerelosigkeit vorbereitet werden, die dann auf der Internationalen Raumstation ISS durchgeführt werden sollen. Die Flüssigkeitsströmung muss mit sehr hoher Auflösung berechnet werden, um exakte Ergebnisse zu erhalten. Die Simulationen sind daher äußerst komplex. Ohne einen Großrechner wie den VSC wären solche Berechnungen nicht möglich, heißt es in einer Aussendung der TU Wien.
Die möglichen Einsatzgebiete für Großrechner sind jedenfalls sehr breit gefächert: Biologen berechnen etwa, wie sich kleine Kanäle in Zellmembranen öffnen und wieder schließen, Meteorologen arbeiten an Modellen, um die Genauigkeit von Wettervorhersagen zu erhöhen, Klimaforscher rechnen ihre Prognosen zur Klimaerwärmung am VSC oder Astronomen analysieren Daten, die von Teleskopen kommen, die Vorgänge in weit entfernten Teilen des Universums beobachten.
Keine einheitliche Strategie für Computerinfrastruktur
Trotz der Fortschritte im Aufbau von adäquater Rechnerinfrastruktur für wissenschaftliche Zwecke wird in der vom Infrastrukturministerium und der Forschungsförderungsgesellschaft FFG in Auftrag gegebenen Studie "Conquering Data in Austria" kritisiert, dass sich in Österreich mehrere Initiativen nebeneinander und weniger miteinander auf dem Feld engagieren. Neben dem VSC gibt es beispielsweise mit dem Austrian Centre for Scientific Computing (ACSC) einen Zusammenschluss aus Universitäten, Fachhochschulen sowie anderen Bildungseinrichtungen zur Förderung aller Aspekte im Bereich des wissenschaftlichen Hochleistungsrechnens. "Der VSC ist die größte Hochleistungs-Computerinfrastruktur, die in Österreich zur Verfügung steht, während das ACSC seinen Mitgliedern mehrere Infrastrukturen mit verschiedener Software und Computerarchitektur [...] zur Verfügung stellt. Ein gemeinsamer Zugang zur gesamten Infrastruktur ist nicht verfügbar", wird in der Analyse angemerkt.
Vernetzung zwischen den verschiedenen Plattformen im Inland und darüber hinaus, finde nur in geringem Ausmaß statt. Eine gemeinsame Strategie sei laut den Studienautoren von der Wiener Firma "max.recall information systems GmbH" und der TU Wien daher nicht verwirklicht. "Österreich ist eines von nur wenigen europäischen Ländern, das kein nationales akademisches Datenzentrum betreibt, Computerinfrastruktur aber in einem kompetitiven Umfeld zwischen Universitäten und Forschungsinstitutionen aufbaut". Diese Strategie führe zu einer "extrem fragmentierten Computer-Landschaft", so die Experten.
Internet:
Der VSC: http://vsc.ac.at/
Die Liste der 500 schnellsten Computer der Welt: http://www.top500.org
Die Studie "Conquering Data in Austria": http://go.apa.at/CzkLTBpX
Das Austrian Centre for Scientific Computing (ACSC): http://acsc.uibk.ac.at/