Die "simulierte" Forschung
Astronomie, chinesische Politik oder neue Medikamente: Computermodelle sind in der Forschung zum unverzichtbaren Werkzeug geworden, um das Verhalten von komplexen Systemen möglichst genau vorherzusagen. Simulationen erlauben den wahrscheinlich seriösesten Blick in die Zukunft, der zurzeit vorstellbar ist. Neue Möglichkeiten durch immer bessere Rechenleistungen lassen Aufbruchstimmung entstehen.
Seit es Computer gibt, helfen sie dem Menschen dabei, Probleme zu lösen. Eines der ersten Computerexperimente wurde 1953 in Los Alamos (New Mexico, USA) durchgeführt. Beim sogenannten Fermi-Pasta-Ulam-Tsingou-Experiment untersuchte man das Schwingungsverhalten komplexer Systeme mit Hilfe des Universalrechners MANIAC I (Mathematical Analyzer Numerical Integrator And Computer Model I). "Was man historisch zuerst versucht hat zu simulieren, sind Spin-Modelle, stark vereinfachte Modelle für magnetische Materialien", erklärte der Komplexitätsforscher Stefan Thurner gegenüber APA-Science die Anfänge der Computersimulation.
Bis heute profitieren die Materialwissenschaften von der Simulation. Man weiß, wie die Atome aussehen, wie sie interagieren und der Computer errechnet daraus ein Aggregat von Eigenschaften: Ist das Material magnetisch oder nicht, leitet es elektrischen Strom, wann ist es rau, wann glatt oder durchsichtig. "Wie die Interaktionen und die Eigenschaften der Atome sind, das sagt mir die Quantenmechanik", so Thurner. Neue Materialien mit ganz neuen Eigenschaften im Labor zu entwickeln sei dagegen wie die Nadel im Heuhaufen zu suchen.
Gleiches Grundprinzip - unzählige Anwendungen
Das Grundprinzip von Simulationen ist bis heute unverändert geblieben, sagt Thurner: "Nur dass die Atome jetzt menschliche Akteure sind oder Institutionen, die Entscheidungen treffen müssen. Und die Wechselwirkungen sind nicht nur noch Quantenmechanik, sondern die sind anderer Art." Beispiele für den Einsatz von Simulationen finden sich quer durch alle Innovations- und Forschungsbereiche: Regen, Erderwärmung und Beben, die Verhaltensweisen von Verkehrsteilnehmern oder neue Therapien und Wirkstoffe können im Computer modelliert beziehungsweise prognostiziert werden.
In der Industrie wird einem physikalischen Objekt immer öfter ein "digital twin" zu Seite gestellt, auch das spart Zeit und Kosten, etwa für die Wartung oder die Entwicklung von Prototypen (siehe "Lernen am Modell der Industrie"). Und auch in der Stadtplanung gilt: "Ohne Simulation geht praktisch gar nichts", wie Bernhard Lipp, Geschäftsführer des Österreichischen Instituts für Baubiologie und -ökologie (IBO) erklärt. Mittlerweile werden selbst Quantencomputer simuliert, deren Technologie zwar erst in Ansätzen existiert, aber dennoch auf konventionellen Computern nachgestellt werden kann (siehe "Forscher testen Quantencomputer am Desktop-PC").
Prognosen und Glaskugeln
Voraussetzung für brauchbare Prognosen und Modelle sind eine hohe Quantität und Qualität ihres wichtigsten Rohstoffs: Daten. "Bisher hat man sehr oft, wenn man versucht hat soziale Systeme, Meinungsbildungsprozesse oder Wirtschaftsabläufe zu simulieren, einfach Annahmen getroffen, die geradezu idiotisch sind", so Thurner über eine seiner Ansicht nach lange Zeit relativ unkritisch praktizierte Herangehensweise.
Die Conclusio daraus für die Arbeit am vom Thurner geleiteten Complexity Science Hub (CSH) Vienna: "Wir wollen keine Annahmen treffen." Aus Big Data, aus Millionen von Beobachtungen erkennt der Computer Interaktions- und Verhaltensmuster und das resultierende Modell sollte "prädiktiven Wert haben und reproduzierbar sein", so der Anspruch.
Nicht jedes System eignet sich gleichermaßen für akkurate Vorhersagen. Wo das mittlerweile schon gut gelingt, sind Finanznetzwerke. Mit der neuen Generation von agentenbasierten Modellen - viele kleine Einheiten (Agenten) haben Entscheidungs- oder Handlungsmöglichkeiten - können frühere, nicht quantifizierbare Annahmen (Bank A ist risikoavers, Bank B ist profitgierig) komplett durch handfeste Fakten ersetzt werden. "Man kennt von jeder Bank jede Transaktion, und das über zehn Jahre hinweg", schwärmt der "Wissenschafter des Jahres 2017" von völlig neuen Möglichkeiten.
So könne man genau beobachten, wie sich eine Bank etwa an Tagen mit großen Kursschwankungen verhält, wie sie mit Handelspartnern agiert und wie sie reagiert, wenn die Zentralbank die Zinsen erhöht oder senkt. Die so gesammelten Zehntausenden täglichen Datenpunkte ergeben dann über ein paar Jahre hinweg ein solides Modell: "Dann kann ich ganz andere Aussagen machen wie systemisch risikoreich eine Bank ist."
Modellrepublik der Zukunft
Auf ähnlicher, nur noch größerer Skala beginnen die Komplexitätsforscher am CSH nun das gesamte österreichische Wirtschaftssystem Eins-zu-Eins nachzubilden. "Wir haben einen Simulator, den wir auf der kleinsten Granulationsstufe laufen lassen können, die möglich ist: nämlich auf Individuen", erklärt Thurner. Jeder Bewohner der Republik wird in dem Modell als Avatar dargestellt, ebenso wie jedes Unternehmen. Auch ist jede staatliche Einrichtung darin zu finden, die über Steuern oder Gebühren finanziert ist und diese Gelder zum Beispiel in Infrastruktur investiert oder in Form von Lehrergehältern, Kinderbeihilfen, Arbeitslosengeld oder Pensionen auszahlt. "Das sind alles Datensätze, die öffentlich sind", so Thurner: "Das füttern wir in unser Modell hinein und dann können wir diese Modellrepublik in die Zukunft hineinlaufen lassen."
Mit diesem agentenbasierten Modell sind alle möglichen Interaktionsmuster der Akteure nun berechenbar. Für ein paar Quartale lasse sich das Wirtschaftswachstum schätzen - nicht nur der gesamten Republik, sondern auch von jedem "Agenten" darin, von der alleinerziehenden Mutter über kleine Architekturbetriebe bis zur Bauindustrie. Für den Komplexitätsforscher ist das keine Zukunftsmusik mehr. Was bei Flugsimulatoren und Wettervorhersagen technisch bereits möglich geworden ist, gelte auch für soziale Systeme - wenn die Daten passen: "Dem Computer ist's ja wurscht."
Wie viel Segen bringt viel Regen?
In der ersten Publikation, die auf diesem Projekt basiert, haben die Forscher eine Wetterkatastrophe simuliert. Was, wenn es in Österreich plötzlich so viel regnet wie es die letzten 1.500 Jahre nicht mehr geregnet hat? Man kennt die Topografie in Österreich und kann vorherberechnen, wie viel Wasser an jedem Punkt im Land steht. Keller werden überschwemmt, Katastrophenfonds werden angezapft, die Bauindustrie bekommt verstärkt Aufträge - es kommt eine Dynamik in das ganze System.
"Damit stören wir die Modellrepublik und auf diese Störung reagiert sie", erklärt der Experte. "Dann können wir ein bisschen in die Zukunft rechnen, wie jeder Wirtschaftssektor anspringt oder auch drastisch verliert aufgrund dieser Wetterkatastrophe und wir können aufzeigen, bis zu welchem Grad das System belastbar ist." (Kapital-)Reserven können nicht unendlich angegriffen werden, irgendwann hört die Resilienz auf. Thurner: "Bis zu einem gewissen Punkt ist das System selbstheilungsfähig und dann bricht es. Wo ist der Punkt?"
Vienna Scientific Cluster
Solche und andere große Simulationen benötigen enorme Rechenpower. Viele dieser Projekte laufen daher nicht über den Büro-Laptop der Forscher, sondern über den leistungsstärksten Computer Österreichs, den Vienna Scientific Cluster (VSC) in Wien. Der seit 2009 sukzessive ausgebaute Hochleistungsrechner-Verbund wird von den Universitäten Wien, Graz, Innsbruck und Klagenfurt, den Technischen Universitäten Wien und Graz, der Universität für Bodenkultur und der Montanuniversität Leoben betrieben.
"Der Stellenwert des Scientific Computing ist im Steigen. Wir beobachten, dass es sich von Gebieten wo es schon seit Jahrzehnten stark verbreitet ist, auf andere Bereiche ausdehnt", erklärte Herbert Störi, wissenschaftlicher Leiter des VSC von der Technischen Universität (TU) Wien, bei einem Lokalaugenschein in der Großforschungseinrichtung am Arsenal. "Früher hatten wir Scientific Computing größtenteils im Bereich der Physik - Materialien, Plasmen - oder Ingenieurswissenschaften, wo es um mechanische Festigkeiten oder um das Strömungsverhalten geht", sagte Störi. Jetzt sehe man vermehrt Projekte aus Biologie und Medizin, der Wetter- und Klimaforschung. Aber auch die Digital Humanities seien im Kommen.
2017 hatte der VSC in der "Top 500"-Liste der weltweit mächtigsten Supercomputer noch Platz 330 belegt, mittlerweile ist er dort nicht mehr vertreten ("Summit" von IBM steht derzeit an der Spitze). Das tut der Forschung am VSC keinen Abbruch. Ein Blick in die aktuelle Broschüre zeigt die Bandbreite der jüngsten Forschungsprojekte: "Big Data hilft, chinesische Politik zu verstehen", "Der Herzschlag im Computer", "Den Föhnwind verstehen". Mehr als 900 Publikationen sind insgesamt bereits aus dem VSC hervorgegangen, derzeit laufen dort ca. 300 Projekte mit 1.200 individuellen Nutzern.
Energieeffiziente Computer in Öl
Die dritte Ausbaustufe des Supercomputers, der seit 2014 in Betrieb befindliche VSC 3, befindet sich in einem gut 100 Quadrameter großen Raum voller Wannen mit Computerkomponenten, die von Öl bedeckt sind, das der Kühlung dient. Dieser gut marinierte Kabelsalat verbraucht deutlich weniger Strom als sein luftgekühltes Vorgänger-Pendant VSC 2, das ein paar Türen weiter deutlich geräuschvoller noch immer seiner Arbeit nachgeht.
Rechenzeit für Projekte kann das wissenschaftliche Personal von zahlreichen, vorwiegend österreichischen Universitäten, einreichen. Voraussetzung ist, dass es sich um ein Projekt handelt, das im "Peer-Review"-Verfahren begutachtet wurde. Aktuell ist das Ausschreibungsverfahren für die nächste Stufe, den VSC 4, in Gange. Geht alles nach Plan, könnte der neue Computercluster ab Anfang 2019 zumindest den Probebetrieb aufnehmen, so Störi.
Die Welt verstehen aus den Eigenschaften der Bauteile
Ohne große Infrastruktur-Einrichtungen wie den Vienna Scientific Cluster wäre eine aufwendige Berechnung wie jene des gesamten österreichischen Wirtschaftssystems unmöglich, räumt Stefan Thurner ein. Man stehe heute in einer schönen Tradition der ersten Computerpioniere: "Die ersten Leute, die Computer gebaut haben, haben schon gedacht wie wir jetzt denken. Nämlich dass man die Welt verstehen kann aus den Eigenschaften der Bauteile und aus den Eigenschaften der Interaktionen heraus. Um welches System es dabei geht, ob das ein primitiver Magnet ist oder die Volkswirtschaft, ist eigentlich egal, wenn die Rechenleistung stimmt und die Daten vorhanden sind. Und beides erschließt sich uns gerade und es gibt eine wahnsinnige Aufbruchstimmung."
Von Mario Wasserfaller / APA-Science