Dossier

Supercomputer und Unmengen an Daten für Modelle unverzichtbar © APA (dpa)
4
Dossier

Regen, Erderwärmung und Beben - alles simuliert

Dossier

28.06.2018
  • Von Jochen Stadler / APA-Science

  • Wien (APA-Science) - Ob das Wetter am nächsten Tag einen Wanderausflug zulässt, unter welchen Umständen das Klima für die nächste Generation auf der Erde noch erträglich ist, und wann man wegen eines Erdbebens rasch Schutz suchen soll, verraten Computer heutzutage mitunter auf Tastendruck. Dahinter stecken hoch entwickelte Simulationen und Unmengen von Daten, Testläufen und geballtes Wissen, erklärte Christoph Wittmann von der Fachabteilung Modellentwicklung der österreichischen Zentralanstalt für Meteorologie und Geodynamik (ZAMG) in Wien im Gespräch mit APA-Science.

  • Bei Wettervorhersagen funktioniert zum Beispiel gar nichts mehr ohne Simulationsmodelle, Supercomputer und Daten von Bodenstationen, Satelliten und Flugzeugen. Es gibt Globalmodelle, die das Wetter für den gesamten Erdball vorhersagen, sowie Lokalmodelle, die zum Beispiel für den Alpenraum um vieles detailreicher Regen, Sonnenschein oder andere Wettererscheinungen für die nächsten Tage prognostizieren. "Man umspannt das ausgesuchte Gebiet mit einem dreidimensionalen Rechengitter und berechnet darauf die physikalischen Zustandsgrößen und deren zeitliche Entwicklung ", sagte Wittmann. Dazu braucht man möglichst exakte Informationen zum Ausgangszustand der Atmosphäre, die man aus einer Vielzahl an Beobachtungsdaten wie zum Beispiel von Bodenstationen, Satelliten, Flugzeugen und Wetterradars erstellt. Dann startet man das Wettermodell und der Computer löst ein komplexes System an Differenzialgleichungen auf dem Rechengitter, um dadurch die Wettererscheinungen der nächsten Tage zu ermitteln. Je nach Modellart kann der Vorhersagezeitraum auch schon mal zehn bis fünfzehn Tage oder mehr sein.

  • "Prognosen sind äußerst schwierig, vor allem wenn sie die Zukunft betreffen" - Mark Twain

  • Je weiter eine Wettervorhersage in die Zukunft geht, umso mehr Unsicherheitsfaktoren sind damit verbunden und umso weniger Details können wiedergegeben werden. "Einerseits hängt dies damit zusammen, dass die Modelle mit einem sehr feinen Rechengitter sowie hoher räumlicher und zeitlicher Auflösung nur zwei oder maximal drei Tage in die Zukunft gerechnet werden können", so Wittmann. Aus Rechnerkapazitätsgründen sind die Gittermaschen bei längerfristigen Modellen gröber gestrickt, und der räumliche und zeitliche Detailgrad der Prognosen verringert sich. Zweitens ist das Verhalten der Atmosphäre extrem "nicht-linear". Das heißt, dass in manchen Fällen bereits kleine Änderungen im Ausgangszustand große Schwankungen in der Entwicklung des Wetters am Folgetag bewirken können. Die Prognose ist dann mit entsprechend großen Unsicherheiten behaftet. Dies fließt freilich auch in die Abbildungen und Texte der Wettervorhersagen ein, die immer vorsichtiger und weiträumiger werden, je ferner man in die Zukunft blickt.

  • Moderne Wettersimulationen sind sehr rechenintensiv, man benötigt dazu Supercomputer. Die großen Wetter-Rechenzentren für globale Vorhersagen, wie etwa das Europäische Zentrum für Mittelfristige Wettervorhersage in Reading (GB) haben Supercomputer, die zu den stärksten der Welt gehören. Auch in der ZAMG auf der Hohen Warte in Wien stehe ein solcher, der zwar deutlich kleiner, aber immer noch ungeheuer leistungsstark sei, erläuterte Wittmann.

  • Lokal getunte aber weitverbreitete Modelle

  • Die Wettermodelle sind heutzutage so komplex, dass es für einen normalgroßen Wetterdienst quasi unmöglich ist, sich selbst eines zu basteln, sagte er: "Wir sind daher in einer Forschungskooperation mit 26 europäischen Wetterdiensten, die gemeinsam einen Wettermodellcode entwickeln". Ein Wettervorhersagemodell bestehe aus Millionen von Zeilen Quellcode und verschiedensten, komplex zusammenarbeitenden Modulen.

  • "Jeder Wetterdienst hat auch seine Spezialgebiete, bei denen er sich besonders einbringt, bei uns in Österreich sind das zum Beispiel die Entwicklung von Nebel im Winter und Gewittern im Sommer", erklärte Wittmann. Außerdem gäbe es bei den Modellen zahlreiche "Einstellschrauben", mit denen man sie an die lokalen Gegebenheiten anpassen kann, etwa ob es sich um eine bergige Gegend handelt, eine Küstenregion oder Flachland.

  • Freilich arbeiten die Wetterrechenfrösche stets daran, ihre Modelle zu verbessern. Ob die neue Version tatsächlich verlässlichere Prognosen liefert als die alte, könne man am Wetter der Vorjahre testen. Man rechnet mit der neuen Modellvariante für alle Tage eines vergangenen Jahres die Prognosen nach, und evaluiert sie anhand der Messdaten im Wetterarchiv. Außerdem werden sie an Extremereignissen überprüft. "Wenn man das tut, hat man die Sicherheit, dass eine neue Wettermodellvariante auch für die zukünftigen Vorhersagen besser als die alte funktioniert", meint der Forscher. Dennoch hätte jedes Modell seine Stärken und Schwächen. "Ein Wetterdienst wie die ZAMG verlässt sich deshalb nie auf ein einziges Wettermodell, sondern nimmt auch die Ergebnisse anderer Varianten für die Vorhersagen mit hinein", so Wittmann.

  • Klima und sein Wandel simuliert

  • Auch beim Klima und seinem Wandel sind Simulationsmodelle für die Forscher unabdingbar. Ohne Computersimulationen wäre die globale Erwärmung natürlich genauso Realität, aber nicht eindeutig auf den Menschen zurückführbar. Es war zwar von Messungen her unstrittig, dass in den vergangenen 100 Jahren die weltweite Durchschnittstemperatur um ein Grad Celsius gestiegen ist, die Ursachen dafür waren zunächst jedoch unklar. Erst mit Modellrechnungen konnte man nachweisen, dass natürliche Einflüsse wie Sonneneinstrahlungen und Vulkanausbrüche als mögliche Ursachen für die Veränderungen nicht ausreichten, sondern die menschliche Treibhausgasemissionen dafür hauptverantwortlich sind.

  • Bei der Untersuchung des Klimawandels und seiner Folgen bedient man sich heutzutage dreier verschiedener Modelltypen, erklärte Volker Krey vom Internationalen Institut für Angewandte Systemanalyse (IIASA) in Laxenburg bei Wien: "Integrierte Bewertungsmodelle" (Integrated Assessment Models) errechnen die Treibhausgasemissionskurven durch menschliche Aktivitäten bei unterschiedlichen sozioökonomischen Umständen und berücksichtigen dabei verschiedene technische Neuerungen und anderen Entwicklungen." Auf deren Basis könne die Politik Entscheidungen treffen, um die Emissionen zu reduzieren. "Globale Klima- und Erdsystem-Modelle" (General Circulation and Earth Systems Models) nehmen diese Treibhausgas-Emissionen als Grundlage und berechnen, wie sich diese auf die Temperatur, den Niederschlag und andere Klimawerte auswirken. Inwiefern diese Änderungen die Lebenswelt, zum Beispiel die Vielfalt von Pflanzen und Tieren, die Landwirtschaft, die Gletscher und vieles mehr beeinflussen, wird mit Klimafolgenmodellen (Climate Impact Models) untersucht. Wie wichtig diese Modelle sind, zeigt nicht zuletzt, dass die drei Arbeitsgruppen des Weltklimarats (Intergovernmental Panel on Climate Change IPCC) genau auf diese zurechtgeschnitten sind.

  • Altes Klima als Kontrolle

  • Genau so wie ihre Kollegen für Wettervorhersagen werden Klimamodelle anhand der Vergangenheit validiert, zum Beispiel, ob sie die Entwicklung ab der Industriellen Revolution seit der zweiten Hälfte des 18. Jahrhunderts verlässlich wiedergeben. Bei den Erdsystem- und Klimafolgensimulationen ist dies um einiges leichter als bei den Integrierten Bewertungsmodellen. "Bei diesen spielen viele politische Faktoren eine Rolle, zum Beispiel hätte kein Modell den Kollaps der Sowjetunion vorhersagen können, der immerhin zu einer kurzfristigen, deutlichen Senkung in den globalen Treibhausgasemissionen geführt hat", sagte Krey.

  • Derzeit arbeitet man bei allen Modelltypen daran, sie zu verfeinern und genauer zu machen. Bei den Erdsystem-Simulationen kann seit jüngster Zeit durch die verbesserten Rechnerleistungen etwa die Wolkenbildung einfließen. Zuvor waren die Computer-Kapazitäten zu gering, um jene Auflösung zu erreichen, diese für die Strahlungsbilanz sehr wichtigen Effekte einzubinden. Bei Integrierten Bewertungsmodellen wiederum kann man davon abgehen, die Menschen als durchschnittliche "repräsentative Konsumenten" abzubilden, sondern die unterschiedlichen Konsumententypen in die Modelle einspeisen. Dadurch wird es auch leichter, abzuschätzen, welche Bevölkerungsgruppen wie stark von Klimawandel-Vermeidungsstrategien betroffen sein werden, und die Politik kann soziale Schieflagen verhindern, also dass einkommensschwache Haushalte besonders darunter leiden, wie dies etwa bei vielen einfachen Steuermaßnahmen der Fall sei, so der Experte.

  • Robuste Aussagen und Zahlen

  • Manche Aussagen der Klimamodelle seien aber schon jetzt sehr verlässlich. "Dies liegt daran, dass sie sich auf mehrere Evidenzlinien stützen", meint Krey und weiter: "Es ist meist ein schlechtes Rezept, ein einziges Modell herzunehmen, es Zahlen ausspucken zu lassen, und einfach daran zu glauben". Die Aussagekraft der Modellergebnisse steht und fällt freilich auch mit der Qualität der Ausgangsdaten. Viele wichtige Variablen sind noch unzureichend bekannt, müssen abgeschätzt oder erst erhoben werden. So kommt es teils zu großen Schwankungen und Unsicherheiten. Zum Beispiel die Werte zur Schwankungsbreite des globalen Kohlenstoffbudgets, also der Gesamtmenge an CO2, die die Menschheit noch emittieren kann, um die Erderwärmung auf zwei Grad Celsius zu begrenzen, liegt zwischen 400 und über 2000 Gigatonnen, unterscheidet sich je nach Rechenweg also beinahe um den Faktor fünf. Die Unsicherheiten setzen sich einerseits aus noch ungewissen Reaktionen des Klimasystems und andererseits dem Beitrag der anderen Treibhausgases wie Methan und N2O zusammen. Wenn letztere stärker reduziert werden, gibt es mehr Spielraum beim CO2 und umgekehrt. Je niedriger man diese Emissionsmengen hält, umso höher ist freilich die Wahrscheinlichkeit, das Temperaturziel tatsächlich zu erreichen. Die grundlegende Notwendigkeit einer Transformation des Energie- und Wirtschaftssystems über die kommenden beiden Dekaden, um den Temperaturanstieg auf 2 Grad zu begrenzen, bleibt von diesen Unsicherheiten aber unberührt. Dafür arbeiten die Modelle robust genug, so Krey.

  • Simulation von Erdstößen und Tsunamis

  • Auch Erdbeben sind eine Naturgefahr, der Forscher mit Simulationen und Modellen nachstellen, um ihre Auswirkungen voraussagen zu können. Eine Vorhersage von Beben, wann und wo sie genau auftreten und wie stark sie sein werden, ist aber derzeit nicht möglich, sagte Götz Bokelmann vom Institut für Meteorologie und Geophysik der Universität Wien. Das Verhalten von Bruchlinien sei dafür viel zu "nicht-linear". "Wir müssten alle Eingangsparameter bis ins letzte Detail kennen, um ihr Verhalten abschätzen zu können", meint er. Bei der Erdbebenvorhersage sind die Forscher deshalb trotz großer Mengen an Messdaten und Simulationsmodellen auf rein statistische Aussagen angewiesen, also gewisse Zeiträume und Wahrscheinlichkeiten, dass in dieser oder jener Region die Erde beben könnte.

  • Sehr wohl könne man aber die Ausbreitung der elastischen Wellen nach einem Erdbeben modellieren. Dies bietet, wenn man dazu eine Echtzeitkomponente hinzufügt, auch sehr praktische und für die betroffenen Menschen hilfreiche Unterstützung im Unglücksfall. Auf Basis der schnellsten, noch kaum Schaden verursachenden Wellen kann man die jeweilige Ankunftszeit von langsameren, zerstörerischen seismischen Oberflächenwellen und Tsunamis modellieren. Dies wird in Japan automatisiert eingesetzt, und so kann man etwa die Bevölkerung rechtzeitig warnen und dazu aufrufen, schnell höhere Gefilde aufzusuchen, und Atomkraftwerke abschalten.

STICHWÖRTER
Klimawandel  | IT  | Wien  | Dossier  | Simulation  | Umwelt  | Wissenschaft  | Technologie  |

Dossier

Astronomie, chinesische Politik oder neue Medikamente: Computermodelle sind in der Forschung zum unverzichtbaren Werkzeug geworden, um das ...

Gastkommentare

"Politik(beratung) aus dem Computer"
von Anja Bauer
Alpen-Adria-Universität Klagenfurt und Österreichische Akademie der Wissenschaften
"Von der einfachen Computeranalyse zur internationalen Analog-Marsexpedition"
von Gernot Grömer
Österreichisches Weltraum Forum
"Simulation in der Archäologie - abseits von Hollywood"
von Georg Zotti
Ludwig Boltzmann Institut für Archäologische Prospektion und Virtuelle Archäologie (LBI ArchPro)
"Mit Simulationen die Zukunft explorieren"
von Sigrid Stagl
Institute for Ecological Economics der Wirtschaftsuniversität Wien

Hintergrundmeldungen

Digitalisierung soll Medikamente personalisieren © APA

Simulation - die Zukunft der Medizin?

Besser, billiger, schneller, schlauer, so muss die Medizin in Zukunft sein. Die ...
Supercomputer und Unmengen an Daten für Modelle unverzichtbar © APA (dpa)

Regen, Erderwärmung und Beben - alles simuliert

Ob das Wetter am nächsten Tag einen Wanderausflug zulässt, unter welchen ...
Simulation der Besucherströme (Punkte) im Schloss Schönbrunn; rot (grün) bedeutet hohe (geringe) Personendichte © AIT

Simulieren: Wenn "Trial and Error" nicht zielführend ist

Citymaut - ja oder nein? Bei hochemotionalen Fragestellungen wie dieser ließe ...
Auch das solare Potenzial kann berücksichtigt werden © IBO GmbH

Stadtplanung: Mehr Lebensqualität aus dem Computer

Ein Gebäude oder einen ganzen Stadtteil zu sanieren und zu optimieren, ist eine ...
Robert Wille (li.) und Alwin Zulehner © Doris Nikolaus

Quanten-Simulanten: Forscher testen Quantencomputer am Desktop-PC

Quantencomputer sollen einmal bestimmte Probleme schneller lösen als ...
Hoher Anteil an Visualisierung bei Entwicklung des AIT-Smart Grid Converter © AIT/Johannes Zinner

Lernen am Modell in der Industrie

Immer öfter wird in der Industrie einem physikalischen Objekt oder System ein ...
Im Living Lab herrscht klinisches Weiß © Siemens

Brotlose Kunst - Wieso Hefe mehr kann als backen

Wien (APA/APA-Science) - Der kleine Alleskönner Hefe kann viel mehr als nur ...

Mehr zum Thema