12. Nuklearsymposium: Die Möglichkeiten und Grenzen der Simulation von Unfällen in nuklearen Anlagen
Die computergestützte Modellierung von Reaktorunfällen bietet eine wichtige Grundlage für die Risikoanalyse. Doch in der Simulation von komplexen Anlagen wie Kernkraftwerken kann durch unberücksichtigte Ereignisketten oder nicht repräsentative Testbedingungen ein Rest an Unsicherheit bestehen bleiben.
Beim 12. Wiener Nuklearsymposium, einer Veranstaltung des Instituts für Sicherheits- und Risikowissenschaften der Universität für Bodenkultur Wien in Kooperation mit der Wiener Umweltanwaltschaft, stand die "Simulation von Unfällen nuklearer Anlagen und die Ausbreitung radioaktiver Stoffe" im Zentrum. Heimische und internationale Expert*innen gingen dabei der Frage nach, wo die Möglichkeiten, aber auch die Grenzen der computergestützten Simulation von Reaktorunfällen liegen und welche Bedeutung diese für die nukleare Sicherheit haben kann.
Nikolaus Müllner, stellvertretender Institutsvorstand am Institut für Sicherheits- und Risikoforschung (BOKU) beleuchtete in seinem Vortrag "Simulation von Reaktorunfällen" den Aspekt der nuklearen Sicherheit. Das Ergebnis computergestützter Simulationen von Reaktorunfällen ist eine der Säulen, auf Basis derer die Genehmigung, ein Kernkraftwerk zu betreiben, erteilt wird. Dabei werden auf vielen verschiedenen Ebenen Computersimulationen eingesetzt: angefangen bei Berechnungen zum Materialversagen eines Rohrleitungsabschnitts, über Störungen des Betriebs der gesamten Anlage bis hin zu Unfällen, die Kernschmelzen, Containmentversagen und Freisetzungen von radioaktiven Stoffen beinhalten. "Nun werden Simulationen von komplexen Anlagen wie Kernkraftwerken immer eine gewisse Unsicherheit aufweisen", so Müllner, der in Folge der Frage nachging, welche Unsicherheiten es gibt, wie diese abgeschätzt werden und wie die Ergebnisse schlussendlich in die Risikoanalyse einfließen.
Walter Giannotti, Leiter des Bereichs schwere Unfälle und radioaktive Folgen bei NINE (Nuclear and Industrial Engineering) in Pisa, erläuterte in seinem Vortrag "Validation approaches of codes for simulation of nuclear power plant accidents". Die Validierung ist der Prozess zur Bewertung der Fähigkeit eines Codes, die benötigten Ergebnisse ordnungsgemäß zu erzeugen. Die Verwendung von Softwarecodes für die Simulation wirft jedoch grundlegende Frage der Validierung auf, denn der Begriff "ordnungsgemäß erzeugen" hat bei den verschiedenen Ansätzen für die Analyse von Kernkraftwerken unterschiedliche Bedeutungen. Die Analyse unter Verwendung eines Codes kann nach zwei Hauptansätzen durchgeführt werden: dem konservativen und dem Best Estimate-Ansatz. Beim konservativen Ansatz überschätzt die Anwendung des Codes das Verhalten der Anlage, und die erzielten Ergebnisse werden daraufhin überprüft, ob sie innerhalb der Akzeptanzkriterien liegen. Der Validierungsprozess besteht in dem Nachweis, dass die Analyseergebnisse tatsächlich eine Überschätzung der Anlagenreaktion darstellen. Beim Best-Estimate-Ansatz liefert die Code-Anwendung eine realistische Anlagenantwort (realistisch nach dem Stand der Technik des Codes). Allerdings sind die realistischen Ergebnisse in der Regel mit einer gewissen Unsicherheit behaftet. Der Validierungsprozess zielt in diesem Fall hauptsächlich darauf ab, den Grad der Unsicherheit zu bewerten. Die realistischen Ergebnisse und die damit verbundene Unsicherheit werden mit den Akzeptanzkriterien verglichen. Die Konzepte der besten Schätzung und des konservativen Ansatzes werden auf die in der Analyse verwendeten Ausgangs- und/oder Randdaten und/oder auf die im Code enthaltenen Modelle angewendet. Giannotti beschrieb auch einige Beispiele von Validierungsverfahren für die beiden Analyseansätze.
Dr. Matthias Englert, Senior Researcher im Bereich Nukleartechnik & Anlagensicherheit am Ökologie-Institut e.V. in Darmstadt, widmete sich den "Grenzen der Modellierung". Die Sicherheit in Kernkraftwerken unterscheide sich von anderen Technologien, so Englert. "Kernkraftwerke müssen außerordentlich zuverlässig sein. So zuverlässig, dass das Versagen nicht empirisch vollständig getestet werden kann, da das Sammeln von aussagekräftigen Betriebsdaten zu lange dauert." In Kernkraftwerken kommen hochspezialisierte Prozesse, Materialien und Betriebsbedingungen zum Einsatz, mit denen es auch nach 60 Jahren Betrieb von Kernkraftwerken im Angesicht der Zuverlässigkeitsanforderungen nur begrenzte Erfahrungen gibt. Infolgedessen müssten sich Nuklearingenieure stärker als ihre Kolleg*innen in anderen Bereichen auf wissenschaftliche Modelle und ungeprüfte Annahmen stützen. Zuverlässigkeitsbeurteilungen müssen aus einem theorielastigen Verständnis der Funktionsweise des Systems abgeleitet werden, und alle Sicherheitsbeurteilungen sind nur so gut wie dieses Verständnis. Englert: "Die benötigten Wissensannahmen und Modelle erstrecken sich dabei über das ganze sozio-technische System: die Sorgfalt der Betreiber, die Verwundbarkeit der Anlagen gegenüber Angriffen, die Zuverlässigkeit physikalischer Reaktorsimulation, die langfristigen Ermüdungseigenschaften bestimmter Werkstoffe in unterschiedlichen Konfigurationen und Umgebungen, Klimaveränderungen und ihre Auswirkungen auf künftige Überflutungsanforderungen u. v. m." Durch unberücksichtigte Ereignisketten, unvollständige Modellvariablen, nicht repräsentative Testbedingungen, unvollkommene theoretische Annahmen und nicht vorhandene Empirie entsteht allerdings ein Unsicherheitsraum und damit ein Risiko für ein unerwartetes Versagen nicht nur der Reaktorbewertungen, sondern auch der Reaktoren selbst.
Kontakt: Mag. Dr. Nikolaus Müllner Institut für Sicherheits- und Risikowissenschaften Universität für Bodenkultur Wien nikolaus.muellner@boku.ac.at