"Selbstfahrende Autos auf dem Weg zum Recht"
Selbstfahrende Autos reagieren in Sekundenbruchteilen und damit schneller als der aufmerksamste Kraftfahrzeuglenker. Selbstfahrende Autos sind nicht müde, nicht unkonzentriert und nicht aggressiv, sie haben keine Alltagsprobleme und -gedanken, keinen Hunger und keine Kopfschmerzen. Selbstfahrende Autos trinken keinen Alkohol und fahren nicht unter Einfluss von Drogen.
Kurzum: Menschliches Versagen als Unfallursache Nummer 1 im Straßenverkehr wäre mit einem Schlag passé, würde man manuelles Fahren sofort verbieten. Oder? Stimmt, wären da nicht gerade auch aktuelle Berichte über zwei Todesfälle während einer Testfahrt mit einem selbstfahrenden Auto (UBER) sowie bei der Fahrt eines teilautomatisierten Fahrzeuges (Tesla), die eben erst beide im März 2018 in den USA bedauerlicherweise zu beklagen waren. Im Tesla-Fall ist noch unklar, ob der halbautonome Fahrassistent zum Unfallzeitpunkt eingeschaltet war.
Täglich sterben weltweit Menschen infolge von Unachtsamkeiten im Straßenverkehr, wobei ca. 90 % aller Unfälle auf menschliches Versagen zurückzuführen sind, aber ein nur geringer Teil eine das Kraftfahrzeug bezogene technische Ursache hat. Trotz menschlicher Fehler verbieten wir deshalb das Autofahren nicht. Zwei Unfälle mit tödlichem Ausgang mit automatisierten Fahrzeugen im Testbetrieb ziehen die gesamte mediale Aufmerksamkeit auf sich, und stellen die technische Entwicklung einer sich entwickelnden Industrie infrage. Ist das selbstfahrende Auto nun bloß ein Hype oder trotz jedes weiteren Menschenlebens, das durch Fehler selbstfahrender Technologie verloren gehen kann, ein nicht mehr aufzuhaltender Trend?
Für viele Beobachter erzeugt der Gedanke an ein in Zukunft völlig autonomes, also selbst fahrendes Auto ohne Lenker, Unbehagen. Die beiden aktuellen Todesfälle in den USA durch (teil-)automatisierte Fahrzeuge verursachen vielfach aber auch Angst. In rechtlicher Hinsicht ist es für Geschädigte selbst aber völlig egal, ob die Ursache für ein Unglück ein unachtsamer Mensch oder eine nicht ausreichend funktionierende Technologie ist. Der Grund für die dennoch vorgenommene Differenzierung liegt wohl darin, dass jeder menschliche Fehler ein eigenes Unglück darstellt, der Ausfall oder Fehler einer Technologie demgegenüber nicht als Einzelfall, sondern - verständlicherweise wohl in der Regel auch zu Recht - als System- oder Serienfehler einer zu einem bestimmten Zeitpunkt bestehenden Technologie.
Rechtlich stellt ein technischer Defekt zumeist auch einen Konstruktionsfehler dar, der die gesamte Serie einer Autobaureihe betrifft. Bei durch Softwarefehler verursachten Todesfällen verlieren Menschen in der Regel wohl auch schlagartig das Vertrauen in andere Fahrzeuge, die mit derselben fehlerhaften Software ausgestattet sind. Verletzt oder tötet ein betrunkener Fahrzeuglenker einen anderen Verkehrsteilnehmer wird demgegenüber nicht unterstellt, der Großteil oder alle anderen Fahrzeuglenker wären potenziell betrunkene Unfalllenker.
Die grundsätzliche Frage bei allen technologischen Entwicklungen ist folgende: Wollen die Menschen selbstfahrende Autos?
Wenn wir von selbstfahrenden bzw. automatisierten Fahrzeugen sprechen, meinen wir computergesteuerte Maschinen. Bereits heute ist die Nutzung von Boardcomputern in der Luftfahrt gängige Praxis, ohne dass der Pilot das Flugzeug stets selbst steuern muss. Das Flugzeug ist statistisch gesehen auch das sicherste Verkehrsmittel. Könnte das Automobil nicht genauso sicher werden? Das Flugzeug mit dem Auto zu vergleichen ist jedoch aufgrund der unterschiedlichen Nutzergruppen, der Anzahl an täglich gesteuerten Fahrzeugen und der stets imminenten Kollisionsgefahr mit anderen Straßenverkehrsteilnehmern, dazu gehören auch Fußgänger, nicht gerecht.
Während Fahrassistenzsysteme, wie Spurhalteassistenten, Einparkhilfen oder Abstandhalter, wie sie sich in vielen gängigen Modellbaureihen finden, in Europa grundsätzlich zugelassen und erlaubt sind, dürfen nach der heute in Europa und Österreich geltenden Rechtslage (teil-) automatisierte Fahrzeuge ausschließlich zu Testzwecken verwendet werden. Diese Testfahrten dürfen zudem in Österreich unter anderem nur auf Autobahnen oder mit Kleinbussen im Stadtverkehr auf besonders gekennzeichneten Routen erfolgen (so die Testfahrten mit Kleinbussen in den Städten Salzburg und Velden). Bei den auf Österreichs Straßen seit knapp mehr als einem Jahr unter bestimmten gesetzlichen Voraussetzungen durchgeführten Testfahrten muss sich stets ein Mensch im Fahrzeug befinden. Dieser muss in der Lage sein, bei einer unmittelbar bevorstehenden Unfallsituation sofort einzugreifen, um eine falsche Steuerung des Computers zu korrigieren bzw. das Kraftfahrzeug wieder unter (menschliche) Kontrolle zu bringen.
Auch nach der Rechtslage in jenen US.-Bundesstaaten, die Testfahrten erlauben, müssen (derzeit noch) Menschen im Fahrzeug sitzen (Kalifornien hat noch vor den beiden genannten Unglücksfällen ein Gesetz angekündigt, das auch die Anwesenheit eines Menschen im Fahrzeug obsolet machen soll). Daher stellen sich zum UBER-Unfall während einer Testfahrt im US-Bundesstaat Arizona, bei der es zur Kollision mit und zum Tod einer Fahrradfahrerin kam, zwei Fragen: 1. hätte die Person, die sich aus Sicherheitsgründen zur Kontrolle im Fahrzeug befand, eine Notbremsung einleiten und dadurch den Aufprall mit der plötzlich die Straße kreuzenden Fahrradlenkerin verhindern können? 2. Was sind die Gründe, weshalb die am Auto verbaute Sensorik die Fahrradlenkerin nicht rechtzeitig erkannte?
Gegenwärtig werden sowohl in Europa als auch den USA Fahrsysteme getestet. Solange wir uns noch in den Testphasen befinden, können wir auch nicht von technisch erprobten, geschweige denn behördlich freigegebenen Fahrsystemen sprechen. Die technische Entwicklung selbstfahrender Autos zeigt aber jedenfalls schon jetzt deutlich, dass sich die rechtliche Verantwortung weg von einem Fahrer verstärkt hin zu den Fahrzeugherstellern sowie den Softwareentwicklern verlagern wird.
Ob und wann selbstfahrende Autos ein massentaugliches Phänomen darstellen werden, hängt folglich ganz wesentlich von bestimmten (Zukunfts-)fragen ab: Können wir Menschen absolute Sicherheit in selbstfahrende Autos berechtigterweise überhaupt erwarten? Und, welche Entscheidungen sollen selbstfahrende Autos treffen, wenn etwa ein Menschenleben nur auf Kosten eines anderen gerettet werden kann und wie soll man dieses Dilemma lösen?
Selbst wenn künstliche Intelligenz (KI) und selbstlernende Systeme auch in die Technologie selbstfahrender Autos einziehen werden, werden derartige Fahrzeuge zwar zu "humanoiden Robotern auf vier Rädern", aber nicht mit einem mit bestimmten Wert- und Moralvorstellungen ausgestatteten menschlichen Wesen vergleichbar sein können. Trägt jeder Mensch in einer konkreten Unfallsituation persönlich Verantwortung für sein in der Regel intuitiv gesetztes Verhalten, zeigen sich die Grenzen unseres Rechtssystems, wenn Algorithmen aus riesigen Datenmengen schon vorab Entscheidungen für eine spätere Unfallsituation treffen, die bei einem selbstfahrenden Auto einer bestimmten Person bzw. einem Softwareentwickler schwer oder gar nicht mehr zugerechnet werden können. Es wird die Aufgabe von uns Juristen sein, den Gesetzgeber bei der Lösung dieser Herausforderungen rechtlich zu unterstützen.