"Selbstfahrende Autos auf der Couch"
Vernetztes und autonomes Fahren verspricht viele Vorteile, aber die Verlagerung der Entscheidungsverantwortung auf Maschinen bringt in bestimmten Situationen auch moralische Zwickmühlen mit sich, auf die wir selbst als Menschen kaum Antworten haben. Ein Risiko, das aber auch eine Chance bedeuten kann.
Als 2016 eine Gruppe von Forschern am MIT Massachusetts Institute of Technology ein Gedankenexperiment anstellte, entbrannte in der bis dahin vorwiegend technisch dominierten Debatte um selbstfahrende Fahrzeuge eine hitzige ethische Diskussion. Das moralische Dilemma, das die Forscher rund um Iyad Rahwan untersuchten, war eigentlich kein neues Thema, sondern ist bereits seit 1930 als "Trolley Problem" bekannt. Im Wesentlichen geht es dabei um die Frage, ob es in einer unausweichlichen Unfallsituation vertretbar ist, eine bewusste Entscheidung zu treffen, wer in so einem Fall "geopfert" werden soll. Neu ist allerdings, dass in der Neuauflage des Problems nicht mehr ein Mensch entscheiden muss, sondern dass diese Entscheidung einem autonomen Fahrzeug - einer Maschine - zufällt. Der interessante Aspekt an dieser Studie war allerdings weniger, welche Entscheidung die Befragten für "richtig" hielten, sondern wie sich ihre eigene Einstellung mit dem Kontext änderte. So war zwar die Mehrheit eindeutig dafür, dass ein autonomes Fahrzeug im Falle eines unvermeidbaren Unfalls einer Gruppe von Fußgängern ausweichen sollte, auch wenn es das Leben des Fahrzeuginsassen kosten sollte. Gleichzeitig wäre aber niemand bereit gewesen, solch ein Fahrzeug zu nutzen. In der Zwischenzeit hat das Problem viele weitere Dimensionen bekommen. So wird beispielsweise mittlerweile diskutiert, wie die Entscheidung ausfallen sollte, wenn es gilt, entweder einen jungen oder einen alten Menschen zu opfern, einen Geschäftsmann oder einen Obdachlosen, oder ob es vertretbar ist, die Entscheidung gegen einen Fußgänger zu fällen, der eine Straße illegal überquert.
Im Wesentlichen geht es bei allen Fragestellungen darum, welchen Wert wir Menschen zusprechen, und welchen Einfluss persönliche Merkmale darauf haben, was wir für moralisch vertretbar halten. Nicht alles betrifft dabei die Extremsituation eines unvermeidbaren Unfalls und die direkte Gefährdung menschlichen Lebens, sondern auch Effekte, die die Lebensqualität und Gesundheit von bestimmten Menschen längerfristig bedrohen. Im Juni des Vorjahres trafen sich dazu in Brüssel zahlreiche Experten aus Europa und den USA und diskutierten zwei Tage lang mögliche sozio-ökonomische Folgen der Einführung vernetzter und autonomer Fahrzeuge. Der Großteil der dabei aufkommenden Themen ließ sich auf eine wesentliche Frage reduzieren: Inwieweit können durch autonome Fahrzeuge soziale Ungleichheiten ausgeglichen werden, und - noch wesentlicher - welche neuen Ungleichheiten könnten entstehen und wer könnte davon betroffen sein.
Ein einfaches Beispiel wäre, dass in einem vernetzten Verkehrssystem mit selbstfahrenden Fahrzeugen Wegstrecken nicht mehr von den Passagieren selbst gewählt werden, sondern dass das System die Fahrzeuge auf unterschiedliche Routen verteilt, sodass weniger Engpässe und Staus entstehen. Das an sich hätte den positiven Effekt eines effizienteren Gesamtsystems; problematisch wird es erst, wenn bestimmte Gruppen - etwa aufgrund ihrer Position oder ihrer finanziellen Mittel oder einfach, weil sie sich mit digitalen Systemen besser auskennen - "bevorzugte" Routen erhalten und andere gar nicht mehr merken, dass sie auf benachteiligten Strecken unterwegs sind. Die Verteilung der Menschen auf Wege könnte soweit manipuliert werden, dass manche Gruppen gezielt durch bestimmte Gebiete geführt oder aus bestimmten Gebieten herausgehalten werden. Weniger privilegierte Menschen könnten dadurch größere Umwege und längere Reisezeiten in Kauf nehmen müssen, was wiederum nachgewiesenermaßen zu weniger Bewegung und sozialen Kontakten und damit langfristig zu einer konkreten Gesundheitsgefährdung führen kann. Ebenso kritisch könnten die Auswirkungen im Bereich des Datenschutzes sein. Um sich etwa eine Fahrt leisten zu können, könnte die Preisgabe von persönlichen Daten zur Bedingung gemacht werden. Nicht zuletzt könnten sich Menschen mit ausreichenden Mitteln einen höheren Sicherheitsstatus kaufen und damit die Entscheidung in einer Trolley-Problem-Situation zu ihren Gunsten beeinflussen.
Darüber hinaus müssen wir uns in unserer komplexen Welt aber auch vergegenwärtigen, dass wir die Folgen der Einführung selbstfahrender Fahrzeuge nicht nur auf direkte (z.B. Unfallfolgen) und indirekte (z.B. Bewegungsmangel) Verkehrswirkungen beschränken dürfen. Eine der größten Hoffnungen wird etwa in die drastische Erhöhung der Verkehrssicherheit durch Automatisierung gesetzt, indem mit dem Faktor Mensch auch eine der Hauptunfallursachen aus dem System genommen wird. Nun stammt aber ein großer Teil von Transplantationsorganen von Verkehrsunfallopfern, wobei die Organe eines Verunglückten mehrere Schwerkranke retten können. Ist es überhaupt vertretbar, Verkehrsunfälle zu reduzieren und damit gleichzeitig die Chance todkranker Menschen auf Spenderorgane zu dezimieren?
In solchen Fällen, in denen es um die Bewertung des Verlusts menschlichen Lebens geht, werden uns die Grenzen aber auch Unterschiede unserer moralischen Vorstellungen sehr schnell bewusst. Wie die jüngsten Forschungen von Rahwan und seiner Gruppe zeigen, sind Moralvorstellungen nämlich kulturell sehr unterschiedlich geprägt. In Regionen mit starkem christlich beeinflusstem Weltbild werden etwa beim Trolley-Problem eher jüngere gegenüber älteren Menschen verschont, in Regionen mit östlich-konfuzianischem Einfluss ist es umgekehrt. Dramatische Neuerungen wie diese bieten aber auch die Chance, Wertekonstrukte zu hinterfragen und sich gemeinsam darauf zu einigen, welchen Preis wir als Gesellschaft bereit sind, für bestimmte Verbesserungen zu zahlen. Um dies zu erleichtern, arbeiten wir als Forscher beispielsweise an integrierten Wirkungsmodellen, die die Folgen unterschiedlicher Entwicklungen nicht nur auf den Verkehr selbst, sondern auch auf Umwelt, Wirtschaft und Gesellschaft einschätzen. Dies kann wesentlich dabei helfen, Entscheidungsrichtlinien für bestimmte Situationen festzulegen. Vielleicht einigt man sich aber auch darauf, dass es am fairsten ist, wenn Maschinen im Extremfall einfach den Zufall entscheiden lassen.