Gastkommentar

Alexandra Millonig © Astrid Bartl
4
Dossier

"Selbstfahrende Autos auf der Couch"

Gastkommentar

31.01.2019
  • Wien (Gastkommentar) - Vernetztes und autonomes Fahren verspricht viele Vorteile, aber die Verlagerung der Entscheidungsverantwortung auf Maschinen bringt in bestimmten Situationen auch moralische Zwickmühlen mit sich, auf die wir selbst als Menschen kaum Antworten haben. Ein Risiko, das aber auch eine Chance bedeuten kann.

  • Als 2016 eine Gruppe von Forschern am MIT Massachusetts Institute of Technology ein Gedankenexperiment anstellte, entbrannte in der bis dahin vorwiegend technisch dominierten Debatte um selbstfahrende Fahrzeuge eine hitzige ethische Diskussion. Das moralische Dilemma, das die Forscher rund um Iyad Rahwan untersuchten, war eigentlich kein neues Thema, sondern ist bereits seit 1930 als "Trolley Problem" bekannt. Im Wesentlichen geht es dabei um die Frage, ob es in einer unausweichlichen Unfallsituation vertretbar ist, eine bewusste Entscheidung zu treffen, wer in so einem Fall "geopfert" werden soll. Neu ist allerdings, dass in der Neuauflage des Problems nicht mehr ein Mensch entscheiden muss, sondern dass diese Entscheidung einem autonomen Fahrzeug - einer Maschine - zufällt. Der interessante Aspekt an dieser Studie war allerdings weniger, welche Entscheidung die Befragten für "richtig" hielten, sondern wie sich ihre eigene Einstellung mit dem Kontext änderte. So war zwar die Mehrheit eindeutig dafür, dass ein autonomes Fahrzeug im Falle eines unvermeidbaren Unfalls einer Gruppe von Fußgängern ausweichen sollte, auch wenn es das Leben des Fahrzeuginsassen kosten sollte. Gleichzeitig wäre aber niemand bereit gewesen, solch ein Fahrzeug zu nutzen. In der Zwischenzeit hat das Problem viele weitere Dimensionen bekommen. So wird beispielsweise mittlerweile diskutiert, wie die Entscheidung ausfallen sollte, wenn es gilt, entweder einen jungen oder einen alten Menschen zu opfern, einen Geschäftsmann oder einen Obdachlosen, oder ob es vertretbar ist, die Entscheidung gegen einen Fußgänger zu fällen, der eine Straße illegal überquert.

  • Im Wesentlichen geht es bei allen Fragestellungen darum, welchen Wert wir Menschen zusprechen, und welchen Einfluss persönliche Merkmale darauf haben, was wir für moralisch vertretbar halten. Nicht alles betrifft dabei die Extremsituation eines unvermeidbaren Unfalls und die direkte Gefährdung menschlichen Lebens, sondern auch Effekte, die die Lebensqualität und Gesundheit von bestimmten Menschen längerfristig bedrohen. Im Juni des Vorjahres trafen sich dazu in Brüssel zahlreiche Experten aus Europa und den USA und diskutierten zwei Tage lang mögliche sozio-ökonomische Folgen der Einführung vernetzter und autonomer Fahrzeuge. Der Großteil der dabei aufkommenden Themen ließ sich auf eine wesentliche Frage reduzieren: Inwieweit können durch autonome Fahrzeuge soziale Ungleichheiten ausgeglichen werden, und - noch wesentlicher - welche neuen Ungleichheiten könnten entstehen und wer könnte davon betroffen sein.

  • Ein einfaches Beispiel wäre, dass in einem vernetzten Verkehrssystem mit selbstfahrenden Fahrzeugen Wegstrecken nicht mehr von den Passagieren selbst gewählt werden, sondern dass das System die Fahrzeuge auf unterschiedliche Routen verteilt, sodass weniger Engpässe und Staus entstehen. Das an sich hätte den positiven Effekt eines effizienteren Gesamtsystems; problematisch wird es erst, wenn bestimmte Gruppen - etwa aufgrund ihrer Position oder ihrer finanziellen Mittel oder einfach, weil sie sich mit digitalen Systemen besser auskennen - "bevorzugte" Routen erhalten und andere gar nicht mehr merken, dass sie auf benachteiligten Strecken unterwegs sind. Die Verteilung der Menschen auf Wege könnte soweit manipuliert werden, dass manche Gruppen gezielt durch bestimmte Gebiete geführt oder aus bestimmten Gebieten herausgehalten werden. Weniger privilegierte Menschen könnten dadurch größere Umwege und längere Reisezeiten in Kauf nehmen müssen, was wiederum nachgewiesenermaßen zu weniger Bewegung und sozialen Kontakten und damit langfristig zu einer konkreten Gesundheitsgefährdung führen kann. Ebenso kritisch könnten die Auswirkungen im Bereich des Datenschutzes sein. Um sich etwa eine Fahrt leisten zu können, könnte die Preisgabe von persönlichen Daten zur Bedingung gemacht werden. Nicht zuletzt könnten sich Menschen mit ausreichenden Mitteln einen höheren Sicherheitsstatus kaufen und damit die Entscheidung in einer Trolley-Problem-Situation zu ihren Gunsten beeinflussen.

  • Darüber hinaus müssen wir uns in unserer komplexen Welt aber auch vergegenwärtigen, dass wir die Folgen der Einführung selbstfahrender Fahrzeuge nicht nur auf direkte (z.B. Unfallfolgen) und indirekte (z.B. Bewegungsmangel) Verkehrswirkungen beschränken dürfen. Eine der größten Hoffnungen wird etwa in die drastische Erhöhung der Verkehrssicherheit durch Automatisierung gesetzt, indem mit dem Faktor Mensch auch eine der Hauptunfallursachen aus dem System genommen wird. Nun stammt aber ein großer Teil von Transplantationsorganen von Verkehrsunfallopfern, wobei die Organe eines Verunglückten mehrere Schwerkranke retten können. Ist es überhaupt vertretbar, Verkehrsunfälle zu reduzieren und damit gleichzeitig die Chance todkranker Menschen auf Spenderorgane zu dezimieren?

  • In solchen Fällen, in denen es um die Bewertung des Verlusts menschlichen Lebens geht, werden uns die Grenzen aber auch Unterschiede unserer moralischen Vorstellungen sehr schnell bewusst. Wie die jüngsten Forschungen von Rahwan und seiner Gruppe zeigen, sind Moralvorstellungen nämlich kulturell sehr unterschiedlich geprägt. In Regionen mit starkem christlich beeinflusstem Weltbild werden etwa beim Trolley-Problem eher jüngere gegenüber älteren Menschen verschont, in Regionen mit östlich-konfuzianischem Einfluss ist es umgekehrt. Dramatische Neuerungen wie diese bieten aber auch die Chance, Wertekonstrukte zu hinterfragen und sich gemeinsam darauf zu einigen, welchen Preis wir als Gesellschaft bereit sind, für bestimmte Verbesserungen zu zahlen. Um dies zu erleichtern, arbeiten wir als Forscher beispielsweise an integrierten Wirkungsmodellen, die die Folgen unterschiedlicher Entwicklungen nicht nur auf den Verkehr selbst, sondern auch auf Umwelt, Wirtschaft und Gesellschaft einschätzen. Dies kann wesentlich dabei helfen, Entscheidungsrichtlinien für bestimmte Situationen festzulegen. Vielleicht einigt man sich aber auch darauf, dass es am fairsten ist, wenn Maschinen im Extremfall einfach den Zufall entscheiden lassen.

Zur Person

Alexandra Millonig, Austrian Institute of Technology (AIT)

DI Dr. Alexandra Millonig ist als Senior Scientist beim AIT Austrian Institute of Technology vor allem für die Konzeption, Durchführung und Leitung wissenschaftlicher Projekte im Bereich Mobilitätsverhaltensforschung verantwortlich und ist Mitbegründerin des Innovationslabors "Centre for Mobiliy Change". Mit der Automatisierung des Verkehrs setzt sie sich mittlerweile in mehreren Forschungsprojekten auseinander, beispielsweise als wissenschaftliche Leiterin des Projekts auto.Bus - Seestadt oder als Verantwortliche für die Definition von Automatisations-Zukunftsszenarien im EU-Projekt Levitate. Als international anerkannte Expertin auf diesem Gebiet wurde sie 2018 auch mit der Mitgestaltung des 6. EU-US Symposiums zu "Socio-economic Impacts of Automated and Connected Vehicles" in Brüssel sowie des 4. European High Level Dialogue on Connected & Automated Mobility in Wien betraut.

STICHWÖRTER
Wissenschaft  | Ethik  | Wien  | Dossier  | Gastkommentar  | Gesellschaft  | Werte  |

Dossier

In Zeiten, in denen mit der "Genschere" leicht ins Erbgut und mit Algorithmen in die öffentliche Meinungsbildung eingegriffen werden kann, zeigt sich, wie ...

Gastkommentare

"Archäologie zwischen 'genetischem Goldrausch' und ethischem Dilemma"
von Barbara Horejs
Direktorin des Instituts für Orientalische und Europäische Archäologie der ÖAW
"Wie ehrlich ist die Wissenschaft?"
von Nicole Föger
Leiterin der Geschäftsstelle der Österreichischen Agentur für wissenschaftliche Integrität
"Selbstfahrende Autos auf der Couch"
von Alexandra Millonig
Austrian Institute of Technology (AIT)
"Sag Ethik, wie hast du's mit der Digitalisierung?"
von Irene Klissenbauer
Katholisch-Theologische Fakultät der Universität Wien

Hintergrundmeldungen

Maschinen können laut Köszegi ethische Entscheidungen noch nicht autonom treffen © APA (Müller)

Das Dilemma mit der künstlichen Intelligenz

Dürfen Kinder Roboter versklaven? Verlernen Chirurgen gewisse Fähigkeiten, wenn ...
Das Genom ist entschlüsselt, nun wird es zerschnitten und verändert © APA (dpa)

Ethik und das Erbgut

"Lulu" und "Nana", die angeblich ersten Gen-Babys der Welt, beherrschen zurzeit ...
Three Mile Island als Sinnbild für ethische Grundsatzfragen © APA/AFP

Philosophin: "Ethik beginnt, wo die Sachkenntnis endet"

Die Frage, was ethisch ist und was nicht, lässt sich nicht für alle ...
Ethische Fragen sind nicht überall gleich wichtig © APA (AFP)/GB

Uni Wien: Nur jeder fünfte Antrag erhält auf Anhieb "Ethik-Stempel"

In der größten Universität Österreichs, der Uni Wien, spielt Ethik in der ...
Forschernachwuchs ist sich ethischer Herausforderungen bewusst © APA (Jäger)

"Ethik ist nichts, was von oben bestimmt werden soll"

Den Diskurs über Ethik und Technik strukturell vorantreiben will die Technische ...
V.l.n.r.: Christian Zillner (Moderation), Pinz, Gauß, Jahn © WAGNER/BMBWF

Science Talk: "Dem Ethikunterricht fehlen die Feiertage"

Nach etwas mehr als 20 Jahren Schulversuch Ethik stellt sich offenbar noch ...
"Strenge Einhaltung lokaler, nationaler und internationaler Gesetze" © APA (dpa)

ÖAW distanziert sich von genetischer Optimierung des Menschen

Die Österreichische Akademie der Wissenschaften (ÖAW) distanziert sich von ...

Mehr zum Thema