Das Dilemma mit der künstlichen Intelligenz
Dürfen Kinder Roboter versklaven? Verlernen Chirurgen gewisse Fähigkeiten, wenn sie beim Operieren von einem Roboter unterstützt werden? Wie transparent sind Entscheidungen von künstlichen Intelligenzen (KI) auf Basis maschinellen Lernens? Offene Fragen, vor allem ethisch-moralischer und juristischer Natur, gibt es derzeit viele. Konkrete Antworten kaum.
"Der Einsatz von Robotik und KI muss die Sicherheit der Menschen gewährleisten und hat den ethischen Standards, den Grundrechten und dem europäischen Wertegefüge zu entsprechen", heißt es im " White Paper" des Österreichischen Rats für Robotik und Künstliche Intelligenz. Ähnlich allgemein sind die Empfehlungen im Entwurf der Ethik-Richtlinien der "High-Level Expert Group on Artificial Intelligence" der EU-Kommission. "Generell geht es darum, eine KI-Strategie zu entwickeln, die die Vorteile dieser Technologien ausschöpft und gleichzeitig ihre Risiken minimiert, sagte Sabine Köszegi von der Technischen Universität (TU) Wien im Gespräch mit APA-Science. Sie ist sowohl Vorsitzende des "Robotik-Rats" als auch Mitglied in der "High-Level Expert Group".
Auslöser der aktuellen Diskussionen seien vor allem die datengetriebenen Ansätze der Künstlichen Intelligenz. Relativ problemlos lasse sich KI in Bereiche integrieren, bei denen Menschen nicht direkt betroffen sind – etwa wenn neuronale Netze in einer Zementfabrik einen automatisierten Produktionsprozess optimieren. "Werden KI-Systeme aber in soziale Systeme implementiert, stehen wir vor Herausforderungen, die nicht so schnell zu lösen sind – auch aufgrund ethischer Überlegungen", so Köszegi. Oft genannte Beispiele dafür sind Entwicklungen wie das autonome Fahren, verbesserte Diagnostik im Medizinbereich oder Service-Roboter für zuhause.
"Bremsen wir für eine Katze?"
Beim Thema autonomes Fahren würden häufig extreme Szenarien diskutiert, wenn beispielsweise ein System zwischen dem Wohl der Insassen und von Menschen auf der Straße wählen muss. Es gibt aber unzählige andere Szenarien, für die es auch keine eindeutig "richtige" Lösung gibt. "Soll ein autonomes Fahrzeug für eine Katze oder einen Igel bremsen, wenn diese die Bundesstraße queren? Bei welchen Tieren ist der Fahrkomfort oder die Sicherheit der Insassen wichtiger als das Leben der Tiere?", zeigt die Professorin aktuelle Fragestellungen auf. Das zugrundeliegende Problem sei, dass autonome Systeme eindeutige Ziele und Entscheidungsregeln haben müssten, um solche Probleme lösen zu können. Diese eindeutig zu formulieren stelle oft eine große Herausforderung dar.
Autonome Fahrzeuge müssten sich auch an die Straßenverkehrsordnung – etwa Geschwindigkeitslimits – halten. "Das tun Menschen nicht immer. Sie entscheiden sich manchmal, bestimmte Regeln nicht zu beachten, gefährden damit vielleicht sich selbst und andere, müssen aber auch die Verantwortung für ihr Verhalten tragen. Die Frage ist, ob man den Nutzerinnen von autonomen Fahrzeugen beispielsweise die Wahl geben sollte, ihrem Auto zu erlauben, sich nicht an Geschwindigkeitsregeln zu halten", zeigt Köszegi eine weitere Problemstellung auf. Das würde die Entscheidung beim Menschen belassen, Hersteller würden dann aber sicher nicht für Schäden bei einem Verkehrsunfall haften. Derzeit sei völlig offen, wer die Verantwortung trage, wenn ein KI-System nicht in der vom Hersteller vorgesehenen Form genutzt wird.
Ein weiteres Beispiel der Expertin: Was ist, wenn ein Verkehrsunfall nur dann vermieden werden kann, wenn eine Stopptafel missachtet wird? "Auf der einen Seite gibt es eine gültige Verkehrsregel, auf der anderen Seite die Norm, andere Verkehrsteilnehmer nicht zu schädigen. Als Mensch kann ich die Überlegungen anstellen, dass in dieser konkreten Situation die Missachtung der Verkehrsregel gerechtfertigt ist. KI Systeme können solche Überlegungen nicht anstellen", erklärte die Professorin. Sobald Regelwerke im Widerspruch zueinander stünden oder ein komplett neuartiges Problem auftrete, für das es noch keine Regel gibt, habe die Maschine keine Möglichkeit, eine Entscheidung zu treffen.
Autonome Entscheidungen nicht überall sinnvoll
Der große Vorteil von KI Systemen sei, dass sie – mithilfe von Daten aus der Vergangenheit – Vorhersagen über den Zustand der Gegenwart oder der Zukunft treffen könnten. Oft sei auch ein Verständnis über die Situation und den Kontext erforderlich. Köszegis Resümee: "Maschinen sind derzeit nicht dazu fähig, ethische Entscheidungen autonom zu treffen." Das obliege entweder dem Programmierer oder dem Nutzer. "Aber dann müssen diese die Möglichkeit haben, die entsprechenden Parameter auch selbst zu setzen, und sie müssen verstehen, wie KI-Systeme zu ihren Entscheidungsvorschlägen kommen."
KI-Systeme könnten auch ausgetrickst werden. "Tesla-Fahrer, die unerlaubterweise autonom unterwegs sind und nebenbei Zeitunglesen, sind anscheinend öfter das Ziel von Motorradfahrern, die, wenn sie das mitbekommen, das Auto schneiden und so eine Notbremsung auslösen. Der Fahrkomfort ist dadurch massiv beeinträchtigt", nannte die Expertin ein aktuelles Beispiel. Es müsse also auch irrationales oder opportunistisches Verhalten in den Szenarien berücksichtigt werden. Mit reinen Labortests unter kontrollierten Bedingungen sei es schwierig herauszufinden, wie viel weniger Unfälle es durch diese Technologie tatsächlich geben würde.
Kritisch sieht sie auch den Mischverkehr bis zu einem vollständig autonomen Betrieb: "Diese Übergangsphase wäre quasi ein Live-Versuch, bei dem man sich ansieht, wie das funktioniert. Die Frage ist, wer sich da gerne als Versuchskaninchen zur Verfügung stellt. Wer möchte testen, welcher Algorithmus am sichersten ist – beispielsweise als Fußgänger?" In diesem Bereich gebe es noch eine Vielzahl an ungelösten Problemen, die sich erst langsam herauskristallisieren würden. So hätten hierzulande Tests abgebrochen werden müssen, weil Löwenzahn am Straßenrand sehr stark gewachsen ist und durch die Bewegung im Wind die Sensorik irritiert hat, worauf das autonome Auto permanent abgebremst habe.
Kompetenzverlust durch Robotereinsatz
Spannend sei auch, welche Qualifikationen beispielsweise ein Pathologe oder ein Radiologe künftig brauche. Wenn KI-Systeme an ausreichend vielen und guten Daten trainiert werden könnten, etwa bei der Diagnose bestimmter Karzinome, seien KIs dem Menschen bereits überlegen. Bei genaueren Analysen zeige sich aber, dass Pathologen besser sind, Krebs zu erkennen, während KI-Systeme besser erkennen können, wenn es kein Krebs ist. KI-Systeme und Menschen würden also unterschiedliche Fehler machen. Die genauesten Diagnosen seien getroffen worden, wenn erfahrene Pathologen mithilfe von KI-Systemen entschieden hätten. Und auch Chirurgen greifen bei Operationen immer stärker auf Roboterunterstützung zurück. "Wie lässt sich sicherstellen, dass Menschen durch den KI-Einsatz ihre Fähigkeiten erweitern und nicht Kompetenzen verlieren?", fragt Köszegi.
Ein großes Problem entsteht auch durch schlechte Datenqualität. "Ungerechtfertigte Diskriminierungen passieren nicht nur zwischen Menschen, sie sind darüber hinaus in unseren Strukturen, Prozessen und Praktiken institutionalisiert. KI-Systeme lernen aus diesen Daten. Das ist ein großes Problem bei Scoringsystemen, also Verfahren, die beispielsweise die Kreditwürdigkeit, das Versicherungsrisiko, die Wahrscheinlichkeit kriminell zu werden oder einen Arbeitsplatz zu finden prognostizieren. Wenn man im falschen Bezirk wohnt und einen bestimmten Namen hat, kann das zu einer Ablehnung des Kreditantrags führen. KI-Systeme basieren auf statistischen Zusammenhängen, kennen aber keine Kausalität. Und da beginnen die Probleme", erklärte Köszegi. Entgegenwirken könne man dem durch gutes Datenmaterial, Transparenz und der Weiterentwicklung von Algorithmen.
Wer konkret die Entscheidungen eines KI-Systems nachvollziehen und kontrollieren können soll, ist ebenfalls noch unklar. "Sind das die Konsumenten oder hochqualifizierte Experten – zum Beispiel in einer Regulierungsbehörde? Da entstehen natürlich ganz andere Anforderungen", so die Professorin. Ein Fernseher könne beispielsweise nicht auf den Markt kommen, wenn er den Standards nicht genüge. Als Konsument muss man hier nicht verstehen, wie das Gerät funktioniert, sich aber darauf verlassen können, dass es im Entwicklungsprozess irgendjemand verstanden hat. "Das Ziel sind Systeme, die zumindest für eine Gruppe von Experten transparent und erklärbar sind", ist Köszegi überzeugt.
Konsument muss nicht alles durchschauen
Es würde auch niemand erwarten, dass ein Konsument versteht, wie ein Medikament tatsächlich wirke. Aber er müsse sich darauf verlassen können, dass der Arzt, der ihm dieses Medikament verschrieben hat, das weiß und ihn auch über die Nebenwirkungen informiert. Der Arzt muss sich wiederum darauf verlassen können, dass der Hersteller das Medikament seriös entwickelt und getestet hat. "Da gibt es eine ganz große Zahl an Regelungen, durch die wir sicherstellen können, dass die Verwendung von Medikamenten für die Patienten im Bedarfsfall sicher ist. Daraus können wir für die Implementierung und Nutzung von KI-Systemen lernen."
Das Konzept einer eindeutigen Zuordenbarkeit von Verantwortung sei aber wahrscheinlich nicht ausreichend. "Es werden Überlegungen diskutiert, die in Richtung geteilte Verantwortung gehen. Bei diesem Konzept könnte ich als Konsument vom Programmierer über den Hersteller bis zum Verkäufer alle in die Verantwortung nehmen. Keiner könnte sich vollständig auf den anderen rausreden. Das muss man sich auch rechtlich überlegen, wie man das gestaltet und umsetzt. Das sind alles keine trivialen Probleme", gibt die Expertin zu bedenken.
Intensiv diskutiert werden müsse auch über eine "General AI", also eine Form allgemeiner Intelligenz wie beim Menschen. "Denn allein das Potenzial, dass sie irgendwann kommen könnte, würde eigentlich rechtfertigen, sich darüber Gedanken zu machen, wie wir sie regulieren möchten, um Schaden abzuwenden." Sehr problematisch sei, dass es völlig unseriöse Prognosen gebe und viele Menschen dadurch verunsichert würden. Der Tenor der Experten sei jedenfalls, dass eine generelle KI nicht kommt. Allerdings könnten disruptive Entwicklungen auch nicht vorhergesagt werden. "Beim jetzigen Stand der Forschung deutet aber nichts darauf hin, dass wir bald kognitive Systeme haben, die in diesen ganz wichtigen Kategorien von Erfahrungs-, Kontext- und Transferwissen den Menschen schnell nahe kommen", so Köszegi.
Mensch bleibt noch lange überlegen
Für sie sei es im Moment undenkbar, dass die Fähigkeiten, die der Mensch im Lauf seines Lebens erwirbt, in absehbarer Zeit durch künstliche Intelligenz nachgebildet werden kann. "In ganz klar definierten, spezifischen Problemstellungen kann man eine KI entwickeln, die einen Menschen überflügelt – und zwar recht schnell, das ist keine Frage. Da sind wir heute. Ein Computer, der jeden Menschen im Go spielen schlägt, kann trotzdem nicht das Kinderzimmer aufräumen. Diese Herausforderung würde heute ein KI-System noch nicht schaffen." Auch in diesem Bereich würden sich sehr spannende Fragen ergeben: "Wollen wir, dass unsere Kinder in natürliche Interaktion mit Maschinen treten und sie versklaven können? Was lernen unsere Kinder daraus für ihre Beziehung zu Menschen? Welchen Einfluss hätte das auf ihre Entwicklung? Die Auswirkungen von KI-Systemen auf das soziale Gefüge in unserer Gesellschaft haben wir noch nicht verstanden."
Europa stehe bei künstlicher Intelligenz inzwischen sehr stark im Wettbewerbsdruck mit den großen Playern wie China, Kanada, Israel und den USA. Eine Möglichkeit, konkurrenzfähig zu bleiben, wäre eine KI zu entwickeln, bei der ganz stark auf Sicherheit, Vertrauenswürdigkeit und Qualität gesetzt wird. "Die Datenschutz-Grundverordnung zeigt ja, dass solche Regeln nicht notwendigerweise wettbewerbsbehindernd sind, sondern den Innovationsprozess anregen und auch ein Hebeleffekt sein können", sagte Köszegi. China schicke sogar Leute nach Europa, um zu lernen, wie die Datenschutz-Grundverordnung aufgebaut ist und wie man das gegebenenfalls implementieren kann.
Der Knackpunkt all dieser Fragestellungen sei, inwieweit man solche KI-Systeme komplett autonome und automatisierte Entscheidungen treffen lässt und zu welchen Problemen es auf ethischer Ebene dadurch hinsichtlich Transparenz und Erklärbarkeit kommt. "Wir müssen die Zukunft gestalten und sicherstellen, dass wir in eine Utopie gehen und nicht in eine Dystopie. Da braucht es Diskurs und Aufklärung, sowie die Unterscheidung zwischen Science-Facts und Science-Fiction", so Köszegi.
Von Stefan Thaler / APA-Science