apa.at
Mehr zum Thema / Mario Wasserfaller / Donnerstag 24.11.22

Maschinen in Erklärungsnot

Künstliche Intelligenz (KI) ist weder etwas Magisches noch ist sie per se frauenfeindlich oder antifeministisch. Aber wie der Input, so der Output: Sie hält der Gesellschaft einen Spiegel vor, sagt Martina Mara, Professorin für Roboterpsychologie an der JKU Linz. Damit das Antlitz darin nicht zur Fratze der Diskriminierung wird, sollte KI besonders gut verständlich sein und sich selbst bestmöglich erklären.
Foto: Florian Voggeneder Martina Mara hat die Psychologie von KI und Robotik im Blick

Ob frauendiskriminierende Job-Plattform oder klischeebeladene Übersetzung einer Suchmaschine: Hinter KI steckt keine Magie, sondern immer noch der Mensch, wird Mara im Gespräch mit APA-Science nicht müde zu betonen. „Wir Menschen programmieren KI-Systeme und geben vor, welche Ziele diese verfolgen. Und die Daten, aus denen wir KI lernen lassen, sind auch menschgemacht.“ Deshalb sei auch völlig klar, dass KI nicht neutraler oder objektiver sein kann als es die Gesellschaft derzeit ist.

„Künstliche Intelligenz hält uns als Gesellschaft einen Spiegel vor, weil sie ja von uns gelernt hat.“ Martina Mara

Selektive Datensätze

Bei einem näheren Blick auf die ganz menschliche Seite der KI wird klar, wo die Fehler im System liegen können. Diskriminierung  kann zum Beispiel ganz banal aus fehlenden oder mangelhaften Daten über bestimmte Personengruppen resultieren, aus denen eine KI lernen soll. Sprachassistenz-Systeme wie Siri oder Alexa würden dazu neigen, ältere, weibliche Personen schlechter zu verstehen als andere Nutzergruppen. Passend dazu hält Mara  Vorträge unter dem Titel „Warum Siri meine Oma nicht versteht“. Das liege nicht daran, dass Siri etwas gegen die Oma hat, sondern an mangelhaften Datensätzen – sprich, die Systeme sind ausreichend auf diese Kohorte trainiert. Hier sieht die Expertin eine klare Verbesserungsmöglichkeit, einfach indem in den Datensätzen alle Zielgruppen gleichermaßen repräsentiert sind, denn die Zielsetzung könne nur sein: „Wie kriegen wir diese gesellschaftlichen Stereotype und veralteten Geschlechtervorstellungen aus den Datensätzen raus?“

Gleichzeitig gelte es aus sozialwissenschaftlicher bzw. psychologischer Sicht, bei den Entwicklern solcher Technologien anzusetzen. Auch im AI Act der EU finden sich entsprechende Vorgaben dazu (siehe „Wie digitale Stereotype aus der Welt geschafft werden sollen“). „Es ist einfach nach wie vor so, dass die Leute die KI machen, großteils männlich, jung, weiß sind und aus bestimmten Expertisenbereichen kommen. Wir brauchen mehr Interdisziplinarität. Das heißt, wir brauchen mehr Leute, die auch solche Dinge mitdenken, schon in der Entwicklung von KI“, spricht sich Mara für mehr Inklusion und Diversität in Entwicklerteams sowie für mehr Partizipation verschiedener Nutzergruppen aus.  Allerdings seien auch bei den Usern selbst noch Stereotype einprogrammiert, die wiederum den Algorithmus oder Technologiedesigns verstärken. Es kommt zu einer sich selbst verstärkenden Spirale.

Assistenten sind Assistentinnen

Klassische Geschlechterstereotype kamen auch bei einer Arbeit am LIT Robopsychology Lab zutage, bei der Sprachassistenz-Systeme für Onlinebanking mit mehreren Hundert Personen getestet wurden. Von dem System gab es vier verschiedene Versionen, die durch die synthetische Stimme entweder männlich oder weiblich konnotiert waren und entweder eher passiv bzw. eher aktiv auftraten. „Wir sehen ganz klar in den Daten, dass männliche Nutzer eine signifikant stärkere Präferenz für den weiblich konnotierten, passiv auftretenden Bot haben“, so Mara. Das Resultat überrascht wenig. „KI-Sekretärinnen“ von Alexa bis Siri haben in den Standard-Einstellungen großteils eine weibliche Stimme und vermitteln den Eindruck einer hilfsbereiten jungen Frau, die für den User rund um die Uhr erreichbar ist und bei der man sich nicht bedanken muss.

Pflege-Klischees am Prüfstand

Solche nicht mehr zeitgemäßen Geschlechterrollen sind in der Gestaltung und Entwicklung von Assistenztechnologien nach wie vor gang und gäbe. Das habe potenziell wieder Auswirkungen darauf, wie Frauen in der Gesellschaft betrachtet werden. In einer (noch nicht publizierten) Folgestudie hat das Team um Mara nun untersucht, wie Kontra-Stereotype in Technologiedesigns genutzt werden könnten, gesellschaftliche Stereotype zu reduzieren. Konkret wurde Proband:innen Videos von Pflegerobotern gezeigt, die ebenfalls durch die Stimme entweder männlich oder weiblich konnotiert waren. Hier zeigte sich, dass sich das zunächst noch klar vorhandene Stereotyp vom Pflegeberuf als etwas typisch Weiblichem auch durch gegenteilige Beispiele aufweichen lässt. Bekamen männliche Nutzer ein Video mit einem männlich konnotierten Pflegeroboter zu sehen, dann konnten sie sich anschließend im Pflegebereich alle Geschlechter gut vorstellen.

Neben der Sensibilisierung für systemimmanente Diskriminierung geht es der Expertin vor allem darum, Vertrauen in KI dadurch zu erzeugen, dass diese sich gewissermaßen selbst erklärt und Entscheidungswege oder Erkenntnisse für den Menschen verständlich darstellt.

Schwammerlsuche im AI-Forest

Im Projekt „AI Forest“ untersuchte das Team des LIT Robopsychology Lab im Rahmen des Ars Electronica Festivals 2021 die „Effekte von erklärbarer Künstlicher Intelligenz auf Vertrauen und menschliches Verhalten in einer Hochrisiko-Entscheidungsaufgabe“(siehe Video), wie es in einer im Fachmagazin Computers in Human Behavior erschienenen Publikation heißt. Dabei gingen 328 Festival-Besucher:innen in einem künstlichen Wald mit Tablets auf Schwammerlsuche und mussten mit Hilfe einer KI-basierten App entscheiden, ob die Pilze giftig oder essbar waren.  Eine Gruppe hatte nur die KI-Entscheidungen zur Verfügung, die andere erhielt auch zusätzliche visuelle Erklärungen zur Entscheidung der KI – diese Gruppe schnitt deutlich besser ab in ihrer Einschätzung. Weitere Preprint-Publikationen dazu: https://osf.io/68emr; https://osf.io/h6dwz

Roboter und Bots

Ähnlich wie der Begriff KI ist auch jener des Roboters nicht mehr eindeutig fassbar. Mara, deren Professur sich auf „Psychologie der künstlichen Intelligenz und Robotik“ fokussiert, unterscheidet nach wie vor zwischen Robotern mit einer physischen Präsenz im Raum und Bots oder KI-Systemen, die keinen physischen Raum benötigen und im Hintergrund, am Smartphone oder im Auto mitlaufen. „Aus psychologischer Perspektive finde ich, dass die Fragestellungen teilweise durchaus beides betreffen“, sagt sie. „Wir betrachten beides in der Forschung – zum Beispiel die Kommunikation mit physischen Industrierobotern, Vertrauensprozesse in der industriellen Zusammenarbeit mit Robotern, genauso wie das Treffen gemeinsamer Entscheidungen mit einer KI, die mir beim Schwammerlsuchen im Wald hilft.“

Nicht jedem sind diese Unterschiede bzw. die fließenden Grenzen auch geläufig. Missverständnisse und Fehlinterpretationen über den tatsächlichen Stand von KI, Robotik und Co. sind in der Öffentlichkeit keine Seltenheit. Das zeigt sich zum Beispiel in der visuellen Imagination und Repräsentation dieser Themen. Das Team am Robopsychology Lab hat sich in den vergangenen zwei Jahren viel mit Medienbildern befasst. Dabei wurden 10.000 Bilder zum Stichwort Künstliche Intelligenz von Stock Image Plattformen analysiert um zu sehen wie KI in der Öffentlichkeit dargestellt wird. Das häufigste Motiv ist ein menschenähnlicher Körper, also entweder ein androider Roboter oder eine sonstige computergenerierte Gestalt.

Image mit Missverständnissen

„Was ein Missverständnis ist, weil das auch Ängste auslöst“, fasst Mara das Ergebnis zusammen. Die Vorstellung von selbstständigen, intelligenten, sozialen Computern bzw. Robotern könne ein starkes Konkurrenzbild auslösen und implizieren, „Die KI ist jetzt schon intelligenter als ich“. Von diesem Konstrukt müsse man weg, ist die Fachfrau überzeugt. „Es ist wirklich ein Missverständnis, dass die Art von Künstlicher Intelligenz, die heute im Einsatz ist, uns Menschen in unserer Gesamtheit irgendwie kopieren könnte.“ Die relevanten Domänen seien also nicht zweibeinige Roboter, die Stufen hinauf- und hinunterspazieren, sondern algorithmische Entscheidungssysteme, die in unserem Alltag schon angekommen sind.

Bleibt die Frage, wie denn solche Systeme nun dargestellt werden sollen, um ein akkurates Bild zu erzeugen? „Gut wäre es,  wenn wir realistische Anwendungen von KI zeigen und die Menschen dazu, die das nutzen oder damit interagieren.“ In der Erforschung der Interaktion von Mensch und Maschine ist für Mara die Psychologie ganz zentral: „Wenn man das menschliche Erleben , menschliche Wahrnehmungen in den Mittelpunkt der Technologieentwicklung stellen will, dann braucht man die Psychologie – neben vielen anderen Fachbereichen.“ Die Langzeitperspektive der Roboterpsychologin ist ein Anspruch an die Maschinen: „Was mich wirklich umtreibt ist, wie wir intelligente Maschinen besser verständlich machen können für Menschen – einerseits, indem wir beispielsweise medial realistischer darüber berichten, aber auch, und das ist in unserer Forschung fast wichtiger, inwiefern sich Maschinen selbst besser erklären können.“

Das Robopsychology Lab

Das seit 2018 bestehende Robopsychology Lab am Linz Institute of Technology der JKU forscht unter der Leitung von Martina Mara laut Webseite unter anderem zu folgenden Fragen:

  • Warum sind uns allzu menschliche Maschinen oft unheimlich – und in welchem Kontext trifft das ganz besonders zu?
  • Wie funktioniert das Zusammenspiel zwischen Mensch und Roboter am Arbeitsplatz – und was braucht es, damit Vertrauen entsteht
  • In welchem Zusammenhang stehen Verständlichkeit und Vorhersehbarkeit intelligenter Maschinen mit dem Kontroll- und Sicherheitsempfinden ihrer NutzerInnen
  • Welche Wirkung erzielen synthetische Stimmen wie jene von Alexa und Siri – und wie wichtig ist es, zwischen menschlichen und maschinellen Gesprächspartnern unterscheiden zu können?

Stichwörter