apa.at
Thema

Digitale Stereotype

Im Rausch der Digitalisierung wird leicht übersehen, wie zutiefst menschlich „Künstliche Intelligenz“ noch immer ist. Algorithmen sind ein Spiegel der Gesellschaft – im Guten wie im Schlechten.
Fot: APA/dpa
Überblick Mehr zum Thema Gastbeiträge

„Digital ist das neue Normal geworden.“ So umschreibt Xaver Wölfl, Manager (COO) der Allianz Österreich, die Ergebnisse einer aktuellen Umfrage über „Das digitale Leben der Österreicher“. Demnach haben sich Smartphones und Apps in den vergangenen sechs Jahren  zunehmend als Selbstverständlichkeit im Alltag etabliert. Corona habe diese Entwicklung vorangetrieben.

Diese Normalität hat jedoch auch ihre Schattenseiten, die oft erst zum Vorschein kommen, wenn man selbst von digitaler Diskriminierung betroffen ist. Sei es, ob ein Algorithmus jemanden bei einer Job-Bewerbung automatisch aufgrund seines persönlichen Profils aus dem engeren Bewerbungskreis ausschließt oder ob eine junge, vielversprechende Band von den Recommender-Systemen großer Streamingplattformen ignoriert wird. APA-Science hat sich in die Untiefen der Digitalisierung begeben und mit zahlreichen Expertinnen und Experten ausgeleuchtet, wie mehr Fairness in die digitale – und damit „ganz normale“ Welt kommen kann.

 

Facts
Das digitale Leben der Österreicher

Angst vor Datenmissbrauch, Überwachung, Cybercrime oder digitalen Abhängigkeiten sei zurückgegangen, ebenso die Sorge um den Arbeitsplatz wegen Digitalisierung. Zugleich hätten digitale Tools wie Smartphones und Apps an Bedeutung für das Wohlbefinden gewonnen, weil sie den Alltag in vielen Bereichen wesentlich erleichtern, geht aus der „Digital-Life Studie 2022“ hervor, die aktuelle Daten mit jenen aus 2016 vergleicht.

 

„Die digitalen Medien haben vor allem bei den unter 30-Jährigen einen sehr hohen persönlichen Stellenwert. Aber auch die Über-60-Jährigen schätzen digitale Features zur Pflege ihrer Kontakte ganz besonders“, so Wölfl. Werner Beutelmeyer, Vorstand des Market-Instituts, ergänzte: „82 Prozent der über 70-Jährigen nützen Smartphones.“

 

Mit dem Einzug ins Alltagsleben erscheinen die digitalen Risiken den meisten geringer als früher. So ist die Angst vor Datenmissbrauch von 68 auf 54 Prozent zurückgegangen, vor Fremdzugriffen auf die persönlichen Daten von 61 auf 49 Prozent, vor staatlicher Überwachung von 55 auf 45 Prozent und vor Cybercrime von 47 auf 43 Prozent. Mehr gefürchtet als früher werden negative Folgen von Social Media-Postings, insbesondere Shitstorms.

Dabei gäbe es genügend Anlass zur Sorge. Verzerrungen, Ungerechtigkeiten und Diskriminierung durch von Algorithmen getroffene Entscheidungen können enorme Auswirkungen auf das Leben von Menschen haben (siehe „Diskriminierung statt Effizienz: Wenn die KI falsch entscheidet“). Beispiele gibt es dafür inzwischen zuhauf: Oft genannt werden verweigerte Kredite oder Versicherungen. Zudem gibt es Sprachassistenten, die ältere Personen nicht verstehen, und Jobplattformen, die Frauen benachteiligen. Quasi alltäglich sind (Werbe-)Angebote, die nicht alle (gleich) zu sehen bekommen. Bemerkt wird das oft gar nicht, weil Transparenz in diesen Bereichen bisher Fehlanzeige ist. Das wäre aber die Voraussetzung für „gerechtere“ Systeme und Entscheidungen.

Die Website anti-bias.eu listet nicht weniger als 48 Arten an Bias-Typen auf, also Arten der Voreingenommenheit. Einer ist der „Bias in Künstlicher Intelligenz“, der auf unausgewogenen oder fehlerhaften Daten basiert und zu Diskriminierung führen kann (siehe „Man kann nicht nicht diskriminieren“). Katta Spiel von der Technischen Universität Wien illustriert ihn anhand eines Beispiels aus der medizinischen Forschung: „Da gibt es ein Datenproblem. Die meisten Studien basieren einfach auf weißen Männern. Bei intergeschlechtlichen Menschen gibt es virtuell keine Daten, nicht einmal Referenzen für Blutwerte.“ Das liege mitunter an der Wahrscheinlichkeitsmodellierung. „Alles basiert auf Wahrscheinlichkeiten, das ist der Kern. Wenn man eine ziemlich unwahrscheinliche Person ist, wird man immer ausgeschlossen.“ In dieser Hinsicht ginge es nicht diskriminierungsfrei, das sei jedoch weniger das Problem, sondern sowohl unser bewusster wie auch unbewusster Umgang mit möglichen Diskriminierungen, so Spiel, die fehlende Reflexion bei Entwicklern und in der Ausbildung als in Frage kommende Ursachen ortet.

 

„Alles basiert auf Wahrscheinlichkeiten, das ist der Kern. Wenn man eine ziemlich unwahrscheinliche Person ist, wird man immer ausgeschlossen.“ Katta Spiel, TU Wien

Digitaler Humanismus gefragt

Entsprechend pochen die Proponenten des „Wiener Manifests für Digitalen Humanismus“ darauf, den Menschen bei allem technischen Fortschritt im Blick zu behalten. Die Idee dahinter ist einfach, es geht um das „Wechselspiel zwischen Mensch und Computer, der Beschreibung und Analyse dessen, aber auch der Möglichkeit der Intervention“, wie es einer der Hauptinitiatoren des Dokuments, der Informatiker Hannes Werthner beschreibt (siehe „Der Mensch und das Digitale“). Für Katja Mayer vom Institut für Wissenschafts- und Technikforschung der Universität Wien und Ko-Autorin der Studie „Akteure, Instrumente und Themen für eine Digital Humanism Initiative“ ist eine der zentralen Fragen heute, wie man in Zeiten zunehmender Automatisierung mit Verantwortung umgehen soll, und damit bereits in der Technologieentwicklung soziale und gesellschaftliche Werte besser mitdenken kann. Es müsse von Anfang an darauf geachtet werden, dass Technologien das humane Wertefüge nicht verletzen: „Was offline gilt, gilt auch online.“

Technische Lösungen

Von technischer Seite werden derzeit verschiedene Herangehensweisen ausprobiert, um Algorithmen fairer zu gestalten. Markus Schedl vom Institut für Computational Perception der JKU Linz und sein Team verfolgen dabei zwei Lösungswege (siehe „Der unwissende Algorithmus“). Beim ersten Ansatz werden laut dem Experten die Trainingsdaten verändert und “der Algorithmus ausgeglichener trainiert, indem man entweder die Daten der unterrepräsentierten Gruppe erhöht (also beispielweise von Frauen generierte Datenpunkte dupliziert; Anm.) oder zufällig Datenpunkte von Männern weglässt. Dabei geht aber natürlich Information verloren, das ist also nicht der optimale Weg.”

Der zweite Ansatz nennt sich “Fairness through Unawareness”.  Ein solches Empfehlungssystem lernt aus Interaktionen von Nutzern oder Nutzerinnen – welche Filme geschaut oder welche Songs gehört werden, und darauf aufbauend unterbreitet der Algorithmus dem Menschen neue Vorschläge. Stereotype Informationen sollen in diesem Ansatz aus dem Algorithmus rausgelernt werden, damit beispielsweise Musikvorschläge nicht mehr nach dem Geschlecht des Users oder der Userin, sondern rein nach seinen bzw. ihren Vorlieben gemacht würden.

Ähnlich argumentiert Dominik Kowald vom Know-Center und dem Institute of Interactive Systems and Data Science der TU Graz. Einerseits könne man genauer überlegen, welche Daten man in das System einspeist („Preprocessing“) – etwa indem man Abstand davon nimmt, Merkmale wie Geschlecht, Hautfarbe und Alter einzuspeisen (siehe „Wie digitale Stereotype aus der Welt geschafft werden sollen“). Das funktioniere aber nicht immer, weil es oft versteckten Korrelationen aus der wirklichen Welt in den Daten gibt. Zweitens sei es möglich, den Algorithmus aufgrund solcher Probleme anzupassen (In-processing). Dann habe man aber meist das Problem, dass die Genauigkeit des Systems leidet (Genauigkeit-Fairness Tradeoff). „Wir, und viele andere Forscher arbeiten derzeit deshalb daran, diese Tradeoffs zu verringern“, sagt Kowald. Zudem könne man die Ergebnisse anpassen, etwa indem man auf die Liste der zehn bestgeeigneten Personen für einen Job fünf Frauen und fünf Männer rankt (Post-processing). Dann wiederum habe man das Problem, „dass man einen Mann aufgrund seines Geschlechts herunter ranken muss“, so der Forscher: „Das heißt, man hat einen Tradeoff zwischen Gruppenfairness gegenüber individueller Fairness.“ Es hat demnach jeder der drei Eingriffe Vor- und Nachteile.

 

„Was mich wirklich umtreibt ist, wie wir intelligente Maschinen für Menschen besser verständlich machen können.“ Martina Mara, LIT Robopsychology Lab

KI sollen sich erklären

Bei alldem schwingt immer mit, dass eine Künstliche Intelligenz eine Entscheidung trifft, mit der der Mensch konfrontiert wird, von deren Genese er aber keine Ahnung hat. Die Hintergründe eines Suchmaschinenresultats oder einer Albumempfehlung bleiben komplett im Verborgenen. Genau das will Martina Mara, Professorin für Roboterpsychologie am Linz Institute of Technology (LIT) der Johannes Kepler Universität Linz, unbedingt ändern (siehe „Maschinen in Erklärungsnot“): „Was mich wirklich umtreibt ist, wie wir intelligente Maschinen für Menschen besser verständlich machen können – einerseits, indem wir beispielsweise medial realistischer darüber berichten, aber auch, und das ist in unserer Forschung fast wichtiger, inwiefern sich Maschinen selbst besser erklären können.“

Mara und ihr Team versuchen das unter anderem mit Hilfe von eigens kreierten Versuchsanordnungen wie einer Schwammerlsuche per Tablet, wobei eine KI den Userinnen und Usern einmal mehr und einmal weniger erklärt, warum ein Pilz giftig oder essbar sein soll. Es gewinnt – wenig überraschend – das Modell mit den ausführlicheren Erklärungen. Wie man KI & Co auch betrachtet, das Thema dahinter bleibt immer wieder das Vertrauen – ob im medizinischen Bereich (siehe Gastbeitrag VRVis), bei sozio-technischen Systemen, die politische Annahmen treffen (Gastbeitrag TU Delft), oder bei Chatbots (Gastbeitrag FH Salzburg).

Warten auf den AI Act

Vertrauen ist gut, Kontrolle ist besser. Nur wie soll das gelingen? Die Herausforderungen in der digitalen Welt sind massiv, wie die vorangegangenen Beispiele demonstrieren. Das Bewusstsein für die algorithmische Diskriminierung ist in Teilbereichen schon vorhanden, aber es braucht viel mehr, dass es zu flächendeckenden Verbesserungen kommt: Es braucht verbindliche Regulierungen von „oben“. Alle Augen sind daher auf den Artificial Intelligence Act der EU gerichtet, der derzeit als Gesetzesvorschlag vorliegt. Der Wiener Jurist Nikolaus Forgó bremst aber die Erwartungen (siehe dazu „Wie digitale Stereotype aus der Welt geschafft werden sollen“): „Das ist ein irrsinnig langes Textdokument, aber es ist noch nichts davon definitiv beschlossen“, sagt Forgó: „Wir sind also noch weit davon entfernt, dass man davon reden könnte, wann man weiß, was am Ende rauskommt.“

Fix sei quasi nur, dass es „wirklich elend lange dauern kann“, und dass niemand abschätzen kann, wie sich der EU-Rat und das EU-Parlament schließlich positionieren werden. Forgó bezweifelt außerdem, dass der AI Act letztlich tatsächlich ein effektives Mittel gegen die digitale Diskriminierung wird: „Momentan steht da irrsinnig viel drinnen über Risiken von AI-Systemen, Berichts- und Selbstevaluierungspflichten sowie neue Behörden, aber nicht wahnsinnig viel, ob jemand diskriminiert wird oder nicht, und wie man dies verhindert.“

Letztlich wird man laut Forgó mit den aktuellen und geplanten Vorschriften die Probleme mit digitalen Stereotypen kaum in den Griff bekommen: „Es ist ein bisschen zu optimistisch, zu glauben, dass man in irgendein Gesetz etwas hineinschreibt, und dann wird die Welt besser.“ Der Ball liegt laut Experten bei den Entwicklern, mit Sozialwissenschaftern diskriminierungsfreie Datensätze und Algorithmen für eine gerechtere digitale Welt zu schaffen.

Plädoyer für Gestaltungshoheit

Dass auch „wir“ als einfache Nutzerinnen und Nutzer der Digitalisierung nicht auf Gedeih und Verderb ausgeliefert sind, sondern auch Gestaltungsmöglichkeiten haben, ist das Credo von Christopher Frauenberger. „Es ist ein Narrativ der Digitalisierung, dass sie über uns hereinbricht. Und wir Menschen müssen halt da mit. Ich glaube, dass das ein Trugschluss ist“, reflektiert der Professor für Human-Computer-Interaction an der Universität Salzburg im Podcast-Interview mit APA-Science (siehe unten). Trotz einer „fahrlässigen Privatisierung“ von digitalen Räumen und der daraus resultierenden Gefahr für die Demokratie bleibe uns zumindest noch ein kleiner „Konsumenten-Hebel“: „Ich glaube, dass es schon trotzdem wertvoll ist, darüber nachzudenken, wie können wir ein stückweit diese Gestaltungshoheit wieder zurückgewinnen? Wie können wir denn eigentlich die Dinge, die unser Leben so fundamental mit beeinflussen, auch mitgestalten?“

Digitale Nebenwirkungen

Mehr zum Thema

Thema

Mehr zum Thema

Wie digitale Stereotype aus der Welt geschafft werden sollen

Mit den aktuellen und geplanten Vorschriften wird man die Probleme mit digitalen Stereotypen kaum in den Griff bekommen, meint der Wiener Jurist Nikolaus Forgó: „Es ist ein bisschen zu optimistisch, zu glauben, dass man in irgendein Gesetz etwas hineinschreibt, und dann wird die Welt besser.“

mehr
Thema

Mehr zum Thema

Der Mensch und das Digitale

Die Grenze zwischen virtueller und analoger Welt verläuft längst nicht mehr trennscharf. „Was ist der Stellenwert des Menschen und wie kann man humanistische Ansprüche in dieses ‚Mega-System‘ adaptieren“, ist eine zentrale Frage des Digitalen Humanismus.

mehr
Thema

Mehr zum Thema

Diskriminierung statt Effizienz: Wenn die KI falsch entscheidet

Recruiting, Financing und Websuche: Der Einsatz von Künstlicher Intelligenz ist im Alltag der heimischen Konsumenten, Jobsuchenden und Informationshungrigen breitflächig angekommen., Ebenso wie Verzerrungen, Ungerechtigkeiten und Diskriminierung durch von Algorithmen getroffene Entscheidungen.

mehr
Thema

Mehr zum Thema

Maschinen in Erklärungsnot

Künstliche Intelligenz (KI) ist weder etwas Magisches noch ist sie per se frauenfeindlich oder antifeministisch. Aber wie der Input, so der Output: Sie hält der Gesellschaft einen Spiegel vor, sagt Martina Mara, Professorin für Roboterpsychologie an der JKU Linz.

mehr
Thema

Mehr zum Thema

Der unwissende Algorithmus   

Wissen ist Macht? Wie Empfehlungssysteme ausgerechnet durch weniger Wissen verbessert werden können und was eigentlich ein “fairer” Algorithmus ist, erklärt Markus Schedl von der JKU anhand von Musikstreamingdiensten. 

mehr
Thema

Mehr zum Thema

Man kann nicht nicht diskriminieren

Künstliche Intelligenz (KI), maschinelles Lernen, Algorithmen: Es klingt nach Objektivität, Fakten, in jedem Fall nach einer unvoreingenommenen schönen neuen Welt. Doch so einfach ist es nicht, im Digitalen gibt es oft genug "Bias".

mehr
Stichwörter