Quo vadis KI? - Vertrauen als Knackpunkt
Seit Ende 2022 mit der Veröffentlichung von ChatGPT ein regelrechter Boom bei generativer Künstlicher Intelligenz (KI) ausgelöst wurde, ist das Thema von Fachkreisen in die breite Öffentlichkeit übergeschwappt – mit allen Pros und Kontras. Welche Entwicklungen in nächster Zukunft in Bereichen wie Medizin, Industrie oder Arbeitswelt zu erwarten sind und welche Rolle dabei Vertrauen spielt, haben Expertinnen und Experten auf Anfrage von APA-Science beleuchtet.
Wunderwuzzi im medizinischen Bereich
In der Medizin erleichtert KI die Suche nach neuen Wirkstoffen und die Diagnose von Erkrankungen, ermöglicht innovative Therapieansätze und unterstützt im Alltag. Die Entwicklung verläuft rasant. Gerade in der Bilderkennung sind digitale Helferlein nicht mehr wegzudenken. Egal, ob Röntgenfotos subtiler Knochenbrüche oder Aufnahmen von Hautveränderungen – vielen Studien zufolge liefern Computeralgorithmen in bestimmten Bereichen bereits bessere Ergebnisse als menschliche Fachkräfte – und sie ermüden nicht.
"KI kann vor allem in Routine-Untersuchungen, in denen viele standardisierte Daten vorliegen, sehr gut unterstützen – wie beispielsweise bei der Mammografie oder sonstigen Screenings – das wird auch weiter ausgebaut", prognostiziert Katja Bühler, wissenschaftliche Leiterin des COMET-Forschungszentrums VRVis. Zudem helfe KI dabei, Arbeitsvorgänge zu beschleunigen und zu unterstützen, etwa in der Radiologie oder der Chirurgie.
Am Vormarsch seien auch "Multi-KI-Agentensysteme", in denen verschiedene KI-Module – große Sprachmodelle, Computer-Vision-Tools und logische Systeme – eng zusammenarbeiten, erklärt Philipp Kellmeyer von der Universität Mannheim. Für besonders spannend hält er generative KI-Anwendungen, die zum Beispiel individualisierte Therapievorschläge unterstützen oder simulationsbasierte Trainingsumgebungen in der Medizin schaffen.
Klare Regeln bei Haftungsfragen gefordert
Die durch generative KI entstehenden neuen Möglichkeiten werden in allen Bereichen eine zentrale Rolle spielen, ist Barbara Prainsack von der Universität Wien überzeugt. So könnte, wenn es um die psychische Gesundheit geht, die Nutzung von Chatbots sowie virtuellen Therapeutinnen und Therapeuten wichtiger werden. Für das Vertrauen in KI, etwa bei Diagnosen, aber auch darüber hinaus, seien Fragen der Haftung relevant. Denn es hänge "nicht nur davon ab, wie transparent oder erklärbar KI ist, sondern auch davon, wie mit Schäden oder Fehleinschätzungen umgegangen wird", so Prainsack. Hier brauche es klare Regeln.
Ein Beispiel für eine Fehlentscheidung einer KI mit unklarer Haftung sei der tödliche Unfall eines selbstfahrenden Uber-Testfahrzeugs im Jahr 2018. "War Uber als Betreiber haftbar, der Hersteller der Sensoren, die KI selbst oder die Uber-Angestellte, die das selbstfahrende Auto während der Testfahrt überwachen sollte?", hinterfragt die Politologin. Am Ende sei die Angestellte zu einer bedingten Haftstrafe verurteilt worden, während es für Uber keine strafrechtlichen Konsequenzen gegeben habe.
Ein zentrales Thema im Hinblick auf Vertrauen sei auch ein möglicher Bias – also Verzerrungen in Datensätzen oder Algorithmen, die zu Ungleichbehandlung führen können, so Kellmeyer, der ebenso wie Bühler aktuell unter anderem im Beirat des Projekts ALAIT - Austrian Lab for Artificial Intelligence Trust ist. Zudem müsse man auf "epistemische Gerechtigkeit" achten, damit alle Gruppen gleichermaßen von KI profitieren und sich in den verwendeten Daten wiederfinden.
Antworten möglicherweise nicht zuverlässig
Die Notwendigkeit transparenter und überprüfbarer KI-Systeme zeigt sich laut dem Mediziner auch in aktuellen Experimenten, aus denen hervorgeht, dass große Sprachmodelle in Chats "Scheming" betreiben: Je nach Kontext geben sie nicht immer das wieder, was sie berechnet haben. Stattdessen "entscheiden" sie sich für Antworten, von denen sie glauben, dass sie bestimmte dahinterstehende Ziele schützen. "In medizinischen Kontexten heißt das, dass sich Ärztinnen und Ärzte nicht automatisch darauf verlassen können, dass die Antworten des Sprachmodells tatsächlich die Interessen der Patientinnen und Patienten optimal repräsentieren", erklärt Kellmeyer.
Vertrauen sei keine klar definierte Sache und auch individuell, ergänzte Bühler. "Wann vertraue ich jemandem oder etwas? Es gibt verschiedene Aspekte in diesem Bereich zu bedenken, beispielsweise die juristische beziehungsweise rechtliche Perspektive", befindet Bühler. Letztendlich müssten mehrere Dinge zusammengeführt werden: neben dem Vertrauen in die Zertifizierung durch öffentliche Stellen etwa auch ein zuverlässiges Feedback vom System über die Sicherheit einer Entscheidung. Daneben sollte der Nutzer die Hoheit über die Entscheidung haben und auch von der KI darin unterstützt werden. Beim Human-KI-Teaming – hier kombinieren Menschen und KI synergetisch ihre jeweiligen Fähigkeiten – spiele die Interaktion und visuelle Kommunikation eine große Rolle.
KI wird "integraler Bestandteil vieler Berufe"
Auch in der Arbeitswelt werden die jüngsten Entwicklungen wohl schon früher als erwartet für Umbrüche sorgen, vor allem wegen des überraschend schnellen Vormarsches von generativer KI. "Künstliche Intelligenz wird zum integralen Bestandteil vieler Berufe", sieht Fridolin Herkommer, Leiter des Büros für Digitale Agenden der Arbeiterkammer Wien, eine stärkere praktische Anwendung von KI in den operativen Geschäftsprozessen.
KI-Agenten und KI-Denkmodelle würden die Entwicklung im Jahr 2025 prägen, indem sie Probleme schrittweise analysieren und alternative Lösungen ausprobieren, wodurch sich die Genauigkeit von KI-Systemen verbessern lässt. Besonders wichtig sei diese Fähigkeit für KI-Agenten, die autonom handeln und komplexe Aufgaben wie Reiseplanung, virtuelle Pflege oder Lieferketten- und Lageroptimierung übernehmen sollen.
Das setze nicht nur ein Grundverständnis für KI-Systeme voraus, sondern auch die Fähigkeit, diese effektiv und verantwortungsbewusst einzusetzen. Dazu brauche es wiederum eine entsprechende Aus- und Weiterbildungsstrategie und neben Bewusstseinsbildung vor allem auch praktische Anwendungsbeispiele zur Verdeutlichung der Möglichkeiten und Schwächen, so Herkommer. Schulungen seien auch in Hinblick auf Sicherheitsaspekte – etwa das Erkennen von Deepfakes oder die Abwehr von Phishingangriffen – nötig.
Die Akzeptanz von KI am Arbeitsplatz bleibe eine Herausforderung, da viele Arbeitnehmerinnen und Arbeitnehmer befürchten, ersetzt oder überwacht zu werden – beispielsweise in der Personalbewertung oder Leistungskontrolle, erläutert Herkommer. Eine vertrauensbildende Maßnahme wäre hier die Einbindung der Beschäftigten und ihrer Vertreterinnen und Vertreter in die Entscheidung über Einsatz, Sinn und Wert der KI. Das würde die produktive Nutzung fördern, Vorbehalte abbauen sowie Fehler vermeiden helfen, ist der AK-Experte überzeugt.
Auch bei industrieller Produktion auf dem Vormarsch
Die produzierenden Unternehmen in Österreich setzen ebenfalls zusehends auf KI, sagt Roland Sommer, Geschäftsführer der Plattform "Industrie 4.0". Die immer breitere Nutzung von "klassischer KI" zur Qualitätssicherung, für vorausschauende Wartung und Prozessoptimierungen werde sich fortsetzen. Gleichzeitig erwartet er im Bereich der generativen KI im Jahr 2025 eine Reihe an Anwendungsbeispielen, die über das Pilotstadium hinausgehen. Auch Themen wie KI-getriebene Business Intelligence, KI- und Cyber-Security sowie KI-Einsatz über Unternehmensgrenzen hinweg, beispielsweise in Wertschöpfungsketten, würden in den Fokus rücken, so der Experte.
Derzeit gebe es noch zahlreiche Problemstellungen: So könne niemand acht Stunden hochkonzentriert ein KI-System kontrollieren, wobei laut Sommer versucht wird, beispielsweise mit Gamification-Ansätzen entgegenzuwirken. Zudem sei das Arbeiten mit Wahrscheinlichkeiten für Menschen oft schwierig, verweist der Manager auf die mögliche Aussage, dass eine Ampel zu 96 Prozent gerade grün anzeigt. Vertrauen kann auch negative Effekte haben: "Vielfach tendieren Menschen dazu, dem System sehr zu vertrauen und Ergebnisse nicht zu hinterfragen."
Dass das Thema der vertrauenswürdigen KI vor allem durch den AI-Act in die öffentliche Wahrnehmung gerückt ist, bestätigen sowohl Sommer als auch Bühler: "Hier wird auch eine transparente KI-gestützte Entscheidungsfindung gefordert – diese Transparenz herzustellen ist weiterhin eine Herausforderung", so die VRVis-Expertin. "Vielfach sind die Algorithmen eine Blackbox. Das macht es für die Personen, die mit dem System arbeiten, schwer, festzustellen, wie die Ergebnisse zu bewerten sind", sagt Sommer. Und das schwächt wiederum das Vertrauen in Künstliche Intelligenz.
Service: Projekt ALAIT - Austrian Lab for Artificial Intelligence Trust