Erstes AI-Trust-Dossier: KI in der medizinischen Bildgebung
… KI in der medizinischen Bildgebung wird mit einem insgesamt hohen Risiko bewertet. Das Risiko kann durch eine Reihe von Maßnahmen gesenkt werden. Zudem verspricht die Nutzung von KI in der medizinischen Bildgebung aber auch einen hohen Nutzen in Hinblick auf Diagnosen und Therapien. Der Markt ist aktuell noch sehr intransparent, da die Leistungsfähigkeit von KI-Anwendungen teilweise nur schwer beurteilt werden kann.
Beim Autonomiegrad hängt die Risikobewertung von medizinischen Bilderkennungssystemen von der menschlichen Kontrolle über die Anwendung ab. Wenn KI-Systeme weitgehend automatisiert Diagnosen oder Therapievorschläge erstellen und nur von medizinischem Fachpersonal überprüft werden, ist der Autonomiegrad als hoch einzustufen („Human-in-Control“). Der Autonomiegrad ist niedrig, wenn KI-Systeme als unterstützende Tools dienen („Human-in-the-Loop“ oder „Human-on-the-Loop“).
Empfohlen wird daher, die KI-Anwendung sorgfältig auszuwählen, die Leistungsfähigkeit unter realen Bedingungen zu prüfen und die Letztentscheidung unbedingt bei fachlich kompetenten Personen anzusiedeln. Dazu braucht es entsprechendes Know-how, das in der Organisation aufgebaut werden muss.
Unumgänglich ist auch, Patientinnen und Patienten über den Einsatz von KI zu informieren, sowie eine kontinuierliche Überwachung des KI-Systems.
Über das Projekt
Die Herausforderung
Die Etablierung von Vertrauen in Künstliche Intelligenz ist eine zentrale Herausforderung, da Ängste und Hoffnungen in der Gesellschaft aufeinandertreffen. In Österreich sinkt das Vertrauen in AI, was den Bedarf an Maßnahmen zur Vertrauensbildung erfordert. Dazu gehören Transparenz über KI-Technologien und deren Effekte, Governance durch rechtliche und soziale Normen sowie die Förderung von AI-Literacy, also dem Wissen und den Kompetenzen im Umgang mit KI. Ein offener Dialog über Ziele und Auswirkungen von KI ist essenziell, wobei alle Beteiligten über ausreichend Wissen verfügen müssen.
Projektziel
Das Projekt ALAIT zielt darauf ab, wichtige gesellschaftliche Gruppen zu befähigen, KI-Technologien verantwortungsvoll zu nutzen und ethische sowie qualitativ hochwertige Standards für den Einsatz von AI zu etablieren. Drei Dimensionen sollen zum Aufbau beitragen:
-
Transparenz
im Sinn von Zugänglichkeit von kompakter, umfassender Information über Wirkungen von KI-Technologien
-
Governance
für den KI-Einsatz und ihrer direkten Einbettung und Übersetzung von Normen in die Gesellschaft und
-
KI-Literacy
im Sinn des Erwerbs von Wissen und Kompetenzen für den Umgang mit aktuellen Technologien.
Die Lösungsansätze
ALAIT stützt sich dabei auf zwei neue wissenschaftliche Lösungsansätze:
- ALAIT entwickelt eine neue wissenschaftliche Methode der Technologiebewertung für KI-Technologien und erprobt diese in der Umsetzung. Das ALAIT Technology Impact Assessment ist eine Weiterentwicklung und Öffnung des klassischen Technology Assessments (TA), in dem die ethische, soziale und ökologische Transformation der Betrachtungsrahmen bleibt, jedoch spezifisch auf die komplexe Herausforderung der Beurteilung von KI-Technologien fokussiert wird.
- ALAIT entwickelt und erprobt im Sinne eines Participatory Designs ein in der Gesellschaft verankertes ALAIT Labor. Dieses umfasst Dialogformate und Feedback-Loops zur wissenschaftlichen Technologiebewertung mit einem wesentlichen Setting für die Entstehung gesellschaftlichen Vertrauens in KI.
Das Projekt stiftet Nutzen in Gesellschaft und dem KI-Ökosystem durch die Versachlichung und Intensivierung des KI-Dialogs, einen Beitrag zur Erhöhung der Akzeptanz von KI durch Einbettung sozialer, organisationaler und technischer Normen in die KI-Anwendungskontexte sowie der Ermächtigung von Nutzer:innen, KI verantwortungsvoll im Branchen- und Berufskontext einzusetzen.
Das ALAIT-Konsortium
Die Mitglieder und ihre Expertise
Ein Konsortium – viele Kompetenzen. Das Projektkonsortium besteht aus den vier Partnern winnovation, leiwand.ai, TU Wien und der APA – Austria Presse Agentur. Alle vier Partner weisen große wissenschaftliche Expertise in KI-Technologien, ihrer Qualitätsbewertung und gesellschaftlichen Anforderungen an Künstlicher Intelligenz sowie innovative methodische Ansätze und eine hohe Disseminierungskraft durch eine starke Verankerung im österreichischen KI-Ökossystem auf.
Projektbeirat
Ein Projektbeirat aus hochkarätigen Expert:innen aus den Bereichen Wissenschaft, Wirtschaft, Gesellschaft und Politik begleitet den Prozess des Forschungsprojekts. Im Beirat sind vertreten: Peter Biegelbauer (AIT), Katja Bühler (VRVis), Leonhard Dobusch (Universität Innsbruck), Laura Drechsler (KU Leuven), Philipp Kellmeyer (Universität Mannheim), Marta Sabou (WU Wien) und Karin Sommer (WKÖ).
Projektergebnisse - Darum geht es bei ALAIT
ALAIT Technology Impact Assessment
ALAIT entwickelt eine neue wissenschaftliche Methode der Technologiebewertung für KI-Technologien und erprobt diese in der Umsetzung. Das ALAIT Technology Impact Assessment wird eine Weiterentwicklung und Öffnung des klassischen Technology Assessments (TA), in dem eine ethische, soziale und ökologische Transformation der Betrachtungsrahmen bleibt, jedoch spezifisch auf die komplexe Herausforderung der Beurteilung von KI-Technologien fokussiert wird.
KI Trust Dossiers
Zehn gezielt ausgewählte KI-Technologien werden mithilfe des neuartigen ALAIT Technology Impact Assessment (TIA) analysiert und die Ergebnisse in Form von KI Trust Dossiers veröffentlicht. Die KI-Trust Dossiers fassen die Ergebnisse des ALAIT TIA wissenschaftlich fundiert und in leicht-fasslicher Weise auf ca. drei bis sechs Seiten zusammen.
Einen Einblick in den Entstehungsprozess unserer Dossiers zu geben, ist uns wichtig, weshalb wir unsere Forscher:innen gebeten haben, uns ein paar Fragen zu ihrer Arbeitsweise zu beantworten. Am Schluss gibt es noch einen Tipp zur Vertiefung.
Wie seid ihr bei der Erstellung des Dossiers vorgegangen?
Unsere Dossiers basieren auf einem mehrstufigen, transparenten Prozess. Zunächst führen wir eine tiefgehende wissenschaftliche Literaturrecherche durch, bei der aktuelle Studien, Fachartikel und relevante Publikationen systematisch ausgewertet werden. Ergänzend dazu führen wir Expert:inneninterviews mit anerkannten Fachleuten aus Wissenschaft und Praxis. Das Ergebnis ist ein kompaktes, faktenbasiertes und vor allem verständlich aufbereitetes Informationsdokument.
Wie wurden externe Fachleute in den Entstehungsprozess des Dossiers eingebunden?
Unsere Herangehensweise ist es, bereits im Entstehungsprozess mit mehreren Expert:innen zum jeweiligen Fachthema des jeweiligen Dossiers zu sprechen, mitunter aus dem ALAIT Projektbeirat. Dieser besteht aus ausgewiesenen nationalen und internationalen Expert:innen aus unterschiedlichsten KI-Domänen. Das fertige Dossier durchläuft schließlich ein weiteres Expert:innen-Screening durch unabhängige Fachleute.
Wieso habt Ihr Euch für diese Methode in der Risikoanalyse entschieden?
Unterschiedliche KI-Technologien auf ihr Risikopotenzial zu bewerten ist eine komplexe Aufgabe. Zudem sind unsere Zielgruppen im Projekt ALAIT unterschiedlich – nicht nur thematisch, sondern auch in ihrer KI-Expertise. Die Herausforderung des Projektes besteht also darin, eine zielgruppengerechte, wissenschaftlich fundierte aber gleichzeitig leicht verständliche Risikoanalyse einzusetzen.
Deshalb wurde im Projekt eine neuartige, wissenschaftliche Methode zur Bewertung des Einsatzrisikos verschiedener KI-Technologien entwickelt, welche Risiken von KI-Technologien möglichst zielgruppengerecht und schnell verständlich – also auf einen Blick – aufzeigt. Leser:innen der Dossiers sollen komplexe Zusammenhänge intuitiv verstehen können. Ein schneller Einstieg ins jeweilige Thema wird dementsprechend auch durch die Farbskala in der Risiko-Matrix ermöglicht: Niedriges Risiko (blau) ist von hohem Risiko (rot / violett) leicht zu unterscheiden.
Wie darf das Dossier / dürfen die Dossiers genutzt werden?
Wir freuen uns sehr, wenn die Dossiers weite Verbreitung finden und dazu beitragen, das Vertrauen in KI zu stärken und Wissen zu KI aufzubauen. Die Dossiers stehen unter der Creative Commons Lizenz CC BY-NC-ND 4.0 https://creativecommons.org/licenses/by-nc-nd/4.0/deed.de (Namensnennung-Nicht kommerziell-Keine Bearbeitungen 4.0 International). Das heißt, dass herunterladen, teilen und weitergeben unter der Nennung der Urheber:in erlaubt sind.
Wer sind die Autor:innen des Dossiers?
Am Dossier haben Gertraud Leimüller, Ilya Faynleyb, Sabine Köszegi, Silvia Wasserbacher-Schwarzer und Rania Wazir mitgearbeitet.
Gibt es aktuelle Studien aus Österreich zu dem Thema?
Riegelnegg, M., Giess, D. und Goetz, G. (2024): Künstliche Intelligenz in der Gesundheitsversorgung mit Schwerpunkt auf Krankenhäusern: Methodische Überlegungen für Health Technology Assessment. Ein Scoping Review. HTA-Projektbericht 164. Eine Checkliste für den KI-Einsatz ist abrufbar unter https://eprints.aihta.at/1546/
ALAIT Labore
Im Sinne eines Participatory Designs schafft ein in der Gesellschaft verankertes ALAIT Labor als Dialogformat ein wesentliches Setting für die Entstehung gesellschaftlichen Vertrauens in KI.
Um den Dialog zu den zuvor identifizierten Chancen und Risiken von KI innerhalb von Branchen zu ermöglichen und darüber sowohl Vertrauen und Wissen aufzubauen wie auch Erkenntnisse zu Qualitätsdimensionen soziotechnischer Bewertung von KI in den Branchen zu gewinnen, wird ein eigenes ALAIT Labor Interaktionsdesign entwickelt. Das ALAIT Labor umfasst die Bereiche KI-Grundwissen, spezifische Qualitätsanforderungen, Übersetzung Trustworthy AI sowie soziotechnische Bewertung von KI-Technologien und -systemen im jeweiligen Branchen- und Berufskontext.
ALAIT Train-the-Trainer Netzwerk
Um das Workshopformat ALAIT Labor einer breiten Interessentengruppe zur Verfügung zu stellen, wird ein Train-the-Trainer-Format für Multiplikator:innen aufgebaut, welches in einem Netzwerk an interessierten Organisationen verbreitet wird.
Sie haben Interesse ein ALAIT-Labor in Ihrer Organisation umzusetzen?
Neuigkeiten zum Projekt
Partnermeldungen
Ein Projekt im Auftrag von
Bundesministerium für Innovation, Mobilität und Infrastruktur

FFG - Forschungsförderungsgesellschaft

Das Projekt wird im Auftrag des Bundesministeriums für Innovation, Mobilität und Infrastruktur (BMIMI) umgesetzt. Die Abwicklung der Förderung erfolgt über die FFG – Österreichische Forschungsförderungsgesellschaft mbH.
Kontakt
Sie haben Fragen oder Anmerkungen zum Projekt?
Gerne steht Ihnen Lena Müller-Kress (Projektmanagement ALAIT) als Ansprechpartnerin zur Verfügung.