apa.at

Vertrauen durch Wissen: Gemeinsam KI verstehen und gestalten

Forschungs- und Entwicklungsprojekt ALAIT - Austrian Lab for Artificial Intelligence Trust

Das F&E-Projekt ALAIT entwickelt ein innovatives ALAIT Technology Impact Assessment für Künstliche Intelligenz und fördert durch das ALAIT Labor und ein Train-the-Trainer-Netzwerk den öffentlichen Diskurs über KI-Vertrauen. Ergebnisse werden in AI-Trust-Dossiers veröffentlicht und breit gestreut. Unser Ziel ist es, Vertrauen in KI-Technologie durch Transparenz und Information zu stärken.

 

Projektlaufzeit: September 2024 – Jänner 2027

Die AI-Trust-Dossiers zum Download finden Sie im nächsten Abschnitt.

Credit: Science Photo Library / picturedesk.com
Dossiers zum Download Über das Projekt Das ALAIT-Konsortium Projektbeirat Projektergebnisse Berichterstattung Kontakt
mdi-download 1. ALAIT Dossier: KI in der medizinischen Bildgebung ALAIT_Dossier_01 PDF/316 KB

Erstes AI-Trust-Dossier: KI in der medizinischen Bildgebung

KI in der medizinischen Bildgebung wird mit einem insgesamt hohen Risiko bewertet. Das Risiko kann durch eine Reihe von Maßnahmen gesenkt werden. Zudem verspricht die Nutzung von KI in der medizinischen Bildgebung aber auch einen hohen Nutzen in Hinblick auf Diagnosen und Therapien. Der Markt ist aktuell noch sehr intransparent, da die Leistungsfähigkeit von KI-Anwendungen teilweise nur schwer beurteilt werden kann.

Beim Autonomiegrad hängt die Risikobewertung von medizinischen Bilderkennungssystemen von der menschlichen Kontrolle über die Anwendung ab. Wenn KI-Systeme weitgehend automatisiert Diagnosen oder Therapievorschläge erstellen und nur von medizinischem Fachpersonal überprüft werden, ist der Autonomiegrad als hoch einzustufen („Human-in-Control“). Der Autonomiegrad ist niedrig, wenn KI-Systeme als unterstützende Tools dienen („Human-in-the-Loop“ oder „Human-on-the-Loop“).

Empfohlen wird daher, die KI-Anwendung sorgfältig auszuwählen, die Leistungsfähigkeit unter realen Bedingungen zu prüfen und die Letztentscheidung unbedingt bei fachlich kompetenten Personen anzusiedeln. Dazu braucht es entsprechendes Know-how, das in der Organisation aufgebaut werden muss.

Unumgänglich ist auch, Patientinnen und Patienten über den Einsatz von KI zu informieren, sowie eine kontinuierliche Überwachung des KI-Systems.

Über das Projekt

Die Herausforderung

Die Etablierung von Vertrauen in Künstliche Intelligenz ist eine zentrale Herausforderung, da Ängste und Hoffnungen in der Gesellschaft aufeinandertreffen. In Österreich sinkt das Vertrauen in AI, was den Bedarf an Maßnahmen zur Vertrauensbildung erfordert. Dazu gehören Transparenz über KI-Technologien und deren Effekte, Governance durch rechtliche und soziale Normen sowie die Förderung von AI-Literacy, also dem Wissen und den Kompetenzen im Umgang mit KI. Ein offener Dialog über Ziele und Auswirkungen von KI ist essenziell, wobei alle Beteiligten über ausreichend Wissen verfügen müssen.

Projektziel

Das Projekt ALAIT zielt darauf ab, wichtige gesellschaftliche Gruppen zu befähigen, KI-Technologien verantwortungsvoll zu nutzen und ethische sowie qualitativ hochwertige Standards für den Einsatz von AI zu etablieren. Drei Dimensionen sollen zum Aufbau beitragen:
  • Transparenz

    im Sinn von Zugänglichkeit von kompakter, umfassender Information über Wirkungen von KI-Technologien

  • Governance

    für den KI-Einsatz und ihrer direkten Einbettung und Übersetzung von Normen in die Gesellschaft und

  • KI-Literacy

    im Sinn des Erwerbs von Wissen und Kompetenzen für den Umgang mit aktuellen Technologien.

Die Lösungsansätze

ALAIT stützt sich dabei auf zwei neue wissenschaftliche Lösungsansätze:

  • ALAIT entwickelt eine neue wissenschaftliche Methode der Technologiebewertung für KI-Technologien und erprobt diese in der Umsetzung. Das ALAIT Technology Impact Assessment ist eine Weiterentwicklung und Öffnung des klassischen Technology Assessments (TA), in dem die ethische, soziale und ökologische Transformation der Betrachtungsrahmen bleibt, jedoch spezifisch auf die komplexe Herausforderung der Beurteilung von KI-Technologien fokussiert wird.
  • ALAIT entwickelt und erprobt im Sinne eines Participatory Designs ein in der Gesellschaft verankertes ALAIT Labor. Dieses umfasst Dialogformate und Feedback-Loops zur wissenschaftlichen Technologiebewertung mit einem wesentlichen Setting für die Entstehung gesellschaftlichen Vertrauens in KI.

 

Das Projekt stiftet Nutzen in Gesellschaft und dem KI-Ökosystem durch die Versachlichung und Intensivierung des KI-Dialogs, einen Beitrag zur Erhöhung der Akzeptanz von KI durch Einbettung sozialer, organisationaler und technischer Normen in die KI-Anwendungskontexte sowie der Ermächtigung von Nutzer:innen, KI verantwortungsvoll im Branchen- und Berufskontext einzusetzen.

Das ALAIT-Konsortium

ALAIT Konsortium
ALAIT Konsortium
Die Mitglieder und ihre Expertise

Ein Konsortium – viele Kompetenzen. Das Projektkonsortium besteht aus den vier Partnern winnovation, leiwand.ai, TU Wien und der APA – Austria Presse Agentur. Alle vier Partner weisen große wissenschaftliche Expertise in KI-Technologien, ihrer Qualitätsbewertung und gesellschaftlichen Anforderungen an Künstlicher Intelligenz sowie innovative methodische Ansätze und eine hohe Disseminierungskraft durch eine starke Verankerung im österreichischen KI-Ökossystem auf.

Konsortium-Zusammensetzung

winnovation consulting (Projektleitung)

Als Projektinitiatorinnen mit starker Cross-Innovation- und F&E-Expertise entwickelt winnovation neue Lösungen zu komplexen Herausforderungen. Eine Kernkompetenz von winnovation ist die verantwortungsvolle und nutzerorientierte Integration von neuartigen Technologien in Innovationsökosystemen.

TU Wien

Die TU Wien bringt insbesondere die wissenschaftliche Experitse und langjährige Erfarhung in der Abwicklung von interdisziplinären- und transdisziplinären Forschungsprojekten sowie Know-how zur Technik-Berwertung und -Folgenabschätzung ein.

APA – Austria Presse Agentur

Österreichs größte Nachrichtenagentur treibt KI-Technologien und deren Qualitätsbewertung in der Medien- und Kommunikationsbranche maßgeblich voran. Neben diverser KI-Tools hat die APA bereits 2023 eine Leitlinie zum Umgang mit künstlicher Intelligenz veröffentlicht.

leiwand AI

leiwand AI ist ein Deep-Tech Start-up, das eigene Technologien zur Erkennung und Reduktion von algorithmischem Bias und Diskriminierung durch KI entwickelt. Entstanden als Spinnoff aus einem Forschungsprojekt zu unerwünschtem Bias in KI-Systemen versammeln die Gründerinnen Rania Wazir und Gertraud Leimüller heute ein interdisziplinäres Team aus Data Science und Sozialwissenschaften um sich. Dies ermöglicht eine 360° Grad Expertise für vertrauenswürdige KI mit höchsten ethischen Standards.

Projektbeirat

Ein Projektbeirat aus hochkarätigen Expert:innen aus den Bereichen Wissenschaft, Wirtschaft, Gesellschaft und Politik begleitet den Prozess des Forschungsprojekts. Im Beirat sind vertreten: Peter Biegelbauer (AIT), Katja Bühler (VRVis), Leonhard Dobusch (Universität Innsbruck), Laura Drechsler (KU Leuven), Philipp Kellmeyer (Universität Mannheim), Marta Sabou (WU Wien) und Karin Sommer (WKÖ).

ALAIT 2. Beiratssitzung

Projektergebnisse - Darum geht es bei ALAIT

Human mind with AI cloud, depression, loneliness and mental health influenced by artificial intelligence, overwhelmed by social media , transhuman
Credit: Berit Kessler / dpa Picture Alliance / picturedesk.com
ALAIT Technology Impact Assessment

ALAIT entwickelt eine neue wissenschaftliche Methode der Technologiebewertung für KI-Technologien und erprobt diese in der Umsetzung. Das ALAIT Technology Impact Assessment wird eine Weiterentwicklung und Öffnung des klassischen Technology Assessments (TA), in dem eine ethische, soziale und ökologische Transformation der Betrachtungsrahmen bleibt, jedoch spezifisch auf die komplexe Herausforderung der Beurteilung von KI-Technologien fokussiert wird. 

KI Trust Dossiers

Zehn gezielt ausgewählte KI-Technologien werden mithilfe des neuartigen ALAIT Technology Impact Assessment (TIA) analysiert und die Ergebnisse in Form von KI Trust Dossiers veröffentlicht. Die KI-Trust Dossiers fassen die Ergebnisse des ALAIT TIA wissenschaftlich fundiert und in leicht-fasslicher Weise auf ca. drei bis sechs Seiten zusammen.

Credit: Berit Kessler / dpa Picture Alliance / picturedesk.com

Einen Einblick in den Entstehungsprozess unserer Dossiers zu geben, ist uns wichtig, weshalb wir unsere Forscher:innen gebeten haben, uns ein paar Fragen zu ihrer Arbeitsweise zu beantworten. Am Schluss gibt es noch einen Tipp zur Vertiefung.

Wie seid ihr bei der Erstellung des Dossiers vorgegangen?

Unsere Dossiers basieren auf einem mehrstufigen, transparenten Prozess. Zunächst führen wir eine tiefgehende wissenschaftliche Literaturrecherche durch, bei der aktuelle Studien, Fachartikel und relevante Publikationen systematisch ausgewertet werden. Ergänzend dazu führen wir Expert:inneninterviews mit anerkannten Fachleuten aus Wissenschaft und Praxis. Das Ergebnis ist ein kompaktes, faktenbasiertes und vor allem verständlich aufbereitetes Informationsdokument.

Wie wurden externe Fachleute in den Entstehungsprozess des Dossiers eingebunden?

Unsere Herangehensweise ist es, bereits im Entstehungsprozess mit mehreren Expert:innen zum jeweiligen Fachthema des jeweiligen Dossiers zu sprechen, mitunter aus dem ALAIT Projektbeirat. Dieser besteht aus ausgewiesenen nationalen und internationalen Expert:innen aus unterschiedlichsten KI-Domänen. Das fertige Dossier durchläuft schließlich ein weiteres Expert:innen-Screening durch unabhängige Fachleute.

Wieso habt Ihr Euch für diese Methode in der Risikoanalyse entschieden?  

Unterschiedliche KI-Technologien auf ihr Risikopotenzial zu bewerten ist eine komplexe Aufgabe. Zudem sind unsere Zielgruppen im Projekt ALAIT unterschiedlich – nicht nur thematisch, sondern auch in ihrer KI-Expertise. Die Herausforderung des Projektes besteht also darin, eine zielgruppengerechte, wissenschaftlich fundierte aber gleichzeitig leicht verständliche Risikoanalyse einzusetzen.

Deshalb wurde im Projekt eine neuartige, wissenschaftliche Methode zur Bewertung des Einsatzrisikos verschiedener KI-Technologien entwickelt, welche Risiken von KI-Technologien möglichst zielgruppengerecht und schnell verständlich – also auf einen Blick – aufzeigt. Leser:innen der Dossiers sollen komplexe Zusammenhänge intuitiv verstehen können. Ein schneller Einstieg ins jeweilige Thema wird dementsprechend auch durch die Farbskala in der Risiko-Matrix ermöglicht: Niedriges Risiko (blau) ist von hohem Risiko (rot / violett) leicht zu unterscheiden.

Wie darf das Dossier / dürfen die Dossiers genutzt werden?

Wir freuen uns sehr, wenn die Dossiers weite Verbreitung finden und dazu beitragen, das Vertrauen in KI zu stärken und Wissen zu KI aufzubauen. Die Dossiers stehen unter der Creative Commons Lizenz CC BY-NC-ND 4.0 https://creativecommons.org/licenses/by-nc-nd/4.0/deed.de (Namensnennung-Nicht kommerziell-Keine Bearbeitungen 4.0 International). Das heißt, dass herunterladen, teilen und weitergeben unter der Nennung der Urheber:in erlaubt sind.

Wer sind die Autor:innen des Dossiers?

Am Dossier haben Gertraud Leimüller, Ilya Faynleyb, Sabine Köszegi, Silvia Wasserbacher-Schwarzer und Rania Wazir mitgearbeitet.

Gibt es aktuelle Studien aus Österreich zu dem Thema?

Riegelnegg, M., Giess, D. und Goetz, G. (2024): Künstliche Intelligenz in der Gesundheitsversorgung mit Schwerpunkt auf Krankenhäusern: Methodische Überlegungen für Health Technology Assessment. Ein Scoping Review. HTA-Projektbericht 164. Eine Checkliste für den KI-Einsatz ist abrufbar unter https://eprints.aihta.at/1546/

ALAIT Labor
Credit: APA / Marecek
ALAIT Labore

Im Sinne eines Participatory Designs schafft ein in der Gesellschaft verankertes ALAIT Labor als Dialogformat ein wesentliches Setting für die Entstehung gesellschaftlichen Vertrauens in KI. 

Um den Dialog zu den zuvor identifizierten Chancen und Risiken von KI innerhalb von Branchen zu ermöglichen und darüber sowohl Vertrauen und Wissen aufzubauen wie auch Erkenntnisse zu Qualitätsdimensionen soziotechnischer Bewertung von KI in den Branchen zu gewinnen, wird ein eigenes ALAIT Labor Interaktionsdesign entwickelt. Das ALAIT Labor umfasst die Bereiche KI-Grundwissen, spezifische Qualitätsanforderungen, Übersetzung Trustworthy AI sowie soziotechnische Bewertung von KI-Technologien und -systemen im jeweiligen Branchen- und Berufskontext.

ALAIT Train-the-Trainer Netzwerk

Um das Workshopformat ALAIT Labor einer breiten Interessentengruppe zur Verfügung zu stellen, wird ein Train-the-Trainer-Format für Multiplikator:innen aufgebaut, welches in einem Netzwerk an interessierten Organisationen verbreitet wird.

Sie haben Interesse ein ALAIT-Labor in Ihrer Organisation umzusetzen?

Kontaktieren Sie uns!
Credit: Berit Kessler / imageBROKER / picturedesk.com

Die Gesichter hinter ALAIT

Gertraud Leimüller, winnovation

Gertraud Leimüller ist Gründerin und Geschäftsführerin von winnovation und transformiert als führende Cross-Innovation-Expertin mit starker Technologie- und F&E-Expertise seit mehr als 15 Jahren erfolgreich Organisationen und Innovationsökosysteme. Gemeinsam mit Rania Wazir gründete sie das Deep-Tech Startup leiwand AI.

Lena Müller-Kress, winnovation

Lena Müller-Kress ist als Senior Innovation Consultant bei winnovation seit vielen Jahren in der Konzeption und Umsetzung von herausfordernden und partizipativen Innovationsprojekten tätig. Sie ist eine Expertin für Digitale Transformation, hat umfassendes technologisches Wissen und beschäftigt sich in mehreren Forschungsprojekten mit Qualitätsanforderungen an KI-Systeme vor allem hinsichtlich Trustworthy AI. 

Sabine T. Köszegi, TU Wien

Sabine Köszegi ist Professorin für Arbeitswissenschaft und Organisation und forscht an der Schnittstelle Arbeit, Technologie und Mensch am Institut für Managementwissenschaften der TU Wien. Sie hat den Vorsitz des UNESCO-Beirats für Ethik der Künstlichen Intelligenz in Österreich inne und ist Mitglied des Beirats für Künstliche Intelligenz (KI-Beirat) der Österreichischen Bundesregierung und im AI Advisory Pool der Stadt Wien.

Silvia Wasserbacher-Schwarzer, leiwand AI

Silvia Wasserbacher-Schwarzer ist Chief Strategist von leiwand AI, wo sie sich seit mehreren Jahren eingehend mit dem Thema Vertrauenswürdigkeit in der KI beschäftigt. Zuvor fokussierte sie in der Innovationsberatung auf Themen der Digitalen Transformation in Wissenschaft, Gesundheit und Nachhaltigkeit. Silvia ist eine erfahrene Moderatorin von Co-Creation-Workshops und arbeitet mit sehr unterschiedlichen Gruppen von TeilnehmerInnen, um neue Erkenntnisse und Lösungen zu erzielen. Silvia Wasserbacher-Schwarzer hat Politikwissenschaften mit Schwerpunkt auf politische Kommunikation studiert.

Ilya Faynleyb, TU Wien

Absolvent der TU Wien im Bereich Wirtschaftsingenieurwesen-Maschinenbau,  4 Jahre Berufserfahrung im Projekt- und Inhaltsmanagement sowie im Logistikmanagement.

Rania Wazir, leiwand AI

Rania Wazir, PhD, ist Co-Gründerin und CTO von leiwand AI. Sie ist Data Scientist und Mathematikerin mit Abschlüssen von Stanford (B.Sc.) und der Brown University (Ph.D.). Als Expertin für vertrauenswürdige KI mit besonderem Schwerpunkt auf die Erkennung und Abschwächung von Voreingenommenheit und Diskriminierung ist sie an mehreren nationalen und internationalen Forschungs- und Entwicklungsprojekten für namhafte Organisationen wie etwa die Fundamental Rights Agency (FRA) oder Amnesty International Italien beteiligt.

Rania ist zudem österreichische Delegierte in internationalen Normungsorganisationen, die sich mit KI befassen (CEN/CLC JTC21 und ISO/IEC JTC1/SC42) und gestaltet aktiv an Standardisierungsprojekten mit, die integrale Eckpfeiler des Europäischen AI-Acts bilden.

Für die österreichische UNESCO-Kommission ist Rania Wazir Mitglied des beratenden Ausschusses zur Ethik der KI.

Verena Krawarik, APA

Verena Krawarik ist Head of Innovation in der APA – Austria Presse Agentur und APA-medialab. Seit 2024 ist sie außerdem Mitglied des Beirats für Künstliche Intelligenz (KI-Beirat).

Sophia Marecek, APA

Sophia Marecek ist Produktmanagerin der APA-Redaktion und für die Entwicklung der Wissenschaftsplattform „APA-Science“ zuständig – Netzwerk, Online-Plattform und Drehscheibe für News aus Forschung, Bildung und Innovation in Österreich. 

Ein Projekt im Auftrag von

Bundesministerium für Innovation, Mobilität und Infrastruktur

FFG - Forschungsförderungsgesellschaft

Das Projekt wird im Auftrag des Bundesministeriums für Innovation, Mobilität und Infrastruktur (BMIMI) umgesetzt. Die Abwicklung der Förderung erfolgt über die FFG – Österreichische Forschungsförderungsgesellschaft mbH.

Kontakt

Sie haben Fragen oder Anmerkungen zum Projekt?

Gerne steht Ihnen Lena Müller-Kress (Projektmanagement ALAIT) als Ansprechpartnerin zur Verfügung.

Jetzt kontaktieren

Ein Projekt in Kooperation mit