Über das Projekt
Die Herausforderung
Die Etablierung von Vertrauen in Künstliche Intelligenz ist eine zentrale Herausforderung, da Ängste und Hoffnungen in der Gesellschaft aufeinandertreffen. In Österreich sinkt das Vertrauen in AI, was den Bedarf an Maßnahmen zur Vertrauensbildung erfordert. Dazu gehören Transparenz über KI-Technologien und deren Effekte, Governance durch rechtliche und soziale Normen sowie die Förderung von AI-Literacy, also dem Wissen und den Kompetenzen im Umgang mit KI. Ein offener Dialog über Ziele und Auswirkungen von KI ist essenziell, wobei alle Beteiligten über ausreichend Wissen verfügen müssen.
Projektziel
Das Projekt ALAIT zielt darauf ab, wichtige gesellschaftliche Gruppen zu befähigen, KI-Technologien verantwortungsvoll zu nutzen und ethische sowie qualitativ hochwertige Standards für den Einsatz von AI zu etablieren. Drei Dimensionen sollen zum Aufbau beitragen:
-
Transparenz
im Sinn von Zugänglichkeit von kompakter, umfassender Information über Wirkungen von KI-Technologien
-
Governance
für den KI-Einsatz und ihrer direkten Einbettung und Übersetzung von Normen in die Gesellschaft und
-
KI-Literacy
im Sinn des Erwerbs von Wissen und Kompetenzen für den Umgang mit aktuellen Technologien.
Die Lösungsansätze
ALAIT stützt sich dabei auf zwei neue wissenschaftliche Lösungsansätze:
- ALAIT entwickelt eine neue wissenschaftliche Methode der Technologiebewertung für KI-Technologien und erprobt diese in der Umsetzung. Das ALAIT Technology Impact Assessment ist eine Weiterentwicklung und Öffnung des klassischen Technology Assessments (TA), in dem die ethische, soziale und ökologische Transformation der Betrachtungsrahmen bleibt, jedoch spezifisch auf die komplexe Herausforderung der Beurteilung von KI-Technologien fokussiert wird.
- ALAIT entwickelt und erprobt im Sinne eines Participatory Designs ein in der Gesellschaft verankertes ALAIT Labor. Dieses umfasst Dialogformate und Feedback-Loops zur wissenschaftlichen Technologiebewertung mit einem wesentlichen Setting für die Entstehung gesellschaftlichen Vertrauens in KI.
Das Projekt stiftet Nutzen in Gesellschaft und dem KI-Ökosystem durch die Versachlichung und Intensivierung des KI-Dialogs, einen Beitrag zur Erhöhung der Akzeptanz von KI durch Einbettung sozialer, organisationaler und technischer Normen in die KI-Anwendungskontexte sowie der Ermächtigung von Nutzer:innen, KI verantwortungsvoll im Branchen- und Berufskontext einzusetzen.
Das ALAIT-Konsortium

Die Mitglieder und ihre Expertise
Ein Konsortium – viele Kompetenzen. Das Projektkonsortium besteht aus den vier Partnern winnovation, leiwand.ai, TU Wien und der APA – Austria Presse Agentur. Alle vier Partner weisen große wissenschaftliche Expertise in KI-Technologien, ihrer Qualitätsbewertung und gesellschaftlichen Anforderungen an Künstlicher Intelligenz sowie innovative methodische Ansätze und eine hohe Disseminierungskraft durch eine starke Verankerung im österreichischen KI-Ökossystem auf.
Projektbeirat
Ein Projektbeirat aus hochkarätigen Expert:innen aus den Bereichen Wissenschaft, Wirtschaft, Gesellschaft und Politik begleitet den Prozess des Forschungsprojekts. Im Beirat sind vertreten: Peter Biegelbauer (AIT), Katja Bühler (VRVis), Leonhard Dobusch (Universität Innsbruck), Laura Drechsler (KU Leuven), Philipp Kellmeyer (Universität Mannheim), Marta Sabou (WU Wien) und Karin Sommer (WKÖ).

Projektergebnisse - Darum geht es bei ALAIT

ALAIT Technology Impact Assessment
ALAIT entwickelt eine neue wissenschaftliche Methode der Technologiebewertung für KI-Technologien und erprobt diese in der Umsetzung. Das ALAIT Technology Impact Assessment wird eine Weiterentwicklung und Öffnung des klassischen Technology Assessments (TA), in dem eine ethische, soziale und ökologische Transformation der Betrachtungsrahmen bleibt, jedoch spezifisch auf die komplexe Herausforderung der Beurteilung von KI-Technologien fokussiert wird.
KI Trust Dossiers
Zehn gezielt ausgewählte KI-Technologien werden mithilfe des neuartigen ALAIT Technology Impact Assessment (TIA) analysiert und die Ergebnisse in Form von KI Trust Dossiers veröffentlicht. Die KI-Trust Dossiers fassen die Ergebnisse des ALAIT TIA wissenschaftlich fundiert und in leicht-fasslicher Weise auf ca. drei bis sechs Seiten zusammen.
In Kürze folgt ein DOWNLOAD-Bereich.


ALAIT Labore
Im Sinne eines Participatory Designs schafft ein in der Gesellschaft verankertes ALAIT Labor als Dialogformat ein wesentliches Setting für die Entstehung gesellschaftlichen Vertrauens in KI.
Um den Dialog zu den zuvor identifizierten Chancen und Risiken von KI innerhalb von Branchen zu ermöglichen und darüber sowohl Vertrauen und Wissen aufzubauen wie auch Erkenntnisse zu Qualitätsdimensionen soziotechnischer Bewertung von KI in den Branchen zu gewinnen, wird ein eigenes ALAIT Labor Interaktionsdesign entwickelt. Das ALAIT Labor umfasst die Bereiche KI-Grundwissen, spezifische Qualitätsanforderungen, Übersetzung Trustworthy AI sowie soziotechnische Bewertung von KI-Technologien und -systemen im jeweiligen Branchen- und Berufskontext.
ALAIT Train-the-Trainer Netzwerk
Um das Workshopformat ALAIT Labor einer breiten Interessentengruppe zur Verfügung zu stellen, wird ein Train-the-Trainer-Format für Multiplikator:innen aufgebaut, welches in einem Netzwerk an interessierten Organisationen verbreitet wird.
Sie haben Interesse ein ALAIT-Labor in Ihrer Organisation umzusetzen?

Neuigkeiten zum Projekt
Partnermeldungen
Ein Projekt im Auftrag von
Bundesministerium für Klimaschutz, Umwelt, Energie, Mobilität und Technologie
FFG - Forschungsförderungsgesellschaft
Das Projekt wird im Auftrag des Bundesministeriums für Klimaschutz, Umwelt, Energie, Mobilität, Innovation und Technologie (BMK) umgesetzt. Die Abwicklung der Förderung erfolgt über die FFG – Österreichische Forschungsförderungsgesellschaft mbH.

Kontakt
Sie haben Fragen oder Anmerkungen zum Projekt?
Gerne steht Ihnen Katrin Roseneder (Projektmanagement ALAIT) als Ansprechpartnerin zur Verfügung.