Neues Forschungsprojekt soll Vertrauen in KI stärken
Der Hype um Künstliche Intelligenz (KI) hat die Diskussion um die Rolle als Heilsbringer oder Büchse der Pandora ordentlich angeheizt. Das Thema polarisiert. Ein neues Forschungsprojekt soll nun die Grundlagen schaffen, das Vertrauen in KI zu stärken, indem Technologien mittels einer neuen Methode bewertet und den Menschen in Dialogformaten nähergebracht werden.
"Es stehen große Erwartungen in die disruptive Kraft von KI ebenso großen Ängsten über die missbräuchliche Verwendung gegenüber", skizziert Michael Wiesmüller vom Technologieministerium (BMK) im Gespräch mit APA-Science die aktuelle Lage. Er verwies auf Erfahrungen mit Nanotechnologien, einer der großen Hoffnungsträger der Nullerjahre, bei denen binnen kurzer Zeit die hohen Erwartungen in starke Vorbehalte umgeschlagen seien.
Bei diesen sogenannten Schlüsseltechnologien gebe es starke Wechselwirkungen zwischen sozialen Komponenten, also den Menschen mit ihren Ängsten, Erwartungen und Beziehungen, und technischen Komponenten, wie Software, Werkzeuge und Maschinen. "Diese Interaktion, also die Vergesellschaftung der Technologie, entscheidet letztlich über Erfolg oder Misserfolg", so Wiesmüller.
Labore als Dialogformat
Im neuen, auf zweieinhalb Jahre angelegten Projekt ALAIT - Austrian Lab for Artificial Intelligence Trust soll genau dieser Prozess vorangetrieben werden, indem das Vertrauen durch Wissen über KI und die Kompetenz im Umgang mit der Technologie gestärkt wird. Konkret ist geplant, eine neue wissenschaftliche Methode der Bewertung für KI-Technologien zu entwickeln und zu erproben. Außerdem werden Labore als Dialogformat eingerichtet.
Zuerst soll aber eine Art Trendradar die wichtigsten und am weitesten entwickelten KI-Technologien zutage fördern. Hier nimmt man beispielsweise sprachbasierte Tools wie Chatbots oder medizinische Anwendungen, etwa im Bereich Bilderkennung in der Radiologie, ins Visier. Anschließend werden zehn KI-Technologien ausgewählt und mithilfe einer neuartigen Technologiebewertung, die gemeinsam mit der Technischen Universität (TU) Wien entwickelt wird, analysiert. Weitere Projektpartner sind das Deep-Tech Start-up leiwand.ai und die APA - Austria Presse Agentur.
"Das ist wirklich Neuland. Es gibt bisher sehr wenig konkrete Ansätze, wo im Hinblick auf bestimmte Einsatzgebiete herausgearbeitet wird, wie gut eine Technologie angewendet werden kann, auf was man achten muss und welche Risiken bestehen", erklärte Gertraud Leimüller, Leiterin des FFG-geförderten Projekts sowie Gründerin und Geschäftsführerin des Beratungsunternehmens winnovation. Die Ergebnisse sollen dann für alle verständlich aufbereitet und als "KI Trust Dossiers" veröffentlicht werden.
"Sehr viel Graubereich und Nichtwissen"
In speziellen Dialogformaten, den ALAIT-Laboren, wird gemeinsam mit Vertretern der verschiedenen Berufsgruppen, aber auch Meinungsführern und Multiplikatoren, erkundet, wie sich die verschiedenen KI-Technologien gut einsetzen lassen, beispielsweise weitgehend autonom oder unter starker menschlicher Kontrolle. "Da gibt es ja sehr viel Graubereich, sehr viel Nichtwissen derzeit", so Leimüller. Wichtig sei auch der Kontext des jeweiligen Einsatzgebiets, weil sich die Risikobewertung von KI dementsprechend ändere, wie das ja auch beim "AI Act" der EU der Fall sei.
Diese zehn Technologiebewertungen würden für Organisationen, Unternehmen oder die Verwaltung eine Art Rüstzeug beziehungsweise eine klare Richtschnur darstellen, um zu erkennen, auf was man beim Einsatz von KI-Technologie achten müsse. "Wir werden aber in weiterer Folge einen europäischen Rahmen brauchen. Viele Fragen, die wir uns stellen, stellen sich ja andere Länder auch. Und darüber sollte man sich natürlich austauschen", konstatierte Wiesmüller.
Mit sicheren KI-Anwendungen, die vertrauenswürdig sind und die Privatsphäre gewährleisten, könne man sich auch international abheben, zeigte sich winnovation-Chefin Leimüller überzeugt: "Was tun die Start-ups und die großen Tech-Unternehmen, wenn die Leute nicht in die Technologie vertrauen? Dann wird es faktisch keinen Markt dafür geben." Das Vertrauen im Umgang mit dieser Technologie zu erhöhen sei auch die Voraussetzung für das Entstehen eines entsprechenden Ökosystems, so Wiesmüller: "In Österreich sind wir mit diesem Projekt schon einmal einen Schritt nach vorne gegangen."
Service: https://science.apa.at/project/alait/