KI-Regulierung: Forscher sehen bei "AI-Act" Bock-Gärtner-Probleme
Die aktuell diskutierte EU-Regelung für Entwickler von Künstlicher Intelligenz (KI), "AI-Act" genannt, sei eine echte Chance, Regelungen einzuführen, noch bevor eine potenziell tiefgreifende Änderungen bringende Technologie alles durchdringt. Man könne hier "vor die Welle kommen", sagte Matthias Kettemann von der Universität Innsbruck am Mittwoch vor Journalisten. In der Grundkonstruktion sehe man zwar viele gute Ansätze, aber auch eine Art Bock-Gärtner-Problem, so Experten.
Spätestens ChatGPT hat vielen Menschen vor Augen geführt, was auf Basis der großen Fortschritte in der KI-Forschung, oder breiter ausgedrückt im Bereich des maschinellen Lernens, alles möglich ist. Momentan wird dementsprechend intensiv auch über Dystopien aller Art diskutiert. Für "Angstmacherei" im Sinne einer schleichenden Quasi-Abschaffung der Menschheit gibt es laut Innovationsrecht-Experten Kettemann keinen Anlass. Trotzdem brauche es Regulationen in dem Feld, die nun seitens der EU vorangetrieben werden. Gut sei, dass in neuen Entwürfen mehr Beschwerderechte bei Entscheidungen von KI-Systemen enthalten seien und ein menschenrechtszentrierter Ansatz vorherrsche.
Bei Risikoanwendungen könnte man jedenfalls noch "präziser werden". Darunter werden etwa Systeme zur Echtzeiterkennung anhand von biometrischen Daten oder Anwendungen zur Emotionserkennung sowie zum Beispiel in der Bildung, im Gesundheitsbereich, im Bereich der Strafverfolgung oder bei der Zuerkennung von Krediten verstanden, wie Wissenschafter in einem vom deutschen Science Media Center (SMC) veranstalteten Pressegespräch umrissen. Aus Sicht Kettemanns könne man angesichts einiger noch offenere Fragen durchaus noch länger verhandeln.
Für die an der University of Oxford (Großbritannien) tätige österreichische Technologie- und Regulierungsforscherin Sandra Wachter schreibt man in Europa mit der Regulierung gerade Geschichte. Grundsätzlich sollen durch den "AI-Act" KI-Anwendungen unterschiedliche Risiko-Gruppen von "Minimal" über "Hoch" bis "Inakzeptabel" zugeordnet werden. Je nach Einstufung müssen die Anbieter bestimmte Sicherheits- und Transparenz-Anforderungen erfüllen. Problematisch sei allerdings, dass nach dem Prinzip des "Conformity assessment" eigentlich die System-Hersteller im Hochrisiko-Bereich selbst einschätzen müssten, ob ihr Produkt den Regeln und Standards entspricht. Einzig wenn biometrische Daten verwendet werden, braucht es dazu einen Dritten.
Private Akteure und die Industrie federführend
Hier seien also "diejenigen, die den Recht folgen sollen", auch die, die darüber entscheiden, ob sie das denn tun, so die Wissenschafterin. Das sehe auch der "AI-Act" selbst als problematisch an, warum auf diese Übergangslösung eine neue folgen soll. Man sollte jedenfalls möglichst bald diese Überprüfungen an unabhängige Dritte übertragen - und darauf tunlichst nicht vergessen, betonte Wachter. Als Gegenpol zum "Conformity assessment" plädiert auch sie für ein starkes Recht für Bürger, Einsprüche zu erheben.
Bei der momentan durchgeführten Aushandlung der Standards seien nicht demokratisch legitimierte Institutionen, sondern private Akteure und die Industrie federführend. "Das sollte man im Hinterkopf behalten" und möglichst "nachbessern", sagte Wachter. Ebenso fehlte die grundsätzliche Diskussion, ob und unter welchen Umständen man KI beispielsweise in der Bildung oder in der Strafverfolgung tatsächlich einsetzen sollte.
Dass die Regulierungen etwa kleinere Firmen in ihren Entwicklungs- und Marktambitionen einbremsen, könne durchaus sein. Die Forschung halte der "AI-Act" aber sicher nicht auf, ist Wachter überzeugt. Das sah auch Ulrike Luxburg von der Universität Tübingen (Deutschland) ähnlich. Zur "sehr wichtigen" Regulierung gibt es aber auch für die Professorin für die Theorie des maschinellen Lernens einige offene Fragen. So gibt es schlichtweg Systeme, deren Entscheidungsfindung im Prinzip kaum bis nicht nachvollziehbar sind ("Black-Box-Modelle"). "Darf also etwa eine Bank ein KI-System dann nicht einsetzen, wenn sie nicht erklären kann, warum sie einen Kredit nicht vergibt?", fragte die Expertin.
Man werde Black-Box-Methoden nicht durchgehend transparent machen können. Offen seien aber auch Fragen zur Verantwortung beim unsachgemäßen Gebrauch von Technologien. Wie Firmen darlegen sollen, dass etwas nicht potenziell demokratiegefährdend eingesetzt werden kann, sei unklar. Wer so etwas überprüfen könnte, wisse sie ebenso nicht, so Luxburg: Immerhin könne ChatGPT "wunderbar sein", um ein Mail zu formulieren, auf das man eigentlich keine Lust hat. Es können dabei aber auch Dinge herauskommen, die absolut unerwünscht sind.