KI-Regulierung: Forscher sehen Fortschritte, hoffen auf Feintuning
Nach der kolportierten grundsätzlichen Einigung auf den "AI Act" zur Regulierung von Künstlicher Intelligenz (KI) durch das Europaparlament, die EU-Kommission und die EU-Staaten, haben Forscher auf positive Aspekte, aber auch Schattenseiten des möglichen Kompromisses verwiesen. "Der AI-Act steht besser da als wir das vorgestern noch gedacht haben", erklärte Philipp Hacker von der Europa-Universität Viadrina Frankfurt (Oder) vor Journalisten.
Es scheine ein Kompromiss bei den Basismodellen, wie beispielsweise GPT, gefunden zu sein. "Das hieße, dass sich die deutsche, französische und italienische Fundamentalopposition gegen die harte, verbindliche Regulierung nicht durchgesetzt hat", so der Professor für Recht und Ethik der digitalen Gesellschaft. Er glaube nicht, dass man hier mit Selbstregulierung weiterkommen könne. "Wenn einer wie Elon Musk bei Twitter keine Lust mehr darauf hat, dann gibt es keine Handhabe", ist Hacker überzeugt.
Starkes Lobbying
Die Forderung, Basismodelle doch nicht zu regulieren, sei auf starkes Lobbying zurückzuführen "und hat mich enttäuscht. Der Vorschlag einer Selbstregulierung ist fast empörend", pflichtete die an der University of Oxford (Großbritannien) tätige österreichische Technologie- und Regulierungsforscherin Sandra Wachter bei. Das bedeute nur, dass man sich an die Regeln halten könne oder auch nicht. Hier seien ordentliche Rechtsvorschriften notwendig. "Sich auf das Gefühl eines Unternehmens zu verlassen, ist da nicht genug", sagte Wachter in einem vom deutschen Science Media Center (SMC) veranstalteten Pressegespräch.
Bei der Regulierung der KI-Basismodelle, die auf riesigen Datensätzen basieren, gibt es laut Hacker zwei unterschiedliche Systemebenen. Eine Regelung werde für alle Modelle gelten "und relativ harmlos sein", eine andere für große, potenziell riskante Modelle. Bei ersterer geht es um Transparenz, Trainingsdaten und das Urheberrecht, wo das Unternehmen aufzeigt, welche Vorkehrungen getroffen wurden, um zu verhindern, dass urheberrechtlich geschütztes Material, das man nicht nutzen darf, verwendet wird.
"Das ist mir zu wenig, weil auch Modelle, die nicht den absoluten Top-Modellen entsprechen, durchaus mit signifikanten Risiken einhergehen können. Da müsste man noch nachbessern, etwa bei Vorkehrungen zu Cybersicherheit, damit nicht Schadsoftware geschrieben und Bio-Terrorismus betrieben werden kann," so der Experte. Bei den großen Modellen zeichne sich ab, dass man die Kategorie am Trainingsaufwand bzw. der Anzahl der Rechenschritte, die beim Training durchlaufen werden, aufhängen werde. "Aktuelle Modelle wie GPT4 oder Bard müssen hier erfasst werden und nicht erst künftige Modelle. Neben diesem Anhaltspunkt braucht es aber weitere Kriterien wie Risikomanagement oder Teams, die das System in einer überwachten Prozedur dazu bringen, etwas zu tun, was es nicht tun soll", so Hacker.
Nur Red Teaming reicht nicht
Red Teaming, also das Testen der Systemsicherheit, das stark von der Industrie propagiert werde, sei in Ordnung, gehe aber zu wenig weit, befand Wachter. "Das ist, wie wenn man wissen will, ob in einem Haus etwas Gefährliches ist, und man nicht reingeht und untersucht, was dort los ist, sondern nur den Türsteher fragen darf. Ich kann testen, indem ich frage, wie ich eine Bombe bauen kann. So kann man Probleme aufdecken, aber nicht systematisch testen", erklärte die Forscherin. Hier müsse man viel stärkeren Einblick bekommen.
Notwendig sei auch, die ganze Lieferkette zu "verrechtlichen", also die Basismodelle, die Anwendungen wie ChatGPT und die Nutzer in die Haftung zu nehmen. "Man stelle sich eine Bergquelle vor, die vergiftetes Wasser an Haushalte liefert, und man würde überall Filter einbauen, anstatt zur Quelle zu gehen und das Problem dort zu lösen", verglich Wachter. "Wenn man die Basismodelle ausnimmt, wird die Regulierungslast auf die nachfolgenden Bereiche verschoben. Tausend Mal den Fehler in der Anwendung auszubessern ist schlechter als das Problem an der Basis anzugehen", meinte auch Hacker.
Dem Argument, dass eine verbindliche Regulierung der Basismodelle zum wirtschaftlichen Hemmnis werde, hielt er entgegen, dass die Entwicklungskosten bei rund 60 Millionen Euro liegen würden, die Kosten für die verbindliche Sicherung der Systeme aber nur bei einem Prozent davon. "Das halte ich für gerechtfertigt. Wer Champions League spielen will, muss sich an die Champions League-Regeln halten", so Hacker. Wachter sieht das Argument vergleichbar damit, dass die Autoindustrie nur Fahrzeuge auf den europäischen Markt bringen wolle, wenn sie keine Gurte einbauen müsse und die Fahrer keinen Führerschein bräuchten.
Von Vorteil wäre es laut der Expertin auch, eigene europäische Basismodelle zu haben. Die meisten Entwickler würden derzeit in China oder Amerika sitzen, "da ergibt sich eine Abhängigkeit. Wenn die Quelle weg ist, hat niemand mehr etwas zu trinken." Hier sei Geld ist das große Thema, um Alternativen aufbauen zu können. Das Hinterherhinken in Europa sei "bedrohlich", meinte Hacker, der auch auf geopolitische Gefahren verweist, weil KI militärisch immer stärker genutzt werde. Es brauche ein umfassendes milliardenschweres Paket.