Uni Graz forscht an besseren Algorithmen für Soziale Medien
Jana Lasser, Professorin am IDea_Lab der Universität Graz, entwickelt im Rahmen eines ERC Starting Grant neue Algorithmen für soziale Medien, die konstruktive Diskussionen fördern. Mit Hilfe von "digitalen Zwillingen" von existierenden social media Plattformen sollen diese Alternativen getestet werden, um die Entscheidungsgrundlage für die Regulation der Algorithmen von Instagram, TikTok und Co. zu schaffen.
2024 ist ein wichtiges Wahljahr. Soziale Medien wie Instagram, TikTok oder X spielen dabei eine große Rolle. Ihre Algorithmen wählen aus der Flut der verfügbaren Inhalte oft diejenigen aus die aufregen, um ihre Nutzer länger auf der Plattform zu halten. Viele dieser Beiträge nehmen es mit der Wahrheit nicht genau. Wie soll man damit umgehen?
Dieser Frage widmet sich Jana Lasser, Professorin für Data Analysis an der Universität Graz. Sie forscht an der Verbesserung sozialer Medien und wurde dafür mit einem ERC Starting Grant ausgezeichnet. "Das Ziel sind Algorithmen, die konstruktive Diskussionen fördern, statt Aufregung zu schüren."
Echte Alternativen entwickeln und testen
Es handelt sich nicht um eine theoretische Aufgabe. Lasser will echte Alternativen entwickeln und testen. Dafür will sie digitale Zwillinge von sozialen Medien wie X oder Reddit bauen. "Auf diesen Kopien können wir unsere Ideen erproben und optimieren. Darauf basierend können wir der Politik Empfehlungen zur Anpassung der Algorithmen geben."
Doch warum sollten sich die Anbieter sozialer Medien daranhalten? Ganz einfach: Die EU hat mit dem Digital Services Act Anfang des Jahres ein Gesetz geschaffen, das diese Firmen dazu zwingt, die Risiken ihrer Algorithmen für die Demokratie zu untersuchen und diese nötigenfalls zu verändern. Lassers Forschung könnte dafür eine Grundlage sein.
Es geht hier aber nicht um Zensur", betont Lasser. "Aktuell sorgen Algorithmen eher dafür, dass jene Inhalte Aufmerksamkeit bekommen, die am meisten Klicks bringen und am meisten aufregen." Ein Video einer extremen Verschwörungstheorie wird daher tendenziell viel mehr Menschen gezeigt als ein gut recherchiertes Nachrichtenvideo. Das liegt daran, dass bei der Empfehlung von Inhalten aktuell die monetären Interessen der Plattformen bestimmend sind, und nicht das Interesse der Gesellschaft, z.B. am Erhalt einer gesunden Demokratie.
Aufmerksamkeit umverteilen
"Ein Ziel der Forschung sind Algorithmen, die eher Inhalte anzeigen, die einem konstruktiven Diskurs förderlich sind", sagt Lasser. Eine Idee wäre Beiträge durch maschinelles Lernen auf hasserfüllte Sprache oder Polarisierung zu prüfen und entsprechend etwas weniger Reichweite zu geben, oder Nachrichtenseiten, die nach journalistischen Standards arbeiten, einen Bonus zu geben. "Dabei werden aber keine Beiträge gelöscht, sondern Aufmerksamkeit umverteilt."
Mit diesem Ansatz könnte ein weiteres Problem gelöst werden: Aktuelle Algorithmen erkennen oft nicht, ob ein Post Kunst oder Satire ist. "Soziale Medien löschen derzeit alles, was einer weiblichen Brust ähnelt, auch wenn es sich um ein berühmtes Kunstwerk handelt." Alternativ könnte man den Algorithmus so programmieren, dass dieses Posting einfach nicht so oft gezeigt wird. "So vermeiden wir Zensur und greifen dennoch risikobasiert ein." Beiträge mit strafrechtlichen Verstößen müssen weiterhin sofort entfernt werden."
Lasser betont: "Eine perfekte Lösung gibt es nicht. Die Welt der sozialen Medien verändert sich ständig." Politische Akteure würden rasch lernen, wie sie Filterungen umgehen können. "Jeder Algorithmus stößt hier an Grenzen." Am Ende brauche es bei kritischen Fällen immer noch echte Menschen, die entscheiden.
Kontakt Jana Lasser, Univ.-Prof. B.Sc. Dr.rer.nat. M.Sc. jana.lasser@uni-graz.at +43 (0)316 380 – 1633