Wie Social Media-Algorithmen Bürger bei US-Wahl im Jahr 2020 prägten
Ein internationales Forscherteam hat erhoben, wie Newsfeed-Algorithmen auf Facebook und Instagram einerseits das Online-Verhalten der US-Amerikaner und andererseits ihre politische Einstellung rund um die Präsidentschaftswahl im Jahr 2020 prägten. Veränderte Algorithmen ließen die Plattformnutzer anders agieren, hatten aber "keinen nennenswerten" Impakt auf Überzeugungen und Offline-Verhalten, zeigen die in den Fachjournalen "Science" und "Nature" erschienenen Studien.
Die Erkenntnisse sind im Rahmen einer Kooperation zwischen akademischen Forschern und Forschern des US-Konzerns Meta, Eigentümer von Facebook und Instagram, entstanden - einer bisher ungewöhnlichen, mitunter nicht ganz unkritisch gesehenen Zusammenarbeit, wie ein Begleitartikel in "Science" thematisiert. Doch so konnte man mit veränderten Algorithmen und mit freiwillig teilnehmenden Usern der Dienste die Experimente durchführen. Man habe sich für die Studien "eine grundlegend neue Herangehensweise" erarbeitet, um im Rahmen der Zusammenarbeit auch "zuverlässige Ergebnisse zu erzielen", hieß es in einer Aussendung der an der Untersuchung beteiligten Universität Wien. Meta habe die Ergebnisse etwa nicht zensieren können.
Was von Unternehmen verwendete Algorithmen auf Social Media tun, ist für Nutzer in der Regel undurchsichtig. "Die Vorstellung, dass solche Algorithmen politische 'Filterblasen' schaffen, die Polarisierung fördern, bestehende soziale Ungleichheiten verschärfen und die Verbreitung von Desinformationen ermöglichen, hat sich im öffentlichen Bewusstsein verankert", schreiben die Autoren. Die Filterblasen-Hypothese gilt weithin als umstritten bis überholt. Die Wirkung der Algorithmen ist aber nicht gänzlich geklärt. Am Beispiel der US-Wahl wurde der Versuch unternommen, mehr Einblicke zu erhalten.
Dafür wurde rund um die Präsidentschaftswahl in den USA eine dreimonatige Untersuchung gestartet. Drew Dimmery vom Forschungsverbund Data Science der Uni Wien, der zum damaligen Zeitpunkt noch für Meta arbeitete, war an zwei von insgesamt drei "Science"-Publikationen und der "Nature"-Studie beteiligt.
Gängige Ansicht "überbewertet"
"Die gängige Ansicht, dass Algorithmen große Veränderungen in den politischen Ansichten der Menschen herbeiführen, scheinen anhand unserer Studie überbewertet", sagte Dimmery gegenüber der APA. "Was wir über alle Studien hinweg gefunden haben ist, dass Newsfeed-Algorithmen stark beeinflussen, was Nutzer sehen, aber nicht, dass sie ihre politische Meinung und ihr Verhalten in der realen Welt beeinflussen", so Dimmery, der insbesondere untersuchte, wie sich die Auswirkungen der Änderungen im Algorithmus von Person zu Person unterscheiden.
In einem Experiment, in das knapp 30.000 Nutzer bei Facebook und rund 26.000 Nutzer bei Instagram einbezogen wurden, untersuchten die Forscher die unterschiedliche Wirkung von chronologischen gegenüber personalisierten, also algorithmisch sortierten Social Media-Feeds. Der chronologisch geordnete Feed "verringerte dramatisch die Zeit", die Nutzer auf Instagram und Facebook verbrachten, heißt es in der Studie. Außerdem erhöhte er die Inhalte von Freunden mit nicht-extremen Ansichten und ideologisch gemischten Quellen auf Facebook. Gleichzeitig nahm aber auch die Gesamtmenge an politischen, nicht vertrauenswürdigen Inhalten zu. Das Niveau der Themenpolarisierung, des politischen Wissens oder politischer Einstellungen während des Studienzeitraums habe sich aber nicht wesentlich geändert, hieß es.
In einem weiteren Experiment stand die Entfernung weiter geteilter Inhalte, sogenannter Reshares, auf Facebook aus dem Newsfeed im Mittelpunkt. Dadurch verringerte sich für die Nutzer die Menge an Inhalten aus nicht vertrauenswürdigen Quellen und Medienbeiträgen zu politischen Themen, die sie in ihren Feeds sahen, erheblich. Die Nutzer klickten und reagierten weniger, auch die Anzahl der Klicks auf Beiträge aus parteiischen Nachrichtenquellen ging durch den veränderten Algorithmus zurück. Das Entfernen der Reshares führte schließlich zu einer Verringerung des Nachrichtenwissens. "Trotz dieser Veränderungen konnten wir jedoch keine Veränderungen in den politischen Einstellungen und Verhaltensweisen der Nutzer feststellen", schreiben die Forscher.
Eine Studie, erschienen in "Nature", untersuchte die Auswirkungen einer Reduktion von Inhalten aus gleichgesinnten Quellen im Newsfeed auf Facebook (die in der Regel häufig vorherrschen). Diese Depriorisierung gleichgesinnter Inhalte hatte keine messbaren Auswirkungen auf Einstellungsmaße wie affektive Polarisierung, ideologische Extremität, Kandidatenbewertungen und den Glauben an falsche Behauptungen während der US-Präsidentschaftswahlen 2020, so das Ergebnis. Eine vierte Studie ging der Frage nach, ob Facebook ideologische und politische Abgrenzung von anderen Meinungen ermöglicht und fördert.
Möglicher Einfluss auf Content-Produzenten nicht untersucht
"Warum eine Änderung des Algorithmus, und sei es auch nur für ein paar Monate, die politischen Einstellungen der Menschen wahrscheinlich nicht verändern", sei noch nicht geklärt, so Talia Jomini Stroud und Joshua A. Tucker, das wissenschaftliche Leitungsteam der Studien, zu den Befunden. Es könne z. B. an einem zu kurzen Zeitraum, in dem die Algorithmen geändert wurden, liegen.
"Was wir in unseren Studien nicht untersucht haben ist, ob Algorithmen möglicherweise das Verhalten von Content-Produzenten - anstelle von Content-Konsumenten - beeinflussen könnten. Das könnte zum Beispiel bei TikTok eine Rolle spielen, welches noch viel mehr von Algorithmen und Content-Produzenten getrieben wird", so Dimmery zur APA.
Gewisse Grenzen und Risiken dieser Art von Kooperationen zwischen akademischer Forschung und Unternehmen skizziert Begleitartikel-Autor Michael Wagner. Zu der Studie mit der chronologischen Feed-Sortierung vom deutschen Science Media Center (SMC) befragt, wertete Politikwissenschafter Andreas Jungherr von der Universität Bamberg die Ergebnisse als interessant. Zugleich schränkte er ein, dass die vorgestellten Ergebnisse "relativ wenig zu den eigentlichen Fragen zur Rolle digitaler Plattformen in der politischen Kommunikation beitragen". Er warnte vor einer Generalisierung der Ergebnisse über den spezifischen Fall hinaus. Auch sei der Facebook- und Instagram-Algorithmus von den Forschern "als Black Box" behandelt worden, "in dessen Funktionsweise sie keinen Einblick haben".
Kommunikationsforscher Christian Hoffmann (Uni Leipzig) sah gegenüber dem SMC gewisse Stärken der Studie, die sich aus der Kooperation ergeben, stellte aber auch in Frage, ob eine "etwas andere Selektion von Facebook- oder Instagram-Inhalten innerhalb von nur drei Monaten politische Einstellungen oder das Verhalten verändern würde".
Service: www.science.org/doi/10.1126/science.add8424; www.science.org/doi/10.1126/science.abp9364; https://www.nature.com/articles/s41586-023-06297-w; Begleitartikel: www.science.org/doi/10.1126/science.adi2430)