Wie Algorithmen beim Faktencheck auf Social Media helfen
Soziale Netzwerke sind durchdrungen von Unwahrheiten, Fehlinformationen und Fälschungen, die sich mitunter rasend schnell verbreiten. Um Maßnahmen dagegen ergreifen zu können, müssen sogenannte "Fake News" zuvor effizient und schnell identifiziert werden. Als eine Art Lügendetektor fungieren sollen dabei neue Werkzeuge, die auf Big Data, Semantik und maschinenlernenden Algorithmen basieren.
Der Faktencheck wird anspruchsvoller. Jeder kann über soziale Medien entweder zum Spaß, aufgrund einer politischen Agenda oder einfach für Geld falsche Informationen veröffentlichen. Ein internationales Forscherteam unter Beteiligung der MODUL University Vienna hat nun ein Online-Tool entwickelt, mit dem sich herausfinden lassen soll, ob eine Geschichte wahr oder falsch ist - und das in Echtzeit.
Ausgewertet wird unter anderem, welche Quelle hinter einem Gerücht steht, deren Geschichte und Hintergrund, wie sich ein Gerücht geografisch verbreitet bzw. welche Online-Meinungsführer zu dieser Verbreitung beigetragen haben. So könnten sich auch sogenannte Social Bots identifizieren lassen. Außerdem werden die Kommentare und Reaktionen analysiert, um die Glaubwürdigkeit besser einschätzen zu können. Erste Anwendungsmöglichkeiten, die im Projekt "PHEME" entwickelt wurden, gibt es im Journalismus und im Gesundheitsbereich.
Vier Typen sollen dabei unterschieden werden: Spekulation (etwa ob die Zinsen steigen), Kontroverse (beispielsweise über Impfungen), Fehlinformation (etwas Unwahres wird unwissentlich verbreitet) und Desinformation (mit Vorsatz). "Wichtig ist: Das System ist so konzipiert, dass es Hilfestellungen bieten kann, aber nicht automatisch zensurieren soll. Wir erzeugen zusätzliche Metadaten, um Menschen die Beurteilung zu erleichtern", stellte Arno Scharl, Leiter des Instituts für Neue Medientechnologie an der MODUL University Vienna, gegenüber APA-Science klar.
Umfassende Analyse
Das Tool kann einerseits eine Übersicht aller neuen Themen liefern, die gerade entstehen. Es lässt sich aber auch gezielt nach bestimmten Geschichten suchen. Dabei werden nicht nur das ursprüngliche Posting oder der für die Diskussion verantwortliche Tweet analysiert, sondern auch alle Reaktionen und zusammengehörenden Dokumente. "Wenn man nur einen einzigen Tweet betrachtet, hat man sehr wenig Information. Für Rückschlüsse über den Wahrheitsgehalt muss man umfassender vorgehen", so Scharl.
Daher wird untersucht, wer die Geschichte ins Rollen gebracht hat, wie sie sich verbreitet und wie viele Leute das kommentiert haben. "Dann klassifiziert man diese Kommentare danach, ob sie die Originalaussage unterstützen, sie bezweifeln bzw. sagen, das stimmt nicht, und andere, die beispielsweise eine Frage dazu stellen", sagte der Experte. So lasse sich nicht nur der Wahrheitsgehalt abfragen, sondern beispielsweise auch herausfinden, wie viele Pro- und Kontrastimmen es gibt, beziehungsweise unterstützende Erklärungen herausfiltern.
Anwendung finden soll das System unter anderem im Medienbereich. So wurde ein Tool entwickelt, mit dem Journalisten Nachrichten nach dem Wahrheitsgehalt sortieren können. "Das Bauchgefühl lässt sich mit empirischen Daten abgleichen. Ich muss mir nicht alle Tweets durchlesen, sondern kann mir durch die strukturierte Analyse der Pro- und Kontrastimmen schneller ein Bild machen. Das macht die Arbeit der Journalisten effizienter", ist Scharl überzeugt.
Ideal wäre so etwas laut Scharl auch für Dienstleister, die im Auftrag von Plattformen Falschmeldungen identifizieren sollen. So will Facebook künftig "Fake News" kennzeichnen, aber nicht entscheiden, "was die Wahrheit ist". Also wird diese Entscheidung an Dritte ausgelagert - in Deutschland beispielsweise an das Recherchezentrum Correctiv. "Für ein Team, das diese Aufgabe hat, sind Indikatoren, ob etwas wahr oder falsch ist, sehr hilfreich. Aber keinem Tool sollte die endgültige Beurteilung überlassen werden."
Anwendung im Medizinbereich
Ein zweiter Anwendungsfall ist im medizinischen Bereich angesiedelt. Dabei wurde ein Werkzeug entwickelt, um Nachrichten und Social Media-Beiträge zu psychischen Krankheiten und den entsprechenden Pharmaprodukten zu analysieren. Mit Hilfe eines visuellen Dashboards können Fragen beantwortet werden, wie: "Was assoziieren Social Media-User mit dieser Story?" oder "Was sind die Hauptargumente von denen, die die Geschichte anzweifeln?"
Hier gehe es einerseits um wahr oder falsch, aber auch um Stigmas und Mythen: Gewisse Dinge würden fälschlicherweise mit bestimmten Krankheitsbildern assoziiert oder es werde behauptet, dass Impfungen Alzheimer auslösen. "Wir könnten NPOs, Medizinern und Stakeholdern in dem Bereich Informationen liefern, um den öffentlichen Dialog besser zu verstehen. Warum wird diese Krankheit so falsch verstanden? Warum gibt es da so viele Mythen?", so Scharl. Aber auch für Pharmaunternehmen sei interessant, was über ihre Produkte berichtet und geredet wird.
Am Projekt "PHEME" - benannt nach der griechischen Göttin des Ruhmes und der Gerüchte - sind Universitäten, IT-Experten und Medienfachleute aus sieben Ländern beteiligt. Es wird nach dreijähriger Laufzeit mit Ende Februar abgeschlossen. Quasi eine Multimedia-Fortführung von "PHEME" ist "InVID - In Video Veritas". Dabei geht es um die Beurteilung von Fake-Videos.
Von Stefan Thaler / APA-Science