Wie Falschinfos die Demokratie herausfordern
Desinformation wirkt verunsichernd, polarisierend und spaltend – in manchen Bereichen auch demokratiegefährdend. Mit Künstlicher Intelligenz (KI) ausgestattete Tools zur Erkennung von Fake News und Co. sollen dem entgegenwirken. Aus dem ethischen Blickwinkel wirft das die eine oder andere Frage auf.
"Desinformation wirkt sich schon jetzt deutlich auf die Demokratie aus, das ist bedrohlich. Im Hinblick auf die Corona-Impfung haben sehr unterschiedlich motivierte Kräfte beispielsweise zu lahmgelegten Innenstädten geführt. Da sind die Auswirkungen von Falschinformationen schnell sichtbar geworden", erklärt Walter Seböck, Leiter des Zentrums für Infrastrukturelle Sicherheit an der Universität für Weiterbildung Krems, gegenüber APA-Science.
Ein noch wesentlich größeres Problem als durch die Pandemie würde laut Seböck entstehen, falls die Menschen die Energiekosten nicht mehr bezahlen können: "Wenn da jemand mit Fake News reingrätscht, gerät die Demokratie sehr rasch unter Zugzwang. Eine KI könnte uns dabei helfen, Desinformation rascher zu identifizieren und Erklärmuster der Politik wieder glaubwürdiger zu machen. Der Wettlauf kann gewonnen werden, aber man muss wahnsinnig schnell sein."
Geschwindigkeit zählt
Bei einem digitalen Angriff auf die Demokratie sei man immer die Nummer zwei gegenüber dem Aggressor, der die Falschinformation streut. "Je besser die Tools sind, die zur Verfügung stehen, um das zu identifizieren, desto effektiver kann die Antwort ausfallen. Und die muss schnell kommen. Das defalsif-AI-Projekt ist da herausragend. Wenn es letztendlich nur annähernd das kann, was wir uns vorstellen, dann ist das eine unheimliche Hilfe für die Demokratie."
Natürlich seien solche Werkzeuge anfangs mit Ablehnung und Vorurteilen konfrontiert. "Wer die Wahrheitsfindung mithilfe von KI unterstützen will, ist schnell dem Vorwurf der Zensur ausgesetzt", erklärt Seböck. Bei neuen Technologien sei der erste Reflex nicht das Erkennen von Chancen, sondern die Angst vor dem Neuen. "Irrationalität kann man schwer entkräften, weil zwei unterschiedliche Geisteshaltungen gegeneinander kämpfen. Die eine sagt: Ich will es wissen! Die andere: Ich will es glauben! Mit KI könnte man gewisse Aussagen besser verorten oder zuordnen", streicht der Experte hervor.
Als Beispiel nennt er ein Bild von Bill Gates, der Kinder vermeintlich mit einem Corona-Vakzin impft. "Das ist uralt und in Wirklichkeit von einem Afrika-Besuch, bei dem er die Polio-Impfung als Rotarier mitbegleitet. Die Rotarier haben die Polio-Impfung weltweit unterstützt und mittlerweile gilt die Krankheit als ausgestorben. Da könnten eine KI und entsprechende Systeme helfen, die Falschinformation zu erkennen", so Seböck.
Ethische Knackpunkte
Wichtig sei, die ethischen Knackpunkte im Hinblick auf Algorithmen und Daten zu berücksichtigen. Ob es um Software gehe, die die Rückfallgefährdung von inhaftierten Straftätern einschätzt, oder um eine KI, die Bewegungsmuster analysiert und Kampfdrohnen autonom angreifen lässt – viele Einschätzungen würden vom Rechtssystem und Kulturverständnis beeinflusst. "Während Algorithmen in Europa eher als Hilfestellung für die menschliche Entscheidungsfindung gesehen werden, verlässt man sich in den USA stark auf sie. Ich möchte nicht die Zukunft eines Menschen einem technischen System überlassen", meint der Experte.
Mit Daten ethisch umzugehen, erfordere auch Transparenz: "Anhand welcher Daten wird eine Entscheidung getroffen? Wer wählt das aus? Wie gehen wir mit Daten um, die generiert werden müssen, um den Algorithmus ständig mit neuen Erkenntnissen zu füttern? Das darf keine Blackbox sein", so Seböck. Der Algorithmus könne nur wiedergeben, was ihm im Vorfeld als Grundwert programmiert wurde. "Da stellt sich die nächste Frage: Wer kontrolliert die Programmierer, wer den Algorithmus? Optimiert sich der von selbst? Es gibt ja Theorien, dass ab der dritten oder vierten Selbstoptimierung die Programmierung des Algorithmus nicht mehr nachvollziehbar ist."
Im Bereich der Medienethik könnte der Einsatz von KI zum Aufspüren von Falschinformationen an Einschränkungen der Presse- und Meinungsfreiheit anstreifen. Die Herausforderung bestehe darin, die KI als Mensch unterstützendes System zu werten, um den Tsunami an Fake News, der in immer stärkerem Ausmaß hereinbricht und durch soziale Medien und Filterblasen befeuert wird, etwas entgegenzusetzen. "Dann ist der Einsatz von KI ethisch vertretbar, sinnvoll und nutzenstiftend", ist Seböck überzeugt.