Als die Roboter das Sprechen lernten
Sprachsoftware macht neue Formen der Interaktion zwischen Menschen und Computern möglich. Selbstlernende Algorithmen verändern die Arbeitswelt und setzen Schritte in Richtung künstlicher Intelligenz.
Der schnellste Journalist am Spielfeld ist der Roboter. Wenige Sekunden nach Abpfiff eines Fußballspiels hat die norwegische Nachrichtenagentur NTB einen Text im Netz. Darin steht nicht nur, wer gewonnen hat. Der Roboterreporter meldet auch, dass es der fünfte Auswärtssieg in Folge war. Und dass der lokale Torschützenkönig wieder getroffen hat.
Heuer will NTB mit ihrem Roboterjournalisten erstmals über 20.000 Spiele auf jeder Ebene der norwegischen Vereinsfußballs berichten. Ganz ohne menschliche Hilfe.
Automatisierter Journalismus ist nur eine Art, wie Algorithmen Menschen beim Schreiben und Verstehen von Texten ersetzen. Längst entdecken Computer die menschliche Sprache. Sie verändern damit die Arbeitswelt und die Art, wie wir über Politik sprechen.
360.000 Arbeitsstunden automatisiert
Ein Beispiel: Anfang des Jahres sorgte die US-Großbank JPMorgan für Aufsehen. Mit einer Software namens Contract Intelligence wurden 360.000 Arbeitsstunden von menschlichen Juristen automatisiert. Das Programm liest Kreditverträge und gibt Empfehlungen für den Abschluss ab.
Für die Bank ist nicht nur das Sparpotenzial entscheidend, sondern auch die niedrigere Fehlerrate der Software im Vergleich zum Menschen. JPMorgan denkt nun über andere Arten nach, wie einfache Analysearbeiten von Software übernommen werden können.
Algorithmen werden immer öfter auch in politischen Kampagnen eingesetzt: Die US-Präsidentenwahl im Vorjahr wurde durch Bots mitentschieden. Soziale Medien dienten als Einfallstor für Roboter-Agitatoren mit automatisch generierten Botschaften.
Zehntausende Nachrichten setzten Bots in den Tagen vor der Wahl auf Twitter und Facebook ab. "Ihre Inhalte waren fast immer negativ", sagt der Soziologe Philip Howard, der an der Universität Oxford die Bot-Heerscharen im Internet beforscht.
Anonyme Konten deckten Unterstützer von Demokratin Hillary Clinton mit automatisch erzeugten Beschimpfungen ein. In zahlreichen Fällen zogen sich Clinton-Unterstützer aus sozialen Medien zurück und verstummten. Die Roboter-Armeen sorgten für die Dominanz des Republikaners Donald Trump in vielen Online-Debatten. Mit bekanntem Ausgang.
Noch ist die technische Grundlage der schreibenden und lesenden Roboter bescheiden. Automatisierter Journalismus baut auf von Menschen befüllte Datenbanken, und Politik-Bots werden von ihren menschlichen Meistern mit Bausteinen gefüttert.
Die großen Internet-Konzerne wollen mit riesigen Datenschätzen und selbstlernenden Algorithmen neue Möglichkeiten schaffen. Sie gehen Schritte in Richtung künstlicher Intelligenz.
Dem Computer Texte diktieren
Google Speech erlaubt es, dem Computer Texte zu diktieren. Je mehr Tondateien die lernenden Algorithmen des Konzerns analysieren, desto besser werden sie darin, gesprochene Sprache in Text umzusetzen. Ähnlich gelang es dem Konzern in den vergangenen Jahren bereits, seine Übersetzungen und die Bilderkennung zu verbessern.
Noch arbeitet die Spracherkennung nach Googles eigenen Angaben mit einer Fehlerrate von 4,9 Prozent. Doch eifriges Datensammeln macht die selbstlernenden Algorithmen immer besser darin, undeutlich gesprochene Wörter richtig zu hören und Hintergrundgeräusche herauszufiltern. Damit könnten etwa Rundfunkanstalten und Universitäten bald tausende Tonbänder aus dem Archiv wachküssen und in voll durchsuchbare Texte verwandeln.
Umgekehrt hören Programme wie Apples "Siri" und Googles "Assistant" nicht nur ihre Nutzer, sondern sprechen auch zu ihnen. Sprachassistenten machen bisher nur vom Bildschirm ablesbare Informationen über das Ohr verfügbar und nehmen Anweisungen entgegen. Interaktionen mit dem Handy werden damit menschlichen Unterhaltungen immer ähnlicher.
Auf dem Weg zum denkenden Computer?
Unser Verständnis von Intelligenz ist eng mit Sprache verknüpft. Nicht zuletzt deshalb glauben Internetfirmen und Computerwissenschaftler, dass der hörende und sprechende Computer den Weg hin zum denkenden Computer bereitet.
Die Internetkonzerne jagen mit ihrer Sprachsoftware einem jahrzehntealten Traum nach. Anfang der 1960er-Jahre sprach der Computerpionier Joseph Licklider, ein Gründervater des Internet-Vorläufers Arpanet, vom unschätzbaren Wert sprechender und verstehender Maschinen für die Zukunft der Informatik. "Die intellektuelle Kraft einer effektiven Symbiose von Mensch und Computer wird die der einzelnen Komponenten weit übersteigen."
Licklider unterschätzt aber bei weitem die Schwierigkeiten bei der Entwicklung kybernetischer Sprachverarbeitung. 1960 prophezeite er, es werde bis zur Einsetzbarkeit der Technologie noch etwa fünf Jahre dauern.
Sprachsoftware hat bis heute meist klare Beschränkungen: Sie kann Tabellen und vorbereitete Versatzstücke in Sprache umsetzen und einfache Befehle verstehen. Doch sie scheitert an der eigentlichen Bedeutung von Wörtern.
Hier kommen Ansätze zur Nutzung künstlicher Intelligenz ins Spiel. Selbstlernende Algorithmen sollen sich die menschliche Sprache erarbeiten. Sie könnten damit viele neue Aufgaben übernehmen und etwa helfen, Informationen in für Menschen kaum bewältigbaren Textwüsten zu finden.
Hoffnung für Investigativjournalisten
Mustererkennung dieser Art lässt die Herzen von Investigativjournalisten höherschlagen. "Wir haben einige Probleme, die in allen unseren Projekten gelöst werden müssen", sagt Matthew Caruana Galizia. Der Softwareentwickler arbeitet für das Internationale Konsortium für Investigativjournalisten (ICIJ), das den Steuerskandal um die "Panama-Papers" enthüllte.
Caruana Galizia glaubt, dass künstliche Intelligenz darauf trainiert werden kann, Schlüsselpersonen in einem Text zu entdecken - und damit tausende Arbeitsstunden von Journalisten bei Projekten wie den Panama-Papers zu sparen. "Wir haben 13,5 Millionen Dokumente, E-Mail-Anhänge nicht mitgezählt. Wie finden wir die, die für Journalisten interessant sind?"
Ob sich solche Ideen umsetzen lassen, ist noch offen. Softwarefirmen machen große Fortschritte bei der Nutzung menschlicher Sprache. Einfache Arbeiten wie das Schreiben von Sportberichten oder das Übersetzen von offiziellen Dokumenten könnten bald gänzlich von Maschinen übernommen werden.
Aber vom tiefen Verständnis menschlicher Kommunikation ist die Technologie weit entfernt. Sprachwissenschafter kennen bisher kein universelles Modell menschlicher Sprache, dass sich für die Entwicklung von Software eignet. Und selbst der größte Datensatz eines Internetkonzerns bietet nur Beispiele für die Sprachnutzung, nicht den Denkprozess selbst.
WIE ROBOTERJOURNALISMUS FUNKTIONIERT
Roboterjournalismus erlaubt es Medien, Geschichten auf Knopfdruck zu produzieren. Internationale Nachrichtenagenturen wie Reuters und Associated Press produzieren auf diese Art tausende Texte zu Sport und Finanzen ohne menschliche Hilfe. Die Software bedient sich Vorlagen, um Fakten an die richtige Stelle in vorbereitete Textmodule einzusetzen. Die Daten müssen dafür in Tabellenform vorliegen. Wenn die Datenbank auch historische Daten enthält, kann der Roboter darüber Aussagen treffen, z. B. in einem Fußballbericht den fünften Auswärtssieg in Folge erwähnen. Entwickler arbeiten daran, die Roboter mit unterschiedlichen Formulierungen und neuem Vokabular zu füttern, um ihre Geschichten sprachlich interessant zu gestalten. Bei einfachen Aufgaben können die Roboter ihren menschlichen Kollegen durchaus das Wasser reichen: In einigen Versuchen konnten Leser zwischen den Texten von Roboterjournalisten und ihren menschlichen Kollegen keinen Unterschied erkennen.
Der Autor:
Alexander Fanta forschte zuletzt als Fellow am Reuters Institut für Journalismusforschung der Universität Oxford zum Thema Roboterjournalismus. Er ist seit 2011 Redakteur in der APA-Außenpolitik.
Von Alexander Fanta / APA