Die denkende Maschine
Selbstfahrende Autos sind keine Zukunftsmusik mehr und auch bis zum alltäglichen Einsatz von Servicerobotern in Haushalten und Pflegeheimen scheint es nur noch ein kleiner Schritt. Künstliche Intelligenz (KI) ist auf dem Vormarsch, was viele neue Fragen aufwirft - unter anderem: Wie intelligent sind diese Systeme nach menschlichem Maßstab bereits und was sind die Konsequenzen daraus? APA-Science begibt sich auf eine Spurensuche zwischen KI-Visionen, -Utopien und -Dystopien.
Als John McCarthy 1956 einen Titel für eine Konferenz am Dartmouth College (New Hampshire, USA) suchte, und sie schließlich "Dartmouth Summer Research Project on Artificial Intelligence" nannte, ahnte der Logiker wohl noch nicht, dass er damit Namensgeber einer eigenen Forschungssparte werden würde.
KI früher...
"Die Idee dahinter war damals: Kann man mit Computern etwas machen, was über das Verarbeiten von Zahlen hinausgeht? Es ist um den Versuch gegangen, zum Beispiel einen Text in eine andere Sprache zu übersetzen, ein Spiel zu spielen, Begriffe abzubilden, Zusammenhänge zwischen Begriffen zu finden, also semantische Netze - das waren die ersten Ansätze in diese Richtung", erinnert sich der Wiener Kybernetiker und Artificial Intelligence (AI)-Pionier Robert Trappl im Gespräch mit APA-Science (siehe auch Gastkommentar) an die Geburtsstunde seines Forschungsgebietes.
Einen ersten Meilenstein setzte der US-amerikanische Elektroingenieur Arthur Samuel, indem er ein einfaches Damespiel programmierte, das lernfähig war und schließlich seinen eigenen Programmierer schlug. Das löste in der Community eine große Erwartungshaltung aus. So ließ sich Herbert Simon, KI-Forscher und späterer Wirtschaftsnobelpreisträger, 1957 zur viel zitierten Prognose verleiten, innerhalb von zehn Jahren würde ein Computer Schachweltmeister sein. Tatsächlich schlug erst 1997 der IBM-Computer "Deep Blue" den damals amtierenden Schachweltmeister Garri Kasparow.
...und heute
Der Bedeutungshorizont der KI hat sich seit dieser Pionierzeit freilich stark erweitert. "Bis vor ca. 20 Jahren verstand man unter KI meist Logik und regelbasierte Systeme. Heutzutage hat sich die Einsicht durchgesetzt, dass es notwendig ist, auch Unsicherheit in der Form von Wahrscheinlichkeiten zu integrieren", erklärte Christoph Lampert, der am Institute of Science and Technology (IST) Austria an den Themen Computer Vision und Maschinelles Lernen forscht, gegenüber APA-Science.
Künstliche Intelligenz ist heute ein Oberbegriff für eine Reihe aktueller Forschungsgebiete. Lampert subsumiert darunter Mustererkennung, maschinelles Lernen, Data Mining, sowie deren Anwendungsgebiete Computer Vision, die Verarbeitung von natürlicher Sprache (siehe auch "Es fehlt die zündende Idee") und Robotik.
"Das Feld ist stark heterogen, es gibt eine Vielzahl von Sub-Disziplinen, Methodologien und Zielen", sagt auch Rosemarie Velik, Senior Researcher am Carinthian Tech Research (CTR) in Villach. Auf Mathematik und Algorithmik basierende Modelle werden zur Lösung sehr konkreter und inhaltlich abgegrenzter Aufgaben genutzt: "Da geht es etwa um Schachspiel-Computer, Internet-Suchmaschinen, Spracherkennungssoftware, Routenplaner oder medizinische Diagnosesysteme."
Für Helmut Veith, Professor am Institut für Informationssysteme der Technischen Universität (TU) Wien war die KI-Forschung jahrzehntelang eine Quelle neuer Ideen, Methoden und Disziplinen: "Sobald eine Disziplin gut etabliert und verstanden war, galt sie nicht mehr als Artificial Intelligence, etwa Computerschach oder automatisches Beweisen. Gleichzeitig konnten die großen Erwartungen an die AI aber lange nicht erfüllt werden. Hier stehen wir an einer Wende: Durch die Kombination leistungsfähiger Programme und Algorithmen erleben wir gerade eine Revolution in Bereichen wie Sprachübersetzung und Bilderkennung."
Von Autos bis Roboter
Auf Seite der Anwendungen sind in der Öffentlichkeit neben assistiven Robotersystemen für Haushalt, Pflege und Industrie derzeit vor allem die selbstfahrenden Autos, die Technologiekonzerne wie Google und Uber entwickeln, auf der Überholspur. Im Zuge einer im Frühjahr startenden Testreihe von Google-Selbstfahrautos, die in fünf Jahren marktreif sein sollen, meinte einer der Zulieferer, das Projekt sei ein wichtiger Schritt in der Umsetzung der Vision von einer Welt ohne Verkehrsunfälle, bei der gleichzeitig die individuelle Mobilität erweitert werde.
Bevor die Visionäre ihre ehrgeizigen Pläne auf die Straße bringen können, gilt es neben den technischen noch viele andere Hürden zu überwinden. "Für Autohersteller ist Ethik gerade ein sehr heißes Thema", sagt Robert Trappl, der sich selbst in einem noch heuer erscheinenden Buch mit dieser Fragestellung befasst.
Für ihn sei das klassische Beispiel einer auf einer falschen Ethik beruhenden Entscheidung ein Schulbusfahrer in Kärnten im Oktober 2013, der seinen Schulbus verrissen hat, weil ein Reh auf die Fahrbahn sprang. Der Bus stürzte ab und einige Kinder wurden verletzt. "Menschen machen also auch falsche Entscheidungen, was nicht rechtfertigt, dass diejenigen von selbstfahrenden Autos dann auch falsch sein dürfen", so Trappl.
Auf welcher Basis also sollen Autos in unausweichlichen Unfallsituationen Entscheidungen treffen? "Es gibt schon Leute, die sagen, man sollte einen Zufallsgenerator einbauen", erklärt der Experte. Für den Fall, dass das Auto, in dem man sitzt, die "Wahl" hat, in ein kleines oder ein großes Auto zu krachen, soll es immer das robustere sein? Oder soll es immer automatisch das Fahrzeug mit der kleineren Anzahl an Insassen "bevorzugen"? Bei einem utilitaristischen Ansatz müsste das Auto jeweils so handeln, dass die Anzahl der Verletzten möglichst klein ist - was in letzter Konsequenz auch das Auto, in dem man sitzt, zum Feind machen könnte, der das eigene Leben für das eines anderen opfert.
KI-Forschung in Österreich
Forschung an selbstfahrenden Autos ist in Österreich noch kein Thema, aber die KI-Szene ist lebendig und dynamisch. Über das ganze Land verteilt nähern sich eine ganze Reihe von Forschern aus verschiedensten Richtungen der KI an - Hotspots befinden sich neben dem OFAI in Wien vor allem an den Unis in Innsbruck, Linz, Klagenfurt sowie den Technischen Universitäten in Graz und Wien.
"Österreich ist ein internationaler Vorreiter für die Verwendung der mathematischen Logik in der Artificial Intelligence - Georg Gottlob und Thomas Eiter (TU Wien; Anm.) haben in diesem Gebiet Pionierarbeit geleistet", ist etwa Helmut Veith überzeugt. Nicht umsonst sei im Vienna Summer of Logic (Juli 2014), der laut Mitorganisator Veith größten österreichischen Informatik-Konferenz, einer von drei Teilen dem Generalthema KI gewidmet gewesen. Der Informatik-Professor, der auch der Austrian Society for Rigorous Systems Engineering (ARiSE) vorsteht, beschäftigt sich in seiner eigenen Forschung mit der Frage, wie man Computer in die Lage versetzen kann, die Aufgaben von Programmierern zu übernehmen.
Georg Gottlob, seit 2006 Professor für Computing Science an der Universität Oxford und im Rahmen einer Teilzeitprofessur auch an der TU Wien tätig, entwickelt im Rahmen seines mit 2,4 Mio. Euro dotierten ERC-"Advanced Grant" ein System, das Daten aus Tausenden von Websites zu einem bestimmten Gebiet automatisch extrahiert. Damit soll eine intelligente, personalisierte Websuche möglich werden. "Falls Maschinen Webseiten intelligent navigieren und deren Inhalte verstehen können - das heißt Objekte und ihre Attribute automatisch erkennen und in einen Bezugsrahmen einordnen können, wird es zu einer neuen Art von Websuche kommen, die qualitativ weit über der derzeitigen stichwortbasierten Suchtechnologie steht", ist sich der Wittgensteinpreisträger von 1998 sicher.
Semantik als "Heiliger Gral"
"Der Heilige Gral in der KI heißt Semantik", so Gottlob, also das automatische Erkennen und "Verstehen" von Inhalten und Zusammenhängen, die Interpretation von Daten durch Zuordnung von Bedeutung. "Eine Maschine sollte erkennen, ob ein schwarzer Fleck am Boden ein hingefallener Fußgänger oder der Schatten eines Baumes ist - das ist heute bei automatischen Fahrzeugen schon möglich, muss aber noch perfektioniert werden - und eine Maschine sollte erkennen, was die Hauptaussage bzw. das Anliegen einer Webseite ist."
Von einem intelligenten System würde Gottlob dann sprechen, "wenn es Daten verschiedenster Herkunft und in verschiedenen Bereichen die richtige Bedeutung zuordnen kann - und wenn diese Bedeutung zur automatischen Entscheidungsfindung verwendet wird und in ein größeres gesamtes Bedeutungsgerüst eingeordnet werden kann."
Damit es jedoch zu wahrhaft intelligenten Systeme kommt, müsse man "die beiden großen Komponenten der KI", nämlich subsymbolische KI (maschinelles Lernen, neurale Netze, etc.) und symbolische KI (Logik, Wissensrepräsentation, regelbasiertes Schließen) zusammenführen, so ähnlich wie im menschlichen Gehirn die linke und rechte Gehirnhälfte: "Hier gibt es noch sehr viel zu tun."
Eine Frage der Intelligenz
Eine systemimmanente Frage der KI-Forschung ist das definitorische Problem, was unter Intelligenz an sich verstanden wird. Ist es bereits ein smarter Algorithmus, der verschiedene Szenarien schneller als ein Mensch berechnen kann oder ein System, das autonome, situationsabhängige Entscheidungen trifft oder gar zu Emotionen fähig ist?
"Die ursprüngliche Annahme der KI-Forschung war, dass Intelligenz als geschickte Manipulation von Symbolen dargestellt werden kann", sagt Peter Auer, Leiter des Lehrstuhls für Informationstechnologie an der Montanuniversität Leoben (siehe "Selbstmotivation ist alles"). Diese Annahme habe sich in größerem Umfang aber nicht bewahrheitet. Wesentliche Fortschritte seien erst nach 1980 durch die Verwendung von künstlichen neuronalen Netzen erzielt worden, die nicht symbolisch, sondern mit kontinuierlichen Werten rechnen.
Ein tieferes Verständnis von menschlicher Intelligenz ist auch für KI-Pionier Tomaso Poggio, Direktor des Center for Brains, Minds and Machines am Massachussetts Institute of Technology (MIT), die große Herausforderung auf dem Weg, Maschinen intelligent zu machen. "Zu verstehen, was Intelligenz ist, wie das Gehirn sie produziert, wie man sie in Maschinen nachbildet, ist das größte Problem in der Wissenschaft: Es wird noch ein paar Jahrzehnte oder Jahrhunderte dauern, es zu 'lösen'", so der italienisch-amerikanische Kognitionswissenschafter im Interview mit APA-Science. Im Kern bestehe Intelligenz ganz simpel darin, "aus Erfahrungen zu lernen".
Biologische Inspiration
Das Verstehen von kognitiven Prozessen und ihrem Zustandekommen ist für die Neurowissenschaften von entscheidender Bedeutung. Fortschritte auf diesem Gebiet könnten auch das Nachbilden von kognitiven Prozessen in Maschinen ermöglichen. Die biologische Inspiration könne ein Erfolgsrezept sein, wenn man systematisch untersucht, welche zugrunde liegenden Prinzipen die Natur im Verlauf der Evolution genutzt hat, versichert Karlheinz Meier, Professor für Experimentalphysik an der Universität Heidelberg und Co-Direktor des EU-Flaggschiffprogramms Human Brain Project (HBP): "Für die Entwicklung neuartiger Computer nach dem Vorbild des Gehirns ist sie meiner Überzeugung nach der derzeit einzig gangbare Weg (siehe auch Gastkommentar; Anm.)."
Die Fortschritte der Hirnforschung für Computer, Roboter und Programme nutzbar zu machen und "zu sehen, was wir von der Evolution lernen können", ist auch für OFAI-Leiter Robert Trappl, der selbst als Partner in das HBP-Subprojekt "Neurobotics" eingebunden ist, ein spannendes Zukunftsthema. Im Rahmen eines am OFAI angesiedelten FWF-Projekts versuche man etwa, von der Funktionsweise des Hippocampus in puncto räumlicher Lokalisierung und Navigation zu lernen: "Es gibt spezifische Zellen, die die mentale Landkarte des Raums und wo man sich gerade aufhält, speichern." Die Forscher überprüfen nun, ob dieses Modell bei Robotern Anwendung finden könnte.
Nach Meinung von IST-Forscher Christoph Lampert wiederum könne das Gehirn für die KI-Forschung nur konzeptionelle Anregungen geben: "Die exakten Mechanismen des Gehirns im Computer zu kopieren ist nicht die viel versprechende Richtung auf dem Weg zur KI, dafür ist die 'Hardware' zu unterschiedlich."
Auch Helmut Veith hat hier einen eher differenzierten Standpunkt: "Man kann argumentieren, dass modernes maschinelles Lernen sich an grundlegenden Mechanismen des menschlichen Gehirns orientiert. Darüber hinaus halte ich anthropomorphe Artificial Intelligence für den falschen Zugang - ich will nicht, dass Menschen durch Computer ersetzt werden, sondern dass Computer den Menschen als mitunter hochintelligente Werkzeuge unterstützen."
Digitalisierung als Jobkiller
Maschinen als Vernichter von Arbeitsplätzen - ein Thema, das mit der Industrialisierung eng verknüpft ist und sich einmal mehr und einmal weniger bewahrheitet hat. Auch in jüngerer Zeit mehren sich Ängste, wonach die zunehmende Digitalisierung immer mehr Jobs obsolet machen könnte. Das von den beiden MIT-Ökonomen Erik Brynjolfsson und Andrew McAfee in ihrem gleichnamigen Buch ausgerufene "Zweite Maschinenzeitalter" bringe langfristig Hunderte Millionen Arbeitsplätze in Gefahr, warnen Kritiker. Einfach, weil zahlreiche menschliche Tätigkeiten durch Computerisierung, Automatisierung und Digitalisierung ersetzt werden könnten. Davon bleiben demnach auch qualifizierte Jobs nicht verschont. Bereits 2025 könnten schlaue Maschinen die Arbeit von 140 Millionen Wissensarbeitern übernehmen, prognostiziert die Unternehmensberatung McKinsey.
Johannes Kopf, Vorstand des österreichischen Arbeitsmarkt-Service (AMS), kann diese Szenarien zwar vom Ansatz her nachvollziehen, teilt die Befürchtungen nach einer Ablöse der menschlichen Arbeitskraft durch Maschinen aber nicht: "Große technologische Fortschritte haben immer zu ganz massiven Strukturveränderungen geführt. Und immer gab es die Angst: Geht uns jetzt die Arbeit aus? Ich behaupte, dass die Situation heute keine andere ist als bei den anderen technologischen Entwicklungen der letzten 150 Jahre - jetzt ist es eben die Robotik." Technologische Revolutionen hätten zwar tatsächlich Branchen massiv verändert und Arbeitsplätze gekostet, aber immer woanders wieder neue Arbeitsplätze geschaffen. "Wenn uns die Arbeit ausgeht, dann für die Unqualifizierten", schränkt Kopf ein.
Von Utopien und Dystopien
Welche Auswirkungen die schrittweise Implementierung von intelligenten Systemen für die Gesellschaft und das Selbstverständnis der Menschheit haben könnte, ist eine der spannendsten Fragen an die Zukunft. Was würde es etwa bedeuten, könnte man sich zur Steigerung der mentalen Leistungsfähigkeit eine "kognitive Prothese" installieren? "Überdurchschnittliche Intelligenz wäre nicht länger ein Geschenk der Natur, sondern käuflich erwerbbar für jene, die sich dies finanziell leisten können", gibt Rosemarie Velik zu bedenken. Ähnlich alarmierend auch der Gedanke, dass in Zukunft einmal auch das menschliche Gehirn "gehackt" werden könnte, und nicht nur Computersysteme.
Erst unlängst ließen prominente Persönlichkeiten wie Microsoft-Gründer Bill Gates und Astrophysiker Stephen Hawking mit düsteren Ausblicken für den Fortbestand der Menschheit aufhorchen, für den Fall, dass eine maschinelle Superintelligenz das Ruder an sich reißen sollte. Für Helmut Veith sind Warnungen wie diese berechtigt: "Wir stehen vor einer Revolution, die in ihrem Ausmaß der großen industriellen Revolution nicht nachstehen wird. Wir kennen die dystopischen Szenarien aus Literatur und Film von Blade Runner bis Terminator. Im besseren Fall können wir eine Welt erwarten, in der große Teile der industriellen und landwirtschaftlichen Produktion computergesteuert erfolgen, und intelligente Technologien auch unsere ökologischen Probleme in den Griff bekommen. Aber auch in diesem utopischen Szenario werden sich Fragen nach gerechter Verteilung der Produktion stellen - und vor allem nach dem Umgang mit der gähnenden Langeweile, wenn die Menschheit ihre Aufgaben verliert."
Tomaso Poggio ist einer jener Proponenten, die eine überwiegend positive Haltung gegenüber künftigen Entwicklungen der KI einnehmen. Er glaubt, dass die Forschung über unsere Art zu denken, und Maschinen zu erzeugen die denken, gut für die Gesellschaft sei: "Wir stehen am Anfang eines neu entstehenden Feldes, der Wissenschaft und dem Engineering von Intelligenz - eine integrierte Anstrengung von der ich erwarte, dass sie letztlich einen fundamentalen Fortschritt mit großem Wert für Wissenschaft, Technologie und Gesellschaft bringt. Ich glaube, wir müssen diese Forschung vorantreiben, nicht zurückziehen."
Von Mario Wasserfaller / APA-Science