Intelligenz als "Urqualität" des Universums
"Der größte Triumph des menschlichen Geistes besteht vielleicht darin, dass er sich selbst nicht versteht", meint der Technikphilosoph Karl Leidlmair, Leiter des Instituts für Psychologie an der Universität Innsbruck. Kann Künstliche Intelligenz (KI) den Menschen jemals ersetzen? Dazu müsste erst einmal die natürliche Intelligenz eine (natur-)wissenschaftliche Erklärung finden. Ob sich psychische Eigenschaften ohne Informationsverlust allerdings in die Sprache der Naturwissenschaften übersetzen lassen, ist eine seit Ewigkeiten andauernde Streitfrage.
"Do Robots have Civil Rights?" fragte schon in den 60er-Jahren Hilary Putnam - damals war die Euphorie über Künstliche Intelligenz deutlich größer: Natürliche Intelligenz durch formale Programme zu reproduzieren, hielt man bis in die 80er-Jahre für möglich.
Gegenüber der Vorstellung der klassischen Künstlichen Intelligenz, Kognition über Verarbeitungsprozesse rein formal beschreibbarer "Repräsentationen" in einer zentralen Recheneinheit erklären zu können, fand in den letzten 20 Jahren ein Paradigmenwechsel in der Kognitionswissenschaft (Cognitive Science) statt. "Intelligenz entsteht in Interaktion mit der Umgebung, nicht in einer Central Processing Unit", erklärt der Philosoph. Daraus entstanden das Situierte Lernen (situated cognition) - die soziale Verankerung individuellen Lernens, oder die Embodiment-Forschung.
Letztere vertritt die Ansicht, dass Intelligenz einen Körper braucht bzw. Sensorik und Motorik im Gehirn und der Austausch mit der Umwelt eine tragende Rolle bei der Ausbildung der Intelligenz spielt. Die Psyche oder der Geist sei daher immer in einen Körper eingebettet. "Damit gewann die Robotik schlagartig wieder an Bedeutung", erklärt Leidlmair. Auch Rodney A. Brooks befasste sich in seinem Werk "Intelligence without Representation" mit der These, Kognition komme nur durch Interaktion mit der Umwelt zustande.
Heidegger und die neuronalen Netzwerke
An Bedeutung gewann auch der Konnektionismus, der sich mit neuronalen, lernfähigen Netzwerken beschäftigt. "Stark im Kommen sind nichtlineare dynamische Systeme, Stichwort Chaosforschung", so Leidlmair. Walter J. Freemans "How Brains Make Up Their Minds" aus dem Jahr 1999 setzte sich damit auseinander, wie das Gehirn eine Entscheidung fällt. Gehirne seien keine logischen Instanzen, sondern dynamische Systeme, welche Bedeutung erst durch Interaktion mit der Umwelt erlangen. Aus dem Chaos entstehen geordnete Strukturen zwischen Neuronen und Neuronenverbänden.
Interessanterweise treffe man gerade in jüngerer Zeit wieder verstärkt auf Ansichten des deutschen Philosophen Martin Heidegger (1889-1976), so Leidlmair. "Auch im Bereich der neuronalen Forschung gibt es Berührungspunkte", erklärt er. Heidegger sah den Mensch mit den Gegenständen, mit denen er sich umgab und die er benutzte, in starker Interaktion, die ihn präge und ihn erst definiere. "Gewiss, der Schuster ist nicht der Schuh, und dennoch versteht er sich aus seinen Dingen, sich, sein Selbst" (Heidegger: Grundprobleme, 227). Der Kognitionswissenschafter Michael Wheeler meint in seinem Buch "Reconstructing the Cognitive World" (2005), eine auf Grundgedanken Heideggers basierende Künstliche Intelligenz sei sogar der "Next Step" in der zukünftigen Kognitionsforschung.
Eine Maschine, die nach formalen Regeln arbeitet, denkt nicht
Die Intentionalität - also der unmittelbare Bezug zur Außenwelt - und die Semantizität - das Erkennen, Verstehen von Zusammenhängen oder Symbolen - ist nicht mit physikalischen Termini erklärbar, lautet zu mindestens eine Denkrichtung der Philosophie. Diese "Urqualitäten des Universums" könnten niemals ersetzt werden. Dazu passte auch das Gedankenexperiment von John R. Searle in den 80er-Jahren, der mit dem "Chinesischen Zimmer" die sogenannte "starke KI" - also jene, die die natürliche Intelligenz ersetzen soll - kritisierte.
Bei dem Experiment stellt man sich einen Raum vor, in dem ein Mensch sitzt und chinesische Schriftzeichen so manipuliert, dass Personen außerhalb des Raums den Eindruck erhalten, dass der Mensch in dem Raum Chinesisch spricht, obwohl er das nicht tut. Das Experiment sollte zeigen, dass ein Computer ein Programm ausführen und mithilfe syntaktischer Regeln Symbolreihen verändern kann, ohne die Bedeutung zu verstehen.
"Allerdings leugnet Searle nicht, dass Maschinen denken können. Er leugnet lediglich, dass Programme, die nach formal syntaktischen Regeln arbeiten, denken können", erklärt Leidlmair. Denn sie handelten nie aus einer Intention heraus. Die schwache KI simuliere kognitive Phänomene nur.
Intelligenz, Gehirn und Denken
Woher kommt das Denken, wo sitzen die Emotionen, wie entsteht Intelligenz? Wenn es gelänge, einen menschenähnlichen Roboter zu entwickeln, der lernfähig und eingebunden in die Umgebung ("embedded minds") agiere, "wäre dieser ja nicht mehr kontrollierbar - wir hätten einen zweiten Menschen", formuliert der Philosoph etwas überspitzt. "Den verstehen wir ja dann wieder nicht." Und erst an dem Punkt - wenn Künstliche Intelligenz ein nicht mehr kontrollierbares Niveau erreicht - sieht Leidlmair überhaupt ethische Fragen für angebracht.
Etwa jene, ob es ethisch vertretbar sei, dass humanoide Roboter zu Ersatzgefährten für alte Menschen werden - was in Japan bereits an der Tagesordnung ist. "Wir dürfen nicht vergessen, dass die japanische Kultur einen völlig anderen Zugang zu Gegenständen hat und an 'beseelte' Objekte glaubt", hält der Forscher entgegen. "Und auch bei uns wird unser Selbstkonstrukt ständig durch Dinge erweitert", erklärt er. So würde ein Mensch, der sein Auto liebt, dieses zu einem Teil seiner Identität machen.
Keine Degeneration
Manche Experten kritisieren, dass der Mensch durch die Vielfalt der Aufgaben und Fähigkeiten, die er an Computer abgibt, verkümmern könnte und künftig gar einen Chip im Gehirn tragen werde, um mithalten zu können. So warnte etwa der deutsche Hirnforscher Manfred Spitzer in seinem umstrittenen populärwissenschaftlichen Buch "Digitale Demenz" vor den schädlichen Auswirkungen des Internets. "Seine These gilt als widerlegt und ist im Übrigen 2.000 Jahre alt: Schon Platon kritisierte die Schrift, weil sie zum Vergessen führe, und nicht zum Erinnern", merkt der Technikphilosoph an.
Aber natürlich sei die Entwicklung nicht aufzuhalten. "Ein Kfz-Mechaniker weiß bald vielleicht gar nicht mehr, wie ein Motor aussieht. Bei einer Störmeldung muss er nur 'Modul xy' in 'Lagerhalle z' abholen und ins Fahrzeug einsetzen." Dem gegenüber stehe aber eine Reihe von Kenntnissen und Fähigkeiten, die der Mensch durch die neuen Technologien erst ausbilde.