Politik & Wirtschaft

KI-Experte Hochreiter kooperiert mit Audi beim autonomen Fahren © Stefan Thaler/APA-Science
KI-Experte Hochreiter kooperiert mit Audi beim autonomen Fahren © Stefan Thaler/APA-Science

Kooperationsmeldung

"Was? Der Hochreiter ist im Haus?"

18.01.2018

Diese Meldung ist Teil der Reportage-Reihe "APA-Science zu Besuch ..."

Im Raum "S3 310" an der Johannes Kepler Uni Linz ist viel los: Eine Besprechung jagt die andere, der ORF hat sich angekündigt und das Wall Street Journal wartet auf einen Rückruf. Im Mittelpunkt: Josef "Sepp" Hochreiter. Sein durchaus mit viel Selbstvertrauen gerittenes Steckenpferd ist Künstliche Intelligenz (KI). Dass das eines der großen Zukunftsthemen wird, pfeifen die Spatzen von den Dächern.

Und Hochreiter hat in diesem Bereich ein internationales Renommee: Große Autozulieferer und Pharmafirmen setzen auf seine Expertise, vom Land Oberösterreich gibt es Unterstützung in Millionenhöhe und bei Vorträgen sind Selfies mit ihm stark nachgefragt. Im Interview mit APA-Science ist der gebürtige Bayer stark erkältet, aber enthusiastisch wie eh und je, und gibt Einblick in den Stand der Forschung, durchgedrehte Smart Homes und "dumme" Intelligenzen.

APA-Science: Wie sind Sie auf das Thema KI gekommen?

Hochreiter: Ich habe Informatik an der TU München und später Mathematik an der Fernuni Hagen studiert. Das war ziemlich langweilig, bis ich über diese KI-Sachen - vor allem neuronale Netzwerke - gestolpert bin. Das hat mich fasziniert. Bei Jürgen Schmidhuber, der damals die Kurse geleitet hat, habe ich dann im Jahr 1991 meine Diplomarbeit gemacht. Darin bin ich auf zwei neue Sachen gestoßen: erstens der Vanishing Gradient - ein Problem beim Training neuronaler Netze - und zweitens "Long short-term memory" - LSTM, quasi ein langes Kurzzeitgedächtnis, das inzwischen in jedem Handy ist. Aber damals hat nicht einmal mein Betreuer gemerkt, dass ich das hinten angehängt habe. Ich als naiver Student habe natürlich gedacht, dass sich der das durchliest und gleich voll begeistert ist. Es war damals aber auch nicht die Zeit dafür, um das Potenzial zu erkennen, weil es viel weniger Daten und eine zu geringe Rechenkapazität gab. Erst viel später hat er das entdeckt und dann haben wir das zusammen publiziert. Beim ersten Mal wurde es natürlich abgelehnt, weil keiner erkannt hat, was das ist. Und beim zweiten Mal - im Jahr 1997 - haben wir es dann geschafft, da ist es in Neural Computation erschienen.

Dann bin ich nach Amerika gegangen. Mein Betreuer dort, Mike Mozer, der hatte damals schon ein Haus, das hatte überall Sensoren und wurde von einem neuronalen Netzwerk gesteuert, das natürlich gelernt hat, dass der Besitzer alleine darinnen wohnt. Und als wir ihn einmal zu zweit besucht haben, hat das durchgedreht, weil es geglaubt hat, es gibt den Besitzer drei Mal. das Das haben wir dann abschalten müssen.

Dann bin ich nach Berlin an die TU gegangen, wo ich die neuronalen Netze auf medizinische beziehungsweise biologische Daten angewandt habe. Da war ich dann Bioinformatiker und habe mich folglich auf Professuren in dem Bereich beworben und schließlich 2006 in Linz eine Zusage bekommen. Hier habe ich lange Bioinformatik gemacht bis 2010 meine alten Sachen so populär geworden sind. Der Vanishing Gradient hat sich als mathematische Grundlage für die ganze Deep Learning-Sache, die den KI-Hype ausgelöst hat, erwiesen. Seitdem gelte ich auch als einer der Pioniere bei diesen Sachen.

Ab diesem Zeitpunkt wollten dann die Leute auf Konferenzen Selfies mit mir machen. Geoffrey Hinton von Google, der das Thema Deep Learning losgetreten hat, ist auf mich zugekommen und hat gesagt: "Hey Sepp, weißt du schon, was los ist? Alle machen jetzt die Sachen, die du damals erfunden hast." Wenn das einer sagt, bei dem man zum Schwitzen anfängt, wenn der vorbei geht, und man froh ist, wenn man die Luft atmen darf, die er ausgeatmet hat, da kann man schon stolz sein. Das war 2010, da hat sich alles geändert. Ab da habe ich wieder die KI-Sachen in den Vordergrund gestellt.

Ich war kürzlich auch der KI-Abgeordnete der Deutschen Akademie der Wissenschaften bei einem Besuch im südkoreanischen Seoul. Da waren so Leute wie der Chef des Deutschen Zentrums für Luft- und Raumfahrt dabei. Die haben mich nicht gekannt. Als wir gemeinsam bei Samsung reingegangen sind, hat sich sofort eine Gruppe gebildet, die alle mit mir ein Selfie machen wollten. Meine Begleiter haben sich gewundert, was da abgeht, und sich gefragt: Was haben die mit dem Linzer da? Beim Suchmaschinendienst Naver passierte das Gleiche. Da hieß es: Was? Der Hochreiter ist im Haus? Plötzlich sind alle hergelaufen und machten Selfies mit mir. Die deutschen Kollegen wollten dann wissen, was das soll. Weil mit LSTM bin ich bekannt wie ein bunter Hund.

APA-Science: Vor welchen Herausforderungen steht die KI?

Hochreiter: Dass die KI die Welt versteht. Ich möchte von der "Narrow AI", die für Spezialanwendungen eingesetzt wird und dort oft schon besser als der Mensch ist, zu einer offenen "General AI" ("General Artificial Intelligence"). Darum wird es auch im gerade im Aufbau befindlichen Labor für Artificial Intelligence (LIT AI Lab) an der Uni Linz gehen.

Bei Narrow AI baue ich für bestimme Aufgaben etwas und versuche, das zu trainieren - zum Beispiel, dass ein System Verkehrszeichen erkennt. Da gibt es dann ein Bildverarbeitungssystem, das kann Verkehrszeichen super erkennen, aber sonst ist es total dumm. Ein anderes System kann vielleicht Blumen gut erkennen, aber sonst nichts. Störend ist, dass das Rad immer wieder von neuem erfunden wird. Man muss Grundprinzipien der Bildverarbeitung, wie Kantendetektoren, für jede Analyse neu entdecken. Ganz anders bei der generellen AI: Ich lerne einmal das Sehen und erkenne, was ein Verkehrszeichen, eine Blume, eine Jacke, ein Stuhl oder eine Tasse ist - wie ein Kind. Ich lerne vielleicht auch das Hören, das Sprechen beziehungsweise den Menschen zu verstehen.

Wenn ein Baum auf die Straße vor ein autonom fahrendes Fahrzeug zu fallen droht, muss das System viel verstehen: das Konzept Wind, dass sich ein Baum biegen kann, das Konzept Schwerkraft. Und wenn der Baum auf die Straße fallen würde, müsste es wissen, dass man da nicht drüberfahren kann. Für so etwas brauche ich ganz viel Verständnis von der Welt.

Wir kennen das Prinzip ganz gut: Wir bilden viele natürliche Intelligenzen sehr breit aus, die nennen wir Studenten. Die gehen dann in die Unternehmen und spezialisieren sich dort. Auch eine generelle KI kann sehr viel, ist aber auf nichts trainiert. Sie kann eine Wiese, einen Baum, Menschen und Tiere erkennen, aber nicht die genaue Baumart oder Hunderasse. Die Vision ist: Ich baue das Ding nur einmal und bekomme ganz viele Anwendungen, statt dass ich Millionen Euro in diese oder jene Applikation stecke und ihr immer wieder das gleiche lerne.

APA-Science: Wie steinig wird der Weg zu einer "General AI"?

Hochreiter: Auf dem Weg zur General AI braucht es noch ein paar Durchbrüche. Bei der Bild- und Sprachverarbeitung sind wir sehr weit. Nachholbedarf gibt es noch beim strategischen Planen. Es ist sehr schwer, wenn ich ganz am Anfang von einem Spiel die richtige Entscheidung treffen muss. Denn der Erfolg stellt sich sehr spät ein - wie bei Schach. Wenn ich eine Dame verliere, kann ich weiterspielen, Matt bin ich vielleicht sehr viel später. Das System muss lernen, was zum Erfolg oder Misserfolg geführt hat. Bei manchen Spielen kann man das total beherrschen, durchplanen und durchspielen, weil man die Spielregeln kennt.

Normale Welt-Situationen sind aber keine geschlossenen Systeme und daher viel komplexer. Da ist die große Kunst, in die Zukunft zu schauen. Ich mache jetzt etwas und irgendwann wird es eine Auswirkung haben. Das ist wie bei manchen Tieren: Einen Hund muss man auch lange trainieren, dass er sich zuerst drei Mal im Kreis drehen muss, bevor er die Wurst bekommt. Da ist der Mensch ganz stark, dass er etwas macht, auch wenn er erst viel später dafür belohnt wird. Diese strategischen Entscheidungen sind sehr wichtig, fehlen den KIs aber noch.

Ein Beispiel: Ich sage der KI, dass sie mir einen Stuhl nach einem Bild machen soll. Dann sage ich: Nein, so habe ich mir das nicht vorgestellt, mach das noch einmal. Da ich kein Tischler bin, sage ich ihm nicht, das musst du so oder so machen. Das wäre einfach und viel schneller, weil das System gleich eine Rückmeldung bekommt. Das machen wir oft bei Kindern. In vielen Situationen kann aber keiner hinter der KI stehen und Feedback geben. Und beim Erkennen, wo habe ich einen Fehler gemacht, auch wenn es mir keiner sagt, da sind wir noch schwach. Die ersten Sachen bezüglich General AI wird es vielleicht im Jahr 2050 geben, vielleicht aber auch erst später.

APA-Science: Welches KI-System ist derzeit am weitesten fortgeschritten?

Hochreiter: Das ist schwierig, weil die Forschung so schnell vorangeht. Ich gehe davon aus, dass Google ganz vorne liegt - etwa bei Sprachverarbeitung und Bilderkennung. Aber auch Facebook ist hier sehr gut. An dritter Stelle sehe ich Amazon. IBM hat sich mit Watson vergaloppiert. Die waren und sind in bestimmten Sachen weit vorne, etwa als sie mit Watson Jeopardy gewonnen haben. Die können Fakten ganz schnell abfragen. Und darin sind sie immer noch die besten. Aber das ist nicht an Lernen ausgerichtet, sondern ein festes System. Unterdessen ist aber die KI-Sache losgegangen. Das ist an denen total vorübergegangen, weil sie zu lange an den alten Systemen festgehalten haben.

Apple hat die AI-Sache auch übersehen, geht da jetzt aber ganz stark rein. Google hat einen anderen Fehler gemacht, nämlich bei selbstfahrenden Autos. Die haben ein Auto gebaut, das mit einer supergenauen Karte und mit GPS rumgefahren ist. Es waren aber nicht die neuen AI-Techniken wie Bilderkennung drinnen. Mit denen schaut das Auto raus und weiß, wo es fahren muss. Das haben sie übersehen, aber schnell aufgeholt. Microsoft war da dazwischen. Die waren nie ganz vorne dabei und sind etwas schwerfälliger.

APA-Science: Die Entwicklung bisher war ja nicht besonders rasant...

Hochreiter: Es ist lange nichts in AI passiert - zwischen Deep Blue (Anm.: der Sieg des IBM-Computers "Deep Blue" gegen den Schachweltmeister Garry Kasparov im Jahr 1997) und AlphaGO (Anm.: der glatte 3:0-Sieg von Googles AlphaGO-Software gegen den weltbesten Go-Spieler Ke Jie im Jahr 2017) liegen 20 Jahre - aber jetzt geht es rasant. An allen Ecken und Enden kommen neue Anwendungen und Firmen. Das haben auch Experten nicht kommen gesehen. Und jetzt gibt es so große Ziele, wie das autonome Fahren.

APA-Science: Wie findet man Mitarbeiter für diesen Forschungsbereich?

Hochreiter: Ich möchte eine große Werbekampagne beginnen, damit wir mit meinem guten Namen mehr Leute von außen bekommen. Bisher haben wir uns schwer getan, weil Berlin bekannter als Linz ist. Sogar Wien ist bekannter als Linz. Du kannst zum MIT, nach London oder Paris gehen. Wenn ich nach Linz gehe, muss ich einen Grund haben. Nicht nur der Standort, auch Oberösterreich als Gesamtpaket ist attraktiv. Die Chinesen bauen Hallstatt nach - und von Linz bist du in einer halben Stunde oder Stunde im Salzkammergut. Am Ende meiner Vorträge zeige ich immer, was in der Nähe ist. Wenn ihr zu uns kommt, könnt ihr am Wochenende da hingehen, zum Skifahren, Bergsteigen, Wandern, Mountainbiken, Schwammerlsuchen im Mühlviertel - was auch immer. Es zählt ganz, ganz viel, was man außerhalb des Labs machen kann. Aber nicht nur für die Unis, auch für die Firmen wird das zunehmend wichtig. Das muss man stärker bewerben.

Geld aufstellen ist im Moment weniger das Problem als gute Leute zu finden. Wir brauchen unbedingt Leute von außen. Ich hoffe strategisch auf Studenten aus der Ukraine, Albanien und generell dem Osten. Wenn wir die irgendwie herbekommen würden, dass sie hier in der Forschung bleiben, wäre das eine Riesensache. Das würde den Standort wahnsinnig stärken. Hürden sind die hohen Lebenshaltungskosten und teilweise mangelnde Englisch-Kenntnisse.

APA-Science: Wo wird man KI-Systeme am schnellsten "bemerken" bzw. wo werden sie den größten Einfluss haben?

Hochreiter: Die Systeme werden den stärksten Einfluss haben, wo es der Mensch nicht merkt. Vielleicht auch weil wir es nicht merken. Das ist am Handy und im Internet. Wo gibt es das schon? Zum Beispiel bei Chatbots, die können sogar Wahlen beeinflussen. Da merkt man es zum Teil nicht, dass da eine Maschine dahinter steckt. Am Handy sind viele Apps mit KI hinterlegt - etwa zur Mustererkennung. Es wird mehr und mehr Einzug halten, dass die App im Hintergrund irgendwelche Daten analysiert. Wo es viel Einfluss haben wird, wo man es sieht, ist beim Autofahren. Schon jetzt werden ja teilweise Verkehrsschilder automatisch erkannt und angezeigt. Peu à peu werden auch Spracheingabe und Spurhaltesysteme kommen.

Aber auch im alltäglichen Leben daheim, etwa bei der intelligenten Steuerung des Hauses, um keine Energie zu verschwenden oder Abfall zu vermeiden, wird das wichtig. Ein weiterer Bereich ist die Altenbetreuung - Stichwort Sturzerkennung. Ist jemand hingefallen oder hat sich die Person nur hingelegt? Das lässt sich schon gut unterscheiden. Für ältere Menschen wird sich auch die Mobilität ändern: Es wird so kleine Autos geben, die einen hin- und herchauffieren. Meine Oma ist nur in die Kirche und heimgegangen. Aber die alte Freundin hat sie nicht mehr besuchen können, weil die ein paar Kilometer weg wohnt, sie nicht mehr mit dem Auto gefahren ist und es zu Fuß doch zu weit war. Da wären diese Autos hilfreich.

APA-Science: Welche ethischen und rechtlichen Rahmenbedingungen braucht es dafür?

Hochreiter: Da kommt man nicht hinterher. Bei einer Veranstaltung waren Juristen am Podium, da bin ich hingelaufen und raufgesprungen und habe gesagt: Was ihr redet ist ein völliger Schwachsinn. Da wollten mich die Ordner runterziehen. Schließlich ist der Moderator eingeschritten und hat gesagt: Das ist der Sepp Hochreiter. Die haben diskutiert, ob der Programmierer reinschreiben muss, was passiert, wenn eine alte Frau oder ein Kind vor das Fahrzeug hüpft. Ich habe gesagt, das war vielleicht früher so. Aber jetzt haben wir KI-Systeme, da programmieren wir nur die Struktur und die lernen dann selbst.

Wer ist schuld, wenn etwas passiert? Der Programmierer des Systems weiß nicht, welche Daten da reinkommen - Daten von selbstfahrenden Autos oder Sprachdaten. Er weiß vielleicht nicht einmal, dass das ein selbstfahrendes Auto wird, es hätte genauso gut eine Zahnbürste - die lernt, ob ich richtig geputzt habe - werden können. Ist der schuld, der die Daten generiert und zur Verfügung stellt? Denn auch die können mangelhaft sein, wenn ich beispielsweise Autobahn-Fahrten ins System gebe und dann in die Stadt fahre. Und dann gibt es die, die das fertige System in den Einsatz bringen und verkaufen. Ist der schuld, wenn er gar nicht weiß, welche Daten da drinnen stecken, wer das programmiert hat und was das System lernt?

In Nevada gibt es einen Beschluss, dass selbstfahrende Systeme von Google behandelt werden wie Fahrer, also nicht der Insasse schuld ist, wenn etwas passiert, sondern das KI-System. Was das im Fall der Fälle heißt, ist unklar. Wie kann man ein KI-System bestrafen? Zwei Tage Stromentzug? Vier Tage keine Daten? Das muss man sich erst überlegen. Der Fahrgast ist jedenfalls nicht schuld. Wir können die Zahl der Toten um den Faktor 10 kleiner machen, aber wissen im Einzelfall nicht, was passiert. Wir können das System optimieren, aber wie es in einem bestimmten Fall reagiert, wissen wir nicht. Was wir sagen können: Es wird weniger Verkehrstote geben. Wir können nicht Milliarden von Fällen in einer Datenbank abspeichern. Das ist für die Juristen neu, weil sie in Einzelfällen denken. Die wollen immer einen Verantwortlichen haben, den man zur Rechenschaft ziehen kann. Da müssen wir versuchen, auf eine gemeinsame Sprache zu kommen.

Diskutiert wird das auch im künftigen Open Innovation Center des Linz Institute of Technology (LIT) werden, wo wir stark auf Interdisziplinarität setzen. Da geht es nicht nur um die technologischen Entwicklungen, sondern auch um rechtlich-soziologische Aspekte. Da arbeiten die Bereiche eng zusammen.

APA-Science: Wenn Sie einen Blick in die Glaskugel werfen, wo stehen wir in 20 Jahren?

Hochreiter: Was ich nicht weiß, ist, ob Quantencomputing bis dahin kommt. Da bin ich skeptisch. Unterdessen könnte das Handy zu einem guten Berater, ja zu einem Freund werden, der immer mehr weiß und sich auch mit anderen Sachen verbindet. Wenn ich krank werde, sagt das Handy zu mir: Pass auf, du hast erhöhte Temperatur und eine heisere Stimme, da vorne ist eine Apotheke, hol dir die Tabletten xy, die helfen dir ja immer. Und da drüben gibt es einen freien Parkplatz. Die Tabletten liegen schon parat und bezahlt habe ich sie auch schon.

APA-Science: Im Hinblick auf die dafür notwendigen digitalen Kompetenzen: Geht da die Kluft nicht noch weiter auseinander?

Hochreiter: Die große Gefahr ist der Gap zwischen denen, die komplett anonym bleiben und diese Möglichkeiten nicht nutzen können, und denen, die alles preisgeben und die Services bequem nutzen können. Ich weiß nicht, was passiert, wenn es diesen Gap - alle informationsbasierten Annehmlichkeiten versus sich alles selbst organisieren müssen - gibt. Ich habe bis vor kurzem kein Smartphone gehabt. Die Schnauze voll hatte ich, als ich bei einer Konferenz war und alle schon am Tisch für den Rückflug eingecheckt haben. Bis ich im Hotel war und am Computer eingecheckt habe, waren die besten Plätze vergeben.

Ich weiß nicht, ob man sich künftig noch komplett entziehen kann, aber eine Minimalvariante ist möglich. Ich muss mir keine Kameras im Haus einbauen, ich muss nicht mit Alexa reden oder alles vernetzen. Mit KI werden dennoch ganz viele Leute in Kontakt kommen, auch wenn sie es nicht merken - Stichwort Chatbot oder Call Center-Mitarbeiter. Vielleicht geht es denen, die da mitmachen, dann ein bisschen besser als den anderen. Man bekommt die besseren Konzertkarten oder weiß über eine App, dass man dieses und jenes jetzt auch von der Steuer absetzen kann. Zum Teil ist es ja jetzt schon so. Man kann nachschauen, wenn etwas nicht funktioniert, woran es liegen und was es kosten könnte. Meine Eltern müssen in die Werkstatt fahren und haben überhaupt keine Ahnung, was passieren wird. Die Schere könnte noch größer werden.

Von Stefan Thaler / APA-Science

ZUR PERSON

Sepp Hochreiter leitet das Institut für Bioinformatik der Johannes Kepler Universität in Linz und forscht auf dem Gebiet des maschinellen Lernens und der Bioinformatik. Der gebürtige Bayer wird dem gerade im Aufbau befindlichen Labor für Artificial Intelligence (LIT AI Lab), ein von vom Land Oberösterreich mit zwölf Millionen Euro gefördertes Zentrum für Künstliche Intelligenz an der Universität Linz, vorstehen. Er hat schon vor gut 20 Jahren auf dem Gebiet der Künstlichen Intelligenz, genauer im Bereich der neuronalen Netzwerke, Pionierarbeit geleistet. Diese Netzwerke sind in ihrer Funktionsweise dem menschlichen Gehirn nachempfunden, machen also zunächst eine Lernphase durch, bevor sie ihren eigentlichen Zweck erfüllen.

In jüngster Zeit wurde der Grundstein für eine Zusammenarbeit zwischen dem Institut für Bioinformatik und dem Autohersteller Audi gelegt, in der man gemeinsam die Entwicklung selbstfahrender Autos vorantreiben will. Auch Unternehmen wie der Online-Versandhändler Zalando, der Deep Learning-Methoden einsetzen will, um neueste Modetrends aufzuspüren, greifen auf Hochreiters Know-how zurück.

Weitere Meldungen aus Politik & Wirtschaft
APA
Partnermeldung