Interview

Glauben Sie an den freien Willen, Herr Hochreiter?

Sepp Hochreiter hat die Grundlagen für den Durchbruch künstlicher Intelligenz geschaffen. KI-Spezialisten von Google und selbst Elon Musk suchen den Rat des Forschers der JKU in Linz, wenn sie Probleme mit der Automatisierung intelligenten Verhaltens haben.

Von
JKU Linz Sepp Hochreiter Künstliche Intelligenz AI Automatisierung

Nach Hightech sieht es hier nicht aus. Ein einzelner Bildschirm steht auf dem Schreibtisch im Büro des Institutsleiters für Machine Learning an der Johannes Kepler Universität Linz. Hier forscht und lehrt der Mann, der mit der Erfindung des „langen Kurzzeitgedächtnisses“ die Grundlagen für die Merkfähigkeit von künstlicher Intelligenz möglich gemacht hat. Sepp Hochreiter, leicht ausgebeulter Pulli, unauffällige Jeans, wirkt auf den ersten Blick eher wie ein liebenswürdig­ verpeilter Schuldirektor als jener Star, als der er in der Tech-­Szene zwischen Silicon Valley und Seoul gehandelt wird. Eines der Schuhbänder Hochreiters ist offen. Darauf angesprochen, bückt er sich et­was unwillig und merkt dabei an: „Nor­malerweise warte ich, bis das zweite auch aufgegangen ist.“

Herr Hochreiter, wann hat Elon Musk Sie das letzte Mal angerufen?

Sepp Hochreiter Selber ruft er nicht an. Wenn Tesla irgendein Problem mit künstlicher Intel­ligenz hat, rufen seine Leute an. Auf Kon­ferenzen treffen wir uns aber persönlich. Der letzte Kontakt war voriges Jahr.

White Paper zum Thema

Österreichische Unternehmer melden sich öfter?

Hochreiter Ja, österreichische Unternehmen wollen oft Unterstützung. Mit einigen von ihnen haben wir an der Johannes Kepler Universität Linz inzwischen spannende Kooperationen, andere leiten wir an Start-­ups weiter. Und dann gibt es Fälle wie den Bäcker, der anruft, weil er in Zukunft seine Semmeln mit KI machen will. Das ist lustig, zeigt aber auch, wie präsent inzwischen das Thema geworden ist, und wie oft der Begriff KI falsch ver­standen wird.

Das Bild, Österreichs Wirtschaft würde bei künstlicher Intelligenz der Welt hinterherhinken, stimmt also nicht mehr?

Hochreiter Wir können uns nicht selbstzufrieden zurücklehnen, aber es ist beeindruckend, wie viele Start­-ups aus Österreich ganz vorne mitspielen. Bei großen Industrie­tankern ist das anders, die können ihre Geschäftsprozesse nicht von heute auf morgen umstellen. Generell wissen aber auch viele Maschinen­ und Anlagen­bauer, dass sie nicht nur Sensoren ver­bauen müssen, sondern die Daten auch nützen sollten.

Und wie?

Hochreiter Wenn ein Unternehmen Drehmaschi­nen verkauft, dann erfährt es oft erst nach Jahren, wenn die Maschinen getauscht werden, ob der Kunde zufrie­den war oder nicht. Wenn die Maschine aber ständig Daten ausliest und der Maschinenbauer Zugriff darauf hat, kann er schon während des Betriebs sehen, ob es irgendwo Probleme gibt und dann nachbessern. Er sieht auch, wie gut aus­gelastet die Maschinen sind. Sind sie voll ausgelastet, kann er versuchen, noch eine zu verkaufen, sind sie schlecht aus­ gelastet, weiß er: Von diesem Kunden wird in der nächsten Zeit eher kein Auftrag kommen.

>> Das Gespräch mit "KI-Guru" Sepp Hochreiter können Sie auch in unserem Podcast hören.

In der Praxis nutzen in Österreich nur wenige Unternehmen solche Möglichkeiten. Vielleicht weil Österreich in seiner Strategie bezüglich künstlicher Intelligenz die falschen Schwerpunkte gesetzt hat?

Hochreiter Das ist eine heikle Frage. Wir forschen hier an der JKU an moderner künstlicher Intelligenz, an Deep Learning, an neuro­nalen Netzen, an Machine Learning. Es gibt im deutschsprachigen Raum aber auch eine relativ große Lobby, die älteren Ideen nachhängt und sich zum Beispiel für regelbasierte Systeme stark macht. Durchsetzen wird sich, was den Unter­nehmen einen Mehrwert bringt.

Es kommt dann aber womöglich aus China statt aus Österreich...

Hochreiter Es ist schon heute so, dass im Silicon Valley oder in China Dinge implementiert werden, die hier in Österreich erfunden wurden. Und dann werden sie wieder nach Österreich zurückimportiert. Das ist absurd, liegt aber daran, dass man in China oder den USA viel leichter einen Algorithmus im Alltag testen kann. Bei uns ist das oft wegen gesetzlicher Beschränkungen wie etwa der DSGVO deutlich schwieriger. Es liegt aber auch an einem anderen Mindset. Wenn jemand bei uns eine Superidee hat, publiziert er sie in einem wissenschaftlichen Journal, weil er dann Professor werden kann und ein schönes Türschild bekommt. In den USA gründet er ein Unternehmen.

Der typische Europäer fürchtet sich aber auch vor der KI. Sie selbst haben einmal gesagt, Ihre Stärke sei es, dass Sie ein gutes Gefühl für KI hätten. Das klingt ja wirklich danach, als würden diese Maschinen ein Eigenleben führen.

Hochreiter Die Vorstellung, dass künstliche Intel­ligenz sich verselbstständigt, ist absurd. Szenarien wie in Terminator oder Matrix wird es nie geben, aus einem ganz einfa­chen Grund: Künstliche Intelligenz hat keinen evolutionären Überlebensdrang. Deshalb wird der Mensch immer die Kon­trolle behalten, er kann die KI schlicht und einfach abschalten. Wenn ich im Zusammenhang mit KI von Gefühl spre­che, dann meine ich daher bloß, dass ich oft schneller als andere erkenne, ob eine bestimmte Fragestellung mit KI lösbar ist oder nicht.

Sie erkennen aufgrund Ihrer Erfahrung Muster schneller als andere. Von der künstlichen Intelligenz wird allerdings gesagt, sie könne das noch viel besser als der Mensch.

Hochreiter Absolut. Es gibt allerdings das Daten­mengenproblem. Um Muster erkennen zu können, braucht künstliche Intelligenz Daten von hunderten, tausenden Projekten, die auch richtig annotiert sind. Und die Daten müssen umfassend sein.

Wenn zu wenige Daten das Problem sind, könnte man ja künstliche Intelligenz selbst Daten sammeln lassen, wie ein Kind, das die Welt erkundet, und dann kann sie anhand dieser Daten lernen.

Hochreiter Ja. Wie beim Kind haben Sie aller­dings dann die Gefahr, dass sie die fal­schen Schlüsse zieht. Ein Auto kann Daten sammeln. Wenn aber der Fahrer Fehler macht, zum Beispiel bei Gelb oder gar Rot über eine Ampel fährt, lernt das System auch das. Deshalb kann die Maschine zwar Daten sammeln, annotie­ren muss sie aber der Mensch. Das ist tatsächlich wie bei einem Kind. Auch dem Kind müssen Sie sagen, was falsch und richtig ist, von allein weiß es das nicht.

Wenn KI sich wie ein lernendes Kind verhält, dann haben am Ende vielleicht doch jene recht, die sagen, künstliche Intelligenz sei eine eigene Daseinsform, die uns heute noch unterlegen ist, uns aber einmal überflügeln könnte – so wie manche Kinder mit der Zeit ihre Eltern intellektuell überflügeln.

Hochreiter In vielen Bereichen hat KI uns schon überflügelt, es gibt viele Beispiele für die sogenannte Superhuman Performance von Maschinen. Sie unterscheiden Ver­kehrszeichen besser als der Mensch, sie erkennen Hautkrebs besser als Ärzte. Das ist allerhand, aber wir befinden uns dabei immer noch auf dem Level One des Ler­nens – es geht darum, Objekte zuverläs­sig zu erkennen. Auf Level Two, wo es darum geht, Zusammenhänge zwischen Fakten herzustellen, ist künstliche Intel­ligenz noch ganz schwach. Denn es fehlt ihr das Weltwissen des Menschen. Wenn ich merke, dass in einem Lokal das Essen immer dann kalt ist, wenn es Kellner X serviert, kann ich sehr schnell schlussfolgern, dass er es wohl zu lange irgendwo stehen lässt. Ich weiß aufgrund meines Weltwissens, dass es eigentlich nur auf die Variable Kellner ankommen kann. Künstliche Intelligenz hat dieses Welt­ wissen nicht. Sie würde der Reihe nach alle Variablen prüfen und als mögliche Ursache in Betracht ziehen: Vielleicht liegt es daran, dass es draußen regnet? Vielleicht daran, dass es drinnen dunkler ist als sonst?

Sepp, Hochreiter, JKU, Linz © JKU

Mit der Erfindung der Long Short- Term Memory Netzwerke (LSTM) wurde Sepp Hochreiter (53) Ende der 90er-Jahre zu einem der wichtigsten Pioniere der künstlichen Intelligenz. LSTM ist eine Technik, die die Merkfähigkeit von künstlichen neuronalen Netzen markant steigert, und so die meisten Anwendungen von künstlicher Intelligenz überhaupt erst möglich macht. Heute leitet der Star der Tech-Szene, bei dem sich Experten von Google oder Tesla Ratschläge holen, das Institut für Machine Learning an der JKU in Linz. An seinem Institut startete der gebürtige Bayer im Herbst auch das erste österreichische Studium in Artificial Intelligence.

Mit genügend Daten könnte man dem Computer aber auch Weltwissen beibringen.

Hochreiter Mit diesem Argument kann man tat­sächlich jede Kritik an der Unzulänglich­keit der KI erschlagen. Man kann immer sagen: Mit genügend Daten wird die KI auch das lernen. Aber die KI braucht eben diese Daten. Menschen lernen viel schneller: Einem Kind können Sie zeigen, wie man ein Bild aufhängt, und es wird das Bild nach wenigen Versuchen selber aufhängen kön­nen. Eine KI bräuchte dazu Millionen Versuche.

Weil dem Menschen das Vermögen logisch zu denken genetisch einprogrammiert ist?

Hochreiter Das glaube ich nicht. Ich glaube, auch wir lernen an Daten. Formale Logik kann man zwar lernen, aber das meiste, was wir wissen und können, leiten wir aus den Daten ab, die unser Hirn aufgenommen hat. Der Input bestimmt auch bei uns den Output, nur sind wir dabei viel effizienter als Computer.

Eine Blackbox, in der bei der Verarbeitung von Daten etwas passiert, wovon wir nicht genau wissen, was es ist, gibt es also nicht? Weder beim Menschen noch bei künstlicher Intelligenz?

Hochreiter Doch, es gibt sie schon. Auch ich bin eine Blackbox. Woher kann ich sicher sein, dass ich das, was ich sage, wirklich verstehe und nicht nur deshalb sage, weil ich die Erfahrung gemacht habe, dass es in einer bestimmten Situation gut kommt, eine bestimmte Antwort zu geben? Kann ich wirklich sagen, ich habe eine Tat gesetzt, weil sie mir logisch erschien? Oder ist die Entscheidung für diese Tat schon vorher in meinem Kopf festgestanden und ich recht­ fertige sie bloß im Nachhinein mit Logik? Es gibt ja Aufzeichnungen des menschlichen Gehirns, die zeigen, dass der Impuls, eine bestimmte Handlung zu setzen, früher da ist als das Bewusstsein, diese Handlung setzen zu wollen.

Was uns unvermeidlich zu der Frage nach dem freien Willen führt. Gibt es ihn?

Hochreiter Da gibt es Leute, die das besser beantworten können als ich. Wenn ich deterministisch denke, dann existiert der freie Wille nicht. Jetzt liefert uns die Quantenphysik aber erstmals Hinweise, dass es in der Natur tatsächlich so etwas wie den Zufall gibt, dass also kein völliger Determinismus herrscht. Aber heißt das automatisch, dass es einen freien Willen gibt? Wenn ich heute in einem Lokal kein Schnitzel bestelle, weil das immer so grauslich schmeckt, ist das wirklich eine freie Entscheidung? Oder ist es eher so, dass mir per Erfahrung einprogrammiert wurde, in diesem Lokal kein Schnitzel zu essen, obwohl ich Schnitzel sonst liebe? Wie viel an unseren Entscheidungen ist das Produkt von Erfahrung und wie viel von wirklich freiem Willen? Ich glaube, das lässt sich nicht sauber definieren.

Diese letzte Frage muss sein: Wann wird Sie ein Roboter hier am Institut ablösen?

Hochreiter Also bei manchen Vorlesungen könnte er das schon jetzt, auch bei manchen Übungen. Künstliche Intelligenz ist ja unglaublich geduldig und wenn ein Schüler oder Student zum zehnten Mal denselben Fehler macht, erklärt sie es noch einmal und spuckt stoisch ein elftes Übungsbeispiel aus. In Schulen kann das eine große Chance sein, um Schüler, die bestimmte Lernschwächen haben, zu unterstützen. Dort, wo Erfahrung, Intuition oder Empathie gefragt sind, etwa in Kooperation mit anderen Forschern, sehe ich mich hingegen vor der Ablöse durch den Computer völlig sicher.

Verwandte tecfindr-Einträge