AI : Glauben Sie an den freien Willen, Sepp Hochreiter?
Aktive Mitgliedschaft erforderlich
Das WEKA PRIME Digital-Jahresabo gewährt Ihnen exklusive Vorteile. Jetzt WEKA PRIME Mitglied werden!
Sie haben bereits eine PRIME Mitgliedschaft?
Bitte melden Sie sich hier an.
Nach Hightech sieht es hier nicht aus. Ein einzelner Bildschirm steht auf dem Schreibtisch im Büro von Sepp Hochreiter, dem Institutsleiter für Machine Learning an der Johannes Kepler Universität Linz. Hier forscht und lehrt der Mann, der mit der Erfindung des „langen Kurzzeitgedächtnisses“ die Grundlagen für die Merkfähigkeit von künstlicher Intelligenz möglich gemacht hat.
Hochreiter, leicht ausgebeulter Pulli, unauffällige Jeans, wirkt auf den ersten Blick eher wie ein liebenswürdig verpeilter Schuldirektor als jener Star, als der er in der Tech-Szene zwischen Silicon Valley und Seoul gehandelt wird. Eines der Schuhbänder ist offen. Darauf angesprochen, bückt Hochreiter sich etwas unwillig und merkt dabei an: „Normalerweise warte ich, bis das zweite auch aufgegangen ist.“
INDUSTRIEMAGAZIN: Herr Hochreiter, wann hat Elon Musk Sie das letzte Mal angerufen?
Sepp Hochreiter: Selber ruft er nicht an. Wenn Tesla irgendein Problem mit künstlicher Intelligenz hat, rufen seine Leute an. Auf Konferenzen treffen wir uns aber persönlich. Der letzte Kontakt war voriges Jahr.
Österreichische Unternehmer melden sich öfter?
Hochreiter: Ja, österreichische Unternehmen wollen oft Unterstützung. Mit einigen von ihnen haben wir an der Johannes Kepler Universität Linz inzwischen spannende Kooperationen, andere leiten wir an Start-ups weiter. Und dann gibt es Fälle wie den Bäcker, der anruft, weil er in Zukunft seine Semmeln mit KI machen will. Das ist lustig, zeigt aber auch, wie präsent inzwischen das Thema geworden ist, und wie oft der Begriff KI falsch verstanden wird.
Das Bild, Österreichs Wirtschaft würde bei AI der Welt hinterherhinken, stimmt also nicht mehr?
Hochreiter: Wir können uns nicht selbstzufrieden zurücklehnen, aber es ist beeindruckend, wie viele Start-ups aus Österreich ganz vorne mitspielen. Bei großen Industrietankern ist das anders, die können ihre Geschäftsprozesse nicht von heute auf morgen umstellen. Generell wissen aber auch viele Maschinen und Anlagenbauer, dass sie nicht nur Sensoren verbauen müssen, sondern die Daten auch nützen sollten.
Und wie?
Hochreiter: Wenn ein Unternehmen Drehmaschinen verkauft, dann erfährt es oft erst nach Jahren, wenn die Maschinen getauscht werden, ob der Kunde zufrieden war oder nicht. Wenn die Maschine aber ständig Daten ausliest und der Maschinenbauer Zugriff darauf hat, kann er schon während des Betriebs sehen, ob es irgendwo Probleme gibt und dann nachbessern. Er sieht auch, wie gut ausgelastet die Maschinen sind. Sind sie voll ausgelastet, kann er versuchen, noch eine zu verkaufen, sind sie schlecht aus gelastet, weiß er: Von diesem Kunden wird in der nächsten Zeit eher kein Auftrag kommen.
In Österreich erfunden, in China implementiert
In der Praxis nutzen in Österreich nur wenige Unternehmen solche Möglichkeiten. Vielleicht weil Österreich in seiner Strategie bezüglich künstlicher Intelligenz die falschen Schwerpunkte gesetzt hat?
Hochreiter: Das ist eine heikle Frage. Wir forschen hier an der JKU an moderner künstlicher Intelligenz, an Deep Learning, an neuronalen Netzen, an Machine Learning. Es gibt im deutschsprachigen Raum aber auch eine relativ große Lobby, die älteren Ideen nachhängt und sich zum Beispiel für regelbasierte Systeme stark macht. Durchsetzen wird sich, was den Unternehmen einen Mehrwert bringt.
Es kommt dann aber womöglich aus China statt aus Österreich...
Hochreiter: Es ist schon heute so, dass im Silicon Valley oder in China Dinge implementiert werden, die hier in Österreich erfunden wurden. Und dann werden sie wieder nach Österreich zurückimportiert. Das ist absurd, liegt aber daran, dass man in China oder den USA viel leichter einen Algorithmus im Alltag testen kann. Bei uns ist das oft wegen gesetzlicher Beschränkungen wie etwa der DSGVO deutlich schwieriger. Es liegt aber auch an einem anderen Mindset. Wenn jemand bei uns eine Superidee hat, publiziert er sie in einem wissenschaftlichen Journal, weil er dann Professor werden kann und ein schönes Türschild bekommt. In den USA gründet er ein Unternehmen.
Der typische Europäer fürchtet sich aber auch vor der AI. Sie selbst haben einmal gesagt, Ihre Stärke sei es, dass Sie ein gutes Gefühl für AI hätten. Das klingt ja wirklich danach, als würden diese Maschinen ein Eigenleben führen.
Hochreiter: Die Vorstellung, dass künstliche Intelligenz sich verselbstständigt, ist absurd. Szenarien wie in Terminator oder Matrix wird es nie geben, aus einem ganz einfachen Grund: Künstliche Intelligenz hat keinen evolutionären Überlebensdrang. Deshalb wird der Mensch immer die Kontrolle behalten, er kann die KI schlicht und einfach abschalten. Wenn ich im Zusammenhang mit KI von Gefühl spreche, dann meine ich daher bloß, dass ich oft schneller als andere erkenne, ob eine bestimmte Fragestellung mit KI lösbar ist oder nicht.
Das könnte Sie auch interessieren: Die besten AI-Projekte der Industrie
Sie erkennen aufgrund Ihrer Erfahrung Muster schneller als andere. Von der künstlichen Intelligenz wird allerdings gesagt, sie könne das noch viel besser als der Mensch.
Hochreiter: Absolut. Es gibt allerdings das Datenmengenproblem. Um Muster erkennen zu können, braucht künstliche Intelligenz Daten von hunderten, tausenden Projekten, die auch richtig annotiert sind. Und die Daten müssen umfassend sein.
Wenn zu wenige Daten das Problem sind, könnte man ja künstliche Intelligenz selbst Daten sammeln lassen, wie ein Kind, das die Welt erkundet, und dann kann sie anhand dieser Daten lernen.
Hochreiter: Ja. Wie beim Kind haben Sie allerdings dann die Gefahr, dass sie die falschen Schlüsse zieht. Ein Auto kann Daten sammeln. Wenn aber der Fahrer Fehler macht, zum Beispiel bei Gelb oder gar Rot über eine Ampel fährt, lernt das System auch das. Deshalb kann die Maschine zwar Daten sammeln, annotieren muss sie aber der Mensch. Das ist tatsächlich wie bei einem Kind. Auch dem Kind müssen Sie sagen, was falsch und richtig ist, von allein weiß es das nicht.
Wenn KI sich wie ein lernendes Kind verhält, dann haben am Ende vielleicht doch jene recht, die sagen, künstliche Intelligenz sei eine eigene Daseinsform, die uns heute noch unterlegen ist, uns aber einmal überflügeln könnte – so wie manche Kinder mit der Zeit ihre Eltern intellektuell überflügeln.
Hochreiter: In vielen Bereichen hat KI uns schon überflügelt, es gibt viele Beispiele für die sogenannte Superhuman Performance von Maschinen. Sie unterscheiden Verkehrszeichen besser als der Mensch, sie erkennen Hautkrebs besser als Ärzte. Das ist allerhand, aber wir befinden uns dabei immer noch auf dem Level One des Lernens – es geht darum, Objekte zuverlässig zu erkennen.
Auf Level Two, wo es darum geht, Zusammenhänge zwischen Fakten herzustellen, ist künstliche Intelligenz noch ganz schwach. Denn es fehlt ihr das Weltwissen des Menschen. Wenn ich merke, dass in einem Lokal das Essen immer dann kalt ist, wenn es Kellner X serviert, kann ich sehr schnell schlussfolgern, dass er es wohl zu lange irgendwo stehen lässt. Ich weiß aufgrund meines Weltwissens, dass es eigentlich nur auf die Variable Kellner ankommen kann.
Künstliche Intelligenz hat dieses Weltwissen nicht. Sie würde der Reihe nach alle Variablen prüfen und als mögliche Ursache in Betracht ziehen: Vielleicht liegt es daran, dass es draußen regnet? Vielleicht daran, dass es drinnen dunkler ist als sonst?
Entdecken Sie jetzt
- Lesen
- Videos
-
Podcasts
- KTM-Chef Pierer verkauft Automobilzulieferer Leoni AG an Luxshare nach China | IM News 25.09.2024
- VW, BMW, Mercedes: Wieviel Deutschland können sich Autohersteller noch leisten? | IM News 18.09.2024
- Die Talfahrt von Volkswagen: Verschärfung des Sparkurses, VW will erstmals Werke schließen | IM News 12.09.2024
AI – alles nur eine Frage der Daten?
Mit genügend Daten könnte man dem Computer aber auch Weltwissen beibringen.
Hochreiter: Mit diesem Argument kann man tatsächlich jede Kritik an der Unzulänglichkeit der KI erschlagen. Man kann immer sagen: Mit genügend Daten wird die KI auch das lernen. Aber die KI braucht eben diese Daten. Menschen lernen viel schneller: Einem Kind können Sie zeigen, wie man ein Bild aufhängt, und es wird das Bild nach wenigen Versuchen selber aufhängen können. Eine KI bräuchte dazu Millionen Versuche.
Lesen Sie auch hier: Was kann AI in der Industrie?
Weil dem Menschen das Vermögen logisch zu denken genetisch einprogrammiert ist?
Hochreiter: Das glaube ich nicht. Ich glaube, auch wir lernen an Daten. Formale Logik kann man zwar lernen, aber das meiste, was wir wissen und können, leiten wir aus den Daten ab, die unser Hirn aufgenommen hat. Der Input bestimmt auch bei uns den Output, nur sind wir dabei viel effizienter als Computer.
Eine Blackbox, in der bei der Verarbeitung von Daten etwas passiert, wovon wir nicht genau wissen, was es ist, gibt es also nicht? Weder beim Menschen noch bei künstlicher Intelligenz?
Hochreiter: Doch, es gibt sie schon. Auch ich bin eine Blackbox. Woher kann ich sicher sein, dass ich das, was ich sage, wirklich verstehe und nicht nur deshalb sage, weil ich die Erfahrung gemacht habe, dass es in einer bestimmten Situation gut kommt, eine bestimmte Antwort zu geben? Kann ich wirklich sagen, ich habe eine Tat gesetzt, weil sie mir logisch erschien? Oder ist die Entscheidung für diese Tat schon vorher in meinem Kopf festgestanden und ich recht fertige sie bloß im Nachhinein mit Logik? Es gibt ja Aufzeichnungen des menschlichen Gehirns, die zeigen, dass der Impuls, eine bestimmte Handlung zu setzen, früher da ist als das Bewusstsein, diese Handlung setzen zu wollen.
Was uns unvermeidlich zu der Frage nach dem freien Willen führt. Gibt es ihn?
Hochreiter: Da gibt es Leute, die das besser beantworten können als ich. Wenn ich deterministisch denke, dann existiert der freie Wille nicht. Jetzt liefert uns die Quantenphysik aber erstmals Hinweise, dass es in der Natur tatsächlich so etwas wie den Zufall gibt, dass also kein völliger Determinismus herrscht. Aber heißt das automatisch, dass es einen freien Willen gibt? Wenn ich heute in einem Lokal kein Schnitzel bestelle, weil das immer so grauslich schmeckt, ist das wirklich eine freie Entscheidung? Oder ist es eher so, dass mir per Erfahrung einprogrammiert wurde, in diesem Lokal kein Schnitzel zu essen, obwohl ich Schnitzel sonst liebe? Wie viel an unseren Entscheidungen ist das Produkt von Erfahrung und wie viel von wirklich freiem Willen? Ich glaube, das lässt sich nicht sauber definieren.
Das könnte Sie auch interessieren: Quantentechnologie in der Industrie – ihr enormes Potenzial
Diese letzte Frage muss sein: Wann wird Sie ein Roboter hier am Institut ablösen?
Hochreiter: Also bei manchen Vorlesungen könnte er das schon jetzt, auch bei manchen Übungen. Künstliche Intelligenz ist ja unglaublich geduldig und wenn ein Schüler oder Student zum zehnten Mal denselben Fehler macht, erklärt sie es noch einmal und spuckt stoisch ein elftes Übungsbeispiel aus. In Schulen kann das eine große Chance sein, um Schüler, die bestimmte Lernschwächen haben, zu unterstützen. Dort, wo Erfahrung, Intuition oder Empathie gefragt sind, etwa in Kooperation mit anderen Forschern, sehe ich mich hingegen vor der Ablöse durch den Computer völlig sicher.
Dieses Interview erschien erstmals im April 2020. Aufgrund seiner nach wie vor geltenden Relevanz haben wir es für Sie gerne wieder auf dem Archiv geholt.