Interview : Kognitionsforscher Scheutz: „Roboter sollen nicht auf dumme Ideen kommen“

Matthias Scheutz, Professor of Computer Science mit kleinem Roboter

Kognitionswissenschaftler Scheutz: "Manche Maschinen haben schon heute ein Bewusstsein - sie wissen, dass sie etwas können".

- © Alonso Nichols/Tufts University

INDUSTRIEMAGAZIN: Wenn Sie ein Roboter wären und ich sagen würde: Können Sie lauter sprechen? Was würden Sie dann tun?

Matthias Scheutz:
Ich würde lauter sprechen, jedenfalls, wenn ich ein Roboter wäre, der Sprache versteht. Es ist allerdings nicht ausgemacht, dass ich das könnte. Denn viele Roboter verstehen Sprache gar nicht, manche nur sehr eingeschränkt. Wenn Sie zu einem automatischen Staubsauger sagen: Geh ins Schlafzimmer und mach sauber, wird er gar nichts tun. Wenn ein Roboter aber darauf programmiert ist, Aufforderungen zu erkennen, auch wenn diese nicht direkt, sondern als Frage formuliert wurden, wird er nach Ihrer Bitte lauter sprechen.

Tipp der Redaktion: Vertiefungen zum Thema Digitalisierung und KI lesen Sie in unserem Industriemagazin Kontext.

Vor zehn Jahren hätte das noch nicht funktioniert.

Scheutz:
Einige Roboter in meinem Labor hätten das auch schon vor zehn Jahren können, aber Sie haben recht: Sprachassistenten, die wir aus dem Alltag kennen wie Alexa, Siri oder Cortana sind sehr stark darauf ausgerichtet, bestimmte häufig genutzte Formulierungen wiederzuerkennen und dann Befehle auszuführen, zum Beispiel ein Lied auf einem Telefon abzuspielen.

In einem abgesteckten kleinen Rahmen funktioniert das auch sehr gut. Der große Unterschied zu Robotern, an denen wir arbeiten, ist aber: Anders als reine Sprachassistenten müssen Roboter in einem physisch physikalischen Raum agieren, sie müssen Gegenstände erkennen und zuordnen können, noch dazu Gegenstände, die nicht immer ganz gleich aussehen. Sie müssen außerdem, wenn sie natürliche Sprache verstehen sollen, die Sprache mit diesen physischen Objekten in Verbindung bringen und auch mit menschlichen Gesten, die die Sprache begleiten. Das ist ganz schön kompliziert.

"Wenn Sie zu einem automatischen Staubsauger sagen: Geh ins Schlafzimmer und mach sauber, wird er gar nichts tun."
Matthias Scheutz, Computer- und Kognitionswissenschaftler

Von wirklich kollaborativen Robotern, die in der Industrie Hand in Hand mit Menschen zusammenarbeiten sind wir also noch weit entfernt?

Scheutz:
Das kommt darauf an, von welcher Form von Kollaboration Sie sprechen. Wenn es darum geht, ein Teil von A nach B zu bringen, dann ist das kein Problem, das gibt es schon heute. Wenn es aber darum geht, dass ein Roboter etwas hält, es zum richtigen Moment loslässt und dann vielleicht noch mit einem Werkzeug an einem Teil arbeitet, das inzwischen ein Mensch in der Hand hat, dann sind die Herausforderungen sehr groß.

Das beginnt beim Timing und bei den feinmotorischen Fertigkeiten, die der Roboter dann besitzen muss. Und das ist noch nicht alles, der Roboter muss vor allem auch in der Lage sein, den Kontext zu erkennen: Er muss zum Beispiel erkennen, dass er sich entfernen soll, wenn ich zu einer Bewegung aushole, weil er mir sonst im Weg ist. Er sollte aber auch damit umgehen können, dass Menschen ein und dieselbe Tätigkeit oft auf unterschiedliche Weise ausführen und dem Menschen trotzdem immer das passende Werkzeug reichen. Diese Form des Mitdenkens haben Maschinen heute nicht oder nur in sehr beschränktem Ausmaß. Sie werden es aber brauchen, wenn sie wirklich kollaborativ sein sollen.

Ist das Verstehen von natürlicher Sprache für Roboter am Ende die viel einfachere Aufgabe als das Lesen von Bewegungen oder die Orientierung im Raum?


Scheutz:
Ja und nein. Geht es um einfache Sprachbefehle, stimmt das. Geht es darum, Sprache in Kombination mit Gesten zu verstehen, wird es schon schwieriger. Und ganz schwierig ist zum Beispiel Empathie. Man kann natürlich sagen: Kein Mensch erwartet von einem Roboter, dass er empathisch ist. Das stimmt aber nicht. Menschen fühlen sich unwohl, wenn sie mit einer Maschine zusammenarbeiten, die humanoide Züge trägt, sich aber völlig unmenschlich verhält.

Einem Roboter Augen aufzumalen reicht da nicht. Er sollte schon auch bis zu einem gewissen Grad die sozialen Umgangsformen, die Menschen untereinander pflegen kennen und beherzigen. Genauso wie Sie nicht den ganzen Tag mit einem mürrischen Kollegen zusammenarbeiten wollen, möchten Sie nicht den ganzen Tag einen Roboter um sich haben, der unfreundlich wirkt.

Es kann doch nicht so schwer sein, einen freundlichen Roboter zu entwerfen.


Scheutz:
Vordergründig nicht. Selbstverständlich kann man einen Roboter so gestalten, dass er auf die Frage, ob er etwas tun kann mit „Gerne“ bzw. mit „Tut mir leid, das kann ich nicht“ antwortet. Der Punkt ist aber: Tut es dem Roboter wirklich leid?

Sie meinen: Selbst, wenn man einem Roboter beibringt, Gefühlsregungen zu zeigen, sind es eben nicht die Gefühle selbst, sondern deren Imitation.


Scheutz:
Das ist ein ganz wichtiger Punkt. Die ethische Debatte, die rund um dieses Thema geführt wird, konzentriert sich daher auch sehr stark darauf. Wenn ein Roboter lächelt oder ein Lächeln imitiert, ist das kein Problem. Wenn Menschen dann aber ihr Verhalten ändern, damit der Roboter sie anlächelt und nicht traurig ist, wird es kompliziert. Die meisten Ethiker würden an dieser Stelle sagen: Wir wollen nicht das Maschinen den Eindruck erwecken, etwas zu können, was sie nicht können, etwa Freude empfinden oder Trauer. Wir wollen keine Gefühlsfassaden. Eine Lösung dieses Problems kann darin bestehen, der Maschine so viel Wissen über soziale Normen, moralische Vorstellungen, menschliche Werte mitzugeben, dass die Maschine tatsächlich weiß, was Trauer oder Freude sind, und dieses Gefühl, wenn schon nicht selbst empfindet, dann zumindest nachempfinden kann.

Das hieße aber, dass die Maschine dann eine Art eigenes Bewusstsein hätte, etwas was die meisten von uns doch für ziemlich abwegig halten würden.

Scheutz:
So abwegig ist das nicht. Natürlich ist es eine große philosophische Frage, ob Maschinen ein Bewusstsein haben können. Unabhängig vom aktuellen Stand der Forschung und unabhängig davon, was heute technisch verwirklichbar ist: Grundsätzlich halte ich Maschinen mit Bewusstsein für möglich. Mehr noch: Ich würde behaupten, manche Maschinen haben schon heute ein Bewusstsein: Sie wissen zum Beispiel, dass sie etwas können und dass dieses Können dazu genützt wird, ein bestimmtes Produkt zu erzeugen.

Das ist eine rudimentäre Form von Bewusstsein. Natürlich ist es kein Bewusstsein, wie wir Menschen es haben. Über den Sinn des Lebens werden sie mit einem Roboter vermutlich nie ein besonders tiefgründiges Gespräch führen können. Das sind allerdings alles sehr abstrakte Fragen. Ich habe es schon vor fünfzehn Jahren gesagt und ich sage es auch heute: Von dem Moment, wo quasi eine selbst denkende, autonom handelnde künstliche Intelligenz um die Ecke biegt, sind wir noch sehr weit entfernt.

Die Angst davor, dass Roboter eines Tages die Herrschaft über die Menschen übernehmen, ist ja auch deshalb unbegründet, sagen einige Ihrer Kollegen, weil Roboter keinen Selbsterhaltungstrieb haben.


Scheutz:
Ganz so einfach ist das nicht. Zum einen sind Roboter keine einheitliche Gattung, da fallen kleine, längliche Geräte, die Abflussrohre reinigen, genauso darunter wie komplexe, humanoide Maschinen. Auch humanoide Maschinen haben keinen biologischen Selbsterhaltungstrieb, aber man kann sie mit einem solchen Trieb ausstatten. Schon simple Rasenmäher-Roboter fahren ja, bevor sie leer werden, zu einer Ladestation. Die interessante Frage ist allerdings: Wie hoch soll der Selbsterhaltungstrieb in der Hierarchie der Regeln angesiedelt sein, denen ein Roboter folgt?

Jedenfalls nicht höher als der Schutz des menschlichen Lebens.


Scheutz:
Dem würde wohl jeder zustimmen. Die Umsetzung ist allerdings alles andere als einfach. Wenn ein Roboter in einer U-Bahn eine Aufsichtsfunktion hat und ein Kind ganz knapp vor dem Eintreffen eines Zugs auf die Gleise springt, sollte ein Roboter, anders als ein Mensch es tun würde, springen und das Kind trotzdem retten versuchen, auch wenn die Chancen minimal sind.

Alles andere wäre unethisch. Dieses Beispiel ist eine gute Illustration dafür, warum Roboter, die selbständig Nutzen-Risiken-Abwägungen treffen heikel sind. Ein Roboter, der selbständig solche Abwägungen trifft, hätte sich womöglich dafür entschieden, nicht zu springen und sich selbst zu schützen. Auf der anderen Seite: Beim autonomen Fahren wäre es vielleicht durchaus wünschenswert, dass die Maschine selbständig Abwägungen trifft.

Wann zum Beispiel?


Scheutz:
Zum Beispiel in diesem, oft diskutierten Szenario: Aus einer Parklücke läuft unvermittelt ein Kind auf die Fahrbahn. Das autonome Fahrzeug erkennt, dass es keine Chance mehr hat, rechtzeitig zu bremsen. Was soll es tun? Die Lösung, die Mercedes vor einigen Jahren vorgeschlagen hat und der wohl viele intuitiv zustimmen würden, lautet: trotzdem bremsen. Aber ist es wirklich die beste Lösung? Wenn das Auto in einer solchen Situation bremst, wird es das Kind mit absoluter Sicherheit überfahren. Am Ende wäre abruptes Ausweichen vielleicht die bessere Lösung. Andererseits ist der Schaden, der dann entsteht möglicherweise noch größer, wenn das Auto eine ganze Passantengruppe erwischt.

Wenn erst einmal genug Daten zur Verfügung stehen, wird das Auto die bessere Lösung einfach statistisch ausrechnen.


Scheutz:
Das stimmt zwar, nur ist eine statistisch richtig Lösung nicht auch in jedem konkreten Fall die richtige Lösung. Das heißt: Mit Daten allein lassen sich ethische Problem, die die Verwendung von autonomen Systemen nach sich zieht, nicht lösen. Was Robotik von Physik oder Chemie unterscheidet, ist die Tatsache dass zwar auch Physik oder Chemie Produkte hervorbringen können, die dem Menschen schaden - es braucht dafür aber bewusstes menschliches Handeln. Mit autonomen Robotern schaffen wir erstmals eine Technologie, die in der Lage ist, selbständig zu agieren, Entscheidungen zu treffen, zu lernen, was gut und was schlecht ist. Da brauchen wir schon ethische Beschränkungen, damit solche Maschinen, salopp gesagt, nicht auf dumme Gedanken kommen.

ZUR PERSON

Der gebürtige Österreicher Matthias Scheutz ist Professor für Kognitions- und Computerwissenschaft an der School of Engineering der Tufts University, Massachusetts und Direktor des dortigen Human-Robot-Interaction-Labors. Scheutz hat in Wien Philosophie und technische Informatik studiert und promovierte an der Indiana University in Cognitive and Computer Science. Bis Oktober 2021 war Scheutz auch stellvertretender Vorsitzender des Österreichischen Rats für Robotik und Künstliche Intelligenz. Das Mandat des vom Bundesministerium für Klimaschutz, Umwelt, Energie, Mobilität, Innovation und Technologie eingesetzten Rats ist ausgelaufen. Ob eine Wiederauflage erfolgt, ist unbekannt.