AI : „KI muss sich rechnen – sonst war es kein Fall für KI“
"Der AI Act schützt de facto Tech-Oligopole."
Hermann del Campo, Unternehmer und KI-Pragmatiker "
Aktive Mitgliedschaft erforderlich
Das WEKA PRIME Digital-Jahresabo gewährt Ihnen exklusive Vorteile. Jetzt WEKA PRIME Mitglied werden!
Sie haben bereits eine PRIME Mitgliedschaft?
Bitte melden Sie sich hier an.
INDUSTRIEMAGAZIN: Herr del Campo, Large Language Models wie ChatGPT dominieren die öffentliche Debatte. Ist das auch das Richtige für die Industrie?
Hermann del Campo: Nein, und das ist ein wichtiger Punkt. In der Industrie haben wir jetzt die Chance, Modelle zu schaffen, die weniger Rechenkapazität brauchen und explizite, konkrete Ergebnisse liefern. Keine Generalisten wie ChatGPT, sondern spezialisierte Systeme. Der Input ist oft kein Text, sondern Sensordaten, Maschinenparameter, Produktionsdaten. Für die Industrie rechnen sich sogenannte SLMs oder MLMs – Small und Medium Language Models – deutlich besser als die großen LLMs. KI muss sich immer auszahlen: Wenn ich keinen ROI innerhalb von 6 bis 12 Monaten erzielen kann, war es kein Case, den man mit KI hätte lösen sollen.
Wie sehen Sie die Rolle Europas im globalen KI-Wettbewerb?
del Campo: Man sollte das europäische Potenzial nicht unterschätzen. Gemini wurde in London entwickelt, die Llama-Modelle von Meta entstanden in Paris – und dann wurden sie in den USA skaliert. Wir haben in Österreich mit Sepp Hochreiter von NXAI einen der führenden KI-Forscher weltweit. Und Yann LeCun, ehemaliger Chefwissenschaftler bei Meta, hat sein neues Start-up bewusst in Frankreich gegründet – und dafür gerade knapp 900 Millionen Euro eingesammelt.
Henning Beck: Europa hat sehr wohl relevante Forschungsinstitutionen und Talente. Die Ideen kommen oft aus Europa – die Skalierung passiert dann in den USA. Die Frage ist, ob wir das ändern können.
Herr Beck, wie erklären Sie Laien, wie ein Sprachmodell funktioniert – und was es von menschlichem Denken unterscheidet?
Beck: Ein Sprachmodell berechnet Token für Token, was die statistisch wahrscheinlichste Fortsetzung eines Textes ist. Es hat keinen Plan, kein Ziel, kein Verständnis. Menschen denken, bevor sie sprechen – wir haben eine Idee, die wir dann in Sprache übersetzen. Die allermeisten Gedanken sind nicht sprachlich: Bilder, Zusammenhänge, Geschichten. Tiere zeigen Bewusstsein und Intelligenz – alles ohne symbolische Sprache. Die Annahme, dass man durch mehr Sprache echtes Denken erzeugt, ist schlicht falsch. Nicht alles, was wir tun, erfassen wir in Sprache – also kann ein System, das nur aus Text lernt, prinzipiell kein vollständiges Bild der Welt entwickeln. Dazu kommt: Sprachmodelle rechnen von der Vergangenheit in die Gegenwart. Menschen hingegen denken von der Zukunft in die Gegenwart – wir setzen uns Ziele und überlegen, wie wir dorthin kommen.
KI-Agenten gelten als nächste große Welle. Was können sie leisten – und wo scheitern sie?
del Campo: Ein Agent bekommt eine Aufgabe und arbeitet sie autonom ab – sucht im Web, filtert Informationen, liefert Ergebnisse. Das Prinzip funktioniert, aber die Qualität hängt stark von der Aufgabengröße ab. Je mehr Kontext ein Agent verarbeiten muss, desto mehr halluziniert er. Professionelle Systeme arbeiten deshalb mit Multiagenten: Jeder Agent hat eine kleine, klar definierte Aufgabe. Desto kleinteiliger, desto besser die Ergebnisse.
Beck: Das deckt sich mit einer Stanford-Studie von 2024, die gezeigt hat, wie schlecht die tatsächliche Verlässlichkeit von Systemen wie ChatGPT oder Gemini ist, wenn das Kontextfenster wächst. Es ist paradox: Je mehr man reingibt, desto schlechter wird das Ergebnis. Und das ist das vielleicht fundamentalste Problem: KI ist die erste Technologie, die Menschen je gebaut haben, die sich konstruktionsbedingt nicht verlässlich verhält. Alles andere – Brille, Auto, Schraubenzieher – verhält sich vorhersehbar. Das schreit danach, Ergebnisse kritisch zu hinterfragen. Hinzu kommt: Bei Google sieht man parallel mehrere Suchergebnisse und weiß, es gibt Alternativen. Eine KI-Antwort wirkt dagegen eindeutig und normativ. Menschen hinterfragen sie deshalb noch seltener – obwohl dieselbe Frage fünfmal eingegeben fünf verschiedene Antworten liefern kann.
Werden durch KI Jobs verschwinden?
del Campo: Ja, manche. Synchronsprecher etwa – Hollywood-Schauspieler beginnen bereits, sich in Verträge schreiben zu lassen, dass sie in anderen Sprachen mit ihrer eigenen Stimme synchronisiert werden wollen, sobald die Technologie das zuverlässig kann. Aber Menschen tun sich sehr schwer vorzustellen, welche neuen Jobs entstehen. Bei Excel dachte man in den 80ern, Buchhalter wären überflüssig. Heute gibt es in den USA weniger Buchhalter als damals, aber mehr als doppelt so viele Finanzanalysten und Controller – Jobs, die durch Spreadsheets erst geschaffen wurden. Entscheidend ist aber: Man darf KI nicht einfach ans bestehende Unternehmenskonzept andocken. Man muss das Unternehmen komplett neu denken – nur so lässt sich der Hebel erzielen, den die Technologie verspricht.
Beck: Neue Technologien nutzen Menschen nie, um in der gewonnenen Zeit nichts zu tun – sie machen in derselben Zeit doppelt so viel. Das nennt sich Parkinsons Gesetz oder Jevons-Paradox: Die Arbeit dehnt sich aus mit der Möglichkeit, sie zu erledigen. Wenn ich meiner Urgroßmutter erzählen würde, was ich für Technologien habe, würde sie denken, ich lebe im Paradies – aber ich bin gehetzt wie nie. Es gibt bereits erste Berichte von „AI Burnout“: Menschen, die mit KI-Agenten so viel produktiver wurden, dass sie kaum noch schlafen. Wir steuern auf einen kollektiven Mental Overload zu.
Der EU AI Act soll KI sicherer machen. Eine gute Idee?
Beck: Europa diskutiert immer, was die Gefahr ist, wenn wir eine Technologie einsetzen. Wir diskutieren nie: Was ist die Gefahr, wenn wir sie nicht einsetzen? Europa lebt davon, Ideen zu entwickeln und mit dem Kopf zu arbeiten. Wir können es uns nicht leisten, so eine Technologie nicht zu nutzen. Der Preis, den eine Gesellschaft zahlt, wenn sie das nicht rechtzeitig tut, ist hoch. Kulturen sind daran gescheitert.
del Campo: Der AI Act schützt de facto Tech-Oligopole. Je mehr reguliert wird, desto schwieriger wird es für Start-ups, in den Markt einzutreten. Sam Altman von OpenAI und Dario Amodei von Anthropic haben sich im US-Senat sehr für KI-Regulierung eingesetzt – weil starke Regulierung einen regulatorischen Burggraben schafft, der Newcomer fernhält. Das sollte man im Hinterkopf behalten.
Herr Beck, Sie haben die KI-Debatte mit religiösen Mustern verglichen. Was meinen Sie damit?
Beck: Die gesamte Idee von KI ist durchdrungen von der Idee der Vollendung der Menschheit. Ray Kurzweil (Anm.: Zukunftsforscher und Leiter der technischen Entwicklung bei Google) sagt, wir sollen Gott werden. Die Singularität ist das technologische Äquivalent der Apokalypse – das Endgültige, das Offenbarte. Das Alignment-Problem – wie bringe ich KI dazu, nicht gegen uns aufzulehnen – ist nichts anderes als das uralte theologische Problem: Warum kann Gott böse sein? Vor 250 Jahren hat die Aufklärung Gott entzaubert und den Menschen in den Mittelpunkt gestellt. Jetzt entzaubert diese Technologie den Menschen selbst. Das, was uns ausgemacht hat – das Denken, das, was uns von den Tieren unterscheidet – könnte durch eine Maschine ersetzt werden. Das ist die ultimative narzistische Kränkung. Immer wenn etwas grundlegend Neues passiert, werden Menschen religiös, emotional. Mit diesem Kapital kann man arbeiten: um Geld einzusammeln, Regulierung durchzusetzen oder Produkte zu verkaufen.