Defence KI Ukraine : Politologe Sauer: "Niemand hat mehr Bilddaten von russischen Waffensystemen als die Ukraine"
Politologe Frank Sauer: "Das Ziel muss sein, von handgefertigten Einzelstücken zu einer Art Model-T-Produktion zu kommen"
- © Waldemar SalesskiAktive Mitgliedschaft erforderlich
Das WEKA PRIME Digital-Jahresabo gewährt Ihnen exklusive Vorteile. Jetzt WEKA PRIME Mitglied werden!
Sie haben bereits eine PRIME Mitgliedschaft?
Bitte melden Sie sich hier an.
INDUSTRIEMAGAZIN DEFENCE: Herr Sauer, Sie beschäftigen sich seit vielen Jahren mit autonomen Waffensystemen. In der Ukraine werden nun Systeme eingesetzt, die sich in Richtung Autonomie bewegen. Wie sehen Sie diese Entwicklung?
Frank Sauer: Der entscheidende Anwendungsfall sind derzeit die sogenannten Loitering Munitions – also Einwegdrohnen, die Ziele selbstständig auswählen und bekämpfen. Russland hat seine Systeme vom Typ Lancet bereits vor rund zwei Jahren softwareseitig weiterentwickelt, um sie durch Autonomie gegen ukrainische elektronische Kampfführung resistent zu machen.
Nie mehr die wichtigsten News aus Österreichs Industrie verpassen? Abonnieren Sie unser Daily Briefing: Was in der Industrie wichtig wird. Täglich um 7 Uhr in ihrer Inbox. Hier geht’s zur Anmeldung!
Auch die Ukraine nutzt solche Systeme. Das zeigt, dass wir an einem Punkt sind, an dem Autonomie in den kritischen Funktionen von Waffensystemen schon lange keine Zukunftsmusik mehr ist, sondern operative Realität. Westliche Staaten wie Deutschland sind gerade dabei, solche Systeme – zum Beispiel HX2 oder Virtus - selbst zu beschaffen.
Sie haben immer wieder vor den Risiken solcher Systeme gewarnt. Welche sind das konkret?
Sauer: Man spricht in der Forschung von drei zentralen Risikofeldern. Erstens ein operationelles Risiko: die Beschleunigung militärischer Abläufe, die im Extremfall zu Kontrollverlust führen kann. Zweitens ein völkerrechtliches Risiko: Wenn etwas schiefgeht, dann stellt sich die Frage nach der Verantwortung. Wer haftet, wenn ein autonomes System irrtümlich ein ziviles Ziel trifft? Und drittens die ethische Dimension – also ob es eine Verletzung menschlicher Würde bedeutet, wenn Entscheidungen über Leben und Tod flächendeckend an Maschinen delegiert werden. Das Gute – wenn man es so nennen will – ist: Wir haben über diese Fragen inzwischen sehr lange diskutiert. Fast 20 Jahre. Wir verfügen über solide Denkwerkzeuge, um die Risiken zu erkennen und zu vermeiden und die Chancen zu nutzen. Der zentrale Begriff dabei ist Meaningful Human Control – also bedeutsame menschliche Kontrolle.
Was bedeutet das?
Sauer: Es geht darum, Vorhersehbarkeit und Administrierbarkeit zu schaffen – durch Control by Design und Control in Use. Das heißt: Der Mensch muss die Lage kennen und die Situation verstehen, um das Verhalten des Waffensystems vorhersehen und ggf. beeinflussen zu können. Konsequenterweise hat er dann auch die Verantwortung für den Einsatz zu tragen. Es geht dabei explizit nicht um den alten Gedanken, dass immer ein Mensch „in der Schleife“ sitzen muss, also den berühmtem human in the loop. Das ist zu grobschlächtig. Manchmal braucht man nämlich Maschinengeschwindigkeit – etwa, wenn, um mal ein konkretes Beispiel zu geben, eine Fregatte auf hoher See neun schnell anfliegende Seezielflugkörper abwehren muss. Dann kann – und sollte – kein Mensch mehr manuell eingreifen. Dann sollte die Maschine autonom agieren und das Schiff retten. Entscheidend ist also nicht der „human in the loop“, sondern, dass das Gesamtsystem aus Mensch und Maschine so gestaltet ist, dass Vorhersehbarkeit, Administrierbarkeit und damit Zurechenbarkeit gewährleistet sind. Nur dann kann man von meaningful human control sprechen.
Wie weit sind Militärs in der praktischen Umsetzung?
Sauer: Tatsächlich kommt die Bundeswehr hier voran. Auch in der Generalität hat sich der Begriff Meaningful Human Control weitgehend durchgesetzt. Aber natürlich gibt es in der Praxis Zielkonflikte – etwa bei Loitering Munitions, die in Zonen intensiver elektronischer Störung operieren. Ab einem bestimmten Punkt verliert der Mensch dort die Fernsteuerungsmöglichkeit, weil keine Funkverbindung aufrechterhalten werden kann. Die letzten hundert Meter des Zielanflugs übernimmt die Munition. Das ist ja der Sinn der Autonomie in diesem Fall. Rein normativ könnte man daraus jetzt folgern, dass solche Systeme niemals eingesetzt werden dürften, weil sie keine unterbrechungslose Administrierbarkeit erlauben. Praktisch ist das aber nicht haltbar. Denn wenn das Ziel bekämpft werden muss, aber keine Loitering Munitions verfügbar sind, dann würde man stattdessen Artillerie einsetzen – und die Artilleriegranate ist schon nach Verlassen des Rohres, für die dutzenden Kilometer ihrer Flugbahn, nicht mehr steuerbar. Deshalb ist alles in allem die Frage nicht, ob man solche Systeme flächendeckend verbietet, sondern wann und wie man sie verantwortungsvoll und im Einklang mit dem Kriegsvölkerrecht einsetzt. Und der Vergleichsmaßstab ist dabei nicht die abstrakte Idealform einer Norm, sondern die alternative Möglichkeit militärischer Gewaltanwendung – und die kann eben durchaus schlechter sein, weil zum Beispiel noch viel gefährlicher für die Zivilbevölkerung, also potenziell weniger kriegsvölkerrechtskonform.
Sie plädieren also für Pragmatismus?
Sauer: Ja, absolut. Nach fast 20 Jahren Debatte bin ich da heute ziemlich nüchtern. Wir wissen, dass Risiken bestehen, aber wir wissen auch, dass wir diese Systeme leider einfach brauchen. Wir können uns sicherheitspolitisch den Luxus nicht mehr leisten, jedes Mal eine endlose Grundsatzdiskussionen zu führen. Und das gilt nicht nur für Deutschland. Alle westlichen Streitkräfte stehen vor denselben Herausforderungen. Die Frage ist schon lange nicht mehr, ob wir Autonomie im Waffensystem wollen, sondern wie wir sie gestalten, damit sie kontrollierbar und kriegsvölkerrechtskonform bleibt.
Wo begegnet uns künstliche Intelligenz im militärischen Kontext?
Sauer: Kurz gesagt: überall. In der Ukraine sieht man das sehr deutlich. Das Land ist zu einem Testlabor und einer gewaltigen Datengenerierungsumgebung geworden. Die Ukraine sitzt auf einem enormen Datenschatz über russische Streitkräfte – wertvoll für die Entwicklung und das Training neuer Modelle. Ein Beispiel: Niemand hat mehr Bilddaten von russischen Waffensystemen in diversen Umgebungen und Zuständen als die Ukraine. Diese Einwegdrohnen, die loitering munitions, funktionieren über Objekterkennung. Ein Algorithmus wertet Videodaten aus und klassifiziert Objekte – etwa, ob es sich um einen T-72-Panzer handelt. Das ist nicht trivial, weil militärische Daten rar sind. Man muss daher häufig mit synthetischen Datensätzen arbeiten, anders als im zivilen Bereich, wo es unzählige Milliarden Bilder von alles und jedem gibt. Die Ukraine hat die Daten, und diese bilden die Grundlage für KI-Anwendungen im Gefecht – angefangen von der Missionsplanung bis eben hin zur Zielerkennung.
Das betrifft also nicht nur einzelne Waffen, sondern ganze Abläufe?
Sauer: Genau. Künstliche Intelligenz ist entlang der gesamten Kill Chain zu finden – also in allen Phasen von Find, Fix, Track, Target, Engage, Assess. Am Anfang steht die Datensammlung und -fusion. Die Systeme sammeln aus verschiedenen Quellen – Audio, Video, Kommunikation – Daten und bereiten diese auf, um potenzielle Ziele zu generieren. Am Ende der Kette stehen bisweilen dann tatsächlich automatisierte Waffen, die Ziele selbst bekämpfen. Dazwischen findet sich KI auch in Entscheidungsunterstützungssystemen, in der Logistik oder in der Wartung. Wir reden hier also über eine technologische Revolution quer durch alle Ebenen der Kriegsführung.
Wie kann Europa, speziell Deutschland, hier technologisch aufholen?
Sauer: Zunächst: Das Problem ist nicht die Technik. Die ist natürlich im Einzelnen komplex, aber im Grundsatz gelöst. Es braucht hier kein Manhattan Projekt mehr. Das Problem liegt in den Strukturen – in der Art, wie Beschaffungsbürokratie, Industrie und Streitkräfte zusammenarbeiten, wie Beschaffung und Anwendung organisiert wird und wie Innovationszyklen ablaufen. In der Ukraine liegt der Zeitraum zwischen einer technischen Neuerung und ihrer Anwendung bei ungefähr sechs Wochen. In westlichen Streitkräften dauert ein Beschaffungsvorgang Jahre, manchmal Jahrzehnte. Das ist die Diskrepanz. Wir brauchen also neue Formate, die eine kontinuierliche Weiterentwicklung ermöglichen: kürzere Zyklen, enge Kooperation mit Industrie und Start-ups, flexible Beschaffungsprozesse. Und wir müssen in der Lage sein, im Ernstfall schnell die Produktion hoch zu skalieren – mit souveränen Lieferketten und großen Stückzahlen.
Heißt das: weniger Bürokratie, mehr Pragmatismus?
Sauer: Ganz genau. Geld ist in Deutschland mittlerweile vorhanden – das Sondervermögen hat auch dieses Grundproblem gelöst. Was fehlt, sind lernende Organisationen, Geschwindigkeit und Mut zur Veränderung. Das wesentliche Hindernis ist das Denken in alten Strukturen: Verantwortung wird diffundiert, Prozesse sind überkomplex und überreguliert, Entscheidungswege viel zu lang und obskur. Das alles passt nicht zur Dynamik der drohenden modernen Kriegsführung. Andere Länder haben im Übrigen die gleichen Probleme. Auch in den USA gibt es Debatten darüber, warum man bei der Drohnenkriegsführung so eklatant hinterherhinkt. Interessant ist etwa, dass sich dort eine „National Drone Association“ aus den Marines heraus gebildet hat – aus einem ähnlichen Frust heraus, den einst die Gründer der National Rifle Association empfanden. Heute ist die NRA eine reine Waffenlobby. Aber damals war die Frage, die zur Gründung führte: Wie kann es sein, dass die US-Streitkräfte bei der Technologieanwendung den Anschluss verlieren?
Wie bereitet man sich auf den „Krieg der Zukunft“ vor, wenn man gar nicht weiß, wie er aussieht?
Sauer: Indem man lernt, schnell zu lernen. Wir können nicht jedes Szenario vorhersehen, aber wir können uns darauf vorbereiten, adaptiv zu reagieren. Das bedeutet: agile Strukturen, iterative Entwicklung, ständige Tests und Anpassungen. Das schließt auch die industrielle Seite ein. Wir bauen Großwaffensysteme wie Panzer, Fregatten oder Kampfjets nach wie vor in Manufakturarbeit. Ich habe Produktionsstätten gesehen, in denen diese hochkomplexe Handarbeit stattfindet – das ist weit entfernt von Automatisierung oder gar Fließbändern. Für neue Systeme – etwa Drohnen oder Abwehrkomponenten – brauchen wir industrielle Serienfertigung, schnelle Produktionslinien und modulare Bauweise. Wir müssen auch lernen, Komponenten zu kombinieren statt ständig komplette Neuentwicklungen anzustoßen.
Ist die Automatisierung der Rüstungsproduktion realistisch?
Sauer: Bei Großsystemen wie Kampfpanzern wird der Manufakturcharakter bleiben. Aber bei kleineren, abnutzbaren Systemen – Drohnen, Sensoren, Einwegmunition – ist industrielle Massenfertigung zwingend notwendig. 3D-Druck, Druckgussverfahren und standardisierte Elektronik erlauben eine enorme Skalierung. Das Ziel muss sein, weg von handgefertigten Einzelstücken zu einer Art „Model-T-Produktion“ zu kommen: standardisierte, robuste Systeme, die in Serie gebaut werden können – nicht High-End um jeden Preis, sondern zuverlässig, in großer Zahl, und notfalls ersetzbar.
Das klingt nach einem Paradigmenwechsel.
Sauer: Das ist es auch. Wir müssen weg von der Logik, dass jedes Waffensystem ein Einzelstück ist, das Jahrzehnte halten muss. Solche brauchen wir natürlich weiterhin auch, keine Frage. Und insbesondere für Waffensysteme mit Crew muss uns zum Schutz selbiger das Beste gerade gut genug sein. Aber die unbemannten Systeme werden viel schneller veralten und müssen daher billiger, flexibler, abnutzbar und leichter austauschbar sein. Dieses neue Segment ändert also alles: Beschaffung, Ausbildung, Wartung, Einsatz. Militärische Organisationen müssen lernen, mit ständiger Innovation zu leben. Das ist die eigentliche Herausforderung.
ZUR PERSON
Frank Sauer ist Politikwissenschaftler und Forschungsleiter des Metis Instituts für Strategie und Vorausschau an der Universität der Bundeswehr München. Er forscht und publiziert zu Fragen der internationalen Politik, insbesondere dem Verhältnis zwischen Technologie und Sicherheit. Sauer zählt zu den profiliertesten Stimmen im deutschsprachigen Raum zur Debatte um Autonomie im Waffensystem und künstliche Intelligenz in militärischen Anwendungen.