AI : KI in der Produktion: Warum Technik allein nicht reicht

Phoenix Contact Stefan Schnake

"Wer heute standardisierte Datenräume und skalierbare Architekturen aufbaut, wird in fünf Jahren die entscheidenden Optimierungshebel in der Hand haben." Stefan Schnake, Phoenix Contact

- © Phoenix Contact

factory automation: Herr Schnake, wo sehen Sie derzeit die wichtigsten Einsatzfelder für KI direkt am Shopfloor?

Stefan Schnake: Bei Phoenix Contact sehen wir die wichtigsten Einsatzfelder für datengestützte Intelligenz am Shopfloor aktuell in drei Bereichen: Qualitätssicherung, Energiemanagement und Produktionssteuerung. In unserer Elektronikfertigung am Standort Bad Pyrmont betreiben wir produktiv eine Analytics-Architektur, die täglich KPIs wie Flow, Auslastung, First-Pass-Yield und Ausschussquoten berechnet – aggregiert über Schicht, Tag und Monat. Dazu kommt ein Energiemonitoring, das Ruhezeiten, Lastspitzen und Anomalien erkennt.

Nie mehr die wichtigsten News aus Österreichs Industrie verpassen? Abonnieren Sie unser Daily Briefing: Was in der Industrie wichtig wird. Täglich um 7 Uhr in ihrer Inbox. Hier geht’s zur Anmeldung!


Wir gehen aber bewusst über die klassischen Felder Predictive Maintenance und Qualitätssicherung hinaus. Ein besonderer Schwerpunkt liegt bei uns auf der Sektorenkopplung von Produktion und Gebäude. Am Standort Bad Pyrmont vernetzen wir rund 66.500 Datenpunkte allein aus der Gebäudeautomation mit weiteren 10.000 Datenpunkten aus den 350 Fertigungslinien. Das Ziel ist die energetische Optimierung des Gesamtstandorts. Sensoren erkennen beispielsweise automatisch, wenn in Hallenbereichen keine Bewegung stattfindet oder Anlagen stillstehen – etwa bei einem ungeplanten Schichtausfall. Die Gebäudeautomation passt dann Beleuchtung, Belüftung und Klimatisierung eigenständig an. 

KI am Shopfloor: Warum Unternehmen jetzt deutlich effizienter produzieren

In der Production Analytics Community der RWTH Aachen, in der wir aktiv mitwirken, sehen wir branchenübergreifend einen klaren Trend: Die Einsatzfelder verschieben sich von reiner Transparenz hin zu prädiktiven und adaptiven Anwendungen. Konkret heißt das: Nicht nur sehen, was passiert, sondern verstehen warum, vorhersagen was passieren wird, und am Ende automatisiert reagieren. Das gilt für die Energieoptimierung genauso wie für die Qualitätssicherung und das Bestandsmanagement.

Welche messbaren Produktivitäts-, Qualitäts- oder Energieeffekte konnten Sie durch den Einsatz datenbasierter Analytik und KI bereits erzielen?

Schnake: Einen konkreten Effekt konnten wir bereits im Oktober 2023 nachweisen: Durch die automatisierte Reaktion unserer Gebäudeautomation auf einen Produktionsstillstand – ermöglicht durch die Vernetzung von Produktions- und Gebäudedaten über die Asset Administration Shell – haben wir rund 500 kWh eingespart und den CO₂-Ausstoß um 200 kg reduziert. Das entspricht etwa dem Strombedarf eines Zweipersonenhaushalts in einem Vierteljahr. Aus dem branchenübergreifenden Austausch in der Production Analytics Community wissen wir: Die messbaren Effekte sind erheblich. Studien, die dort vorgestellt wurden, zeigen Energieeinsparungen von bis zu 30 % durch Lastspitzen-Management, bis zu 25 % Kosteneinsparung durch frühzeitiges datenbasiertes Qualitätsmanagement und einen Unterschied bei Ausschuss- und Nacharbeitskosten zwischen Top-Performern (0,6 % des Umsatzes) und Schlusslichtern (2,2 %). Mangelnde Qualität kostet Unternehmen im Durchschnitt 15 bis 20 % des Umsatzes. Der Hebel ist also enorm.

Welche technischen und organisatorischen Voraussetzungen müssen Unternehmen schaffen, damit KI am Shopfloor überhaupt wirksam eingesetzt werden kann?

Schnake: Aus unserer Erfahrung sind drei Voraussetzungen entscheidend: eine saubere Datenarchitektur, standardisierte Schnittstellen und ein klares Daten-Governance-Modell. Technisch setzen wir auf eine 4-Layer-Architektur: Die erste Schicht sammelt Rohdaten über Microservices, MQTT und PLCnext-Controller. Die zweite Schicht bildet das Herzstück – die Asset Administration Shell als Metadata-Layer und Single Source of Truth für alle Asset-Stammdaten. Darüber liegt Apache Airflow als Analytics-Processing-Layer, der sämtliche KPIs vorberechnet und über REST-APIs bereitstellt. Ganz oben steht die reine Visualisierung. Das Kernprinzip: Separation of Concerns auf jeder Ebene, und Kommunikation ausschließlich über APIs – kein direkter Datenbankzugriff von BI-Tools.

„KI muss sich rechnen – sonst war es kein Fall für KI“

AAS sind echte Gamechanger für die Integration von Assets in übergeordnete Systeme. Der entscheidende Vorteil: Wenn sich Maschinen ändern oder neue Produktionslinien hinzukommen, muss nur der AAS-Eintrag angepasst werden – nicht der Analytics-Code in 20 verschiedenen Verarbeitungspipelines. Das macht die Lösung skalierbar. Organisatorisch haben wir bewusst früh eine Konzernbetriebsvereinbarung „Analytics@PhoenixContact“ geschlossen, die den gesamten Prozess regelt – von der Datenanforderung über die Rollenverteilung bis zur Freigabe. Dazu gehören klar definierte Rollen: Product Data Owner, Data Owner, Data Analyst und Data User. Jede Bereitstellung personenbezogener Daten durchläuft eine formale Konformitätserklärung. Das schafft Vertrauen bei allen Beteiligten und beschleunigt paradoxerweise die Umsetzung, weil die Spielregeln klar sind. 



Die Datenqualität bleibt die größte Herausforderung – das erleben wir selbst und hören es von jedem Partnerunternehmen in der Community. Die Ausgangslage ist überall ähnlich: heterogene, historisch gewachsene IT-Landschaften, fehlende Semantik, keine zentrale Zugänglichkeit zu Asset-Daten. Unsere Antwort darauf ist ein systematischer Ansatz: Wir nutzen die AAS, um Asset-Stammdaten zu standardisieren und eine regelmäßige Datenpflege durch Audits zu etablieren.

"Wir erwarten in den kommenden fünf Jahren eine fundamentale Verschiebung: Produktion und Gebäude werden nicht mehr losgelöst betrachtet, sondern als integrierter Gesamtorganismus datengetrieben optimiert."

Stefan Schnake, Phoenix Contact

- © Phoenix Contact

Wie verändert der Einsatz von Analytics und KI die Rolle der Mitarbeiter in der Produktion?

Schnake: Der Einsatz von Analytics und KI verschiebt die Rolle der Mitarbeiter in der Produktion tatsächlich spürbar – weg von der reinen Bedienung, hin zu Überwachung, Analyse und datengestützter Entscheidungsfindung. Wir beobachten das konkret an unserem Konzept der Self-Service Analytics: Fachbereiche entwickeln zunehmend eigene Dashboards und Auswertungen, anstatt auf die zentrale IT warten zu müssen.


Spanntechnik: Wie 50 besondere Meter Rüstzeit sparen


In unserer Konzernbetriebsvereinbarung haben wir dafür explizit Rollen definiert, die diese Verschiebung widerspiegeln – vom Product Data Owner im Fachbereich, der eigenverantwortlich Datenanforderungen stellt, bis zum Data User, der die bereitgestellten Analysen in seine tägliche Arbeit integriert. Ein Beispiel aus der Praxis: Durch die Bereitstellung von Energiedaten über unsere Analytics-Plattform haben Kollegen im Facility Management eigenständig eine Optimierungsmöglichkeit identifiziert – eine Reinigungsanlage, die bisher früh vorgeheizt wurde, wird nun später aufgeheizt, ist aber trotzdem rechtzeitig zu Produktionsbeginn bereit.

Die Erfahrung aus der Production Analytics Community zeigt, dass der Schlüssel nicht in der Technologie liegt, sondern in der Befähigung: Dashboard-Challenges, Community-Aufbau und strukturierte Schulungsprogramme machen den Unterschied. Mehrere unserer Partnerunternehmen berichten, dass Low-Code-Plattformen Fachbereichen ermöglichen, Digitalisierungslösungen eigenständig umzusetzen – das entlastet die IT und steigert die Akzeptanz.

Was ist aus Ihrer Sicht entscheidend, damit KI-Projekte den Sprung vom Proof of Concept in den flächendeckenden industriellen Einsatz schaffen?

Schnake: Das ist eine der meistdiskutierten Fragen in unserer Community – und die Antwort ist unangenehm ehrlich: Die meisten KI-Projekte scheitern nicht an der Technologie, sondern an fünf wiederkehrenden Faktoren: falscher Use Case ohne messbaren Business Impact, fehlende nutzbare Daten, schwache Integration in bestehende Workflows, fehlendes internes Know-how und langsame Adoption. Unser Ansatz bei Phoenix Contact basiert auf zwei Prinzipien. Erstens: Der nutzenstiftende Use Case steht immer vor der Datenaufnahme. Wir sammeln nicht erst Daten und suchen dann nach Mustern – sogenannte Goldsucheransätze führen selten zum Erfolg. Stattdessen definieren wir Use Cases mit quantifizierbarem Impact und bauen die Datenerfassung gezielt darauf auf.

Zweitens: Unsere Architektur ist von Anfang an auf Skalierbarkeit ausgelegt. Durch die AAS als Metadata-Layer braucht es bei einer neuen Produktionslinie nur einen einzigen Eintrag in der Verwaltungsschale – statt Code-Änderungen in 20 verschiedenen Verarbeitungsjobs. Die Linie ist sofort für alle bestehenden Analytics-Anwendungen produktiv. Außerdem setzen wir konsequent auf API-First und Microservices, sodass einzelne Komponenten unabhängig weiterentwickelt und ausgetauscht werden können, ohne das Gesamtsystem zu gefährden.

Trotzdem ist Ehrlichkeit wichtig: Auch unsere 4-Layer-Architektur war initial aufwändiger als ein direkter Datenbankzugriff. Aber sie zahlt sich langfristig durch Wartbarkeit und Skalierbarkeit aus. Und die AAS-Pflege erfordert Disziplin – aber es ist besser, Metadaten zentral zu pflegen, als sie überall im Code verstreut zu haben.

Welche Rolle spielen IT-Sicherheit, Datenhoheit und Governance beim Einsatz von KI?

Schnake: IT-Sicherheit und Datenhoheit sind bei uns kein Nachgedanke, sondern integraler Bestandteil der Analytics-Strategie. Schon 2022 haben wir mit der Konzernbetriebsvereinbarung „Analytics@PhoenixContact“ einen formalen Rahmen geschaffen, der DSGVO-konform regelt, wie Produktionsdaten für Analytics-Zwecke bereitgestellt und genutzt werden dürfen. 

Konkret bedeutet das: Jedes Datenprodukt durchläuft einen definierten Freigabeprozess. Der Product Data Owner dokumentiert Zweck und Verwenderkreis in einer Konformitätserklärung. Wenn Daten Rükschlüsse auf Einzelpersonen ermöglichen, ist vorab die Freigabe des zuständigen Betriebsrats einzuholen. Berechtigungen werden rollenbasiert vergeben – jede Person hat nur Zugriff auf Daten in ihrem Verantwortungsbereich.

Auf der technischen Seite setzen wir auf ein Corporate API Management, über das sämtliche Schnittstellen in Richtung Zentral-IT und qualitätsspezifischer Systeme laufen. Im Bereich OT-Security arbeiten wir an Pentest-Readiness und haben die Anbindung an CRA-Anforderungen sowie SBOM-Verlinkungen in unserer Roadmap. Die AAS selbst unterstützt Security by Design durch einheitliche, herstellerunabhängige APIs, bei denen die Sicherheit standardisiert gewährleistet ist.

Wie wird sich der Einsatz von KI und datengetriebener Optimierung am Shopfloor in den kommenden fünf Jahren aus Ihrer Sicht entwickeln?

Schnake: Wir erwarten in den kommenden fünf Jahren eine fundamentale Verschiebung: Produktion und Gebäude werden nicht mehr losgelöst betrachtet, sondern als integrierter Gesamtorganismus datengetrieben optimiert. Bei Phoenix Contact ist das keine Vision, sondern bereits gelebte Praxis. Am Standort Bad Pyrmont verschmelzen Fertigungsdaten und Gebäudeautomation zu einem einheitlichen digitalen Abbild. Die Asset Administration Shell ist dafür der Schlüssel. 
Konkret arbeiten wir gemeinsam mit dem GEFMA-Arbeitskreis an einem digitalen Betreiberkonzept, das AAS-Modellierung, BIM, ESG-Reporting und IoT-Technologien verbindet – mit Bezug zu EU-Taxonomie, CSRD und GEG. 

Unser Ziel: Sensordaten, Betriebsdaten und Nachhaltigkeitskennzahlen fließen über standardisierte Datenräume in ein einheitliches Modell. Das ermöglicht nicht nur interne Effizienzsteigerungen, sondern ist auch die Voraussetzung für die Scope-3-Betrachtung der ESG-Ziele – denn kein produzierendes Unternehmen kann nur die eigenen CO₂-Kennzahlen ausweisen.

Das lernen wir von den AI-Pionieren der österreichischen Industrie

Die Richtung ist klar: Es geht nicht um inkrementelle Effizienzsteigerungen, sondern um einen grundlegend anderen Umgang mit Daten in der industriellen Fertigung. Wer heute standardisierte Datenräume und skalierbare Architekturen aufbaut, wird in fünf Jahren die entscheidenden Optimierungshebel in der Hand haben – von der energieoptimalen Produktionsplanung mit dynamischen Strompreisen bis zur automatisierten Scope-3-Berechnung über die gesamte Wertschöpfungskette.

Sie wollen mehr zum Thema?