Advanced Analytics

KI in der Produktion: Datenschlacht

Die Möglichkeiten der künstlichen Intelligenz erfordern einen neuen Umgang mit Daten ab dem Fabrikstor. Verfolgen Österreichs Maschinenbauer den Wandel mit ausreichend Ausdauer?

Blickt Bernhard Rumpl in die Papier- und Verpackungsindustrie, sieht er eine Portion Konsequenz: Das Sammeln und Analysieren von Daten ist hier seit Jahrzehnten Realität. Wer – wie zuletzt ein bekanntes Zellstoffwerk – einen dreistelligen Millionenbetrag in neue Papiermaschinen blättere, für den zähle die laufende Optimierung nun einmal zum Räderwerk des Erfolgs, erzählt Rumpl, der bei TietoEVRY Austria Industrieprojekte betreut. Das Beispiel ist nicht aus der Fantasie geschöpft: Der finnische IT-Dienstleister, der sich zu Jahresbeginn mit dem norwegischen Mitbewerber EVRY zusammenschloss, darf bei MES-Systemen im Pulp- und Papierbereich eine führende Position für sich beanspruchen. Dass die datenbasierte Analyse und Optimierung von Prozessparametern nun auch bei kleiner dimensionierten Anlagen das Prädikat „empfehlenswert“ er- hält, ist für Rumpl nur konsequent. Vor allem wenn an mehreren Standorten ähnliche Produkte erzeugt werden. Dann macht es Sinn, Daten vor Ort nicht nur lokal zu speichern und zu analysieren. „Sondern die in mühevoller Kleinarbeit entstandene Arbeit eines Prozessingenieurs über alle Standorte zu skalieren“, so der Digitalisierungsexperte.

End-to-End-Datenlösung

So etwa nahm im Pilotwerk Wiener Neudorf eines Rohrproduzenten ein Projekt seinen Ausgang, bei dem über Edge-Controller Daten zum optimalen Betrieb der Extruder abgegriffen, optimiert und über die Cloud mit den rund 200 weiteren Konzernstandorten verknüpft werden. Die Industrie kommt ihrer Vision einer End- to-End-Daten-Lösung, die vom ERP bis auf die Einzelmaschinenebene reicht und bisher manuelle Dokumentationsschritte automatisiert, also schon nahe. Speziell zwei Optimierungsthemen – Ausschuss und Maschinen-Stillstandzeiten – „treiben Unternehmen quer durch die Bank um“, sagt Bernhard Rumpl. Dass TietoEVRY die Rolle als Integrator dabei recht routiniert ausspielen kann, liegt auch an den Weichenstellungen der jüngeren Zeit. Zu Microsoft und dessen Cloud-Computing-Plattform Azure wurden noch engere Bande geknüpft.Man selbst setze auf einen „neutralen Integrationsstandard“ (O-Ton Rumpl).

Skalierung

Ihre wahren Stärken spielt die Cloud folglich schon heute bei entsprechender Skalierung aus. Oder in einer nahen oder etwas ferneren Zukunft, in der Projekte um die Meriten künstlicher Intelligenz bereichert werden. „Die eine Killerapplikation“ sehe TietoEVRY- Experte Bernhard Rumpl zwar noch nicht. Vielmehr gehe es vorerst um die Basisarbeit, um sich bei KI „nicht immer in Riesenintegrationsprojekten zu verlieren“, so Rumpl. Deshalb ist der IT-Dienstleister beim EU-Projekt Fudipo an Bord, das auf elegantere Wege zur Kombination komplexer mathematischer Methoden, Messverfahren und Prozesse in der Industrie abzielt. „Es benötigt noch einige Konsolidierungsarbeit bei den Daten, bevor ein großflächigerer KI-Einsatz den erhofften Mehrwert auch wirklich bringt“, sagt Rumpl.

Lesen Sie das ganze Interview mit TietoEVRY-Experte Rumpl: "Vor der KI kommt das Konsolidieren der Daten" >>

White Paper zum Thema

Ein Standpunkt, den auch TietoEVRY- Kollege Manuel Hausjell vertritt. Use Cases wie die vorausschauende Wartung von Anlagen seien aus Vernetzungssicht zwar keine große Sache mehr. Die nötige Datenqualität jedoch werde erst in wenigen Betrieben standardmäßig erreicht, meint er. Mit dem Standard zur industriellen Kommunikation OPC UA sei das Abgreifen von Daten mit Edge-Devices immerhin wesentlich einfacher.

Datenspezialisten gefragt

Zur Selbstoptimierung aber fehlt doch noch einiges. So wird das Rückschreiben von Steuerdaten gerade bei Anlagen älteren Semesters mangels Updates und Lizenzen unzureichend unterstützt. Ein klarer Aufruf an die österreichische Industrielandschaft: „Fordert die Unterstützung von bidirektionaler Kommunikation bei jedem Anlagenkauf und -umbau vom Hersteller ein! Nachrüsten macht Digitalisierungsprojekte unnötig teuer.“ Und es braucht – neben den Prozessingenieuren, die ihre Produktionslinien wie ihre Westentasche kennen – künftig wohl noch mehr Datenspezialisten. „Gerade bei der Kombination mit unstrukturierten Daten im Data Lake als auch strukturierteren Daten im Data Warehouse“, so Hausjell.

Wiener mit mächtigem Tool

Große Datenmengen können am VRVis niemanden einschüchtern. Auf riesige Datenpakete – und hochdimensionale, zeitbasierte Daten – ist das Forschungszentrum spezialisiert. Im Visual-Analytics-Bereich beispielsweise entwickeln die Wiener interaktive Systeme zur Datenanalyse und Entscheidungsunterstützung. Neben Datenanalysen als Dienstleistung vertreiben sie über das Spin-off Visplore ein interaktives Tool für maßgeschneiderte visuelle Analysen. Etwa für die Energiewirtschaft: Dort hätten sich automatisiert Voraussagen für den Output von Windkraftanlagen treffen lassen, indem man nicht nur naheliegende Parameter wie Windstärke und Windrichtung, sondern auch „exotischere“ Parameter wie die Globalstrahlung „in die Analysen einbezog“, erzählt Johanna Schmidt, Forschungsgruppenleiterin am VRVis.

Auch der Feuerfesthersteller RHI Magnesita ist ein Anwender der Wiener Lösung. Aus den Daten der Steineproduktion ist nun dank des maßgeschneidert einsetzbaren Datenanalysetools ein vollständiges Bild über Status quo und Verlauf der Produktqualität ableitbar. Flexibel kombinierbare Visualisierungen und intuitive Oberflächen erlauben dem Qualitätsmanagement einen Dialog mit ihren Daten. Spezifischer als Business-Intelligence-Tools und zugänglicher als allgemeine Statistiksoftware sei die Lösung. Zuvor stundenlang andauernde Analysen brauchen nur mehr wenige Minuten. Und vor allem: „Nun haben auch Nicht-Data-Scientists verständlichen Zugang zu den Produktionsdaten und den darin verborgenen Informationen“, heißt es am VRVis, dessen Status als COMET-Kompetenzzentrum soeben um weitere vier Jahre verlängert wurde. Letztlich liege auch in der Verknüpfung mit anderen Datentypen der Charme der Lösung, „wenn etwa zu den Sensordaten korrelierende Werkstückaufnahmen den Datenbestand vervollständigen“, so die Forscherin.

Lesen Sie das ganze Interview mit VRVis-Forscherin Johanna Schmidt: "Es ist wenig zielführend, die KI auf fehlerhafte Datenbestände loszulassen" >>

Mit einer trainierten KI großer Daten Herr zu werden, sei bei alledem ein großartiger Ansatz, sagt Schmidt, eine studierte Informatikerin. Auch für diese Disziplin gebe es Experten am VRVis. Freilich sei die Stufe davor nicht unerheblich: Die Harmonisierung der Daten, um saubere Ergebnisse zu erzielen, sei ein wichtiger Punkt. "Es bringt wenig, die KI auf einen noch fehlerhaften Datenbestand loszulassen", erklärt Schmidt. Spannender sei vorerst die Nutzung von Edge-Devices, die in Produktionen nun eine Menge zusätzlichen Input liefern würden. Auch das, hofft Schmidt, werde das Bewusstsein für den Wert der Data Science in den nächsten Jahren steigern.

Lesen Sie auch zum Thema
KI im Vertrieb: So steigert ein Leondinger Start-up Ihre Absatzchancen >>
So will Magna Steyr Maschinenausfälle vorhersagen >>