Optimierung : AI – warum der Schritt gewagt werden sollte

Künstliche Intelligenz wird aufgebaut
© VectorMine - stock.adobe.com

Letzte Woche sprachen wir an dieser Stelle über eine der wohl größten Hürden bei der Einführung von AI in einem Unternehmen – die mangelnde Datenqualität. Einfach gesagt: Datenmengen müssen harmonisiert werden, bevor man die künstliche Intelligenz darauf loslässt.

Was es dafür braucht – wir erinnern uns –, sind natürlich Experten. Und diese werden händeringend gesucht. Aber es liegt nicht nur daran, dass viele Unternehmen zwar von der KI träumen, sie aber noch nicht umsetzen. Oder zumindest nicht in all den Bereichen, in denen sie Gutes tun könnte.

Tipp der Redaktion: Vertiefungen zum Thema Digitalisierung und KI lesen Sie in unserem Industriemagazin Kontext.

Alles trüb also? Mitnichten. In vielen Betrieben ist das Sammeln und Analysieren von Daten schon lange Realität. Der Nutzen von datenbasierter Analyse und Optimierung von Prozessparametern wird auch vermehrt bei kleinen Anlagen erkannt.

„Zugang auch für Nicht-Data-Scientists verständlich“

Das findet auch Bernhard Rumpl wichtig. Besonders wenn an mehreren Standorten ähnliche Produkte erzeugt werden, macht es Sinn, Daten nicht nur lokal zu speichern und zu analysieren. „Sondern die in mühevoller Kleinarbeit entstandene Arbeit eines Prozessingenieurs über alle Standorte zu skalieren“, so Rumpl. Als Principal Consultant beim IT-Dienstleister TietoEvry Austria betreut er seit Jahren Industrieprojekte.

So war er auch beim Projekt eines Rohrproduzenten in dessen Pilotwerk in Wiener Neudorf dabei. Hier wurden über Edge-Controller Daten zum optimalen Betrieb der Extruder abgegriffen, optimiert und über die Cloud mit den rund 200 weiteren Konzernstandorten verknüpft. Die Industrie kommt ihrer Vision einer End- to-End-Daten-Lösung, die vom ERP bis auf die Einzelmaschinenebene reicht und bisher manuelle Dokumentationsschritte automatisiert, also schon nahe. Speziell zwei Optimierungsthemen beschäftigen laut Rumpl die Betriebe sehr: Ausschuss und Stillstandzeiten der Maschinen.

„Mühevolle Kleinarbeit muss skaliert werden“

Doch da wären eben noch die Hürden. Als die größte hat das Beratungsunternehmen Deloitte das Managen von KI-Risiken identifiziert. Allerdings gibt es hier viele Möglichkeiten: das interne Auditieren und Testieren von KI-Systemen, Trainingsmaßnahmen zur Erkennung und Lösung ethischer Probleme, sowie abgestimmtes Risk-Management, um nur ein paar zu nennen.

Ein Unternehmen, das den Schritt gewagt hat und ihn ganz sicher nicht bereut, ist Quomatic.AI. Der Leondinger Softwareentwickler hat mit einer Analytics-Plattform die Angebotslegung im Vertrieb optimiert. Aus den Daten bisheriger Angebote errechnet ein KI-Algorithmus ein Vorhersagemodell für die Auftragswahrscheinlichkeit. So können verschiedene Szenarien simuliert werden, etwa unterschiedliche Rabattangebote. „Das ermöglicht die gezielte Optimierung von Angeboten, entweder im Hinblick auf Deckungsbeitrag oder auf Auftragswahrscheinlichkeit“, erklärt Thomas Gernbauer von Quomatic.AI.

Auch der Feuerfesthersteller RHI Magnesita wendet KI an – konkret ein interaktives Tool für maßgeschneiderte visuelle Analysen, entwickelt von Visplore, einem Spin-off des VRVis in Wien. Aus den Daten der Steineproduktion von Magnesita ist nun ein vollständiges Bild über Status quo und Verlauf der Produktqualität ableitbar. Spezifischer als Business-Intelligence-Tools und zugänglicher als allgemeine Statistiksoftware sei die Lösung. Zuvor stundenlang andauernde Analysen brauchen nur mehr wenige Minuten. Und vor allem: „Nun haben auch Nicht-Data-Scientists verständlichen Zugang zu den Produktionsdaten und den darin verborgenen Informationen“, heißt es vom VRVis.

Fazit: Ja, Daten sind eine große Aufgabe. Aber sie gehören zu den Guten.