Datenqualität statt Hype : Was Unternehmen für erfolgreiche KI-Projekte brauchen

Industrie, Firmengelände
© leungchopan

Der Spruch „Daten sind das neue Öl“ ist inzwischen bereits in die Jahre gekommen. 2006 verwendete ihn der britische Data Scientist Clive Humby, um prägnant auf die Tatsache hinzuweisen, dass in der globalen Ökonomie nicht mehr fossile Brennstoffe, sondern Daten jener Faktor sein werden, der über Sieger und Verlierer entscheidet. Ähnlich formulierte es fünf Jahre später die damalige Vizepräsidentin der EU-Kommission Neelie Kroes, als sie anlässlich der Vorstellung der europäischen Open-Data-Strategie meinte: „Daten sind das neue Gold.“

Nichtsdestotrotz sind beide Befunde zutreffender denn je. Ebenso wahr ist allerdings auch ein anderer, noch viel älterer Sager, den sich die Softwarebranche bereits in den fünfziger Jahren zu eigen gemacht hat: „Shit in, shit out“. 

Nie mehr die wichtigsten News aus Österreichs Industrie verpassen? Abonnieren Sie unser Daily Briefing: Was in der Industrie wichtig wird. Täglich um 7 Uhr in ihrer Inbox. Hier geht’s zur Anmeldung!

Der Reality Check

Auf heutige Verhältnisse übertragen, hieße der Spruch, der ursprünglich etwas weniger drastisch „Garbage in, garbage out“ lautete und dem IBM-Informatiker George Fuechsel zugeschrieben wird: Schlechte Daten lassen sich auch durch die leistungsfähigste KI nicht in belastbare Ergebnisse verwandeln. Und leider sind die Daten oft schlecht. 80% der Aufwände von erfolgreichen KI-Projekten werden dafür aufgewendet, um Daten zu bereinigen und zugänglich zu machen. 

>>> KI-Projekte im Check: Experte warnt vor gefährlicher Konzeptlosigkeit

„Ich kenne kein einziges Unternehmen, in dem alle Daten sauber aufbereitet und harmonisiert sind. Das zu erwarten, wäre auch völlig an der Realität vorbei. Man muss aber trotzdem “Anfangen”. Die Harmonisierung von Daten vor einem Projekt gelingt in der Regel nicht, es gibt dafür keinen “Reason Why” und dadurch auch keine Awarness der Mitarbeiter über die Wichtigkeit einer sauberen Datenbasis”, sagt Jürgen Schmidt, CEO von STRG.AT, einem Wiener Anbieter von KI- und Digitalisierungslösungen.

Wenn Unternehmen KI-gestützte Lösungen einsetzen wollen, ist eine gute Datenbasis eben  unverzichtbar. Die Kunst, die ein guter Anbieter in diesem Kontext beherrschen muss, ist es, Datenkonsolidierungen so durchzuführen, dass sie die laufenden Prozesse eines Unternehmens nicht behindern.

Agiler Wandel

Ein anschauliches Beispiel dafür, wie das funktionieren kann, liefert die Kooperation zwischen Gabriel-Chemie, dem im niederösterreichischen Gumpoldskirchen ansässigen, führenden europäischen Hersteller von Masterbatch, und STRG. Seit 2021 arbeitet Gabriel Chemie mit Unterstützung von STRG an einer umfassenden Digitalisierung und Modernisierung seiner Produktions- und Geschäftsprozesse. Die Initiative dazu kam vom Vorstand und wurde auch bewusst als Chefsache verankert.

>>> Lieferketten-Wende: Wie smarte Algorithmen den Unterschied machen

Um den Wandel agil gestalten zu können und den laufenden Betrieb nicht zu beeinträchtigen, wurde zu Beginn eine eigene Abteilung, liebevoll „Digi“ genannt, gegründet. Sie dient seither als ein Experimentierfeld, in dem neue Arbeitsweisen ausprobiert werden können, bevor sie implementiert werden – oder aber auch nicht. „Unser Ansatz war es zu experimentieren, viele neue Ideen zu entwickeln, sie aber auch schnell wieder zu verwerfen, wenn sie in der Praxis keinen Nutzen brachten“, erklärt Schmidt. „In einer konventionellen IT-Abteilung, in der solche Digitalisierungsprojekte oft landen, wäre das unmöglich, weil die Aufgabe von IT-Abteilungen per Definition Stabilität und nicht Experiment ist.“

Der innovative Ansatz bestand darin, eine Vielzahl neuer Ideen zu experimentieren und sozusagen einen Trial & Error vorzunehmen, wobei Fehlschläge bewusst in Kauf genommen werden, um die beste Lösung und einen optimalen Praxisnutzen zu finden. Dies steht im Gegensatz zu traditionellen IT-Abteilungen, deren primäre Aufgabe Stabilität und nicht Experimentierfreudigkeit ist, was die Umsetzung solcher Digitalisierungsprojekte erschwert. Durch diese „Testing-Phase“ wurden allerdings kundenspezifische Lösungen entwickelt, umgesetzt und unter Beweis gestellt. Dadurch wurde eine holistische digitale Infrastruktur kreiert, die immer weiter skaliert werden kann. 

Zugleich war es aber wichtig, im Unternehmen das Bewusstsein zu schärfen, dass die angestrebte Digitalisierung und Modernisierung keine auf die Digi-Abteilung beschränkte Nischenspielerei sind, sondern alle angeht. Und dass sie bereits stattfindet und nicht irgendwann einmal vielleicht stattfinden wird. Die klare Vermittlung ist dabei essentiell. „Wenn ich den Mitarbeitern nämlich vermittle, wir brauchen zwar saubere Daten, aber das Projekt und der Nutzen daraus kommen erst in drei Jahren, dann werden manche sich womöglich denken: In drei Jahren bin ich gar nicht mehr hier“, erklärt Schmidt.

Mit Tempo ins Ziel

Die Erfahrungen, die STRG bei der Kooperation mit Gabriel-Chemie machen konnte, belegen jedenfalls einmal mehr, wie wichtig bei Datenprojekten die Datenqualität ist. In Projekten dieser Größenordnung zeigt sich immer wieder, wie entscheidend die Harmonisierung und Qualitätssicherung der Daten sind. Der Großteil des Aufwands fließt typischerweise in diese Bereiche, da die Dateninfrastruktur bei großen Produktionsunternehmen oft sehr komplex ist. Die eigentliche Softwareentwicklung macht dabei ca. 20 Prozent der Arbeit aus, was die Wichtigkeit einer fundierten Datenbasis für eine erfolgreiche Implementierung unterstreicht.

Als Gabriel-Chemie die Zusammenarbeit mit STRG startete, war die Ausgangslage typisch für ein großes Produktionsunternehmen. Mit acht internationalen Produktionsstandorten stand das Unternehmen vor Herausforderungen wie Doppelproduktionen, Standortkommunikation und einer fragmentierten Datenbasis. Die gewachsenen Datenstrukturen mussten in ein zentrales Steuerungssystem konsolidiert werden, ohne laufende Geschäfte zu gefährden. Das Ergebnis: Ein integriertes System, das Transparenz über alle Standorte schafft, Doppelproduktionen vermeidet und die Koordination zwischen den Werken massiv vereinfacht. Damit gelang Gabriel-Chemie ein entscheidender Schritt hin zu einer skalierbaren, effizienten und zukunftssicheren Produktionssteuerung – eine Basis, die nicht nur Kosten senkt, sondern auch die Wettbewerbsfähigkeit im globalen Markt stärkt.

Dazu kommt als weiterer wichtiger Erfolgsfaktor: Gerade in Digitalisierungs- und KI-Projekten muss man zulassen, dass nicht immer alles von Beginn an vordefiniert ist. „In den USA reicht es, wenn 80 Prozent der Aufgaben gelöst sind, um zur Umsetzung zu schreiten. In Europa müssen es hingegen 120 Prozent sein. Ich habe schon den Eindruck, dass bei uns die Erwartung von Sicherheit und Erfolgsgarantie dominiert“, sagt Schmidt und merkt an: „Damit vergeben wir aber viele Chancen. Denn oft entstehen gute Lösungen unter Druck viel schneller. Ohne Druck wird viel einfach hinausgeschoben.“

Sie wollen mehr zum Thema?