Datenanalyse : Vernetzt

Von Experimentierfreude war bei der Eröffnung eines Datenlabors eines deutschen Autobauers unlängst die Rede. Und bürokratiefreier Produktentwicklung. Ein Projekt der Superlative ist das Labor allemal: 200 Mitarbeiter sind ausschließlich mit der Auswertung von Daten beschäftigt. Die Erkenntnisse sollen dazu führen, Verfahren und Produkteigenschaften zu verbessern.

Ein Unternehmen unter vielen, dass den innerbetrieblichen Datenschatz zu heben versucht? Laut Michael Schimetta eher nicht. Der Industrie 4.0-Experte bei Tieto Austria geht davon aus, dass sich derzeit bestenfalls 15 Prozent der österreichischen Unternehmen intensiv mit der effizienten Nutzung der Potenziale ihrer Prozessdaten auseinandersetzen. Und von diesen holt wiederum nur ein Bruchteil ein Maximum heraus.

Aufholbedarf

Was schade ist: Neue Muster erkennen, Wissen extrahieren und zusätzlichen Nutzen freispielen – mit der systematischen Anwendung statistischer Methoden auf einen Datenbestand, kurz Data-Mining, wäre all das möglich. Bislang wird Data-Mining am häufigsten in Zusammenhang mit Auftragsdaten von Kunden verwendet. Versicherungen, Banken oder auch die öffentliche Verwaltung sind bereits mit der Auswertung ihrer Big Data vertraut und in der Lage, aus den vorhandenen Datenmengen Regeln abzuleiten. "Es könnte sich jedoch viel mehr Nutzen für Data-Mining auch im Bereich der Prozessoptimierung ergeben", sagt Michael Schimetta von Tieto Austria. Experten von Fraunhofer Austria vermuten ebenfalls, dass überall dort, wo große Datenbestände existieren, unbekanntes Wissen zur Optimierung von Prozessen schlummert.

Messungen

In Österreich gibt es Big-Data-Vorreiter wie etwa die OMV, Roche oder die ÖBB, die bereits seit über einem Jahrzehnt aktiv sind. Ebenso gibt es Unternehmen, die sich lange vor der Verbreitung von Schlagwörtern wie "Industrie 4.0" und "Big Data" mit Daten-und Messqualitäten auseinandergesetzt und dieses Wissen auch wertsteigernd eingesetzt haben, beispielsweise in der Betonindustrie.

Und IT-Spezialisten bringen sich in Stellung: Mit dem neu geschaffenen Geschäftsbereich Big Data & Security (BDS) reagiert das IT-Haus Atos auf aktuelle Marktanforderungen rund um die zunehmende Digitalisierung und damit einhergehende, steigende Datenmengen in Unternehmen. Das Betreiben eines Rechenzentrums hat gemäß einer von Rittal in Auftrag gegebenen Studie für (künftige) Anwender von Big Data jedenfalls Priorität. Laut einer von Interxion in Auftrag gegebenen Studie nutzen 45 Prozent der Unternehmen eine Hybrid-Technologie – also eine Kombination aus eigenen Rechenzentren und privater oder öffentlicher Cloud.

Unternehmen, die das Extrahieren des Wissens aus den Daten auch in das Steuern ihrer Prozesse integriert und durchgängig umgesetzt haben, gibt es hierzulande aber erst wenige. Auch deshalb, weil die Anwendbarkeit von Data-Mining nicht immer problemlos ist. Unsichere und ungenaue Messungen beispielsweise behindern eine effektive Verwendung von Data-Mining-Algorithmen. "Das Prinzip 'garbage in, garbage out' ist besonders bei den datengetriebenen Analysen und Modellierungen schwerwiegend", weiß Schimetta. Und auch Fraunhofer Austria bestätigt, dass in den meisten Fällen falsche Daten wertlos sind. Viele Unternehmen in der Prozessindustrie stehen daher vor systembedingten Herausforderungen, da ihnen die für bestmögliches Data-Mining erforderliche Genauigkeit, Präzision und Repräsentativität von Messungen nicht immer ausreichend zur Verfügung steht.

In erster Instanz müssen natürlich auch die eingesetzten Maschinen einen bestimmten Grad an Sensorik beinhalten, denn die Maschinendaten müssen zu gewissen Parametern an einen Empfänger gesendet werden können. Der Empfänger wiederum muss den entsprechenden Datenstrom sammeln und mit Data-Mining-Algorithmen interpretieren können. Im Zweifel müsste der Maschinenpark erneuert oder modernisiert werden – keine kleine Investition. "Im Umfeld der Maschinenhersteller gibt es Ansätze, Maschinen mit solchen zusätzlichen Funktionalitäten zu unterstützen, aber im großen Umfang sind die meisten Maschinen damit noch nicht versehen", berichtet Gregor Zeiler, Senior Solution Manager für Business Intelligence und Big Data bei der Trivadis GmbH.

Vorauseilender Gehorsam

Zeilers Erfahrungen nach beschäftigt sich insbesondere der Energieversorgungssektor intensiv mit der Auswertung von Sensordaten. Netzinfrastrukturbetreiber, die einen großen Fokus auf die Verfügbarkeit und den Zustand ihres Netzes haben, wenden analytische Lösungen an, die auf Basis von Data-Mining-Algorithmen funktionieren. Im Sinne der Predictive Maintenance, also der vorausschauenden Wartung der Infrastruktur, können so Ergebnisse zur Laufzeit verarbeitet und weitergegeben oder sogar automatisiert verwaltet werden. Sobald aufgrund von wiederkehrenden Ereignissen Regeln definierbar sind, können laufende unternehmenskritische Prozesse – im Hinblick beispielsweise auf Temperaturschwankungen, die zu einem Störfall führen könnten – mit Data-Mining überwacht und entsprechend geführt werden.

Doch kann ein Algorithmus eine Entscheidung treffen? "Im Endeffekt liegt eine extrem große Verantwortung bei den Kollegen, die jene Automatismen regeln, einstellen und konfigurieren", sagt Schimetta. "Außerdem ist die Gefahr bei Data-Mining sehr groß, dass man mathematische Zusammenhänge findet, die in der Realität unwahrscheinlich sind beziehungsweise gar nicht existieren."

Speichern und verfügen

Bisher sind in vielen Betrieben die zur Laufzeit entstandenen Maschinendaten zwar erhoben worden, allerdings anschließend ins Leere gelaufen beziehungsweise nicht gespeichert oder zur Analyse abgelegt worden. "Die Technologien, die noch vor einigen Jahren existiert haben, waren nicht geeignet, um diese Mengen an Sensordaten und die Struktur dieser Daten kostengünstig und passend abzuspeichern", sagt Zeiler und meint damit relationale Datenbanken, die in der Regel dafür genutzt wurden, um ERP-Systeme oder Data-Warehouse- Lösungen zu bedienen. "Neue Technologien wie NoSQL-Datenbanken oder Hadoop, eine File-basierte Ablage von Daten, die auf kostengünstiger Infrastruktur laufen kann, bieten jetzt eigentlich erst die Grundlage, um Sensordaten aufzuspeichern und für Analysen zur Verfügung zu stellen", erklärt Zeiler.

Mit "R", einer Art Programmiersprache und Software, kann man Data-Mining-Algorithmen abbilden und sie in laufende Software einbauen, sodass der Datenstrom interpretiert und entsprechende Ergebnisse ausgegeben werden können. "Es gibt bereits viele existierende Tools, mit denen man Data-Mining Funktionalitäten abbilden kann, wie zum Beispiel das Data-Mining-Tool von SAS, SPSS von IBM oder auch die Microsoft-Komponente Machine Learning", so Zeiler.

CEO-Thema

Um den größten Nutzen aus der Schöpfung und Auswertung von Daten zu erzielen, sind Schimetta zufolge vor allem multidisziplinäre Aktivitäten notwendig: "Die CEOs von Unternehmen müssen Motivation und Freiraum schaffen, Fertigungsleiter und Prozesstechnologen sollten sich mit dem Mehrwert, der Interpretation sowie der technologischen Prüfung der Daten und Ergebnisse befassen, die IT oder die Prozess-IT muss die Systemunterstützung und die Bereitstellung von Daten gewährleisten und die Data Scientists oder Prozessingenieure liefern die Methodik". Nur so kann Data-Mining, neben mathematischen Ergebnissen, auch zu einem verbesserten Prozessverständnis sowie zu einer verbesserten Prozesskontrolle beitragen. (Ann Kimminich)