Datenanalyse

Vernetzt

Die Vernetzung von Unternehmen führt zur Datenflut. Aber erst ein Bruchteil der Industrie setzt Datenanalyse-Tools effizient ein. Woran es hakt.

Zurzeit beschäftigen sich maximal 15 Prozent der österreichischen Unternehmen intensiv mit der effizienten Nutzung ihrer Daten.

Von Experimentierfreude war bei der Eröffnung eines Datenlabors eines deutschen Autobauers unlängst die Rede. Und bürokratiefreier Produktentwicklung. Ein Projekt der Superlative ist das Labor allemal: 200 Mitarbeiter sind ausschließlich mit der Auswertung von Daten beschäftigt. Die Erkenntnisse sollen dazu führen, Verfahren und Produkteigenschaften zu verbessern. 

Ein Unternehmen unter vielen, dass den innerbetrieblichen Datenschatz zu heben versucht? Laut Michael Schimetta eher nicht. Der Industrie 4.0-Experte bei Tieto Austria geht davon aus, dass sich derzeit bestenfalls 15 Prozent der österreichischen Unternehmen intensiv mit der effizienten Nutzung der Potenziale ihrer Prozessdaten auseinandersetzen. Und von diesen holt wiederum nur ein Bruchteil ein Maximum heraus.

Aufholbedarf

White Paper zum Thema

Was schade ist: Neue Muster erkennen, Wissen extrahieren und zusätzlichen Nutzen freispielen – mit der systematischen Anwendung statistischer Methoden auf einen Datenbestand, kurz Data-Mining, wäre all das möglich. Bislang wird Data-Mining am häufigsten in Zusammenhang mit Auftragsdaten von Kunden verwendet. Versicherungen, Banken oder auch die öffentliche Verwaltung sind bereits mit der Auswertung ihrer Big Data vertraut und in der Lage, aus den vorhandenen Datenmengen Regeln abzuleiten. "Es könnte sich jedoch viel mehr Nutzen für Data-Mining auch im Bereich der Prozessoptimierung ergeben", sagt Michael Schimetta von Tieto Austria. Experten von Fraunhofer Austria vermuten ebenfalls, dass überall dort, wo große Datenbestände existieren, unbekanntes Wissen zur Optimierung von Prozessen schlummert.

Messungen

In Österreich gibt es Big-Data-Vorreiter wie etwa die OMV, Roche oder die ÖBB, die bereits seit über einem Jahrzehnt aktiv sind. Ebenso gibt es Unternehmen, die sich lange vor der Verbreitung von Schlagwörtern wie "Industrie 4.0" und "Big Data" mit Daten-und Messqualitäten auseinandergesetzt und dieses Wissen auch wertsteigernd eingesetzt haben, beispielsweise in der Betonindustrie. 

Und IT-Spezialisten bringen sich in Stellung: Mit dem neu geschaffenen Geschäftsbereich Big Data & Security (BDS) reagiert das IT-Haus Atos auf aktuelle Marktanforderungen rund um die zunehmende Digitalisierung und damit einhergehende, steigende Datenmengen in Unternehmen. Das Betreiben eines Rechenzentrums hat gemäß einer von Rittal in Auftrag gegebenen Studie für (künftige) Anwender von Big Data jedenfalls Priorität. Laut einer von Interxion in Auftrag gegebenen Studie nutzen 45 Prozent der Unternehmen eine Hybrid-Technologie – also eine Kombination aus eigenen Rechenzentren und privater oder öffentlicher Cloud. 

Unternehmen, die das Extrahieren des Wissens aus den Daten auch in das Steuern ihrer Prozesse integriert und durchgängig umgesetzt haben, gibt es hierzulande aber erst wenige. Auch deshalb, weil die Anwendbarkeit von Data-Mining nicht immer problemlos ist. Unsichere und ungenaue Messungen beispielsweise behindern eine effektive Verwendung von Data-Mining-Algorithmen. "Das Prinzip 'garbage in, garbage out' ist besonders bei den datengetriebenen Analysen und Modellierungen schwerwiegend", weiß Schimetta. Und auch Fraunhofer Austria bestätigt, dass in den meisten Fällen falsche Daten wertlos sind. Viele Unternehmen in der Prozessindustrie stehen daher vor systembedingten Herausforderungen, da ihnen die für bestmögliches Data-Mining erforderliche Genauigkeit, Präzision und Repräsentativität von Messungen nicht immer ausreichend zur Verfügung steht.

Verwandte tecfindr-Einträge