Big Data in der Industrie : Big Data in der Industrie nicht "vorzeigetauglich"

Big Data
© Fotolia/lassedesignen

Der Sensor misst die Temperatur im Sekundentakt, ein anderer überwacht die Luftschwingungen, noch einer kontrolliert die Luftfeuchtigkeit, die Highspeedkamera liefert Bild um Bild. Und während sich die Walze in den Hallen des Stahlwerks mit einer Geschwindigkeit von rund 350 km/h dreht, wächst die Datenmenge, die ihre Überwachung liefert, in einem rasenden Tempo. Übers Jahr gerechnet werden sich Hunderte von Terabytes angesammelt haben. Dabei handelt es sich um die Daten von gerade einer einzigen Walze. Denn noch ist das Ganze ein Versuch, bei dem das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme den Einsatz von Big Data in der industriellen Wirklichkeit testet. Wollte man die Menge der Daten beziffern, die zusammenkommen, wenn eine ganze Stahlfabrik ein Jahr lang digital überwacht wird, käme man zu kaum noch benennbaren Größen. Schon ein digital vernetztes Auto liefert mit seinen Motor und Karosseriedaten ein Terabyte Daten pro Stunde.

Solche Mengen zu verwalten, ist dank immer leistungsfähigerer und schnellerer Rechner noch nicht einmal das große Problem. Der Versuch, daraus sinnvolle Aussagen abzuleiten, stellt hingegen die große Herausforderung von Big Data schlechthin dar. "Noch fehlen vielfach geeignete Verfahren, um die Informationen auszuwerten. Heute nutzen die Betreiber daher lediglich sieben Prozent der verfügbaren Daten, um ihre Anlagen zu warten und vor Ausfällen zu schützen", bestätigt Olaf Sauer, Geschäftsfeldkoordinator Automatisierung vom Fraunhofer-Institut.

Im Anmarsch

Ein Blick auf die aktuelle Praxis in Österreichs Industrie bestätigt diese Einschätzung. Zwar haben schon 2013 im Rahmen einer Befragung von IDC Österreich 47 Prozent der Befragten CIOs angegeben, Big Data Aktivitäten zu planen, der tatsächliche Einsatz von Big Data in der Produktion unter Realbedingungen findet in Österreich derzeit aber noch kaum irgendwo statt. Ein Rundruf des INDUSTRIEMAGAZINS bei den großen industriellen Innovationsführern des Landes wie Infineon, Voest oder Kapsch diesbezüglich jedenfalls ein sehr einheitliches Bild ergeben: Ja, man habe Big-Data-Programme in Vorbereitung, doch keines davon ist bereits vorzeigetauglich.

Im Kommen ist das Thema aber auf jeden Fall. IDC etwa prophezeit für Österreich bei Big-Data-Anwendungen ein durchschnittliches Umsatzwachstum von rund 33 Prozent und rund 73 Millionen Euro Branchenumsatz im Jahr 2017. Die weltweit erzeugten Datenvolumina werden in den nächsten Jahren um bis zu 40 Prozent jährlich steigen. Die Herausforderungen, die all das für die produzierende Industrie bringen wird, sind im Detail heute noch gar nicht abschätzbar.

"Unternehmen sind heute auf der Suche nach Technologie, um ihren Erfolg zu untermauern. Mobility, Big Data, Cloud und Digitalisierung sind der Motor dieser Bestrebungen", sagt Johannes Baumgartner, Managing Director Fujitsu Österreich, und fügt hinzu, dass Anbieter in diesem Bereich zunehmend nicht nur technologische Lösungen bereitstellen werden, sondern auch als Adviser agieren.

Sexiest Job on Earth

Die Vielfalt der Aufgaben, die bei der Implementierung von Big-Data-Programmen bewältigt werden müssen, ist jedenfalls groß. Dass es zunehmend Fachleute geben wird müssen, die aus den bislang noch nie dagewesen Datenmengen Trends herauslesen, ist klar. Bereits vor drei Jahren schrieb Harvard Business Review über das Thema und erklärte den Date Scientist zum "Sexiest Job of the 21st Century". Mehr noch. Das Magazin prophezeite: Was in den 80er und 90er-Jahren des 20. Jahrhunderts die gehypten Quants, die Datenanalysten an der Wall Street, waren, das werden im kommenden Jahrzehnt die Data Scientists sein – von allen umworbene Zahlendompteure.

Kein Wunder daher, dass inzwischen auch in Österreich Ausbildungen entstanden sind, die auf den Job des Datenwissenschaftlers vorbereiten: An der Johannes Kepler Universität startete im Herbst 2014 das völlig neu gestaltete Studium Wirtschaftsinformatik, das seinen Schwerpunkt auf Business Intelligence und Data Science legt.

Vielschichtig

Das Gebiet, das der Data Scientist bearbeitet, ist auch deutlich vielschichtiger als die Aufgaben, die bislang an Zahlenanalysten gestellt wurden: Die Datenmengen sind unvergleichlich größer, die Geschwindigkeit, in der sie anfluten, ebenfalls und auch deren Vielfalt. Eine der großen – auch softwaretechnischen – Herausforderungen von Big Data besteht darin, dass Daten völlig verschiedener Natur – Zahlen, Texte, Standbilder, bewegte Bilder – zu einem Gesamtbild zusammengesetzt werden müssen. Gelingt das, könnte Big Data Antworten auf Fragen liefern, die man sich früher nicht einmal zu stellen gewagt hat. Und Business-Zusammenhänge sichtbar machen, deren Existenz niemand vermutet hätte.

Neue Fragen

Kritiker weisen in diesem Zusammenhang allerdings auch auf eine große Gefahr, die mit der sich anbahnenden Verknüpfung gigantischer Datenmengen einhergeht: auf die Gefahr Korrelationen, also nicht zwingend kausal bedingte Zusammenhänge, mit tatsächlicher Kausalität zu verwechseln: "Big Data scheint ein Mythos von kausalen Korrelationen anzuhaften, der Unterschiede zwischen Korrelation und Kausalität vernachlässigt. Aufgezeigte Zusammenhänge beruhen meist auf Wahrscheinlichkeiten, sind längst nicht kausal und müssen keineswegs der Realität entsprechen", sagt etwa Stefan Strauß vom Institut für Technikfolgen-Abschätzung an der Österreichischen Akademie der Wissenschaften und fügt hinzu, dass man auch mit der größtmöglichen Datenmenge immer nur Wahrscheinlichkeiten abschätzen kann: "Die Zukunft bleibt unberechenbar. Dieser Umstand scheint im Daten-Enthusiasmus beizeiten unterzugehen."

Zeitenwende

Zugleich besteht auch die Gefahr, dass die Daten den Weg in die Praxis nicht finden. Oder anders formuliert: dass sie zwar von einer Handvoll ausgebildeter Zahlenfreaks interpretiert werden können, der Transfer zu den Endusern aber misslingt. Bei dem österreichischen Automatisierungsspezialisten B&R betont man daher gern, dass eine Zeitenwende ansteht. Wollte man in der Vergangenheit aus den in einem Unternehmen vorhandenen Daten Reports erstellen, mussten dafür IT-Experten beauftragt werden. Inzwischen ist man bei Software-Lösungen so weit, dass der Endnutzer nicht nur ohne Spezialisten auskommt, sondern seine Berichte sogar selbständig und mobil individualisieren kann.

Stichwort Usability

Neben der Interpretation von Daten ist Usability ohne Zweifel die zweite große Frage, um die sich Big-Data-Lösungen der Zukunft kümmern müssen, etwa indem entsprechende Filter eingesetzt werden. Denn ein möglicher Weg, um Fehlfunktionen an Maschinen mit Big Data vorherzusagen ist, die abgegriffenen Daten mit einem Muster zu vergleichen, das einen fehlerfreien Produktionsablauf repräsentiert. Erkennt das Programm Abweichungen, kann sofort reagiert werden.

Das Verfahren wirft allerdings auch ein Problem auf. Bei Weitem nicht alle Abweichungen sind für die Produktion relevant und zeigen tatsächliche Fehler an. Ein optimal konfigurierter Filter sollte daher dafür sorgen, dass zwar kein wichtiger Alarm verloren geht, gleichzeitig aber möglichst viele Fehleralarme unterdrückt werden, um diejenigen, die entscheiden müssen, ob nach einem Alarm ein menschliches Einschreiten nötig ist, nicht zu überfordern. Denn auch für Big Data gilt: Das letzte Wort hat immer noch der Mensch.