IT-Trends : Big Data: Datensau

Aufmacher Big Data IM Mai 2013
© Fotolia

Die Replik des US-Handelsamts ließ nicht lang auf sich warten. Und wie immer, wenn sich die Politik den Interessen der mächtigen amerikanischen IT-Lobby annimmt, fehlte es den Worten nicht an Schärfe: Als „drakonisch“ und als „Verletzung internationaler Handelsvereinbarungen“ kanzelte das US-Amt die Pläne der EU, innereuropäische Kommunikationen nicht mehr über die USA laufen zu lassen, ab.

Kritik, deren Tonalität die für die Digitale Agenda zuständige Kommissarin Neelie Kroes freilich nicht mehr schrecken konnte: Seit Monaten rüstet die Politik beim Thema Bits und Bytes verbal auf. Hagelt es in Amerika Kritik an den europäischen Plänen einer „Schengen-Cloud“, setzt Kroes an einer anderen Front jetzt sogar noch eins drauf: Sie will Europa beim globalen Datenrennen „an die Spitze“ bringen.

Big Data, das Sammeln und Auswerten immenser Datenmengen, „sei der Treibstoff der Wirtschaft“, postulierte Kroes. 500 Millionen Euro sollen, so verlautete Mitte Oktober aus Brüssel, für eine öffentlich-private Partnerschaft zur Verarbeitung und Speicherung großer Datenmengen für die Jahre 2016 bis 2020 aus dem EU- Etat kommen. Denn auch wenn jede Big-Data-Firma „aus den USA“ komme, sei es noch nicht zu spät, aufzuholen.

Potential

Das Vorhaben, so hofft die IT-Szene, könnte in der Tat etwas bewirken: Software- und IT-Anbieter wie SAP, Siemens und Atos haben sich bereiterklärt, den Forschungsetat um zwei Milliarden Euro aufzufetten. Die ersten Projekte starten Anfang nächsten Jahres – allerorten ist von großem Ernst, mit dem das Vorhaben zum schnelleren Aufbau einer datengesteuerten Wirtschaft in Angriff genommen wird, die Rede.

„Die Dynamik ist spürbar“, berichtet ein Forscher von einer neuen Aufbruchstimmung, die er bei europäischen Meetings erlebt habe.

„Erhebliches Potential“ würde sich nach einer aktuellen Big-Data-Studie in dem aufstrebenden Bereich Smart Cities – also intelligent gesteuerten Energienetzen – ergeben. Auch die Fertigungsindustrie soll dank des stärkeren Einsatzes von Echzeitanalysen zu den Gewinnern zählen. Doch wie sensibel Letztere auf die Segnungen der ITK-Branche reagiert, ist spätestens seit den Scharmützeln von Produktionschefs in der Datenwolke bekannt.

In ihrer Tendenz weniger, in ihrer Deutlichkeit doch überraschend sind die Ergebnisse einer vom Technologieministerium in Auftrag gegebenen Studie, deren Endbericht seit April vorliegt: Bei der Frage, wie heimische Betriebe Big Data annehmen würden, „schnitt Österreich im Prinzip fatal ab“, schreiben die Studienautoren.

Bemängelt, so heißt es, wurde von den befragten Big-Data- Unternehmen oftmals, dass Verantwortliche im Unternehmen sich gar nicht erst mit dem Thema auseinandersetzen wollten „und es einem klassischen Business-Intelligence-Thema gleichstellen“.

Viele der Befragten gaben zudem an, dass sie es in anderen Ländern mit aufgeschlosseneren IT-Entscheidern zu tun hätten – obwohl Standard-IT-Lösungen angesichts explodierender Datenmengen in Sachen Verarbeitungszeit immer öfter an ihre Grenzen stoßen: „In Österreich seien CIOs oftmals nicht über die Möglichkeiten informiert, „sondern berufen sich lediglich auf Datenschutz“, heißt es in dem Endbericht. Größere Vorsicht bei Technologiehypes oder fataler Starrsinn – schubladisieren ließen sich heimische Produktions- oder IT-Leiter bei alledem nicht, glaubt ein Experte.

Trotzdem ist man alarmiert. Ein Großteil der 20 befragten Big-Data-Anbieter gab in der Befragung an, in den nächsten zwei Jahren keine Niederlassung in Österreich zu planen beziehungsweise den Verkauf lediglich aus anderen Ländern zu steuern. „Damit besteht für Österreich die Gefahr, dass Know-how abwandert“, lautet ein Fazit der Studie. Die Befürchtung tragen aber nicht alle Experten.

International sei man vielleicht nicht in einer „Vorreiterrolle“, meint Martin Köhler, Wissenschaftler vom Department Mobilität am Wiener AIT. Eine florierende Big-Data-Szene sei in Österreich aber sehr wohl gerade im Entstehen“, beobachtet er.

Hemmschwellen

Doch wichtiger, als internationale Big-Data-Anbieter ins Land zu holen, sei „zunächst einmal, die Hemmschwellen in der produzierenden Industrie abzubauen“, meint ein Softwareexperte. Und da ist man schnell beim Thema Datensicherheit. Die „natürliche Angst vor der Informationstechnik“ sei häufig im Anbinden der Anlage ans Firmennetz begründet, schildert Olaf Sauer, Forscher am Geschäftsfeld Automatisierung des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung in Karlsruhe.

Wie damit umzugehen ist, kann er gerade in Projekten mit der Maschinenbauindustrie erproben. Ein Hersteller verketteter Sondermaschinen will die vorausschauende Instandhaltung Kunden künftig als Serviceleistung anbieten und dafür Daten „von der ersten bis zur letzten Prozessstufe“ sammeln und auswerten. Der Hersteller lässt die Forscher machen: „Welche Algorithmik zum Einsatz kommt, ist für den Kunden völlig uninteressant – er will am Ende ein funktionierendes Serviceprodukt haben“, sagt Sauer. Mit der streckenweise schon etablierten vorausschauenden Wartung habe das Projekt wenig zu tun: „Es geht ja nicht nur um einzelne Feldgeräte, sondern die komplette Anlage“, heißt es am Fraunhofer-Institut.

Damit steigen die Anforderungen deutlich: Es geht um die Synchronisierung unterschiedlicher Bussysteme, die richtigen Abtastraten bei Sensoren und letztlich auch die Frage der richtigen Beschreibung aller technischen Komponenten, die es zulässt, dass sich „jedes IT-System bei deren Daten bedienen kann“, erklärt Sauer.

Dass die datenbasierte Entwicklung neuer Dienstleistungen, für die sich Big-Data-Technologien einmal rühmen sollen, trotz erster spektakulärer (und abgeschlossener!) Projekte immer wieder Gegenwind bekommt, sehen Forscher – anders als die in der heimischen Studie befragten Big-Data-Anbieter – nüchtern. Vielleicht, weil sie es mittlerweile gar nicht mehr anders kennen.

Das Thema Datenschutz kam so etwa bei einem Projekt zur intelligenten Spindelüberwachung am Karlsruher Fraunhofer- Institut für Optronik, Systemtechnik und Bildauswertung frühzeitig aufs Tapet: „Die erste Frage lautete: Wem gehören die Daten – dem Spindelhersteller oder dem Betreiber?“, sagt Sauer. Mit dem Marktverständnis, dass sich der Markt für Big-Data-Technologie bis 2017 verdreifachen soll, können einige jedoch nicht ganz mit.

Denn die Konsolidierung von Big-Data-Infrastrukturen auf europäischer Ebene klingt gut, ist (zumindest hierzulande) aber noch aufgrund einer von Experten als nicht „optimal“ bezeichneten Ausbildungssituation gekennzeichnet. Eine explizite Ausbildung zum Datenwissenschaftler – das Berufsbild ist durch hohes Verständnis für parallele, verteilte Systeme charakterisiert – gebe es hierzulande nämlich noch nicht „in zufriedenstellender Form“, heißt es in der Branche. Der Datenprofi könnte künftig jedenfalls noch mehr Flexibilität in Produktionssysteme bringen: „Es geht auch darum, zu wissen, wie neue Sensorik schnell in die Datengenerierung einbezogen werden kann“, heißt es am AIT.