IT : Das sind die IT-Trends 2016

3d visual technology code coding binary digital cable cyber connection business tunnel tech corridor number internet hyperspace tube digitally data stream electronic wire blue flowing circuit abstract form futuristic geometric illusion light modern pipe pipeline render swirl twist way matrix contemporary rush movement computer graphic space mathematical green black 3d visual technology code coding binary digital cable cyber connection business tunnel tech corridor number internet hyperspace tube digitally data stream electronic wire blue flowing circuit abstract form futuristic geometric illusion light modern pipe pipeline render swirl twist way matrix contemporary rush movement computer graphic space mathematical green black
© Maxim_Kazmin - Fotolia

Das Tempo ist schon da. Jetzt muss es nur noch bewältigt werden. Von Jahr zu Jahr werden die Produktions- und Entwicklungszyklen in so gut wie allen Industriebranchen immer kürzer. Die IT-Abteilungen können auf diese Beschleunigungsspirale nicht immer prompt genug reagieren. 2016 könnte allerdings das Jahr des Durchbruchs zum Guten werden. Denn in immer mehr Unternehmen wird die IT auf agile Methoden setzen, um damit neue Anwendungen ihren Usern noch schneller zur Verfügung zu stellen. Selbst Kernprozesse der Unternehmens-IT sollten mit agilen Methoden innerhalb von weniger als drei Monaten umgebaut werden können.

Kürzerer Takt

Und das ist noch nicht alles. Der Takt, in dem neue IT-Tools in den Markt finden und gleichzeitig Strategien zu überdenken sind, wird 2016 nochmals an Tempo zulegen. Nicht mehr Prozesse und IT-Werkzeuge stehen bei der Gestaltung der IT-Landschaft im Fokus, sondern Menschen und ihre Aufgaben. Spontanität und Kreativität werden wichtiger als formale Kriterien, jüngere Entwickler bis hin zu ausgesprochenen Computer-Nerds bekommen noch mehr Gewicht als bislang. Damit gewinnt Funktionalität vielfach Oberhand über die Stringenz der Lösungen. Und die rollende Planung wird zum Standard. Die IT wird sich noch mehr als heute an den aktuellen Bedürfnissen der Abteilungen richten statt an starren Langfristplänen.

Doch so viel Dynamik hat auch ihre Tücken: Die Gefahr, den Blick für die etwas weiter weg liegende Zukunft zu verlieren, steigt. Und auch die Versuchung, Agilität als die Lösung aller Probleme und das Allheilmittel schlechthin zu sehen. Die wichtigsten acht Trends 2016.

Bei Cloud-Entscheidungen waren Fragen der Datensicherheit immer schon zentral. Und somit die Diskussion zwischen Public und Private Cloud. Diese Diskussion könnte demnächst hinfällig werden. Noch sind die Positionen ja klar: Public-Cloud-Infrastrukturen erlauben einen unkomplizierten Zugriff auf IT-Ressourcen, sind schnell und günstig. Weil sie aber auf eine mit anderen geteilte Infrastruktur zurückgreifen, lassen sich bei ihrer Nutzung die gesetzlich vorgeschriebenen Compliance-Richtlinien vielfach nicht erfüllen. Und – was nicht weniger wichtig ist – die Kontrollhoheit über die eigenen Daten ist nicht zwingend gegeben. Die Private Cloud wiederum bietet zwar ein hohes Maß an Sicherheit, performt oft aber deutlich schwächer, weil sie Einschränkungen in Sachen Rechenleistung und Speicherplatz unterworfen ist.

Mit Hybrid Clouds und hybriden Storagekonzepten, wie sie etwa von NetApp angeboten werden, lässt sich der Widerspruch zwischen den beiden Konzepten auflösen. Hybrid Clouds können daher ein wichtiger Game-Changer werden. Mit der Hybrid Cloud bekommt der Nutzer nämlich das Beste aus beiden Welten. Hybrid-Cloud-Lösungen nutzen zwar die Kraft der Public Cloud für die Verarbeitung der in der Private Cloud abgelegten Daten, zugleich verlassen die Daten dabei aber niemals die Private Cloud und bleiben somit sicher. Auch das Arbeiten mit Multi-Cloud-Umgebungen, die etwa aus einer Private Cloud und mehreren Public Clouds bestehen, wird durch Hybrid-Lösungen erleichtert. Bei NetApp rechnet man daher fix damit, dass Hybrid-Cloud-Konzepte in den kommenden Jahren für viele große und mittelständische Unternehmen die bevorzugte Lösungen sein werden.

Big Data nimmt an Fahrt auf, ganz eindeutig. Heute haben zwar erst zwanzig Prozent der in Frage kommenden Unternehmen nennenswerte Projekte im Bereich Big-Data-Analytics, doch bereits jedes zweite Unternehmen bereitet solche Programme für heuer vor.

Dass der technische Zugriff auf große Datenvolumen und ihre Verarbeitung zunehmend schneller werden, ist nur eines der treibenden Elemente. Das andere treibende Element sind Menschen, die Ideen entwickeln, wie man aus diesen Daten computergestützt Muster generiert und erkennt, ob hinter den Mustern Kausalitäten stecken oder es sich bloß um Koinzidenzen handelt. Hier das richtige Know-how zu haben, kann 2016 zu dem Faktor werden, der über Erfolg oder Niederlage entscheidet.

Zum Marktvolumen von Big-Data-Analytics, das weltweit auf rund 100 Milliarden Dollar geschätzt wird, darf übrigens Alec Ross zitiert werden, der langjährige Berater von Hillary Clinton. Der sagte unlängst: "Wollte ich schnell Milliardär werden, würde ich jetzt eine Analyse-Firma gründen."

Diese Herausforderung wird vermutlich so lange bestehen bleiben, solange es IT gibt: Der Schutz von Daten und Anwendungen im Ernstfall, Disaster-Recovery also. Für die Produktion wichtige IT-Anwendungen bei Stromausfällen, Naturkatastrophen und anderen unerwarteten Unterbrechungen am Laufen zu halten und die Daten zu sichern, ist ein Kernpunkt der IT-Sicherheit in jedem Unternehmen – oder sollte es zumindest sein. Denn Datenverlust ist für fast jedes Unternehmen existenzbedrohend.

Schon vor mehr als zehn Jahren hat eine Untersuchung der London Chamber of Commerce gezeigt, dass neunzig Prozent von einem Datenverlust betroffenen Unternehmen innerhalb von zwei Jahren schließen müssen, achtzig Prozent sogar innerhalb eines Jahres. Zugleich ist aber die Erstellung und erst recht die konsequente Verfolgung eines Disaster-Recovery-Plans eine Aufgabe, die mit viel Aufwand verbunden ist, personell ebenso wie in Bezug auf IT-Ressourcen.

Cloudbasierte Lösungen, wie sie etwa VMware mit der vCloud Air Disaster Recovery anbietet, könnten hier eine wichtige Alternative bringen: flexibler, einfacher und günstiger zugleich. Solche Security-Lösungen profitieren unter anderem von automatisierten Prozessen für die Replikation und Wiederherstel- lung kritischer Anwendungen, verursachen aber, eben weil sie cloudbasiert sind, nur einen Bruchteil der bei klassischen Disaster-Recovery-Lösungen anfallenden Kosten – etwa für eine duplizierte Infrastruktur oder den Unterhalt zusätzlicher Rechenzentren.

Die Zeiten, in denen das IT-Budget einfach von einem Jahr zum nächsten fortgeschrieben wurde, sind endgültig zu Ende. Zwar wird von manchen Analysten 2016 als ein Jahr genannt, in dem IT-Budgets wieder steigen werden, doch die Entscheidung, was in dieses Budget kommen soll und was nicht, bleibt schwierig.

Als einen besonders wichtigen Punkt nennen zum Beispiel die IT-Strategieberater von A.T. Kearney das Thema Informationssicherheit. "Das Thema Informationssicherheit ist gekommen, um zu bleiben", analysieren sie. Das Schwierige dabei: Es gibt wenig fixe Anhaltspunkte für die Planung von Ausgaben für Informationssicherheit und Sicherheitspannen sind sowieso von Natur aus unplanbar. Auf die produzierende Industrie kommt durch die zunehmende Vernetzung von Daten im Rahmen von Industrie 4.0-Anwendungen noch zusätzlicher Sicherheitsaufwand zu.

Längerfristig wird auch die bevorstehende EU-Datenschutzverordnung für die IT-Budgets von Bedeutung sein. Sie soll die großen Themenblöcke Big-Data, Cloud-Dienste und Internet der Dinge gesetzlich regeln.

Zugegeben: Der Mangel an IT-Leuten war in Österreich zwischenzeitlich schon einmal größer und manche Regionen, wie etwa der Großraum zwischen Wien-Bratislava, sind gerade dabei, zu regelrechten IT-Hotspots, etwa in der App-Entwicklung zu werden. Doch der Bedarf wächst mindestens genauso schnell. Schließlich wurden rund neunzig Prozent aller digitalen Daten erst in den letzten beiden Jahren erzeugt. Und sie wollen verarbeitet werden.

Zwei Entwicklungen treiben die Nachfrage nach hochspezialisierten IT-Leuten zusätzlich weiter an: Zum einen haben viele Unternehmen in den letzten Jahren IT-Projekte noch nicht in dem Ausmaß betrieben, das eigentlich notwendig wäre. Und zum anderen steht in der öffentlichen Verwaltung die große Modernisierungswelle erst an. Der große Mangel, da sind sich die meisten Experten sicher, wird daher erst kommen.

Rund 10.000 IT-Absolventen kommen in Österreich jährlich auf den Arbeitsmarkt. Das reicht im Moment zwar gerade aus, um den Ad-hoc-Bedarf zu decken, aber auch nur dann, wenn praktisch alle Ausgebildeten tatsächlich in der IT tätig werden. Passiert das nicht, kann der Mangel schon heute schlagend werden. Kommen neue Aufgaben dazu, wird er virulent. Hier muss die Branche daher dringend Lösungen finden.

Ganz besonders übrigens, wenn es darum geht, den Frauenanteil in der IT zumindest auf internationales Durchschnittsniveau zu bringen. International gibt es im Schnitt aller IT-Ausbildungen 26 Prozent weibliche Absolventinnen, in Österreich sind es nur vierzehn Prozent.

Vor allem Sicherheitsbedenken hindern Unternehmen daran, entschieden auf Cloud-Lösungen zu setzen. Dennoch scheint in Sachen Cloud heuer ein Umbruch bevorzustehen: Wie eine aktuelle von Interxion gesponserte Studie der IDG Connect zeigt, setzten im Vorjahr noch 50 Prozent der befragten Unternehmen ausschließlich auf eigene oder von einem Dienstleister betriebene Rechenzentren und haben Cloud-Lösungen gar nicht angewandt.

Das Jahr 2016 sollte den Studienergebnissen zufolge die Wende bringen: Der Anteil der totalen Cloudverweigerer wird nämlich auf sechzehn Prozent fallen. Rechenzentren vor Ort werden dennoch weiterhin ein wichtiges Instrument bleiben, insbesondere bei der Verwaltung von geschäftskritischen, sensiblen Daten.

Allerdings steht auch hier Wandel bevor – der Trend wird nämlich verstärkt dorthin gehen, diese Rechenzentren von Service-Providern betreiben zu lassen. Und sie werden dringend modernisiert werden müssen. Denn auf die Anforderungen einer Zeit, in der Daten teils vor Ort, teils in der Cloud gespeichert werden, sind viele Rechenzentren von Unternehmen nicht ausgerichtet. Sie wurden einfach nicht für die gegenwärtige IT-Architektur mit stark virtualisierten High-Density-Servern konzipiert.

Interessanterweise sind übrigens gerade die überdurchschnittlich großen Unternehmen mit mehr als 5.000 Mitarbeitern der Ansicht, dass ihre Rechenzentren Überholungsbedarf haben. An dieser Stelle kommen bei Strategieüberlegungen daher verstärkt Anbieter ins Spiel, die, wie Interxion, selbst über ein europaweites Netz an Rechenzentren verfügen.

Wer die richtige Strategie findet, wird auf der Siegerseite sein. Die Antworten, die man dafür finden muss, sind allerdings nicht einfach. Die Frage nach der Bewältigung der Anschaffungskosten für Smartphones und Tablets, mit denen immer mehr Mitarbeiter ausgestattet werden müssen, ist da noch eine verhältnismäßig einfache Übung. Das Managen der mobilen Geräte und erst recht Fragen der Sicherheit wiegen hingegen schwerer.

Beim Management der mobilen Geräte und ihrer Integration in bestehende IT-Landschaften muss vor allem eine Antwort darauf gefunden werden, ob Standards vorgegeben werden oder mehrere Systeme nebeneinander existieren dürfen. Und wenn firmenintern verbindliche Standards definiert werden, dann ist für viele Unternehmen immer noch die Frage zu klären, wie man die meist sehr heterogenen Endgeräte der Kunden integrieren soll. Das Problem als solches ist zwar nicht neu, doch je mehr mobile Geräte im Einsatz sind, desto dringender wird es.

Für Fragen der Sicherheit trifft das erst recht zu. Mobile Devices gelten ja als die klassische Schwachstelle, über die Hacker, Spione und sonstige Übeltäter in das digitale Herz von Unternehmen eindringen. Wie man sich dagegen schützt, wissen IT- Abteilungen. Eine Strategie, die gewährleistet, dass sich alle Mitarbeiter an die empfohlenen Sicherheitsmaßnahmen auch halten, haben hingegen nicht alle.

In der Praxis einer vernetzten Fabrik wird die digitale Welt mit der analogen interagieren, die virtuelle mit der realen. Zu den Fragen, die die IT-Welt auch im kommenden Jahr beschäftigen werden, wird daher die Suche nach Standards zählen, die diese unterschiedlichen Domänen miteinander verbinden.

Die Weiterentwicklung von Sensoriklösungen ist ein Teil davon – an ihm versuchen sich viele, mit immer wieder berichteten Erfolgen. Nicht minder wichtig bleibt allerdings die Frage der Schnittstellen zwischen den verschiedenen Welten. Hier Standards zu entwickeln, ist eigentlich ein Gebot der Stunde, weil die Vernetzung nur dann wirklich funktionieren kann.

Je früher die Branche damit beginnt, umso besser daher. Denn schon jetzt erleben wir eine unterschiedliche Zugangsweise in Europa und den USA. Während die Amerikaner, ihrer Stärke entsprechend, sich der Standard- und Schnittstellen-Frage eher von der Software-Seite nähern, kommen Europäer unter dem Einfluss des Maschinenbau-Spezialisten Deutschland mit dem RAMI 4.0-Schichtenmodell eher von der Hardware-Seite.

Eine der großen Strategidebatten der Zukunft dürfte daher lauten: Schafft es die Branche, dass sich die beiden Zugänge in Zukunft ergänzen oder werden sie miteinander konkurrieren?