Artificial Intelligence

Künstliche Intelligenz: Jetzt kommen die KMUs dran

Immer mehr Mittelständler entschließen sich zum Einsatz von Künstlicher Intelligenz. Sinkende Investitionskosten und Entwicklungen wie Edge-Computing machen es möglich.

Industrie IoT IoT für die Industrie

Immer mehr mittelständische Unternehmen setzen auf IoT-Lösungen.

Draußen dampft und brodelt es. Drinnen im Verne Global Rechenzentrum nahe Keflavik laufen die Rechenmaschinen auf Hochdruck. Wo einst die NATO ihren Island-Stützpunkt hatte, werden heute die ganz großen KI-Programme gerechnet. DeepL, die Online-Übersetzungsmaschine, die als momentan fortgeschrittenste Lösung am Markt gilt, nützt die gigantische Infrastruktur des Verne Global Rechenzentrums ebenso wie BMW und Volkswagen. 

Sie alle arbeiten hier an Artificial Intelligence Lösungen der Zukunft. Denn Island hat einen Vorteil, ohne dem die Entwicklung neuer KI-Anwendungen nicht funktioniert: Jede Menge frei verfügbarer Energie, um den nötigen Strom zu erzeugen. Wasserkraft und Geothermie sorgen für unaufhörlichen Nachschub.

„In der Trainingsphase benötigen KI-Systeme tatsächlich sehr viele Daten und sehr viel Rechenkapazität, um sie zu verarbeiten. Das ist auch aufgrund der damit verbundenen Energiekosten ziemlich kostenintensiv“, bestätigt Andreas Dengel, geschäftsführender Direktor des Deutschen Instituts für Künstliche Intelligenz (DFKI) und einer der prominentesten deutschen KI-Spezialisten. Für konkrete Anwendungen könne man trainierte Systeme aber downsizen, die dann mit viel weniger Speicherplatz und Energie auskommen.

White Paper zum Thema

Klein und günstig

Um KI möglichst breit einsetzbar zu machen, arbeiten viele Unternehmen an einer solchen Miniaturisierung. Denn der hohe Energie und Speicherbedarf macht KI-Anwendungen teuer. Die Studie „Internet of Things 2020“ zeigt, dass rund dreißig Prozent von Unternehmen, die IoT-Projekte anvisieren, unter anderem an den hohen Einstiegskosten scheitern. Eine grundsätzliche Bereitschaft, in IoT zu investieren, ist allerdings bei über drei Viertel der Befragten vorhanden.

„Mit Edge-AI, die die Daten nicht mehr zum Cloud Computing zurück schickt, sondern direkt am Sensor verarbeitet, können wir viele Anwendungen verkleinern und so auch günstiger machen“, sagt Saurabh Chauhan, System Analyst bei dem niederösterreichischen Anbieter von IoT-Lösungen Microtronics. 

Durch die direkte Verarbeitung sinke die Anzahl der Daten, die zwischen dem Sensor und der IoT-Plattform übertragen werden, und damit auch der Ressourcenbedarf. Überdies lässt sich durch Edge-Computing auch das Problem der Latenzzeiten lösen, das vor allem dort eine Rolle spielt, wo Echtzeit wirklich Echtzeit sein muss, etwa beim autonomen Fahren.

https://youtu.be/DO2_pwUhVhg

Ressourcenschonung, sowohl was Speicher- als auch Strombedarf betrifft, lässt sich aber auch durch eine taskangepasste Toleranzenwahl erreichen, sagt Chauhan. „Nicht für jede Anwendung ist eine Genauigkeit von 99,99 Prozent nötig, bei vielen Anwendungen reichen auch weniger. Dann können die Devices kleiner dimensioniert werden, die Produktion wird günstiger, der Einsatzbereich breiter.“ 

Verbreitern lasse sich der Einsatzbereich aber auch, indem vorprogrammierte Module eingesetzt werden, die der User mit wenigen Clicks seinen Wünschen entsprechend konfigurieren kann. „Das ist der Weg, den wir bei vielen unserer Lösungen wählen. Damit lässt sich die Einstiegsschwelle gerade für jene Kunden klein halten, für die das IoT-Thema noch relativ neu ist“, sagt Chauhan.

Milliarden von IoT-Devices

Neben dem Wunsch nach Effizienz befeuert auch die rasante Zunahme der IoT-Nutzung das Edge-Computing. Von Smart Home bis zur Produktion – die Menge der verwendeten IoT-Geräte wird von Jahr zu Jahr größer. Derzeit sind weltweit rund 27 Milliarden davon  im Einsatz, in fünf Jahren, sagt der Forschungsbericht IoT-Signals von Microsoft, sollen es rund 42 Milliarden sein. 

Andere Quellen, etwa Statista, sprechen gar von 75 Milliarden. Eine derart massive Steigerung wird die Verarbeitung der IoT-Daten direkt am Rand des Netzwerks nötiger denn je machen, sonst kommen die Netze trotz Ausbau und 5G schnell an ihre Grenzen.

Die Möglichkeiten, die KI on the Edge bietet, sind schon heute für viele Unternehmen ein Grund, auf diese Technik zu setzen. So können zum Beispiel Daten, die das Nachvollziehen der Zyklen, die eine Maschine in einem bestimmten Zeitraum durchführt, direkt am Sensor verarbeitet werden und in weiterer Folge als Grundlage für Predictive Maintenance dienen. Auch Beschleunigungssensoren, aus denen unterschiedliche Zustände von Maschinen oder von Paketen in der Logistik ablesbar sind, können on the edge betrieben werden.

Entwickeln lassen statt selbst entwickeln

Das Training der dazu erforderlichen KI erfordert allerdings nach wie vor viel Aufwand, erst recht, wenn komplexe Aufgaben mit Hilfe neuronaler Netzwerke gelöst werden sollen. 

In der Zukunft, meint Andreas Dengel, der geschäftsführende Direktor des DFKI, werde es allerdings für solche Trainings Lösungen geben, die sich kleinere Unternehmen leisten können: „Schon bald wird man Systeme kaufen können, die bereits auf einen bestimmten Typ von Aufgaben vortrainiert sind, zum Beispiel auf Bilderkennung. Der User wird diese, extern entwickelte Systeme dann mit relativ wenig Daten-, Speicher und Energieaufwand auf seine konkreten Bedürfnisse und Anwendungen optimieren können.“

Der Trend, die teure, zeit- und personalintensive Entwicklung von KI außer Haus zu geben, ist schon jetzt massiv. Nur acht Prozent aller Unternehmen weltweit entwickeln laut Deloitte völlig selbständig, weitere 13 Prozent tun es überwiegend selbständig. Der Rest, also nahezu vier Fünftel setzen überwiegend oder zur Gänze auf Leistungen von Externen

Das liegt zum Teil an den Kosten, die bei externer Abwicklung oft geringer sind als bei interner, aber auch daran, dass es für viele Unternehmen schwierig ist, an geeignete Mitarbeiter zu kommen. Fachkräftemangel bleibt jedenfalls ein von Managern häufig genannter Grund, der die Einführung von KI-Projekten behindert. Das wiegt besonders schwer, weil Unternehmen Sicherheitsanforderungen, die mit der Implementierung solcher Projekte verbunden sind, nur mit Hilfe von dementsprechend gut geschultem Personal bewältigen können. 

Blick in die Blackbox

Grundsätzlich nehmen Bedenken gegenüber dem Einsatz von KI im Unternehmensumfeld aber weiter ab. Nicht zuletzt deshalb, weil unter dem Druck des EU-Parlaments für eine „Explainable Artificial Intelligence“ die Anstrengungen der KI-Forschung sich immer stärker auf die Nachvollziehbarkeit von KI-Entscheidungen konzentrieren.

„Wissenschaftler schaffen es inzwischen immer besser zu erklären, warum tiefe neuronale Netze zu bestimmten Entscheidungen kommen“, sagt Andreas Dengel. Heute sei man auch in der Lage, solche Erklärungen nicht nur in Form von komplizierten Visualisierungen darzustellen, sondern in natürlicher Sprache. „Da erklärt das System dann zum Beispiel, warum es eine bestimmte Hautveränderung als ein Melanom klassifiziert hat.“

Wenn nicht nur bekannt ist, zu welchen Schlüssen eine KI kommt, sondern auch wie sie das tut, werde die Einschätzung und  Interpretation dieser Schlüsse, einfacher, sagt Dengel. Und das sei von ganz besonderer Bedeutung, denn die KI könne, meint er, zwar bewusstseinserweiternd für den Menschen sein, indem sie ihm zu neuen Einsichten verhilft.  „Die Schlussfolgerungen“, sagt Dengel, „muss der Mensch aber immer noch selbst ziehen.“