Künstliche Intelligenz : Der Maschinenbau entdeckt Machine Learning für sich

Der Maschinenbau entdeckt Machine Learning (ML) für sich, manche Vertreter sprechen auch von künstlicher Intelligenz (KI). Die Basis sind bei beiden Begriffen momentan noch Daten. Viele ML-Novizen aus der Industrie bedienen sich für die ersten Schritte in der neuen IT-Welt der Fabrik des Quick Guides vom VDMA. Ganz hinten, auf der vorletzten Seite des Ratgebers der deutschen Maschinenbauer, versteckt sich eine Technologie, die den Einsatz von ML in der Fertigung stark verändern und den Weg zu den begehrten KI-Optimierungs-Töpfen erleichtern könnte. Guided Analytics nennen das die Experten, manche auch Auto-ML. Die Technik hat ein konkretes Ziel: Sowohl den Bedarf an Data Scientists für kleine und mittlere Unternehmen zu minimieren als auch die Abhängigkeit von ihnen, heißt es in dem Papier. So soll die große Lücke zwischen Datenmeer und Data-Analytics- Werkzeugen geschlossen werden. „Wir brauchen auch weiter Data Scientists“, meint hingegen Albert Krohn von 21data, Anbieter einer Auto-ML-Anwendung. Seine Plattform (Python-basierend) ist Open Source. „Wir entlasten die Domänenexperten und die Data Scientists“, erklärt er im Podcast KI In der Industrie. Cluster, Layer, Lernraten, Input- und Output-Abhängigkeiten seien automatisierbar. „Ich will es den Domänenexperten so einfach wie möglich machen. Deshalb orientiert sich das Interface unserer Lösung an den bekannten Systemen“, so Krohn. Er meint MES oder SCADA-Anwendungen.
Heute noch explorativ
Heute ist der Data-Science-Ansatz überwiegend manuell und explorativ. Deshalb sollen die meisten Arbeitsschritte der Data Scientists automatisiert werden. So wird im Falle von Guided Analytics die Ausführung der Datenanalyse durch einen Domänenexperten nur noch initiiert, läuft jedoch ansonsten automatisiert. So wird der Domänenexperte befähigt, den Mehrwert in „seinen“ Daten selbst zu finden, formulieren es die Autoren des VDMA. In einer weiter fortgeschrittenen Phase wird durch „Autonome Analytics“ der gesamte Datenanalyseprozess automatisiert – von der Eingabe bis zur Präsentation der Resultate. Krohn nennt sogar vier Schritte: Self Service Analytics für den Power AI-User, Self Guided Analytics, Adaptive Analytics und Autonomous Analytics. Automatisierung erleichtere in Zukunft auch das Deployment. Krohn spricht in diesem Zusammenhang von „ML ops“. In der Endstufe erinnert Auto-ML dann schon an Reinforcement Learning, bei dem der User der Maschine vorgibt, wie sie sich verhalten soll, und das System entscheidet selber, wie es sich dem Ziel nähert und es erreicht. Der Domänenexperte muss dann am Ende entscheiden, ob das Ziel erreicht oder verfehlt wurde, ob das Bauteil gut oder schlecht ist. Zukunftsmusik? Festo arbeitet schon seit einiger Zeit an Reinforcement-Anwendungen.
Demokratisierung
Der Gründer Krohn aus Nürnberg ist nicht alleine auf dem Markt. Den Trend Auto-ML haben auch findige Geschäftsleute in Ostwestfalen schon für sich entdeckt. In Detmold bei Weidmüller verdienen sie ihr Geld eigentlich, überspitzt formuliert, mit Klemmen – einem C-Teil in der Beschaffung. Doch seit einiger Zeit setzen die Ostwestfalen auf Data Analytics und haben sich nach eigenen Aussagen in die erste Liga der Datenanalysten in Deutschland gespielt. Softwarekompetenz ist gefragt, und die Verhandlungsposition gegenüber dem Einkauf ist deutlich besser als bei C-Teilen.
Das „Auto-ML-Tool“ demokratisiere quasi die Anwendung von künstlicher Intelligenz, denn die Methoden würden einer breiten Masse zugänglich gemacht, schwärmen die Ostwestfalen. Die Ausgangssituation: Klassische Automatisierungs- und Maschinenbauexperten sind mit den derzeit verfügbaren Machine-Learning-Tools und deren Möglichkeiten überfordert. Sie verfügen in der Regel nicht über die Kenntnisse, um entsprechende Modelle zu entwickeln. Deswegen übernehmen Data Scientists die Datenanalyse und Modellbildung. Ihr Expertenwissen ist notwendig, um die Methoden der künstlichen Intelligenz oder des maschinellen Lernens auf die Daten anzuwenden und Modelle zu entwickeln, die beispielsweise Anomalien erkennen und Fehler voraussagen können. Natürlich arbeitet der Data Scientist bei der Modellentwicklung eng mit dem Maschinenbauer bzw. -betreiber zusammen, um die gefundenen Zusammenhänge in den Daten ingenieurmäßig zu interpretieren.
Automatisierte Modellbildung
Das Software-Tool führt den Anwender durch den Prozess der Modellentwicklung. Dadurch reduziert sich die Komplexität, der Anwender kann sich auf sein Wissen zum Maschinen- und Prozessverhalten fokussieren. Der Maschinen- und Anlagenexperte kann die Erstellung und Weiterentwicklung der Modelle eigenständig vorantreiben – ohne selbst Data Scientist zu sein und ohne spezielles Wissen im Bereich künstlicher Intelligenz zu haben. Das vorhandene Wissen über Prozesse, Maschinen und Fehlerbilder bleibt so in den Unternehmen, da diese ihr Domänenwissen selbstständig einpflegen und mit den Modellbildungsschritten verknüpfen können. Die Software hilft bei der Übersetzung und Archivierung des komplexen Applikationswissens in eine verlässliche Machine-Learning-Anwendung. Gleichzeitig stellt das Tool die für die Ausführung von künstlicher Intelligenz erforderlichen Software-Komponenten zur Verfügung. Das heißt, der Anwender benötigt kein spezielles IT-Know-how zum Betrieb der Modelle.
Um das Domänenwissen der Maschinen- und Prozessexperten optimal zu integrieren und gleichzeitig Modellbildungsschritte zu automatisieren, wird sogenanntes unsupervised und supervised Machine-Learning miteinander verknüpft. Unerwünschtes Maschinenverhalten wird mit Anomalieerkennungsverfahren realisiert.
Anomalien werden erkannt
Ein Algorithmus erlernt die typischen Datenmuster eines normalen Maschinenverhaltens anhand historischer Daten. Zur Laufzeit können Abweichungen von diesen Mustern identifiziert werden. Bei den erkannten Anomalien kann es sich um Ineffizienzen, kleinere Störungen oder größere Fehlerfälle handeln. Das System ist durch diese Herangehensweise in der Lage, auch bisher vollkommen unbekannte Fehlerfälle schon bei ihrem ersten Auftreten zu erkennen. Um auffälliges Maschinenverhalten nun einer bestimmten (Fehler-) Klasse zuzuordnen, werden Klassifikationsverfahren eingesetzt; also „supervised“ Machine-Learning. Um diese Zuordnung vorzunehmen, braucht der Algorithmus in den historischen Daten ausreichend repräsentative Beispiele für alle zu unterscheidenden Klassen. Die Zeitbereiche der Beispiele müssen in den Daten markiert sein. Tritt dann ein bestimmter Störfall erneut auf, so wird er vom System erkannt und anhand seines typischen Datenmusters gleich richtig einer Klasse zugeordnet. Die Algorithmen können kontinuierlich anhand neuer Daten verbessert und um neue Fehlerklassen erweitert werden. Die entsprechenden Informationen wie zum Beispiel die Fehlerklassen bringt der Nutzer im Rahmen der Modellerzeugung sowie der Modellweiterentwicklung durch das sogenannte Tagging ein.