Produktion

Sprechende Produktionsmaschinen: „Zu dienen?“

Nicht nur Silicon-Valley-Größen wie Alexa-Mitentwickler Jeff Adams arbeiten an sprechenden Produktionsmaschinen. Auch europäische Start-ups wagen sich in das technologisch schwierige Feld – mit ersten bahnbrechenden Ergebnissen.

Von

In der norddeutschen Provinz, in Oldenburg, arbeiten KI-Entwickler von Omnibot an der sprechenden Drehmaschine und revolutionieren damit auch die Bedienung von Maschinen. Die Terminologie von der „sprechenden Drehmaschine“ stammt von Prof. Dr. Sepp Hochreiter, Leiter des Instituts für Machine Learning der Johannes-Kepler-Universität Linz, der diesen Begriff in einem Gastbeitrag prägte. „Wir sollten in Europa, in Deutschland und Österreich unseren Schwerpunkt auf künstliche Intelligenz im Maschinen- und Anlagenbau legen. Die sprechende Drehmaschine muss unser Ziel sein, nicht ein neues Smartphone. Der Anwender spricht mit der Maschine: Pass auf die Geschwindigkeit auf. Kein Problem, antwortet die Maschine, ich habe neues Spezialöl bekommen, damit kann ich schneller fahren. Doch wir müssen jetzt handeln, denn in den USA erklären mir die Firmen aus dem Silicon Valley: Das bisschen Engineering kriegen wir hin oder kaufen wir uns dazu.“ Dass es auch andersherum laufen kann, beweist eben Omnibot. Jeff Adams, ehemaliger Leiter des Teams, das die Sprachtechnologie von Amazon Alexa entwickelte, stieg 2018 als Mitgründer und leitender Wissenschaftler bei der Konversations-KI-Plattform Omnibot ein. In der Pressemitteilung hieß es damals: Zusammen mit dem Team seines Forschungs- und Entwicklungsunternehmens Cobalt Speech and Language Inc. bringe er führendes Technologiewissen sowie die von Cobalt entwickelten Sprachtechnologien mit ein. Dadurch sei Omnibot in der Lage, eine Sprach- und Konversations-KI-Plattform mit vollständig hauseigener Technologie anzubieten – als erstes Unternehmen dieser Art in Europa, erklärten die Oldenburger selbstbewusst.

Mit Dialektdaten trainiert

Und die Industrie entdeckt die Sprachlösung von Omnibot für sich – beispielsweise in der Instandhaltung. Der Anwender stellt eine Frage an die Anlage und sie antwortet, welches Teil defekt ist, geht den Wartungsablauf mit dem Menschen durch und unterstützt ihn durch Bildanzeigen. Die Herausforderung: Das System muss auch Dialekte verstehen können. Das bedeutet, der Bot muss also auch mit Dialektdaten trainiert werden. „Unser Alleinstellungsmerkmal ist unser Wissen. Wir haben über 25 Jahre Erfahrung mit Sprache“, erklärt Jascha Stein, CEO von Omnibot, im Interview mit dem Podcast KI in der Industrie. Darüber hinaus wollen es die Norddeutschen den Usern so einfach wie möglich machen, eine Sprachsteuerung zu implementieren. Über eine grafische Oberfläche könnten auch Nicht-Programmierer einen komplexen Bot erstellen, versichern die Entwickler. „Und der Industrieanwender kann bidirektional mit der Maschine kommunizieren und Sensordaten abrufen“, erklärt Stein. Die sprechende Drehmaschine kommt.

Benjamin, Schwärzler, Workheld © Workheld

"Unser System merkt sich Kunden- und Projektnamen und erweitert ständig sein Sprachverständnis."
Benjamin Schwärzler, CEO Workheld

White Paper zum Thema

Industrieunternehmen, die die Technologie nutzen, wollen aber in den meisten Fällen die Sprachplattform vom Internet getrennt wissen. Sprachassistenz-Ökosysteme, die ihre Daten im lokalen Rechenzentrum verarbeiten, gewinnen an Bedeutung in der Industrie. Das kann Omnibot liefern. „Vertrauenswürdige KI ist unser Produkt“, fasst Stein zusammen. Sichere Sprach-Setups für die Industrie – auch im Ausland. Damit haben die Oldenburger eine Marktlücke für sich entdeckt und wollen in Europa Marktführer werden.

Intelligenz in unscheinbarem Tablet

Aus der norddeutschen Provinz nach Wien – Workheld verfolgt einen ähnlichen Weg wie Omnibot. Wir treffen den Gründer Benjamin Schwärzler auf der Hannover Messe. Die Österreicher haben einen Sprachassistenten für die Instandhaltung von Anlagen und Maschinen kreiert, der auf der Grundlagenforschung von Hochreiter zum Algorithmus LSTM basiert, der in den 90er-Jahren in München entwickelt wurde und heute Grundlage für Alexa, Cortana oder Siri ist. „Der Instandhalter spricht mit der Maschine“, erklärt Schwärzler, der Produktionsmanagement in Wien studiert hat. Die Intelligenz der Workheld-Lösung steckt in einem unscheinbaren Tablet. Der Techniker kommt zur Anlage, die Anlage erkennt das Tablet und die Unterhaltung startet. „Das könnte sich dann beispielsweise so anhören: ‚Bei Anlage Nr. 5 gibt es in der Y-Achse Probleme mit der Spindel.‘ Das System durchsucht dann, welche Störungen es gegeben hat – und antwortet vielleicht: ‚Vor zwei Jahren gab es schon dasselbe Problem‘, gibt Lösungsvorschläge und sagt auch, wer damals die Störung behoben hat. So kann man sich dann gleich an den richtigen Kollegen wenden, der sich mit dem Problem bereits auskennt.“

Techniker diktiert Prüfbericht

Oder: Die Maschine meldet aktuelle Probleme bei der Pumpe und die Software bietet dem Techniker sofort Ausbaupläne oder sucht in der Datenbank nach Erfahrungen anderer Kollegen. Die Reparaturaufträge laufen in ein IoT-System, die Basis für die sprechende Maschine. „Wir sind nicht nur Problemlöser, sondern auch ein interaktives Wissensmanagement“, ist Schwärzler stolz, der das Unternehmen vor vier Jahren gründete. Auch die Kommunikation mit dem Techniker speichert das System. „Es merkt sich Kunden- und Projektnamen, ordnet Informationen zu und erweitert auch ständig sein Sprachverständnis“, ergänzt Schwärzler.

Die Idee zu der „sprechenden Maschine“ kam ihm und seinem Team durch ihr erstes Produkt: ein klassisches Instandhaltungstablet mit Bauplänen und Wissensdatenbank. „Wir haben unsere Nutzer danach genau beobachtet und stellten schnell fest, dass die Techniker vor Ort ungern Prüfberichte oder Dokumentationen schreiben“, lacht Schwärzler. Auch Spesen wurden nur selten korrekt eingetragen. „Das muss leichter gehen.“ „Speech to Text“ war die Lösung und gleichzeitig eine schwierige Aufgabenstellung. Heute kann der User seine Prüfberichte dem System diktieren, Besonderheiten direkt per Sprache melden. Jede gesprochene Dokumentation reichert die Lösung auch inhaltlich immer weiter an und andere Mitarbeiter oder neue Kollegen profitieren davon.

Thomas, Schack © Uni Bielefeld

"Unsere Brille kennt den Nutzer."
Thomas Schack, Kognitionspsychologe

Alexa als Basis

Die Technologie des Jungunternehmers basiert auf der einen Seite auf bekannten Sprachassistenten wie Alexa, Siri und Co. Aber die größte Herausforderung liegt in der Entwicklung eines Frameworks für die Intent Recognition. Zu Deutsch: Die Maschine, die App, das Tablet, der Bot muss verstehen, was der User, der Techniker, Instandhalter genau will, muss die Sprache erkennen und sie in Text umwandeln und gegebenenfalls darauf reagieren. „Wir entwickeln mit unseren Kunden vor Ort die Frameworks für die Maschinen und nutzen dafür unterschiedliche NLP-Technologien“, erklärt der Vorarlberger. NLP steht für Natural Language Processing und beschreibt Technologien, die auf Machine Learning basieren und das Entwickeln von Features zum Verstehen natürlicher Sprache in Apps, Bots und IoT-Geräten ermöglichen. Mit dem Sprachverständnis kam der Durchbruch. 39 Euro per User und Monat kostet Workheld – auch mit SAP-Anbindung, wenn gewünscht. Ein deutscher Autobauer nutzt die Technologie bereits mit dem Wiener Start-up zusammen.

Wettbewerber sind vor allem Augmented-Reality-Anbieter. Doch vor denen versteckt sich das Start-up nicht. „Wir brauchen keinen Helm, keine Brille, keine großen Akkus und die Augen ermüden bei unserer Lösung auch nicht und trotzdem sind auch bei uns die Hände frei, um damit zu arbeiten“, fasst der Gründer selbstbewusst seine Vorteile zusammen. Und der Lärm in der Fabrik, verstehen sich Techniker und Maschine da? „Wir arbeiten in rauen Umgebungen auch mit Headsets. Damit machen wir gute Erfahrungen“, berichtet Schwärzler stolz und notiert sich noch während des Interviews eine Aufgabe für nach der Hannover Messe, ganz klassisch mit dem Kugelschreiber: „Dem Sepp Hochreiter muss ich noch schreiben, dass wir an der sprechenden Maschine schon arbeiten.“

Vorausschauende Datenbrille

In Bielefeld forschen Wissenschaftler nicht an Sprachsteuerungen, sondern an einer neuen Generation von Datenbrillen – eine vorausschauende Lösung ist das Ziel. „Das Besondere an unserem Assistenzsystem ist, dass es nicht einfach Handlungsanweisungen vorgibt. Es kennt die nutzende Person, erfasst die aktuelle Situation, erkennt also eigenständig Objekte und Handlungsschritte und richtet seine Unterstützung danach aus“, erklärt Thomas Schack. Er koordiniert das Projekt Avikom. Seine Gruppe gehört zur Fakultät für Psychologie und Sportwissenschaft und ist am Exzellenzcluster Kognitive Interaktionstechnologie CITEC beteiligt.

Joachim, Waßmuth, FH, Bielefeld © FH Bielefeld

"Beschäftigte in lauten Produktionszonen können sich über das Gerät miteinander unterhalten, ohne dass der Umgebungslärm stört."
Joachim Waßmuth, Professor Institut für Systemdynamik und Mechatronik, FH Bielefeld

Avikom steht für: Audiovisuelle Unterstützung durch ein kognitives und mobiles Assistenzsystem. Damit sich das System auf die jeweiligen Nutzerinnen und Nutzer einstellen kann, werden die Fertigkeiten der Beschäftigten vorab über eine softwarebasierte Diagnostik erfasst. Die Software soll so vorausschauend diagnostizieren, welche Schwierigkeiten die Personen bei unterschiedlichen Arbeitsprozessen haben. Auf dieser Basis können über das System individualisierte Hinweise gegeben werden, um die Beschäftigten gezielt und motivierend zu unterstützen. „Damit bietet die Avikom-Brille eine ausgezeichnete Möglichkeit, technische Unterstützung an die Bedürfnisse der Beschäftigten individuell anzupassen“, erklärt Günter Maier von der Fakultät für Psychologie und Sportwissenschaft. Er ist mit seiner Forschungsgruppe „Arbeits- und Organisationspsychologie“ an dem Projekt beteiligt. Die Forscher kombinieren Text und Audio. Über einen Kopfhörer und Mikrofon kann das Avikom-System ähnlich wie ein Navigationssystem mit der Nutzerin oder dem Nutzer sprechen. „Auch können sich Beschäftigte in lauten Produktionszonen über das Gerät miteinander unterhalten, ohne dass sie der Umgebungslärm stört“, versichert Prof. Dr. Joachim Waßmuth vom Institut für Systemdynamik und Mechatronik (ISyM) der Fachhochschule Bielefeld. „Dafür ist das System mit einem intelligenten Verfahren zur Störschallunterdrückung ausgestattet.“

Verwandte tecfindr-Einträge