Künstliche Intelligenz : Kann Industrial AI seine Versprechen halten?

Aktive Mitgliedschaft erforderlich
Das WEKA PRIME Digital-Jahresabo gewährt Ihnen exklusive Vorteile. Jetzt WEKA PRIME Mitglied werden!

Sie haben bereits eine PRIME Mitgliedschaft?
Bitte melden Sie sich hier an.
Ernst Dieter Dickmanns kennen die meisten Österreicherinnen und Österreicher sicher nicht. Dickmanns lebt in einem beschaulichen Vorort von München – Jägerzaun, gepflegte Rasenfläche und seine Frau serviert Plätzchen zum Interview. Er war von 1975 bis 2001 Professor an der Universität der Bundeswehr. Dickmanns gilt als Vater des autonomen Fahrens – alle die heute an der Künstlichen Intelligenz (KI) für das Auto oder den Lkw schrauben, referieren gerne auf den Professor aus Deutschland. In den 1990er Jahren gelangte er selbstfahrend mit einer Mercedes S-Klasse von München ins dänische Odense. Vor wenigen Tagen erhielt er dafür das Bundesverdienstkreuz – Deutschlands höchste zivile Auszeichnung. Heute fahren wir immer noch nicht autonom und gleichzeitig rufen viele 2023 als das Jahr der Künstlichen Intelligenz aus. Alles nur wegen ChatGPT?
Lesen Sie auch: Die besten AI-Projekte der Industrie
Der Chefredakteur des deutschen Handelsblatts, Sebastian Matthes fasste die Stimmung in einem Kommentar zusammen. „Seit Jahren lautet die Erzählung über Künstliche Intelligenz so: Erst würden immer intelligentere Roboter Tätigkeiten in Fabriken übernehmen, anschließend seien Lastwagenfahrer dran, weil die 40-Tonner autonom zwischen den Metropolen dieser Welt unterwegs sein werden (…) Und danach, irgendwann und auch nur vielleicht, sind die Wissensarbeiter an der Reihe. Weil eine KI ja eigentlich nicht kreativ sein kann.“ Unabhängig davon, wie man die aktuellen Large Language Models (LLMs) bewertet, hat die Industrie das Versprochene nicht geliefert?
Es brodelt
Die Gesellschaft ist aufgeregt. KI-Größen wie Gary Marcus oder Yann LeCun von Meta diskutieren in den sozialen Netzwerken tagtäglich über die Grenzen, die Dummheit, die Gefahr von AI (und speziell zu LLMs) und der DeepMind CEO Demis Hassabis erklärte in Time: „Wir kommen in eine Zeit, in der wir anfangen müssen, über die Trittbrettfahrer nachzudenken, oder über Leute, die zwar lesen [Code], aber nichts zu dieser Informationsbasis beitragen", sagt er. „Und das gilt auch für die Nationalstaaten“. Er lehnt es ab, die Staaten zu nennen, die er meint – „es ist ziemlich offensichtlich, wen man meinen könnte“ -, aber er deutet an, dass die Kultur der KI-Industrie, ihre Ergebnisse offen zu veröffentlichen, vielleicht bald ein Ende haben muss. Wird wie schon bei den Chips aus den USA auch bald KI-Software reguliert? Kommt es zur Trennung von Open Source und KI-Tools, wäre es fatal, wenn die Europäer keinen Zugang mehr hätten. Die Industrie hängt von den KI-Tools, von den Modellen und auch von der Wissenschaftsförderung der großen US-Tech-Konzerne ab. Stellen Sie sich vor, PyTorch, TensorFlow oder Rasa gäbe es morgen nicht mehr. Übertrieben? Vielleicht. Aber Open AI lässt in GPT-4 auch niemanden mehr reinschauen. „In Anbetracht des Wettbewerbsumfelds und der sicherheitstechnischen Auswirkungen großer Modelle wie GPT-4 enthält dieser Bericht keine weiteren Einzelheiten über die Architektur (einschließlich der Modellgröße), die Hardware, die Trainingsberechnung, die Datensatzkonstruktion, die Trainingsmethode oder Ähnliches“, heißt es in einem technischen Report.
In der KI-Welt brodelt es. Alte Gewissheiten werden in Frage gestellt. Die US-Konzerne spüren auch finanziellen Druck. Jobs werden gestrichen. Generative KI wird gehypt. Manche Beobachter befürchten schon ein Platzen der Blase – ist das eure KI, euer Modell oder nur eine API zu GPT?
Und die Industrie? Man probiert sich an ChatGPT und Co. Unternehmensberatungen wie Zühlke fassen die wichtigsten Anwendungsfälle großer Language Models für den Maschinenbau zusammen: Patentrecherche, Analyse von Stellenanzeigen oder Bereitstellung statistischer Antworten auf individuelle, in natürlicher Sprache formulierte Fragen zu IoT-Daten, um die Analysezeit zu reduzieren sind drei Beispiele. Klingt nicht sehr aufregend!? Auf der Festo „IO Conference“ erklärte ein Teilnehmer, er nutze die Power der generativen AI um seinen Code zu vereinfachen. Andere lassen sich in ROS Robotik-Programmierungen schreiben.
„Wenn ich wetten würden, dann auf Folgendes: Innovative Industrieunternehmen werden sich in Kooperation mit Forschungseinrichtungen verfügbare LLM’s (wie LLama von Meta oder Alpaca) finetunen auf ihre eigenen Daten und PoC’s laufen lassen. Von diesen werden viele scheitern, aber diejenigen die den PoC > MVP > Pathway schaffen haben ein geiles Industrieprodukt. Knowledge Bases und Multimodalität sind die Schlüssel. Und genau diese Idee probieren wir mit einem Digitalisierungspartner und einem Industrieunternehmen bald aus“, erklärt Franziskos Kyriakopoulos Gründer von 7LYTIX aus Linz.
Packed with AI
Generative KI, wie GPT oder das Tool DALL-E, werden auch die industrielle Produktentwicklung verändern – der Konstrukteur erhält Unterstützung von einer Intelligenz. Festo arbeitet schon seit einigen Jahren im Bereich reinforcement learning für die Fertigungsprozesse. Der nächste Schritt ist die Nutzung von generativen Algorithmen für die Produktentwicklung. OpenAI veröffentlichte unlängst 3D-Modelle für DALL-E. Die Herausforderung in der Industrie neben der 3D-Herausforderung: Die Produkte müssen sich bewegen können. Und Dr. Jan Seyler aus der Festo-Forschung stellt die provokante Frage: Can machines build machines? Er ist sicher: „Viele Aspekte des Engineerings können durch KI-Methodik unterstützt werden. Die Herausforderungen sind vor allem das semantische, funktionale Verständnis und eine genaue Simulation.“ Und der Festo CTO Ansgar Kriwet definierte auf einer Konferenz vereinfacht zusammengefasst die Zukunft eines Festo Produkts: A multipurpose hardware as a software defined product packed with AI. Er mahnte: Industrial AI / Industrie 4.0 sei auch ein Bildungsthema.
Auch das Unternehmen Monolith AI geht in Richtung generative AI. Der Ansatz der Briten: Jede durchgeführte Simulation entwickelt ein Modell weiter, denn die Macher setzen auf Echtzeitdaten. Das bedeutet, der Maschinenbau könnte sich zahlreiche Tests sparen. Zusätzlich macht die KI dem Entwickler basierend auf den Echtdaten Vorschläge zu seinem Produkt. Die Engländer haben ambitionierte Ziele: Bis 2026 soll die Produktentwicklungszeit von 100.000 Ingenieurinnen und Ingenieuren um 50 Prozent reduziert werden. Die Entwickler bringen schon Referenzen aus der Automobilindustrie mit. Denn wer bei den 24 Stunden-Rennen in Le Mans siegt, der hat nicht nur die besten Fahrer am Steuer, sondern auch das beste Auto und die beste Technologie im Hintergrund. Jota gewann die Rennserie 2020, 2021 und 2022. Für die Entwicklung des Gewinner-Autos Oreca 07 setzten die Ingenieure auf KI im Engineering und Testing. Die Verantwortlichen konnten die Tests im Windkanal um 80 Prozent reduzieren, denn sie nutzten die KI-Plattform von Monolith AI. Siemens integriert die Lösung bereits in sein Ökosystem.

„Anomalie-Erkennung allein ist zu wenig“
INTERVIEW
Markus Manz ist der Geschäftsführer vom SCCH Software Competence Center Hagenberg. Im Interview spricht er über die Möglichkeiten von Generativer AI für Produzenten und die Nachteile von AI-Lösungen, die ausgeräumt werden müssen.
INDUSTRIEMAGAZIN: In welchen Anwendungsbereichen entstehen gerade Industrial AI Lösungen in Österreich?
Manz: Aktuell entstehen in unterschiedlichen Anwendungsdomänen eine Vielzahl an AI-Lösungen in Österreich, die uns zukünftig im täglichen Leben unterstützen werden, die Inhaltsstoffe analysieren, um Prozesse hinsichtlich Nachhaltigkeit zu optimieren oder aber auch Leben retten können. Das SCCH arbeitet derzeit gemeinsam mit der Industrie beispielsweise daran, Ereignisse (Anomalien) auf Autobahnen zu erkennen, um vorzeitig vor Unfallgefahren warnen zu können. In der produzierenden Industrie wiederum werden Maschinen durch Einsatz von KI intelligenter und sind dadurch in der Lage besser Qualität von beispielsweise recyclefähigen Material zu liefern. Dadurch liefert die Industrie, gemeinsam mit dem SCCH auch einen wesentlichen Beitrag für dringende und nachhaltige Schlüsselthemen der Zukunft.
Wie kommen wir von einer Predictive Analytics hin zu einer vorausschauenden Prozessoptimierung?
Manz: Nach wie vor ist einer der Nachteile von AI, dass sie kaum oder gar nicht erklärt, warum oder wie sie zu Entscheidungen gekommen ist. Für Prediktive Analytics und der späteren Prozessoptimierung ist es aber notwendig zu Wissen, an welchen Schrauben man drehen muss für eine Optimierung. Die Anomalie Erkennung alleine ist zu wenig. Am SCCH verfolgen wir daher die Strategie, langjährige solide statistische Modelle als auch physikalische Eigenschaften mit AI zu verknüpfen, um Vorhersagen besser für den Menschen erklärbar und vor allem nachvollziehbar zu machen. Im besten Fall gibt die KI sogar mit, welche Parameter man verändern muss, um auf ein gewünschtes Optimierungsergebnis zu kommen. Somit werden komplexe Datenzusammenhänge aus Millionen von Datenpunkten einfach für den Menschen aufbereitet und verständlich gemacht.
Wie schätzten Sie generative AI für Industrieapplikationen ein?
Manz: Der Einsatz von generativer AI, also das zufällige Erzeugen neuer Daten, eröffnet der Industrie völlig neue Möglichkeiten und Denkweisen und bringt uns wieder einen großen Schritt nach vorne. Aufgrund der bereits hohen Qualität von Produkten treten Fehler kaum noch auf, können aber im Einzelnen trotzdem zu großen Problemen führen. Solche seltenen Fehler kann man nun mit generativer AI in hoher Qualität erzeugen, um daraus robuste AI-Vorhersagemodelle zu lernen. Ebenso können viel besser Szenarien simuliert werden, ohne dass dadurch Menschen in Gefahr kommen, beispielsweise herbeiführen von Überlastungen von Maschinen oder platzieren von Objekten auf Fahrbahnen.
Woran hapert es bei Industrial grade AI?
Manz: Um zuverlässige und robuste AI-Modelle zu lernen, so wie es die Industrie benötigt, sind sehr viele strukturierte Daten von hoher Qualität nötig, die aber meistens noch nicht vorhanden sind oder nicht in der Form vorliegen, wie sie später benötigt werden. Deswegen wird typischerweise der Großteil der Zeit dafür verwendet, Daten zu akquirieren, Daten zu generieren und in die richtige Form zu bringen. Diese Schritte zu automatisieren oder aber auch Modelle mit neuen Daten zu füttern, ohne dass sie wieder schlechter werden, ist eines der großen Herausforderungen, um Industrial Grade AI zu erreichen. Einer unserer Forschungsschwerpunkte am SCCH ist daher auch die Standardisierung und Zertifizierung solcher Abläufe, um hier der Industrie Sicherheit zu verschaffen.
ZUR PERSON
Markus Manz ist Geschäftsführer des SCCH Software Competence Center Hagenberg. Dank seiner Expertise in den Bereichen Data & Software Science zählt das SCCH Unternehmen wie Keba, Siemens, Stiwa oder Fronius zu seinen langjährigen Referenzkunden.

Entdecken Sie jetzt
- Lesen
- Videos
-
Podcasts
- DeepSeek bricht Open AI & Gemini Dominanz: Eine gute Nachricht für SAP (und die Industrie) | IM 05.02.2025
- Volkswagen: Chinesische Autohersteller wollen überzählige VW-Fabriken übernehmen | INDUSTRIEMAGAZIN 29.01.2025
- KTM setzt Rotstift an: Motorradproduktion im Ausland, Entlassungen, Mattighofen verkleinert |IM News 27.01.2025
Nicht nur für die Großen
Doch es müssen nicht immer die modernsten KI-Ansätze für die Industrie funktionieren. ABB hat einen Augemented Operator entwickelt. Er hilft Anlagenbedienern dabei, potenzielle Probleme mithilfe verfügbarer Daten und künstlicher Intelligenz zu erkennen, zu analysieren und zuverlässig zu lösen, um einen optimalen Betrieb zu gewährleisten. Dabei nutzt der Konzern den LSTM-Algorithmus, der vor 25 Jahren von Prof. Dr. Sepp Hochreiter (heute JKU Linz) erfunden wurde. Um festzustellen, ob etwas nicht stimmt, nutzt der Augmented Operator Deep-Learning-Modelle mit LSTM (Long Short-Term Memory)/rekurrenten neuronalen Netzen (RNN), konvolutionalen neuronalen Netzen (CNN) und Autoencodern, die mit Prozessdaten trainiert werden, um das Bedienpersonal bei der Überwachung zu unterstützen. Diese Modelle sind in der Lage, Abweichungen – das bedeutet Signaturen von potenziell unerwünschtem Verhalten im Prozess – so rechtzeitig zu erkennen, dass dem Bedienpersonal genügend Zeit bleibt, einzugreifen und eine Systemabschaltung zu verhindern.
Und KI muss nicht nur was für die ganz großen Firmen sein: Siegfried Kohlbacher führt einen mittelständischen Betrieb und ist mit seinem Team Marktführer im Bereich Schärfraumausstattung und Sägeproduktion. „Beim Richten erhält der Rücken der Bandsäge durch Walzen eine leicht konvexe Bogenform. Dadurch gleicht sich die Verlängerung der Verzahnungsseite während des Eingriffs der Säge aus. Auch durch Nachschleifen des Zahngrundes kommt es zur Verlängerung der Zahngrundlinie gegenüber dem Rücken. Trotz Automatisierung des Prozesses liegt die Fehlerquote bei 10 bis 15 Prozent. Für eine höhere Genauigkeit von weniger als 5 Prozent ist eine manuelle Bearbeitung durch Experten nötig – dies erfolgt durch so genannte Sägedoktoren“, erklärt Kohlbacher. Der Beruf des Sägendoktors stirbt allerdings aus. Die Aufgabe des Sägedoktors übernimmt jetzt ein KI-Modell, das zusammen mit Bosch Rexroth entwickelt wurde. Als technologische Basis für die KI-App dient die Bosch-Rexroth Automatisierungsplattform. Das Lernen der KI erfolgt während des Prozesses und minimiert somit bedarfsgerecht die Richtzeiten und die damit verbunden Ausfallzeiten in den Sägewerken.
MLOps sind ein Geschäftsmodell
Die Industrie fordert, wenn es um KI und Machine Learning geht, Zuverlässigkeit und Robustheit, und das 24 Stunden, sieben Tage die Woche. Boris Scharinger, Senior Innovation Manager bei Siemens Digital Industries, prägte für Siemens den Begriff: „Industrial-grade AI“, also „Industrie-Tauglichkeit“: Dieser Herausforderung müssen sich alle Anbieter stellen.
Im Siemens AI Lab in München berät ein Team Kunden zu KI-Strategie und Einsatzmöglichkeiten und forscht an robusten Algorithmen. Doch Scharinger mahnt, man könne nicht alles allein machen. Beispiele und Ansätze für gelungene Kooperationen gibt es viele: So werden KI-Algorithmen in Siemens-Werken einer Feuertaufe unterzogen, andere Start-ups setzen wiederum für ihre Lösungen auf die industrielle Siemens-Hardware. Zudem kann Siemens in einer Startup-Partnerschaft den MLOps-Part übernehmen. Das bedeutet: Die Münchener verteilen KI-Modelle in der Produktion, überwachen und aktualisieren diese bei Bedarf. Dass das weltweit reibungslos funktioniert, überzeugte jüngst Procter & Gamble.
Ohne MLOps-Strategie werden Maschinenbauer und Automatisierer kein nachhaltiges Geschäftsmodell entwickeln können. Schon heute tun sich viele Maschinenbauer schwer, ihren Kunden digitale Services anzubieten. Es mangelt an Fachkräften, an Ideen und der Infrastruktur. Es schlägt die Stunde der MLOps-Infrastruktur-Anbieter, Domänenwissen habenden Firmen – wie Siemens, Festo oder AWS. Ja, auch die US-Amerikaner drängen in den Markt.
Und Dickmanns? Er beobachtet die Entwicklungen vom Spielfeldrand aus, sein Sohn Dirk ist auch Informatiker, die Themen gehen im Hause Dickmanns also nicht aus. Wie kam er eigentlich zur KI? Der Professor erinnert sich dann immer an seine Jugend. Wenn er nach der Feldarbeit auf dem Kutschbock eischlief und das Pferd den Weg zurück zum Hof einschlug und ihn sicher dort ablieferte. Es gibt noch was zu tun im Bereich KI. Wir fangen gerade an – auch in der Industrie.
