Er darf Hochreiters Idee, Modell in den nächsten Wochen zu einem Produkt formen. Ortig und sein 100-köpfiges Team arbeiten seit Wochen im „Stealth Mode“ an der LLM-Antwort aus Europa. „Wir wollen in die Industrie und viele Anwendungen in der Industrie sind nicht auf die ganz großen Datensätze angewiesen. Deshalb ist die Skalierung so wichtig“, erklärt Ortig. Die Redaktion erfuhr, dass deutsche Industriekonzerne schon Termine in Linz vereinbaren. „Wir erleben generell in der Industrie einen iPhone-Effekt, wenn es um KI geht. Die große Herausforderung wird sein, XLSTM in ein Produkt, in ein Ökosystem zu bringen. Microsoft hat da Maßstäbe gesetzt“, erklärt Boris Scharinger, AI Scout von Siemens Digital Industries.
Zur Technik: XLSTM soll die europäische Alternative zur Transformer-Architektur, die die Large Language Models wie ChatGPT so mächtig machen, werden. Der LSTM-Algorithmus ist heute in der Industrie weit verbreitet – viele kleine, aber auch große Industrieunternehmen nutzen den Algorithmus, um ihre Produktion zu optimieren. „XLSTM wird noch mächtiger werden“, prophezeien Insider, die schon einen Blick auf die Architektur werfen konnten. Die Community wartet auf das erste Paper – es wird kommen, aber der Fokus in Linz liegt momentan auf einem Produkt und einem Patentverfahren. XLSTM ist LSTM plus exponentielles Gating, das durch Vektorisierung verbessert wird, raunen manche Beobachter. XLSTM ist ein autoregressiver Ansatz, kann abstrahieren und Hochreiter will es in Europa halten. „XLSTM ist schneller, wir brauchen weniger Speicher und hat eine lineare Runtime.“ Dazu kommt: XLSTM kann das nächste Wort immer besser vorhersagen. Das bedeutet eine Vereinfachung im Coding und in der Logik. Darüber hinaus verfügt die Technik aus Linz über einen Speicher-Part und einen semantischen Part. Dank dieser Kombination kann XLSTM bessere Schlussfolgerungen aufstellen, erklärt Hochreiter im Gespräch.