Der Niederländer Max Welling war viele Jahre bei Microsoft Research, ist einer der wenigen KI-Koryphäen in Europa, gründete jetzt eine eigene Firma mit der KI-Legende Geoffrey Hinton als Berater, sammelte Millionen ein, sie waren am CERN, in Amsterdam, forschen und lehren jetzt wieder in Linz und sind Teil von NXAI - das klingt nach Goldgräberstimmung.
Brandstetter: Ja, die Industrie wacht auf. Wir müssen mittlerweile Industrieprojekte absagen. Und interessanterweise kommen viele deutsche Maschinenbauer auf uns zu. Wir erleben den iPhone-Moment der KI in der Industrie und in Linz soll ein Leuchtturm für Industrial Grade AI entstehen.
Das liegt vielleicht auch an Ihrem Schwerpunktthema Simulation und KI.
Brandstetter: Ja, bestimmt. Jeden Tag werden Tausende und Abertausende von Rechenstunden für die Modellierung von Turbulenzen, die Simulation von Flüssigkeits- oder Luftströmungen, die Wärmeübertragung in Materialien, Verkehrsströme und vieles mehr aufgewendet. Viele dieser Prozesse folgen ähnlichen Grundmustern, benötigen jedoch unterschiedliche und spezialisierte Software, um sie zu simulieren. Noch schlimmer ist, dass für verschiedene Parametereinstellungen die kostspieligen Simulationen in voller Länge von Grund auf neu durchgeführt werden müssen. Deep-Learning-Techniken sind bereit, Modelle zu entwickeln, die Simulationen in Sekunden statt in Tagen oder gar Wochen durchführen. Die Hardware ist in der Lage, hochauflösende Eingaben im Industriemaßstab zu verarbeiten, z. B. 3D-Netze oder Bilder, und schafft somit die Voraussetzungen für das Training von Deep-Learning-Modellen in großem Maßstab.
Was wollen Sie erreichen?
Brandstetter: Wir wollen Simulationen besser, schneller und generalistischer machen – Grundlagenmodelle für die Simulation entwickeln. Neuronale Netzwerke haben das Potential Simulationen an allen Fronten zu verbessern. Wir wollen Lösungen zu Problem aufzeigen, die bisher undenkbar schienen. Zum Beispiel gibt es in der Industrie viele Prozesse, die nur sehr rudimentär nachgebildet werden können, beispielsweise bestimmte Schmelzprozesse.
Die Daten sind immer ein Problem.
Brandstetter: Dieses Mal nicht. Glücklicherweise haben viele der oben genannten Prozesse eine gemeinsame zugrunde liegende Dynamik - ähnlich wie verschiedene Sprachen eine gemeinsame Struktur und Grammatik haben. Simulationsdaten gibt es im Überfluss, wir müssen nur die richtigen verwenden, und zwar viele davon.
Wie kann ein neuronales Netz von einer Simulation lernen und dann die Qualität der Simulation auch noch verbessern?
Brandstetter: Wir generalisieren. Wir zeigen dem Netz viele Simulationen – nicht nur beispielsweise die Schmelzsimulation, sondern nutzen andere Simulationen aus anderen Domänen. Zum Glück ist die Natur durch ein paar Terme wie beispielsweise Konvektion und Diffusion beschreibbar, die sich immer und immer wieder in verschiedensten Domänen abwechseln. Damit steigt die Qualität über verschiedene Domänen hinweg.
Das ist die Theorie.
Brandstetter: Nein, es funktioniert. Bei Microsoft haben wir beispielsweise mit ClimaX ein flexibles und verallgemeinerbares Deep-Learning-Modell für die Wetter- und Klimawissenschaft entwickelt, das mit heterogenen Datensätzen trainiert werden kann. ClimaX ist das erste Grundlagenmodell für Wetter und Klima. Und vor einigen Wochen präsentierte Microsoft Aurora. Das ist das beste Wettermodell. Früher arbeitenden Forscher mit zwei Datensätzen für das Wetter. Heute kombinieren wir Petabytes an Daten für die Modelle. Wir müssen und können skalieren.
Ihr Lieblingswort.
Brandstetter: (lacht)