Und was tut sich noch – abgesehen von Large Language Modellen? Viele Maschinenbauer pilgern dieser Tage nach Linz zu Johannes Brandstetter von der JKU Linz. Der Grund: Simulation und AI. Jeden Tag werden Tausende und Abertausende von Rechenstunden für die Modellierung von Turbulenzen, die Simulation von Flüssigkeits- oder Luftströmungen, die Wärmeübertragung in Materialien, Verkehrsströme und vieles mehr aufgewendet. Viele dieser Prozesse folgen ähnlichen Grundmustern, benötigen jedoch unterschiedliche und spezialisierte Software, um sie zu simulieren.
Noch schlimmer ist, dass für verschiedene Parametereinstellungen die kostspieligen Simulationen in voller Länge von Grund auf neu durchgeführt werden müssen. Deep-Learning-Techniken seien bereit, Modelle zu entwickeln, die Simulationen in Sekunden statt in Tagen oder gar Wochen durchführen würden, heißt es in Linz. Die Hardware ist in der Lage, hochauflösende Eingaben im Industriemaßstab zu verarbeiten, z. B. 3D-Netze oder Bilder, und schafft somit die Voraussetzungen für das Training von Deep-Learning-Modellen im großen Maßstab.
„Wir wollen Simulationen besser, schneller und generalistischer machen – Grundlagenmodelle für die Simulation entwickeln. Neuronale Netzwerke haben das Potenzial, Simulationen an allen Fronten zu verbessern. Wir wollen Lösungen zu Problem aufzeigen, die bisher undenkbar schienen. Zum Beispiel gibt es in der Industrie viele Prozesse, die nur sehr rudimentär nachgebildet werden können, beispielsweise bestimmte Schmelzprozesse“, erklärt Brandstetter. Aber der Industrie fehlen Daten? „Dieses Mal nicht. Glücklicherweise haben viele der oben genannten Prozesse eine gemeinsame zugrunde liegende Dynamik – ähnlich wie verschiedene Sprachen eine gemeinsame Struktur und Grammatik haben. Simulationsdaten gibt es im Überfluss, wir müssen nur die richtigen verwenden, und zwar viele davon.“