Predictive Analytics : Wie Data Science die Qualität von Walzprodukten verbessert
Am Produktionsstandort der AMAG Austria Metall AG in Ranshofen werden aus Primär- und Sekundäraluminium hochwertige Aluminiumgusslegierungen sowie Bänder, Bleche und Platten hergestellt. Speziell der Produktionsprozess für Produkte der Luftfahrtindustrie muss höchste Qualitätsstandards erfüllen. Daher entschied sich der Experte für Guss- und Walzprodukte mittels Data Science und Predictive Analytics den Prozess zur Herstellung von Luftfahrtwerkstoffen zu optimieren. Auf Basis gesammelter Daten werden Analysen der Prozessdaten durchgeführt. Data Science Methoden finden anschließend heraus, welche Produktionsschritte Einfluss auf die Qualität der erzeugten Produkte haben bzw. welche nicht.
Blick in die Blackbox
Bei AMAG weiß man, bis zum fertigen Erzeugnis spielen eine Unmenge an Einflussfaktoren zusammen. Darin lag auch eine der größten Herausforderungen im Pilotprojekt, denn die Überprüfung auf Fehler ist erst ganz am Ende des Prozesses möglich. Daher mussten AMAG und Cubido einen Weg finden, um schädliche Produktionsbedingungen bereits zu identifiziert, bevor Ausschuss produziert wird. Mit Hilfe statistischer Analysen werden aus generierten Daten Änderungen im Rohmaterialeinsatz oder Anpassungen von Prozessparametern abgeleitet. Durch die Optimierung dieser Einflussgrößen lässt sich der Ausschuss verringern und Kosten einsparen.
Enormes Einsparungspotenzial
Das Einsparungspotenzial will Wolfgang Ennikl, Geschäftsführer bei Cubido, nicht beziffern; nur so viel verrät er: „Wenn man aber schon mal einen mehrere Meter langen, zig Tonnen schweren Barren in Natura gesehen hat, dann weiß man, dass eine solche Produktion kein billiges Unterfangen ist und Optimierungen einen enormen finanziellen Hebel haben.“ Neben der Korrelation von Daten unterschiedlichster Herkunft war die korrekte Transformation von Sensordaten eine besondere Herausforderung. An mehreren Stellen des vielstufigen Produktionsprozesses werden die Produkte gekürzt und verformt, sodass die Positionen entsprechend komplex transformiert werden mussten.
Die richtigen Fragen gestellt
Das Ergebnis eines jeden IoT-Projektes kann nur so gut sein, wie die Datenbasis. Ennikl weiß um die Stolperfallen bei Data Science-Projekten: „In der Euphorie laufender Digitalisierungs- und IoT-Projekte werden Maschinen vernetzt, Prozesse digitalisiert und unzählige Daten angehäuft. Aber Daten sammeln nur um des Sammelns Willen ist weder sinnvoll noch zielführend.“ Für erfolgreiche Projekte braucht es deshalb die richtigen Daten, in der richtigen Qualität und der richtigen Granularität. Erst dann kann die Information, also das Wissen, aus den Daten gehoben werden. Am Anfang des Pilotprojektes stand die Formulierung von konkreten Fragen, die mit Hilfe der Daten beantwortet werden sollten. Denn Ziel war es, bessere, validere Grundlagen für präzisere Geschäftsentscheidungen zu erhalten. Neben der Planungssicherheit sollte die Qualität, Zuverlässigkeit und Granularität von Prognosen und Planungen erhöht werden.
Von Big Data zu Smart Data
Cubido übernahm das Software-Engineering zur Anbindung von Maschinen sowie Data-Engineering, um die gesammelten Daten aufzubereiten. Data Scientisten setzten anschließend auf der Datenbasis auf, um die erforderlichen Erkenntnisse für die Endbenutzer konsumierbar zu machen. „Das Projekt ist von einer sehr engen Zusammenarbeit zwischen dem AMAG- und dem Cubido-Team geprägt. Schließlich müssen wir verstehen, wie der Prozess bei unserem Auftraggeber funktioniert und welche Bedeutung die Daten haben. Dies bedeutet natürlich sehr viele Feedbackschleifen und kann als Lernprozess (durchaus für beide Seiten) betrachtet werden,“ so Ennikl. Ohne die Experten aus den Fachabteilungen und der IT-Abteilung der AMAG wäre das Projekt nicht realisierbar gewesen. Ennikl ist überzeugt: „Erst mit dem Wissen aus diesen beiden Welten ließ sich das Datenpotenzial heben.“
Der technische Lösungsansatz
Der Technologie-Stack von Cubido basiert größtenteils auf Microsoft Azure. Die Prozess-Daten werden über einen Edge-PC abgegriffen und dann via IoT-Hub und Stream Analytics in Data Lakes abgelegt. Die Data Engineering- und Data Science-Teams haben die Daten anschließend mittels Data Bricks verarbeitet. Dashboards zur Visualisierung von Analysen wurden teils direkt in Data Bricks sowie in PowerBI implementiert. Das Umsetzungsteam von Cubido bestand aus jeweils zwei Software Architects, Data Engineers und Data Scientists sowie einem Projektleiter.