Fertigungsrobotik : Die Maschinenflüsterer

Neuron Soundware / T-Systems Audiodaten-Analyse
© Neuron Soundware / T-Systems

Die „Maschinenflüsterer“ von Neuron soundware beteiligen sich an einem Projekt von T-Systems im Aachener Center Connected Industry (CCI), um zu demonstrieren, wie mobile 4-G-Kommunikation und der neue 5-G-Kommunikationsstandard im industriellen Umfeld genutzt werden können. Neuron soundware ist auf die Audiodaten-Analyse von Industrieanlagen spezialisiert. In diesem Fall handelt es sich um eine Lösung zur Erkennung von Abweichungen und zur vorausschauenden Wartung von Industrierobotern. Mittels Klanganalyse und künstlicher Intelligenz überprüft Neuron soundware in Echtzeit abweichendes Verhalten der Roboter während Arbeitsprozessen.

Diese Erkennung von Abweichungen ist der erste Schritt zur Digitalisierung der industriellen, vorausschauenden Wartung (Predictive Maintainance). Die Analyse kann zusätzlich mit einer AR-Brille verfolgt werden. In diesem Video wird gezeigt, wie eine solche Smart-Eye-Erkennung aussieht:

Enormes Potenzial von Audiodaten in der Industrie

Das Ergebnis des Projekts ist eine gemeinsame Demonstration, die Teil des 5G-Netzes der Telekom am Campus der RWTH Aachen ist. Besucher*innen können dort die Anwendung industrieller Demo-Elemente sehen wie Industrieroboter, Hard- und Software zur Klanganalyse, Plattformen im IoT, AR- und VR-Brillen sowie Anwendungen und Kommunikationsschnittstellen. Neuron soundware stellt für das Projekt die Erfassung und Verarbeitung von Audiodaten aus dem Produktionsprozess sicher. Mithilfe von Algorithmen der Künstlichen Intelligenz werden Klangabweichungen erkannt, wodurch Hinweise auf spätere mögliche Defekte an der Maschine angezeigt werden.

KI erkennt Roboterfehler

Für einen digitalisierten Produktionsprozess mit modernster, automatisierter Wartung in Echtzeit kommt die Neuron soundwares nBox zum Einsatz, ein IoT-Gerät das über zwei piezoelektrische Schallsensoren, die Bewegungen und den Zustand des Roboters überwacht. Diese Daten werden direkt in der Anlage verarbeitet (“edge computing”). Die Algorithmen für maschinelles Lernen analysieren akustische Muster in Echtzeit und erkennen so frühzeitig den Verschleiß oder eine Störung des Roboters. Dies kann ungeplante Ausfallzeiten im Produktionsprozess erheblich minimieren.

Die Künstliche Intelligenz analysiert die Bewegungen des Roboterarms und erkennt ein ungewöhnliches Verhalten. Denn eine falsche Bewegung des Roboterarms in der Fertigungsstraße kann teure Komponenten beschädigen. Dank der Verhinderung einer solchen Störung soll die Fertigung reibungsloser ablaufen und unnötige Kosten einsparen. In diesem Fall verwenden die Projektpartner zusätzlich eine AR-Brille, um Abweichungen vom normalen und erwarteten Zustand des Roboterarms zu veranschaulichen. Die Datenübertragung zwischen dem Edge-Gerät und den Überwachungssystemen erfolgt über das 5G-CCI-Campus-Netzwerk. Während der Kontrolle wird die Maschine automatisch von der VR-Brille erkannt und die entsprechenden Daten werden auf dem Bildschirm angezeigt.