Robotik

Gelingt Kuka, Schunk und Roboception der kollaborative Griff in die Kiste?

Wie lassen sich kollaborative Handhabungsszenarien in nicht-strukturierten Umgebungen realisieren? Dieser Frage ist Schunk in Kooperation mit Kuka und Roboception nachgegangen.

Nachdem der rc_visard von Roboception die optimalen Greifpunkte eines unsortiert abgelegten Werkstücks bestimmt hat, entnimmt der Kuka Cobot mit dem Schunk Co-act Greifer das Teil und legt es voll automatisiert in die fiktive Maschine ein. Dabei kann jederzeit ein Werker in den laufenden Prozess eingreifen. 

In einer Technologiestudie zeigen Schunk, Kuka und Roboception, wie der Griff in die Kiste im kollaborativen Bereich einfach, schnell und effizient gelingen kann. Die exemplarische Aufgabe ist realitätsnah gestaltet: Unsortierte Metallteile sollen mittels Cobot aus einer Kiste gegriffen, in eine Schleifmaschine eingelegt und nach der Bearbeitung passgenau abgelegt werden. Parallel sollen Werker im laufenden Betrieb die Möglichkeit haben, Transportboxen oder einzelne Teile manuell zuzuführen, zu verschieben und zu entnehmen. Die Studie kombiniert also den Griff in die Kiste mit dem Aspekt der Mensch-Roboter-Kollaboration (MRK) und nutzt dazu das Zusammenspiel unterschiedlicher Benchmark-Technologien aus Robotik, Greiftechnik und Bilderkennung.

Wie der Vorgang abläuft

Über ein CAD-basiertes Matching erfasst das passive Stereokamerasystem rc_visard von Roboception die unsortierten Werkstücke. Der weltweit erste 3D-Sensor, der Robotern sowohl eine 3D-Messung, als auch eine Positionierung im Raum ermöglicht, verarbeitet unmittelbar im Kamerasystem vollaufgelöste Tiefenbilder in weniger als einer Sekunde. Er ermittelt daraus die jeweils optimalen Greifpunkte und übermittelt diese ohne Einsatz eines externen PCs unmittelbar an einen kollaborationsfähigen Roboter von Kuka. Neben dem Kamerabild, liefert der Sensor ein Tiefenbild, ein Genauigkeitsbild und ein Konfidenzbild. Letzteres dient als Maß für das Vertrauen in die Tiefenmesswerte, das beim Einsatz von Methoden der Künstlichen Intelligenz (KI) als Basis für die Entscheidungen herangezogen werden kann. Da das passive Kamerasystem seine Umgebung sowohl bei natürlichem Licht, als auch bei künstlicher Beleuchtung in unterschiedlichen Arbeitsumgebungen des Menschen erkennt, sind vielfältige Einsatzumgebungen möglich.

Schunk, Cobot, Kuka © Schunk

Die Applikation kann im Handumdrehen programmiert und an neue Arbeitsumgebungen angepasst werden.

White Paper zum Thema

Ausgestattet mit Schunk Co-act Greifer

Das Frontend des Cobots ist mit einem anwendungsspezifisch entwickelten Schunk Co-act Greifer ausgestattet, der die Anforderungen der EN ISO 10218-1/-2 sowie der ISO/TS 15066 erfüllt und eine gefahrlose Interaktion mit dem Menschen ermöglicht. Die komplette Regelungs- und Leistungselektronik ist im Innern des Greifers verbaut, so dass dieser keinerlei Platz im Schaltschrank beansprucht. Sowohl die Schnittstelle als auch die Abmessungen und Störradien wurden von Schunk individuell an die Applikation angepasst. 

Intuitive Roboterprogrammierung

Über die Handführung des Cobots lassen sich neue Ablagepositionen sehr einfach und intuitiv programmieren. Bei ungeplanten Unterbrechungen merkt sich der Roboter von Kuka jede ausgeführte Bewegung oder Tätigkeit und kann ohne erneutes Anlernen die Arbeit wieder aufnehmen. Da die Lösung sowohl sensorseitig, als auch roboterseitig einfach und mit geringem Trainingsaufwand zu realisieren ist, eignet sie sich für unterschiedlichste Einsatzzwecke und Nutzerkreise. Es sind weder umfassende Kenntnisse der Robotik, noch der Bildverarbeitung erforderlich. Damit sinkt der Integrationsaufwand. Bei Bedarf kann das Kamerasystem modular um zusätzliche Projektoren und um Module zum neuronalen Lernen erweitert werden. Es lässt sich wahlweise stationär oder alternativ mobil auf dem Cobot betreiben, sodass auch flexible Greifszenarien auf mobilen Plattformen möglich sind.

Verwandte tecfindr-Einträge