Kollaborative Roboter : Sieben Irrtümer bei Mensch-Roboter-Kollaboration
Die Sicherung von Mensch und Roboter (MRK) basiert auf Schutzregeln oder aus einer Kombination verschiedener Grundprinzipien. Dazu gehört zum Beispiel ein sogenannter sicherheitsgerichteter, überwachter Halt. Das heißt, der Roboter stoppt, wenn ein Mitarbeiter den gemeinsamen Arbeitsbereich betritt und fährt bei Bedarf weiter, wenn der Mitarbeiter den Bereich wieder verlassen hat. Des Weiteren soll über eine Geschwindigkeits- und Abstandsüberwachung der Kontakt zwischen dem Mitarbeiter und dem sich in der Bewegung befindlichen Roboter verhindert werden. Kontaktkräfte sind zwischen Mensch und Robotersystem zwar per Kraft- und Druckbegrenzung möglich, werden aber auf ein ungefährliches Maß begrenzt. Hierzu grassieren jedoch immer noch viele Irrtümer. Sieben davon hat Factory für Sie aufgedeckt.
1. Irrtum: Jede Anwendung ist für MRK geeignet
Gerade bei schnellen Prozessen und dem Handhaben von schweren Lasten sind der MRK nach wie vor Grenzen gesetzt.
Die Leistungsfähigkeit des Steuerungssystems und die funktionalen Fähigkeiten des MRK-Systems sind wichtige Faktoren. Daher gibt es am Markt auch große preisliche Unterschiede. Die richtige MRK-Roboterauswahl ist der erste entscheidende Schritt für die Funktionsfähigkeit und Sicherheit einer Applikation. „Dies gilt, wenn man zum Beispiel an schnelle Prozesse oder das Handhaben von schweren Lasten denkt“, sagt Thomas Müller, zertifizierter Sicherheitsexperte bei Festo. „Hier sind der Mensch-Roboter-Kollaboration deutliche Grenzen gesetzt, auch wenn um das Thema gerade ein unheimlicher Hype gemacht wird.“
2. Irrtum: Sensoren geben Auskunft über die Sicherheit
Es hält sich der Irrglauben, dass jeder Roboter mit einem Sensor absolut sicher gemacht werden kann.
„Das ist falsch, denn nicht jeder Roboter qualifiziert sich für die Mensch-Roboter-Kollaboration“, erklärt Festo-Sicherheitsmann Thomas Müller. „Meist werden sicherheitsrelevante Grundvoraussetzungen nicht erfüllt, wie etwa eine entsprechende Geschwindigkeit, Kraft oder Personenerkennung.“ Die konstruktive Ausführung der am Frontend montierten Einheiten ist ebenfalls eine potentielle Gefahrenstelle, obwohl der Roboter selbst durchaus „safe“ sein kann.
3. Irrtum: MRK-Roboter können alle das Gleiche
Geschwindigkeiten, Beschleunigungen, mögliche Kräfte und Momente sind nicht mit Standard-Industrierobotern gleichzusetzen.
MRK-Roboter sind erheblich leistungsreduziert. Die Erfahrung der Edag Production Solutions mit durchgeführten MRK-Applikationen zeigt, dass vielfach die Grenzen der MRK-Applikationen unterschätzt werden. Durch sicherheitstechnische Anforderungen werden diese durch die Applikationen noch weiter reduziert. Demnach können sie mit den Geschwindigkeiten ihrer Standard-Industriekollegen nicht mithalten. Damit werden im MRK-Betrieb sehr häufig die Taktzeitvorgaben nicht erfüllt.
4. Irrtum: Es herrscht Freude über den maschinellen Arbeitskollegen
Die psychologische Wirkung wird oft noch unterschätzt: Das „M“ in „MRK“ gerne vernachlässigt. Damit ist der Mensch gemeint, der an der Maschine arbeitet.
Neben der technischen Sicherheit ist die psychologische Wirkung auf die betroffenen Mitarbeiter nicht zu unterschätzen. Diese Tatsache muss daher rechtzeitig konzeptionell berücksichtigt werden. „Maschinenbauer und Roboterprogrammierer beherrschen die Technik ‚hinter dem Zaun‘, aber können sich noch nicht ausreichend in die Bedürfnisse und Erwartungen der Bediener hineinversetzen, wenn eine Zusammenarbeit geplant wird“, erklärt Andreas Oberweger, Leiter Kompetenzzentrum Industrie 4.0 TÜV Austria. Neben der Einbindung betroffener Mitarbeiter sollten die Applikationen so gestaltet werden, dass Bewegungen und Aktionen für die Mitarbeiter vorhersehbar sind. Visualisierungen oder spezielle Signalbewegungen vor der eigentlichen MRK-Bewegung erhöhen bei den beteiligten Mitarbeitern die Akzeptanz.
5. Irrtum: Sichere Roboter garantieren sichere Applikationen
Das größte Missverständnis ist, dass ein sicheres Produkt bereits zu einer sichern Applikation führt.
Ein Produkt, das seitens des Herstellers einige Sicherheitsmerkmale wie zum Beispiel die Eignung für den kollaborativen Betrieb aufweist oder den Nachweis liefert, dass die Steuerung eine gewisse Qualität erfüllt, bedeutet noch lange nicht, dass dieses Produkt auch sicher verwendet werden kann. „Es muss die Anwendung rund um das Produkt durch den Systemintegrator oder den Betreiber sicher gestaltet werden“, sagt Oberweger. „Erst dann wird aus dem Produkt eine sichere Anwendung.“
6. Irrtum: Einmal sicher, immer sicher
Ein einmal als sicher eingestufter MRK-Arbeitsplatz hat nur eine beschränkte Gültigkeit.
Insbesondere bei MRK können schon kleine Veränderungen der Arbeitsumgebung, Bewegungsbahnen und Abläufe dazu führen, dass die einmal hergestellte Sicherheit eingeschränkt oder gänzlich verloren geht. Das heißt, die Sicherheit am Arbeitsplatz muss kontinuierlich durch ein Sicherheitsmanagement gewährleistet sein. Hier liegt die Verantwortung beim Betreiber. „Das kann man rechtlich in Eigenverantwortung machen, aber sollte dann zu einer Prüfstelle gehen, um das durch sie beurteilen und zertifizieren zu lassen“, so Oberweger.
7. Irrtum: MRK sind auf Leichtbauroboter beschränkt
Gegenwärtig glaubt der Markt, dass kollaborierende Anwendungen auf Leichtbauroboter beschränkt sind. Diese könnten aber auch zukünftig im Schwerlastbereich eine große Bedeutung erlangen.
Hierzu fehlen im Moment noch die Angebote der Industrie. Jedoch eines ist gewiss: Das Potenzial für die Zukunft wäre immens! „Kollaborierenden Anwendungen werden erst mit einem angeschlossenen echten Assistenzsystem richtig interessant“, so Oberweger vom TÜV Austria. Die MRK könnte somit auch im Schwerlastbereich eine große Bedeutung erlangen, wenn man die Betriebsart der Handführung weiter ausbauen würde. Damit werden die Grenzen des Leichtbauroboters verlassen. „Was wir aber noch nicht haben und wo wir aus meiner Sicht hinkommen müssen, ist die absolute Verhinderung der Kollision Mensch mit Roboter. Dazu fehlen uns tatsächlich noch Sensoren, die schnell und zuverlässig Bewegungen erkennen und daraus Reaktionen ableiten“, sagt Oberweger. Im Wesentlichen geht es dabei um die Qualität der Bilderkennung bzw. der sicherheitsgerichteten Software. Also kein Plug & Play wie in der Heimelektronik. Dies wird die Herausforderung der nächsten drei Jahre werden. Das heißt, ein Mensch bewegt sich auf einen Roboter bzw. Gefahrenbereich zu und der Roboter kann jederzeit rechtzeitig die unkontrollierten Bewegungen des Menschen richtig einschätzen. Das ist ein wichtiges Aufgabenfeld für Künstliche Intelligenz (KI) bzw. der kognitiven Robotik.