Kollaborative Robotik

Cobots und die Schwachstelle Sicherheit

In der kollaborativen Fertigung arbeiten Mensch und Maschine quasi Hand-in-Hand. Im Gegensatz zur Industrierobotik ist es nicht das Ziel mit Vollautomatisierung den Menschen zu ersetzen. Zudem stellen sich bei der Sicherheit andere Fragen.

Von
Salzburg Research Fronius Robotik Kollaborative Roboter Forschung

„Einerseits gibt es zwar coole Cobots, andererseits bleibt die Frage der Sicherheit beim Betreiber hängen.“ Felix Strohmeier Leiter der Forschungsgruppe „Internet of Things“ bei Salzburg Research

Gerade für die Anforderungen von KMU eignen sich Cobots, da sie sich bei geringen Losgrößen rasch auf verschiede Arbeitsabläufe anpassen lassen. Die Annahme, dass ein Cobot vollkommen autonom Arbeiten verrichtet, zielt jedoch in die falsche Richtung ab. Leichtbauroboter aus der Logik der klassischen Automatisierung heraus zu betrachten und auf kollaborative Anwendungsszenarien umzulegen, schafft ein trügerisches Bild. Felix Strohmeier leitet die Forschungsgruppe „Internet of Things“ bei Salzburg Research und ist Themenfeldleiter für den Bereich "Kollaborative Fertigung" im Digitalen Transferzentrum Salzburg (DTZ) und weiß welche Themen den Einsatz in der Praxis beeinflussen: „In der kollaborativen Fertigung entlastet der Cobot den Menschen bei verschiedenen Tätigkeiten. Aus arbeitsmedizinischen Gründen oder weil der Cobot – als Werkzeug des Menschen – den Arbeitsschritt besser erledigt.“ Integrierte Sicherheitsfunktionen erlauben die Zusammenarbeit von Werker und Roboter ohne physische Trenneinrichtungen.

Universeller Einsatz mit hohem Aufwand

In den nächsten 10 Jahren werden kollaborative Roboter auch außerhalb von Fabriken zum Einsatz kommen steht für Strohmeier fest: „Man wird ihn auf Baustellen und in anderen Einsatzgebieten antreffen. In der Straßenerhaltung oder Landwirtschaft existieren schon Produkte, die kollaborativ arbeiten oder zumindest automatisiert fahren. Es ist bloß eine Frage der Sicherheit.“

Und Sicherheit ist auch im Fertigungsumfeld die große Unbekannte. „Einerseits gibt es zwar coole Cobots, andererseits bleibt die Frage der Sicherheit beim Betreiber hängen“, sagt der Experte. Da Roboter in der Regel nicht als fertige Anwendungen verkauft werden, sondern als unvollständige Maschinen, und der Betreiber oder Integrator erst die Anwendung umsetzt, muss er die Verantwortung dafür übernehmen. Wenn beispielsweise ein Werkstück oder ein Prozess an sich gefährlich ist, bietet sich für kollaborative Anwendungen kaum Gestaltungsspielraum, doch gerade hier wäre die Unterstützung für den Menschen hilfreich. „Die Cobot-Hersteller schlagen alle möglichen Anwendungsszenarien vor, in der Praxis lassen sich diese aber nicht so einfach umsetzten,“ so Strohmeier und nennt ein Beispiel: „Bei der Firma Fronius hat man einen kollaborativen Roboter angeschafft, der letztendlich erst wieder nur in einer Einhausung zum Einsatz kam, mit einer Aussparung zur Übergabe des Materials.“

White Paper zum Thema

Der Forschungsleiter für kollaborative Fertigung kennt auch die andere Perspektive: „Hersteller haben damit zu kämpfen, dass ein Cobot universell einsetzbar sein muss, weil das Arbeitsgerät so konzipiert ist. Die Maschinenrichtlinie schreibt jedoch vor, dass bei Anwendungen die Bewegungen bis ins letzte Detail durchdefiniert sind. Bei Änderung im Tages- oder Wochenrhythmus wäre jedes Mal eine neue Sicherheitsbewertung, Risikobewertung und gegebenenfalls eine Abnahme durch Sicherheitsbeauftragte vom TÜV notwendig, erklärt Strohmeier. Dadurch ist die Flexibilität natürlich sehr schnell eingeschränkt durch die langen Prozesse, die damit einhergehen. Entsprechend werden neue Normen und Standards laufend weiterentwickelt.

Intuitive Zusammenarbeit braucht künstliche Intelligenz

Die nahtlose und sichere Kollaboration von Mensch und Roboter wird noch einiges an Entwicklungsaufwand fordern, das steht für Strohmeier fest. Je mehr und enger Mensch und Roboter zusammenarbeiten, die Schutzzäune fallen, und künstliche Intelligenz ins Spiel kommt, desto wichtiger wird Roboterethik. „Bisher haben wir über eindeutig programmierte Maschinen gesprochen. Durch den Einsatz von KI werden erlernte Muster in neuer Umgebung angewandt, wodurch robotische Handlungen nicht immer vorhersehbar sind. Dafür braucht es ethische Grundprinzipien“, so Strohmeier.