Mensch-Roboter-Kollaboration : IT-Security: Wie anfällig sind kollaborierende Roboter?

painting machine tending manufacturing rotating miling parts bj gear
© Universal Robots

Können Roboter verrücktspielen? Eine berechtigte Frage, wenn man bedenkt, dass die Bedrohungen durch Cyberangriffe im Produktionskontext stetig zunehmen. Ein sehr prominenter Fall ereignete sich im Jahre 2014, als Hacker innerhalb eines deutschen Stahlwerks einen Schmelzofen in einen Zustand brachten, der zu seiner Beschädigung führte, und gleichzeitig die Abschaltung des Ofens durch das lokale Personal unmöglich machte. Doch auch in Österreich registrierte das nationale Computer Emergency Response Team (CERT) seit 2013 jährlich über 10.000 IT-Sicherheitsvorfälle mit entstandenen Sicherheitsrisiken. „Sollte es einem Angreifer gelingen, direkt auf einen Roboter zuzugreifen, ist eine Vielzahl an Manipulationsszenarien möglich“, sagt Alexandra Markis, Innovation Project Manager bei der TÜV Austria. „Das beginnt bei ‚harmloser‘ Betriebsspionage durch das Auslesen sensibler Produktionsdaten und geht bis zum Überschreiben von Konfigurationsdaten bzw. Sicherheitsparameter.“ Auf diese Weise können ernsthafte Risiken für die persönliche Sicherheit des Mitarbeiters an einer Maschine entstehen. Die Risiken erhöhen sich natürlich immer dann, wenn er besonders eng mit der Maschine zusammenarbeitet - wie zum Beispiel bei der Mensch-Roboter-Kollaboration (MRK).

Realisierte IT-Sicherheitskonzepte sehr schwach

Laut dem White Paper zum Thema „Sicherheit in der Mensch-Roboter-Kollaboration” von TÜV Austria und Fraunhofer Austria Research sollen rund 40 Prozent der Unternehmen bereits mit externen Security-Partnern zusammenarbeiten, um die Sicherheit ihrer IT-Systeme zu verbessern. Obwohl einige Ansätze und Lösungen zur Sicherung von vernetzten Produktionssystemen in den produzierenden Unternehmen realisiert wurden, sind diese meist eher schwach oder gar nicht abgesichert. Das resultiert aus der Tatsache, dass die IT-Systeme einer Unternehmung von der IT des produzierenden Bereichs lange Zeit isoliert war und erst heute im Sinne von Industrie 4.0 oder IoT miteinander verschmelzen.

Nicht zuletzt sollen bis 2025 zwischen 25 und 50 Milliarden einzelner Geräte vernetzt werden. Dehalb ist an den entstehenden Schnittstellen ein Abstimmungsbedarf zwischen den einzelnen Bereichen dringend erforderlich. „Eine ganzheitliche Betrachtung von funktionaler Sicherheit und IT-Security künftiger Infrastrukturen im Industrie 4.0-Umfeld ist unumgänglich, um das volle Potenzial der Technologien heben zu können“, so Markis. Auf Grund der möglichen Zugriffsgefährdungen müssen nun Schutzziele formuliert werden, die für industrielle Maschinen und Cobots gelten wie auch für herkömmliche IT-Systeme. Diese Schutzziele werden in einer sogenannten CIA-Triade zusammengefasst. Das heißt, aus IT-Systemen dürfen nicht unautorisiert Informationen entnommen (Confidentiality), Daten innerhalb der Systeme nicht unautorisiert manipuliert (Integrity) und die Verfüg- und Nutzbarkeit des Systems nicht eingeschränkt werden (Availability).

Sicherheitstest auf Herz und Nieren

Welchen Einfluss die IT-Security auf die Cobots einer Mensch-Roboter-Kollaboration haben kann, wurde von IT-Security Experten des TÜV Austria in intensiven Sicherheitstests an der TU Wien Pilotfabrik überprüft. Für den Testlauf kamen bei der Gestaltung und Einrichtung des Produktionsnetzes (absichtlich) keine Sicherheitsmaßnahmen zum Einsatz. Da das gesamte Produktionssystem in einem großen Netz betrieben wurde und nicht in einzelne Zonen oder Bereiche unterteilt war, konnten alle Geräte und Maschinen (Server, kollaborierende Leichtbauroboter, Schraub- und Transportsysteme etc.) durch einen Brute-Force-Angriff im Netz sehr leicht lokalisiert werden. Der Zugriff auf die Konfiguration und Programmierung einzelner Geräte und Maschinen war unter anderem über Web-Oberflächen möglich, die nicht oder nur schwach passwortgeschützt waren. Darüber hinaus konnte der unverschlüsselte Datenverkehr im Klartext mitgelesen werden. Das heißt, ein Angreifer hätte hier die Logik des Informationsaustausches nicht nur sehr leicht nachvollziehen, sondern auch falsche bzw. manipulierte Informationen (zum Beispiel Aufträge oder Konfigurationsparameter) versenden können. Daraus folgt ein Fehlverhalten oder Ausfall von Robotern und Anlagen. Gleichzeitig können meist keine Rückschlüsse auf den Angreifer getroffen werden.

TÜV Austria, Fraunhofer Austria und Joanneum Research bauen in der TU Wien Industrie 4.0 Pilotfabrik in Aspern eine beispielhafte Mensch-Roboter-Kollaboration auf. Erkenntnisse liefern wertvolle Impulse für zukünftige industrielle Produktionsprozesse.

TÜV Austria empfiehlt integriertes Safety und Security-Konzept

TÜV Austria und Fraunhofer Austria empfehlen im Hinblick auf die identifizierten Security-Schwachstellen bei kollaborierenden Leichtbaurobotern ein integratives Vorgehen zur Risikobeurteilung einer Applikation. „Das integrierte Safety und Security-Konzept deckt in seiner Betrachtung sowohl mögliche Gefährdungen der funktionalen Sicherheit wie die der IT-Security ab und achtet im Besonderen darauf, wo ein IT-Security-Vorfall zu einer echten Bedrohung der funktionalen Sicherheit werden kann“, erklärt Markis. Die Basis dazu liefern die bewährte Vorgehensweise zur Beurteilung von Risiken der funktionalen Sicherheit gemäß ISO 12100 und die Anwendung von Best Practices zur Überprüfung und Sicherstellung der IT-Security in Anlehnung an IEC 62443.

Die Zielsetzung des Konzepts verfolgt im Grunde zwei Richtungen: Die Erklärung der CE-Konformität der Maschine hinsichtlich der funktionalen Sicherheit sowie die Einhaltung der drei Schutzziele (CIA-Triade) Verfügbarkeit, Integrität und Vertraulichkeit. Wobei noch nicht alle Cobot-Hersteller die wesentlichen Anforderungen an die IT-Sicherheit vernetzter Geräte aus der IEC 62443 erfüllen. „Die IEC 62443 befindet sich Großteils noch im Entwicklungsstadium und ist bei weitem noch nicht voll am Markt etabliert“, betont Markis. Die ersten Erkenntnisse zeigen aber bereits, welchen Stellenwert das Thema IT-Security zukünftig in der produzierenden Industrie für Betreiber, Hersteller und Integratoren einnehmen wird.“

Können Roboter verrückt spielen?

Die durchgeführten Security-Tests des TÜV Austria am Beispiel von kollaborativen Leichtbaurobotern konnten insgesamt klar herausstellen, dass Roboter, die zwar selbst über ein hohes Maß an funktionaler Sicherheit verfügen, durch korrumpierte IT-Systeme in ihrem Produktionsbetrieb massiv gestört werden können. Das heißt, Roboter, die „verrücktspielen“, sind durchaus möglich. „Als Betreiber muss ich daher wissen, welche Maschinen sich wo im Netzwerk befinden und wie die Kommunikation über die Maschinen läuft“, betont Markis. „Dafür hilft die Erstellung eines Netzplans. Anhand dessen können dann auch Maßnahmen abgeleitet werden, um speziell risikoreiche Maschinen entsprechend über eine Zonierung, Firewall etc. zu schützen.“