Leitfaden : Fünf Phasen, die Ihr IoT-Partner beherrschen sollte

Iot Internet
© Fotolia

Wie komplex IoT-Projekte allein aus IT-Sicht sind, weiß Stefan Ebener. „Es erfordert verschiedene Bausteine, die ineinander greifen müssen“, so der Innovation Manager bei NetApp. Sein Appell: „Kein Anbieter ist heute in der Lage, eine IoT-Lösung vollumfänglich zu liefern, angefangen von den Sensoren über die Data-Management-Plattform und Analytics-Software bis hin zur Security.“ Entscheidend ist also, über welche Technologiepartnerschaften er verfügt. Eine Checkliste.

Phase 1: Das Sammeln

Sensordaten erfassen und transportfähig machen.

Dabei spielt das sogenannte Retro-Fitting eine wichtige Rolle. Es beschäftigt sich mit der Frage: Wie bekomme ich ältere Maschinen überhaupt ans Internet angebunden? Produktionsstraßen sind oft über Jahre hinweg gewachsen und Geräte können bis zu 15 oder 20 Jahre alt sein. Sie verfügen über interne Sensoren, die zum Beispiel Daten in Milliampere ausgeben. Diese Daten müssen nun in IP-fähige Informationen umgewandelt werden. Dafür gibt es verschiedene Ansätze, zum Beispiel ein sogenanntes Edge Gateway, das die Daten übersetzt und anschließend weiterleitet. Ein anderer Weg sind Systeme, die über Webcams Lampen- oder Schaltersignale filmen, mittels künstlicher Intelligenz in IP-Informationen übersetzen und dann zur Auswertung weiterleiten. Oder eben neuere Maschinen, die bereits komplett IP-fähig sind.

Phase 2: Der Transport

Der sichere und verlässliche Übertragung der Daten von den Produktionsmaschinen oder Geräten zum Rechenzentrum.

Dabei spielen zum Beispiel Switching, Routing, Wireless- und Firewall-Technologien eine wichtige Rolle. Außerdem geht es darum, das passende Protokoll für die Kommunikation zwischen den Maschinen zu wählen. Unternehmen stehen vor dem Problem, dass es rund 50 verschiedene Protokolle für die Sensordatenkommunikation gibt. Einheitliche Standards fehlen noch. Nur wenn die Geräte dieselbe Sprache sprechen, können sie sich untereinander verständigen. Weitgehend durchgesetzt hat sich mittlerweile das offene Nachrichtenprotokoll für die Maschine-zu-Maschine-Kommunikation MQTT, kurz für Message Queue Telemetry Transport.

Phase 3: Das Speichern

Sensordaten speichern und für die Analyse bereitstellen.

Dafür eignen sich je nach Einsatzszenario unterschiedliche Technologien. Für die Datenanalyse mit dem verteilten System Hadoop sind leistungsstarke Storage-Lösungen für Unternehmen, so genannte Enterprise-Class-Speicherlösungen, empfehlenswert. Als Speicher in Industrie-PCs für Edge Computing kommen in der Regel SSDs (Solid State Drives, nicht-plattenbasierter Speicher) zum Einsatz. Stream Analytics, also Echtzeitberechnungen von Datenströmen, benötigen immer sehr schnelle Flash-Ressourcen. Eine hilfreiche Option, um große Mengen an Daten im zentralen Data Lake aufzubewahren, ist Cloud-Storage. Der Grund: Cloud-Speicher lässt sich sehr gut skalieren. Wichtig ist zudem ein komfortables Datenmanagement-Betriebssystem, das es ermöglicht, Daten unkompliziert zwischen verschiedenen Speicherlösungen zu verschieben oder zu spiegeln. Ebenfalls zum Einsatz kommen Systeme für Datenbanken wie NoSQL oder traditionelle SQL-Datenbanken. Auch hier ist ein effizientes Datenmanagement samt Applikationsintegration von entscheidender Bedeutung.

Phase 4: Die Analyse

Die umfangreiche Analyse der Sensordaten.

Um große Mengen an strukturierten und unstrukturierten Daten aus dem Data Lake zu verarbeiten, eignen sich zum Beispiel das Framework Hadoop und NoSQL (Not Only SQL)-Datenbanklösungen wie Couchbase, MongoDB oder Cassandra. Für Echtzeitanalysen kommen unter anderem SAP HANA oder SAP Business Objects zum Einsatz. Viele Unternehmen wünschen sich zudem eine Verknüpfung der Analyseergebnisse mit ihrem ERP-System. Auch diese Anbindung spielt hier eine wichtige Rolle.

Phase 5: Die Archivierung

Die kosteneffiziente Langzeitarchivierung der Sensordaten.

Ein wichtiger Aspekt dabei ist die regelbasierte, automatisierte Datenklassifizierung. Sie ermöglicht zum Beispiel, dass das System Daten nach der gesetzlichen Vorhaltezeit automatisch löscht oder gewährt Zugriff auf das sogenannte Storage Tiering. Darunter versteht man eine Methode, die Daten entsprechend ihrer Zugriffe auf unterschiedliche Speichermedien verteilt. So landen Daten in der Anfangsphase der Archivierung oft zunächst auf schnelleren Systemen, da sie noch häufiger abgerufen werden. Später können sie auf weniger performante, preiswertere Speicherlösungen verschoben werden. Auch das Auslagern von Daten in eine Cloud oder der Abzug aus der Cloud sind Themen, um die es in der Archivierungsphase geht.