Big Data : Wie smarte Daten Leiterplattenhersteller AT&S agiler machen

AT&S
© AT&S / Fotoatelier Robert Frankl

Herr Ginthör, sind für Sie Daten das Öl der Zukunft?

Robert Ginthör: Nur, wenn man sinnvoll damit umgeht.

Mit Big Data haben Sie dem Leobner Leiterplattenhersteller AT&S geholfen. Wie?

Ginthör: Gemeinsam mit AT&S und dem Institut für Innovation und Industrie Management an der TU Graz haben wir ein Projekt durchgeführt, bei dem es darum ging, einen ersten Schritt in Richtung eines agilen Unternehmens zu machen.

Warum dieser Schritt?

Ginthör: Angesichts der Tatsache, dass AT&S Produktionsstandorte in Österreich, China, Korea und Indien betreibt und weltweit Kunden beliefert, sieht es sich mit einer steigenden Globalisierung und einer immer schnelleren technologischen Entwicklung konfrontiert. Dieses Umfeld beinhaltet neue Hersteller, aufstrebende Regionen und disruptive Technologien. In Summe bringt das ein erhöhtes Maß an Unsicherheit und somit schwierige Planbarkeit hervor. Klassische Methoden der Produktionsplanung stoßen hier einfach an ihre Grenzen.

Und wie macht man jetzt AT&S agiler?

Ginthör: Indem wir interne Datenquellen, unter anderem SAP und Google Analytics mit externen Datenquellen wie Finanzmarktdaten und Wirtschaftsindikatoren miteinander verknüpft haben. Damit erhielten wir eine mittelfristige Vorhersage der Nachfrage sowie frühzeitige Hinweise auf unerwartete und schnelle Veränderungen in der Nachfrage. Diese Nachfrageprognosen basieren auf einem mehrstufigen Selektionsprozess der Daten, auf welchen sogenannte Klassifikationsalgorithmen und Multivariate Regressionen angewandt werden. Wiederum schnelle Veränderungen werden mit Hilfe einer Ausreißererkennung frühzeitig erfasst.

Datensammeln allein ist also zu wenig?

Ginthör: Ja. Es macht wenig Sinn, Daten einfach nur zu sammeln und sie dann nicht weiter anzuwenden. Der Mehrwert für Unternehmen liegt darin, mit dieser Datenmenge zu arbeiten, Korrelationen zu finden und Kausalitäten zu erkennen. Es muss nicht nur um ganz viele Daten gehen. Die Verknüpfung von Daten, gerade aus unterschiedlichen Quellen, ist genauso wichtig. Wir reden daher von Smart Data und nicht von Big Data. Ziel sollte es sein, aus den Daten neue, relevante Erkenntnisse abzuleiten und damit einen Mehrwert zu generieren.

Interessant, dass es genau hier wieder den Mensch und nicht die Maschine braucht.

Ginthör: Das Zusammenspiel von Mensch und Maschine ist für Analyse und Ver- und Bearbeitung der Daten entscheidend. Denn der Mensch legt fest, mit welchen Tools die Daten analysiert und wie die generierten Daten interpretiert werden, die dann die maschinelle Seite entsprechend verarbeitet. Oder anders gesagt: Die Maschine kann Korrelationen finden, aber nicht Kausalitäten erkennen.

Es entsteht der Eindruck, dass nicht jeder das gleiche mit Big Data meint.

Ginthör: Dieser Eindruck täuscht nicht. Der Punkt ist, dass der Begriff vielschichtig verwendet wird und tatsächlich jeder etwas anderes darunter versteht. Einerseits redet man von Big Data und meint damit die enorme Menge an Daten. Andererseits wird auch der Umgang damit , also die Erfassung, Analyse und Auswertung der Daten sowie oft die dafür notwendigen Technologien und Verfahren so bezeichnet. Weil der Begriff so breit ist, ist er übrigens im „Hype Cycle for Emerging Technologies von Gartner“ gar nicht mehr drin.

Das heißt, es gib keine einheitliche Definition?

Ginthör: Genau. Big Data hat nicht nur mit der Menge und der Größe der Daten zu tun, der ursprünglichen Definition von Big Data. Derzeit wird heftig darüber diskutiert, um wie viele „V`s“, also Kriterien von Big Data, es sich handelt, die Zahlen schwanken von drei bis zehn.

Welche Kriterien sind für Sie die wichtigsten?

Ginthör: Wir reden von fünf V`s: Volume, Velocity, Veracity, Variety und Value. Ersteres bezeichnet die Menge an Daten. Mit Velocity meinen wir die Geschwindigkeit, mit der Daten generiert, ausgewertet und weiterverarbeitet werden, mit Veracity deren Qualität. Variety steht für die Vielfalt der Datentypen und -quellen. Und unter Value versteht man den Wert, den die Daten für ein Unternehmen haben bzw. die Erkenntnisse, die ich durch die Datenanalyse gewinne.

Variety und Value sind dennoch das Spannendste für Sie?

Ginthör: Natürlich. Rund 80 Prozent der Daten weltweit sind heute unstrukturiert und weisen auf den ersten Blick keinerlei Zusammenhänge auf. Aber wenn man sich näher damit beschäftigt, lassen sich doch welche herstellen. Sie können zum Beispiel strukturierte Daten aus einer Datenbank und unstrukturierte Daten wie Bilder oder PDFs miteinander korrelieren.

Geben Sie ein Beispiel aus der Industrie.

Ginthör: Stellen Sie sich eine Industrieanlage vor, die regelmäßig ausfällt und keiner weiß warum. Dann nimmt man die Daten der Anlage auf und erkennt, dass es immer zu bestimmten Zeiten Probleme gibt. Also zieht man die Wetterdaten hinzu und bemerkt, dass es die Ausfälle immer gibt, wenn es warm ist. An diesen Tagen ist die Halle, in der die Anlage steht, überhitzt und in Folge dessen auch die Maschine. Das Zusammenspiel verschiedener Daten hat also den Grund für die technischen Probleme und eine Lösung aufgezeigt.

Wie professionell gehen Österreichs Unternehmen mit Big bzw. Smart Data um? Bildet AT&S eine Ausnahme?

Ginthör: Der Umgang professionalisiert sich. Vor allem in der Industrie wird dieses Thema zunehmend wahrgenommen. Die Industrie 4.0 ist der Treiber.

Es heißt, Betreiber von Industrieanlagen würden heute nur rund sieben Prozent der Daten nutzen, um ihre Anlagen vor Ausfällen zu schützen.

Ginthör: Dieser Anteil wird deutlich steigen – nicht nur in der Industrie. Und daraus werden sich neue Geschäftsmodelle, Services und Produkte entwickeln, deren Umfang wir heute noch gar nicht abschätzen können.

Was sind die größten Stolpersteine?

Ginthör: Zum einen, wie bereits erwähnt, dass oft Unmengen an Daten gesammelt werden, mit denen dann aber nicht gearbeitet wird. Zum anderen können viele Betriebe nicht gleichsam auf der grünen Wiese starten. Das heißt, sie haben Maschinen, aber bisher keine Daten gesammelt – und jetzt wissen sie nicht, wie sie beginnen sollen. Aber Maschinen können aus der Vergangenheit lernen und in die Zukunft projizieren. Ein anderer Punkt ist, dass Firmen oft mit einer Lösung, also mit Tools kommen, und gar keine Fragestellung dazu haben.

Das heißt zuerst die Frage, dann das Tool?

Ginthör: Genau. Ich kann Nägel mit allen möglichen Hämmern einschlagen, aber ich muss mir vorher überlegen, wo ich das tue. Genau so ist es mit Big Data: Bevor ich Daten zu sammeln, analysieren und verknüpfen beginne, sollte ich wissen, wofür ich sie brauche.

Sie sagten anfangs, dass die Qualität der Daten ebenfalls ein Kriterium ist ...

Ginthör: ...und hier herrscht dringend Verbesserungsbedarf, weil es bisher nicht notwendig war, auf die Qualität zu achten.

Wie steht es um die Qualität von Sensordaten?

Ginthör: Bei Sensordaten hängt diese davon ab, ob die Daten regelmäßig aufgezeichnet werden, ob sie vollständig sind und ob die richtigen Werte vom Sensor erfasst werden. Auch kommt immer wieder vor, dass Zeitserien in unterschiedlichen Formaten aufgezeichnet werden, was es schwer macht, diese Daten dann miteinander zu verknüpfen.

Die Datenbasis zu schaffen, mit der tatsächlich gearbeitet werden kann, ist also aufwändig?

Ginthör: Definitiv. Datacleaning kostet mehr Zeit als Analyse. In der Regel gehen dafür zwei Drittel der Projektzeit drauf.

Welche Herausforderungen sehen Sie noch?

Ginthör: Dass Daten oft nur vertikal analysiert werden, aber nicht entlang der Horizontalen. Daten fallen nämlich an den unterschiedlichsten Stellen an – von der Produktion über SAP bis zu Kundendaten. Gibt es beispielsweise Reklamationen, könnte man diese Daten auswerten und an die Produktion zurück spiegeln.

Gibt es noch Aspekte, die für Unternehmen wichtig sind?

Ginthör: Einige. So hilft das beste System nichts, wenn es nicht in Prozesse eingebettet ist. Oder anders gesagt: es bringt mir nichts, wenn mir das Super-System sagt, dass die Maschine in zwei Tagen ausfällt, wenn das Gesamtsystem mit dieser Info nichts anfangen kann. Das ist ein Stückwerk und sonst nichts. Wichtig ist auch, wo die Daten gespeichert werden. Denn Speicherplatz kostet Geld, vor allem, wenn es sich um große Datenmengen handelt.

Und wo sind diese Datenmengen sicher?

Ginhör: Wichtig ist zu verstehen, dass Rechenzentren von Cloudanbietern sehr wahrscheinlich eine höhere Sicherheit bieten als die Datenbanken von Firmen. Aber achten Sie darauf, ob diese in den USA oder in Europa sitzen.

Welche Vorgangsweise schlagen Sie also Unternehmen vor?

Ginthör: Als erstes sollte man die vorhandenen Daten sichten und herausfiltern, welche Mehrwert bringen. Danach fragen Sie sich, welche Probleme damit gelöst werden sollen und welche Hypothesen damit bestätigt werden sollen. Und als Letztes zerbrechen Sie sich den Kopf über die dafür erforderlichen Tools und den Partner.

Zurück zu AT&S: Wie lange mussten Sie datenmäßig in die Vergangenheit gehen, um für die Leobner Leiterplattenhersteller richtige Prognosen erstellen zu können?

Ginthör: Bei AT&S wurde auf Daten, welche einen Zeitraum von bis zu 15 Jahren abdecken, entwickelt und validiert.

Und die Ergebnisse?

Ginthör: Sind positiv. Unsere Vorhersagen für den Nachfragemarkt sind ziemlich genau. Für schnelle Nachfrageveränderungen haben wir eine Frühwarnindikationen mit signifikanter Vorlaufzeit.

Vielen Dank für das Gespräch!

Zur Person: Dr. Robert Ginthör studierte technische Informatik und Telematik an der TU Graz. Nach einigen Jahren als Universitätsassistent wechselte der IT-Spezialist in die Privatwirtschaft. Seit 2015 ist Ginthör CTO und Head of Big Data Lab des Know-Center der TU Graz. In dem Forschungszentrum für Data-Driven Business & Big Data Analytics werden maßgeschneiderte, datengetriebene Lösungen für Kunden erforscht und entwickelt. Das Zentrum ist auch eines der wenigen Ausbildungszentren für Data Scientists.