Gastkommentar : „Right Data“ statt „Big Data“ – die Illusion der totalen Kontrolle

Bei Big Data geht man davon aus, dass die anfallenden Datenmengen mit herkömmlichen Mitteln nicht gehandhabt werden können und es dafür innovativere Technologien braucht. Damit sollen die Datenmengen, einmal sauber erfasst, noch mehr Kontrolle über alles geben und eine Effizienzsteigerung ermöglichen – so die Theorie.

Quantität ungleich Qualität

Hier trifft der alte Spruch aus der Tontechnik zu: „Shit in, shit out“. Eine Tonaufnahme wird durch viel Technik nicht besser. Im Produktionsumfeld ist es ähnlich: Viele Daten bedeuten aber nicht automatisch mehr Kontrolle. Es kommt wie in jedem Projekt darauf an, was man erreichen möchte: Welche Daten sind vorhanden? Welche Zeitreihen gibt es? Wie sehen die Schwankungsbreite und die Reproduzierbarkeit aus? Und vieles mehr.

Wenn alle benötigten Parameter gegeben sind, können Daten – sinnvoll verknüpft – durchaus einen Mehrwert an Transparenz erzeugen. Der limitierende Faktor ist aber auch hier wieder der Mensch. Denn die besten Daten sind wertlos, wenn Mensch damit nicht umgehen kann. Große Datenmengen sind für uns nicht nutzbar, wir benötigen eine kleine, aber richtige Menge an Daten und ihre Verknüpfungen.

KI soll es richten

Jetzt mag man auf die Idee kommen, dass es zur Bewältigung dieser menschlichen Einschränkungen Mittel und Wege gibt. Die Welt spricht viel von KI. Aber wir sind von KI noch sehr weit entfernt – mit unserer heutigen Technologie können wir bestenfalls von „Machine Learning“ sprechen, und diese hat wiederum ein Mensch mit all den limitierenden Faktoren entwickelt.

Computer says no

Daher ist es verlockend, die Entscheidung einem System zu überlassen. Vielleicht kennen Sie noch die britische Comedyserie „Little Britain“: Dort wurden alle möglichen Kundenanfragen in einen Computer eingegeben, und die Antwort lautete stets „Computer says no“, was zu skurrilen Situationen führte.

Egal ob „Machine Learning“ oder KI – die Systeme dürfen keinesfalls als Black Box gehandhabt werden, ohne den dahinter liegenden Algorithmus mit seinen von Menschen programmierten Schwächen oder Vorurteilen offenzulegen. Beispiele dafür gibt es schon genug: Etwa der Amazon-Algorithmus, der durch Erfassen der Prozessparameter Rückschlüsse auf den sekundengenauen Aufenthaltsstandort bis in die Tiefe der persönlichen Verteilzeiten zulässt und somit auch in die Privatsphäre der Mitarbeitenden eindringt.

Fazit

Daten und ihre Verknüpfungen sind ein großes Potential, wenn man damit richtig umgeht. Wir müssen beim Generieren von Daten stets die Frage stellen, was der Mehrwert sein soll und kann, und diese von vornherein sauber strukturieren. Auch hier ist weniger mehr, also immer nach dem Grundsatz „Right Data“ statt „Big Data“.