Data Science Conference : Data Sciene nimmt Kurs auf Transparenz und Datenschutz

Forschung Innovationen Wissenschaft
© IDSC

Bei der vom AIT Austrian Institute of Technology am 20. und 21. Oktober virtuell in Wien gehosteten “4th International Data Science Conference” (iDSC 2021) diskutierten namhafte Data Scientists sowie industrielle Anwender:innen aus Österreich, Deutschland, England, der Türkei, dem Iran und den USA aktuelle wissenschaftliche Trends und berichteten über den Stand aktueller Einsatzszenarien für Schlüsseltechnologien in den Domänen Artificial Intelligence, Internet of Things und Produktion 4.0. Für das zweitägige Event setzten die hinter der Konferenz stehenden Organisatoren des AIT, der FH Vorarlberg, der Donau-Universität Krems und des ursprünglichen iDSC Initiators FH Salzburg erneut auf das erfolgreiche Konzept eines Konferenz-Splits in die beiden Tracks „Research“ und „Industry“, um den an der Konferenz Teilnehmenden gebündelt sowohl neueste Forschungsansätze als auch industrielle Umsetzungen von Data Science in verschiedensten Domänen und für verschiedenste Marktherausforderungen vorstellen zu können.

Zur Eröffnung der Konferenz betonten Helmut Leopold, Head of Center for Digital Safety & Security am AIT und Gastgeber der heurigen iDSC, sowie Peter Haber, iDSC-Initiator und Senior Lecturer an der FH Salzburg, die vorhandene hohe Kompetenz von Computerwissenschaft und Künstlicher Intelligenz am Standort Österreich und die grundlegende Wichtigkeit des laufenden Austausches zwischen Wissenschaft, Forschung und Industrie. Mit der iDSC 2021 konnte sich der Wissenschafts- und Industriestandort Österreich erneut erfolgreich global positionieren.

Die Konferenz diskutierte aktuelle Ergebnisse aus der Wissenschaft als auch Industrie. Im Rahmen von insgesamt 6 Sessions wurden hochaktuelle Themen rund um Predictive Maintenance, Skalierung von Business Modellen und der damit zusammenhängende Software-Einsatz in der Industrie, Detektion von Anomalien basierend auf Deep Learning, Sicherheit und Datenintegrität bei Machine Learning, oder auf Natural Language Processing basierende Methoden zur Optimierung von Daten-Ökosystemen vorgestellt.

Internationale Keynotes demonstrierten breites Entwicklungs- und Anwendungsspektrum

Zum hochaktuellen Trendsetting-Event trug eine spannende Mischung aus Keynotes bei. Am Beispiel des globalen Telekommunikationsdiensleisters Vodafone beantwortete Cornelia Schaurecker, Big Data & AI Director, Vodafone Group, in ihrer Keynote Fragen rund um das Warum, Was und Wie eines umfassenden AI-Einsatzes. Sie betonte, dass es beim Zweck neben den Kunden- und Business-bezogenen Zielen vor allem um die nachhaltigen Ziele - Stichwort „Big Data and AI for Social Good“ – wie etwa „Planet“ und „Inclusion for all“ sowie um die Beschleunigung des anstehenden Wandels gehe und stellte Use Cases in vielen Bereichen der Wertschöpfungskette (z.B. Kundenmanagement, Marketing, Retail, Finanz, etc.) vor. Darüber hinaus unterstrich sie, wertschaffende AI-Szenarien immer gemeinsam mit Märkten zu gestalten, um mittelfristig ein funktionierendes Ökosystem mit den erforderlichen Kapazitäten, Standards und Partnern etablieren zu können und die neu geschaffenen „Data Products“ schnell und international zu skalieren.

Mario Drobics, Leiter der Competence Unit „Cooperative Digital Technologies“ am AIT Center for Digital Safety & Security, zeigte sich in seiner Keynote davon überzeugt, dass Smart Data die Voraussetzung für den heute so wichtigen Umstieg von einer linearen auf eine Kreislaufwirtschaft darstellen. Die gemeinsame Nutzung von Daten schaffe die Basis, Wertschöpfungskreisläufe ganzheitlich, also unter Einbeziehung aller relevanter Aspekte wie etwa Ressourceneinsatz, Umweltbelastung, aber auch soziale Aspekte zu betrachten. Damit werden eine Vielzahl von Wertschöpfungszyklen ermöglicht, die sowohl einen effizienten Einsatz neuer, als auch die Wiederverwendung vorhandener Werkstoffe und Produkte unterstützen, so Drobics.

Eindrucksvoll skizzierte Mario Meir-Huber, Head of Data, UNIQA Insurance Group, den anstehenden Kulturwandel bei Data Science in seiner Keynote. Er erläuterte, dass die Datenhaltung für große Unternehmen heute mit enormen Aufwand verbunden ist, da vielfach noch Speichertechnologien der Evolutionsstufen 1 (Data Warehouse) oder 2 (Data Lake) mit verteilten Dateneigentümern und entsprechenden Datensilos betrieben werden. Eine Wandlung des Mindsets hin zu „Data Mesh“ berge durch den Fokus auf dezentrale Business Domains das Potential, wesentliche Problemstellungen in der Datenhaltung zu überwinden. Darüber hinaus nannte er die dadurch ermöglichte dezentrale Governance sowie die einfache Auffindbarkeit der Daten an Hand von polygloten Datenkatalogen und nachvollziehbaren Metadaten als die wichtigsten Building Blocks von Data Mesh und damit idealen Treibstoff für eine reibungslose Digitalisierung.

Den 2. Tag der Konferenz eröffnete Prof. Allan Hanbury, Professor of Data Intelligence am Institute of Information Systems Engineering der TU Wien. In seiner Keynote verwies er auf Gründe, warum Daten, etwa zum Schutz der Privatsphäre, nicht offen zugänglich sind und präsentierte unterschiedlichste Modelle für beschränktes Sharing von sensiblen Daten – Handling per Vertrag über die Art der Datennutzung, physische Barrieren für den Zugang von Daten oder eine IT-basierte Lösung, die unter bestimmten Voraussetzungen den Daten-Zugriff beendet. Exemplarisch erläuterte er die Verwendung von anonymisierten Mobilfunk-Bewegungsdaten, kombiniert mit anonymisierten Epidemiedaten als Grundlage für Modelle, um der österreichischen Regierung Evidenz-basierte Empfehlungen für Covid-19 Interventionen geben zu können. Zum Schluss seiner Ausführungen betonte Prof. Hanbury, dass zur vollen Ausnutzung des ökonomischen Potenzials der europäischen Datenwirtschaft in Höhe von rund 1,3 Billionen Euro künftig viele Data Spaces wie Health, Mobility, Environment, Agriculture oder Public Adminstration auch Zugriff für die Wissenschaft ermöglichen sollen.

In ihrer abschließenden letzten Keynote erklärten Günther Tschabuschnig, Vorsitzender der DIO (Data Intelligence Offensive) und Natascha Totzler, Produkt- und Projektmanagerin bei Nexyo, unter Einbeziehung der virtuellen Konferenzbesucher:innen in Form von Live-Umfragen die Kernelemente von Governance. Zur zentralen Frage rund um den Zweck einer agilen Data Governance argumentierten beide, dass Governance transparent sein müsse, um Vertrauen in sie setzen zu können und durch ihre Agilität auch das Tempo des Wandels erhöht würde, als Voraussetzung für eine raschere Ausrollung entwickelter Systeme und einer Reduktoin fehlerhafter Entwicklungen. Ihr Votum für Dezentralisierung begründeten sie mit einer besseren Datenqualität durch Domainkenntnisse, Resourcenschonung durch Implementierungen über individuelle Verbindungen, und mit einer generell schnelleren Installation durch ein dezentralisiertes Management.