Datavard-CEO im Interview: Data Management muss flexibler werden

Agil und nutzerorientiert statt starr und zentralistisch – diese Vorgehensweise empfiehlt Datavard-CEO Gregor Stöckler in Sachen Datenmanagement. Foto: gonin – shutterstock.com Gregor Stöckler, CEO von Datavard, empfiehlt den Anwendern, sich von starren zentralistischen Ansätzen zu verabschieden und auch im Daten-Handling agil und nutzenorientiert vorzugehen.

Source: Datavard-CEO im Interview: Data Management muss flexibler werden

Warum sich nur so die kommenden Herausforderungen in Sachen Data Management in den Griff bekommenlassen, lesen Sie im Interview.

Heutige Datenarchitekturen sind zunehmend heterogen aufgebaut und werden aus unterschiedlichsten Datenquellen gespeist. Wie sollen Anwender-Unternehmer vorgehen, um nicht den Überblick zu verlieren?

Gregor Stöckler: Sinnvoll ist es, Daten so zu katalogisieren, wie man es auch mit physischen Gütern machen würde. Dabei hilft zum Beispiel ein Data Catalog. So ein Datenkatalog ist in den Bereichen Data Governance und Data Management ein hilfreiches und zielführendes Instrument – beispielsweise, wenn es darum geht, aus den Daten in allen angeschlossenen Systemen den verschiedenen Anwendergruppen genau die Informationen bereitzustellen, die sie benötigen.

Das Paradigma einer zentralen Datenbank beziehungsweise eines zentralen Datawarehouse wackelt zunehmend. Man geht heute vermehrt dazu über, die Daten dort zu lassen, wo sie entstehen. Was bedeutet das für das Datenmanagement?

Stöckler: Wir verfolgen im Prinzip zwei Ansätze: Der eine ist, die Daten dort zu speichern, wo sie entstehen. Gerade wenn Maschinen in IoT-Szenarien Daten generieren, ist ein Datentransfer aus dem Edge-Bereich schon allein aufgrund des Volumens natürlich ein großes Thema. Ein anderer Trend ist, dass in allen Unternehmen, in denen künstliche Intelligenz eine große Rolle spielt, die Daten auch dorthin wandern sollten, wo die KI-Anwendungen laufen. Im Endeffekt heißt das, dass die Daten meist in der Cloud landen, da es die großen Hyperscaler sind, die die entsprechenden KI-Tools in ihren Cloud-Plattformen anbieten.

Diese beiden Trends haben zur Folge, dass die IT-Landschaften zunehmend heterogener werden – weshalb die Datenverwaltung heute nicht mehr zentralistisch betrachtet werden darf. Es ist daher essenziell, Daten in verteilten Architekturen, unterschiedlichen Technologien und für unterschiedliche Anwendungsfälle zu verwalten, aber trotzdem ein zentrales Regelwerk zu hinterlegen, in dem sämtliche Daten gleich und unabhängig von ihrem Speicherort behandelt werden.Gregor Stöckler ist CEO bei Datavard.
Foto: Datavard

Daten-Workflows zu designen, kann durchaus komplex sein. Gerade wenn wir an die unterschiedlichen Infrastrukturen wie Cloud, On Premises oder IoT-Szenarien denken. Was raten Sie Anwender-Unternehmen, wie sie am besten mit dieser Komplexität umgehen sollten?

Stöckler: Ich bin ein großer Fan davon, vom Anwendungsfall her zurück zu denken. Viele Anbieter möchten natürlich, dass Anwender von der Technologie her denken – im besten Fall natürlich von ihrer eigenen. Aber das ist definitiv der falsche Ansatz. Wir müssen damit anfangen, den Anwendungsfall sowie die darunter liegenden technologischen Schichten zu verstehen und zu hinterfragen. Deswegen ist es auch wichtig, die Verarbeitung der Daten – im Sinne von Anreichern und Qualitätsmanagement – losgelöst von der zugrunde liegenden Speicherarchitektur zu betreiben.

Dabei bildet die Datenintegration einen ganz zentralen Baustein und es ist elementar, dass die zugrunde liegende Plattform eine offene Technologie anbietet. Nur so lässt sich gewährleisten, dass sich auch zukünftige, heute noch gar nicht bekannte Technologien anschließen lassen. Vor wenigen Jahren hat zum Beispiel das Cloud-Datawarehouse noch gar keine Rolle gespielt. Heute ist diese Technologie ein wichtiger Trend, mit dem sich Anwender auseinandersetzen müssen. Es ist davon auszugehen, dass wir in den nächsten Jahren weitere neue Trends sehen werden. Deshalb stellt die technologische Offenheit einen elementaren Grundpfeiler dar, auf dem die Datenverarbeitung aufbauen muss.

Um auf Basis von Daten bessere Geschäfte zu machen, braucht es das notwendige Verständnis in der Organisation der Unternehmen. Was sind aus Ihrer Sicht die zentralen Voraussetzungen, um eine funktionierende Datenkultur aufzubauen?

Stöckler: Für mich gehören drei maßgebliche Komponenten dazu:

Die erste ist, in der Organisation das Verständnis dafür zu schärfen, dass Daten immer nur eine Repräsentation von Dingen und Vorgängen aus der physischen Welt sind. Das heißt, Daten haben erst einmal kein Eigenleben und sollten nicht allein unter der Hoheit der IT stehen. Der betriebswirtschaftliche Nutzen, der Use-Case, muss in den Vordergrund gestellt werden und nicht die Technologie.

Die zweite ist zu verstehen, dass die Qualität und die Aussagekraft von Daten nur dann gegeben sind, wenn Technologie und Betriebswirtschaft Hand in Hand arbeiten. Dazu braucht es ein Vereinen von Kontext-Verständnis der Fachabteilung als Teil der Wertschöpfung und Beurteilung der technisch idealen Umsetzung durch die IT. Die Trennung dieser beiden Blickwinkel verhindert den Return on Data im Sinne der gewinnbringenden Nutzung.

Die dritte Voraussetzung ist, dass im gesamten Unternehmen die so genannte Data Literacy aufgebaut wird um die zielgerichtete und gewinnbringende Nutzung von Daten zu gewährleisten. Mitarbeiter entlang der gesamten Wertschöpfung müssen im Zeitalter der Digitalisierung zu Fragestellungen der Datenverwaltung, -integration und -nutzung aktiv weitergebildet werden. Man muss nicht im Detail verstehen, wie ein KI-Modell funktioniert. Was man aber verstehen muss, sind die zentrale Rolle von Daten und was jeder Einzelne dazu beitragen kann um dieses wichtig Gut für ein Unternehmen nutzbar zu machen. In vielen Diskussionen mit Kunden auf der ganzen Welt wird deutlich wie wichtig das Enablement der fachlichen Eigentümer von Daten ist und wie essentiell für den Erfolg. Der Gedanke hat sich noch nicht so richtig verankert, dass es vor allem einen fachlichen und keinen technischen Daten-Eigentümer braucht.

  1. Daniel Eiduzzis, DXC Technology
    „Hinter der derzeitigen Entwicklung von Data Governance Offices steckt ein spannender Prozess, der mehrere Übungen vereint: Betriebswirtschaftliche und technische Kompetenzen schaffen gemeinsam einen Ordnungsrahmen für ein nachhaltiges Informationsmanagement. Ein solches Competence Center stellt geeignete Werkzeuge zur Überwachung und Steuerung zuvor definierter Compliance-Anforderungen bereit. Data Owner zeichnen für die Harmonisierung und Konsolidierung der unternehmensweit genutzten Key-Performance-Indikatoren (KPI) verantwortlich. Data Scientists helfen bei der technisch anspruchsvollen Aufbereitung und Analyse der betrachtungsrelevanten Data Sets.“
  2. Marcus Flohr, Delphix
    „Ein wichtiger Punkt, der in dem Multi-Cloud-Konzept berücksichtigt werden muss, ist, wie man die Daten in die Cloud bekommt, und das so intelligent, dass man für eine 10-TB-Produktivdatenbank nicht auch noch eine weitere 10-TB-Datenbank in der Cloud für ein Testsystem vorhalten muss. Die Bereitstellung von Rechenkapazitäten in der Cloud ist sofort gegeben. Das ist automatisiert, man kann CPUs, Memories et cetera dazu buchen. Doch wie baut man die verschiedenen Datenkonstrukte intelligent und ohne großen Zeitverlust zusammen?“
  3. Edmund Heider, IDG
    „Wenn wir heute über Datenstrategie reden, denken wir noch nicht daran, was vielleicht in fünf oder zehn Jahren an Möglichkeiten existieren mag. Es ist deshalb nicht nur extrem schwierig, eine Datenstrategie zu entwickeln, sondern auch, die zahlreichen Daten zu verwenden, die erhoben wurden, als es noch keine Strategie gab. Selbst wir als Endnutzer werden mit Daten überschüttet. Wer schaut denn noch auf das Thermometer, wenn man die Temperatur auch auf dem Smartphone ablesen kann? Oder man fährt im Zug und bekommt automatisch die Meldung ,Verspätung‘ oder bei Flugreisen die Nachricht ,Gate geändert‘. Wollen wir, dass so viele Daten auf uns einströmen? Irgendwann wird der Overflow dazu führen, dass es die Leute nicht mehr interessiert, ob ihr Paket im Logistikzentrum Leipzig gerade verarbeitet wird oder nicht.“
  4. Karsten Stöhr, DataStax
    „Bei der Datenstrategie gibt es langfristige Trends, die sich auch nicht mehr umkehren werden. Dazu gehört, dass Daten immer verfügbar sein müssen. Auch, dass man eine Lösung sofort skalieren kann, um den Kunden einen Service schnell bieten zu können. Eine Datenstrategie berücksichtigt auch, dass sich die Kunden auf der ganzen Welt bewegen und den Service jederzeit und überall konsumieren wollen. Von daher darf man den Blick nicht nur nach innen richten, sondern muss bei der Skalierung auch den Kunden die ganze Zeit im Blick haben. Und das ist eine Herausforderung des heutigen Datenmanagements.“
  5. Günter Wassner, Teradata
    „Künftig wird bei einer Lieferverzögerung nicht mehr der Logistikleiter die Entscheidung treffen, ob der Kunde durch Mehrkosten seine Lieferung doch noch erhält, sondern ein Kunden-Scoring, basierend auf einem Algorithmus. Eine Datenstrategie ist da absolut notwendig. Denn wenn diese Entscheidung auf falschen Daten getroffen wird, hat das einen enormen Effekt. Dieses Szenario, in dem hinter einer Entscheidung eine Maschine steht, ist schon heute durchaus Realität – ein Szenario, das die Menschen, die diese Maschinen programmieren, verantwortungsvoll gestalten müssen.“
  6. Georg Wesinger, Celonis
    „Transparenz der Daten zu schaffen, um zu erkennen, wie Prozesse tatsächlich ablaufen, ist der erste wichtige Schritt zur Steigerung der Effizienz in allen Unternehmensbereichen. Die größte Herausforderung besteht allerdings in der Umsetzung, die erst durch eine automatisierte Operationalisierung erreicht wird. Idealerweise haben alle Mitarbeiter kontinuierlich die „next best action“ im Blick und können diese konsequent umsetzen. Nachhaltige Optimierung wird angetrieben durch die Frage: ‚Was muss ich als Nächstes tun, um meinem Ziel, zum Beispiel einer Reduzierung der Durchlaufzeit, näherzukommen?‘ In der Theorie klingt das ganz einfach, aber in der Praxis scheitern die meisten Unternehmen daran, dass sie keine guten Einsichten und Handlungsempfehlungen aus den Daten bekommen, die durch einen Roboter analysiert und bereitgestellt werden.“

Neben der Komplexität der Datenstrukturen kämpfen viele Anwender-Unternehmen auch mit der Big Data-Problematik. Haben Sie einen Tipp, wie die Anwender-Unternehmen am besten mit den rapide wachsenden Datenmengen umgehen sollten?

Advertisements

Stöckler: Big Data ist nach wie vor ein großes Thema. Das Volumen bleibt eines der entscheidenden Kriterien im Daten-Handling. In den letzten Jahren hat sich gezeigt, dass auch in den klassischen ERP- und CRM-Systemen die Datenmengen signifikant schneller wachsen als sich Speicherkosten reduzieren. Datenwachstum ist letzten Endes auch ein signifikanter Kostenblock geworden.

Ich bin ein großer Freund davon, dabei den Aspekt der Datenarchivierung und -Bereinigung nicht aus den Augen zu verlieren. Gerade die Klassifizierung von Daten in “wichtig” und “unwichtig” wird im 21. Jahrhundert eine entscheidende Fähigkeit sein. Das aus meiner Sicht wichtigste Merkmal in dieser Klassifizierung ist die Nutzung. Das ist auch das, was sich am einfachsten technisch realisieren lässt. Konsequent umgesetzt heißt das: Selten genutzte Daten werden auf günstigere Speichermedien verlagert oder sogar gelöscht.

Gerade in Analytics- und KI-Projekten mangelt es oft an der Datenqualität. Was sind die zentralen Punkte, um die Datenqualität in Anwender-Unternehmen zu verbessern und vor allem auch dauerhaft sicherzustellen?

Stöckler: Ausschlaggebend ist auch hier wieder der Anwendungsfall, der zum Entstehen der Daten geführt hat. Ein einfaches Beispiel: Ein Kundenstammsatz wird heute von verschiedenen Fachfunktionen im Unternehmen bearbeitet. Da geht es beispielsweise zum einen um Rechnungsstellung, zum anderen um Vertrieb und Marketing. In der Vergangenheit wurde jeder dieser Anwendungsfälle isoliert betrachtet. Eine gute Datenqualität lässt sich aber nur herstellen, wenn ich die Diskussion zwar von der Technologie beeinflussen lasse, es aber gleichzeitig auch losgelöst davon eine fachliche Vorgabe darüber gibt, was ich über einen Kunden wissen möchte.

Wenn eine fachliche Abstimmung darüber erfolgt ist und ich genau definieren kann, welche Kriterien dafür entscheidend sind, dann kann ich hinterher mit einer zentralen Plattform dafür sorgen, dass Daten passgenau angereichert und abgeglichen werden. Technologie ist dabei wichtig, weil wir hier von großen Datenmengen sprechen. Entscheidend ist aber die fachliche Definition und die fachliche Ausprägung dessen, was von uns an Qualitätsmerkmalen definiert wird. Alle Initiativen, die in den letzten Jahren auf eine große Zahl von Datenqualitätsmerkmalen gesetzt haben, sind daran immer gescheitert, weil der Aufwand mit jedem Merkmal exponentiell steigt. Üblicherweise sollte man von weniger als zehn Qualitätsmerkmalen pro Datenobjekt ausgehen, damit der Aufwand in Sachen Datenqualität in einem erträglichen Rahmen bleibt. Das sollten Anwender immer im Hinterkopf behalten.

  1. Steve Oluborode, Tableau Software
    Daten sind das neue Öl. Dass das keine Zukunftsprognose, sondern längst Realität ist, sieht man allein schon bei einem Blick auf die Rangliste der weltweit wertvollsten Unternehmen. Die Top 3 erzielen ihre Wertschöpfung allesamt mit der Monetarisierung von Daten.
  2. Carol Stockinger, IDG
    Der Job des Data-Analysten ist alles andere als neu. Er hat sich in den vergangenen Jahren aber stark gewandelt. Ging es früher darum, Doubletten zu verhindern und insgesamt die Datenqualität und-sicherheit hochzuhalten, so steht heute die Herstellung von Benutzbarkeit insgesamt im Mittelpunkt. Verstehe ich meine Daten? Wie kann ich sie zusammenführen, einteilen, analysieren? Das sind die Fragen, mit denen wir heute konfrontiert sind.
  3. Michael Koch, Lufthansa Industry Solutions
    Das Wesen der Deutschen ist es, alles im Detail verstehen zu wollen. Das ist mit dem gigantischen Datenaufkommen, das in den Unternehmen generiert wird, aber heute schlicht nicht mehr möglich. Vielleicht liegt darin die Erklärung dafür, warum sich hierzulande alles ein bisschen langsamer bewegt.
  4. Andreas Laux, Datavard
    Uns stehen heute so viele technologische Möglichkeiten zur Verfügung wie noch nie zuvor. Doch die bessere Nutzung von Daten zu realisieren ist eine kulturelle Aufgabe, die Kunden und Dienstleister nur gemeinsam lösen können. Dabei ist es wichtig, die Menschen immer wieder darauf hinzuweisen, wie wichtig Daten für die Verbesserung von Geschäftsprozessen und die Entstehung neuer Services sind. Wenn ich den entstehenden Mehrwert glaubwürdig veranschauliche, dann steigt auch die Bereitschaft für das „Sharing“.
  5. Peter Jung, Board
    Das Business wird immer dynamischer. Strukturen, Geschäftsmodelle und Besitzverhältnisse verändern sich ständig. Auf diese Dynamik müssen wir mit flexiblem Datenmanagement reagieren: Jeden Tag gibt es einen neuen „Datenschatz“ zu heben und zu verwerten, das heißt aus den Daten entscheidungsrelevante Erkenntnisse zu gewinnen und bereitzustellen.
  6. Andreas Heißler, Uniserv
    Die Initiative der Bundesregierung für eine eigene Datenstrategie klingt weniger nach „echter“ Strategie. Das Problem ist doch die große Verunsicherung innerhalb der Unternehmen darüber, was sie rechtlich überhaupt dürfen und was nicht. Allein die parallele Existenz verschiedener sich teilweise widersprechender Gesetze und Verordnungen schafft eine Intransparenz, die den Fortschritt hemmt. Was heute richtig ist, kann morgen schon wieder falsch sein. Das ist gerade für den Mittelstand ein Problem: Um ein funktionierendes Datenmanagement zu etablieren, muss ich Geld in die Hand nehmen und das ist für große Konzerne leichter zu stemmen. Kleinere Unternehmen können aber nicht „einfach mal ausprobieren“, sondern brauchen Planungssicherheit.
  7. Oliver Schröder, Informatica
    Uns fehlt es in Deutschland noch an der Geschwindigkeit in der Adaption von Geschäftsmodellen. Die Plattformökonomie in den USA hat hier schon rein organisatorisch deutliche Wettbewerbsvorteile. Ein offensichtlicher Indikator findet sich im organisatorischen Stellenwert der IT. So existieren in vielen Unternehmen immer noch gesonderte IT-Abteilungen, und der CIO berichtet an den CFO. Das alles wäre in einer agilen Struktur nicht mehr nötig, in der IT und Business idealerweise miteinander verschmelzen.
  8. Peter Küssner, Cubeware
    Die allzu verhaltene Nutzung von Daten bei der Entwicklung neuer Geschäftsmodelle ist kein technisches und kein organisatorisches Problem, sondern schlichtweg: ein deutsches!

Ein weiteres wichtiges Thema im Umfeld des Data Managements ist Compliance. Ich denke hier an die schärferen Regularien im Umfeld der DSGVO beziehungsweise an das jüngste Urteil des europäischen Gerichtshofs, der das Privacy-Shield-Abkommen mit den USA gekippt hat. Was sind aus Ihrer Sicht die Kernelemente für einen sicheren und regelkonformen Umgang mit Daten?

Stöckler: Es ist sehr wichtig, das Thema integriert zu betrachten. In der westlichen Welt sehen wir uns mit einer Vielzahl sehr unterschiedlicher Rechtsvorschriften konfrontiert. Es gibt zwar einen rechtlichen Rahmen, aber wir haben von der gesetzlich geregelten Aufbewahrungspflicht bis zum Schutz von personenbezogenen Daten von Land zu Land verschiedene, inhaltlich teilweise widersprüchliche Rechtsgrundlagen. Von daher ist es sehr wichtig, dass sich alle involvierten Fachbereiche im gemeinsamen Dialog dem annähern, was im Zusammenhang mit Daten als schutzbedürftig gilt und wie diese Schutzbedürftigkeit im praktischen Leben umsetzbar ist.

Wir haben sehr gute Erfahrungen damit gemacht, in diesen Dialog alle Beteiligten, auch Vertreter des Gesetzgebers, mit einzubinden, denn in der DSGVO beispielsweise gibt es in vielen Bereichen einen nicht unerheblichen Interpretationsspielraum. Das bedeutet in der Konsequenz zwar ein gewisses Risiko, dem ich mich als Unternehmen oder Organisation aussetze, wichtig ist aber auch auf der anderen Seite, dass eine rechtsgemäße Anwendung nicht dem eigentlichen (Geschäfts-)Zweck im Weg steht.