Data-Fabric-Architekturen: Komplexe Datenstrukturen optimieren

Der durchschnittliche Digitalisierungsgrad der Wirtschaft in Deutschland ist 2021 (im Vergleich zu 2020) um acht Prozent gestiegen. Zu diesem Ergebnis kommt der Digitalisierungsindex des Bundesministeriums für Wirtschaft und Energie in seinem aktuellen Bericht. Treiber dafür sind laut der Studie:

  • die zunehmende digitale Vernetzung der Unternehmen,
  • die deutlichen Zuwächse bei der Breitbandverfügbarkeit für Gewerbe und Haushalte sowie
  • die Digitalisierung von Prozessen und Produkten.

Für Unternehmen bedeutet diese Entwicklung vor allem eine massive Steigerung des gespeicherten Datenvolumens. Dabei treten eine Reihe von Problemen in den Vordergrund:

  • bestehende Datensilos,
  • heterogene Speicherstrukturen mit einer Mischung aus On Premises- und Multicloud-Lösungen,
  • fehlende einheitliche Governance-Regelungen und
  • Sicherheitsprobleme.

Die Folge: Theoretisch verfügbare Daten sind nur zu einem geringen Teil miteinander verknüpft, vorhandene Informationen nur schwer oder gar nicht auffindbar und Analysemöglichkeiten stark eingeschränkt. Das Potenzial für die Optimierung von Geschäftsprozessen wird also bei weitem nicht ausgeschöpft.

Mit dem Data-Fabric-Ansatz, also der Idee eines Daten-Gewebes, können Unternehmen die Probleme lösen. Häufig geht es darum, Daten zu erfassen, sie zu analysieren, daraus zu lernen und Reaktionen abzuleiten. Das können in der Fertigung etwa Sensordaten aus der verarbeitenden Maschine sein. Die Kontrolle dieser Daten – Abmessungen, Gewicht, Oberflächenbeschaffenheit oder ähnliches – führt zum Beispiel dazu, dass ein Werkstück entweder weiter bearbeitet oder ausgesondert wird. Nachfolgende Arbeitsschritte werden entsprechend gesteuert.

Zudem lassen sich mit solchen Daten etwa Produktqualitäten unterschiedlicher Lieferanten vergleichen und Preisberechnungen nicht mehr nur auf Mengenbasis, sondern auch auf Basis von Ausschuss, Liefergeschwindigkeit und anderen Faktoren erfassen. Auf Basis der Verknüpfung von Prozess-, Produkt- sowie Markt- und Logistikdaten können dann komplexe Modelle der Fabriksteuerung inklusive Auslastung der Anlagen und Wertschöpfung entstehen.

Dabei werden Daten aus der Fertigung unter anderem mit betriebswirtschaftlichen Daten etwa aus dem ERP-System verknüpft, ausgewertet und dann an die einzelne Maschine zurückgespielt. So könnte eine Analyse im einfachsten Fall ergeben, dass die Produktionsgeschwindigkeit Auswirkungen auf die Qualität hat. Eine Information, durch die sich – zusammen mit dem erzielbaren Produktpreis bei einer bestimmten Liefergeschwindigkeit – die Fertigung optimieren lässt. Dabei werden die Daten ständig zwischen Analyse und Produktion hin und her transportiert und einem kontinuierlichen Optimierungsprozess unterzogen.

Wer hier nur mit einer klassischen vertikalen Integration arbeitet, überträgt solche Maschinendaten in vielen Fällen an eine zentrale Plattform. Dabei handelt es sich oft um IoT– oder Cloud-Plattformen der Hersteller. So entstehen über das Unternehmen verteilt schnell Datensilos, die zwar Daten erfassen und auswerten, allerdings nur in dem vom Hersteller ermöglichten Bereich. Mit der horizontalen Datenvernetzung in Data-Fabric-Architekturen können Unternehmen derartige Vernetzungsprobleme lösen. Denn dort gehen die Daten nicht notwendigerweise in ein zentrales System, sondern werden stattdessen wie in einem Gewebe in einer separaten Datenschicht miteinander verknüpft.

  1. Daniel Eiduzzis, DXC Technology
    „Hinter der derzeitigen Entwicklung von Data Governance Offices steckt ein spannender Prozess, der mehrere Übungen vereint: Betriebswirtschaftliche und technische Kompetenzen schaffen gemeinsam einen Ordnungsrahmen für ein nachhaltiges Informationsmanagement. Ein solches Competence Center stellt geeignete Werkzeuge zur Überwachung und Steuerung zuvor definierter Compliance-Anforderungen bereit. Data Owner zeichnen für die Harmonisierung und Konsolidierung der unternehmensweit genutzten Key-Performance-Indikatoren (KPI) verantwortlich. Data Scientists helfen bei der technisch anspruchsvollen Aufbereitung und Analyse der betrachtungsrelevanten Data Sets.“
  2. Marcus Flohr, Delphix
    „Ein wichtiger Punkt, der in dem Multi-Cloud-Konzept berücksichtigt werden muss, ist, wie man die Daten in die Cloud bekommt, und das so intelligent, dass man für eine 10-TB-Produktivdatenbank nicht auch noch eine weitere 10-TB-Datenbank in der Cloud für ein Testsystem vorhalten muss. Die Bereitstellung von Rechenkapazitäten in der Cloud ist sofort gegeben. Das ist automatisiert, man kann CPUs, Memories et cetera dazu buchen. Doch wie baut man die verschiedenen Datenkonstrukte intelligent und ohne großen Zeitverlust zusammen?“
  3. Edmund Heider, IDG
    „Wenn wir heute über Datenstrategie reden, denken wir noch nicht daran, was vielleicht in fünf oder zehn Jahren an Möglichkeiten existieren mag. Es ist deshalb nicht nur extrem schwierig, eine Datenstrategie zu entwickeln, sondern auch, die zahlreichen Daten zu verwenden, die erhoben wurden, als es noch keine Strategie gab. Selbst wir als Endnutzer werden mit Daten überschüttet. Wer schaut denn noch auf das Thermometer, wenn man die Temperatur auch auf dem Smartphone ablesen kann? Oder man fährt im Zug und bekommt automatisch die Meldung ,Verspätung‘ oder bei Flugreisen die Nachricht ,Gate geändert‘. Wollen wir, dass so viele Daten auf uns einströmen? Irgendwann wird der Overflow dazu führen, dass es die Leute nicht mehr interessiert, ob ihr Paket im Logistikzentrum Leipzig gerade verarbeitet wird oder nicht.“
  4. Karsten Stöhr, DataStax
    „Bei der Datenstrategie gibt es langfristige Trends, die sich auch nicht mehr umkehren werden. Dazu gehört, dass Daten immer verfügbar sein müssen. Auch, dass man eine Lösung sofort skalieren kann, um den Kunden einen Service schnell bieten zu können. Eine Datenstrategie berücksichtigt auch, dass sich die Kunden auf der ganzen Welt bewegen und den Service jederzeit und überall konsumieren wollen. Von daher darf man den Blick nicht nur nach innen richten, sondern muss bei der Skalierung auch den Kunden die ganze Zeit im Blick haben. Und das ist eine Herausforderung des heutigen Datenmanagements.“
  5. Günter Wassner, Teradata
    „Künftig wird bei einer Lieferverzögerung nicht mehr der Logistikleiter die Entscheidung treffen, ob der Kunde durch Mehrkosten seine Lieferung doch noch erhält, sondern ein Kunden-Scoring, basierend auf einem Algorithmus. Eine Datenstrategie ist da absolut notwendig. Denn wenn diese Entscheidung auf falschen Daten getroffen wird, hat das einen enormen Effekt. Dieses Szenario, in dem hinter einer Entscheidung eine Maschine steht, ist schon heute durchaus Realität – ein Szenario, das die Menschen, die diese Maschinen programmieren, verantwortungsvoll gestalten müssen.“
  6. Georg Wesinger, Celonis
    „Transparenz der Daten zu schaffen, um zu erkennen, wie Prozesse tatsächlich ablaufen, ist der erste wichtige Schritt zur Steigerung der Effizienz in allen Unternehmensbereichen. Die größte Herausforderung besteht allerdings in der Umsetzung, die erst durch eine automatisierte Operationalisierung erreicht wird. Idealerweise haben alle Mitarbeiter kontinuierlich die „next best action“ im Blick und können diese konsequent umsetzen. Nachhaltige Optimierung wird angetrieben durch die Frage: ‚Was muss ich als Nächstes tun, um meinem Ziel, zum Beispiel einer Reduzierung der Durchlaufzeit, näherzukommen?‘ In der Theorie klingt das ganz einfach, aber in der Praxis scheitern die meisten Unternehmen daran, dass sie keine guten Einsichten und Handlungsempfehlungen aus den Daten bekommen, die durch einen Roboter analysiert und bereitgestellt werden.“

In der Regel entsteht dabei unter einer einheitlichen Oberfläche der Data Fabric eine einheitliche Struktur, die unterschiedliche Datensysteme miteinander verbindet. Datenvielfalt, Datenverteilung, Datenumfang und Datenkomplexität können orchestriert, die Transparenz und Datenintegration optimiert und Analysetools integriert werden. Alles wird unterstützt durch ein von den verschiedenen Anwendungsarten unabhängiges, einheitliches User Interface, das den Zugang zu Datenformaten, Plattformen und Speicherorten von allen Endgeräten aus ermöglicht.

Kurz: Die Data-Fabric-Idee möchte Nutzenden standortunabhängig möglichst alle jeweils benötigten unternehmenseigenen Daten zugänglich und auffindbar machen und Verknüpfungen ermöglichen. Ziel ist es, eine sichere, effiziente, vereinheitlichte Arbeitsumgebung zu schaffen. Laut Gartner “kann dies den Aufwand für das Datenmanagement um bis zu 70 Prozent reduzieren.” Kein Wunder also, dass der Data-Fabric-Ansatz für das Marktforschungsunternehmen zu den “wichtigsten strategischen Technologietrends für 2022” gehört.

Betrachtet man den Data-Fabric-Ansatz aus dieser Perspektive, dann ist er die noch intelligentere Fortsetzung der Datenintegration. Die meisten Unternehmen sammeln heute Daten, integrieren sie teilweise automatisch in andere Systeme und reichern eigene Informationen mit Daten aus anderen Systemen an. Abteilungen und Unternehmensbereiche nutzen allerdings oft eigenständige Lösungen und Speicherorte, auf die andere Kollegen keinen Zugriff haben. Ein wesentliches Ziel jeder Organisation sollte es jedoch sein, stets einen umfassenden Überblick über Kunden, Partner, Produkte, Wettbewerb und auch die eigene Historie für alle abrufbar zu halten.

Dazu gehören, je nach Anforderung:

Danach können selbstlernende und sich selbst optimierende Systeme integriert werden.

Es geht also im ersten Schritt darum, Strukturen miteinander zu verbinden, um Daten auffindbar und integrationsfähig zu machen. Um von der reinen Verwaltung vorhandener Daten zu daraus ableitbaren Erkenntnissen zu gelangen, starten die meisten Unternehmen mit der Verbesserung der Datenqualität und der schrittweisen automatischen Integration der Daten in andere Systeme.

Viele Unternehmen nutzen heute Data Lakes und Data Warehouses, um ihre Daten zu verwalten. Hier geht es vor allem darum, Daten zu sammeln und zu speichern und für Einzelanwendungen auf sie zuzugreifen. Eine einheitliche Sicht auf die Daten findet nicht statt, ebenso wenig ihre automatisierte Nutzung. Die Folge ist, dass bei der Datennutzung hohe Latenzzeiten und Kosten entstehen. Die wachsenden Datenmengen verschärfen das Problem noch zusätzlich. Deshalb werden derzeit Mittel und Wege gesucht, um Daten in Echtzeit am Quellpunkt zu speichern, zu extrahieren und zu verarbeiten, um – ebenfalls in Echtzeit – aus der aktuellen Datenlage Entscheidungen ableiten zu können.

Eine Data-Fabric-Architektur ist allerdings keine Struktur, die sich von der Stange kaufen ließe. Da die wenigsten Unternehmen ihre Architektur ohne Bestandsdaten auf der grünen Wiese entwickeln, besteht die Aufgabe darin, die vorhandenen Strukturen Stück für Stück in eine Data-Fabric-Form zu überführen. Die professionelle und im Hintergrund arbeitende Datenintegration, die eine der Kernfunktionen bildet, hilft, das heterogene Produktspektrum unterschiedlicher Hersteller zu einer ressourcenschonenden Struktur weiterzuentwickeln. So werden aus Silos und Lakes interagierende Netzwerke mit hohem Automatisierungsgrad. Der Data-Fabric-Ansatz bildet in dieser Ausbaustufe dann die Basis für eine, aus den Erkenntnissen der Datenintegration generierte, Wertschöpfung. (bw)

Original Post>