Pflegen, ernten, lagern

Vernetzung, Digitalisierung und globale Supply Chains tragen dazu bei, dass es heute sehr wohl eine Rolle spielen kann, ob nun „in China ein Sack Reis umfällt“ – oder eben nicht. Experten sprechen seit einiger Zeit von der VUCA-Welt (Volatility, Uncertainty, Complexity, Ambiguity), also einer Umgebung, in der Entscheidungen und Handeln durch eine Vielzahl äußerer Faktoren gekennzeichnet sind.

Source: Pflegen, ernten, lagern

Während also einerseits die „Welt immer kleiner“ wird, erweitert sich der Horizont der unsicheren Variablen. Doch wie können Unternehmen überhaupt strategische Entscheidungen für die mittlere und sogar lange Frist treffen, wenn niemand genau weiß, welche Folgen z.B. ein im Suezkanal havarierter Frachter für den hiesigen Fahrrad-After-Sales-Markt haben kann? Ganz einfach: Sie müssen nutzen, was sie selbst in der Hand haben – ihre Daten.

Zugegeben, ganz so trivial ist es nicht. Etlichen Unternehmen ist noch gar nicht klar, wieviel ungenutztes Potenzial in den Daten steckt, die sie täglich, minütlich und sogar sekündlich erzeugen. „Viele Unternehmen ordnen ihre Daten nach wie vor nicht als wertvolles Kapital ein“, bestätigt denn auch Florian Malecki, Senior Director, International Product Marketing bei Arcserve. Dabei, so betont er, sei der Wert von Informationen sogar oft höher als der der Produkte und Dienstleistungen eines Unternehmens, was er am Beispiel des Casinobetreibers Caesars Entertainment ausführt: „Als das Unternehmen vor einigen Jahren Konkurs anmeldete, wurden nicht die Vermögenswerte oder der Grundbesitz von Caesars am höchsten eingestuft. Stattdessen waren es die Daten und insbesondere das Kundenbindungsprogramm, das detaillierte Informationen von über 55 Millionen Spielern enthielt. Diese Daten wurden auf einen Wert von rund einer Mrd. Dollar geschätzt.“ Das zeige deutlich, dass Daten einen realen Wert haben und nicht nur Teil einer technologischen Lösung sind.

Daten als strategische Assets

Sonja Slomski, Data Strategy Consultant bei Dotsource, betont die Bedeutung datengetriebener Unternehmensprozesse vor dem Hintergrund der rasanten Entwicklungen, die die digitale Welt bereits vor der Pandemie durchlebt hat. „Waren bestimmte Produkte, Dienstleistungen, Inhalte oder Handlungsweisen in einem Jahr noch erfolgreich, so konnte dies im Folgejahr schon ganz anders aussehen. Der Druck, wettbewerbsfähig zu bleiben, steigt kontinuierlich an und zwingt die Marktteilnehmer dazu, die sowieso schon schnell fortschreitende Entwicklung mit noch höherer Geschwindigkeit voranzutreiben“, sagt sie. Um den Herausforderungen zu begegnen und neue Chancen zu eröffnen, müssten Unternehmen ihr Handeln auf ein datengetriebenes Vorgehen umstellen. Dies gelte, so die Expertin, nicht nur für das Management, sondern für alle Abteilungen und Mitarbeiter eines Unternehmens bzw. einer Organisation. In diesem Zusammenhang lege die Datenstrategie fest, wie externe und interne Daten zusammengeführt werden müssen, um aus ihnen wertvolle Informationen zu gewinnen. „Diese dienen wiederum der frühzeitigen Erkennung von Veränderungen innerhalb der Umwelt oder bestimmter Prozesse und erlauben im besten Fall deren Vorhersage“, erklärt Slomski weiter.

„Eine individuelle Datenstrategie ist die beste Antwort auf die aktuelle VUCA-Atmosphäre unseres digitalen Zeitalters“ – zu diesem Ergebnis kommt Dr. Jens Linden. Wer in Krisenzeiten sein Unternehmen schnell und bestimmt steuern wolle, sei auf volle Transparenz angewiesen. Es müsse umgehend bekannt sein, bei welchen Produkten oder Kategorien es zu Umsatzeinbrüchen kommt oder an welchen Stellen ein Unternehmen profitiert, so der Senior Data Scientist & Strategist von Inform Datalab. Unternehmen, die während der Pandemie mit einem Klick auf relevante Informationen zugreifen konnten, hätten taktische und strategische Vorteile – etwa, um ihre Liquidität zügig zu managen. „Wenn hingegen die Datenbasis erst in mühsamer Handarbeit aus verschiedensten Excel-Dokumenten und Quellsystemen extrahiert werden muss, können Führungskräfte nicht schnell genug agieren, befinden sich sogar erst einmal im ‚Blindflug‘“, warnt er. Eine Datenstrategie, so Linden ferner, lege das Fundament für eine effiziente Datenbewirtschaftung und erlaube die zeitnahe Validierung sowie Umsetzung vieler Anwendungsfälle – nicht nur in den Bereichen Reporting und Business Intelligence (BI), sondern auch bei Data Science und Künstlicher Intelligenz (KI). Diese Strategie, so erklärt er, sorge dafür, dass Daten mit der nötigen Sorgfalt behandelt werden (Data as an Asset). So stünden eindeutige Informationen (Single Source of Truth) zeitnah und in hoher Qualität zur Verfügung.

Die Notwendigkeit zu einer dedizierten Strategie hebt auch Martin Szugat, Inhaber und Geschäftsführer von Datentreiber, hervor. „Risiken entstehen durch einen Mangel an verlässlichen und schnellen Informationen. Eine individuelle Datenstrategie identifiziert den Informationsbedarf im jeweiligen Unternehmen anhand der kritischen Entscheidungen in den relevanten Geschäftsprozessen und leitet daraus die Anforderungen an die Daten, Analytik und Organisation ab“, sagt er. Mit der richtigen Datenstrategie wüssten Unternehmen, welche entscheidenden Fragen in Krisen zu stellen sind und wo bzw. wie sie die Antworten zeitnah erhalten, so Szugat.

Positiv bewertet Dr. Jens Linden, dass das Thema „Datenstrategie“ im Rahmen der Digitalen Transformation Fahrt aufnimmt. Allerdings sieht er auch große Unterschiede im Datenreifegrad der Unternehmen. Vorreiter gebe es sowohl im Umfeld der Konzerne und großen Organisationen als auch im Mittelstand. Diese, so führt er aus, hätten das Potenzial ihres Bereichs erkannt und verstanden, wie Datenlösungen ihre strategischen Unternehmensziele entlang der gesamten Wertschöpfungskette unterstützen könnten, was ein erster wichtiger Schritt sei. Allerdings gebe es auf der anderen Seite des Spektrums noch Firmen, die Datenwertschöpfung nach wie vor nicht strukturiert und zentralisiert angehen – obwohl sie vielleicht sogar mehrere Tausend Mitarbeiter beschäftigen. „Aber auch Vorreiter haben meist noch Luft nach oben: Wir arbeiten beispielsweise mit Kunden, die bereits ihre eigene Fachabteilung für Daten aufgebaut haben, ihre strategischen Anwendungsfälle aber noch nicht über mehrere Divisionen hinweg strukturieren und priorisieren können“, berichtet er aus der Praxis.

Doch woran kann es liegen, dass längst noch nicht jedes Unternehmen seine Daten bereits gewinnbringend einsetzt? Fehlt es am nötigen Verständnis für ihren Wert? Datenexperte Szugat hat hier zwei Erkenntnisse: „Die gute Nachricht: Viele Unternehmen betrachten Daten heute als eigenständiges Asset. Die schlechte: Nur wenige Unternehmen setzen die notwendigen Maßnahmen konsequent um.“ Unternehmen müssten Daten zielgerichtet verwerten, kontinuierlich verfeinern und strategisch erschließen, so seine Einschätzung.

Lesen lernen, Awareness schaffen

Dass es nicht ausschließlich daran liegt, dass die Entscheider das Potenzial ihrer Daten noch nicht erkannt hätten, merkt auch Sonja Slomski an, denn das grundlegende Bewusstsein dafür, die eigenen Daten intensiver zu nutzen, liege bei den meisten Unternehmen bereits vor. Häufig, so sagt sie, scheitere es allerdings an einer gesamtheitlichen Strategie und der anschließenden Umsetzung. Laut Slomski gibt es genügend Fälle, in denen Unternehmen nach anspruchsvollen datengetriebenen Lösungen fragen, diese aber nicht umgesetzt werden können, da es an der hierfür notwendigen Systemlandschaft bzw. Datenbasis fehlt. Mitarbeiter im Daily Business hätten zudem nicht die Kapazität, die Vielzahl an Datenquellen im Unternehmen technisch anzubinden. „Manchmal fehlt es aber auch einfach an Wissen, wie mittels geeigneter Verfahren Informationen gewonnen werden können“, ergänzt sie.

Eine mangelnde Data Literacy ist auch für Dr. Jens Linden einer der Hemmschuhe, wenn es um das „Ernten“ von Datenpotenzial in Unternehmen geht. Fehle es auf Seiten des Managements an Datenkompetenz und seien die Entscheider mit der Datenwertschöpfung bzw. deren Möglichkeiten und Risiken nicht vertraut, fielen Investitionsentscheidungen oft schwer. „Ohne klares Commitment der Führungsebene können höchstens einzelne Wissens- und Datensilos entstehen, die für ihren Bereich versuchen, Datenpotenziale zu erheben. Dieser Weg ist allerdings suboptimal“, gibt der Inform-Datalab-Experte zu bedenken.

Noch deutlichere Worte findet an dieser Stelle Datentreiber-Geschäftsführer Martin Szugat, der feststellt, dass in den meisten Unternehmen noch die Datenkompetenz und -kultur fehlen – in der Breite der Belegschaft und insbesondere auch in der Geschäftsführung. „Entsprechend lassen sich viele Unternehmen von ihren Daten treiben, anstatt getrieben davon zu sein, die richtigen Daten zu erfassen und zu nutzen“, warnt er. Eine vollständige Datenstrategie umfasse auch einen klaren Plan zur kontinuierlichen Steigerung der Kompetenz und zur dauerhaften Etablierung einer Datenkultur. Um die Awareness für einen gezielteren Umgang mit dem Thema zu steigern, habe Szugats Unternehmen bei seinen Kunden bereits verschiedene Maßnahmen erfolgreich umgesetzt: angefangen bei inspirierenden Vorträgen in der Mittagspause, über praxisorientierte und mehrstufige Schulungen bis hin zu interdisziplinären Pilotprojekten. „Entscheidend für den Erfolg von Daten und Analytik ist, dass mehrere Faktoren zusammenkommen: das Sollen (die Strategie), das Können (die Kompetenz), das Wollen (die Kultur), das Dürfen (die Governance) und das Machen (die Projekte)“, fasst er zusammen.

Auch Sonja Slomski bemerkt, dass sich auf dem Gebiet „Data Awareness“ in der Vergangenheit etwas bewegt hat: „Immer mehr Unternehmen führen Stabsstellen in Form von Digitalbeauftragen ein oder gründen gar ganze Abteilungen, die sich mit der Thematik des digitalen Wandels und datengetriebener Lösungen befassen“, so ihre Beobachtung. Dabei müsse aber nicht sofort eine organisationale Umstrukturierung her, denn sinnvoll kann es bereits sein, Mitarbeiter aus den verschiedensten Unternehmensbereichen in die Projektteams zu integrieren und an der Anforderungsaufnahme teilhaben zu lassen. So gehe man sicher, dass sich niemand übergangen fühlt und alle Anforderungen ausreichend aufgenommen werden können. Weiterhin sei es wichtig, dass die Projekte am Ende einen für alle Beteiligten verständlichen Mehrwert haben. Ihrer Erfahrung nach können gerade kleinere Projekte über einen Bottom-up-Prozess großen Einfluss auf die Strukturen im Unternehmen nehmen. „Die Awareness für das Thema ‚datengetriebenes Arbeiten‘ erwächst auf diese Weise mehr oder weniger organisch“, erklärt Slomski.

Datenfriedhöfe vermeiden

Doch auch wenn es in den Unternehmen schon ein gewisses Bewusstsein für die unternehmerische Relevanz der Materie gibt – die Daten selbst müssen auch gewisse Bedingungen erfüllen. Das fängt schon beim Sichern an, denn nicht alles, was an Informationen erhoben und irgendwo abgelegt wird, ist gleich wichtig und nützlich. Ein Problem, das Florian Malecki vom Speicherexperten Arcserve kennt. „Viele Unternehmen“, sagt er, „verfügen über keine Lösung zur Datendifferenzierung. Hinzu kommt, dass IT-Teams bei Backup und Wiederherstellung traditionell dazu neigen, übervorsichtig zu sein. Sie arbeiten nach dem Prinzip: ‚Wenn man alles sichert, kann man nichts falsch machen.‘“ Dies sei einigermaßen erfolgreich in Unternehmen, die eine lineare Datenmenge erzeugen, da sie dadurch die Kosten für den Speicher planen können. „Aber im 5G-Zeitalter mit exponentiellem Datenwachstum wird diese Vorgehensweise nicht mehr funktionieren. Unternehmen, die trotz hoher Datenwachstumsraten alle Daten gleichbehandeln, laufen durch die entstehenden Speicherkosten Gefahr, Bankrott zu erleiden“, mahnt Malecki eindringlich. Vielmehr seien Unternehmen gerade durch die Folgen der 5G-Technologie gefordert, neue Konzepte für eine wirtschaftlich sinnvolle Datenspeicherung zu entwickeln. Ein leistungsfähiger und kostspieliger Tier-1-Speicher für könne z.B. für unternehmenskritische Daten verwendet werden, auf die häufig zugegriffen werden muss und deren Wiederherstellung schnellstmöglich gewährleistet sein sollte. Weniger wichtige Daten ließen sich mit kostengünstigeren Lösungen sichern.

„Die Herausforderung besteht dann darin, schnellstmöglich zu entscheiden, welche Daten wichtiger sind als andere“, sagt Florian Malecki. Glücklicherweise gebe es bereits eine neue Generation von Datenmanagement-Lösungen, die – ausgestattet mit KI – große Hilfe bei der Datenklassifizierung bietet. Durch die Umstellung auf ein intelligentes und dynamisches Datenverwaltungs- und -sicherungsmodell, so der Experte, können Unternehmen ihre Speicherkosten auch im 5G-Zeitalter kontrollieren. Außerdem hätten Unternehmen bei der Umsetzung von beispielsweise Virtual-Reality- und Echtzeit-Monitoring-Anwendungen oder der Fernsteuerung von Geräten die Gewissheit, dass ihre Speicher der Kapazität und Aufgabenstellung gewachsen sind.

Jagen und Sammeln war gestern

In einer Zeit, in der wir ein exponenzielles Datenwachstum sehen, ist also die Frage nach den Kosten einer undifferenzierten Sicherung und Lagerung nicht unerheblich. Wer hier ungeplant vorgeht, kann in die Kostenfalle geraten. „Wie viele dieser Daten schlussendlich sinnvoll genutzt werden können, muss jedes Unternehmen über eine eigene Kosten-Nutzen-Rechnung für die Datenakquise ermitteln“, empfiehlt daher auch Jens Linden. Am Ende komme es auf die Anwendungsfälle an, weshalb es essenziell sei, diese gut zu definieren und systematisch zu entwickeln sowie Daten strukturiert zu sammeln und zu analysieren. Oft, so Linden, könne jedoch erst im Anschluss ein möglicher Nutzen den Kosten gegenübergestellt werden.

Hinzu kommt, dass, so beschreibt es Martin Szugat, die meisten Daten in Unternehmen Abfalldaten sind: „Sie fallen im Rahmen des Geschäftsbetriebs an bzw. ab. Entsprechend ist ihr (Informations-)Wert gering: Sie beantworten Fragen, die nie gestellt werden, weil sie nicht relevant sind oder die Antwort bereits bekannt ist.“ Die Daten lägen häufig in einer Quantität, Qualität, Komplexität, Repräsentativität etc. vor, welche die Analyse erschweren und teure und zeitfressende Analysen sowie unscharfe und unvollständige Ergebnisse nach sich ziehen.

Ein Punkt, den auch Sonja Slomski von Dotsource aus der Praxis kennt. „Daten zu sammeln, nur um sie am Ende zu besitzen, ist grundsätzlich die falsche Herangehensweise. Gesammelte Daten veralten schnell und werden auf diese Weise unbrauchbar“, warnt sie. Viele Unternehmen bauten regelrechte Datenfriedhöfe auf, die am Ende nur unnötig Ressourcen verzehren. „Das Zeitalter der blinden Sammelwut ist nicht nur auf Grund neuer Vorgaben wie der DSGVO vorbei“, sagt sie entschieden.

„Es ist wie mit der Suche nach der Nadel im Heuhaufen: Sie finden die Nadel nicht schneller, wenn Sie mehr Heu anhäufen“, stimmt Datentreiber Martin Szugat zu und ergänzt: „Ebenso finden Sie die relevante Information nicht schneller, wenn Sie mehr Daten sammeln. Es gilt auch weiterhin: Wer viel misst, misst viel Mist.“ Daten zu analysieren, bedeute vielmehr, die Informationen aus dem Misthaufen zu trennen.

Das schiere Volumen an erzeugten und gespeicherten Daten wird weiter anwachsen, eine natürliche Obergrenze sehen die Experten nicht. Natürlich spielen Faktoren wie Wirtschaftlichkeit und Nachhaltigkeit dabei eine zunehmende Rolle, aber mit dem Erstarken von Ansätzen wie KI, 5G und dem Internet of Things ist eine weitere Datenexpansion vorprogrammiert. Höchste Zeit also für Unternehmen, eine ganzheitliche Datenstrategie – von der Erhebung bis zur etwaigen Entsorgung oder Nutzung – aufzusetzen.

Eine solche Strategie, so erklärt Jens Linden von Inform Datalab abschließend, umfasst nicht nur technische Lösungen und Werkzeuge. „Ich kann nicht aufhören zu betonen, dass Technologie zwar ein wichtiger Aspekt, aber neben Menschen, Organisation, Prozessen und Daten nur einer von mehreren Faktoren ist“, so der Datenfachmann. „In den seltensten Fällen scheitert es an der Technologie – viel eher liegt es an den anderen Faktoren. Eine gute Datenstrategie berücksichtigt dies.“

Leave a Reply