Data Lakes und Analytics bei RWE Generation

Big Data und Data Analytics will inzwischen fast jedes Unternehmen nutzen. Doch per Knopfdruck lässt sich die intelligente Datenanalyse nicht einführen. RWE Generation und Detecon geben einen Einblick in ein Change-Projekt mit Überzeugungsarbeit.

Source: Data Lakes und Analytics bei RWE Generation

Es scheint alles ganz einfach. In jedem Unternehmen entstehen massenhaft Daten, die nur auf die passende Analyse warten. Dann lassen sich aus den Ergebnissen neue Erkenntnisse für Prozessverbesserungen ziehen, von denen nahezu jeder Bereich im Unternehmen und auch die Kunden profitieren können. Tools stehen jedenfalls in der Cloud für eine ganze Reihe von Anwendungsfällen zur Verfügung. Rechenkapazitäten sind dabei schon längst kein limitierender Faktor mehr.

Datenanalyse in Bereichssilos

(Bild: RWE AG)
Advertisements

Das gilt auch im RWE-Konzern. Dort entstehen quasi im Stundentakt große Datenmengen, die nur auf den passenden Algorithmus warten, um ihnen Ideen für bessere und kostengünstigere Prozesse zu entlocken. Die einzelnen Fachbereiche haben das erkannt, die ihnen zur Verfügung stehenden Daten genommen und Data Scientists damit beauftragt, geeignete Analyseverfahren zu entwickeln. „2019 konnten wir in der IT wahrnehmen, dass es im Konzern eine ganze Reihe von Aktivitäten rund um moderne Digitalisierungstechnologien gab. Angefangen von Augmented Reality über Dashboarding, den Einsatz von Drohnen bis hin zu Data Analytics“, sagt Udo Eberhardt, IT-Projektleiter bei RWE Generation. „Das fand allerdings überwiegend in Silos statt. Die Bereiche machten das für sich allein, da ihnen für Data Analytics nur die eigenen Daten zur Verfügung standen. Wir wollten diese Silostruktur aufbrechen und zeigen, dass mit einem bereichsübergreifenden Datenpool noch weitreichendere Analysen und Ergebnisse erreichbar sind.“

(Bild: Detecon)

Nur wenigen Unternehmen gelingt der Schritt vom einzelnen Anwendungsfall zum großflächigen Einsatz. Meist fehlt hierbei ein übergreifender Informationspool, mit dem die Fachbereiche ihre eigenen Daten anreichern und aussagekräftigere Analysen fahren können. „Kein ungewöhnlicher Zustand – gerade bei Großunternehmen“, sagt Frank Arndt, Managing Consultant bei Detecon. „Es fehlt vielen Unternehmen noch an einer unternehmensweiten Daten- und Analyse-Strategie. Dies führt dazu, dass die Fachbereiche, je nachdem wie weit sie digital denken, mit eigenen Data Scientists ausschließlich ihre eigenen Analysen machen.“ Der Nachteil sei, dass die Projekte nicht zusammenhängen und bereichsübergreifende Potenziale nicht gehoben werden.

Bereichsübergreifende Analysearchitektur

Advertisements

„Wir wollten dies ändern, indem wir eine zentrale Strategie entwickelt und die existierenden Analytics-Aktivitäten in verschiedenen Fachabteilungen harmonisiert haben. So können möglichst viele von den Analysen profitieren“, sagt Eberhardt. „Ziel war eine übergreifende Infrastruktur und Plattform, die sich entsprechend der Anforderungen und der weiter wachsenden Anzahl an Use Cases flexibel und skalierbar mitentwickelt.“ Eine nachvollziehbare Vorgehensweise – jedenfalls theoretisch. Aber dafür müssen möglichst viele Daten-Stakeholder ins Boot geholt werden. Was nicht immer ganz einfach ist, wenn diejenigen, die bereits mit den Ergebnissen ihrer lokalen Analysen zufrieden sind, neu überzeugt werden müssen.

Detecon hat daher zunächst gemeinsam mit der IT von RWE ein Konzept entwickelt, aus der sich eine Big-Data-Analysearchitektur ableiten lässt. Ein Prototyp sollte zeigen, welche Vorteile dies auch für die Fachbereiche hat, die schon mit Data Analytics Erfahrungen gesammelt hatten. Wichtig im ersten Schritt, war die Identifikation, Bündelung und Priorisierung von Use Cases, die den Erfolg eines gemeinsamen Vorgehens deutlich gezeigt haben und auch den monetären Vorteil offen gelegt haben.

Damit sollten sich auch Skeptiker von den Vorteilen eines konzernübergreifenden Datenpools überzeugen lassen. Am Ende dieser Phase sollten Proof of Concepts stehen, die sich dann in einer zweiten Phase schnell mit Prototyping umsetzen lassen. „Wir haben rund 70 Use Cases identifiziert, zu Clustern zusammengefasst und dann priorisiert“, sagt Arndt.

Data Lake stellt Daten zur Verfügung

Advertisements

Das Team wählte dafür zwei Use Cases aus, die typisch sind für Kraftwerksbetreiber. So schwankt die Verfügbarkeit eines Kraftwerks aus unterschiedlichen Gründen und erzeugt entsprechend unterschiedliche Mengen an Energie. Kann ein Betreiber frühzeitig erkennen, welche Mengen Energie ein Kraftwerk wann erzeugt, lässt sich die Gesamtproduktion genauer darauf abstimmen. „Bisher haben einzelne Standorte mit den vor Ort entstandenen Daten verteilte Analysen dazu gefahren. Wir wollten nun zeigen, welche Vorteile es bringt, die Daten mehrerer Kraftwerke in einem Data Lake zu sammeln und übergreifend analysieren zu können. Dann könnte man besser die zukünftige Verfügbarkeit abschätzen“, erklärt Eberhardt den ersten Use Case. „Es geht also um bessere Kapazitätsplanungen, womit sich die wirtschaftliche Effizienz steigern lässt.“

Der zweite Use Case sollte zeigen, wie sich mithilfe von Fotos der Betriebsanlagen und -aggregate und einem Deep-Learning-Algorithmus Stellen mit Wartungs- und Reparaturbedarf frühzeitig und automatisiert erkennen lassen, bevor eine Anlage ungeplant ausfällt. „Auch hier hilft es, die Daten aus vielen Standorten in die Analyse einzuspeisen, da der Algorithmus dadurch noch ‚intelligenter' wird“, sagt Eberhardt und spricht einen sehr wichtigen Aspekt für die Akzeptanz übergreifender Data Lakes an: „Die jeweiligen Data Scientists müssen selbst auf die Daten zugreifen und ihre bevorzugten Tools nutzen können.“

Extrem wichtig sei es, zu erkennen, dass ein Data-Analytics-Projekt kein Technologie-Projekt sei, in dem es um IT und Tools gehe. Die Daten gehörten dem Business und in den Silos hätten sich Prozesse eingespielt, „die jetzt neu aufgesetzt werden sollen. Die Fachbereiche sollen von überzeugt werden, dass sie von einem größeren Datenpool profitieren können. Es geht also auch um die Unternehmenskultur und gemeinsame Ziele.“ Im Grunde genommen sei es ein Change-Projekt, in dem die Data Owner zunächst davon überzeugt werden müssen, mitzumachen, da sie dadurch einen Mehrwert erzielen.

Gap-Analyse von IT und Daten

(Bild: Detecon)

Wenn Use Cases vorliegen, lassen sich darauf basierend notwendige Business- und IT-Capabilities definieren und auch die Datenqualität prüfen. „Die Ergebnisse fließen dann in eine Gap-Analyse ein. Sie zeigt, welche vorhandenen IT-Systeme überhaupt für die Use Cases genutzt werden, wo die IT eventuell noch Lücken aufweist oder welche Daten noch erhoben werden müssen, um den Use Case optimal umsetzen zu können“, weiß Gernot Stocker, Experte für Big Data & Analytics bei Detecon und als Branchenkenner an der Schnittstelle zwischen Data Science und Data Engineering.

Da RWE bis dato noch viele Legacy-Systeme betreibt, zeigte sich, dass für den Proof of Concept und das spätere Prototyping die Analysen mithilfe von Cloud-Services gefahren werden sollten. „Wir haben uns für Microsoft Azure entschieden, da hier wichtige Analytics-Tools zur Verfügung stehen“, sagt RWE-Projektleiter Udo Eberhardt. Die Cloud habe auch den Vorteil, so Gernot Stocker, dass die Infrastruktur skalierbar sei. Man kann mit geringem Aufwand starten, und erst wenn sich der Mehrwert bestätigt, kann die Cloud nach oben skaliert werden: „Wie schnell man dabei vorgeht, bleibt dem Unternehmen selbst überlassen und lässt sich an den jeweiligen Use Case anpassen.“

Advertisements

Wenn die Use Cases verabschiedet sind, die Datenverfügbarkeit und die Qualität der Daten passt, die benötigte technische Infrastruktur steht und die notwendigen Tools vorhanden sind, stellt sich dem Data Scientist eine Frage: Wird durch die Analysen ein Mehrwert für das Business geschaffen? Dazu extrahiert er mit geeigneten Algorithmen und der richtigen Kombination an Daten jene Informationen, welche notwendig sind, um geeignete Eingriffe in den Produktionsablauf zu tätigen. „Ansonsten hat man direkt verloren“, weiß Arndt. Und eine von allen Seiten getragene Data Governance entscheidet dann darüber, ob die Use Cases in den Regelbetrieb gehen können und nach und nach weitere Use Cases dieselben Phasen durchlaufen. Dafür müssen Organisation und Prozesse abgestimmt, eine Organisation mit Data Council und Regelprozessen definiert sein und klar sein, wer Zugriff auf welche, qualitätsgesicherten Daten bekommt.

Digitalisierung lässt Grenzen zwischen IT und Fachbereichen verschwimmen

Digitalisierung ist bei RWE Generation der Schlüssel zum Erfolg und wird von allen Kolleginnen und Kollegen abteilungsübergreifend vorangetrieben – nicht nur von der IT-Abteilung. „Wir von der IT stellen den Fachbereichen die Plattform zur Verfügung, sorgen für die Datenverbindung und unterstützen beim Zugriff auf die Tools. Wir schreiben aber nicht vor, was sie zu tun haben”, so Eberhardt. Die Zusammenarbeit zwischen IT und den Fachbereichen wird daher immer wichtiger. So können Fehlschläge vermieden und Ressourcen effektiver genutzt werden. Im Fokus stehen dabei immer die Wünsche und Anforderungen des Fachbereichs. Schließlich müssen die Kollegen in Zukunft die Prozesse betreuen und Daten weiterverarbeiten. Eines wir dabei deutlich: Nur gemeinsam lässt sich das volle Potenzial von Data Lakes und Analytics ausschöpfen.

(ID:47409338)