Data in Motion: Mit Echtzeit-Streaming eine eventgetriebene IT aufbauen



 

Echtzeitdaten sind eine der wichtigsten Ressourcen für Unternehmen, um sich in der “Digital first”-Welt zu behaupten. Um die anfallende Datenflut richtig zu kanalisieren, müssen Datenströme aus allen Anwendungen, Systemen und Unternehmensteilen miteinander verbunden werden. Ziel dabei ist, ein zentrales Nervensystem zu schaffen, das in Echtzeit funktioniert, also “Data in Motion” nutzt. Viele Unternehmen haben mit dieser Modernisierung ihrer Dateninfrastruktur bereits angefangen.

 

Wie weit sind die Unternehmen aktuell in diesem Prozess? Confluent, der Pionier im Bereich Daten-Streaming, hat gemeinsam mit Lawless Research 1.950 Führungskräfte aus dem Bereich IT und Engineering in den USA, Großbritannien, Deutschland, Frankreich, Australien und Singapur befragt, wie sie derzeit mit diesem Thema umgehen. Die Ergebnisse zum Status quo sind in der Case Study “The State of Data in Motion” zusammengefasst, die Sie hier herunterladen können. Darüber hinaus zeigt die Studie auf, wie Unternehmen mithilfe von Echtzeitdatenströmen auch in Zukunft erfolgreich sein können.

 

Hier die wichtigsten Ergebnisse der Befragung:

Die Mehrheit der Führungskräfte aus dem Bereich IT und Engineering hat bereits Zugang zu Echtzeit-Datenströmen und verzeichnet aus diesem Grund ein deutlich höheres Umsatzwachstum als die Wettbewerber. Mehr als 80 Prozent der Führungskräfte sehen den Effizienzgewinn als größten Vorteil, weitere 48 Prozent eine höhere Kundenbindung und schnellere Reaktionszeiten auf sich ändernde Umstände.

 

 

Angesichts der explosionsartigen Zunahme der Anzahl von Datenquellen – von Sensoren in der Produktionslinie und IoT-Geräten bis hin zu mobilem E-Commerce und digitalem Banking – stellt die Realisierung von Echtzeitdaten-Streaming viele Unternehmen allerdings vor große Herausforderungen. Da häufig hybride Architekturen sowohl aus Cloud- als auch On-Premises-Umgebungen vorherrschen, kommt es darauf an, dass Daten zwischen allen Standorten fließen können. Dies erfordert beispielsweise von Lieferdiensten eine auf die Minute genaue Verfolgung von Lagerbeständen, Preisen und Werbeaktionen bei Tausenden von Einzelhändlern.

Allerdings fehlt oft die dafür notwendige Architektur, die Informationen aus vielen verschiedenen Quellen integrieren kann. 60 Prozent der für die Studie Befragten sehen hier Schwierigkeiten, ebenso bei den Themen Sicherheit und Compliance. Und nur 27 Prozent der befragten Unternehmen verfügen über Data-Governance-Tools, die die Verfügbarkeit, Integrität und Sicherheit von Daten verwalten. Die Mehrheit plant jedoch die Einführung solcher Tools in den nächsten Jahren.

 

Eine Data-in-Motion-Architektur aufzustellen, mit deren Hilfe wichtige Entscheidungen in Echtzeit getroffen werden können, beginnt üblicherweise mit einer Anfangsphase von ein oder zwei Projekten und wird dann schrittweise auf andere Anwendungen ausgeweitet. Daraus ergibt sich zudem ein natürlicher Netzwerkeffekt, der für eine breitere Akzeptanz und Annahme im gesamten Unternehmen sorgt.

 

 

Wie eine solche Transformation in der Praxis gelingen kann, zeigt das Logistikunternehmen LKW Walter. Aufgrund der sinkenden Margen auf dem Transportmarkt setzt das Unternehmen auf Automatisierung. Die klassischen Jobs – also den Lkw-Fahrer anzurufen und zu fragen, wo er ist, oder dem Kunden telefonisch mitzuteilen, dass der Lkw zu spät kommt – sind durch KI ersetzt worden. Auch die Bearbeitung von Ausschreibungen und Transportanfragen, die Mitarbeiter zuvor viel Zeit gekostet haben, wurden weitgehend automatisiert.

 

 

Echtzeitdaten-Streaming bei LKW Walter: Transportierte Waren werden rund um die Uhr mit Telematik-Systemen überwacht. Geofencing informiert die Kunden automatisch über das Eintreffen der Fahrzeuge an der Be- und Entladestelle.

Foto: LKW Walter

Die größte Produktivitätssteigerung ist mit dem Aufbau einer eventgetriebenen IT-Architektur gelungen. Events sind zum Beispiel die Ankunft eines Lkw an einem bestimmten Ort, die voraussichtliche Ankunftszeit oder Auftragseingänge. Hier setzt LKW WALTER die cloudnative Plattform Confluent, basierend auf Apache Kafka, ein, die die unzähligen IoT-Datenströme aus GPS-Sensoren in Echtzeit zusammenführt. Das Besondere dabei: Kafka versetzt andere Anwendungen in die Lage, diese Events zu interpretieren und selbstständige Entscheidungen zu fällen.

“Viele unserer Module triggern sich gegenseitig”, sagt Vincent Beaufils, Chief Digital Officer bei LKW WALTER. “Das Tool ersetzt damit mehr und mehr die klassische Computer-Mensch-Interaktion.” Die Transportpartner nehmen Ladungen eventgesteuert im Internet selbst an. Kundenanfragen zum Transport werden ohne menschliche Prüfung in Echtzeit kommuniziert, zum Beispiel die Ankunftszeit eines Lkw, damit der Kunde die Rampen vorbereiten kann. Und beim Pricing ist die menschliche Interaktion sehr stark reduziert worden.

Lesen Sie die vollständige Case Study hier.

 

Original Post>

Business Intelligence: Wie Datenkompetenz und Active Intelligence Echtzeit-Analytics ermöglichen