Aufbruch in die Yottabyte-Ära: Die Zukunft braucht daten-zentrische Storage-Architekturen

Unternehmen sammeln heute schon Daten in nie dagewesenem Umfang. Wobei “Daten” längst nicht mehr nur Einträge in Datenbankfeldern sind: Dokumente, Texte, Bilder, Sound-Dateien, Videos und viele weitere unstrukturierte Daten sind inzwischen die eigentlichen, treibenden Kräfte des raschen Datenwachstums. Das Wachstum der Datenmenge alleine ließe sich womöglich noch mit herkömmlichen Strategien bewältigen: Diverse Scale-Out-Strategien haben schließlich auch in der Vergangenheit geholfen, immer größer werdende Datenmengen abzulegen. Aber es geht längst nicht mehr darum, Daten zu speichern. Unternehmen wollen und müssen mit Daten arbeiten.

Die Entwicklungen in den Bereichen Maschinenlernen und Künstliche Intelligenz erlauben es, aus immer größeren Datenmengen Nutzen zu ziehen – sei es nun zur Analyse von Kaufabbrüchen im Online-Shop oder bei der videogestützten Qualitätsanalyse in der Produktion. Umso größer die Datenmenge ist, desto aussagekräftiger werden die daraus gewonnen Analysen. Wichtig ist das, weil deren Zuverlässigkeit immer häufiger über den Erfolg von Optimierungsmaßnahmen bestehender Prozesse oder ganz neuer Geschäftsmodelle entscheidet. Knapp kalkulieren ist Trumpf – geht aber nur, wenn die Berechnungsgrundlagen stimmen.

Herkömmliche Storage-Architekturen sind darauf nicht ausgelegt. Sie sind Datenspeicher, nicht Datenpools für die Analyse. Direkt im Zugriff ist bisher immer nur ein kleiner Teil der hab-strukturierten oder unstrukturierten Daten. Wenn man weiß, dass die – je nach Branche und Sichtweise – deutlich über 80 Prozent aller Daten in Unternehmen ausmachen, dann erahnt man das Potenzial, das hier schlummert – sich aber wegen Silos, aufwändiger ETL-Prozesse (Extract, Transform, Load) und unterschiedlicher Storage-Ansätze sowie der Datenhaltung in unterschiedlichen Data Warehouses und Date Lakes nicht erschließen lässt.

Es ist daher an der Zeit, die Perspektive zu wechseln und auf neue Architekturen zu setzen. Im Mittelpunkt müssen nicht mehr die Storage-Geräte mit ihren Funktionen und Spezifikationen stehen, sondern die Daten. Solch ein daten-zentrisches, neues Storage Konzept hat Huawei auf dem Innovative Data Infrastructure Forum 2022 in Unterschleißheim bei München vorgestellt.

Dr. Peter Zhou, President IT Product Line bei Huawei, betonte, dass die bisherigen Architekturen, bei denen Storage und Rechenleistung (Compute) eng verknüpft sind, entkoppelt werden müssen. Sie seien für herkömmliche, datenbank-orientierte Anwendungen ausgelegt. Im Zuge der Digitalisierung und mit neuen Geschäftsmodellen übernehmen aber bisher traditionellen ERP-Systemen vorbehaltene Aufgaben aber immer häufiger neue Daten-Applikationen. Beispiele dafür sind etwa Apache Spark, Apache Flink, TensorFlow oder Kubernetes. Die haben völlig andere Anforderungen an den Umgang mit Daten, die nur durch eine daten-zentrische Storage-Architektur bedient werden können.

Die von Huawei vorgeschlagene Storage-Architektur stellt die Nutzung der Daten in den Mittelpunkt – nicht die Speicherung (Grafik: Huawei)


Foto: Huawei

Die Entkopplung ermöglicht zudem eine bessere Auslastung des jeweiligen Bereichs und dadurch Kostenvorteile. Gleichzeitig bietet die Entkopplung eine Möglichkeit, mit der immer weiter auseinandergehende Schere zwischen den Lebenszyklen von Computing- und Storage- Komponenten zurechtzukommen. Huawei bietet dafür Software für flexibles und unabhängiges Management sowie die Wartung von Storage- und Computing-Ressourcen.

Auch die Trennung der Speicherformaten Block Storage, File Storage, Object Storage und HDFS ist in Zukunft, wenn immer neue Anwendungen zu unterschiedlichen Zwecken auf die Daten zugreifen, nicht mehr sinnvoll. Als Lösung bietet Huawei einen einheitlichen Namensraum und die Kombination der bisher üblichen, getrennten Baum-Strukturen (bei Files) und flachen Strukturen (bei Objektspeicher) an. Die Huawei Data Management Engine (DME) sowie weitere Tools für Automatisierung, Regelverwaltung, Analyse und Vorhersagen sorgen dafür, das Daten über ihren gesamten Lebenszyklus allen Anwendungen über standardisierte APIs zur Verfügung stehen – unabhängig davon, wo sie benötigt werden: in virtuellen Maschinen, für OpenStack, Kubernetes oder in der Public Cloud.

Letztlich liegen die Daten aber auch künftig auf Storage-Devices. Hier stellt Huawei allerdings nicht einzelne Produkte in den Vordergrund, sondern betont die Vorteile eines konvergenten Pools an Storage-Ressourcen. Damit steht für jede Anforderung ein besonders dafür ausgelegtes Produktportfolio bereit, lassen sich aber die dort vorhandenen Date problemlos auch in anderen Zusammenhängen nutzen.

Huawei unterscheidet vier Produktkategorien:

OceanStor Dorado (High-End-All-Flash-Systeme)

OceanStor Pacific (Massendatenspeicherung)

OceanProtect (für Backup und Ransomware-Schutz)

FusionCube (Hyper-Converged Infrastructure).

Die All-Flash-Systeme OceanStor Dorado bieten active-active Disaster Recovery sowohl für SAN als auch NAS, erreichen bis zu 21 Millionen IOPS, eine Latenz von nur 0,05 Millisekunden und eine Verfügbarkeit von 99,99999 Prozent (Bild: Huawei)


Foto: Huawei

Die All-Flash-Systeme OceanStor Dorado zeichnen sich auch dadurch aus, dass sie als branchenweit einzige active-active Disaster Recovery sowohl für SAN als auch NAS ermöglichen. Mit dem aktuellsten Upgrade erreichen sie 21 Millionen IOPS, eine Latenz von lediglich 0,05 Millisekunden und eine Verfügbarkeit von 99,99999 Prozent. Neu ist bei den OceanStor Dorado All-Flash-Systemen auch eine Lösung für Container-Storage. Sie erlaubt eine deutlich schnellere Bereitstellung von Ressourcen, unterstützt die Datennutzung über mehrere Nodes und ermöglicht die Erweiterung von Applikationen ohne dafür Daten kopieren zu müssen. Damit ist sie auf die sich ständig verändernden Anforderungen neuer Daten-Services bestens vorbereitet.

Nach dem Prinzip Flash-to-Flash-to-Anything (F2F2X) sorgt OceanProtect Backup Storage in der aktuellen Version für dreimal so hohe Bandbreite bei Backup und sogar fünfmal so hohe Bandbreite bei Recovery als im Markt üblich. De Datenreduktionsrate von 72:1 hilft zusätzlich, Backup und Recovery so effizient zu gestalten, dass damit auch höchste Anforderungen durch neue Anwendungsszenarien erfüllt werden.

Mit SmartBalance hat der Bereich OceanStor Pacific eine interessante Neuerung erhalten, die den Umgang mit hybriden Workloads optimiert. Die konvergente Indexierung von Daten erlaubt es, das Daten nur einmal vorgehalten werden müssen – selbst wenn sie über unterschiedliche Protokolle genutzt werden sollen. Mit Bandbreiten bis zu 160 GB/s, 6,4 Millionen IOPS und 640.000 OPS bietet OceanStor Pacific hocheffiziente Verarbeitung hybrider Workloads. In einem Chassis mit 5 Höheneinheiten finden 120 Laufwerke Platz. Zusammen mit dem speziellen Algorithmus für Erasure Coding (EC) sind sowohl die Laufwerksdichte als auch der Grad der Ausnutzung der verfügbaren Speicherressourcen deutlich höher (20 und 14,5 Prozent) als branchenüblich. Beides zahlt in einen besseren ROI bei der Massendatenspeicherung ein.

Erfahren Sie hier mehr über die auf dem Huawei Innovative Data Infrastructure Forum 2022 vorgestellten Neuerungen und Strategien sowie einer Videoaufzeichnung aller Keynotes der Veranstaltung und sehen Sie sich das Interview mit Dr. Peter Zhou, President IT Product Line bei Huawei, an, in dem die wichtigsten Aspekte zusammengefasst sind.

Original Post>

Enjoyed this article? Sign up for our newsletter to receive regular insights and stay connected.