„Genau hier liegt der Knackpunkt“

ITD: Herr Hasenkamp, wie können Unternehmen verhindern, dass bei komplexer werdenden Cloud-Umgebungen die Übersicht verlorengeht?
Hasenkamp: Viele Unternehmen können sich nicht vorstellen, wie schnell ein solcher „Cloud Sprawl“ entstehen kann, doch er stellt ein echtes Problem dar. Bei den riesigen Mengen an Daten, die heute täglich bereits in kleinsten Unternehmen prozessiert werden, gerät man schnell in diese Situation. Ein Risiko besteht vor allem für kleine und mittelständische Unternehmen (KMU), die nicht Cloud-native sind, also vielleicht vor Jahrzehnten angefangen haben, ihre Daten lokal zu speichern, dann an ihre Grenzen kamen und angefangen haben, Cloud-Speicher hier und da hinzuzubuchen. Wo es eben gerade nötig war, und natürlich möglichst schnell verfügbar. Mit wachsender Datenmenge bucht man mehr und mehr, allerdings häufig ohne Strategie. Eben weil man schnell eine Lösung braucht. Und genau hier liegt der Knackpunkt: Cloud Sprawl entsteht, wenn Kapazitäten ohne Plan und passende Cloud-Strategie gebucht werden. Der erste Schritt ist also immer: Unternehmen sollten sich überlegen, wo sie mit ihrer Cloud hinwollen, was sie wirklich brauchen und wie sie dort hingelangen. Professionelle Provider können hier ideal unterstützen, Strategien erstellen und für einen schnellen Rollout im Unternehmen sorgen. Meistens dauert das auch noch nicht einmal bedeutend länger als der einfache Zukauf von Ressourcen, sorgt langfristig aber für eine aufgeräumte Infrastruktur.

ITD: Welche Gründe führen dazu, dass Cloud-Projekte scheitern?
Hasenkamp: Ganz häufig scheitern Cloud-Projekte an der fehlenden Strategie der Unternehmen, auch weil oft keine eigene IT-Abteilung da ist oder weil sie einfach zu klein ist, um diese selbst entwickeln zu können: Die Verlockung, schnell über Hyperscaler wie AWS oder Google Storage hinzuzubuchen, ist dann groß, vor allem, da die Einstiegspreise meistens sehr günstig sind und die Ressourcen schnell verfügbar. Dadurch geraten aber gerade kleinere Unternehmen schnell in einen sogenannten Vendor-Lock-In. Sie hängen am Anbieter, entweder aufgrund vertraglicher Bedingungen oder weil ein Umstieg nach einer gewissen Zeit hohe interne Arbeitsaufwände produzieren würde und es schlicht einfacher ist, zu bleiben. Ab diesem Moment können Hyperscaler die Preise erhöhen, ohne dass Kunden wirklich die Wahl haben, dies anzunehmen oder nicht. Standardprodukte werden teurer und maßgeschneiderte Cloud-Lösungen so unerschwinglich, dass sie für die meisten gar nicht mehr in Frage kommen. Das heißt: Mittelständische Unternehmen müssen häufig schlicht aus Budgetgründen auf vorgefertigte, nicht an ihre speziellen Bedürfnisse angepasste Produkte zurückgreifen. Selbst, wenn man dann eine Strategie hätte, könnte man sie gar nicht mehr umsetzen. Lokale SaaS-Anbieter lösen diese Probleme, indem sie Produkte speziell für mittelständische Unternehmen kombiniert mit persönlicher Strategieberatung durch IT-Experten anbieten.

ITD: Laut Bitkom-Studie herrscht auch beim Thema „Nachhaltigkeit“ noch einige Verunsicherung. So beklagen etwa 48 Prozent der Unternehmen, dass der Energie- und Ressourcenverbrauch beim Cloud Computing zu intransparent ist. Wie ließe sich hier mehr Klarheit schaffen?
Hasenkamp: Für mich ist das eines der wichtigsten Themen, die uns in Zukunft im Cloud-Geschäft begleiten werden. Bis 2024 müssen große deutsche Unternehmen Nachhaltigkeitsberichte vorweisen, kleine und mittelgroße Unternehmen werden in den kommenden Jahren folgen. Die Cloud macht so einen entscheidenden Teil der IT-Infrastruktur aus, dass man ihren Einfluss einfach nicht ignorieren darf. Bei Gridscale kann schon jetzt jeder Kunde sehen, welchen CO₂-Fußabdruck seine Daten hinterlassen. Unsere Plattform wertet das permanent aus und stellt die Informationen in Echtzeit zur Verfügung. Es ist also absolut möglich, hier mehr Klarheit zu schaffen, Cloud-Provider müssen es einfach nur tun.

ITD: Wo wir gerade beim Thema „Effizienz“ sind: Wie lässt sich sicherstellen, dass Cloud-Implementierungen nicht überdimensioniert sind oder Ressourcen verschwendet werden?
Hasenkamp: Genau hier kommen Provider und Experten ins Spiel: Jeder Cloud-Provider arbeitet wirtschaftlich, er will Ressourcen verkaufen, aber so effizient und gewinnbringend wie möglich. Natürlich könnten Anbieter ihren Kunden überdimensionierten Speicher verkaufen, um kurzfristig mehr Geld zu machen (und einige tun das sicher auch), aber das ist aus wirtschaftlicher Sicht auf Dauer einfach nicht klug: Für jede Speicher-Ressource, die wir verkaufen, müssen wir im Hintergrund die entsprechende Hardware einkaufen, implementieren und betreiben. Ein hoher Kostenfaktor, gerade bei steigenden Energiepreisen. Irgendwann wird der Kunde, dem ich überdimensionierten Speicher verkauft habe, das bemerken und Ressourcen zurückgeben, den Vertrag aus Unzufriedenheit vielleicht sogar kündigen. Wenn Provider von Anfang an sinnvoll haushalten, das heißt, Kunden Speicher bedarfsorientiert hinzu- und zurückbuchen lassen, können in Summe mehr Kunden bedient werden, während die Kosten für den Einzelnen moderat bleiben. Die Kapazitäten der Rechenzentren werden so maximal ausgenutzt, während die Kundenzufriedenheit steigt und die Wahrscheinlichkeit für Kündigungen sinkt. Gleichzeitig verringern sich die Energiekosten und der CO2-Ausstoß, wenn immer nur das genutzt wird, was gerade auch wirklich gebraucht wird.

ITD: Inwieweit haben Großunternehmen und Konzerne in Deutschland den wirtschaftlichen Nutzen der Cloud erkannt?
Hasenkamp: Der Nutzen der Cloud ist, denke ich, heute allen klar, vor allem Großunternehmen. Allerdings stellen hier häufig interne, lange gewachsene Strukturen eine Hürde dar: je größer ein Unternehmen, desto starrer sind oft auch interne Prozesse. Die IT-Infrastruktur wurde vor 20 Jahren vielleicht auf einem Code aufgebaut, der damals toll war, den gewachsenen Ansprüchen heute aber einfach nicht mehr gerecht wird. Trotzdem werden solche Infrastrukturen ganz häufig über die Jahre weiter wie ein Flickenteppich auf dem alten Code ausgebaut, weil man den Aufwand scheut, alles einmal auszuschütteln und neu aufzusetzen, oder auf eine externe Plattform zu übertragen. Und das verstehe ich, denn an der IT-Infrastruktur hängt ja nicht weniger als jeder einzelne, wertschöpfende Prozess im Unternehmen. Dieses Vorgehen führt allerdings irgendwann zwangsläufig zu Silos innerhalb der Organisation, ineffizienten Prozessen und Intransparenz. Daten laufen nicht zusammen, Synergien werden nicht genutzt und selbst die beste Cloud kann nur verarbeiten, was auf ihr gespeichert wird. Daher macht es gerade für große Unternehmen Sinn, sich mit ihrem Cloud-Anbieter auch über hybride Modelle zu unterhalten. Die Daten, die versteckter sind, vielleicht auch weil sie besonders kritisch oder schützenswert sind, können in Private-Cloud-Umgebungen gelagert werden, während alles andere über die Public Cloud gehostet wird. Denn Cloud bedeutet nicht nur Public, sie bietet auch Edge-basierte Lösungen, in denen bestimmte Daten auf exklusiv für das jeweilige Unternehmen reservierten Servern gelagert werden.

ITD: Künstliche Intelligenz (KI) wird inzwischen als wichtigste Zukunftstechnologie angesehen. Welche Rolle spielt die Cloud bzw. spielen Cloud-Anbieter in diesem Kontext?
Hasenkamp: Cloud-Anbieter spielen hier eine große Rolle, konkret wenn es darum geht, Künstliche Intelligenz in Unternehmen zu implementieren. Denn der Rollout einer KI-Lösung kostet immer deutlich mehr Ressourcen als die spätere Nutzung. Wenn Unternehmen einen solchen Rollout nur auf Basis interner Rechenzentren durchführen wollen, bedeutet das, dass sie für diese Zeit viel zusätzlichen Speicher hinzukaufen müssen. Hardware muss beschafft, betrieben und mit Energie versorgt werden. Die Schwierigkeit entsteht, wenn der Rollout zu Ende ist: Die zusätzliche Hardware wird dann nicht mehr gebraucht, stellt also eine dauerhaft überdimensionierte Ressource innerhalb des eigenen Rechenzentrums dar. Mit einem Cloud-Anbieter entsteht dieses Problem nicht: Für die Zeit des Rollouts buchen Unternehmen einfach mehr Speicher hinzu, danach geben sie ihn wieder ab, sodass jemand anderes ihn nutzen kann. Dadurch sinken nicht nur die Kosten für die Implementierung von KIs in Unternehmen, sondern auch der zeitliche Aufwand. In Kombination senkt die Cloud so ganz konkret die Hürden für den KI-Einstieg v.a. kleiner und mittelgroßer Unternehmen.

Original Post>