None

Multicloud – Tipps für den richtigen Betrieb

loading="lazy" width="400px">Immer mehr Unternehmen setzen auf eine Multicloud-Strategie – doch solche IT-Infrastrukturen wollen sorgfältig ausgesteuert werden.juliasart somdok – shutterstock.com



Immer mehr Unternehmen setzen auf eine Multicloud-Strategie. Das Ziel: Flexibilität und Leistung ihrer IT-Landschaften zu maximieren. Dabei kombinieren sie gezielt Cloud-Dienste verschiedener Anbieter, um die Vorteile unterschiedlicher Plattformen auszuschöpfen. Doch ohne die richtige Planung wächst die Komplexität und kann schnell ins Chaos führen. Wie gelingt die Balance zwischen Flexibilität und Effizienz?



Das Auslagern von IT-Prozessen in die Cloud gilt seit Jahren als wesentlicher Schritt zur Digitalisierung von Unternehmen. Denn die Cloud verspricht neben einer flexiblen und schnell verfügbaren Rechen- und Speicher-Infrastruktur auch jede Menge Services, mit denen sich digitale Geschäftsprozesse einfach aufsetzen und betreiben lassen.



Allerdings hat der Wettbewerb unter den Anbietern dazu geführt, dass mittlerweile eine immensen Bandbreite an Cloud-Diensten mit unterschiedlichsten Ausprägungen und Rahmenbedingungen am Markt verfügbar sind. Zugleich sind die Anforderungen an den eigenen digitalen Service, der mit der Cloud-Infrastruktur betrieben werden soll, den Anwenderunternehmen oft nur unzureichend bekannt. Dabei gilt: Je genauer und detaillierter diese Anforderungen definiert sind, desto besser lässt sich das Potenzial ausschöpfen, das eine Multicloud-Strategie bietet.



IT-Konglomerate aus vielen Datenquellen und Diensten



Das betrifft ganz massiv Mitspieler in hochkomplexen Umgebungen wie der Entwicklung von Systemen fürs autonome Fahren oder die Energienetze der Zukunft. Ihr Geschäftsmodell steht und fällt mit dem Zusammenwirken vieler Datenquellen und Dienste, die in unterschiedlichen Clouds angesiedelt sind. Aber auch die IT-Umgebungen von Unternehmen in weniger komplexen Branchen stellen sich heute oft als Konglomerat aus lokalen Rechenzentren, virtuellen Maschinen, mobilen Geräten und Cloud-Diensten dar.



Nachfrage nach Cloud-Dienstleistern steigt



Um ihre IT-Prozesse zu verwalten, arbeiten viele Betriebe inzwischen mit einem Hybrid-Cloud-Konzept, das Public- und Private-Varianten wie auch klassische On-Premises-System verknüpft. Damit drängt sich der nächste Schritt auf, hin zur Multicloud. Zum einen, weil es die Situation schlicht erfordert. Zum anderen, weil sich durch die gleichzeitige Nutzung von Cloud-Diensten mehrerer Anbieter die Vorteile der unterschiedlichen Angebote miteinander verbinden lassen. Anwenderunternehmen arbeiten so mit der für ihre spezifischen Anforderungen jeweils am besten geeigneten Lösung.



Neun von zehn Unternehmen machen Multicloud



Ein Ansatz, der Schule macht: So verfolgen bereits neun von zehn befragten Unternehmen weltweit nach eigenen Angaben eine Multicloud-Strategie, hat der Flexera 2024 State of the Cloud Report ergeben. Sie kombinieren zum Beispiel Public-Cloud-Services von AWS, Microsoft Azure oder Google Cloud miteinander. Oft werden dazu auch zusätzlich Private-Cloud-Angebote externer Dienstleister integriert oder Dienste genutzt, die nach wie vor im eigenen Rechenzentrum laufen.



Ein Beispiel: Wenn es etwa um komplizierte Berechnungen geht, die häufig hintereinander ausgeführt werden, erweist sich AWS Lambda als performanter und wirtschaftlicher als Azure Functions. Wer allerdings mit Office 365 und anderen Windows-basierten Anwendungen operiert, ist mit Microsofts Azure besser bedient. Workloads, die auf virtuellen Windows-Maschinen laufen, lassen sich damit einfach schneller abarbeiten.



Managed Cloud Services – diese Anbieter sollten Sie im Blick haben



Im genannten Szenario aus der Produktentwicklung stößt zum Beispiel eine Windows Applikation in Azure einen Lambda-Service in AWS an, der die gewünschten Berechnungen durchführt. Die Ergebnisse werden in einer Datenbank abgelegt und bei Bedarf von der Azure-Applikation aus abgerufen. Die Datenbank selbst läuft ebenfalls in Azure, um die Applikation nicht durch lange Antwortzeiten unnötig abzubremsen. Auch die geografische Region, in der die Services laufen, spielt eine Rolle. Denn sie kann sich auf Performance, Zugriffszeiten und Kosten der jeweiligen Anwendung auswirken.



Die Komplexität wächst in der Multicloud



Dass eine Multicloud-Strategie – egal, wie sie konkret aussieht – die Komplexität weiter anwachsen lässt, liegt auf der Hand. Allein schon, weil jede Cloud-Plattform mit ihren eigenen Verwaltungstools, Sicherheitsprotokollen und Leistungskennzahlen arbeitet. Wer die Multicloud in seine IT-Landschaft integrieren will, braucht ein robustes Management, das mit den spezifischen Anforderungen der unterschiedlichen Umgebungen umgehen kann und dabei die Übersicht und Kontrolle über alle Plattformen hinweg sicherstellt. 




width="100%" height="152" frameborder="0" allowfullscreen allow="autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture" loading="lazy" src="https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed">




Dies ist nicht allein aus Gründen von Handling und Performance erforderlich, sondern auch, um bei der Wahl des für das jeweilige Anwendungs-Szenario optimalen Anbieters so frei wie nur möglich zu sein. Dafür braucht es plattformübergreifende Technologien und Tools. Zwar stellen die großen Hyperscaler Schnittstellen für den Datenaustausch mit anderen Plattformen standardmäßig bereit. Doch um in Multicloud-Infrastrukturen Prozesse End-to-end planen und steuern zu können, braucht es eine einheitliche Schnittstelle für alle Anwendungen, die auf einer Cloud-Abstraktionsschicht basiert. Damit kann ein Unternehmen seine Workloads unabhängig von den spezifischen Anforderungen einzelner Cloud-Umgebungen je nach Anforderung relativ problemlos verschieben.



Benchmark autonomes Fahren



Wer wie etwa beim autonomen Fahren Daten aus unterschiedlichsten Quellen in IoT-Prozessen zusammenführen und schnell analysieren will, kommt ohne solche Flexibilität nicht weit, wie das folgende Beispiel verdeutlicht.



Ein Zulieferer entwickelt eine Anwendung, die das Bremsverhalten autonomer Fahrzeuge steuern soll. Um die Algorithmen dafür zu entwickeln, zu testen und zu validieren, kommen Tera- und Petabyte an Daten aus unterschiedlichsten Quellen zum Einsatz. Aus Datenbanken mit Bildern und Videos von Ampeln in unterschiedlichen Ländern, zu unterschiedlichen Tageszeiten und bei verschiedenen Witterungsbedingungen, kombiniert mit Daten zur Beschaffenheit des Straßenbelags und zur Bereifung von virtuellen Testfahrzeugen.



Cloud-Migration kommt (noch) nicht in die Gänge



All diese Informationen müssen aus unterschiedlichen Clouds zusammengeführt werden. Das System muss außerdem in der Lage sein, bei Bedarf weitere Datenquellen einzubinden oder bestehende Datenbanken auch dann weiterhin zu nutzen, wenn sie umziehen.



All diese Daten müssen im Einsatz extrem schnell ausgewertet werden, um die Bremsstärke optimal zu dosieren. Kurze Latenzzeiten sind also erfolgskritisch. Dafür empfiehlt sich zunächst eine On-Premises-Infrastruktur. Um allerdings die permanent wachsenden Datenmengen aufzufangen, integriert das Projektteam AWS S3 und Azure Blob Storage. 



Tools unterstützen Multicloud-Strategie



Kubernetes: Kern jeder Multicloud-Strategie ist heute Kubernetes, der Quasi-Standard für die Container-Orchestrierung. Damit lassen sich Anwendungen automatisiert skalieren, verwalten und bereitstellen – unabhängig davon, auf welcher Cloud-Plattform sie ausgeführt werden. Das Open-Source-System steht praktisch in jeder Public Cloud zur Verfügung, und auch die meisten lokalen Cloud-Provider haben Kubernetes im Angebot.



Der Einsatz von Kubernetes hat mehrere Vorteile: Er sorgt für hohe Flexibilität in der Auswahl der zur jeweiligen Anwendung passenden Cloud. Und er erhöht die Verfügbarkeit und Ausfallsicherheit der Dienste. So kann Kubernetes Workloads automatisch auf andere Provider umleiten, wenn ein Anbieter ausfällt, die Verbindung schlecht ist – oder auch um pauschal abgerechnete Datenvolumina optimal auszuschöpfen.



Terraform: Für den Aufbau einer Infrastruktur für Applikationsumgebungen empfiehlt sich Terraform, ein Open-Source-Tool für Infrastructure as Code (IaC). Damit lassen sich Ressourcen wie virtuelle Maschinen, Netzwerke und Datenbanken mittels deklarativer Konfigurationsdateien definieren und verwalten. Anstatt Infrastrukturressourcen manuell zu erstellen und zu verwalten, beschreiben die IT- oder Cloud-Architekten lediglich den gewünschten Endzustand ihrer Infrastruktur und speichern sie als Konfigurationsdateien. Zur Beschreibung dient die Konfigurationssprache HashiCorp Configuration Language (HCL).



Terraform generiert daraufhin selbstständig den erwünschten Zustand, indem es die dafür erforderlichen Ressourcen erstellt, ändert oder löscht. Das Ganze lässt sich beliebig oft aufsetzen. Ein kurzer Befehl reicht bei Bedarf, um die einmal erstellte Umgebung automatisch eins zu eins zu kopieren. Das ist sinnvoll etwa beim Aufbau von Staging-Umgebungen, die auf verschiedenen Stufen im Software-Entwicklungsprozess benötigt werden. Es hilft unter anderem beim Entwickeln von Cloud-Anwendungen in stark regulierten Branchen wie Banken und Versicherungen, Luft- und Raumfahrt, bei Versorgungsunternehmen und in der Automobilindustrie.



Zugleich fungieren die mit Terraform erstellten deklarativen Konfigurationsdateien als lückenlose Dokumentation der Infrastruktur. Mehr noch: Terraform überwacht auch den Status der Infrastruktur und erkennt automatisch Abweichungen zwischen Soll- und Ist-Zustand und korrigiert sie.



Ansible: Ein hilfreiches Tool für ein effizientes Multicloud-Management ist auch Ansible. Dieses Open-Source-Werkzeug unterstützt die erweiterte Konfiguration und Automatisierung der Infrastruktur. Es kombiniert die Verteilung von Software, Ad-hoc-Kommando-Ausführung mit dem Management der Softwarekonfiguration.



Multicloud braucht Sicherheit



Generell gilt: Wer auf eine Multicloud-Strategie setzt, sollte sich schon im Vorfeld darum kümmern, dass die Komplexität nicht ins Chaos, sondern zu effizienteren IT-Prozessen führt. Zu den Hauptthemen gehört die Sicherheit. Und zwar in zweierlei Hinsicht: Zum einen müssen die miteinander vernetzten Services bereits in sich und innerhalb ihrer jeweiligen Plattform geschützt sein. Zum anderen muss das Gesamtkonstrukt mit seinen verschiedenen Architekturen und Systemen sicher sein. Bekanntlich sind gerade die Schnittstellen potenzielle Einfallstore für ungebetene „Gäste“.



Cloud-Anbieter: 9 Alternativen zu AWS, Azure und Google Cloud



Um Sicherheit und Performance zu gewährleisten, brauchen Unternehmen für ihre Multicloud daher ein dezidiertes API-Konzept und -Management sowie einen ganzheitlichen Blick, um Schwachstellen zu identifizieren.



Neben dem Aufbau der dafür spezifischen Kompetenzen empfiehlt sich der Einsatz eines Platform-Engineering-Teams. Dessen Aufgabe ist es, die Architekturen zu planen, die Technologien zu wählen und die Plattform-Dienste auszusuchen, die am besten zu den Anwendungen des Unternehmens passen. In der Regel ist zumindest zum Start auch zu empfehlen, externe Experten in Sachen Multicloud hinzuzuziehen.



AWS vs. Azure: Welche Plattform sich wofür eignet



Welche Cloud-Plattform zu welcher Anwendung passt, sei nachfolgend am Beispiel von Microsoft Azure und Amazon Web Services (AWS) aufgezeigt. Beide Anbieter haben fast identische Preismodelle, und beide bieten für praktisch jeden Anwendungsfall Dienste und Funktionen als Service (FaaS). Dennoch gibt es einige Kriterien, anhand derer sich qualifiziert bewerten und entscheiden lässt, welche Plattform wofür am besten geeignet ist.



Microsoft Azure vs. AWS vs. Google Cloud: Was bietet welche IoT-Cloud?



Dabei geht es um Fragen wie: Treffen Anfragen eher mit hohem zeitlichen Abstand ein? Sind viele oder eher wenig Anfragen zu bearbeiten? Treffen sie gebündelt innerhalb eines kurzen Intervalls ein? Sind parallel eintreffende Anfragen zu bewältigen?



Um beide Plattformen fundiert vergleichen zu können, empfiehlt sich der Einsatz einer Benchmark-Plattform wie SeBS (Serverless Benchmarking Suite). Sie bietet die Lastszenarien Cold & Warm und Sequential & Burst – das steckt dahinter:



Cold & Warm: Ruft der Nutzer den FaaS-Service auf, wählt der Cloud-Provider einen Execution-Spot für die Funktion, typischerweise ein Container oder eine virtuelle Maschine. Existiert noch kein Execution-Spot, erzeugt der Provider einen neuen (cold). Ist bereits einer zum Verarbeiten des Request verfügbar, wird dieser verwendet (warm).



Sequential & Burst: Sequential sendet einen Request nach dem anderen. Burst sendet immer mehrere Requests gleichzeitig.



Aus den Ergebnissen der Benchmark-Tests: Die durchschnittliche Antwortzeit bei Azure hängt davon ab, ob viele Anfragen gleichzeitig einlaufen und ob die Funktion warm ist. Bei AWS hingegen fällt sie mit zunehmendem RAM –  ist aber initial deutlich höher. Damit ist klar: Solange es möglich ist, das Lambda warmzuhalten, gewinnt AWS, ansonsten Azure. Das Lambda wird abhängig von der Skalierung nach etwa zehn Minuten wieder kalt.



Für die Anwendung bedeutet das: Sind Anfragen in einem Abstand größer als zehn Minuten zu bearbeiten, ist Azure im Vorteil. Treffen die Anfragen eher in Intervallen kleiner zehn Minuten ein und lässt sich die Ressourcengröße abschätzen, sollte die Wahl auf AWS fallen.



In den Burst-Tests zeigt sich, dass Azure bei kurzen Lastspitzen und Cold-Starts vorn liegt. Sind generell hohe Lasten zu erwarten, ist hingegen das AWS Lambda performanter. Allgemein weisen die Ergebnisse von AWS eine höhere Konsistenz auf. Wer also harte Anforderungen an die Konsistenz von Antwortzeiten hat, sollte auf AWS setzen.



Die detaillierten Anforderungen und Ergebnisse des Benchmark-Tests finden sich in einem Whitepaper, das doubleSlash hier zum Download anbietet: Amazon Web Services vs. Microsoft Azure