Europäische Cloud im Praxistest: Funktioniert Datensouveränität ohne Performance-Verlust?

Reading time: 4 minutes
US-Cloudanbieter dominieren den Markt, werfen aber zunehmend Fragen zur Datensouveränität auf. Ein unabhängiger Performance-Test untersucht, ob europäische Cloud-Infrastruktur bei Enterprise-Workloads eine technisch und wirtschaftlich tragfähige Alternative darstellt.

Wer kann alles auf Ihre Unternehmensdaten zugreifen? Der US CLOUD Act liefert eine unbequeme Antwort: Amerikanische Behörden können Zugriff verlangen, wenn US-Unternehmen Ihre Daten verwalten. Ihre Daten liegen in Frankfurt, Paris oder Amsterdam? Das spielt keine Rolle. Solange AWS, Microsoft, Google und Co Ihre Daten verwalten, gilt US-Recht. Egal, wo die Server physisch stehen.

Die Trump-Administration hat diese Debatte neu entfacht: Im Januar 2025 entließ sie drei demokratische Mitglieder des Privacy and Civil Liberties Oversight Board (PCLOB). Dieses Gremium überwacht unabhängig die Einhaltung der Datenschutzstandards des EU-US Data Privacy Framework (DPF). Es bildet damit eine wichtige Voraussetzung für rechtskonforme Datentransfers in die USA.

Durch die Entlassungen ist das PCLOB beschlussunfähig und kann seine Kontrollfunktion nicht mehr ausüben. Zwar dürfen personenbezogene Daten aus dem Europäischen Wirtschaftsraum (EWR) weiterhin in die Vereinigten Staaten übermittelt werden, jedoch warnen Datenschutz-Experten zunehmend vor den Risiken für die Tragfähigkeit des DPF.

Das Bewusstsein wächst, die Taten fehlen

Mit der Unsicherheit wächst in europäischen Unternehmen auch das Bewusstsein für Datensouveränität. In einer aktuellen BARC-Umfrage bewerten 84 % der Unternehmen Datensouveränität als strategisch wichtig. 70 % bestätigen, dass die Relevanz in den letzten zwei Jahren gestiegen ist.

Trotzdem handeln nur wenige. Warum?

Viele glauben europäische Cloud-Anbieter können nicht mithalten. Weder bei der Performance noch beim Preis. Zu langsam, zu teuer, zu kompliziert. Aber stimmt das?

Der Reality-Check: 1 Milliarde Datensätze unter realen Bedingungen

Wir haben STACKIT, den deutschen Cloud-Anbieter der Schwarz Gruppe (u.a. Lidl, Kaufland), mit dessen Dremio-basierter Lakehouse-Lösung mit Hilfe des BARC Data Generators unabhängig getestet. Kein Lab-Szenario, sondern ein typisches Enterprise-Setup: 1 Milliarde Sales Records in einem 12-dimensionalen Star-Schema, 150 Attributspalten sowie komplexe Aggregationen und Joins über mehrere Dimensionstabellen, teilweise ohne Indizes.

Das Ergebnis? Alle Abfragen liefen in unter einer Sekunde durch. Nur die allererste Abfrage nach dem Cluster-Start benötigte 4,2 Sekunden. Beim initialen Laden von 1,1 Milliarden Einträgen in das Iceberg-Format erreichte STACKIT einen Durchsatz von über 4 Millionen Datensätzen pro Sekunde – selbst bei parallelem Lesen und Schreiben auf denselben S3-Bucket. Das entspricht 3,6 Gbit/s effektivem Durchsatz. Unter den getesteten Bedingungen lieferte das S3-Backend von STACKIT einen Durchsatz, der mit den Hyperscalern mithalten kann.

Und was kostet das?

STACKIT setzt auf ein All-Inclusive-Preismodell: Compute, Storage, Netzwerk und Support sind im Servicepreis enthalten und es gibt keine Egress-Gebühren beim Herunterladen von Daten.

Obwohl der Preis zunächst über den beworbenen Einstiegspreisen der Hyperscaler liegen mag, sieht die Endrechnung oft anders aus. Bei AWS, Azure und Google kommen Netzwerkkosten, Egress-Gebühren, API-Calls und Premium-Support separat hinzu.

Für Unternehmen mit volatilen Workloads oder häufigen Datenverschiebungen kann das Modell von STACKIT daher wirtschaftlicher sein. Besonders Cloud-Einsteiger profitieren von diesem Preismodell, da es nachvollziehbarer ist als die nutzungsbasierten Abrechnungen der Hyperscaler.

Souveränität ohne neue Abhängigkeiten?

Vendor Lock-ins sind ein strukturelles Problem bei den Hyperscalern. Wer auf AWS Lambda, Azure AI Foundry oder Google BigQuery aufbaut, bindet sich an diese Plattformen. Eine Portierung ist nur durch aufwendiges Refactoring und mit Kosten realisierbar.

STACKIT verfolgt einen anderen Ansatz und setzt auf offene Standards wie Apache Iceberg als Lakehouse-Format, S3-kompatible APIs für Object Storage und Kubernetes für die Container-Orchestrierung. Das sichert die Portabilität der Workloads: Von STACKIT zu AWS wechseln? Möglich. Von AWS zu STACKIT? Ebenfalls möglich.

Apache Iceberg ist kein Nischenprodukt mehr. Netflix speichert mehr als 1 Exabyte an Daten in über 3 Millionen Iceberg-Tabellen. Microsoft wechselte stillschweigend von Delta Lake zu Iceberg, und selbst Databricks bietet inzwischen Abstraktionsschichten für das transparente Lesen und Schreiben von Iceberg-Tabellen.

Offene Standards sind somit mehr als nur ein Mittel gegen den Vendor Lock-in – sie sind die Voraussetzung, um Innovationen schnell zu adaptieren.

Souveränes Datenmanagement aus Europa ist keine Vision mehr

Der Test mit STACKIT und Dremio zeigt: Europäische Cloud-Infrastruktur kann technisch und wirtschaftlich mit den Hyperscalern mithalten. Zwar befinden sich MLOps-Tools und AI-Workloads noch im Aufbau, aber das Service-Portfolio wächst kontinuierlich. Für die meisten Analytics- und Data-Science-Use-Cases ist das Setup aber schon heute produktionsreif.

Die Frage lautet heute nicht mehr “Hyperscaler oder Europa”, sondern “welche Workloads gehören wohin”. Unternehmen können kritische Daten auf souveräner Infrastruktur halten und weniger sensible Workloads auf globalen Plattformen betreiben. Der Schlüssel liegt in der intelligenten Differenzierung, nicht in blinder Konsolidierung.

Die vollständige Research Note liefert alle Details:

  • Technische Tiefe: Cluster-Konfigurationen, SQL-Queries, Skalierungsverhalten
  • Lakehouse-Architektur verstehen: Iceberg, Polaris, Reflections
  • AI-Integration: Dremio MCP Server und Semantic Layer
  • Methodische Transparenz: Testaufbau, Datenmodell, Grenzen
  • Kostenmodelle: STACKIT All-inclusive vs. Hyperscaler Pay-per-Use
Don‘t miss out!
Join over 25,775 data & analytics professionals and get the latest product insights, research, surveys and more!

Discover more content

Author(s)

Senior Analyst Data & AI

Thomas is a BARC Fellow and Senior Analyst at BARC in the area of data & analytics.

For many years, as Director Data & Application Foundation and IT CTO, he built up and expanded the areas of data management, analytics & AI, software development, API management, IoT and data-driven business models in an international DAX company.

He is the co-author of several studies and delivers lectures, seminars and workshops with a high practical relevance. Thomas is also a sought-after coach for transformation projects related to data strategy, data culture and the data-driven enterprise.

His focus is on modern data strategy, data lake(house)-based data management concepts, API-based process integration and in particular the definition, implementation and operationalization of data-driven business processes and business models.

In addition, Thomas is a recognized expert in the Python programming language and the professional use of Python in the enterprise. He also teaches Business Analytics and Industry 4.0 at the University of Applied Sciences in Düsseldorf.

Our newsletter is your source for the latest developments in data, analytics, and AI!