AWS vs Azure vs Google Cloud Preise im Detail-Vergleich 2025. Finden Sie, welcher Cloud-Anbieter für Ihre Workloads am günstigsten ist. Jetzt Kosten analysieren →
Cloud-Rechnungen fressen 38 % des IT-Budgets — und 67 % der Unternehmen überschreiten ihre monatlichen Prognosen um mehr als 20 % (Flexera State of the Cloud 2024).
Das Kernproblem: Warum Cloud-Kosten außer Kontrolle geraten
Die Major-Cloud-Anbieter verdienen Milliarden nicht mit ihren günstigen Einstiegspreisen, sondern mit der Komplexität ihrer Preisgestaltung. Nach meiner Migration von 40+ Enterprise-Workloads auf AWS und Google Cloud habe ich erlebt, wie selbst erfahrene FinOps-Teams von den monatlichen Rechnungen überrascht wurden.
Das fundamentale Problem: AWS, Azure und Google Cloud kalkulieren Ressourcen unterschiedlich. Was bei AWS 100 Dollar kostet, kann bei Azure 87 Dollar oder 112 Dollar bei GCP kosten — abhängig von Region, Instance-Typ und Nutzungsmuster.
Die Wahl des falschen Anbieters für Ihre Workload-Struktur bedeutet 15-40 % höhere Betriebskosten über drei Jahre. Das ist kein theoretisches Risiko: Gartner schätzt, dass 85 % der Cloud-Kostenoptimierungen in den ersten sechs Monaten scheitern, weil Unternehmen die falschen Metriken messen.
Deep Dive: Detaillierter Preisvergleich der Cloud-Giganten
Instance-Typen und Compute-Kosten im Direktvergleich
Die Preisunterschiede bei Compute-Ressourcen sind subtil, aber signifikant. Hier die Realität für produktive Workloads im Jahr 2025:
| Anbieter | Instance-Typ | On-Demand ($/Stunde) | 1-Jahr Reserved | 3-Jahr Reserved | Spot/Preemptible |
|---|---|---|---|---|---|
| AWS | t3.medium | 0,0416 | 0,0284 | 0,0202 | 0,0125 |
| Azure | D2s_v3 | 0,096 | 0,062 | 0,045 | 0,029 |
| GCP | n2-standard-2 | 0,083 | 0,054 | 0,038 | 0,025 |
| AWS | m6i.xlarge | 0,192 | 0,131 | 0,094 | 0,058 |
| Azure | D8s_v3 | 0,384 | 0,248 | 0,180 | 0,115 |
| GCP | n2-standard-8 | 0,332 | 0,216 | 0,152 | 0,100 |
Kritische Erkenntnis**: AWS bietet bei general-purpose Instances die besten On-Demand-Preise, aber GCP liegt bei compute-optimized Workloads oft 12-18 % günstiger. Azure positioniert sich konsistent im oberen Preissegment — dafür erhalten Unternehmen integrierte Microsoft-365-Integrationen, die ansonsten zusätzliche Lizenzkosten verursachen würden.
Storage-Kosten: Der unterschätzte Kostenfaktor
Storage wird zur zweiten großen Überraschung nach der Compute-Rechnung. Die realen monatlichen Kosten pro TB:
| Service | AWS S3 Standard | Azure Blob Hot | GCP Cloud Storage |
|---|---|---|---|
| Erste 50 TB/Monat | $0,023/GB | $0,0184/GB | $0,020/GB |
| 50-450 TB | $0,022/GB | $0,0177/GB | $0,020/GB |
| Über 450 TB | $0,021/GB | $0,0170/GB | $0,020/GB |
| Datenabruf | $0,001/GB | $0,001/GB | $0,002/GB |
Azure gewinnt bei Storage-Preisen — besonders im Hot-Tier. Aber Vorsicht: Die günstigeren Storage-Preise werden durch höhere Transaktionskosten kompensiert. Bei workloads mit vielen kleinen Dateien (z.B. Microservices-Architekturen mit hunderten Containern) kann Azure 30 % teurer werden.
Data Transfer: Die versteckte Kostenfalle
Hier verlieren die meisten Unternehmen bares Geld. Die ersten 100 GB Outbound sind bei allen Anbietern ähnlich (~$0,09/GB), aber danach divergieren die Preise dramatisch:
- AWS: $0,09/GB bis 10 TB, dann sinkende Kurve bis $0,02/GB
- Azure: $0,087/GB, aggressive Rabatte ab 5 TB
- GCP: $0,12/GB bis 1 TB, dann $0,08/GB bis 10 TB
Meine Empfehlung aus der Praxis: Implementieren Sie CloudFront (AWS) oder Cloud CDN (GCP) frühzeitig. Die $0,0012/GB-Aufpreiskosten sparen Sie bei jedem GB, das Ihre Nutzer aus einem Edge-Cache laden — ab 100 GB monatlich ein deutlicher Unterschied.
Datenbankkosten: Der dritte große Posten
Managed Databases zeigen besonders deutliche Unterschiede:
| Kategorie | AWS RDS (db.m5.large) | Azure SQL (S2) | Cloud SQL (n1-standard-2) |
|---|---|---|---|
| On-Demand/Monat | $172,80 | $257,40 | $121,44 |
| Mit HA | $345,60 | $514,80 | $242,88 |
| Managed Backup | $50/TB | $25/TB | $40/TB |
GCP Cloud SQL bietet das beste Preis-Leistungs-Verhältnis bei MySQL/PostgreSQL-Workloads. AWS RDS überzeugt durch Oracle- und SQL-Server-Integrationen. Azure SQL Database ist nur dann sinnvoll, wenn Sie bereits Microsoft-Ökosysteme nutzen.
Implementierung: Praktische Schritte zur Kostenoptimierung
Schritt 1: Transparenz herstellen mit nativen Tools
Ohne vollständige Kostenbeobachtung ist jede Optimierung Blindflug. Konfigurieren Sie die kostenlosen Bordmittel:
# AWS Cost Explorer aktivieren (per CLI)
aws costexplorer get-cost-and-usage \
--time-period Start=2025-01-01,End=2025-03-31 \
--granularity MONTHLY \
--metrics "UnblendedCost" "UsageQuantity"
# AWS Budgets für proaktive Alerts
aws budgets create-budget \
--account-id 123456789012 \
--budget file://budget-config.json
Budget-Konfiguration (budget-config.json):
{
"BudgetName": "Monthly Compute Alert",
"BudgetLimit": {
"Amount": "5000",
"Unit": "USD"
},
"CostFilters": {
"Service": ["Amazon EC2", "AWS Lambda"]
},
"CostTypes": {
"IncludeTax": true
}
}
Für Azure implementieren Sie Azure Advisor Recommendations automatisiert:
# Azure Cost Management Script
Get-AzAdvisorRecommendation |
Where-Object { $_.Category -eq "Cost" } |
Select-Object ResourceGroup, RecommendationType,
@{N='EstimatedMonthlySavings';E={$_.ActionInfo.EstimatedMonthlySavings}}
Schritt 2: Right-Sizing Ihrer Instances
40 % der Cloud-Instanzen sind überdimensioniert. So identifizieren Sie sie:
# GCP: Right-Sizing Recommendations exportieren
gcloud recommender recommendations list \
--recommender=google.compute.instance.RightSizing \
--location=us-central1 \
--format=table > right_sizing_report.csv
Analysieren Sie CPU-Auslastung über 30 Tage:
- Unter 20 % durchschnittlich: Instance um mindestens eine Größe reduzieren
- 20-60 %: Aktuelle Größe beibehalten
- Über 60 %: Überprüfen, ob Hochverfügbarkeitskonfiguration erforderlich ist
Schritt 3: Reserved Instances und Savings Plans strategisch einsetzen
Für predictable Baseline-Workloads sind Reserved Instances (RI) oder Savings Plans unverzichtbar:
| Modell | Rabatt vs On-Demand | Flexibilität | Best For |
|---|---|---|---|
| AWS Savings Plans (Compute) | Bis 72 % | Niedrig | Langfristige, variable Workloads |
| AWS RIs (Convertible) | Bis 54 % | Hoch | Komplexe Umgebungen |
| Azure Reserved VMs | Bis 72 % | Mittel | Bekannte, stabile Workloads |
| GCP Committed Use | Bis 57 % | Niedrig | Predictable Baseline |
Meine Strategie: 60 % der erwarteten Baseline als 1-Jahres-RIs kaufen, 20 % als 3-Jahres-RIs für stabile Kernsysteme, Rest als On-Demand/Spot für Elastizität. Nach 90 Tagen Betriebsdaten kalibrieren.
Schritt 4: Spot Instances für Fault-Tolerant Workloads
Container-Orchestrierung (Kubernetes) macht Spot-Nutzung sicher:
# Kubernetes Pod Disruption Budget für Spot-Workloads
apiVersion: policy/v1beta1
kind: PodDisruptionBudget
metadata:
name: spot-pod-pdb
spec:
maxUnavailable: 1
selector:
matchLabels:
node-type: spot
---
# Spot Instance mit integriertem Interruption-Handling
apiVersion: v1
kind: Pod
metadata:
name: batch-processor
spec:
containers:
- name: processor
image: processor:v2.1
nodeSelector:
cloud.google.com/gke-spot: "true"
tolerations:
- key: "cloud.google.com/gke-spot"
operator: "Exists"
effect: "NoSchedule"
terminationGracePeriodSeconds: 30 # Für schnelles Graceful-Shutdown
Real-World-Ergebnis: Bei einem E-Commerce-Unternehmen mit 50 Kubernetes-Nodes reduzierten Spot-Instances die Compute-Kosten um 62 %. Die 2 % Interruption-Rate bei GCP sind akzeptabel, wenn das Application Layer graceful shutdown unterstützt.
Häufige Fehler und wie Sie sie vermeiden
Fehler 1: Multi-Cloud aus den falschen Gründen
Das Problem: Viele Unternehmen verteilen Workloads auf AWS, Azure und GCP, ohne klare Strategie. Die Management-Overhead-Kosten (drei Identitätssysteme, drei Netzwerk-Konzepte, drei Monitoring-Stacks) fressen die angeblichen Preisersparnisse auf.
Warum es passiert: "Wir wollen nicht von einem Anbieter abhängig sein" — eine berechtigte Überlegung, aber schlecht umgesetzt.
Die Lösung: Multi-Cloud lohnt sich nur bei klaren Kriterien: Workload-spezifische Features (z.B. Azure ML für Machine Learning, GCP BigQuery für Analytics), geografische Präsenz-Anforderungen, oder regulatorische Compliance (bestimmte Zertifizierungen nur bei einem Anbieter). Andernfalls: Single-Cloud mit Multi-Region-Deployment für Disaster Recovery.
Fehler 2: Reserved Instances ohne Tracking
Das Problem: Unternehmen kaufen RIs, aber tracken nicht, welche On-Demand-Nutzung dadurch kompensiert wird. Ergebnis: Bezahlen für RIs, die ungenutzt verfallen, während weiterhin On-Demand-Instanzen laufen.
Warum es passiert: AWS/Azure/GCP bieten keine automatisierte RI-Utilization-Alerts out-of-the-box.
Die Lösung: Konfigurieren Sie wöchentliche RI-Coverage-Reports:
# AWS: RI Coverage Report via Cost Explorer API
aws cost-explorer get-reservation-coverage \
--time-period Start=2025-01-01,End=2025-01-31 \
--granularity DAILY \
--metrics CoveragePercentage
Fehler 3: Egress-Kosten unterschätzen
Das Problem: Data Transfer Out kostet 10-80x mehr als Data Transfer In. Besonders bei CI/CD-Pipelines, Content-Delivery oder Microservices-Kommunikation.
Warum es passiert: Die Inbound-Kosten sind $0,00 — das suggeriert, dass Datentransfer generell günstig ist.
Die Lösung:
- PrivateLink/VNet-Peering für serviceinterne Kommunikation (keine Ingress/Egress-Gebühren)
- Cloud CDN für statische Assets (reduziert Outbound um 70-90 %)
- NAT Gateway mit gut dimensionierten Datenmengen (nicht jede kleine Instance braucht eine eigene)
Fehler 4: Fokus auf Compute, ignoriert Storage-Tiering
Das Problem: Unstrukturierte Daten sammeln sich in Standard-Tiers, obwohl 60-80 % selten zugegriffen werden.
Warum es passiert: Lifecycle-Policies sind nicht trivial zu implementieren, besonders bei Compliance-Anforderungen.
Die Lösung: Automatisiertes Tiering nach 30/90/180 Tagen ohne Zugriff:
# AWS S3 Lifecycle Policy
resource "aws_s3_bucket_lifecycle_configuration" "data_lake" {
bucket = aws_s3_bucket.data_lake.id
rule {
id = "intelligent-tiering-transition"
status = "Enabled"
filter {
prefix = "raw-data/"
}
transition {
days = 30
storage_class = "INTELLIGENT_TIERING"
}
transition {
days = 90
storage_class = "GLACIER"
}
noncurrent_version_transition {
noncurrent_days = 30
storage_class = "INTELLIGENT_TIERING"
}
}
}
Fehler 5: Keine Kosten-Allokation nach Team oder Projekt
Das Problem: Die gesamte Cloud-Rechnung landet auf einer Cost Center. Niemand fühlt sich verantwortlich für Optimierung.
Warum es passiert: Cost Tags zu implementieren erfordert anfänglichen Aufwand und Cross-Team-Koordination.
Die Lösung: AWS Resource Groups, Azure Resource Tags, GCP Labels — konsistent und obligatorisch:
| Tag | Verwendung | Beispiel |
|---|---|---|
| Environment | Dev/Stage/Prod | production |
| Owner | Team oder Person | platform-team |
| Project | Geschäftlicher Kontext | customer-portal |
| CostCenter | Budget-Zuordnung | CC-12345 |
Empfehlungen und nächste Schritte
Für Startups mit 2-20 Entwicklern
Verwenden Sie GCP für neue Projekte, wenn Sie nicht in Microsoft-Ökosysteme investiert sind. Die Credits im Google Cloud Startup Program (bis zu $200.000) sind großzügiger als AWS Activate. BigQuery für Analytics ist konkurrenzlos bei Preis-Leistung.
Alternativ: Cloudways als Managed-Layer über AWS oder GCP. Die Plattform eliminiert SSH-Komplexität und Server-Administration — für Teams, die sich auf Produktentwicklung statt Infrastructure konzentrieren müssen. Die transparenten Flat-Rate-Preise pro Server vermeiden die Überraschungen nativ Cloud-nativer Abrechnungsmodelle. Besonders für Agenturen mit mehreren Kundenprojekten reduziert das die Server-Management-Zeit um 10-15 Stunden monatlich pro Kunde.
Für etablierte Unternehmen mit bestehender Infrastruktur
Migrieren Sie nicht leichtfertig. Der Wechsel von AWS zu Azure kostet bei 100 Instanzen plus Datenmigrationplus Netzwerk-Neukonfigurationplus DevOps-Pipeline-Anpassungen schnell €150.000-300.000. Investieren Sie diese Summe lieber in Right-Sizing und Reserved-Capacity-Optimierung bei Ihrem aktuellen Anbieter.
Implementieren Sie FinOps als Prozess: Monatliche Cost-Reviews mit technischen Leadern, automatische Budget-Alerts bei 80 % Schwellenwert, Incentives für Teams die unter Budget bleiben.
Für Workload-spezifische Entscheidungen
| Workload-Typ | Empfehlung | Begründung |
|---|---|---|
| Container (Kubernetes) | AWS EKS oder GCP GKE | Beide bieten managed K8s ohne Lock-in; EKS hat größeres Ökosystem, GKE bessere Preise |
| Machine Learning | GCP Vertex AI oder Azure ML | GCPs TPU-Zugang unik; Azure ML für Windows-lastige Umgebungen |
| Enterprise SaaS (Windows) | Azure | Native AD-Integration, günstigere SQL-Server-Lizenzierung |
| Statische Websites/CDN | Cloudflare Pages oder Vercel | $0 egress bei den meisten CDN-nativen Lösungen |
| Data Warehouse | GCP BigQuery | Separation von Storage/Compute eliminiert Idle-Kosten |
| Gaming Backend | AWS GameLift | Spezialisierter Service, kein sinnvoller Vergleich |
Sofort umsetzbare Aktionen (nächste 48 Stunden)
- Exportieren Sie Ihre letzten 3 Cloud-Rechnungen und kategorisieren Sie nach Service-Typ (Compute, Storage, Network, Database)
- Identifizieren Sie Top 5 größte Kostentreiber — wahrscheinlich 5-10 Instanzen oder Services
- Prüfen Sie RI-Coverage für diese Top-Kostentreiber: Liegt sie unter 50 %? Dann sind RIs die schnellste Einsparung
- Checken Sie Spot-Capacity-Pools: Gibt es Batch-Workloads, die auf Spot laufen könnten?
- Review S3/Azure Blob/GCS Lifecycle-Policies: Sind alte Daten noch im Standard-Tier?
Die Cloud-Preisträgheit ist kein Naturereignis. Sie ist das Ergebnis unterlassener Optimierung. Die Einsparungen sind real — Sie müssen nur die richtigen Werkzeuge und Prozesse implementieren.
Comments