Serverless Computing ermoeglicht es dir, Code auszufuehren, ohne Server zu verwalten. Du schreibst Funktionen, deployst sie, und die Plattform kuemmert sich um Skalierung, Verfuegbarkeit und Infrastruktur. Im Jahr 2026 dominieren drei Plattformen die Serverless-Landschaft: AWS Lambda, Vercel Serverless Functions und Cloudflare Workers. Jede hat unterschiedliche Staerken und Kompromisse.
In diesem Artikel vergleichen wir sie mit realen Beispielen, Leistungsueberlegungen und Preisaufschluesselungen.
Wie Serverless funktioniert
Du deployst eine Funktion. Wenn eine Anfrage eintrifft, fuehrt die Plattform folgendes aus:
- Startet eine Ausfuehrungsumgebung (oder verwendet eine bereits aktive wieder)
- Fuehrt deine Funktion aus
- Gibt die Antwort zurueck
- Skaliert auf null, wenn inaktiv (du zahlst nicht fuer Leerlaufzeit)
Plattformuebersicht
AWS Lambda
Die urspruengliche Serverless-Plattform (gestartet 2014). Die ausgereifteste und funktionsreichste, mit tiefer Integration in das AWS-Oekosystem.
// AWS Lambda handler export const handler = async (event) => { const body = JSON.parse(event.body); const result = await processData(body); return { statusCode: 200, headers: { 'Content-Type': 'application/json' }, body: JSON.stringify(result), }; };
Vercel Serverless Functions
Eng integriert mit Next.js und dem Frontend-Deployment-Workflow. Funktionen werden zusammen mit deinem Frontend ohne Konfiguration deployt.
// app/api/hello/route.ts (Next.js App Router) import { NextResponse } from 'next/server'; export async function GET(request: Request) { const { searchParams } = new URL(request.url); const name = searchParams.get('name') || 'World'; return NextResponse.json({ message: `Hello, ${name}!` }); }
Cloudflare Workers
Laeuft auf Cloudflares Edge-Netzwerk in ueber 300 Staedten weltweit. Verwendet die V8-Engine (dieselbe wie Chrome) anstelle von Node.js, was extrem schnelle Cold Starts bedeutet.
// Cloudflare Worker export default { async fetch(request, env) { const url = new URL(request.url); const name = url.searchParams.get('name') || 'World'; return new Response( JSON.stringify({ message: `Hello, ${name}!` }), { headers: { 'Content-Type': 'application/json' } } ); }, };
Funktionsvergleich
| Funktion | AWS Lambda | Vercel Functions | Cloudflare Workers |
|---|---|---|---|
| Runtime | Node.js, Python, Go, Rust, Java, .NET | Node.js, Python, Go, Ruby | V8 Isolates (JS/TS, Rust via WASM) |
| Max. Ausfuehrungszeit | 15 Minuten | 60s (Hobby), 300s (Pro) | 30s (kostenlos), 15min (bezahlt) |
| Speicher | 128MB - 10GB | 1024MB - 3008MB | 128MB |
| Cold Start | 100-500ms | 100-300ms | < 5ms |
| Deploy-Standort | Einzelne Region (oder multi mit Aufwand) | Mehrere Regionen | 300+ Edge-Standorte |
| Max. Payload | 6MB (synchron), 256KB (asynchron) | 4.5MB | 100MB |
| Integrierter Speicher | Nein (nutze DynamoDB, S3) | Nein (nutze externe DB) | KV, D1 (SQLite), R2 (S3-kompatibel) |
| Preismodell | Pro Anfrage + Dauer | Im Plan enthalten | Pro Anfrage + Dauer |
| Kostenloses Kontingent | 1M Anfragen/Monat | 100K/Monat (Hobby) | 100K Anfragen/Tag |
Cold Starts
Cold Start ist die Zeit, die benoetigt wird, um eine neue Funktionsinstanz zu initialisieren. Dies ist das groesste Leistungsproblem bei Serverless.
| Plattform | Typischer Cold Start | Warum |
|---|---|---|
| Cloudflare Workers | < 5ms | V8 Isolates, kein vollstaendiges Runtime noetig |
| Vercel Functions | 100-300ms | Node.js Runtime auf Edge oder regional |
| AWS Lambda | 100-500ms | Vollstaendige Container-Initialisierung |
| AWS Lambda (Java) | 1-5 Sekunden | JVM-Start-Overhead |
Cloudflare Workers gewinnen bei Cold Starts mit grossem Abstand, da sie V8 Isolates statt Container verwenden.
Preisvergleich
Kostenloses Kontingent
| Plattform | Kostenlose Anfragen | Kostenloses Compute |
|---|---|---|
| AWS Lambda | 1M/Monat | 400.000 GB-Sekunden |
| Vercel | 100K/Monat | Im Hobby-Plan enthalten |
| Cloudflare Workers | 100K/Tag (~3M/Monat) | 10ms CPU pro Aufruf |
Im grossen Massstab (10M Anfragen/Monat, 50ms durchschnittliche Dauer)
| Plattform | Geschaetzte monatliche Kosten |
|---|---|
| AWS Lambda | ~$2,50 (Anfragen) + |
| Vercel | $20/Monat (Pro-Plan, beinhaltet Funktionen) |
| Cloudflare Workers | $5/Monat (Bezahlplan, beinhaltet 10M Anfragen) |
Fuer die meisten Anwendungsfaelle ist Cloudflare Workers am guenstigsten. Vercels Preisgestaltung ist einfach, beinhaltet aber die gesamte Plattform (Hosting, CDN, Analytics). AWS Lambda hat die granularste Preisgestaltung.
Praxisnahe Anwendungsfaelle
AWS Lambda: Am besten fuer
- Komplexe Backend-Workflows - Step Functions, event-gesteuerte Architekturen
- Integration mit AWS-Diensten - S3-Trigger, DynamoDB-Streams, SQS-Warteschlangen
- Langfristige Aufgaben - bis zu 15 Minuten Ausfuehrungszeit
- Mehrsprachige Teams - unterstuetzt die breiteste Palette an Runtimes
Vercel Functions: Am besten fuer
- Next.js-Anwendungen - API-Routes ohne Konfiguration
- Frontend-orientierte Teams - Frontend und Backend zusammen deployen
- Schnelles Prototyping - git push zum Deployen
- Jamstack-Architekturen - statisches Frontend + Serverless-API
// app/api/subscribe/route.ts import { NextResponse } from 'next/server'; export async function POST(request: Request) { const { email } = await request.json(); // Validate if (!email || !email.includes('@')) { return NextResponse.json( { error: 'Invalid email' }, { status: 400 } ); } // Save to database await db.subscribers.create({ email }); return NextResponse.json({ success: true }); }
Cloudflare Workers: Am besten fuer
- APIs mit niedriger Latenz - Code laeuft an ueber 300 Standorten weltweit
- Edge Computing - Antworten transformieren, A/B-Tests, Personalisierung
- APIs mit hohem Volumen - am guenstigsten im grossen Massstab mit grosszuegigem Gratis-Kontingent
- Globale Anwendungen - Daten nahe an Benutzern mit KV und D1
// Edge-side A/B test export default { async fetch(request, env) { const url = new URL(request.url); // Assign user to variant const cookie = request.headers.get('Cookie') || ''; let variant = cookie.includes('ab=b') ? 'b' : 'a'; if (!cookie.includes('ab=')) { variant = Math.random() < 0.5 ? 'a' : 'b'; } // Fetch the appropriate version const response = await fetch(`${url.origin}/variants/${variant}`); const newResponse = new Response(response.body, response); // Set cookie for consistent experience newResponse.headers.set('Set-Cookie', `ab=${variant}; Path=/; Max-Age=86400`); return newResponse; }, };
Wann welche waehlen
Waehle AWS Lambda wenn:
- Du bereits in das AWS-Oekosystem investiert bist
- Du langfristige Funktionen brauchst (bis zu 15 Minuten)
- Du komplexe event-gesteuerte Architekturen benoetigst
- Du Runtimes jenseits von JavaScript brauchst (Python, Go, Rust, Java)
Waehle Vercel Functions wenn:
- Du mit Next.js oder einem Frontend-Framework entwickelst
- Du die einfachste Deploy-Erfahrung willst (git push)
- Dein Team frontend-orientiert ist
- Du Hosting + Funktionen + CDN in einer Plattform willst
Waehle Cloudflare Workers wenn:
- Du die niedrigstmoegliche Latenz weltweit brauchst
- Du die guenstigste Option im grossen Massstab willst
- Du Edge-Computing-Faehigkeiten benoetigst
- Die Cold-Start-Zeit fuer deinen Anwendungsfall entscheidend ist
Kann man sie kombinieren?
Auf jeden Fall. Eine gaengige Architektur:
- Cloudflare Workers: Edge-Routing, Caching, Sicherheit
- Vercel Functions: Frontend-API-Routes, SSR
- AWS Lambda: schwere Backend-Verarbeitung, geplante Aufgaben, Event-Pipelines
Fazit
Serverless ist erheblich gereift. Im Jahr 2026 haengt die Wahl zwischen AWS Lambda, Vercel Functions und Cloudflare Workers von deinem Stack und deinen Prioritaeten ab:
- Einfachste Entwicklererfahrung: Vercel
- Am leistungsfaehigsten und flexibelsten: AWS Lambda
- Beste Leistung und Preise: Cloudflare Workers
Alle drei sind produktionsreif und praxiserprobt. Beginne mit der, die zu deinem aktuellen Stack passt, und erweitere, wenn deine Anforderungen wachsen.