AI-Agenten haben sich von Forschungsdemos zu Produktionssystemen entwickelt. Uber 60% der Enterprise-AI-Anwendungen werden voraussichtlich bis 2026 agentische Komponenten enthalten. Aber Agenten von Grund auf zu bauen - Tool-Schleifen, State, Speicher, Fehlerbehandlung und Multi-Agenten-Koordination zu verwalten - ist komplex. Genau hier kommen Frameworks ins Spiel.
Vier Frameworks dominieren 2026: LangGraph, CrewAI, OpenAI Agents SDK und Claude Agent SDK. Jedes verfolgt einen grundlegend anderen Ansatz fur dasselbe Problem: LLMs die Fahigkeit zu geben, zu denken, zu planen, Tools zu nutzen und zusammenzuarbeiten.
Auf einen Blick
| Aspekt | LangGraph | CrewAI | OpenAI Agents SDK | Claude Agent SDK |
|---|---|---|---|---|
| Von | LangChain | CrewAI Inc. | OpenAI | Anthropic |
| Architektur | Graph-basiert | Rollenbasiert | Handoff-basiert | Autonome Schleife |
| Philosophie | Maximale Kontrolle | Teamzusammenarbeit | Minimale Abstraktion | Gib dem Agenten einen Computer |
| Sprachen | Python, TypeScript | Python | Python | Python, TypeScript |
| Modellunterstutzung | Alle (OpenAI, Claude, lokal) | Alle | Alle (trotz des Namens) | Nur Claude |
| GitHub Stars | ~29k | ~40k | ~21k | ~6k |
| Am besten fur | Komplexe zustandsbehaftete Workflows | Multi-Agenten-Spezialisierung | Routing und Triage | Coding und dateiintensive Aufgaben |
LangGraph: Der Graph-Baumeister
LangGraph modelliert Agenten-Workflows als gerichtete zyklische Graphen. Sie definieren Knoten (Funktionen, die Arbeit verrichten) und Kanten (Ubergange zwischen ihnen, optional bedingt). State fliesst durch den Graphen und wird uber Checkpointing persistiert.
Dies ist das expliziteste und kontrollierteste Framework - Sie verdrahten jeden Schritt selbst.
Kernkonzepte
- StateGraph: die Graph-Definition mit typisiertem State
- Nodes: Python-Funktionen, die State transformieren
- Edges: Verbindungen zwischen Knoten, konnen bedingt sein
- Checkpointing: integrierte Persistenz fur langlebige Workflows
Codebeispiel
from langgraph.graph import StateGraph, MessagesState, START, END from langchain_openai import ChatOpenAI llm = ChatOpenAI(model="gpt-4o") def call_agent(state: MessagesState): response = llm.invoke(state["messages"]) return {"messages": [response]} def should_continue(state: MessagesState): last = state["messages"][-1] if last.tool_calls: return "tools" return END def call_tools(state: MessagesState): # Execute tool calls and return results results = [] for tool_call in state["messages"][-1].tool_calls: result = execute_tool(tool_call) results.append(result) return {"messages": results} graph = StateGraph(MessagesState) graph.add_node("agent", call_agent) graph.add_node("tools", call_tools) graph.add_edge(START, "agent") graph.add_conditional_edges("agent", should_continue, {"tools": "tools", END: END}) graph.add_edge("tools", "agent") app = graph.compile() result = app.invoke({"messages": [{"role": "user", "content": "What's the weather?"}]})
Starken
- Feingranulare Kontrolle uber jeden Schritt und Ubergang
- Integriertes Checkpointing und Human-in-the-Loop
- Volle TypeScript-Paritat
- Funktioniert mit jedem LLM-Anbieter
- Am besten fur komplexe Workflows mit bedingter Verzweigung und Schleifen
Schwachen
- Steile Lernkurve - Sie mussen Graphentheorie-Konzepte verstehen
- Umstandlich fur einfache Anwendungsfalle - ein einfacher Agent erfordert mehr Boilerplate als andere Frameworks
- Das Debuggen von Graph-Ablaufen kann ohne LangSmith herausfordernd sein
Preise
Open-Source (MIT). LangSmith (verwaltete Observability-Plattform) hat kostenpflichtige Stufen fur Produktionsmonitoring.
CrewAI: Der Team-Zusammensteller
CrewAI nutzt eine menschliche Metapher: Sie stellen eine Crew spezialisierter Agenten zusammen, jeder mit einer Rolle, einem Ziel und einer Hintergrundgeschichte. Agenten arbeiten an Aufgaben mit Tools zusammen, koordiniert durch einen Prozess (sequentiell, hierarchisch oder konsensbasiert).
Stellen Sie es sich vor wie das Einstellen eines Teams, in dem jedes Mitglied eine bestimmte Berufsbezeichnung und Spezialisierung hat.
Kernkonzepte
- Agent: eine Persona mit Rolle, Ziel, Hintergrundgeschichte und Tools
- Task: ein Auftrag mit Beschreibung, erwartetem Output und zugewiesenem Agent
- Crew: eine Gruppe von Agenten, die zusammenarbeiten
- Process: Ausfuhrungsstrategie (sequentiell, hierarchisch, konsensbasiert)
- Flow: ereignisgesteuerte Orchestrierungsschicht fur die Verbindung mehrerer Crews
Codebeispiel
from crewai import Agent, Task, Crew, Process researcher = Agent( role="Senior Research Analyst", goal="Find comprehensive data about the given topic", backstory="You have 10 years of experience in technology research. " "You are thorough and always verify facts from multiple sources.", tools=[web_search_tool], verbose=True, ) writer = Agent( role="Technical Writer", goal="Create clear, engaging technical content", backstory="You write for a developer audience. " "Your articles are practical and include code examples.", tools=[file_tool], verbose=True, ) research_task = Task( description="Research the latest developments in WebAssembly in 2026. " "Focus on WASI, Component Model, and production use cases.", expected_output="A structured research document with key findings and sources.", agent=researcher, ) writing_task = Task( description="Write a blog post based on the research. " "Include code examples and Mermaid diagrams.", expected_output="A complete blog post in Markdown format.", agent=writer, context=[research_task], # Writer receives researcher's output ) crew = Crew( agents=[researcher, writer], tasks=[research_task, writing_task], process=Process.sequential, verbose=True, ) result = crew.kickoff() print(result.raw)
Starken
- Intuitive rollenbasierte Abstraktion - leicht nachvollziehbar
- Uber 100 integrierte Tool-Integrationen
- Geteilter Speicher uber Agenten hinweg (Kurzzeit, Langzeit, Entity)
- Grosste Community (~40k GitHub Stars)
- Hierarchischer Prozess mit einem "Manager"-Agenten, der delegiert und validiert
Schwachen
- Weniger feingranulare Kontrolle als LangGraph - Sie definieren Rollen, nicht exakte Ausfuhrungspfade
- Hierarchischer Prozess kann unvorhersehbar sein, wenn Agenten sich uneinig sind
- Das Debuggen von Multi-Agenten-Konversationen ist schwieriger als bei Einzelagenten-Ablaufen
Preise
Open-Source-Kern (kostenlos). CrewAI Platform: 99$/Monat (Teams) bis 120.000$/Jahr (Enterprise). Preise basieren auf aktiven Crews und monatlichen Ausfuhrungen.
OpenAI Agents SDK: Der Router
Das OpenAI Agents SDK (geistiger Nachfolger von Swarm) konzentriert sich auf Handoffs - Agenten, die Konversationen an andere spezialisierte Agenten ubergeben. Es ist das minimalste Framework: Agenten, Tools, Handoffs und Guardrails. Das ist alles.
Kernkonzepte
- Agent: Modell + Anweisungen + Tools + Handoffs
- Handoff: eine Ubergabe an einen anderen Agenten (als Tool modelliert, das das LLM aufrufen kann)
- Guardrail: Eingabe-/Ausgabevalidierung, die parallel zum Agenten lauft
- Runner: fuhrt die Agenten-Schleife aus
- Tracing: integrierte Observability fur alle LLM-Aufrufe, Tool-Ausfuhrungen und Handoffs
Codebeispiel
from agents import Agent, Runner, handoff, InputGuardrail, GuardrailFunctionOutput from pydantic import BaseModel class SafetyCheck(BaseModel): is_safe: bool reason: str async def content_safety(ctx, agent, input_text): result = await Runner.run( Agent(name="Safety", instructions="Check if input is safe. No PII."), input_text, context=ctx, ) output = SafetyCheck.model_validate_json(result.final_output) return GuardrailFunctionOutput( output_info=output, tripwire_triggered=not output.is_safe ) billing_agent = Agent( name="Billing Agent", instructions="You handle billing inquiries. Be precise with numbers.", tools=[lookup_invoice, process_payment], ) refund_agent = Agent( name="Refund Agent", instructions="You process refund requests. Always verify the order first.", tools=[lookup_order, issue_refund], ) triage_agent = Agent( name="Triage Agent", instructions="Route the customer to the right specialist. " "Ask clarifying questions if needed.", handoffs=[billing_agent, refund_agent], input_guardrails=[InputGuardrail(guardrail_function=content_safety)], ) result = await Runner.run(triage_agent, "I need a refund for order #4521") print(result.final_output) # The triage agent routes to refund_agent, which processes the refund
Starken
- Sauberes Handoff-Muster - naturlich fur Routing-/Triage-Workflows
- Guardrails laufen parallel zur Ausfuhrung (Fail-Fast, nicht blockierend)
- Integriertes Tracing-Dashboard zum Debuggen
- Unterstutzt trotz des Namens auch Nicht-OpenAI-Modelle
- Minimale Abstraktion - leicht verstandlich und erweiterbar
Schwachen
- Weniger ausgereiftes State-Management als LangGraph
- Keine integrierte Persistenz oder Checkpointing
- Okosystem an Drittanbieter-Tools ist kleiner
- Handoff-zentriertes Design passt moglicherweise nicht zu jeder Architektur
Preise
Open-Source (MIT). Sie zahlen pro Token fur das jeweilige Modell.
Claude Agent SDK: Der Entwickler
Das Claude Agent SDK verfolgt einen anderen Ansatz: Anstatt Workflows oder Rollen zu definieren, geben Sie dem Agenten eine Sammlung von Tools und lassen ihn herausfinden, wie er die Aufgabe erledigt. Es nutzt dieselbe autonome Schleife, die Claude Code antreibt - lesen, handeln, verifizieren, iterieren.
Kernkonzepte
- query(): der Haupteinstiegspunkt, der die Agenten-Schleife startet
- Integrierte Tools: Read, Write, Edit, Bash, Glob, Grep, WebSearch, WebFetch
- Benutzerdefinierte Tools via MCP: Tools als In-Process-MCP-Server definieren
- Sub-Agenten: spezialisierte Agenten, an die der ubergeordnete Agent delegieren kann
- Sessions: Kontext uber mehrere Interaktionen hinweg beibehalten
Codebeispiel
import { tool, createSdkMcpServer, query } from "@anthropic-ai/claude-agent-sdk"; import { z } from "zod"; const searchDocs = tool( "search_docs", "Search the internal documentation for relevant information", { query: z.string().describe("Search query") }, async ({ query }) => { const results = await vectorStore.similaritySearch(query, 5); return { content: [{ type: "text", text: results.map(r => r.pageContent).join("\n\n") }], }; } ); const docsServer = createSdkMcpServer({ name: "docs", version: "1.0.0", tools: [searchDocs], }); for await (const message of query({ prompt: "Find how authentication works in our system and write a summary", options: { mcpServers: { docs: docsServer }, allowedTools: ["Read", "Glob", "Grep", "mcp__docs__search_docs"], }, })) { if (message.type === "result" && message.subtype === "success") { console.log(message.result); } }
Starken
- Erstklassige MCP-Integration - Verbindung zu jedem MCP-Server-Okosystem
- Integrierte Tools fur Dateioperationen, Terminal und Webzugriff
- Automatische Kontextkomprimierung fur grosse Codebasen
- Sub-Agenten-Parallelismus fur komplexe Aufgaben
- Derselbe Motor wie Claude Code - kampferprobt in echten Entwicklungsworkflows
Schwachen
- Nur Claude-Modelle - keine Multi-Provider-Unterstutzung
- Neueres Framework mit kleinerer Community
- Erfordert Node.js-Runtime auch fur das Python SDK
- Weniger explizite Workflow-Kontrolle im Vergleich zu LangGraph
Preise
Open-Source. Standard-Claude-API-Tokenpreise. Managed Agents (gehostete Version): 0,08$ pro Sitzungsstunde zusatzlich zu den Tokenkosten.
Wann welches wahlen
Wahlen Sie LangGraph, wenn:
- Sie prazise Kontrolle uber jeden Schritt des Workflows benotigen
- Ihr Anwendungsfall komplexe bedingte Logik und Schleifen umfasst
- Sie integrierte Persistenz und Human-in-the-Loop-Checkpoints wollen
- Sie mehrere LLM-Anbieter im selben Workflow nutzen mussen
Wahlen Sie CrewAI, wenn:
- Sie eine intuitive, rollenbasierte Abstraktion wollen
- Ihre Aufgabe mehrere Agenten mit unterschiedlichen Spezialisierungen umfasst
- Sie Agenten brauchen, die zusammenarbeiten und Kontext untereinander weitergeben
- Ihnen die grosste Community und die meisten integrierten Integrationen wichtig sind
Wahlen Sie OpenAI Agents SDK, wenn:
- Ihr Hauptmuster das Routing von Konversationen an Spezialisten ist
- Sie Guardrails benotigen, die Eingabe/Ausgabe parallel validieren
- Sie die einfachstmogliche Abstraktion mit minimalem Boilerplate wollen
- Integriertes Tracing und Observability wichtig sind
Wahlen Sie Claude Agent SDK, wenn:
- Ihre Agenten Code lesen, schreiben und ausfuhren mussen
- Sie erstklassige MCP-Server-Integration wollen
- Sie autonome Agenten brauchen, die iterieren und sich selbst korrigieren
- Sie bereits Claude nutzen und die tiefste Integration wollen
Kann man Frameworks kombinieren?
Ja. Ein gangiges Muster ist, ein Framework fur die Orchestrierung und ein anderes fur einzelne Agenten zu verwenden:
- LangGraph fur den gesamten Workflow-Graphen
- CrewAI fur einen bestimmten Knoten, der Multi-Agenten-Zusammenarbeit erfordert
- Claude Agent SDK fur codierungsbezogene Teilaufgaben via MCP
- OpenAI Agents SDK fur kundenorientiertes Triage und Routing
Die Frameworks schliessen sich nicht gegenseitig aus. Nutzen Sie das, was zu jedem Teil Ihres Systems passt.
Fazit
Jedes Framework setzt auf einen klaren Schwerpunkt:
- LangGraph optimiert fur Kontrolle - Sie bestimmen jeden Ubergang
- CrewAI optimiert fur Zusammenarbeit - Agenten arbeiten als Team
- OpenAI Agents SDK optimiert fur Einfachheit - minimale Abstraktion, saubere Handoffs
- Claude Agent SDK optimiert fur Autonomie - geben Sie ihm Tools und lassen Sie es arbeiten
Die richtige Wahl hangt von Ihrem Workflow, Ihrem Team und Ihrem bestehenden Stack ab. Wahlen Sie das, das zu Ihrem Hauptanwendungsfall passt, lernen Sie es gut kennen und ziehen Sie andere hinzu, wenn Sie deren Starken benotigen.