DeepSeek V4 ist ein Mixture-of-Experts-Sprachmodell mit 1,6 Billionen Parametern, das auf agentischen Coding-Benchmarks mit GPT-5.5 mithalten kann – bei 1/18 der Kosten. Es verfügt über ein 1-Millionen-Token-Kontextfenster – das längste aller Frontier-Modelle. Es ist unter Apache 2.0 lizenziert, was bedeutet: Self-Hosting, Fine-Tuning und Deployment ohne Einschränkungen. Und es ist rein textbasiert: keine native Bildgenerierung, kein Video, kein Audio, keine Websuche, kein Speicher, keine Veröffentlichungsfunktion.
Dieser Leitfaden behandelt alles, was DeepSeek V4 kann, alles, was es nicht kann, und wie man die Lücken schließt, damit Ihre Agenten tatsächlich vollständige Aufgaben erledigen können. Einen vollständigen technischen Überblick über Architektur, Benchmarks und API finden Sie in unserem DeepSeek V4 Developer Guide.
Was DeepSeek V4 kann
Frontier-Reasoning zu 1/18 der Kosten
DeepSeek V4 Pro erreicht 81 % auf SWE-bench Verified, 85,2 % auf MMLU-Pro und 96,8 % auf MATH-500 – alles in Schlagdistanz zu GPT-5.5 und Claude Opus 4.7. Der Unterschied: DeepSeek V4 Pro kostet $0,28/1 Mio. Input-Token und $1,12/1 Mio. Output-Token. GPT-5.5 kostet $5/1 Mio. Input und $30/1 Mio. Output.
Für eine typische agentische Coding-Session – 10.000 Token ein, 2.000 aus – kostet DeepSeek V4 Pro etwa $0,005. GPT-5.5 kostet etwa $0,11. Über einen Monat täglicher Nutzung summiert sich die Differenz auf mehrere hundert Dollar. Für einen direkten Vergleich von Benchmarks, Preisen und Funktionen, siehe DeepSeek V4 vs. GPT-5.5.
1-Millionen-Token-Kontextfenster
DeepSeek V4 kann 1 Million Token in einem einzigen Durchlauf verarbeiten – etwa 750.000 Wörter oder drei vollständige Romane. Für Entwickler bedeutet das: Sie können eine gesamte Codebase ins Modell einspeisen, ohne Chunking, Zusammenfassung oder Retrieval. Claude Code, über DeepSeek V4 geroutet, kann ein großes Monorepo in einer einzigen Session indizieren und verstehen.
Ermöglicht wird das durch DeepSeeks Multi-head Latent Attention (MLA)-Architektur, die den Key-Value-Cache komprimiert, um den Speicherbedarf bei langen Kontextinferenzen zu reduzieren. Das Ergebnis ist praktisch: 1 Million Token Kontext zu Kosten, die Ihr API-Budget nicht sprengen.
Agentisches Coding – Open-Source SOTA
DeepSeek V4 Pro erzielt unter Open-Source-Modellen Spitzenergebnisse auf agentischen Coding-Benchmarks. Es wurde speziell für Agentenaufgaben nachtrainiert: Tool-Calling, mehrstufige Planung, Fehlerbehebung und Code-Ausführung. CNBC berichtete am Starttag, dass V4 für den Einsatz mit Claude Code und OpenClaw optimiert wurde.
In der Praxis kann ein DeepSeek V4-betriebener Agent:
- Ein vollständiges Repository lesen und eine interne Karte der Codebase erstellen
- Mehrstufige Änderungen über Dutzende von Dateien planen
- Diese Änderungen ausführen, Tests laufen lassen und bei Fehlern iterieren
- Externe Tools über Function Calling oder MCP aufrufen
Eine vollständige Einrichtungsanleitung finden Sie unter DeepSeek V4 mit Claude Code: Agent-Integrationsanleitung.
Self-Hosting und Datensouveränität
DeepSeek V4 wird unter der Apache 2.0-Lizenz veröffentlicht. Sie können die Gewichte herunterladen, das Modell auf eigener Hardware betreiben und in Air-Gap-Umgebungen einsetzen. V4 Flash, auf 4 Bit quantisiert, läuft auf einer einzelnen Consumer-GPU. V4 Pro benötigt mehr VRAM, ist aber auf Workstation-Hardware machbar.
Für Teams mit Compliance-Anforderungen, Datensouveränitätsbeschränkungen oder dem Wunsch nach eigenem Infrastrukturbesitz ist das ein entscheidender Vorteil gegenüber API-only-Modellen wie GPT-5.5 oder Claude.
Multi-Modell-Routing
DeepSeek V4 kann zusammen mit anderen Modellen über Routing-Schichten wie OpenRouter verwendet werden. Ein gängiges Muster: DeepSeek V4 Flash ($0,14/1 Mio. Token) für einfache Aufgaben, DeepSeek V4 Pro für komplexes Reasoning und ein multimodales Modell für Aufgaben, die natives Bildverständnis erfordern. Multi-Modell-Routing wird zur Standardpraxis – und DeepSeek V4's Preispunkt macht es zur Standardwahl für kostensensitive Routing-Tiers.
Was DeepSeek V4 nicht kann
Kein natives Multimodal-Support
Das ist die größte Einschränkung. DeepSeek V4 ist rein textbasiert. Die offizielle Dokumentation besagt: „Kein nativer Bild-, Audio- oder Video-Input oder -Output in der Vorschau."
Konkret kann ein DeepSeek V4-betriebener Agent standardmäßig nicht:
- Bilder generieren oder Fotos bearbeiten
- Videos erstellen oder Videoinhalte analysieren
- Audio verarbeiten – Transkription, Sprachsynthese, Musikgenerierung
- Bilder verstehen – ein Foto beschreiben, Text aus einem Screenshot extrahieren, Fragen zu einem Diagramm beantworten
- Das Live-Web nach aktuellen Informationen durchsuchen
- Dateien im Cloud-Speicher ablegen oder Share-Links generieren
- Inhalte im Web veröffentlichen
Keine Sprach- oder Audioverarbeitung
GPT-5.5 und Gemini 3.1 unterstützen Sprachmodus und Audioverständnis. DeepSeek V4 nicht. Wenn Ihr Workflow die Transkription von Meetings, den Aufbau von Sprach-Agenten oder die Verarbeitung von Audiodateien umfasst, ist DeepSeek V4 allein nicht das richtige Werkzeug.
Wissens-Cutoff
Wie alle großen Sprachmodelle hat DeepSeek V4 einen Trainings-Cutoff. Es kennt keine Ereignisse nach seinem Trainingsdatum. Das 1-Millionen-Token-Kontextfenster hilft – Sie können aktuelle Dokumentation oder Suchergebnisse einspeisen –, aber das Modell selbst hat keine Live-Wahrnehmung.
Reife des API-Ökosystems
DeepSeeks API-Ökosystem ist neuer und kleiner als das von OpenAI oder Anthropic. Die Assistants API, strukturierte Ausgaben, Fine-Tuning-API und verwaltete Deployment-Optionen sind weniger ausgereift. Für Teams, die stark auf verwaltete KI-Infrastruktur angewiesen sind, ist das ein Aspekt – obwohl die Apache 2.0-Lizenz bedeutet, dass Sie beliebige Infrastruktur auf dem Modell aufbauen können.
Wie man die Fähigkeitslücken schließt
Für jede oben aufgeführte Einschränkung gibt es eine Lösung. Die Architektur ist unkompliziert: DeepSeek V4 übernimmt Reasoning und Code-Generierung. Andere Tools übernehmen den Rest.
Bildgenerierung, Video, Suche, Speicher und Veröffentlichung
Diese Fähigkeiten können über MCP (Model Context Protocol) hinzugefügt werden, dem offenen Standard zur Verbindung von KI-Agenten mit externen Tools. Claude Code, Cursor und OpenClaw unterstützen MCP nativ. Der schnellste Weg: AnyCap mit einem einzigen Befehl installieren. Eine einzige Runtime fügt alle fünf Fähigkeiten zu jedem MCP-kompatiblen Agenten hinzu:
npx -y skills add anycap-ai/anycap -a claude-code
Nach der Installation kann Ihr DeepSeek V4-betriebener Agent:
| Fähigkeit | Befehl |
|---|---|
| Bilder generieren | anycap image generate "Beschreibung" |
| Videos erstellen | anycap video generate "Beschreibung" |
| Web durchsuchen | anycap search "Suchanfrage" |
| Dateien speichern | anycap drive upload ./pfad |
| Inhalte veröffentlichen | anycap page publish ./datei.md |
Vollständige Anleitung: So fügen Sie DeepSeek V4-Agenten multimodale Fähigkeiten hinzu
Claude Code- und OpenClaw-Integration
DeepSeek V4 wurde für Agenten-Tools optimiert. CNBC hat dies beim Launch bestätigt. So routen Sie Claude Code über DeepSeek V4:
export OPENROUTER_API_KEY=sk-or-your-key
claude --model openrouter/deepseek/deepseek-v4-pro
Ihr Agent nutzt DeepSeek V4 für Reasoning und Code-Generierung, Claude Code für die Agentenausführung (Dateien lesen, Befehle ausführen, Git verwalten) und AnyCap für multimodale Fähigkeiten.
Vollständige Anleitung: DeepSeek V4 mit Claude Code: Agent-Integrationsanleitung
Websuche und aktuelle Informationen
DeepSeek V4's 1-Millionen-Token-Kontextfenster ist für suchgestützte Workflows besonders geeignet. Speisen Sie Suchergebnisse aus AnyCaps Websuche ein, und das Modell kann die vollständige Ausgabe in einem einzigen Durchlauf verarbeiten und synthetisieren – kein Chunking, keine Retrieval-Augmented-Generation-Pipeline, nur reiner Kontext.
Modellvergleich: DeepSeek V4 vs. GPT-5.5
Wenn Sie DeepSeek V4 speziell mit GPT-5.5 vergleichen möchten – Benchmarks, Preise, Multimodal-Lücke, Deployment-Flexibilität – lesen Sie den vollständigen Vergleich.
Vollständiger Vergleich: DeepSeek V4 vs. GPT-5.5: Fähigkeitsvergleich
Empfohlene Stacks für verschiedene Anwendungsfälle
Kostenbewusste Agent-Entwicklung
DeepSeek V4 Flash ($0,14/1 Mio. Token)
+ Claude Code (Agentenausführung)
+ AnyCap (multimodale Fähigkeiten)
= Vollständiger Agent-Stack für ~$5-10/Monat bei täglicher Nutzung
Maximale Leistung, bestes Preis-Leistungs-Verhältnis
DeepSeek V4 Pro ($0,28/1 Mio. Token) für komplexes Reasoning
DeepSeek V4 Flash ($0,14/1 Mio. Token) für einfache Aufgaben
+ Claude Code oder OpenClaw (Agentenausführung)
+ AnyCap (multimodale Fähigkeiten)
+ Multi-Modell-Router (OpenRouter)
= Frontier-agentisches Coding für ~$15-30/Monat
Self-hosted, Air-gapped
DeepSeek V4 Pro (self-hosted auf Workstation-GPU)
+ Claude Code (Agentenausführung)
+ AnyCap (multimodale Fähigkeiten)
+ Nur lokales Netzwerk
= Keine Daten verlassen Ihre Infrastruktur
Enterprise-OpenAI-Ökosystem
GPT-5.5 für native Multimodal-Aufgaben
DeepSeek V4 Flash für kostengünstige Code-Generierung
+ Multi-Modell-Router
+ AnyCap (einheitliche Fähigkeitsschicht für beide Modelle)
= Das Beste aus beiden Ökosystemen
FAQ
Ist DeepSeek V4 wirklich kostenlos?
Die Modellgewichte sind kostenlos und Open-Source unter Apache 2.0. Der Eigenbetrieb kostet Rechenleistung – Strom und Hardware. Die Nutzung der DeepSeek-API kostet $0,28/1 Mio. Input-Token für V4 Pro, $0,14/1 Mio. für V4 Flash. Die Nutzung über OpenRouter oder andere Anbieter kann abweichende Preise haben.
Kann DeepSeek V4 Bilder generieren?
Nicht nativ. Es ist ein rein textbasiertes Modell. Sie können Bildgenerierung über MCP-Server oder eine Fähigkeits-Runtime wie AnyCap hinzufügen. Das Modell übernimmt Reasoning und Code; die Fähigkeitsschicht übernimmt multimodale Ausgaben. Lesen Sie unsere Anleitung zum Hinzufügen multimodaler Fähigkeiten zu DeepSeek V4.
Was ist der Unterschied zwischen V4 Pro und V4 Flash?
V4 Pro ist das vollständige Modell: 1,6 Bio. Gesamtparameter, 49 Mrd. aktiv pro Token, stärkste Reasoning-Leistung. V4 Flash ist eine kleinere, schnellere Variante: geringere Latenz, niedrigere Kosten ($0,14 vs. $0,28/1 Mio. Token), etwas niedrigere Benchmark-Werte. Nutzen Sie Flash für schnelle Iteration und einfache Aufgaben. Nutzen Sie Pro für komplexes Multi-File-Refactoring und architektonisches Reasoning.
Funktioniert DeepSeek V4 mit Cursor?
Ja. Fügen Sie DeepSeek V4 als Modellanbieter in den Cursor-Einstellungen hinzu. AnyCap wird auf die gleiche Weise als MCP-Skill installiert. Derselbe Stack funktioniert mit Claude Code, Cursor und OpenClaw – Sie sind nicht an eine einzige Agent-Shell gebunden.
Wie schneidet DeepSeek V4 im Vergleich zu Claude Opus 4.7 ab?
Sie sind bei Benchmarks konkurrenzfähig. Die Hauptunterschiede: Claude Opus 4.7 ist teurer (Abonnement- oder API-Preise), hat eine engere Integration mit Claude Code (nativ, nicht geroutet) und profitiert von Anthropics Extended-Thinking-Fähigkeit. DeepSeek V4 kostet 1/35 davon, ist Open-Source und self-hostbar. Die Wahl hängt davon ab, ob Sie Integrationskomfort oder Kosten- und Deployment-Flexibilität bevorzugen.
Verwandte Artikel
- DeepSeek V4: Vollständiger Developer Guide — Architektur, Benchmarks, API-Integration, Self-Hosting und alles, was Sie zur Integration von DeepSeek V4 benötigen.
- DeepSeek V4 vs. GPT-5.5: Vollständiger Fähigkeitsvergleich — Benchmarks, Preise, Multimodal-Lücke und Deployment-Flexibilität direkt verglichen.
- DeepSeek V4 mit Claude Code: Agent-Integrationsanleitung — Claude Code über DeepSeek V4 für agentisches Coding zu 1/35 der Kosten routen.
- So fügen Sie DeepSeek V4-Agenten multimodale Fähigkeiten hinzu — Bildgenerierung, Video, Websuche und Cloud-Speicher in unter 2 Minuten zum DeepSeek V4-Agenten hinzufügen.
Einstieg mit DeepSeek V4:
# Claude Code über DeepSeek V4 routen
export OPENROUTER_API_KEY=sk-or-your-key
claude --model openrouter/deepseek/deepseek-v4-pro
# Multimodale Fähigkeiten hinzufügen
npx -y skills add anycap-ai/anycap -a claude-code
DeepSeek V4 Developer Guide · Multimodal zu V4 hinzufügen · V4 + Claude Code · V4 vs. GPT-5.5