O DeepSeek V4 é um modelo de linguagem Mixture-of-Experts com 1,6 biliões de parâmetros que iguala o GPT-5.5 nos benchmarks de programação agêntica a 1/18 do custo. Dispõe de uma janela de contexto de 1 milhão de tokens — a mais longa de qualquer modelo frontier. É licenciado sob Apache 2.0, o que significa que pode fazer self-hosting, fine-tuning e deployment sem restrições. E é exclusivamente textual: sem geração de imagens nativa, sem vídeo, sem áudio, sem pesquisa na web, sem armazenamento, sem publicação.
Este guia aborda tudo o que o DeepSeek V4 pode fazer, tudo o que não pode fazer, e como colmatar as lacunas para que os seus agentes consigam concluir trabalho completo. Para uma análise técnica completa da arquitetura, benchmarks e API, consulte o nosso guia do programador DeepSeek V4.
O que o DeepSeek V4 pode fazer
Raciocínio frontier a 1/18 do custo
O DeepSeek V4 Pro obtém 81% no SWE-bench Verified, 85,2% no MMLU-Pro e 96,8% no MATH-500 — todos muito próximos do GPT-5.5 e do Claude Opus 4.7. A diferença está no preço: o DeepSeek V4 Pro custa $0,28/1M de tokens de entrada e $1,12/1M de tokens de saída. O GPT-5.5 custa $5/1M de entrada e $30/1M de saída.
Numa sessão típica de programação agêntica — 10 mil tokens de entrada, 2 mil de saída — o DeepSeek V4 Pro custa cerca de $0,005. O GPT-5.5 custa cerca de $0,11. Ao longo de um mês de uso diário, a diferença traduz-se em centenas de dólares. Para uma comparação direta de benchmarks, preços e funcionalidades, consulte DeepSeek V4 vs GPT-5.5.
Janela de contexto de 1 milhão de tokens
O DeepSeek V4 consegue processar 1 milhão de tokens numa única passagem — aproximadamente 750 mil palavras, ou o equivalente a três romances completos. Para os programadores, isto significa que podem introduzir uma base de código inteira no modelo sem chunking, sumarização ou retrieval. O Claude Code, quando encaminhado através do DeepSeek V4, consegue indexar e compreender um monorepo grande numa só sessão.
Isto é possibilitado pela arquitetura Multi-head Latent Attention (MLA) da DeepSeek, que comprime a cache key-value para reduzir o uso de memória durante a inferência de contexto longo. O resultado é prático: contexto de 1 milhão de tokens a um custo que não compromete o seu orçamento de API.
Programação agêntica — SOTA open-source
O DeepSeek V4 Pro alcança resultados de ponta entre os modelos open-source nos benchmarks de programação agêntica. Foi especificamente treinado adicionalmente para tarefas de agentes: chamada de ferramentas, planeamento em várias etapas, recuperação de erros e execução de código. A CNBC noticiou no dia do lançamento que o V4 foi otimizado para uso com o Claude Code e o OpenClaw.
Na prática, um agente baseado no DeepSeek V4 pode:
- Ler um repositório completo e construir um mapa interno da base de código
- Planear alterações em múltiplas etapas que abrangem dezenas de ficheiros
- Executar essas alterações, correr testes e iterar sobre falhas
- Invocar ferramentas externas através de function calling ou MCP
Para um guia de configuração completo, consulte DeepSeek V4 com Claude Code: Guia de Integração de Agentes.
Self-hosting e soberania de dados
O DeepSeek V4 é lançado sob a licença Apache 2.0. Pode descarregar os pesos, executar o modelo no seu próprio hardware e fazer deployment em ambientes air-gapped. O V4 Flash quantizado para 4 bits corre numa única GPU de consumidor. O V4 Pro requer mais VRAM, mas é viável em hardware de nível workstation.
Para equipas com requisitos de conformidade, restrições de soberania de dados ou preferência pela propriedade da infraestrutura, esta é uma vantagem decisiva face a modelos apenas de API como o GPT-5.5 ou o Claude.
Encaminhamento multi-modelo
O DeepSeek V4 pode ser usado em conjunto com outros modelos através de camadas de encaminhamento como o OpenRouter. Um padrão comum: usar o DeepSeek V4 Flash ($0,14/1M tokens) para tarefas simples, o DeepSeek V4 Pro para raciocínio complexo, e um modelo multimodal para tarefas que exijam compreensão nativa de imagens. O encaminhamento multi-modelo está a tornar-se prática padrão — e o ponto de preço do DeepSeek V4 torna-o a escolha predefinida para os níveis de encaminhamento sensíveis ao custo.
O que o DeepSeek V4 não pode fazer
Sem suporte multimodal nativo
Esta é a maior limitação. O DeepSeek V4 é exclusivamente textual. A documentação oficial refere: "Sem input ou output nativo de imagem, áudio ou vídeo na pré-visualização."
Especificamente, um agente baseado no DeepSeek V4 não consegue, de raiz:
- Gerar imagens ou editar fotografias
- Criar vídeos ou analisar conteúdo em vídeo
- Processar áudio — transcrição, síntese de voz, geração de música
- Compreender imagens — descrever uma fotografia, extrair texto de uma captura de ecrã, responder a perguntas sobre um diagrama
- Pesquisar a web em tempo real para obter informações atuais
- Armazenar ficheiros em cloud storage ou gerar links de partilha
- Publicar conteúdo na web
Sem processamento de voz ou áudio
O GPT-5.5 e o Gemini 3.1 suportam modo de voz e compreensão de áudio. O DeepSeek V4 não. Se o seu fluxo de trabalho envolve transcrição de reuniões, criação de agentes de voz ou processamento de ficheiros de áudio, o DeepSeek V4 por si só não é a ferramenta adequada.
Corte de conhecimento
Como todos os modelos de linguagem de grande dimensão, o DeepSeek V4 tem um corte nos dados de treino. Não tem conhecimento de eventos após a sua data de treino. A janela de contexto de 1 milhão de tokens ajuda — pode introduzir documentação recente ou resultados de pesquisa — mas o próprio modelo não tem consciência em tempo real.
Maturidade do ecossistema de API
O ecossistema de API da DeepSeek é mais recente e menor do que o da OpenAI ou da Anthropic. A Assistants API, os outputs estruturados, a API de fine-tuning e as opções de deployment gerido são menos maduras. Para equipas que dependem muito de infraestrutura de IA gerida, isto é uma consideração — ainda que a licença Apache 2.0 signifique que pode construir qualquer infraestrutura necessária sobre o modelo.
Como colmatar as lacunas de capacidade
Cada limitação listada acima tem uma solução. A arquitetura é direta: o DeepSeek V4 trata do raciocínio e da geração de código. Outras ferramentas tratam do resto.
Geração de imagens, vídeo, pesquisa, armazenamento e publicação
Estas capacidades podem ser adicionadas através do MCP (Model Context Protocol), o padrão aberto para ligar agentes de IA a ferramentas externas. O Claude Code, o Cursor e o OpenClaw suportam MCP nativamente. O caminho mais rápido: instalar o AnyCap com um único comando. Um runtime adiciona todas as cinco capacidades a qualquer agente compatível com MCP:
npx -y skills add anycap-ai/anycap -a claude-code
Após a instalação, o seu agente baseado no DeepSeek V4 pode:
| Capacidade | Comando |
|---|---|
| Gerar imagens | anycap image generate "descrição" |
| Criar vídeos | anycap video generate "descrição" |
| Pesquisar na web | anycap search "consulta" |
| Armazenar ficheiros | anycap drive upload ./caminho |
| Publicar conteúdo | anycap page publish ./ficheiro.md |
Guia completo: Como Adicionar Capacidades Multimodais a Agentes DeepSeek V4
Integração com Claude Code e OpenClaw
O DeepSeek V4 foi otimizado para ferramentas de agentes. A CNBC confirmou isso no lançamento. Para encaminhar o Claude Code através do DeepSeek V4:
export OPENROUTER_API_KEY=sk-or-your-key
claude --model openrouter/deepseek/deepseek-v4-pro
O seu agente usa o DeepSeek V4 para raciocínio e geração de código, o Claude Code para execução do agente (leitura de ficheiros, execução de comandos, gestão de git) e o AnyCap para capacidades multimodais.
Guia completo: DeepSeek V4 com Claude Code: Guia de Integração de Agentes
Pesquisa na web e informação em tempo real
A janela de contexto de 1 milhão de tokens do DeepSeek V4 é particularmente adequada para fluxos de trabalho enriquecidos com pesquisa. Introduza resultados de pesquisa da pesquisa web do AnyCap, e o modelo consegue processar e sintetizar toda a saída numa única passagem — sem chunking, sem pipeline de retrieval-augmented generation, apenas contexto puro.
Comparação de modelos: DeepSeek V4 vs GPT-5.5
Se está a avaliar o DeepSeek V4 face ao GPT-5.5 especificamente — benchmarks, preços, lacuna multimodal, flexibilidade de deployment — consulte a comparação completa.
Comparação completa: DeepSeek V4 vs GPT-5.5: Comparação de Capacidades
Stacks recomendados para diferentes casos de uso
Desenvolvimento de agentes com foco no custo
DeepSeek V4 Flash ($0,14/1M tokens)
+ Claude Code (execução de agentes)
+ AnyCap (capacidades multimodais)
= Stack de agente completo a ~$5-10/mês para uso diário
Máximo desempenho, melhor custo
DeepSeek V4 Pro ($0,28/1M tokens) para raciocínio complexo
DeepSeek V4 Flash ($0,14/1M tokens) para tarefas simples
+ Claude Code ou OpenClaw (execução de agentes)
+ AnyCap (capacidades multimodais)
+ Router multi-modelo (OpenRouter)
= Programação agêntica frontier a ~$15-30/mês
Self-hosted, air-gapped
DeepSeek V4 Pro (self-hosted em GPU de workstation)
+ Claude Code (execução de agentes)
+ AnyCap (capacidades multimodais)
+ Apenas rede local
= Nenhum dado sai da sua infraestrutura
Ecossistema empresarial OpenAI
GPT-5.5 para tarefas multimodais nativas
DeepSeek V4 Flash para geração de código económica
+ Router multi-modelo
+ AnyCap (camada de capacidade unificada para ambos os modelos)
= O melhor dos dois ecossistemas
Perguntas Frequentes
O DeepSeek V4 é realmente gratuito?
Os pesos do modelo são gratuitos e open-source sob Apache 2.0. Executá-lo você mesmo implica custos de computação — eletricidade e hardware. Usar a API DeepSeek custa $0,28/1M de tokens de entrada para o V4 Pro, $0,14/1M para o V4 Flash. Usá-lo através do OpenRouter ou outros fornecedores pode ter preços diferentes.
O DeepSeek V4 consegue gerar imagens?
Não nativamente. É um modelo exclusivamente textual. Pode adicionar geração de imagens através de servidores MCP ou um runtime de capacidades como o AnyCap. O modelo trata do raciocínio e do código; a camada de capacidades trata dos outputs multimodais. Consulte o nosso guia para adicionar capacidades multimodais ao DeepSeek V4.
Qual é a diferença entre o V4 Pro e o V4 Flash?
O V4 Pro é o modelo completo: 1,6 biliões de parâmetros no total, 49 mil milhões ativos por token, desempenho de raciocínio mais forte. O V4 Flash é uma variante mais pequena e rápida: menor latência, custo mais baixo ($0,14 vs $0,28/1M tokens), pontuações de benchmark ligeiramente inferiores. Use o Flash para iteração rápida e tarefas simples. Use o Pro para refactoring complexo de múltiplos ficheiros e raciocínio arquitetural.
O DeepSeek V4 funciona com o Cursor?
Sim. Adicione o DeepSeek V4 como fornecedor de modelo nas definições do Cursor. O AnyCap instala-se da mesma forma como uma skill MCP. O mesmo stack funciona no Claude Code, no Cursor e no OpenClaw — não fica preso a uma única shell de agente.
Como se compara o DeepSeek V4 ao Claude Opus 4.7?
São competitivos nos benchmarks. As principais diferenças: o Claude Opus 4.7 é mais caro (preço de subscrição ou API), tem integração mais estreita com o Claude Code (nativa, não encaminhada) e beneficia da capacidade de extended thinking da Anthropic. O DeepSeek V4 custa 1/35, é open-source e pode ser executado em self-hosting. A escolha depende de valorizar a fluidez da integração ou o custo e a flexibilidade de deployment.
Artigos Relacionados
- DeepSeek V4: Guia Completo do Programador — Arquitetura, benchmarks, integração de API, self-hosting e tudo o que precisa para integrar o DeepSeek V4.
- DeepSeek V4 vs GPT-5.5: Comparação Completa de Capacidades — Benchmarks, preços, lacuna multimodal e flexibilidade de deployment comparados lado a lado.
- DeepSeek V4 com Claude Code: Guia de Integração de Agentes — Encaminhe o Claude Code através do DeepSeek V4 para programação agêntica a 1/35 do custo.
- Como Adicionar Capacidades Multimodais a Agentes DeepSeek V4 — Adicione geração de imagens, vídeo, pesquisa na web e armazenamento em cloud ao seu agente DeepSeek V4 em menos de 2 minutos.
Comece com o DeepSeek V4:
# Encaminhar o Claude Code através do DeepSeek V4
export OPENROUTER_API_KEY=sk-or-your-key
claude --model openrouter/deepseek/deepseek-v4-pro
# Adicionar capacidades multimodais
npx -y skills add anycap-ai/anycap -a claude-code
Guia do Programador DeepSeek V4 · Adicionar Multimodal ao V4 · V4 + Claude Code · V4 vs GPT-5.5