Tecnologia

DeepSeek lança V4 a um quinto do preço do GPT-5 e sem chips da Nvidia

O laboratório chinês que tinha abalado a Nvidia com o R1 regressa com uma versão maior, consideravelmente mais barata e pensada para correr em silício chinês. O V4-Pro é o maior modelo de inteligência artificial de pesos abertos alguma vez construído; ambas as variantes estão já disponíveis no Hugging Face sob licença MIT, e a tabela de preços fica muito abaixo da praticada pela OpenAI e pela Anthropic.
Susan Hill

A DeepSeek publicou a versão preliminar do V4-Pro e do V4-Flash — dois modelos de linguagem de código aberto que avançam uma tese concreta: processar um milhão de tokens de contexto deixou de ser um problema de capacidade e passou a ser apenas uma questão de eficiência. O V4-Pro reúne 1,6 bilião de parâmetros no total, dos quais 49 mil milhões são ativados por cada pedido — o suficiente para processar uma base de código inteira ou um livro completo num único prompt. Pela primeira vez, um modelo aberto compete com seriedade com os melhores modelos fechados em matemática, programação e tarefas de agentes — e fá-lo a uma fração do custo praticado no mercado.

Ambos os modelos chegam com licença MIT e os pesos estão já publicados no Hugging Face. O V4-Flash é a variante eficiente, com 284 mil milhões de parâmetros totais e 13 mil milhões ativos — suficientemente compacto para que uma versão quantizada possa correr num portátil de gama alta. O V4-Pro é o topo de gama: 865 gigabytes em disco, pensado para implementação em nuvem e para laboratórios de investigação. Ambos partilham a mesma janela de contexto de um milhão de tokens — um salto que iguala o Gemini da Google e duplica o que a maioria dos modelos abertos concorrentes oferece.

YouTube video

O movimento arquitetónico de base chama-se Hybrid Attention: a DeepSeek combina duas técnicas de compressão para reduzir os custos de memória com tal agressividade que o V4-Pro, à mesma dimensão de contexto, consome apenas 27% do cálculo e 10% da cache que o V3.2 exigia. O V4-Flash vai ainda mais longe. Na prática, servir um pedido de um milhão de tokens com o V4-Pro custa hoje menos do que servir um de 100 mil com a geração anterior. Não é um detalhe técnico — é a condição económica para que os modelos de contexto longo deixem de ser demonstração de laboratório e se tornem produto comercial viável.

A ruptura de preços é o ponto em que este lançamento bate com mais força. O V4-Flash custa 0,14 dólares por milhão de tokens de entrada — abaixo mesmo do GPT-5.4 Nano da OpenAI. O V4-Pro custa 1,74 dólares por milhão de tokens de entrada e 3,48 por milhão de saída — cerca de um terço do que a Anthropic cobra pelo Claude Opus 4.7 e de um quinto do que a OpenAI cobra pelo GPT-5.5. Em benchmarks de programação, o V4-Pro alcança uma pontuação Codeforces de 3.206; segundo a própria DeepSeek, um valor que o colocaria na 23.ª posição entre programadores humanos em competições mundiais.

A leitura geopolítica pesa tanto como os benchmarks. A DeepSeek otimizou o V4 para os chips Ascend 950 da Huawei e para o silício do fabricante chinês Cambricon, e não concedeu acesso prévio à Nvidia nem à AMD para a afinação do desempenho — uma inversão da prática industrial padrão. O lançamento funciona como teste comercial da cadeia tecnológica chinesa, que opera há anos sob as restrições à exportação impostas por Washington. Para a Europa, a pergunta torna-se incómoda: enquanto Pequim constrói uma cadeia soberana completa — pesos abertos, chips domésticos, software de inferência próprio — e Washington fecha a sua por via legal, a soberania digital europeia permanece estruturalmente dependente das infraestruturas dos dois blocos.

Impõem-se várias ressalvas. O V4 é uma versão preliminar, não uma versão de produção, e os benchmarks independentes de terceiros ainda não foram concluídos. O próprio relatório técnico da DeepSeek admite que o modelo anda entre três e seis meses atrás do GPT-5.4 e do Gemini 3.1 Pro na capacidade de fronteira. O antecessor R1 foi banido ou restringido poucas semanas após o lançamento em vários estados norte-americanos, na Austrália, em Taiwan, na Coreia do Sul, na Dinamarca e em Itália — o V4 herda intacta a mesma exposição regulamentar nesses mercados. Os fornecedores do Pentágono têm proibição de usar modelos DeepSeek ao abrigo da lei norte-americana NDAA 2026, salvo autorização expressa.

Fora destas zonas restringidas, o acesso está disponível de imediato. O chatbot web da DeepSeek expõe o V4-Pro através do modo Expert e o V4-Flash através do modo Instant sem custos, e os programadores podem invocar a API alterando simplesmente o nome do modelo para deepseek-v4-pro ou deepseek-v4-flash.

O lançamento aconteceu exatamente um ano depois de o DeepSeek-R1 ter abalado os mercados globais de inteligência artificial, em 20 de janeiro de 2025 — o calendário está calibrado. O preço definitivo da API para além da fase preliminar continua por definir, e os antigos endpoints deepseek-chat e deepseek-reasoner vão ser desativados em 24 de julho de 2026, data em que todo o tráfego será redirecionado automaticamente para o V4. O que está em causa ultrapassa o benchmark isolado: é a primeira demonstração pública de que uma potência concorrente consegue entregar uma cadeia completa, competitiva e a baixo custo sem recorrer a fornecedores norte-americanos — e essa demonstração, por si só, redesenha a grelha de leitura para qualquer estratégia soberana de inteligência artificial a partir de agora.

Discussão

Existem 0 comentários.