DeepSeek V3.1 é o último modelo de linguagem grande de código aberto lançado pela empresa de IA chinesa DeepSeek (DeepSeek) em 19 de agosto de 2025. Esta é uma versão de atualização incremental baseada no DeepSeek V3 original, com as principais melhorias incluindo janela de contexto expandida e capacidades de raciocínio aprimoradas.
Acesse DeepSeek V3.1 através de múltiplas plataformas e serviços
Plataforma oficial
Canal oficial, registro requer apenas número de telefone chinês, alto volume de uso, pode haver casos de instabilidade do serviço
HuggingFace Space
Use DeepSeek V3.1 online gratuitamente através do HuggingFace Space, enquanto suporta o uso de sua própria chave API
Nossa plataforma
Em nossa plataforma, use DeepSeek V3.1 & DeepSeek-V3 671B versão completa online gratuitamente.
Integração API
Integre a API DeepSeek V3.1 em suas aplicações. Registro com número de telefone dá 14 yuans de crédito gratuito
Implantação local
Acesse pesos do modelo e código fonte no GitHub para auto-implantação
Documentação API
Visualizar documentação API completa, guias de integração e código de exemplo
DeepSeek V3.1 é um modelo de IA revolucionário com importantes atualizações baseadas no V3 original. Ele tem 671B parâmetros totais, 37B parâmetros ativados por token, suporta comprimento de contexto de 128K e integra capacidades de raciocínio profundo diretamente no modelo principal.
V3.1 mostra melhorias significativas no raciocínio matemático, programação frontend, escrita chinesa, etc., sem requerer mudança manual de modos de raciocínio, fornecendo uma experiência de usuário mais unificada e fluida. O modelo é particularmente adequado para análise de documentos longos, desenvolvimento de código, tutoria educacional e outros cenários de aplicação.
Explore as capacidades inovadoras que tornam o DeepSeek V3.1 o líder dos últimos modelos de IA de código aberto
Suporta entrada de contexto até 128K tokens, processando eficientemente documentos longos, conversas multi-turno e grandes codebases.
Integra capacidades de raciocínio profundo diretamente no modelo principal sem mudança manual, determinando automaticamente se deve iniciar o processo de pensamento.
Melhorias significativas no raciocínio matemático, programação frontend, escrita chinesa, etc., gerando código mais bonito e executável.
Caracterizado por 671B parâmetros totais com 37B parâmetros ativados por token, baseado na arquitetura Mixture-of-Experts inovadora.
Suporta 100+ idiomas, destacando-se particularmente em idiomas asiáticos e minoritários, adequado para uso global.
Adota licença MIT, abrindo completamente pesos do modelo e relatórios técnicos, suportando uso comercial e modificação.
Veja como pesquisadores e desenvolvedores estão aproveitando as capacidades do DeepSeek V3.1
Sobressai em raciocínio complexo e geração de código
Fornece equilíbrio ideal entre custo e desempenho
Contribuição importante para o ecossistema de código aberto e pesquisa acadêmica
A nova versão suporta entrada de contexto até 128K tokens, processando eficientemente documentos longos, conversas multi-turno e grandes codebases.
V3.1 tem contexto mais longo e capacidades de raciocínio também estão integradas no modelo principal. Comparado ao V3, a saída estruturada é melhor, capacidades de geração de tabelas/listas são mais fortes; comparado ao R1, é mais geral e responde mais rápido, adequado para cenários regulares.
V3.1 otimizou a precisão do conteúdo gerado, mostrando melhoria significativa comparado a versões anteriores, mas ainda requer revisão manual para conclusões importantes.
Suporta 100+ idiomas, destacando-se particularmente em idiomas asiáticos e minoritários, adequado para uso global.
Adequado para desenvolvimento frontend, raciocínio científico, escrita de documentos, tutoria educacional e outros cenários complexos.
Suporta recargas online via Alipay e WeChat (empresas podem fazer transferências corporativas), saldo da conta não expira, ciclo de emissão de faturas é aproximadamente 7 dias úteis.
Não há limites de concorrência rígidos no nível do usuário, o sistema limitará dinamicamente a velocidade baseado na carga atual. Se você encontrar erros 503 ou 429, pode ser devido à limitação automática durante períodos de pico.
A versão web usa saída streaming por padrão (mostrando enquanto gera), API por padrão é não-streaming (retornando conteúdo após geração completa), usuários podem configurar manualmente a API para suportar streaming para experiência otimizada.
A recomendação oficial é usar ferramentas/scripts apropriados para estatísticas offline, conveniente para cálculo e gestão de custos.
A maioria dos usuários acredita que capacidades de codificação e raciocínio melhoraram significativamente, resultados gerados são mais estruturados; alguns usuários fornecem feedback que o estilo do modelo é mais 'acadêmico' e menos 'natural' que versões anteriores. Ocasionalmente há problemas de carga do servidor causando atrasos de resposta, e fenômenos ocasionais de alucinação de saída.