Pouco depois do lançamento do GPT-5, a empresa chinesa DeepSeek lançou a versão 3.1 de seu modelo de linguagem, trazendo avanços importantes como a expansão da janela de contexto para 128 mil tokens e o aumento do número de parâmetros para 685 bilhões.
Curiosamente, o anúncio foi feito por meio de um grupo oficial da companhia no WeChat, sem divulgação em seus canais públicos.
A atualização 3.1 do DeepSeek amplia as possibilidades de uso do modelo, que agora consegue lidar com entradas equivalentes a um livro de até 400 páginas. Isso permite ganhos em geração de textos longos, análise de documentos técnicos e diálogos com múltiplas interações.
