A Qualcomm anunciou o lançamento de soluções otimizadas para inferência de Inteligência Artificial de próxima geração para data centers. Trata-se das placas aceleradoras Qualcomm AI200 e AI250, componentes que têm como base a tecnologia NPU da marca e oferecem desempenho em escala de rack e capacidade de memória superior.
De modo geral, essa novidade promete alta performance de dólar por watt com inferência rápida de IA generativa. As duas princnipais soluções trazem resfriamento líquido direto para eficácia térmica, PCIe para expansão, Ethernet para expensão, consumo de energia no nível do rack de 160 kW e computação confidencial para cargas de trabalho seguras de IA.
Qualcomm AI200
Essa placa aceleradora é uma solução desenvolvida especificamente para oferecer baixo custo total de propriedade, bem como desempenho otimizado para inferência de modelos multimodais e de linguagem grande (LLM, LMM). Há suporte a 768 GB de LPDDR por cartão para maior capacidade de memória e menor custo.
