Qualcomm apresenta chips AI200 e AI250 para acelerar inferência de IA em data centers

Tecnologia

A Qualcomm anunciou dois novos processadores voltados exclusivamente à inferência de modelos de inteligência artificial — o AI200 e o AI250. A iniciativa marca a entrada definitiva da companhia no segmento de infraestrutura para data centers, um mercado hoje liderado pela Nvidia. Os chips foram revelados nesta segunda-feira (27) e terão disponibilidade comercial escalonada: o AI200 chega em 2026, enquanto o AI250 está previsto para 2027.

Características técnicas e desempenho

Os dois modelos utilizam a tecnologia Hexagon NPU, já presente em dispositivos móveis da Qualcomm, mas agora adaptada para operar em escala de rack. Até 72 unidades podem ser combinadas em um único gabinete, reproduzindo a arquitetura de supercomputadores voltados a IA.

Segundo a empresa, cada placa do AI200 contará com 768 GB de memória LPDDR, capacidade elaborada para lidar com modelos generativos de grande porte. O chip foi otimizado para processar tarefas de inferência multimodal, mantendo o foco em baixo consumo energético.

O AI250, por sua vez, adotará uma nova arquitetura de memória que, de acordo com a Qualcomm, entrega até dez vezes mais largura de banda efetiva. O modelo oferecerá refrigeração líquida direta, suporte a PCIe e conexões Ethernet, permitindo escalabilidade horizontal em clusters. A potência total pode alcançar 160 kW por rack, parâmetro comparável a soluções de GPU de alto desempenho.

Guinada estratégica para além do mobile

Historicamente associada a processadores para smartphones e componentes de telecomunicações, a Qualcomm amplia o portfólio ao disputar espaço em data centers. O movimento ocorre num momento em que a demanda por inferência de IA se expande rapidamente, impulsionada pela adoção de modelos generativos em serviços corporativos.

Especialistas do setor apontam que o mercado de inferência deverá crescer com mais velocidade do que o de treinamento de redes neurais, dominado por GPUs da Nvidia. A Qualcomm aposta nesse ciclo: ao direcionar seus chips para a etapa de execução de modelos já treinados, a companhia tenta oferecer opções de custo total de propriedade (TCO) mais atraentes para provedores de nuvem e empresas de TI.

Durga Malladi, vice-presidente sênior da divisão de Soluções de Borda e Data Center, afirmou que as novas plataformas “redefinem o que é possível para a inferência em escala de rack”, prometendo flexibilidade e segurança alinhadas às exigências atuais dos centros de dados.

Calendário de lançamentos e plano de evolução anual

O roteiro divulgado prevê o lançamento comercial do AI200 em 2026, seguido pelo AI250 em 2027. A Qualcomm informou ainda que pretende apresentar novas gerações anualmente, adotando um ciclo semelhante ao praticado no segmento mobile. A meta é oferecer ganhos graduais de desempenho e eficiência energética, acompanhando a rápida evolução dos modelos de IA.

Analistas consultados destacam que a estratégia de lançamentos anuais pode pressionar concorrentes a acelerar seus roadmaps. Além de Nvidia e AMD, o mercado observa novos players focados em soluções customizadas, como Google (TPU) e Amazon (Inferentia), ampliando a competição por contratos de nuvem.

Impacto potencial para empresas e desenvolvedores

Para provedores de nuvem e companhias que executam aplicações generativas, a chegada de alternativas focadas em inferência pode reduzir custos operacionais. Relatórios indicam que o consumo de energia está entre os principais fatores de despesas em data centers. Se o AI200 e o AI250 entregarem a eficiência prometida, empresas poderão escalar serviços de IA com menor gasto energético e, consequentemente, menor impacto ambiental.

Para desenvolvedores, os novos chips poderão ampliar o leque de plataformas compatíveis com frameworks de aprendizado de máquina. A Qualcomm não detalhou integrações, mas costuma apoiar bibliotecas populares como TensorFlow e PyTorch através de kits de desenvolvimento próprios.

Em termos de mercado, a presença de mais um fornecedor de hardware especializado pode intensificar a pressão por preços mais competitivos, beneficiando projetos de IA que exigem alto volume de inferências em tempo real, como assistentes virtuais, sistemas de recomendação ou análise de imagens médicas.

Segundo consultorias, a combinação de consumo energético reduzido e escalabilidade em rack posiciona a Qualcomm como alternativa para quem busca diversificar fornecedores. Caso as metas de desempenho se confirmem, organizações poderão balancear cargas de trabalho entre GPUs tradicionais e NPUs otimizadas, elevando a eficiência operacional.

Curiosidade

Embora a Qualcomm seja mais conhecida pelos chips Snapdragon em smartphones, a companhia teve participação fundamental no desenvolvimento do Code Division Multiple Access (CDMA), tecnologia que serviu de base para redes 3G em diversos países. Agora, ao migrar dos celulares para data centers, a empresa repete a estratégia de levar um conceito criado para dispositivos móveis — a NPU Hexagon — a uma escala muito maior, mostrando como inovações originalmente pensadas para o bolso podem chegar ao coração da infraestrutura mundial.

Para continuar acompanhando a evolução dos chips de IA e o impacto no mercado de tecnologia, vale conferir também outras matérias em nossa seção de Tecnologia.

Para mais informações e atualizações sobre tecnologia e ciência, consulte também:

Quando você efetua suas compras por meio dos links disponíveis aqui no RN Tecnologia, podemos receber uma comissão de afiliado, sem que isso acarrete nenhum custo adicional para você!

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *