A Microsoft compartilhou mais da sua estratégia para chips de Inteligência Artificial nesta semana, confirmando que pretende diminuir a dependência de gigantes como AMD e NVIDIA ao investir mais em hardware próprio, buscando usar majoritariamente servidores desenvolvidos internamente no futuro. A companhia também revelou que a demanda por IA tem sido massiva, a ponto de ainda não haver equipamento suficiente para atendê-la.
Durante conversa moderada pela rede de notícias CNBC na última quarta-feira (1), o Chief Technology Officer (CTO) da Microsoft, Kevin Scott, discutiu a estratégia da marca para servidores de IA, começando pela configuração atual das centrais de processamento.
Segundo o executivo, prioridade foi dada aos processadores que oferecem a melhor relação de performance e preço por chip, o que significa que a NVIDIA tem sido a principal escolha. “Nós não somos restritos sobre os chips. E até então isso significa que a solução com a melhor relação de preço e desempenho tem sido a NVIDIA por anos e anos. Faremos todo o possível para garantir que tenhamos capacidade para atender a demanda”, explicou Scott.
Apesar disso, a gigante já começou a trabalhar mais em hardware proprietário, com o lançamento em 2023 da CPU Microsoft Cobalt 100 e do acelerador de IA Microsoft Maia 100 — o CTO sugere que a dupla também estaria sendo usada massivamente nos data centers da companhia, e há planos mais ambiciosos para o futuro, ainda que rumores tenham apontado para alguns atrasos.
Questionado se o objetivo de longo prazo é priorizar os componentes próprios, Scott foi enfático ao dizer que “absolutamente sim”, descrevendo ainda a visão de haver um sistema completo no futuro. “É sobre o design completo do sistema. São as redes e a refrigeração e você quer ter a liberdade de tomar decisões que você precisa fazer para realmente otimizar [seu poder de] computação para as cargas de trabalho”.
De fato, a Microsoft já está mostrando algumas das tecnologias que está desenvolvendo. No final de setembro, a marca apresentou uma solução de resfriamento avançada de microfluidos, que utiliza um design peculiar de vias para refrigerar os chips diretamente, possibilitando que aceleradores mais poderosos sejam usados — um único componente poderia consumir mais de 2.000 W.
Ainda durante a conversa, Kevin Scott deu um parecer sobre o cenário atual da infraestrutura de IA, que não seria suficiente. “Eu acredito que estamos de um jeito em que é quase impossível de construir capacidade [de computação] rápido o suficiente desde que o ChatGPT foi lançado”. O CTO reforçou que os investimentos para lidar com essa questão devem continuar crescendo nos próximos anos.