Depois de revelar sua própria CPU de datacenter de 128 núcleos e GPU Maia 100 para cargas de trabalho de inteligência artificial, a Microsoft começou a desenvolver sua própria placa de rede em uma tentativa de diminuir sua dependência do hardware da Nvidia e acelerar seus datacenters, relata The Information. Se a empresa tiver sucesso, poderá então prosseguir com a otimização da sua infraestrutura Azure e diversificar a sua pilha de tecnologia. Curiosamente, a empresa confirmou indiretamente o esforço.
A Microsoft adquiriu a Fungible, desenvolvedora de unidades de processamento de dados (DPUs) que competia com as divisões Pensando da AMD e Mellanox da Nvidia, há cerca de um ano. Isso significa que a empresa claramente possui as tecnologias de rede e o IP necessários para projetar equipamentos de rede de nível de data center adequados para cargas de trabalho de treinamento de IA que exigem muita largura de banda. Pradeep Sindhu, cofundador da Juniper Networks e fundador da Fungible, que possui vasta experiência em equipamentos de rede, agora trabalha na Microsoft e lidera o desenvolvimento dos processadores de rede para datacenters da empresa.
Espera-se que a nova placa de rede melhore o desempenho e a eficiência dos servidores Azure da Microsoft, que atualmente executam CPUs Intel e GPUs Nvidia, mas eventualmente também adotará CPUs e GPUs da própria Microsoft. A informação afirma que o projeto é importante para a Microsoft, razão pela qual Satya Nadella, o chefe da empresa, nomeou ele mesmo Sindhu para o projeto.
“Como parte de nossa abordagem de sistemas para a infraestrutura do Azure, estamos focados em otimizar cada camada de nossa pilha”, disse um porta-voz da Microsoft. A informação. “Rotineiramente desenvolvemos novas tecnologias para atender às necessidades de nossos clientes, incluindo chips de rede.”
Equipamentos de rede de alto desempenho são cruciais para datacenters, especialmente ao lidar com a enorme quantidade de dados necessários para treinamento de IA por clientes como OpenAI. Ao aliviar os congestionamentos de rede, o novo componente de servidor poderia acelerar o desenvolvimento de modelos de IA, tornando o processo mais rápido e mais econômico.
A mudança da Microsoft está alinhada com a tendência da indústria em direção ao silício personalizado, já que outros provedores de nuvem, incluindo Amazon Web Services (AWS) e Google, também estão desenvolvendo sua própria IA e processadores de uso geral e equipamentos de rede de datacenter.
A introdução da placa de rede da Microsoft pode impactar potencialmente as vendas de equipamentos de rede para servidores da Nvidia, que devem gerar mais de US$ 10 bilhões por ano. Se for bem-sucedido, o cartão poderá melhorar significativamente a eficiência dos datacenters do Azure em geral e do treinamento do modelo OpenAI em particular, bem como reduzir o tempo e os custos associados ao desenvolvimento de IA, afirma o relatório.
O silício personalizado pode levar um tempo significativo para ser projetado e fabricado, o que significa que os resultados iniciais desse esforço ainda podem levar anos de distância. No curto prazo, a Microsoft continuará a contar com hardware de outros fornecedores, mas isso pode mudar nos próximos anos.