
- O chip Maia 200 da Microsoft foi projetado para cargas de trabalho de IA com muitas inferências
- A empresa continuará comprando chips Nvidia e AMD apesar de lançar seu próprio hardware
- As restrições de oferta e a alta demanda tornam a computação avançada um recurso escasso
Microsoft começou a implantar seu primeiro chip de IA projetado internamente, Maia 200, dentro de centros de dadosum passo em seu esforço de longo prazo para controlar mais sua pilha de infraestrutura.
Apesar desta mudança, o CEO da Microsoft deixou claro que a empresa não pretende se afastar de fabricantes de chips terceirizados.
Satya Nadella declarou recentemente Nvidia e AMD continuará a fazer parte da estratégia de compras da Microsoft, mesmo que Maia 200 entra em uso de produção.
O chip AI da Microsoft foi projetado para oferecer suporte, e não eliminar, opções de terceiros
“Temos uma grande parceria com a Nvidia, com a AMD. Eles estão inovando. Estamos inovando”, disse Nadella.
“Acho que muitas pessoas apenas falam sobre quem está à frente. Apenas lembre-se, você tem que estar à frente para sempre. O fato de podermos integrar verticalmente não significa que apenas integraremos verticalmente.”
Maia 200 é um processador focado em inferência que a Microsoft descreve como construído especificamente para executar grandes modelos de IA de forma eficiente, em vez de treiná-los do zero.
O chip foi projetado para lidar com cargas de trabalho sustentadas que dependem fortemente da largura de banda da memória, BATER acesso e rápida movimentação de dados entre unidades de computação e sistemas de armazenamento apoiados por SSD.
A Microsoft compartilhou comparações de desempenho que afirmam vantagens sobre chips internos rivais de outros provedores de nuvem, embora a validação independente permaneça limitada.
De acordo com a liderança da Microsoft, sua equipe de Superinteligência receberá primeiro acesso ao hardware Maia 200.
Este grupo, liderado por Mustafa Suleyman, desenvolve os modelos internos mais avançados da Microsoft.
Embora o Maia 200 também suporte cargas de trabalho OpenAI executadas no Azure, a demanda interna por computação permanece intensa.
Suleyman disse publicamente que mesmo dentro da Microsoft, o acesso ao hardware mais recente é tratado como um recurso escasso. Esta escassez explica porque a Microsoft continua a depender de fornecedores externos.
O treinamento e a execução de modelos em larga escala exigem enorme densidade computacional, taxa de transferência de memória persistente e escalonamento confiável entre data centers.
Atualmente, nenhum design de chip único satisfaz todos esses requisitos em condições do mundo real e, como resultado, a Microsoft continua a diversificar suas fontes de hardware em vez de apostar inteiramente em uma única arquitetura.
As limitações de fornecimento da Nvidia, o aumento dos custos e os longos prazos de entrega levaram as empresas ao desenvolvimento interno de chips.
Estes esforços não eliminaram a dependência de fornecedores externos. Em vez disso, eles adicionam outra camada a um ecossistema de hardware já complexo.
Ferramentas de IA a execução em escala expõe pontos fracos rapidamente, seja no manuseio de memória, limites térmicos ou gargalos de interconexão.
Possuir parte do roteiro de hardware dá à Microsoft mais flexibilidade, mas não elimina as restrições estruturais que afetam toda a indústria.
Em termos simples, o chip personalizado foi concebido para reduzir a pressão em vez de redefini-la, especialmente porque a procura por computação continua a crescer mais rapidamente do que a oferta.
Através TechCrunch
Siga o TechRadar no Google Notícias e adicione-nos como fonte preferencial para receber notícias, análises e opiniões de especialistas em seus feeds. Certifique-se de clicar no botão Seguir!
E é claro que você também pode Siga o TechRadar no TikTok para notícias, análises, unboxings em formato de vídeo e receba atualizações regulares nossas em WhatsApp também.
