web counter Microsoft apresenta novo chip de IA interno — Maia 200 é mais rápido que concorrentes personalizados da Nvidia, desenvolvido com tecnologia TSMC de 3nm e 216GB de HBM3e - Super Select
Home » Microsoft apresenta novo chip de IA interno — Maia 200 é mais rápido que concorrentes personalizados da Nvidia, desenvolvido com tecnologia TSMC de 3nm e 216GB de HBM3e
Tecnologia, Hardware e PC

Microsoft apresenta novo chip de IA interno — Maia 200 é mais rápido que concorrentes personalizados da Nvidia, desenvolvido com tecnologia TSMC de 3nm e 216GB de HBM3e

A Microsoft lançou seu mais novo acelerador de IA, o Microsoft Azure Maia 200. Este chip de IA interno representa a próxima geração da linha Maia de GPUs, projetado para processar modelos de IA com velocidades impressionantes, superando as ofertas personalizadas dos concorrentes Amazon e Google.

O Maia 200 é considerado o “sistema de inferência mais eficiente” já implantado pela Microsoft. A empresa destaca tanto o desempenho excepcional do chip quanto sua preocupação com a sustentabilidade. A Microsoft afirma que o Maia 200 oferece 30% mais desempenho por dólar em comparação com seu predecessor, o Maia 100, algo curioso, já que o novo chip possui um TDP 50% maior que o anterior.

Construído com a tecnologia de 3nm da TSMC, o Maia 200 contém impressionantes 140 bilhões de transistores, prometendo até 10 petaflops de computação FP4, três vezes mais que o concorrente Trainium3 da Amazon. Além disso, conta com 216 GB de memória HBM3e e uma largura de banda de 7 TB/s.

Como é possível observar, o Maia 200 apresenta uma clara vantagem em poder de computação em relação à concorrência interna da Amazon. Contudo, comparar diretamente o Maia 200 com o Nvidia Blackwell B300 Ultra é um desafio, já que clientes externos não podem adquirir o Maia 200 diretamente. O Blackwell B300 Ultra é projetado para casos de uso muito mais exigentes, e o pacote de software da Nvidia coloca o produto muito à frente de seus concorrentes.

O Maia 200 se destaca também em eficiência, operando com quase metade do TDP do B300, sendo 750W contra 1400W. Se seguir o desempenho de seu antecessor, o Maia 100, é provável que opere abaixo de seu TDP teórico. O foco do Maia 200 está em desempenho FP4 e FP8, fazendo dele uma escolha ideal para clientes que precisam de inferência em modelos de IA.

As melhorias do Maia 200 em relação ao Maia 100 são difíceis de quantificar, uma vez que as especificações oficiais quase não se sobrepõem. No entanto, parece que o Maia 200 operará em temperaturas mais altas e será 30% mais eficiente em termos de desempenho.

O Maia 200 já começou a ser usado no centro de dados Azure Central, nos Estados Unidos, e novas implantações estão previstas para o US West 3, em Phoenix, conforme mais chips se tornem disponíveis. O chip era conhecido pelo codinome Braga e já havia causados burburinhos pela sua longa espera, que arrastou sua liberação.

A mensagem de eficiência que a Microsoft transmite em relação ao Maia 200 está em linha com a recente abordagem da empresa sobre seu papel nas comunidades próximas aos seus centros de dados, buscando desviar críticas negativas em relação ao impacto ambiental da IA. O CEO da Microsoft falou sobre a necessidade de demonstrar os benefícios do desenvolvimento de IA e da construção de centros de dados para evitar a perdição da “permissão social” e o temido “bolha da IA”.

Membro da Super Select:

Marcelo Vangrey

A minha jornada como Vangrey no universo dos games começou em 1994 com um Mega Drive e o incrivel Mortal Kombat 2! Seguida pelo Super Nintendo no universo dos lendários cartuchos 16in1 com Top Gear e companhia! Em 1998, conquistou seu primeiro PLAY 1 novamente com Mortal Kombat, dessa vez o MK4, e a partir daí, continuou explorando diversas plataformas. Comprando e vendendo, já passei por: Game Boy Color, PS2, PSP, PS3, Nintendo DS, 3DS, Xbox 360, PS4, PS4 Pro, PS5, Nintendo Switch 1 e 2, e pra finalizar - o Steam Deck =)

Adicionar comentário

Clique aqui para postar um comentário