AMD lançou um novo chip de inteligência artificial na quinta-feira que visa diretamente os processadores gráficos de data center da Nvidia, conhecidos como GPUs.
O Instinct MI325X, como é chamado o chip, começará a ser produzido antes do final de 2024, disse a AMD na quinta-feira durante evento para anunciar o novo produto. Quando os chips de IA da AMD são vistos pelos desenvolvedores e gigantes da nuvem como um substituto próximo para da Nvidia produtos, isso poderia pressionar os preços da Nvidia, que teve uma margem bruta de cerca de 75% no ano passado, enquanto suas GPUs estavam em alta demanda no ano passado.
A IA generativa avançada, como o ChatGPT da OpenAI, requer enormes data centers cheios de GPUs para realizar o processamento necessário, o que levou à demanda por mais empresas para fornecer chips de IA.
Nos últimos anos, a Nvidia dominou a maior parte do mercado de GPU para data centers, mas a AMD está historicamente em segundo lugar. Agora a AMD quer tirar quota de mercado à sua rival de Silicon Valley, ou pelo menos capturar uma grande parte do mercado, que deverá valer 500 mil milhões de dólares até 2028.
“A demanda por IA continuou a aumentar e até superou as expectativas. É claro que a taxa de investimento continua a aumentar em todos os lugares”, disse Lisa Su, CEO da AMD, no evento.
A AMD não anunciou nenhum novo cliente importante de nuvem ou Internet para suas GPUs Instinct no evento, mas a empresa já anunciou ambos meta E Microsoft Compre suas GPUs de IA e a OpenAI as use para alguns aplicativos. A empresa também não anunciou o preço do Instinct MI325X, que normalmente é vendido como parte de um servidor completo.
Com o lançamento do MI325X, a AMD está acelerando seu plano de produto para lançar novos chips anualmente para competir melhor com a Nvidia e capitalizar o boom de chips de IA. O novo chip AI é o sucessor do MI300X, que começou a ser comercializado no final do ano passado. O chip 2025 da AMD será chamado MI350, e seu chip 2026 será chamado MI400, disse a empresa.
O lançamento do MI325X irá confrontá-lo com os próximos chips Blackwell da Nvidia, que a Nvidia diz que serão lançados em quantidades significativas no início do próximo ano.
Um lançamento bem-sucedido da mais recente GPU de data center da AMD pode despertar o interesse de investidores que buscam mais empresas para capitalizar o boom da IA. A AMD subiu apenas 20% até agora em 2024, enquanto as ações da Nvidia subiram mais de 175%. A maioria das estimativas da indústria aponta que a Nvidia detém mais de 90% do mercado de chips de IA para data centers.
As ações da AMD caíram 4% na quinta-feira. As ações da Nvidia subiram cerca de 1%.
O maior obstáculo da AMD para conquistar participação de mercado é que os chips de seus concorrentes usam sua própria linguagem de programação, CUDA, que se tornou padrão entre os desenvolvedores de IA. Basicamente, isso vincula os desenvolvedores ao ecossistema da Nvidia.
Em resposta, a AMD anunciou esta semana que melhorou seu software concorrente chamado ROCm para que os desenvolvedores de IA possam facilmente mover mais de seus modelos de IA para os chips da AMD, que a empresa chama de aceleradores.
A AMD classificou seus aceleradores de IA como mais competitivos para casos de uso em que modelos de IA criam conteúdo ou fazem previsões, em vez de quando um modelo de IA processa terabytes de dados para melhorias. Isso se deve em parte à memória avançada que a AMD usa em seu chip, que permite operar o modelo Llama AI da Meta mais rápido do que alguns chips da Nvidia.
“O que você vê é que a plataforma MI325 oferece até 40% mais desempenho de inferência do que o H200 no Llama 3.1”, disse Su, referindo-se a Metas modelo de IA de voz grande.
Também contra a Intel
Embora os aceleradores de IA e as GPUs tenham se tornado a parte mais observada da indústria de semicondutores, o principal negócio da AMD são os processadores centrais, ou CPUs, que estão no centro de quase todos os servidores do mundo.
A receita do data center da AMD mais que dobrou para US$ 2,8 bilhões no trimestre de junho em comparação com o ano passado, com os chips de IA representando apenas cerca de US$ 1 bilhão, disse a empresa em julho.
A empresa disse que a AMD fica com cerca de 34% dos gastos totais em CPUs de data centers. Isso ainda é menos do que Informaçõesque continua a ser líder de mercado com sua série de chips Xeon. A AMD quer mudar isso com uma nova linha de CPUs chamada EPYC 5th Gen, também anunciada na quinta-feira.
Esses chips estão disponíveis em várias configurações, desde um chip de 8 núcleos de baixo custo e baixo consumo de energia, que custa US$ 527, até processadores de supercomputador de 192 núcleos e 500 watts, que custam US$ 14.813 por chip.
De acordo com a AMD, as novas CPUs são particularmente adequadas para alimentar cargas de trabalho de IA com dados. Quase todas as GPUs requerem uma CPU no mesmo sistema para inicializar o computador.
“A IA de hoje tem tudo a ver com a capacidade da CPU, e você vê isso na análise de dados e em muitas outras aplicações desse tipo”, disse Su.