Pular para o conteúdo
VoltarVoltar
Quem determina o futuro da IA?

Quem determina o futuro da IA?

2 de abril de 2024
6 minutos de leitura
time

Artigo atualizado em 2 de abril de 2024

Muito além de novos algoritmos e modelos de treinamento, o crescimento vertiginoso das IAs depende do avanço em hardware. Entre esses hardwares, as GPUs da NVIDIA emergiram como um recurso crítico para pesquisa e desenvolvimento de IA, graças à sua capacidade de processar grandes conjuntos de dados e algoritmos complexos de forma eficiente. A empresa é uma peça essencial para o futuro da IA. 

Há 2 anos, a NVIDIA ganhava a maior parte do seu dinheiro vendendo placas gráficas e era simplesmente um nome familiar para os jogadores de PC. Hoje é a terceira empresa de tecnologia mais valiosa, depois da Apple e da Microsoft, com uma avaliação de US$ 2 trilhões.

Assim, embora seja um desafio prever a trajetória exata do mercado de IA devido ao seu estado nascente e ao ritmo acelerado do avanço tecnológico, podemos obter insights sobre tendências futuras examinando os principais compradores de chips NVIDIA, já que essas entidades, além de concentrar os recursos de hardware necessários para desenvolver seus projetos, também possuem os pesquisadores e engenheiros mais qualificados do mercado.

Por exemplo, se uma grande parte dos chips da NVIDIA for adquirida por empresas da indústria automóvel, isso poderá indicar um investimento significativo em tecnologia de veículos autónomos. Da mesma forma, compras substanciais por parte de fornecedores de serviços em nuvem podem sugerir uma expansão contínua das plataformas de IA como serviço, principalmente em projetos relacionados a Copilotos e Chatbots.

NVIDIA aumenta liderança no mercado

O chip H100 AI indispensável da Nvidia tornou-a uma empresa trilionária, que pode valer mais do que a Alphabet e a Amazon, e os concorrentes têm lutado para alcançá-la e determinar o futuro da IA. Mas talvez a Nvidia esteja prestes a ampliar sua liderança.

Na GTC 2024, conferência organizada pela Nvidia, o presidente executivo da empresa, Jensen Huang, passou duas horas apresentando  novidades sobre produtos. O destaque foi a introdução da arquitetura Blackwell, que contempla a nova GPU B200, sucessora do H100. Outro ponto importante foi o lançamento de uma CPU voltada para datacenters. “Tivemos que inventar alguma nova tecnologia para tornar isso possível”, disse Huang. Ele estimou que a Nvidia gastou cerca de US$ 10 bilhões em custos de pesquisa e desenvolvimento.

Novos chips Blackwell: aumentando o desempenho dos treinamentos em IA

A gigante tech também anunciou pelo menos três versões diferentes para os novos chips Blackwell: um B100, um B200 e um GB200. Com ênfase para o último que, se trabalhando de forma paralela, oferece quatro vezes o desempenho em treinamento de IA se comparado ao seu antecessor. Além disso, é potencialmente mais eficiente. Ele “reduz o custo e o consumo de energia em até 25x” em relação a um H100, diz a Nvidia, trazendo a eficiência energética com0 um ponto importante para o futuro da IA.

O treinamento de um modelo de 1,8 trilhão de parâmetros exigiria anteriormente 8.000 GPUs Hopper e 15 megawatts de potência. Hoje, 2.000 GPUs Blackwell podem fazer isso consumindo apenas quatro megawatts, segundo Huang.

Em um benchmark GPT-3 LLM com 175 bilhões de parâmetros, a big tech afirma que o GB200 tem um desempenho um pouco mais modesto, sete vezes maior que um H100.

Por fim, o analista da Rosenblatt Securities, Hans Mosesmann, acredita que as GPUs Nvidia Blackwell provavelmente estarão esgotadas até 2025.

A estimativa é que os novos produtos terão um preço semelhante ao de seu antecessor. O H100, conhecido como Hopper, custa entre US$ 25.000 e US$ 40.000 por chip, segundo avaliações. A Nvidia não revela o preço de tabela de seus chips. Eles vêm em diversas configurações diferentes e o preço para o consumidor final, como Meta ou Microsoft, depende de fatores como o volume de chips adquiridos e a fonte da compra (direta ou de um fornecedor como a Dell, HP ou Supermicro que constroem servidores de IA).

Principais compradores na corrida para determinar o futuro da IA

Simultaneamente ao anúncio da Nvidia da nova arquitetura, as principais empresas de tecnologia também anunciavam a aquisição de milhares de chips novos. Essas empresas estão liderando a corrida pela IA, determinando o futuro dessa tecnologia.

AWS

AWS, iniciativa de datacenter da Amazon, anunciou que está trazendo os Superchips Blackwell, que são efetivamente recursos direcionados para computação sob demanda na nuvem. As empresas também acordaram direcionar 20.736 Superchips GB200 (ou seja, 41.472 GPUs Blackwell no total) para o Projeto Ceiba, um supercomputador de IA na AWS. A própria Nvidia usa esse supercomputador para sua pesquisa e desenvolvimento interno de IA. Apesar de soar estranho, essa é uma parceria necessária, já que a Nvidia não detém tantos data centers quanto a Amazon.

Google

O Google também está embarcando no trem Blackwell. Ele oferecerá Blackwell em seus serviços em nuvem, incluindo sistemas GB200 NVL72, cada um composto por 72 GPUs Blackwell e 36 CPUs. Embora não saibamos quantas GPUs Blackwell o Google assinou ainda, com o projeto Gemini sendo o principal concorrente da OpenAI, é esperado que boa parte desses recursos seja direcionado ao aperfeiçoamento de seus próprios modelos.

Oracle

A Oracle, famosa pelo Java ou, mais recentemente, pelo Oracle Cloud, definiu uma quantidade exata de GPUs Blackwell que está comprando da Nvidia. A princípio, 20.000 superchips GB200 serão direcionados à Oracle. São 40.000 GPUs Blackwell no total. Dessa forma, parte do pedido da Oracle será dedicada ao OCI Supercluster ou OCI Compute da Oracle – projetos da Oracle voltados para cargas de trabalho de IA baseadas em data centers.

Microsoft

Por um lado, a Microsoft está sendo tímida com o número exato de chips Blackwell que está comprando. Por outro lado, a empresa está investindo muito dinheiro na OpenAI e em seus próprios esforços de IA no Windows. A saber, a Microsoft está trazendo a Blackwell para o Azure que, adivinhe? Também é uma plataforma com foco em computação em nuvem.

Apesar dos avanços, ainda levará tempo para a Blackwell se estabelecer e há concorrentes

De qualquer forma levará algum tempo para a Nvidia atingir a produção total da Blackwell, e ainda mais para saciar as necessidades do mercado de IA em crescimento exponencial.

Além disso, mesmo com o lançamento da nova arquitetura, a Meta anunciou que pretende produzir 350.000 H100 até o final do ano, o que poderia custar até US$ 40.000 cada, segundo algumas estimativas. Embora não sabemos como a estimativa da Meta levará em consideração a Blackwell e o B200.

Por fim, é provável que a propriedade dos H100s continue sendo o marcador para saber quem são os peixes grandes que estão definindo o futuro da IA.