Seria um eufemismo dizer que os modelos de IA tomaram o mundo de assalto. Eles estão em todos os lugares — no seu telefone, no carro que você dirige, na máquina de lavar que você usa e até mesmo nos videogames que você joga. Tudo começou com o lançamento do ChatGPT pela OpenAI e, desde então, várias outras grandes empresas de tecnologia, incluindo Meta, Google e Anthropic, lançaram seus próprios modelos de IA e, posteriormente, bots baseados neles. Mas por que apenas empresas selecionadas conseguiram criar esses bots de IA? É apenas uma questão de pesquisa? A resposta é não!
As empresas de IA precisam de grande capital e também precisam de acesso a um poder de computação massivo para treinar seus respectivos modelos. Agora, de onde vem a “computação”? Unidades de Processamento Gráfico, ou GPUs, como você as conhece. Sim, o mesmo hardware que você pode usar para alimentar alguns videogames intensivos em seu PC.
É exatamente por isso que a NVIDIA testemunhou um crescimento exponencial, tornando-se a empresa número um em capitalização de mercado no mundo, superando até mesmo a Apple e a Microsoft. Ela continua a trocar de lugar e agora está confortavelmente entre as cinco primeiras.
Então, por que as empresas de IA precisam de GPUs? Vamos responder isso aqui neste explicador.
Leia também: Motorola Edge 50 AI apresenta recursos: saiba quais recursos avançados o smartphone tem a oferecer
GPUs e IA: qual é a conexão?
A resposta curta: as GPUs são melhores em cálculos e têm melhor eficiência energética em comparação às CPUs e, com o tempo, o desempenho pelo preço que você paga aumentou gradualmente, tornando-as a escolha ideal.
A resposta longa: a NVIDIA, que fabrica GPUs para empresas como OpenAI, Meta, Oracle, Tesla e outras, diz que as GPUs atuais podem fazer processamento paralelo, escalá-lo para níveis de supercomputação, e o escopo geral do software para IA é bastante amplo.
E é exatamente por isso que líderes de mercado como a OpenAI treinaram seus Large Language Models usando milhares de GPUs NVIDIA. Para simplificar, esses modelos de IA, em seu núcleo, são redes neurais, conforme a NVIDIA, e são feitos usando camadas e camadas de equações, com um pedaço de dados sendo relacionado a outro. É aqui que a computação massiva que as GPUs têm entra em jogo. As GPUs, com seus milhares de núcleos (pense nelas como calculadoras), “resolvem” as camadas complexas que, em grande parte, compõem um modelo de IA.
Essa mesma capacidade de lidar simultaneamente com tantas camadas em tempo real é o que torna as GPUs ideais para treinamento de IA. Pense nas GPUs como um grande raspador de gelo — um meio de raspar um grande bloco de gelo (modelo de IA) em milhões de pequenos cristais e torná-lo consumível para você comer.
Leia também: Banheiros japoneses na Índia: preço inicial do washlet TOTO, características e todos os detalhes para saber
Gigantes da tecnologia de IA estão ocupados comprando GPUs poderosas
Foi só recentemente que a NVIDIA forneceu suas GPUs H200 para a OpenAI para o suposto desenvolvimento do GPT-5 e, eventualmente, para criar a AGI ou Inteligência Artificial Geral. As GPUs H200 são consideradas as GPUs mais rápidas, e o CEO da NVIDIA, Jensen Huang, ele mesmo “entregou em mãos” a primeira DGX-H200 do mundo para a OpenAI, no início deste ano, em abril.
Mais recentemente, Jensen Huang e Mark Zuckerberg dividiram o palco para uma transmissão ao vivo onde discutiram uma ampla gama de tópicos de IA, incluindo como modelos de IA de código aberto tornam a IA acessível a milhões. Além disso, Zuckerberg chegou a dizer que no futuro todos terão um modelo de IA de si mesmos. Mas, mantendo a conversa sob controle, a Meta tem sido uma grande cliente da NVIDIA e tem fortes relações com ela. A empresa supostamente comprou cerca de 350.000 GPUs NVIDIA H100 para suas ambições com a Meta AI e a Llama. Até o final de 2024, a Meta deve ter um total de 600.000 GPUs.
Leia também: Usuários de iPhone em breve receberão emojis animados semelhantes ao Telegram para o WhatsApp. Aqui está tudo o que sabemos