• Qua. Jul 17th, 2024

IA que consome muita energia: qual é o custo oculto da sua busca por GenAI?

IA que consome muita energia: qual é o custo oculto da sua busca por GenAI?

A tecnologia de IA está impulsionando um aumento no consumo de energia globalmente (Aviso Legal: Imagem Gerada por IA)

Nova Delhi:

Uma pesquisa tradicional no Google consome 0,0003 quilowatt-hora (KWh) de energia em média, de acordo com um relatório do Google de 2009. Essa energia pode alimentar sua lâmpada doméstica (9 watts) por cerca de 2 minutos. O Google tem uma média de cerca de 8,5 bilhões de pesquisas por dia em 2023, o que equivale a 2.550.000 KWh de eletricidade por dia, o que é cerca de 2.000 vezes mais eletricidade do que um indiano médio consome (1.255 KWh) por um ano inteiro.

Em maio, o Google anunciou que a empresa integrará IA em seu mecanismo de busca, que será alimentado por seu modelo de IA mais poderoso – Gemini. De acordo com Alex de Vries, um cientista de dados holandês que falou com o The New Yorker sobre o assunto, uma única pesquisa do Google com IA integrada consumirá 10 vezes mais energia (3 KWh) do que a pesquisa tradicional do Google. Isso é 20.000 vezes mais do que o consumo médio do indiano por um ano.

Alex de Vries, que também é o fundador da Digiconomist, a organização responsável pelo Bitcoin Energy Consumption Index, disse que o consumo de energia do Google atingirá cerca de 29 bilhões de terawatts-hora (TWh) por ano se eles prosseguirem com a integração de IA em sua busca. Esse número é equivalente ao consumo de eletricidade da Irlanda e maior que o do Quênia.

Por que os sistemas de IA estão tão famintos por energia?

Os sistemas de IA exigem muito poder computacional para executar algoritmos complexos para processar um grande corpus de dados cada vez maiores. Quando você insere um prompt no ChatGPT, ele é processado pelo chatbot usando seus servidores hospedados em data centers. Esses centros sozinhos respondem por 1-1,5 por cento de todo o uso global de eletricidade, de acordo com a Agência Internacional de Energia.

“Acho que ainda não apreciamos as necessidades energéticas dessa tecnologia (IA)”, disse Sam Altman, CEO da OpenAI, em um evento público em Davos em janeiro. Altman expressou a necessidade imediata de uma tecnologia “inovadora” como a fusão nuclear para alimentar as operações de IA, dadas as projeções de crescimento da tecnologia de fronteira. Esta é uma indicação clara de que o líder da indústria de chatbots do Large Language Model está buscando caminhos para sustentar os níveis atuais de consumo de eletricidade e proteger sua demanda futura.

Emissões de carbono da IA ​​- Retrocesso para a meta de emissão líquida zero da ONU para 2050?

Data centers, alimentando computação em nuvem, bem como sistemas de IA, produzem de 2,5 a 3,5 por cento das emissões globais de gases de efeito estufa, de acordo com o The Shift Project, uma organização francesa sem fins lucrativos que trabalha para reduzir a dependência energética de combustíveis fósseis. Isso equivale aos mesmos níveis de emissões de gases de efeito estufa de toda a indústria da aviação.

O consumo de energia e a pegada de carbono subsequente de diferentes modelos de IA variam significativamente. Por exemplo, o projeto BLOOM da BigScience, que é um modelo de IA com 76 bilhões de parâmetros (variáveis ​​internas que um modelo aprende durante o treinamento) consome 433 megawatt-hora (MWh) de eletricidade.

Em contraste, o GPT-3 da OpenAI de 2020, que tinha um número comparável de parâmetros de 175 bilhões, consumiu 3 vezes mais eletricidade, 1287 MWh, de acordo com dados do Artificial Intelligence Index Report 2024, publicado pelo Stanford Institute of Human-Centered Artificial Intelligence (HCAI).

As emissões equivalentes de CO2 (em toneladas), ou seja, o total de emissões de gases de efeito estufa expressas em termos de dióxido de carbono, para o BLOOM foram de 25 toneladas e para o GPT-3, foram impressionantes 20 vezes mais, chegando a 502 toneladas.

Últimas e últimas notícias sobre NDTV

O relatório também afirma que há uma séria falta de transparência por parte dos desenvolvedores de IA sobre o impacto ambiental de seus modelos, com a maioria não tornando públicas suas pegadas de carbono.

O recém-lançado Relatório de Sustentabilidade 2024 do Google também reflete a fome de energia da tecnologia nascente de IA. A empresa viu um aumento de quase 50% nas emissões de carbono nos últimos 5 anos, impulsionando suas novas tecnologias de IA. O Relatório de Sustentabilidade 2024 da Microsoft mostra tendências semelhantes, com um pico de 29% de aumento nas emissões de CO2 em 2023, em comparação ao ano anterior.

De acordo com a SemiAnalysis, uma empresa independente de pesquisa e análise de IA sediada nos EUA, a IA impulsionará o aumento do consumo de eletricidade dos data centers para 4,5% da geração global de energia até 2030. Outra estimativa da Agência Internacional de Energia sugere que o consumo total de eletricidade dos data centers pode dobrar dos níveis de 2022 para 1000 TWh (igualando o consumo atual de eletricidade do Japão). A Índia tem cerca de 138 data centers, com mais 45 supostamente programados para estarem funcionais até o final de 2025. Os Estados Unidos têm o maior número de data centers, com 2701 deles.

Os legisladores estão começando a fazer um balanço da situação. A União Europeia tomou conhecimento e adotou uma nova regulamentação em março deste ano. Sob o esquema, todos os operadores de data center são obrigados a relatar seu consumo de energia e água (usado para sistemas de resfriamento). Eles também são obrigados a fornecer informações sobre medidas de eficiência sendo implementadas para garantir a redução.

Em fevereiro, os democratas dos EUA apresentaram a Lei de Impacto Ambiental da Inteligência Artificial de 2024. A lei propõe a criação de um Consórcio de Impacto Ambiental da IA ​​de especialistas, pesquisadores e partes interessadas da indústria para abordar o impacto ambiental da IA.

Source

By admin

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *