Notebookcheck Logo

IA e seu consumo de energia: um problema entre outros

Muito esforço para um retorno, às vezes, bastante gerenciável: inteligência artificial. (Imagem: pixabay/viarami)
Muito esforço para um retorno, às vezes, bastante gerenciável: inteligência artificial. (Imagem: pixabay/viarami)
Certamente não é segredo que o ChatGPT e outros sistemas de IA consomem muita energia. E quando Sam Altman, CEO da OpenAI, admite que isso pode se tornar um problema, certamente vale a pena fazer as contas e olhar para o futuro.

Atualmente, a ChatGPT requer a eletricidade de 33.000 residências. 70.000 ou 80.000 pessoas poderiam usar essa energia durante um ano inteiro.

No entanto, os planos da OpenAI são, obviamente, baseados em um futuro semelhante ao presente do Google. Somente suas consultas de pesquisa podem gerar uma quantidade considerável de energia.

De acordo com várias fontes, todas elas se referindo a um número um pouco mais antigo, 0,3 Wh é usado por consulta de pesquisa - 8,5 bilhões de consultas de pesquisa por dia em todo o mundo.

Isso representaria um total de quase 1 terawatt-hora por ano apenas para processar as consultas de pesquisa. Se o senhor extrapolar isso para as residências, já são 90.000 a 100.000. Esse é o consumo de eletricidade das residências em Reno ou Buffalo.

No entanto, o número do Google, que ainda é claramente gigantesco, é apenas três vezes maior do que o do ChatGPT. E, em ambas as empresas, estamos falando de um aspecto de toda a empresa.

De acordo com os dados da empresa Google, o consumo total é, na verdade, de 6 terawatts-hora, 6 vezes mais do que as próprias consultas de pesquisa. No entanto, esse valor é mundial. Se o senhor considerar o consumo total de eletricidade nos EUA, por exemplo, esse número corresponde a pouco mais de 0,1%.

No entanto, a OpenAI afirma um fator de 4 a 5 por consulta de pesquisa. Além disso, o número de consultas de pesquisa também dobra a cada poucos anos.

Portanto, se o volume de pesquisa atual fosse administrado pelo ChatGPT e seus concorrentes, o valor usado para o Google poderia facilmente ser multiplicado por cinco.

Isso equivaleria a 30 terawatts-hora. Toda a cidade de Los Angeles, com seus 4 milhões de habitantes, pode sobreviver com essa quantidade de eletricidade. Por outro lado, 30 TWh é apenas uma pequena fração da produção global de energia, mas representa o uso global da IA.

E ainda assim: se o desenvolvimento progredir de modo geral, as consultas de pesquisa só serão respondidas por IA no futuro e o número continuar a aumentar na mesma proporção, estará mais próximo de 60 ou 100 TWh. Parece haver um potencial inegável de economia aqui.

É claro que a tecnologia também pode ser usada para economizar eletricidade. Se eu obtiver melhores resultados de pesquisa, não precisarei clicar em quatro ou cinco sites, basta clicar no primeiro. Posso gerar uma foto e não preciso criá-la e editá-la eu mesmo. Posso editar documentos com colegas e amigos sem estar no local, o que, obviamente, também economiza energia (embora não seja necessária nenhuma IA para isso).

No entanto, continua sendo importante aumentar a conscientização sobre o fato de que a IA pode e deve se tornar mais eficiente. Simplesmente confiar que há energia barata suficiente disponível pode se revelar uma falácia muito conveniente.

Nesse sentido, o alerta de Sam Altman é um bom sinal. Seu plano de usar a fusão nuclear https://www.energytrend.com/news/20230511-31989.htmlpara equilibrar tudo, por outro lado, parece bastante ingênuo.

Please share our article, every link counts!
> Análises e revisões de portáteis e celulares > Arquivo de notícias 2024 02 > IA e seu consumo de energia: um problema entre outros
Mario Petzold, 2024-02-22 (Update: 2024-02-22)