Ícone do site Café Codificado

CEO da OpenAI Sam Altman desmente: ChatGPT não gasta galões de água por consulta, mas IA consome muita energia!

ChatGPT usa muita água? CEO da OpenAI Sam Altman nega preocupações e defende uso de recursos pela IA

O CEO da OpenAI, Sam Altman, veio a público para rebater as crescentes preocupações sobre o alto consumo de água pela inteligência artificial, especialmente o ChatGPT. Durante sua participação no AI Summit, na Índia, Altman classificou as alegações de que cada consulta ao chatbot exigiria uma quantidade significativa de água como “falsas” e “absurdas”.

A controvérsia gira em torno do funcionamento dos data centers, que demandam grandes volumes de água para o resfriamento de seus servidores, evitando o superaquecimento. Embora a tecnologia avance para reduzir essa dependência, projeções indicam um aumento expressivo no consumo global de água para essa finalidade nas próximas décadas.

Um estudo recente da Xylem em parceria com a Global Water Intelligence, divulgado pela CNBC, estima que o volume de água usado para resfriamento de data centers pode mais que triplicar nos próximos 25 anos, impulsionado pela expansão da computação de alto desempenho. Conforme informação divulgada pelo The Indian Express, Altman, no entanto, considera essas comparações sobre o gasto de água por consulta como sem fundamento e distantes da realidade.

O real gargalo: energia, não água por consulta

Apesar de descartar as preocupações com o consumo de água por consulta, Sam Altman reconhece que o **alto consumo de energia pela inteligência artificial** é uma questão legítima e que merece atenção. Para ele, o foco deve ser no aumento geral do uso da IA, e não no gasto individual por pergunta. A solução apontada por Altman passa pela aceleração da transição para **fontes de energia limpa**, como nuclear, solar e eólica.

IA versus Cérebro Humano: uma comparação controversa

Em sua argumentação, Altman também abordou comparações anteriores feitas por Bill Gates, fundador da Microsoft, que sugeriu o cérebro humano como um modelo de eficiência energética para a IA. O CEO da OpenAI contrapôs, argumentando que essa comparação ignora o **custo energético do “treinamento” de um ser humano**, um processo que leva anos e consome diversos recursos.

Altman propõe uma análise mais justa, comparando a energia necessária para um modelo de IA já treinado responder a uma pergunta com a energia gasta por um adulto para realizar a mesma tarefa. Nesse cenário, ele defende que a IA já se mostra competitiva em termos de eficiência energética.

Essa perspectiva gerou reações, como a de Sridhar Vembu, cofundador da Zoho Corporation, que criticou a equiparação entre máquinas e seres humanos, expressando o desejo de que tal cenário não se concretize.

Investimentos bilionários e desafios ambientais

O debate sobre o impacto da IA ocorre em um contexto de **investimentos bilionários em novos data centers**, essenciais para suportar o crescimento da tecnologia. Um relatório do Fundo Monetário Internacional indicou que, em 2023, o consumo global de eletricidade por data centers já se aproximava do total utilizado por países como Alemanha ou França, logo após o lançamento do ChatGPT.

Governos buscam agilizar a liberação de licenças para novos projetos energéticos, enquanto ambientalistas alertam para possíveis conflitos com metas de neutralidade de carbono. Em algumas localidades, comunidades locais manifestam resistência à construção de grandes complexos de dados, temendo sobrecarga nas redes elétricas e aumento nas tarifas de energia.

A discussão levanta pontos cruciais sobre o futuro da inteligência artificial e sua relação com os recursos naturais, evidenciando a necessidade de um desenvolvimento equilibrado e sustentável, focado em **energias renováveis** para alimentar essa tecnologia em constante expansão.

Sair da versão mobile