Estudo revela que modelos de IA mais complexos emitem muito mais CO₂, mesmo quando não oferecem respostas mais precisas nas tarefas
O uso de ferramentas de IA se tornou comum no dia a dia de milhões de pessoas. Nos Estados Unidos, cerca de 52% dos adultos usam regularmente modelos de linguagem de grande porte, também conhecidos como LLMs. No entanto, um novo estudo feito por pesquisadores da Universidade de Ciências Aplicadas de Munique, na Alemanha, levanta um alerta: esse uso tem um custo ambiental alto.
Como os testes foram feitos
Os cientistas analisaram 14 modelos diferentes, com níveis variados de complexidade. A equipe aplicou 1.000 perguntas iguais a todos os modelos e mediu quantos “tokens” cada um gerou.
Tokens são unidades de texto processadas pelo sistema. Quanto mais tokens, mais processamento, mais energia consumida — e, por consequência, mais emissão de gases de efeito estufa.
-
Curso superior de Inteligência Artificial (IA) ja existe e tem no Brasil! O curso ja está mais disputado que medicina
-
Chatgpt agora pode mandar você “dar uma pausa” se identificar que você está delirando: entenda a nova atualização de saúde mental da OpenAI
-
Esqueça o ChatGPT: Apple forma equipe especial para desenvolver seu próprio chatbot de IA e criar sistema avançado de busca para Siri, Safari e mais
-
Ilha nas Filipinas será a primeira nação governada 100% por IA, com Marco Aurélio, Churchill e Mandela no comando; entenda o projeto
Os testes foram feitos em computadores com GPU NVIDIA A100, usando a estrutura Perun, que mede o consumo de energia dos LLMs. Foi usado um fator médio de emissão de 480 gramas de CO₂ por quilowatt-hora.
As perguntas cobriam temas como filosofia, história, direito, álgebra e matemática do ensino médio. Os modelos analisados incluíam sistemas da Meta, Alibaba, Deep Cognito e Deepseek.
Emissões variam com o tipo de modelo
A conclusão foi clara: modelos com raciocínio avançado geraram muito mais emissões que modelos de resposta direta. Em média, os LLMs de raciocínio produziram 543,5 tokens por pergunta.
Já os modelos de texto simples ficaram com apenas 37,7 tokens. Mais tokens significam mais consumo de energia — mas isso não garante mais precisão.
O modelo mais preciso da pesquisa foi o Deep Cogito 70B, que acertou 84,9% das questões. Mas ele também emitiu três vezes mais CO₂ que modelos do mesmo porte que deram respostas mais simples.
Por outro lado, o modelo que mais poluiu foi o Deepseek R1 70B. Ele gerou 2.042 gramas de CO₂ por 1.000 perguntas. Isso equivale à emissão de uma viagem de carro de 15 quilômetros. Com 600 mil perguntas, esse mesmo modelo produziria emissões semelhantes a um voo entre Londres e Nova York. Sua taxa de acerto foi de 78,9%.
O mais eficiente em termos de energia foi o Qwen 7B da Alibaba. Ele emitiu apenas 27,7 gramas de CO₂, mas teve uma precisão de 31,9%.
Complexidade aumenta o custo
O estudo mostrou que os modelos com mais raciocínio lógico não só geram mais tokens como têm dificuldade em responder de forma objetiva.
Mesmo com instruções para responder apenas com a letra correta, alguns modelos produziram milhares de tokens. Em uma única pergunta matemática, o Deepseek-R1 7B chegou a gerar mais de 14 mil tokens.
A área do conhecimento também influencia no consumo. Perguntas sobre álgebra abstrata e filosofia exigiram mais raciocínio e, por isso, mais energia.
Modelos famosos ficaram de fora
O estudo não analisou os LLMs mais conhecidos do público, como ChatGPT, Gemini, Grok ou Claude. A pesquisa se concentrou em modelos acessíveis ao grupo de cientistas e que pudessem ser testados em condições controladas.
Mesmo assim, os resultados acendem um alerta importante sobre o futuro da IA e seu custo ambiental.
Escolhas podem reduzir impacto
Segundo os autores do estudo, entender como cada modelo consome energia é essencial para o uso responsável da IA. Os usuários podem ajudar reduzindo o número de perguntas longas ou evitando o uso de modelos pesados para tarefas simples.
Maximilian Dauner, principal autor da pesquisa, reforça esse ponto. “Os usuários podem reduzir significativamente as emissões solicitando respostas concisas ou limitando o uso de modelos de alta capacidade a tarefas que realmente exijam essa capacidade”, disse.
O estudo também sugere que informar o usuário sobre o custo ambiental de cada pergunta pode tornar o uso da tecnologia mais consciente e sustentável.
Com informações de New Atlas.