A utilização de Inteligência Artificial (IA) tem sido cada vez mais difundida não somente em empresas de alta tecnologia ou em ambientes corporativos, mas também em atividades cotidianas.
A premissa básica de um modelo de IA é utilização de um número massivo de dados obtidos de diferentes fontes para, através de algoritmos desenvolvidos com Modelos de Linguagem de Grande Escala (LLMs) como no GPT, chegar aos resultados os mais corretos possíveis no menor tempo possível.
Todo esse processamento, desde o treinamento dos modelos, quanto sua efetiva utilização demanda grande consumo de energia. Dessa forma, surge a questão entre o impacto no consumo de energia e sustentabilidade ambiental esperado com a rápida difusão do uso de IA.
Tendência de aumento no consumo de energia em decorrência de IA
Quanto mais parâmetros forem usados para treinar uma IA, mais poderosa ela se torna, melhor ela atende às necessidades dos usuários, maior é o seu apelo comercial e mais energia ela consome.
As estimativas dos gastos de energia baseiam-se no poder de processamento que as companhias de tecnologia precisam para lançar cada nova IA. O GPT3, da OpenAI (ligada à Microsoft), versão 2020, tinha 175 bilhões de “parâmetros”. A versão 2022 do PaLM, modelo em que se baseia a IA do Google, tinha 540 bilhões de “parâmetros”. Considerando o GPT-4, uma criação da OpenAI. Seu treinamento demanda cerca de 28.800.000 kWh, o equivalente ao consumo energético anual de aproximadamente 1.300 lares nos Estados Unidos. Esse processo de treinamento ocorre uma única vez e define os parâmetros para as futuras inferências.
O GPT4 consome entre 0,001 e 0,01 kWh por uso. Em comparação, uma pesquisa no Google consome cerca de 0,0003 kWh. Isso evidencia que a operação de LLMs como o GPT-4 pode ser de entre 3,3 a 33,3 vezes mais demandante em termos energéticos do que atividades online comuns.
Seguindo essa lógica, considerando que o Google processa cerca de 3,5 bilhões de buscas diariamente, exigindo o suporte energético de aproximadamente 37 geradores eólicos, o uso do GPT-4 em escala semelhante demandaria entre 124 a 1.245 geradores de mesma capacidade.
Em uma visão mais geral, os data centers representam atualmente aproximadamente 2% do consumo global de energia elétrica, com cerca de 460 TWh (Terawatts por hora). Existem estimativas que apontam que, em 2026, esse número pode chegar em 1.050 TWh.
Ou seja, o consumo de energia de data centers, sobretudo aqueles que trabalham com IA, será equivalente ao consumo total de um país como a Alemanha. Sem contar que a integração da IA em aplicativos existentes, como motores de busca, poderia aumentar essa porcentagem de forma significativa.
Oportunidades de consumo sustentável
Grandes empresas de tecnologia em IA como Qualcomm, Apple e ARM já estão trabalhando em alternativas de solução com menor consumo energético, como novos chips que consigam processar SLMs em celulares e outros devices e, dependendo do contexto, já é viável optar por modelos mais compactos sem sacrificar a qualidade dos resultados.
Entretanto cabe considerar o risco do chamado Paradoxo de Jevons. Conforme publicado no livro On the Question of Coal (1865), no qual constatou-se o aumento da demanda de carvão após a introdução da máquina a vapor de James Watt, que era muito mais eficiente do ponto de vista energético que a de Thomas Newcomen, utilizada à época. Ou seja, a introdução de uma tecnologia mais eficiente em consumo energético, permitiu redução do custo de produção e consequentemente sua utilização em maior escala, gerando um efeito reverso com o aumento pela demanda energética.
No sentido de busca de maior eficiência energética, a tendência é o uso de modelos de IA menores (SLM) adaptados a tarefas específicas que consumem apenas uma fração da energia necessária para um modelo generativo. O que permitiria sua aplicação em dispositivos móveis sem prejuízos na qualidade ou velocidade de resposta, potencializando a privacidade, a usabilidade em contextos de conectividade restrita e o acesso democrático a tecnologias de IA de ponta, ao mesmo tempo em que contribuem para a redução do consumo energético nos data centers. Como exemplo, nesse segmento, destaca-se o Orca da Microsoft.
Do lado das geradoras, é notável o investimento na capacidade de geração de energia limpa. O mundo já adicionou 50% a mais de capacidade na geração de energia limpa no ano passado em relação a 2022 (510 GW). E estima-se uma geração adicional de 3.700 GW considerando 130 países até 2030, o equivalente a 264 usinas de Itaipu. Com destaque para as energias solar e eólica, que representam maior potencial para o Brasil, sendo responsáveis por 95% da expansão global.
Na distribuição, poderia-se utilizar IA para desenvolver formas mais eficazes de gestão de energia, levando à otimização de smart grids para outro nível, influenciando o consumo direto através de smart meters, de modo a reduzir picos de carga e buscando maior eficiência nos custos com consumo energético.
Dessa forma, estima-se que será inevitável a utilização de IA cada vez mais nas nossas vidas. E, por outro lado, os avanços tecnológicos alinhados aos investimentos das geradoras e conscientização da sociedade irão permitir o maior equilíbrio entre a demanda e consumo energético, propiciando uma melhor qualidade de vida para a população, baixo impacto ambiental e a sustentabilidade de todo o modelo.