Adoção da IAgenerativa traz enormes desafios energéticos

A rápida expansão dos Data Centers é alimentada pela crescente dependência da IA generativa, como o ChatGPT, que consome uma quantidade significativa de energia para processar milhões de consultas diariamente.
25 de Setembro, 2024

O crescimento exponencial da inteligência artificial generativa, como o ChatGPT, está a pressionar os Data Centers a expandir drasticamente a sua infraestrutura e consumo energético. Com os GPU e os TPU a alimentar estes modelos de IA, o aumento da procura de energia levanta preocupações sobre a sustentabilidade, levando à exploração de alternativas como a energia nuclear e à necessidade de inovação em processadores mais eficientes.

A crescente procura por ferramentas de inteligência artificial generativa (IA generativa) está a impulsionar um aumento considerável na utilização de GPU (unidades de processamento gráfico) e TPU (unidades de processamento tensorial) nos Data Centers que estão a expandir-se para acomodar esta nova realidade. Estes centros, essenciais para o processamento de grandes volumes de dados gerados por modelos de IA, estão a aumentar não só em número, mas também em tamanho e consumo energético. Esta transformação tecnológica apresenta desafios complexos, tanto a nível energético quanto de infraestrutura, que merecem uma análise detalhada sobre o impacto económico e ambiental.

Os Data Centers e o impacto energético

A rápida expansão dos Data Centers é alimentada pela crescente dependência da IA generativa, como o ChatGPT, que consome uma quantidade significativa de energia para processar milhões de consultas diariamente. Tomando como exemplo o mercado norte americano, estima-se que o ChatGPT utilize cerca de 227 milhões de kWh por ano, uma quantidade suficiente para abastecer mais de 21.000 residências nos Estados Unidos. Esta dependência crescente por parte dos gigantes tecnológicos como a Microsoft, Google e Amazon tem levado a um aumento sem precedentes no número de Data Centers. Nos Estados Unidos, existem atualmente cerca de 3.000 Data Centers mas espera-se que esse número duplique até 2030, com uma parte substancial dessa capacidade a ser dedicada ao suporte de modelos de IA.

O uso de eletricidade por parte dos Data Centers já representa entre 4% e 9% do consumo energético dos EUA, um número que pode duplicar nos próximos anos, impulsionado pela maior procura de processamento computacional intensivo, como a geração de áudio, vídeo e imagens. Esta realidade coloca questões prementes sobre a sustentabilidade deste crescimento, dado que o consumo energético dos Data Centers está a aumentar a uma taxa de 20% ao ano.

Os custos da Infraestrutura

O custo da eletricidade é o maior fator na operação dos Data Centers representando entre 40% a 60% dos custos de infraestrutura. À medida que as necessidades energéticas dos Data Centers aumentam, é expectável que o preço da eletricidade suba, impulsionado por fatores como regulamentações ambientais e eventos climáticos extremos. Estas dinâmicas têm levado a uma proposta de diferenciação tarifária para os operadores de IA, com fornecedores de energia a sugerirem a introdução de tarifas mais elevadas para grandes utilizadores, uma vez que estes utilizam uma percentagem crescente da capacidade energética disponível. Nos Estados Unidos, empresas como a Google, Microsoft e Amazon estão a resistir a estas mudanças, argumentando que as tarifas especiais seriam discriminatórias e economicamente inviáveis.

Sustentabilidade

Dado o cenário atual, os operadores de Data Centers estão a explorar alternativas energéticas para mitigar os custos e a pegada ambiental do consumo de eletricidade. Uma das soluções propostas é o recurso à energia nuclear. A Amazon, por exemplo, adquiriu recentemente um Data Centers que opera totalmente com energia nuclear, e a Microsoft está a negociar a reabertura da central de Three Mile Island, outrora o palco do maior acidente nuclear dos Estados Unidos, para alimentar as suas operações de IA. Estas iniciativas demonstram o reconhecimento da urgência em encontrar fontes de energia mais sustentáveis e fiáveis, à medida que a procura de IA cresce exponencialmente.

Além disso, os fabricantes de chips como a Nvidia, Intel e AMD estão a trabalhar no desenvolvimento de processadores mais eficientes em termos energéticos, uma resposta à necessidade de reduzir o consumo de energia em processos de treino de modelos de IA, que podem gastar até 10 GWh de eletricidade, o equivalente ao consumo anual de mais de 1.000 residências.

A aceleração da IA generativa está a reconfigurar a economia dos Data Centers e a forçar mudanças estruturais tanto no setor tecnológico quanto no energético. Embora a utilização de energia por parte da IA represente atualmente uma pequena fração do consumo global, as projeções indicam que esta poderá rapidamente tornar-se um problema significativo, se não forem adotadas medidas de mitigação. A implementação de soluções como o recurso à energia nuclear, bem como a inovação tecnológica em processadores mais eficientes, são passos na direção certa, mas ainda insuficientes para resolver o problema de fundo. A verdadeira questão reside na capacidade de equilibrar o avanço tecnológico com a sustentabilidade energética, sem comprometer o crescimento económico ou o fornecimento de serviços essenciais a milhões de utilizadores em todo o mundo.

Com informação Computerworld

Opinião