Tecnologia
ChatGPT consome 17 mil vezes mais eletricidade do que a média das casas nos EUA
Ainda assim, estimar quanto de eletricidade a indústria de IA em expansão consome é difícil
O chatbot da OpenAI, ChatGPT, possivelmente está consumindo mais de meio milhão de quilowatts-hora de eletricidade para responder a cerca de 200 milhões de solicitações por dia. As informações são da revista The New Yorker.
Segundo a publicação, a média de consumo das residências nos EUA é de 29 quilowatts-hora diariamente. Isto é, o ChatGPT usa mais de 17 mil vezes essa quantidade de eletricidade no mesmo período.
Ainda assim, estimar quanto de eletricidade a indústria de IA em expansão consome é difícil. Há considerável variabilidade em como os grandes modelos de IA operam, e as gigantes de tecnologia – que têm impulsionado o boom – não são transparentes sobre seu uso de energia, segundo a publicação The Verge.
Em seu artigo, no entanto, de Vries chegou a uma estimativa aproximada com base em números divulgados pela Nvidia, a queridinha do boom da IA. De acordo com dados da New Street Research reportados pela emissora norte-americana CNBC, a fabricante de chips tem cerca de 95% da participação de mercado para processadores gráficos.
De Vries estimou no artigo que até 2027, todo o setor de IA consumirá entre 85 a 134 terawatts-hora (um bilhão de vezes um quilowatt-hora) anualmente.
“Você está falando sobre o consumo de eletricidade da IA potencialmente sendo meio por cento do consumo global de eletricidade até 2027”, disse de Vries ao The Verge.
Em comparação, a Samsung usa quase 23 terawatts-hora, enquanto gigantes da tecnologia como Google usam um pouco mais de 12 terawatts-hora, e a Microsoft usa um pouco mais de 10 terawatts-hora para operar centros de dados, redes e dispositivos de usuário, de acordo com os cálculos da publicação Business Insider com base em um relatório da Consumer Energy Solutions.
Você precisa estar logado para postar um comentário Login