Resposta curta
O ChatGPT utiliza eletricidade sempre que processa mensagens e gera respostas. A quantidade exacta não é divulgada publicamente em tempo real, pelo que qualquer estimativa pública deve ser tratada como uma aproximação e não como uma medida auditada.
A maior parte da utilização do ChatGPT é a inferência
Quando um utilizador envia um pedido, o modelo efectua a inferência: processa a entrada, prevê os tokens de saída prováveis e devolve uma resposta. Cada interação requer computação, e essa computação é executada em servidores equipados com aceleradores de IA especializados.
O consumo de eletricidade aumenta com a atividade diária
Um único pedido pode ser pequeno em comparação com a utilização industrial de energia, mas o ChatGPT funciona à escala global. Milhões de utilizadores diários, pedidos repetidos, conversas mais longas e caraterísticas multimodais podem transformar os pequenos custos de energia por pedido em necessidades significativas de infra-estruturas.
Os centros de dados aumentam as despesas gerais
A pegada de eletricidade não se limita ao próprio chip de IA. Os servidores de suporte, a memória, a rede, o armazenamento, o fornecimento de energia e os sistemas de refrigeração também consomem energia. É por isso que a eficiência do centro de dados é importante quando se calcula a eletricidade utilizada pelos serviços de IA.
Porque é que as estimativas variam
As diferentes estimativas dependem de suposições sobre a arquitetura do modelo, o tipo de hardware, a formação de lotes, a duração da resposta, a utilização, a eficiência do centro de dados e o fornecimento de eletricidade. TheAIMeters apresenta estimativas direcionais e associa-as a uma metodologia transparente, em vez de reivindicar uma medição exacta em tempo real. Ver o Metodologia.
