Aclariments sobre el consum d’aigua de la intel·ligència artificial
David Ródenas.
Dades actualitzades vs. alarmes infundades
Autor: David Ródenas Picó
Doctor en High Performance Computing
Membre implicat en la fundació del Barcelona Supercomputing Center
Data: Octubre 2025
Context
Recentment ha circulat un article que afirma que ChatGPT consumeix 519 ml d’aigua per cada 100 paraules generades[1]. Aquesta xifra ha generat preocupació legítima sobre l’impacte ambiental de la IA. Com a expert en supercomputació i membre implicat en la fundació del BSC, vull aportar context tècnic essencial que falta en aquests articles.
Fets verificats
1. La xifra de 519ml està desactualitzada i malinterpretada
- Origen de la xifra: Prové d’un estudi del Washington Post (setembre 2024) basat en el model GPT-3[2]
- Paper acadèmic original: “Making AI Less Thirsty” (Ren et al., 2025) afirma que GPT-3 consumeix 500ml per 10-50 consultes, no per 100 paraules[3]
- Models actuals: GPT-4o i successors són aproximadament 10 vegades més eficients que GPT-3[4]
- Dades oficials d’OpenAI (juny 2025): Sam Altman declara un consum de 0,3ml per consulta amb models moderns[5]
- Consum real estimat per conversa completa: ~5ml (vs. els 519ml que afirma l’article)[6]
Consum energètic comparatiu:
- GPT-3 (2020): ~3 watt-hours per consulta
- GPT-4o (2024): ~0,34 watt-hours per consulta[5]
- Reducció: 88% menys energia
2. No tots els centres de dades consumeixen aigua
En la fundació del Barcelona Supercomputing Center (Mare Nostrum) varem utilitzar un sistema de refrigeració tancat amb consum zero d’aigua:
- Circuit tancat amb chillers elèctrics d’alta eficiència
- En climes mediterranis àrids, aquesta és la pràctica estàndard
- Molts CPDs moderns europeus han adoptat refrigeració seca per zones amb escassetat d’aigua[7]
Variabilitat geogràfica del consum d’aigua (segons paper acadèmic)[3]:
| Ubicació | Peticions per 500ml | ml per petició |
| Texas (clima sec) | 65,9 | 7,6 |
| Arizona (clima calent) | 16,7 | 29,9 |
| Irlanda (clima temperat) | 70,4 | 7,1 |
Els CPDs moderns a Europa prioritzen eficiència hídrica pels compromisos ambientals i normatives locals.
3. La comparació amb Google Search és enganyosa i incompleta
Consum energètic per tasca:
- Una cerca de Google: ~0,3 watt-hours[8]
- Una query de ChatGPT (models 2025): ~0,34 watt-hours[5]
Però aquest càlcul ignora el procés complet de resoldre un problema:
| Mètode | Energia consumida | Aigua consumida* | Temps invertit |
| Cerca tradicional amb Google | |||
| 8-10 cerques diferents | ~2,4-3 Wh | ~4-6 ml | 15-25 min |
| Obrir 5-8 pàgines web | ~1-2 Wh | ~2-3 ml | |
| Servidor + navegador actiu | ~1,5 Wh | ~2 ml | |
| TOTAL GOOGLE | ~5-6,5 Wh | ~8-11 ml | 15-25 min |
| Conversa amb ChatGPT | |||
| 1 conversa (4-6 missatges) | ~1,4-2 Wh | ~2-3 ml | 3-5 min |
| TOTAL ChatGPT | ~1,4-2 Wh | ~2-3 ml | 3-5 min |
*Assumint consum mitjà de 1,5-2ml/Wh
Eficiència real:
- Energia per minut de treball: Google ~0,25 Wh/min vs ChatGPT ~0,4 Wh/min
- Però temps total: Google consumeix 3-4x més per tasca completa
A més, cal considerar que:
- Els CPDs de Google són infraestructura massiva construïda fa 10-20 anys
- Google personalitza cada cerca per usuari (computacionalment molt costós)
- Cada cerca activa múltiples datacenters i discos distribuïts globalment
- Una petició d’IA generativa treballa en memòria, exclusivament en un sol ordinador
4. Els models locals ultra-eficients ja són una realitat
OpenAI ha llançat recentment GPT-OSS:20B, un model open-source amb llicència Apache 2.0[9]:
Especificacions tècniques:
- 21 mil milions de paràmetres totals, 3,6 mil milions actius (arquitectura Mixture-of-Experts)
- Requeriments: només 16GB de RAM
- Pot funcionar en portàtils convencionals sense estar endollats (amb bateria)
- Rendiment comparable a GPT-4o mini en benchmarks[10]
Implicacions:
- Consum energètic: ~5-15W en execució (menys que una bombeta LED)
- Consum d’aigua: ZERO (execució local, sense CPD)
- Disponible per descarregar i usar offline via Ollama, LM Studio, etc.
Això demostra que la tendència és cap a models cada cop més eficients que poden executar-se localment amb un impacte ambiental mínim.
La evolució en mesos en una gràfica
En desembre de 2024 es publicava la següent figura[11]:
En aquesta figura es veia com o3 podia treure molt bona puntuació en aquesta evaluació, però amb un cost de més de $1,000 per tasca.
En l’actualitat (octubre 2025), això ha canviat tantissim que han decidit eliminar el o3 high de la grafica per ser massa ineficient. Ara, els jugadors més nous i potents GPT-5 i Claude Sonnet 4.5, estan tots per sota $1 per tasca:
I matissar el concepte de tasca. No son consultes ni peticions, se li demana a la IA que resolgui una tasca, i aquesta empren tots els passos necessaris per resoldre-ho. Essent aquestes tasques tan complexes que el GPT-3 o fins i tot el GPT-4o no poden duur-les a terme.
Conclusions per al debat educatiu
Rebutjar l’ús de tecnologies d’IA basant-se en dades desactualitzades és contraproduent perquè:
- Erosiona la credibilitat de les preocupacions legítimes: Quan es demostra que els arguments principals es basen en dades incorrectes o desactualitzades, es perd autoritat moral per defensar altres causes genuïnament importants (privacitat, addicció a pantalles, desenvolupament cognitiu, etc.)
- Porta a usar alternatives menys eficients: Resoldre problemes amb múltiples cerques de Google pot consumir 3-4x més recursos totals
- Ignora el progrés tecnològic: Els models actuals són 10x més eficients que fa 3 anys
- Passa per alt solucions locals: Models com GPT-OSS permeten ús amb consum d’aigua zero
- No considera el context català: El BSC i infraestructures locals usen refrigeració sense aigua
- Omiteix el estalvi en que ofereix: Una eina que estalvia 20 minuts per tasca també redueix el temps amb ordinador encès
- Genera desconfiança en futures campanyes: Si es demostra que una campanya es basa en dades incorrectes, la comunitat educativa pot ignorar altres advertències futures que sí que siguin vàlides
Recomanacions
Abans de prendre decisions sobre tecnologies educatives basades en impacte ambiental:
- Verificar fonts i dates: Assegurar-se que les dades són posteriors a 2024
- Comparar amb l’alternativa real: No idealitzar el cost de mètodes tradicionals
- Considerar el context local: Tecnologies usades a Catalunya (BSC, infraestructures locals)
- Consultar experts en computació: No basar decisions només en articles divulgatius
- Avaluar l’impacte holístic: Temps estalviat, aprenentatge millorat, eficiència global
Referències
[1] National Geographic España (2025). “La sed de ChatGPT: la IA consume una cantidad de agua alarmante”
[2] Washington Post (setembre 2024). “How much energy can AI use?” https://www.washingtonpost.com/technology/2024/09/18/energy-ai-use-electricity-water-data-centers/
[3] Ren, S., Li, P., Yang, J., Islam, M.A. (2025). “Making AI Less ‘Thirsty’: Uncovering and addressing the secret water footprint of AI models”. Communications of the ACM, 68(7), 54-61. https://doi.org/10.1145/3724499
[4] Goedecke, S. (2024). “Talking to ChatGPT costs 5ml of water, not 500ml” https://www.seangoedecke.com/water-impact-of-ai/
[5] Data Center Dynamics (juny 2025). “Sam Altman: ChatGPT queries consume 0.34 watt-hours” https://www.datacenterdynamics.com/en/news/sam-altman-chatgpt-queries-consume-034-watt-hours-of-electricity-and-0000085-gallons-of-water/
[6] BEUK (2024). “ChatGPT Energy Consumption Visualized” https://www.businessenergyuk.com/knowledge-hub/chatgpt-energy-consumption-visualized/
[7] ISO/IEC Standard on Sustainable AI (2024). Water footprint metrics for AI systems.
[8] TechRadar (2025). “ChatGPT’s energy and water usage revealed!” https://www.techradar.com/computing/artificial-intelligence/sam-altman-doesnt-think-you-should-be-worried-about-chatgpts-energy-usage
[9] OpenAI (2025). “Introducing gpt-oss” https://openai.com/index/introducing-gpt-oss/
[10] Hugging Face (2025). “openai/gpt-oss-20b” https://huggingface.co/openai/gpt-oss-20b
[11] ArcPrize (Dec. 2024) “OpenAI o3 breakthrough high score on ARC-AGI-PUB” https://arcprize.org/blog/oai-o3-pub-breakthrough

