No hay electricidad para entrenar tanta inteligencia artificial: 4 de cada 10 centros de datos tendrán problemas

Entrenar GPT-3, el modelo de lenguaje largo (LLM) detrás del éxito de ChatGPT en 2022 requirió unos 1.287 megavatios-hora (MWh) de electricidad. O, lo que es lo mismo: conseguir que esta herramienta se perfeccionara a hombros de 175.000 millones de parámetros produjo las mismas emisiones de carbono que un coche tras recorrer 700.000 kilómetros. 

Desde entonces, la cosa no ha hecho sino empeorar: aunque las cifras exactas para GPT-4 no han sido divulgadas públicamente, se estima que su entrenamiento requirió 65.300 MWh de electricidad, lo que gastan 20.000 hogares españoles en un año. En el caso del entrenamiento de LLaMA 3.1, el modelo de Meta, en sus versiones de 8.000 millones, 70.000 millones y 405.000 millones de parámetros, generó alrededor de 11.390 toneladas de CO₂... Més

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *