Inteligencia Artificial: preocupa la gran cantidad de electricidad que consume

Las empresas generadoras de AI calculan que el consumo de electricidad para su desarrollo crecerá tanto que igualará a países como Argentina o Suiza, por eso están invirtiendo en centrales nucleares

Cuando enviamos una petición a una inteligencia artificial como ChatGPT, los servidores de un centro de datos computan la respuesta. Hasta aquí, el proceso es similar a cualquier servicio en la nube, pero los modelos de IA generativa, que han sido entrenados para predecir las respuestas, utilizan 33 veces más energía que las máquinas que ejecutan un algoritmo tradicional para realizar tareas específicas.

"Es tremendamente ineficiente desde una perspectiva computacional", dijo a BBC News Sasha Luccioni, investigadora de Hugging Face.

La advertencia de los eticistas de la IA

Un estudio prepublicado por Luccioni y otros autores advierte del alto coste ambiental de los grandes modelos de IA, tanto por la cantidad de energía que demandan como por las toneladas de carbono que emiten.

Cuando empresas como Meta, OpenAI y Google entrenan sus grandes modelos de lenguaje (Llama 3, GPT-4o, Gemini 1.5 Ultra), ponen a funcionar cientos de miles de tarjetas gráficas o TPUs que consumen enormes cantidades de electricidad, especialmente a medida que crecen en tamaño (de millones a cientos de miles de millones de parámetros).

Sin embargo, esta es solo una parte de la historia. La IA generativa es cada vez más popular, lo que significa que millones de personas hacen consultas a cada instante que ponen a funcionar la maquinaria de la inferencia: el proceso por el que los modelos de aprendizaje automático realizan predicciones o generalizaciones a partir de cualquier consulta.

Este proceso es igualmente costoso porque genera contenido desde cero en los centros de datos de todo el mundo. Centros de datos que utilizan cada vez más electricidad: de 460 TWh en 2022 a más de 1.000 TWh proyectados para 2026; aproximadamente el consumo de electricidad de Japón, que tiene una población de 125 millones de personas.

En National Grid, el operador de la red eléctrica de Reino Unido, están preocupados. Calculan que la demanda de electricidad de los centros de datos se sextuplicará en los próximos 10 años por el uso de la IA, al que habrá que sumar la electrificación del transporte y la calefacción.

En Estados Unidos, los operadores de la red ya están empezando a resentirse, dice la consultora Wood Mackenzie: "Se están viendo afectados por las demandas de los centros de datos exactamente al mismo tiempo que se está produciendo el resurgir (gracias a la política gubernamental) de la fabricación nacional".

Coqueteando con la energía nuclear

Los nuevos modelos pequeños como Phi-3 o Gemini Nano, que se ejecutan directamente en nuestros dispositivos, pueden aliviar parte del problema. Al mismo tiempo, el rendimiento del hardware está mejorando, lo que permite ahorrar energía tanto en el entrenamiento como en la inferencia.

Pero a medida que mejora el hardware, las grandes tecnológicas también compiten por entrenar modelos más grandes y capaces, lo que requiere más centros de datos para almacenar los datos de entrenamiento y más energía para alimentar toda la capacidad de computación.

Es una pescadilla que se muerde la cola. Y aunque los centros de datos suelen tener instalaciones de autoconsumo, esto va a requerir soluciones más drásticas. Por eso empresas como Microsoft empiezan a apostar por los reactores nucleares modulares mientras que Sam Altman, CEO de OpenAI, invierte en fusión nuclear.

La respuesta de un ejecutivo de Meta a cuánto consume la IA: "solo harían falta dos reactores nucleares para cubrirlo"

Cuánta energía consume la IA generativa. 

El ingeniero jefe de inteligencia artificial generativa de Meta, Sergey Edunov, tiene una respuesta sorprendente: "solo hacen falta dos reactores nucleares" para cubrir la demanda.

Es una visión optimista de un problema que lleva preocupándonos varios años: la IA supercontaminante. Entrenar modelos de inteligencia artificial no incrementaría las emisiones de carbono si construyéramos una central nuclear con dos reactores exclusivamente para alimentarlas.

Meta no es la primera empresa que vincula energía nuclear con inteligencia artificial. Microsoft reveló en septiembre pasado sus planes de desarrollar reactores de fisión nuclear para "para alimentar los centros de datos en los que residen Microsoft Cloud y su inteligencia artificial".


Microsoft también ha invertido en la fusión nuclear. A principios de año, la empresa dirigida por Satya Nadella acordó comprar energía de fusión a Helion Energy, startup liderada por Sam Altman, si lograba arrancar sus ingeniosos reactores de fusión de aquí a 2028. Un trato más entre Nadella y Altman, pero tiene sentido. Al fin y al cabo, la propia IA nos está ayudando a superar los mayores desafíos de la fusión nuclear.

De dónde sale el cálculo de Meta. Sergey Edunov lidera el entrenamiento de Llama 2, el modelo de lenguaje de Meta que se ha convertido en uno de los más usados por su enfoque de código abierto. En una mesa redonda moderada por VentureBeat en Silicon Valley, Edunov puso sobre la mesa unas cuantas cifras:"Nvidia lanzará entre un millón y dos millones de GPUs H100 el próximo año. Si todas esas GPUs se usaran para generar 'tokens' para modelos de lenguaje de tamaño razonable, sumarían alrededor de 100.000 tokens por persona al día en todo el planeta. Cada H100 consume unos 700 vatios; sumando refrigeración de los centros de datos, alrededor de 1 kW. No es tanto a escala humana, solo harían falta dos reactores nucleares para alimentar todas esas H100".

Entrenamiento de modelos vs. 'inferencia'. Edunov hizo varias matizaciones. Su estimación no tiene en cuenta el entrenamiento de modelos, sino su 'inferencia', al proceso mediante el cual un modelo de IA ya entrenado aplica lo que ha aprendido para responder preguntas y peticiones.

El entrenamiento es mucho más costoso energéticamente que la inferencia, por lo que todos los grandes modelos tienen un corte de información (el último corte de ChatGPT es de abril de 2023, pero antes estuvo meses funcionando con información de 2021). Su cálculo por 'tokens' (unidades del lenguaje que los modelos de lenguaje son capaces de procesar) solo tiene en cuenta la capacidad de inferencia de IA generativa que Nvidia planea vender en 2024.

Un cálculo alternativo

"La inteligencia artificial necesitará próximamente tanta electricidad como un país entero", titulaba hace un mes el New York Times. El artículo se refería a un estudio que estima un consumo de 85 a 134 teravatios para 2027. Tanto como Argentina, Países Bajos o Suiza.


Fuente BBC Mundo

Esta nota habla de: