El debate sobre el consumo energético de la IA: datos y soluciones

jueves,28 noviembre, 2024

Por Ernesto del Valle

El desarrollo de la inteligencia artificial (IA) está transformado la sociedad a pasos agigantados, pero también ha planteado serias preocupaciones sobre su impacto ambiental, específicamente en relación con el consumo energético necesario para entrenar y operar modelos avanzados. Sin embargo, ¿cuál es la realidad actual y futura de ese impacto? ¿hay soluciones?

El desmesurado consumo energético de la IA es una realidad

La creciente demanda de modelos de IA cada vez más potentes, como los modelos de lenguaje extenso (LLM) y las redes neuronales profundas, ha impulsado un aumento exponencial en los recursos computacionales necesarios. Entrenar modelos avanzados requiere una cantidad considerable de energía, dado que involucra múltiples iteraciones de cálculos matemáticos complejos realizados en hardware especializado, como unidades de procesamiento gráfico (GPU) o unidades de procesamiento tensorial (TPU).

Además del entrenamiento, la inferencia, que implica el uso de modelos entrenados para realizar tareas, también requiere energía significativa, especialmente cuando se trata de aplicaciones a gran escala como asistentes virtuales, motores de búsqueda o sistemas de recomendación.

El consumo posterior provocado por el uso intensivo de aplicaciones basadas en IA, donde el gasto de energía que antes tenía lugar “en el cerebro del usuario” se traslada ahora a los recursos de procesamiento de los que se alimentan las aplicaciones, también es enorme.

 

Cuando hacemos que piense la máquina para no pensar nosotros, estamos haciendo algo que es MUY INEFICIENTE desde el punto de vista energético. Nuestro cerebro lo hace mucho mejor.

 

¿Qué dicen los estudios?

Un estudio pionero realizado por OpenAI en 2019 mostró que el costo computacional de entrenar los modelos de IA más avanzados se ha duplicado aproximadamente cada 3.4 meses desde 2012. El entrenamiento de GPT-3, un modelo con 175 mil millones de parámetros, consumió alrededor de 1,287 MWh (megavatios-hora), lo que equivale a las emisiones de carbono generadas por un vehículo promedio durante más de 700,000 kilómetros de recorrido.

Un informe más reciente (2024) de Goldman Sachs Research proyecta que la demanda energética de los centros de datos, impulsada de forma decisiva por la IA, crecerá un 160% para el año 2030. Este incremento se atribuye al entrenamiento y operación de modelos avanzados que requieren recursos computacionales muy significativos, cada vez más exigentes. Además, se estima que los sistemas de IA consumen 33 veces más energía para completar una tarea que un software específico para esa tarea.

 

La demanda de energía de los centros de datos crecerá un 160% para 2030

 

Por otro lado, un estudio publicado en 2023 en Nature Communications destacó que el entrenamiento de modelos avanzados de IA, como los modelos generativos de lenguaje, puede emitir hasta 300 toneladas de CO₂, lo cual equivale a las emisiones generadas por cinco vehículos a lo largo de toda su vida útil.

El impacto ambiental del consumo energético de la IA se relaciona directamente con la fuente de la energía utilizada. Según la Agencia Internacional de Energía (AIE), cerca del 60% de la electricidad global todavía proviene de fuentes no renovables, como carbón, gas y petróleo. Esto implica que la expansión de la IA puede contribuir al aumento de las emisiones de gases de efecto invernadero si no se gestiona adecuadamente.

Además, el impacto no se limita únicamente a la fase operativa. La fabricación y el mantenimiento del hardware necesario para entrenar modelos de IA, incluidos los chips avanzados y los servidores de los centros de datos, también tienen una huella ambiental considerable. La minería de los materiales necesarios para construir estos dispositivos y la eliminación de desechos electrónicos son cuestiones críticas que rara vez se discuten en el contexto del debate sobre IA y sostenibilidad.

Estos datos recientes subrayan la necesidad de abordar el consumo energético de la IA mediante estrategias que promuevan la eficiencia y la sostenibilidad, pero la gran pregunta es ¿cómo?

 

Seamos optimistas: ¿puede la IA “saldar” su deuda energética?

Quizás sí. A pesar de su elevado consumo energético, la IA también tiene el potencial de contribuir a soluciones sostenibles en otros sectores. Por ejemplo, algoritmos de IA pueden optimizar redes eléctricas inteligentes, mejorar la eficiencia energética en edificios y optimizar procesos industriales, entre muchas otras aplicaciones, reduciendo significativamente el consumo global de energía.

De hecho, un estudio publicado en Nature Communications destacó que la implementación de IA en sistemas de gestión energética puede reducir el uso de energía hasta en un 20% en ciertas aplicaciones industriales. Además, los sistemas basados en IA están siendo utilizados para modelar y predecir los efectos del cambio climático, permitiendo a los gobiernos y las organizaciones tomar decisiones informadas para mitigar sus impactos.

 

Si bien el desarrollo de la IA tiene un coste ambiental significativo, también puede jugar un papel clave en la transición hacia un futuro más sostenible.

 

Hablemos de soluciones concretas para una IA más sostenible

El desafío de equilibrar el desarrollo de la IA con la sostenibilidad energética ha llevado a la investigación de diversas soluciones técnicas y estratégicas:

Modelos de IA más eficientes: Se están desarrollando modelos más pequeños y eficientes, capaces de lograr resultados comparables a los de los modelos más grandes, pero con un consumo energético considerablemente menor. Por ejemplo, las técnicas de pruning y knowledge distillation permiten reducir el tamaño de los modelos sin comprometer su desempeño (interesante lectura técnica al respecto: https://medium.com/@mukulranjan/combining-pruning-and-knowledge-distillation-1b5b7407c8c8 )

Optimización del hardware: El desarrollo de hardware más eficiente, como chips especializados en tareas específicas de IA, también podría reducir el consumo energético. Los procesadores diseñados específicamente para el aprendizaje automático, como las TPUs, han demostrado ser más eficientes que las GPU en ciertas aplicaciones (más sobre el tema:  https://cloud.google.com/blog/topics/systems/tpu-v4-enables-performance-energy-and-co2e-efficiency-gains ).

Reciclaje de Energía Térmica: Los centros de datos podrían implementar sistemas para capturar y reutilizar el calor generado durante el entrenamiento de modelos de IA, mejorando la eficiencia energética general de las instalaciones (interesante artículo desarrollando este tema en profundidad; https://datacentremagazine.com/data-centres/using-data-as-power-data-centre-heat-reuse-technology )

En definitiva, el debate sobre el consumo energético y el desarrollo de la inteligencia artificial plantea un dilema complejo entre los beneficios que esta tecnología puede ofrecer y los riesgos ambientales asociados a su crecimiento. Si bien el impacto energético de la IA es significativo, también existen múltiples oportunidades para mitigar sus efectos negativos y aprovechar su potencial en la lucha contra el cambio climático.

El futuro del desarrollo de la IA dependerá, en gran medida, de la capacidad de investigadores, empresas y legisladores para adoptar enfoques más sostenibles.