martes 10 de septiembre, 2024
icon 16° Buenos Aires
Tecnología

El impresionante consumo eléctrico de la Inteligencia Artificial.

Realizar consultas e interacciones con los chatbots de la Inteligencia Artificial, tiene un consumo energético alto y problemático. Los detalles en la nota.

Por  Redacción

El hecho de realizar consultas e interacciones con los chatbots de la Inteligencia Artificial, tiene un consumo energético considerable. Según un estudio que analiza las ventas de Nvidia, para el 2027, se requerirá un suministro de energía similar al que consume Argentina de manera anual.

Las plataformas de inteligencia artificial tales como ChatGPT, Copilot entre otras, se han transformado en este último tiempo en una alternativa eficaz, simple y rápida en la búsqueda de información dentro de la vida cotidiana.

Sin embargo, la situación podría convertirse en alarmante ya que, en los últimos cinco años, las emisiones de carbono de Google aumentaron 48% en consecuencia de la implementación de la Inteligencia Artificial.

Así lo comunicó la compañía estadounidense alertando en este caso una gran desventaja que presenta la IA:

La explicación ante tal situación es acerca de los modelos de lenguaje detrás de las IA generativas, donde aquellos requieren una capacidad de cálculo significativa para su entrenamiento, utilizando enormes volúmenes de datos, lo cual necesita servidores muy potentes.

Cada vez que un usuario realiza una consulta a ChatGPT u otra IA generativa, se activan servidores en un centro de datos. Estos servidores no solo consumen electricidad, sino que también generan calor, por lo que deben ser refrigerados, lo que a su vez incrementa el consumo de energía.

Diversos estudios arrojaron que una simple consulta a ChatGPT consume diez veces más energía que una búsqueda vía Google.

El auge generado por la IA en el año 2022, obligó a las grandes empresas a nivel mundial a invertir masivamente en la creación de centro de datos.

image.png

Según los datos, ¿Cuanta energía consume la IA?

Previo al auge de la inteligencia artificial, los centros de datos representaban alrededor del 1% del consumo global de electricidad, según la Agencia Internacional de Energía (AIE). Sin embargo, con el crecimiento de la IA y el sector de las criptomonedas, estos centros consumieron cerca de 460 TWh en 2022, siendo esto equivalente al 2% de la producción eléctrica mundial.

Se estima que este consumo podría duplicarse para 2026, alcanzando los 1.000 TWh, equivalente al consumo eléctrico total de Japón. Ante tal creciente, Microsoft está considerando la instalación de mini reactores nucleares cerca de sus centros de datos con el objetivo de asegurar un suministro energético independiente de la red convencional.

Alex de Vries, es un reconocido economista de la Universidad Libre de Ámsterdam, desarrolló un modelo para calcular el consumo eléctrico específico de la inteligencia artificial, basado en las proyecciones de ventas de Nvidia, cuyos procesadores son esenciales para el entrenamiento de modelos de IA.

La conclusión indica que, si las previsiones de ventas de Nvidia para 2023 se cumplen y todos los servidores operan a plena capacidad, el consumo anual podría variar entre 85,4 y 134 TWh, una cifra comparable al consumo de un país como Argentina.

“Las cifras presentadas en mi artículo eran conservadoras, ya que no incluían aspectos como las necesidades de refrigeración”, declaró a AFP. Añadiendo luego que las ventas de Nvidia superaron las previsiones del año pasado, alertando que el consumo real podría ser aún mayor.

image.png

Ante tal situación ¿Cómo reaccionaron las principales compañías?

Con la creciente incorporación de inteligencia artificial en sus productos, los gigantes tecnológicos enfrentan el riesgo de un aumento significativo en el consumo de electricidad. En donde los datos indican que, las emisiones de carbono de Microsoft, el segundo mayor proveedor de servicios en la nube a nivel global, crecieron un 30% en 2023 en comparación con 2020, siguiendo la tendencia de Google.

A pesar de las inversiones en energías renovables que realizan Google, Amazon y Microsoft para sus centros de datos, sus objetivos de neutralidad en carbono parecen cada vez más distantes.

Las soluciones buscadas por estos gigantes se verán reflejados en años y requieren mucho dinero. Amazon Web Services (AWS) buscará eliminar por completo sus emisiones de carbono para 2040. Google por su parte, busca lograrlo para 2030 en todas sus operaciones. Mientras que Microsoft pretende lograr un balance de carbono negativo para 2030.

No obstante, en una entrevista con Bloomberg en mayo, el presidente de Microsoft, Brad Smith, admitió que esta promesa fue formulada antes del boom de la inteligencia artificial.

¿Cómo gestionan los centros de datos la mayor demanda de energía?

La inteligencia artificial está a punto de transformar el sector de los centros de datos, según Fabrice Coquio de Digital Realty, que administra un gran centro de datos en las afueras de París, parte del cual estará dedicado a la IA. "Será similar a la nube, pero probablemente más extensa en términos de despliegue", explicó a AFP durante una visita a las instalaciones en abril.

Mientras que los servidores con una capacidad de cálculo media pueden ubicarse en salas con sistemas de aire acondicionado convencionales, los servidores de alta potencia necesarios para la IA tienden a generar más calor y requieren enfriamiento especializado mediante el bombeo de agua directamente sobre los equipos. "Esto sin duda exige servidores, equipos de almacenamiento y sistemas de comunicación distintos", subrayó Coquio.

Dejá tu comentario