En este momento, la inteligencia artificial generativa es imposible de ignorar en línea. Un resumen generado por IA puede aparecer al azar en la parte superior de los resultados cada vez que realizas una búsqueda en Google. O podrías recibir la invitación de probar la herramienta de IA de Meta mientras navegas por Facebook. Y ese emoji de chispa siempre presente continúa acechando mis sueños.
Esta prisa por añadir IA a tantas interacciones en línea como sea posible se remonta al lanzamiento innovador de ChatGPT por OpenAI a finales de 2022. Silicon Valley pronto se obsesionó con la IA generativa, y casi dos años después, las herramientas de IA impulsadas por modelos de lenguaje grande impregnan la experiencia del usuario en línea.
Un efecto secundario desafortunado de esta proliferación es que los procesos computacionales requeridos para operar sistemas de IA generativa son mucho más intensivos en recursos. Esto ha llevado a la llegada de la era de hiperconsumo de internet, un período definido por la difusión de un nuevo tipo de computación que demanda cantidades excesivas de electricidad y agua tanto para construir como para operar.
“En el backend, estos algoritmos que necesitan estar funcionando para cualquier modelo de IA generativa son fundamentalmente muy, muy diferentes de la tradicional búsqueda de Google o el correo electrónico,” dice Sajjad Moazeni, investigador de ingeniería informática en la Universidad de Washington. “Para los servicios básicos, estos eran muy ligeros en términos de la cantidad de datos que necesitaban ir y volver entre los procesadores.” En comparación, Moazeni estima que las aplicaciones de IA generativa son entre 100 y 1,000 veces más intensivas computacionalmente.
Las necesidades energéticas de la tecnología para el entrenamiento y el despliegue ya no son el pequeño secreto sucio de la IA generativa, ya que experto tras experto predijo el año pasado picos en la demanda de energía en los centros de datos donde las empresas trabajan en aplicaciones de IA. Casi como si fuera un acto, Google recientemente dejó de considerarse neutro en carbono, y Microsoft puede pisotear sus objetivos de sostenibilidad en medio de la carrera por construir las herramientas de IA más grandes y poderosas.
“La huella de carbono y el consumo de energía serán lineales a la cantidad de computación que realices, porque básicamente estos centros de datos están siendo alimentados proporcionalmente a la cantidad de computación que realizan,” dice Junchen Jiang, investigador de sistemas en red en la Universidad de Chicago. Cuanto más grande sea el modelo de IA, más computación se requiere a menudo, y estos modelos de frontera están volviéndose absolutamente gigantescos.
A pesar de que el consumo total de energía de Google se duplicó de 2019 a 2023, Corina Standiford, portavoz de la empresa, dijo que no sería justo afirmar que el consumo de energía de Google se disparó durante la carrera por la IA. “Reducir las emisiones de nuestros proveedores es extremadamente complicado, lo que representa el 75 por ciento de nuestra huella”, dice en un correo electrónico. Los proveedores que Google culpa incluyen a los fabricantes de servidores, equipos de red y otra infraestructura técnica para los centros de datos—un proceso intensivo en energía que es necesario para crear partes físicas para los modelos de frontera de IA.
Fuente y créditos: www.wired.com
Cats: Gear