Gasta más energía una hora de televisión que ChatGPT: IA generativa y energía
Supongo que el título les llamó la atención, y sí, les confirmo que esa afirmación es correcta. Por unidad de tarea, el consumo energético de una consulta promedio a ChatGPT (o DeepSeek) es mucho menor que el de mantener encendido un televisor durante una hora. Pero el verdadero problema del consumo energético de los sistemas de IA generativa no está en el uso individual, sino en toda la cadena de procesos que deben llevarse a cabo para que funcionen. Hablamos de algo mucho más grande, centros de datos que concentran una altísima demanda de energía y de sistemas de enfriamiento. Incluso, cuando usamos ChatGPT, también tenemos una pantalla encendida, así que ese uso de IA se suma al gasto energético del televisor, y ahí está el punto, la IA no reemplaza lo que ya hacíamos, sino que se le suma. ¿Por qué entonces empiezo con esa afirmación? Porque necesito dar un contexto tangible de lo que realmente significa el consumo de energía de esta nueva inteligencia artificial.
He visto muchos artículos hablando del consumo energético de la IA, pero en este intento ofrecer una perspectiva que creo es un poco diferente. Nosotros, los humanos, siempre hemos creado tecnología que consume energía. Es decir, cada desarrollo tecnológico implica uso de energía para su creación, su desarrollo, su uso y su mantenimiento. Tenemos que tener claro que la IA que estamos viendo hoy no va a desaparecer, y que su evolución nos va a empujar, sí o sí, a buscar soluciones energéticas más sostenibles. En este artículo intento poner en contexto el consumo de energía de la IA, y para eso menciono tres cosas, un concepto llamado "emergía", con "m", la paradoja de Jevons, y, para cerrar, algunas oportunidades que podríamos aprovechar aquí en nuestro país.
Consumo de Emergía (con "m") de la IA
A veces pensamos en la energía sólo como lo que prende una luz o carga el celular, pero hay otro concepto que me gusta mucho porque nos hace ver más allá: se llama emergía, con "m". Conocí este concepto cuando era estudiante de biología en la universidad, y fue propuesto por el biólogo Howard Odum. La emergía es, básicamente, la cantidad total de energía que se ha invertido para que algo exista, desde su origen hasta que lo usamos. No se trata sólo de la energía que consume un aparato cuando lo usamos, sino de todo lo que costó hacerlo posible, que funcione y que siga funcionando.
Por ejemplo, si usamos una laptop para chatear con una IA, la energía que se gasta en ese momento es muy poca… pero si pensamos en la emergía, tenemos que sumar la energía solar que permitió la formación del litio en la Tierra, la energía de las máquinas que lo extrajeron, la que se usó para fabricar el chip, para construir el centro de datos, y hasta la comida de los ingenieros que entrenaron el modelo. Es una forma más completa de pensar el impacto real de la tecnología. Entonces, lo que propongo es que pensemos en el modelo "emergético" asociado al desarrollo y funcionamiento de la IA.
Cuando hablamos de inteligencia artificial, muchas veces la imaginamos como "algo en la nube", flotando en el éter, sin peso ni consecuencias. Pero si la miramos con ojos de emergía, nos damos cuenta de todo lo que hay detrás. Desde el inicio, para que una IA exista, hace falta una enorme cantidad de energía, se deben extraer minerales como litio y cobre, fabricar chips súper complejos, construir centros de datos gigantes que consumen electricidad sin parar, día y noche. De hecho, el desarrollo de supercomputadoras por parte de NVIDIA, también tiene un costo energético que es derivado del desarrollo de la IA y la necesidad de computadoras muy poderosas.
Luego viene el entrenamiento del modelo, que es como enseñarle a una máquina a pensar, y eso consume cantidades enormes de energía, en muchos casos, más que una ciudad pequeña. Y aunque parezca que usarla es sólo escribir un mensajito, cada consulta viaja por servidores, se procesa en grandes computadoras y se enfría con sistemas especiales. Todo eso tiene un costo energético que no vemos, pero que está ahí, y que se va acumulado de forma silenciosa. Eso es la emergía, todo el camino energético que recorrió esa tecnología antes de llegar a nosotros.
Lo que más me gusta del enfoque de la emergía es que te obliga a ver el "detrás de cámaras" de la tecnología. Nos ayuda a entender que no todo vale sólo por ser innovador o rápido, sino también por cuánta energía se necesitó para que exista. Por ejemplo, una consulta a una IA como ChatGPT puede parecer mínima, pero si sumamos todo lo que hubo que construir y mover para que esa respuesta llegue, desde las minas hasta los centros de datos, el costo energético total es muchísimo mayor de lo que imaginamos.
Nada es realmente "virtual" o "gratis"; todo tiene un peso físico y un costo energético, una historia energética que muchas veces ignoramos. Y eso nos lleva a preguntarnos: ¿estamos usando bien esa energía acumulada? ¿Vale la pena el gasto para lo que estamos haciendo? Claro, la esperanza es que este avance tecnológico de la IA nos impulse hacia mejoras reales en eficiencia, mejores sistemas de software y hardware, nuevas formas de computación más eficientes, desde procesadores analógicos especializados en IA hasta la computación cuántica (que, la verdad, todavía no sé qué tan eficiente será energéticamente, pero suena prometedora).
Pero, en muchos casos, mejorar la eficiencia energética de una tecnología no reduce el consumo total, sino que lo aumenta. ¿Por qué? Porque al volverse más eficiente, esa tecnología se hace más accesible, más barata, y se empieza a usar mucho más. Este fenómeno se conoce como la paradoja de Jevons. En otras palabras, aunque cada tarea consuma menos energía, el número total de tareas crece tanto que al final terminamos usando más energía que antes. ¿Pasará esto con la IA?
Paradoja de Jevons
Las tecnologías de computación siempre han arrancado con máquinas poco eficientes, y con el tiempo se van volviendo más eficientes. Hay algo que se llama la Ley de Koomey, que dice que el consumo energético por unidad de cálculo en las computadoras se reduce a la mitad aproximadamente cada 1.5 años. Un ejemplo clásico es la ENIAC, una de las primeras computadoras digitales en 1945, pesaba unas 30 toneladas y gastaba unos 420 joules para hacer una operación tan simple como una multiplicación. Eso equivale más o menos a tener encendido un televisor moderno durante 4.2 segundos.
Hoy en día, un teléfono puede hacer esa misma multiplicación usando apenas 5 picojoules. Para ponerlo en perspectiva, se necesitarían 84 billones de personas haciendo la misma multiplicación al mismo tiempo en sus teléfonos para igualar el consumo energético de una sola multiplicación en la ENIAC. Como pueden ver, la eficiencia ha mejorado considerablemente desde los inicios de la computación digital. El siguiente gráfico muestra cómo ha cambiado esa eficiencia… y también cómo ha crecido exponencialmente la cantidad de usuarios.
Para estos gráficos usé dos tendencias clave, la eficiencia energética de las computadoras y el crecimiento de sus usuarios. La línea azul sigue la Ley de Koomey, que dice que la energía por operación se reduce a la mitad cada 1.5 años, desde los 420 J del ENIAC hasta los picojoules de los teléfonos actuales. El otro gráfico (línea negra punteada) muestra una estimación del número de usuarios basada en hitos como el PC, el internet y los smartphones, los usuarios se han duplicado cada 3.2 años aproximadamente. Los datos son aproximados, y los tomé de fuentes históricas, reportes técnicos y estadísticas globales.
Como ven, el aumento de eficiencia, trae consigo un aumento en los usuarios, noten la escala que va de cientos a miles de millones. Es decir, a pesar de ser exponencialmente más eficiente, también hay exponencialmente más usuarios de computadora, y este fenómeno se le conoce como la paradoja de Jevons. La paradoja de Jevons básicamente dice que, cuando hacemos algo más eficiente, como usar menos energía o recursos para hacer lo mismo, lo vemos en el uso de las computadoras, al ser más barato y accesible, muchas más personas comienzan a usarlo. Así, paradójicamente, la eficiencia lleva a que aumente aún más el consumo global. Dicho de otro modo, hoy consumimos muchísima más energía en computación a nivel global, que el consumo en los inicios de la era digital, a pesar de que computadoras como la ENIAC eran extremadamente ineficientes.
Otro punto a considerar, muy relacionado con la paradoja de Jevons, es que mientras la ENIAC realizaba un número muy limitado de cálculos, por ejemplo, para calcular trayectorias de proyectiles, hoy en día hacemos millones de cómputos constantemente, desde leer el correo electrónico, tomar una foto, hasta enviar un mensaje en whatsapp o ver un meme. Las computadoras se han vuelto tan eficientes, que ahora las usamos para absolutamente todo. Y como cada cálculo es barato, hacemos muchos más, y usamos software que hace millones de cálculos sin pensarlo dos veces.
La pregunta que me hago es, ¿pasará lo mismo con la IA generativa? ¿La haremos tan eficiente que acabaremos usándola para todo? ¿Para escribir correos, generar imágenes, responder tareas, hacer búsquedas, acompañarnos en conversaciones? Todo apunta a que sí, de hecho creo que ya lo estamos haciendo. Y si eso ocurre, el consumo total de energía podría seguir creciendo, incluso aunque cada consulta individual sea cada vez más eficiente.
Para que tengan una idea más clara, calcular un solo token en ChatGPT consume alrededor de 0.16 joules (basado en este artículo). Eso significa que gasta unas 32 mil millones de veces más energía que una simple multiplicación hecha en un teléfono moderno. Ahora bien, si hacemos una sesión de trabajo normal con ChatGPT, digamos unas 2000 palabras, que equivalen más o menos a 2600 tokens, estaríamos usando unos 420 joules, que es la misma cantidad de energía que consumía la ENIAC para hacer una sola multiplicación.
Claro, hay que tener en cuenta que generar un token con ChatGPT implica unos 10 mil millones de operaciones matemáticas (entre multiplicaciones, sumas y otras), así que no es una comparación directa… pero aun así, es un buen recordatorio de que detrás de cada respuesta "inteligente" hay una enorme maquinaria energética en movimiento.
Otras formas de energía
La presión energética que ha traído el uso masivo de la IA ha obligado a empresas como Microsoft, Amazon y Google a buscar fuentes de energía alternativas, desde hidrógeno y reactores nucleares miniatura, hasta energía geotérmica y baterías solares térmicas metidas en contenedores. OpenAI, por ejemplo, ha invertido millones de dólares en proyectos de fusión nuclear y nuevas formas de energía solar, con la idea de poder sostener las enormes demandas energéticas de ChatGPT.
Por otro lado, China avanza a toda velocidad con su modelo DeepSeek, que además de ser más abierto, ha demostrado ser más eficiente. DeepSeek ha optimizado varios algoritmos para que realicen operaciones que son más rápidas y por tanto consumen menos energía, de hecho en una sesión de trabajo, gastan una tercera parte de lo que usa ChatGPT. Esto ha abierto un nuevo panorama y muchas preguntas sobre cuánta energía necesitamos realmente en el futuro. DeepSeek ha dejado claro que todavía hay muchísimo por hacer en la optimización de algoritmos, si afinamos el código y el diseño de los modelos, podríamos necesitar menos potencia de cómputo para lograr los mismos resultados… y con eso, reducir el peso energético de la inteligencia artificial. DeepSeek también abre la posibilidad de modelos "locales" donde se descentraliza el poder computacional y se distribuye mejor la demanda energética. Yo tengo una versión de DeepSeek en mi computadora, y el gasto de energía me impacta a mi directamente.
Pienso que, al final, la gran pregunta es si toda esta inversión en nuevas formas de energía logrará que la IA sea realmente sustentable, o si simplemente vamos a terminar encendiendo más plantas de carbón y usando más combustibles fósiles. La verdad, no lo sé… y creo que nadie tiene una respuesta clara por ahora.
Lo que sí tengo claro es que necesitamos un enfoque mucho más amplio, ver la IA como parte inevitable de la cibersociedad en la que ya vivimos, pero empezar a movernos hacia comunidades tecnológicas autosuficientes, más que seguir dependiendo de sistemas globales hiperdependientes de grandes centros de datos. Como mencioné antes, una de las grandes diferencias con otras tecnologías, como el celular, es que en la IA el consumo de energía no está distribuido entre todos los usuarios, sino que se concentra en pocos lugares. Y eso puede ser un verdadero problema.
Costa Rica como un centro de IA
Siempre he pensado que Costa Rica tiene una carta bajo la manga que todavía no hemos jugado del todo, nuestra energía renovable. Con más del 98% de nuestra electricidad proveniente del agua, el viento y los volcanes, podríamos estar liderando una nueva ola tecnológica en lugar de simplemente observarla pasar.
Los centros de datos que alimentan la inteligencia artificial necesitan muchísima energía y enfriamiento constante. ¿Y si aprovechamos lo que ya tenemos para ofrecerle al mundo una alternativa limpia y estable? Imaginen a Costa Rica como un centro de IA verde, donde los algoritmos se entrenan con energía limpia y los datos se procesan entre montañas y cafetales. Con un enfoque emergético, con "m", ayudar a construir una inteligencia artificial alimentada por naturaleza, por nuestra biodiversidad o que se yo…
Claro, hay cosas que tendríamos que mejorar, como una infraestructura digital más robusta, procesos más ágiles para atraer inversión y asegurar que el costo de la energía sea realmente competitivo. Pero si lo pensamos bien, ya hemos hecho cosas más difíciles. Lo que necesitamos ahora es una visión a largo plazo, que vaya más allá de los ciclos políticos y que involucre a muchos actores distintos, gobierno, academia, empresas y comunidades.
Esto no se trata sólo de servidores y cables. Se trata de posicionarnos como un país que no sólo protege la naturaleza, sino que la usa inteligentemente para formar parte activa del futuro tecnológico. ¿Por qué no hacer de Costa Rica el lugar donde la inteligencia artificial respira aire limpio?
Director Escuela de Sistemas Inteligentes Universidad CENFOTEC
