Impacto ambiental de la inteligencia artificial: ¿Cuánto contamina cada consulta? Aunque la IA facilita tareas cotidianas, investigaciones recientes destacan que la eficiencia energética de estos sistemas es un problema creciente.
Key Takeaways
- Estudios recientes revelan que una sola consulta puede emitir mucho más CO₂ que una búsqueda convencional.

Las herramientas de inteligencia artificial (IA) generativa se han vuelto esenciales en la vida diaria de muchas personas. Aunque son vistas como soluciones rápidas y efectivas, investigaciones citadas por CNN señalan que, detrás de cada palabra generada por estas máquinas, hay un alto costo ambiental.
El funcionamiento de los modelos de inteligencia artificial generativa implica descomponer las instrucciones que damos en un conjunto de números llamados ID de tokens.
Estos tokens son enviados a centros de datos, donde computadoras realizan complejos cálculos para generar las respuestas solicitadas. La electricidad utilizada proviene de plantas de energía alimentadas por carbón o gas natural, fuentes que contribuyen a las emisiones de gases.
De acuerdo con el Electric Power Research Institute, procesar una consulta en un modelo de IA puede consumir hasta diez veces más energía que realizar una búsqueda convencional en Google.
En un estudio realizado en Alemania, investigadores evaluaron 14 sistemas de IA basados en modelos de lenguaje grande (LLM, por sus siglas en inglés). Se les hicieron preguntas de respuesta abierta y de opción múltiple para medir el impacto ambiental de cada una.
Las preguntas complejas generaron hasta seis veces más emisiones de CO2 que aquellas con respuestas más simples. Los modelos más avanzados, que cuentan con mayores capacidades de razonamiento, produjeron hasta 50 veces más emisiones que los modelos más pequeños al responder la misma consulta.
A mayor complejidad y capacidad de razonamiento, mayor es el consumo de energía. Los modelos más avanzados requieren de decenas de billones de parámetros para procesar los tokens, lo que hace que el proceso de generación de respuestas sea mucho más intensivo en términos de recursos.
Relacionado: Sam Altman dice que ser amable con la IA cuesta miles de millones. ¿Qué opina ChatGPT?
Pedir respuestas breves: la clave para un uso más eficiente de la IA
A pesar del impacto ambiental asociado con la IA, hay formas de reducir su huella de carbono. Maximilian Dauner, autor principal del estudio, sugiere que los usuarios sean más directos al interactuar con los modelos de IA. Pedir respuestas breves y evitar explicaciones largas puede disminuir el consumo de energía. Por ejemplo, en lugar de pedir una explicación detallada para resolver un problema de álgebra, se puede pedir solo la respuesta.
Además, es importante elegir el modelo adecuado para cada tarea. Algunos modelos de IA, diseñados específicamente para tareas simples, son mucho más eficientes que los modelos más grandes y complejos, que consumen más energía para tareas cotidianas.
Una de las dificultades para evaluar el impacto ambiental de la IA es la falta de transparencia en cuanto al consumo de energía. Muchas empresas de inteligencia artificial no divulgan información sobre el tamaño de sus servidores ni sobre las técnicas de optimización que utilizan, lo que complica el cálculo preciso de su huella de carbono.
A pesar de lo anterior, existe optimismo en torno a la evolución de la IA hacia modelos más eficientes en el consumo de recursos. Si bien otras industrias también son responsables del alto consumo energético, el impacto ambiental de la IA no debe subestimarse.
Relacionado: Sam Altman aclara el consumo de agua de ChatGPT: ¿Realmente es tan alto?