Sam Altman aclara el consumo de agua de ChatGPT: ¿Realmente es tan alto?

El director ejecutivo de OpenAI aclaró en su blog que cada interacción con ChatGPT representa un gasto hídrico mínimo.

Por Entrepreneur en Español Jun 12, 2025
Justin Sullivan | Getty Images

La inteligencia artificial (IA) ha revolucionado la vida cotidiana, prometiendo eficiencia en diferentes áreas. No obstante, su uso también ha generado preocupaciones sobre su impacto ambiental.

Si bien se ha hablado sobre el consumo de electricidad de la IA, hay otro recurso que es utilizado: el agua.

En los últimos meses, comenzó a circular información sobre el consumo de agua de los sistemas de IA. Se llegó a decir que, con solo diez consultas a una IA, como ChatGPT, se podría llegar a consumir un litro de agua.

Esto causó inquietud, lo que motivó a Sam Altman, CEO de OpenAI, a aclarar el asunto en su blog personal.

Altman explicó que, en realidad, cada interacción con un modelo como ChatGPT consume únicamente 0.00032 litros de agua, lo que equivale a “la quinceava parte de una cucharadita”. Aunque esta cifra parece mínima, lo importante es cómo se multiplica este consumo a nivel global, ya que la cantidad de consultas es masiva.

Aparte del agua, Altman también abordó el consumo energético. Cada vez que se interactúa con ChatGPT, el sistema utiliza aproximadamente 0.34 vatios-hora, lo cual equivale al consumo energético de un horno en un segundo o una bombilla LED durante dos minutos.

Pese a lo anterior, OpenAI no proporcionó detalles claros sobre cómo se calculaban esos números inicialmente. Esta situación generó confusión, por lo que la empresa tuvo que aclarar su metodología en una entrevista con The Verge.

Relacionado: Sam Altman dice que ser amable con la IA cuesta miles de millones. ¿Qué opina ChatGPT?

¿Por qué necesita agua la inteligencia artificial?

La respuesta está en los centros de datos, esas enormes instalaciones donde se entrenan y ejecutan los modelos de IA. Estos centros requieren refrigeración constante para evitar que los servidores se calienten, y en muchos casos, se utilizan sistemas de enfriamiento que consumen agua.

Un estudio realizado por la Universidad de California reveló que entrenar un modelo como GPT-3 puede consumir hasta 700,000 litros de agua.

La inteligencia artificial (IA) ha revolucionado la vida cotidiana, prometiendo eficiencia en diferentes áreas. No obstante, su uso también ha generado preocupaciones sobre su impacto ambiental.

Si bien se ha hablado sobre el consumo de electricidad de la IA, hay otro recurso que es utilizado: el agua.

En los últimos meses, comenzó a circular información sobre el consumo de agua de los sistemas de IA. Se llegó a decir que, con solo diez consultas a una IA, como ChatGPT, se podría llegar a consumir un litro de agua.

Esto causó inquietud, lo que motivó a Sam Altman, CEO de OpenAI, a aclarar el asunto en su blog personal.

Altman explicó que, en realidad, cada interacción con un modelo como ChatGPT consume únicamente 0.00032 litros de agua, lo que equivale a “la quinceava parte de una cucharadita”. Aunque esta cifra parece mínima, lo importante es cómo se multiplica este consumo a nivel global, ya que la cantidad de consultas es masiva.

Aparte del agua, Altman también abordó el consumo energético. Cada vez que se interactúa con ChatGPT, el sistema utiliza aproximadamente 0.34 vatios-hora, lo cual equivale al consumo energético de un horno en un segundo o una bombilla LED durante dos minutos.

Pese a lo anterior, OpenAI no proporcionó detalles claros sobre cómo se calculaban esos números inicialmente. Esta situación generó confusión, por lo que la empresa tuvo que aclarar su metodología en una entrevista con The Verge.

Relacionado: Sam Altman dice que ser amable con la IA cuesta miles de millones. ¿Qué opina ChatGPT?

¿Por qué necesita agua la inteligencia artificial?

La respuesta está en los centros de datos, esas enormes instalaciones donde se entrenan y ejecutan los modelos de IA. Estos centros requieren refrigeración constante para evitar que los servidores se calienten, y en muchos casos, se utilizan sistemas de enfriamiento que consumen agua.

Un estudio realizado por la Universidad de California reveló que entrenar un modelo como GPT-3 puede consumir hasta 700,000 litros de agua.

The rest of this article is locked.

Join Entrepreneur+ today for access.

Subscribe Now

Already have an account? Sign In

Contenido Relacionado

Noticias

Jeff Besos: el estrés surge de ignorar problemas

No es el trabajo duro lo que nos agobia, sino dejar asuntos importantes sin atender. Bezos comparte cómo identificar lo que te preocupa y actuar de inmediato puede aliviar la tensión y mantener el enfoque en lo que realmente puedes controlar.