Cuántos recursos naturales se necesitan para que ChatGPT funcione: la explicación de Sam Altman
Sam Altman explica que cada consulta a ChatGPT usa poca agua, pero el impacto ambiental crece con millones de interacciones diarias en IA
11/06/2025 – 12:09hs
La inteligencia artificial (IA) avanza a pasos agigantados y promete transformar múltiples aspectos de la vida cotidiana, pero su desarrollo también plantea interrogantes en materia ambiental. En especial, han cobrado fuerza las preocupaciones sobre el gasto energético y el consumo de agua que implican sus operaciones. Incluso se ha llegado a afirmar que diez consultas a un sistema de IA podrían equivaler al uso de un litro de agua.
El tema no es nuevo, pero volvió al centro del debate tras una publicación de Sam Altman, CEO de OpenAI, en su blog personal. Allí abordó con números concretos uno de los puntos más discutidos.
¿Cuántos recursos naturales se necesitan para que la IA funcione?
Según Altman, cada interacción promedio con un modelo de inteligencia artificial como ChatGPT utiliza aproximadamente 0,000085 galones de agua, lo que equivale a unos 0,00032 litros. Para ponerlo en perspectiva, el propio Altman lo comparó con «una decimoquinta parte de una cucharadita».
A nivel energético, estimó que una sola consulta demanda alrededor de 0,34 vatios-hora, el equivalente a lo que consume un horno durante un segundo o una lámpara led de bajo consumo encendida por un par de minutos. Aunque las cifras suenen mínimas, no dejan de ser relevantes cuando se consideran los millones de consultas que se realizan a diario.
Además, la publicación del CEO generó cierta polémica, ya que no incluyó las fuentes ni el contexto de los cálculos, lo que llevó a OpenAI a responder a medios como The Verge con detalles adicionales sobre cómo se elaboraron esas estimaciones.
Un impacto que se acumula
Estas aclaraciones vuelven a poner en evidencia una verdad incómoda: cada vez que usamos un sistema de IA, aunque el costo económico para el usuario sea cero, existe un costo ambiental.
La mayor parte del consumo hídrico ocurre en los centros de datos, donde funcionan los servidores que hacen posible el procesamiento de los modelos. Para evitar el sobrecalentamiento de los equipos, estas instalaciones requieren sofisticados sistemas de refrigeración que utilizan agua en grandes cantidades, especialmente a través de torres de enfriamiento por evaporación.
¿Cuánto se necesita para entrenar una inteligencia artificial?
Los procesos de entrenamiento de modelos de gran escala también demandan enormes cantidades de agua. Un estudio de la Universidad de California, por ejemplo, estimó que el entrenamiento completo de GPT-3 habría requerido cerca de 700.000 litros de agua dulce, usados para refrigerar los servidores durante semanas de trabajo intensivo.
En paralelo, las grandes empresas tecnológicas están empezando a redirigir sus planes de infraestructura hacia zonas con acceso a energía nuclear, considerada una alternativa más estable y libre de emisiones de carbono. La disponibilidad de energía y agua se ha convertido en un factor decisivo para definir la ubicación de nuevos centros de datos.
Un desafío a futuro
A medida que la inteligencia artificial se consolida como una herramienta omnipresente, también crece la responsabilidad de garantizar que su desarrollo no implique una carga ambiental insostenible. Altman, en su publicación, intentó relativizar el impacto de cada interacción individual. Pero el verdadero desafío no está en los mililitros de agua por consulta, sino en lo que ocurre cuando esos números se multiplican por millones cada día.