Cada vez que un usuario escribe una consulta en ChatGPT, se activa un complejo sistema de servidores que consume recursos considerables. De acuerdo con un análisis de The Washington Post y la Universidad de California en Riverside, generar un texto de apenas 100 palabras con este tipo de modelos consume, en promedio, 519 mililitros de agua, equivalente a una botella.
Este uso responde al sistema de enfriamiento de los centros de datos, que requieren agua para disipar el calor generado por los miles de cálculos que realiza la IA. En paralelo, el consumo energético por esa misma respuesta equivale a 0,14 kilovatios-hora, suficiente para alimentar 14 bombillas LED durante una hora.
Aunque el consumo por usuario es mínimo, el impacto a gran escala es alarmante. Si apenas el 10 % de los trabajadores estadounidenses utilizaran este servicio semanalmente, se consumirían más de 435 millones de litros de agua al año y electricidad equivalente al gasto de todos los hogares de Washington D.C. durante 20 días.
El crecimiento acelerado de los centros de datos ya genera tensiones en la red eléctrica de estados como Georgia, Arizona y Texas, donde los bajos costos energéticos han atraído a gigantes tecnológicos. Las comunidades locales expresan preocupaciones por el uso intensivo de recursos y los posibles aumentos en sus facturas.
Ante esta realidad, empresas como Microsoft y Google han lanzado compromisos ambientales. Microsoft apuesta por energía nuclear con la reactivación del reactor de Three Mile Island (prevista para 2028), mientras que Google promete reponer el 120 % del agua que utiliza para 2030 —aunque en 2023 apenas logró un 18 %.
El uso de IA se perfila como una herramienta transformadora, pero expertos coinciden en que su sostenibilidad está en entredicho. “Cada palabra tiene un precio ambiental”, advierten. Y si la inteligencia artificial ha llegado para quedarse, también debe hacerlo el compromiso real con el planeta.