La inteligencia artificial generativa (GenAI) ha llegado para quedarse. En la actualidad, millones de personas utilizan herramientas como ChatGPT, Midjourney o Suno AI para dar lugar a diversos tipos de contenido. Como usuarios, abrimos una aplicación, escribimos un prompt y ¡voilà! lo que queremos ver aparece como por arte de magia. En términos reales esto tiene poco de mágico. Lo que vemos es producto de un complejo proceso que incluye recolección una enorme cantidad de datos, entrenamiento de modelos de lenguaje y procesos de inferencia.
Estas tareas no suelen ejecutarse en nuestros dispositivos. Las compañías que están detrás de las aplicaciones de GenAI cuentan con centros de datos con gran capacidad de cálculo que se encargan de hacer la mayor parte del trabajo. No es ningún secreto que este tipo de infraestructura necesita las más modernas unidades de procesamiento, por ejemplo las H100 de NVDIA, pero nos cuesta un poco dimensionar la cantidad de recursos que entran en juego porque no es tan fácil encontrar información al respecto. En concreto, mucha energía y agua.
Una consulta de ChatGPT, una botellita de agua
Los centros de datos consumen agua, pero… ¿qué cantidad de agua? Como decimos, encontrar una respuesta no es tarea fácil, pero tenemos algunos datos que pueden ayudarnos a comprender el asunto. El presente auge de la GenAI ha llegado acompañado de un importante aumento global del consumo de agua por parte de Microsoft. Según un informe ambiental de la compañía de Redmond, esta métrica creció un 34% de 2021 a 2022. Curiosamente, ChatGPT fue lanzado en noviembre de 2021, y tiempo antes su modelo estuvo entrenándose.
Si te preguntas por qué relacionamos a ChatGPT, un producto de OpenAI, con Microsoft, es porque la compañía detrás de chatbot de IA más famoso del momento tiene una relación estratégica con los creadores de Windows. Básicamente, OpenAI utiliza la infraestructura en la nube de Azure AI para entrenar y ejecutar sus productos de IA. Pero no solo se trata de Microsoft. El consumo en todo el mundo de agua por parte de Google se disparó un 20% en el mismo período, momento en el que la IA estaba (y sigue estando) en pleno auge.
Un estudio publicado por The Washington Post brinda un poco más de luz en este escenario. Investigadores de la Universidad de California llegaron a la conclusión de que una petición de escribir un correo electrónico de 100 palabras en ChatGPT se traduce en un consumo de 519 mililitros de agua. Se trata de un cálculo promedio, pero que nos ayuda hacernos una idea más tangible de lo que ocurre con estos centros de datos. Estamos hablando de poco más de una botella de medio de litro de agua, como la que podemos comprar en cualquier mercado.
El agua es un recurso clave para los sistemas de refrigeración de los centros de datos más grandes, aunque su consumo depende de la ubicación de los mismos, la temporada del año y las condiciones climáticas. Las preocupaciones medioambientales relacionadas al funcionamiento de estos equipos tan sedientos no son recientes. Desde hace mucho tiempo que las compañías tecnológicas, muchas veces impulsadas por las regulaciones y los activistas, han estado trabajando en nuevas soluciones para limitar el consumo de recursos.
Hemos visto a Microsoft sumergir un centro de datos experimental en el océano para abordar el problema de las temperaturas, y también hemos visto a compañías como Meta y Google queriendo poner servidores en ubicaciones geográficas donde el agua parece no abundar. Como señalamos arriba, el funcionamiento de la GenAI no se produce por arte de magia, y todo parece indicar que los centros de datos seguirán multiplicándose en diferentes partes del mundo detrás de inversiones multimillonarias en una carrera por dominar el sector.
Imágenes | Freepik | Microsoft | Xataka con Bing Image Creator
En Xataka | Meta y Spotify avisan a la UE: la regulación va a provocar que pierda el tren de la IA