Cada publicación en una red social, cada correo electrónico, cada foto de nuestras mascotas, nuestras familias y nuestros hijos; eso que parece estar en todos lados y en ninguno a la vez, está, en realidad, en lugares muy precisos: los data centers o centros de procesamiento de datos. Estos galpones llenos de computadoras almacenan información de empresas, organismos estatales y particulares, y su capacidad de cómputo se expande más y más cada día. Pero todo tiene un costo: en este caso, toneladas de agua, energía eléctrica y desechos tóxicos.
“No podemos guardar todos los datos para siempre; no es sostenible”, afirmó el matemático y doctor en Ingeniería Eléctrica Andrés Ferragut, en diálogo con El País. Según él, Uruguay tiene grandes oportunidades de crecimiento en esta industria, pero antes es clave abrir el debate a nivel global. ¿Cómo podemos hacer una computación más eficiente que gaste menos agua y energía? ¿Qué debemos hacer con las computadoras que quedan obsoletas? Y sobre todo: ¿Cuánto queremos realmente almacenar de toda la historia que estamos viviendo? ¿Estamos corriendo algoritmos que no precisamos?
La Escuela de Investigación Climática de la Universidad de Columbia indica que, “debido a la energía que consumen, los centros de datos del mundo representan entre el 2,5 y el 3,7 por ciento de las emisiones globales de gases de efecto invernadero, superando incluso las de la industria de la aviación”. “Si seguimos así, esto pasará a ser un gran problema en poco tiempo”, sostuvo Ferragut.
— ¿Cuántos data centers hay en Uruguay?
— Sabemos, por ejemplo, que está el data center de Antel, pero después cada empresa puede tener su propio centro de procesamiento de datos, aunque sean más chicos. Antel hizo un data center grande y no está trabajando al 100% de su capacidad, así que tiene lugar para seguir creciendo. Alquila su capacidad de cómputo y almacenamiento a otras empresas y estimo que principalmente trabaja con clientes locales porque hay ciertas áreas en las que los datos no pueden salir del país, como sucede, por ejemplo, con las historias clínicas. UTE es uno de los principales clientes del data center de Antel; almacena las mediciones de consumo de las casas, los contadores inteligentes, etcétera.
— ¿Cuál es el impacto ambiental de los data centers?
— Un data center necesita tres cosas para funcionar: buena conectividad, energía eléctrica y capacidad de enfriamiento. Y últimamente se ha visto que cada vez precisan más energía y más enfriamiento. Aparecen nuevas aplicaciones de la capacidad de cómputo y generamos cada vez más datos y análisis de datos, y eso está haciendo que el consumo crezca muy por encima de lo que sería la sumatoria de lo de cada uno. La pregunta es cuánto de esto es producto de necesidades que ya teníamos y fuimos trasladando y cuánto resulta del boom de la inteligencia artificial. Eso hay que estudiarlo. La humanidad seguirá generando datos a un ritmo que nunca generó y correrá algoritmos sobre esos datos, y eso tiene más consumo. La expectativa es que el consumo de los data centers crezca muy fuertemente durante los próximos años, tanto en consumo energético como en necesidad de refrigeración.
— ¿Por qué?
— Hablamos, básicamente, de dos grandes impulsores. Por un lado, el almacenamiento de datos inconsciente; guardamos lo que venga, las fotos de toda la vida, los videos de Tik Tok, y de YouTube… Todo eso, tenga una o millones de visualizaciones, ocupa lugar en alguna computadora que está enchufada, consumiendo energía y enfriándose. Habría que empezar a pensar cuál es el sentido de guardar todo eso. Si miramos la cantidad de fotos y videos que nadie ve nunca más, ¿cuánto de eso realmente queremos guardar? Es una discusión que tiene que darse a nivel global.
Por otro lado, están los grandes modelos de inteligencia artificial que hacen uso de esa maquinaria de datos para correr algoritmos que sacan conclusiones sobre esos datos. Lo que está debajo de la inteligencia artificial son un montón de algoritmos matemáticos que requieren capacidad de cómputo. Por ejemplo, entrenar ChatGPT, es decir, enseñarle a contestar las preguntas, requiere cantidades importantísimas de energía. E incluso hay un consumo energético muy grande, que no sé si todas las empresas lo están transparentando, por todos los modelos que no les andan. Las versiones que salieron mal también gastaron energía. Por cada algoritmo de inteligencia artificial que vemos que funciona y que es mágico, ¿cuántos quedaron por el camino? ¿Eso lo estamos transparentando? No lo sabemos. Tampoco me queda claro si el gasto es reutilizable, es decir, ¿cuánto de lo que se usó para entrenar ChatGPT-3 sirvió para entrenar ChatGPT-4? Si me preguntas a mí, cero, porque es un modelo nuevo, con otros parámetros, entonces desde el punto de vista matemático es un problema nuevo a resolver.
— Y cada pregunta que le hacemos a ChatGPT implica un gasto, ¿no?
— Exacto. Es lo que se llama inferencia, el modo en el que la inteligencia artificial hace predicciones sobre nuevos datos y responde a consultas.
¿Cuánta energía consume ChatGPT?
De acuerdo a la Escuela de Investigación Climática de la Universidad de Columbia, “la inferencia —proceso mediante el cual la inteligencia artificial saca conclusiones a partir de datos nuevos— puede consumir incluso más energía que el entrenamiento”. En efecto, señala que Google “estimó que de la energía utilizada en la IA para entrenamiento e inferencia, el 60 por ciento se destina a inferencia y el 40 por ciento a entrenamiento”.
La universidad estadounidense explica que “el consumo de energía de inferencia es alto porque, si bien el entrenamiento generalmente se realiza varias veces para mantener los modelos actualizados y optimizados, la inferencia se utiliza muchas veces para servir a millones de usuarios”. No obstante, “todavía hay debate sobre qué modo consume mayor energía”.
Otro dato clave que surge de la investigación de Columbia es que “en lugar de emplear búsquedas web existentes que se basan en modelos de IA más pequeños, muchas personas están ansiosas por usar la IA para todo, pero una sola solicitud en ChatGPT puede consumir 100 veces más energía que una búsqueda en Google, según un experto en tecnología”.
— A nivel del usuario, ¿qué datos exigen más energía y capacidad de enfriamiento?
— La experiencia que uno tiene con el celular sirve para darse cuenta. Mandar un video demora mucho más que un mensaje, un audio o una foto. El video consume más cantidad de recursos. Y hoy el 50% del tráfico en Internet es video. Además, el consumo no se da solamente por subir o bajar datos, sino también por mantenerlos. Pensemos, por ejemplo, en un posteo de Instagram. Saco una foto y la subo, es decir, me conecto a Internet y envío la información de esa foto a un data center. Esa foto queda guardada en algún disco duro de alguna computadora –en realidad, en varios, por las dudas de que algún disco duro se rompa– que tiene que estar prendida, manteniendo ese pedazo de información, para que yo u otra persona, en el momento que quiera, pueda ver el posteo. El consumo de cada uno de nosotros por separado es muy pequeño, pero cuando sumamos lo que hace cada persona y cada dispositivo, es grande.
— Si borro datos de una aplicación, ¿se eliminan del data center?
— Sí, deberían. Tampoco sé si esos datos siguen usándose para correr algoritmos, pero probablemente se terminen borrando cumpliendo con algún acuerdo de servicio. El hecho es que el impacto que puede tener cada uno por separado es mínimo, o sea, no mueve la aguja. Por eso digo que la discusión tiene que ser global y a nivel regulatorio. Porque esto es un problema global. Y si no nos ponemos de acuerdo todos, como hay paraísos fiscales, habrá paraísos de data centers. Tenemos que tomar decisiones y establecer, por ejemplo, que si nadie ha visto un vídeo de Tik Tok en los últimos tres meses, se borra. Políticas de ese estilo.
— Y no solo se trata de pensar qué almacenamos y qué no, sino también en qué calidad lo almacenamos, ¿no?
— Sí, es otra variable. Si le preguntás a Netflix, querrá guardar todo en 4K porque algunos de sus clientes querrán ver los contenidos en súper alta definición, y otros los verán en el celular, en menor calidad. Cada empresa tiene sus propios incentivos para atender mejor a sus clientes. Por eso la regulación debe ser global. Y la investigación es clave. Por ejemplo, el formato JPG permitió bajar un montón el tamaño de la imagen casi sin perder calidad, lo que, a su vez, permitió enviar información por internet sin gastar tanto.
Tenemos que lograr mayor cantidad de investigación. La humanidad entendió que la computación puede ofrecer soluciones nuevas, entonces, tratemos de que esto siga creciendo, pero hagámoslo sostenible. ¿Cómo? Con muchísima investigación. Hay que desarrollar mecanismos de enfriamiento más eficientes, algoritmos más eficientes que hagan las cuentas con menor consumo energético o que hagan menos cuentas, etcétera. Y ahí es donde Uruguay tiene muchas oportunidades porque tiene un montón de recursos humanos en Ingeniería en Electrónica, Ingeniería en Computación, Ingeniería en Sistemas y Telecomunicaciones. Tiene, además, una escuela matemática muy fuerte. La oportunidad está, pero se requieren incentivos.
Cómo hacer algoritmos más eficientes
Para Ferragut, “está de moda pedirle a la computadora que resuelva un problema a ciegas, sin darle estructura ni ponerle cabeza, sino diciéndole a un algoritmo de machine learning ‘tomá estos datos y decime algo’”. Y la clave para generar algoritmos eficientes es, justamente, “ponerle cabeza”: “Que las herramientas de inteligencia artificial sean un recurso más, pero no tirarle todo sin digerir”.
En este sentido, entiende que mientras más específicas sean las aplicaciones de estas herramientas, trabajarán con mayor eficiencia. Pero, para hacerlas específicas, se requiere “materia gris”: “Las cabezas de la humanidad no pueden salir del ciclo de desarrollo”.
— ¿Hoy existe este tipo de investigación en Uruguay?
— Sí, y de muy buena calidad. Pero es difícil retener los recursos humanos porque no hay un ecosistema de empresas que incorporen a los investigadores o fomenten la investigación aplicada a estas áreas. Hay iniciativas aisladas, pero se necesita una política de incentivos más global, con participación del Estado. Las mayores oportunidades para Uruguay están en hacer algoritmos más eficientes; usar la inteligencia artificial para atacar ciertos problemas que se nos vienen y ser más eficientes en el consumo. Por ejemplo, hacer algoritmos más inteligentes para la recarga de vehículos eléctricos, la distribución de energía eléctrica o la entrega de paquetes, ahora que todo se hace por delivery. Está la discusión acerca de si se instalan más data centers en Uruguay, algo que me encanta y ojalá suceda, porque somos un proveedor de energía buena y eficiente. Pero, sobre todo, ojalá vengan centros de desarrollo y ojalá que más gente estudie ingeniería y matemática y empiece a desarrollar los nuevos algoritmos de los data center del futuro. Podemos estar de igual a igual con cualquier otro país, pero tenemos que invertir en generar recursos humanos y mantenerlos en el país.
Es importante generar nuevos algoritmos que resuelvan problemas, pero siempre pensando en el impacto a largo plazo. Cuando se creó el plástico era lo mejor y ahora tenemos océanos de plástico. ¿Cómo hacer para no repetir lo mismo? Cada empresa por separado no tiene los incentivos correctos. Necesitamos coordinación para no agotar los recursos. Y eso ya nos pasó en el pasado. Veamos en qué nos equivocamos antes, aprendamos las lecciones y tratemos de aplicarlo.
Data Center de Google en Uruguay
En 2021 Google compró un predio de 30 hectáreas en el Parque de las Ciencias, Canelones, para construir un data center. La oficina de Evaluación de Impacto Ambiental del Ministerio de Ambiente (MA) emitió la Autorización Ambiental Previa, pero la multinacional aún no ha presentado proyecto de obra, indicaron desde Comunicación del MA.
Según informó El País, Google estimó que, funcionando en su máxima capacidad, el centro alcanzaría un consumo de electricidad equivalente al de 202.898 hogares funcionando con tarifa residencial simple. Al respecto, el ingeniero Ferragut mencionó: “Sería un gran consumidor de UTE, pero no es una cosa que rompa todo. Es menos de lo que Uruguay exporta de energía. Tener un cliente interno que consuma esa misma energía, quizás a un mejor precio, es potencial para crecer”.
En cuanto al consumo de agua, el año pasado trascendió que el proyecto original de Google hubiese requerido 7.600.000 litros de agua por día, lo que equivalía al uso diario de 55 mil personas. Más tarde, en noviembre, la empresa modificó el proyecto y pasó a un sistema de enfriamiento en base a aire. Consultado por El País, ese mismo mes el representante de Google Cloud en América Latina y el Caribe, Alberto Oppenheimer, sostuvo: “El agua que se consumirá es la misma que necesita cualquier empresa. Para uso doméstico, para incendios…”.
En un informe publicado por la Dirección Nacional de Medio Ambiente se indica que el Estudio de Impacto Ambiental estudiaría “con especial atención” los siguientes puntos:
- La afectación a la calidad de aire en condiciones normales de operación (derivadas de las tareas de mantenimiento de los generadores), así como evaluar el riesgo de la afectación a la salud humana en el área de influencia del proyecto, en situaciones de contingencia (operaciones de todo el parque de motores proyectado) de acuerdo a los resultados del modelo de dispersión de aire utilizado.
- La gestión de los efluentes derivados del sistema de enfriamiento y su potencial afectación a la calidad de agua del Río de la Plata.
- La afectación a los niveles de presión sonora de los receptores ubicados en el entorno del emprendimiento en condiciones normales y en situaciones de contingencia.
-
Glosario sostenible III: palabras clave con G, H e I para entender las polémicas sobre desarrollo sostenible
Seis recetas sencillas para no desperdiciar nada de los alimentos, además de cuidar el planeta y el bolsillo
Un grupo de amigos repara y regala bicicletas en Montevideo: menos residuos y más movilidad sostenible