La velocidad de los cambios

Primero apareció el entusiasmo desmedido por los avances tecnológicos; luego se encendieron las alertas por su expansión y omnipresencia. Ahora, llega el momento de evaluar su impacto. Aquí tres expertos ensayan respuestas a la interrogante: ¿es posible medir los alcances de la Inteligencia Artificial?

Ai,Agent,And,Generative,Artificial,Intelligence.,Robotic,Processes,Automation,And
AI agent and generative artificial intelligence. Robotic processes automation and data analysis. Businessman touching head and AI icon on application network system.
tadamichi/Shutterstock

La asimilación del potencial tecnológico que la humanidad puede alcanzar, así como su real dimensión en el presente, son circunstancias que van por caminos paralelos, aunque, algunas veces, se cruzan. Con esta inquietud como punto de partida es lógico que nos planteemos qué consecuencias, positivas y negativas, tiene hoy el manejo de la Inteligencia Artificial en la vida diaria. De ahí, la consulta con tres expertos en diferentes áreas: científica, empresarial y del usuario. Sus reflexiones, validadas por la experiencia profesional y décadas de investigación, en algunos casos, son como una foto fija de este momento. Porque si bien contemplan el pasado y el presente, el futuro puede ser distinto a las previsiones. Habrá que aceptar que vivimos con ese margen de incertidumbre. La IA atraviesa prácticamente todos los sistemas, gobiernos, educación, cultura, salud, trabajo, investigación. Los avances mejoran la calidad de vida, aumentan la productividad, impulsan la creatividad inclusive. El ámbito de la salud es quizás un caso paradigmático. En la investigación médica, la IA ya permite optimizar la gestión de turnos y la atención al paciente, que puede funcionar como una infraestructura capaz de detectar patrones de riesgo antes de que aparezcan enfermedades graves.

Pero el desarrollo tecnológico también plantea tensiones. Uno de los principales riesgos identificados es la posible deshumanización de la relación entre médicos y pacientes. A esto se suman las preocupaciones sobre la privacidad, la ética y el manejo de datos sensibles, así como el riesgo de profundizar desigualdades si el acceso a estas tecnologías no es equitativo.

Otro aspecto que cobra relevancia es el impacto ambiental. La infraestructura que sustenta la IA, especialmente los centros de datos, es un factor a considerar. En Chile se creó la plataforma DataCenterBoom!, un centro de información que brinda documentación sobre las construcciones de data centers. La investigadora chilena Paz Peña Ochoa es una de las integrantes de este equipo. En los últimos años se dedicó a analizar los impactos socioambientales de la digitalización, su relación con las energías verdes y el papel que tiene América Latina en este escenario. En plena crisis climática, esta investigadora independiente se planteó preguntas como: “¿cuál es el impacto de un data center en el consumo de agua dulce en la zona donde se instalan estos enormes servidores? (…) ¿Quiénes y en qué condiciones están extrayendo los minerales que hacen posible el funcionamiento de nuestros teléfonos?”. Algunas respuestas las presenta en su libro Tecnologías para un planeta en llamas, referente en el análisis del impacto ecosocial de la tecnología (Planeta, 2023). Lejos de rechazar la tecnología, el ensayo plantea la necesidad de repensarla. Propone avanzar hacia una transición digital que considere sus costos sociales y ecológicos, y que ponga en el centro la equidad, la sostenibilidad y el control democrático sobre los sistemas tecnológicos.

Ámbito académico

Aiala Rosá, doctora en ingeniería, profesora agregada del Instituto de Computación en Facultad de Ingeniería de la Udelar y responsable del Grupo Procesamiento de Lenguaje Natural, reflexionó sobre la interrogante. Desde su perspectiva es difícil medir los alcances de la IA ya que la velocidad con la que avanza el desarrollo de nuevos modelos, cada vez más potentes, es enorme. “Yo investigo desde hace más de 20 años en el área procesamiento de lenguaje natural, que es donde surgen los modelos de lenguaje en los que se apoyan herramientas como ChatGPT. Hace 5 años no me imaginaba el potencial que esta tecnología podría alcanzar”, compartió.

Como sucede con cualquier tecnología, hacer un uso responsable, consciente y crítico es fundamental para mitigar muchas de sus posibles consecuencias negativas. Uno de los riesgos que indicó la experta, es la tendencia a delegar en estos recursos, tareas que no necesariamente resuelven del todo bien, desconociendo cuánto se puede confiar en los resultados. “En muchos contextos, estas herramientas deben utilizarse solamente como asistentes para avanzar en las tareas, lo cual está muy bien, porque los aportes que pueden hacer son muy valiosos, pero asumiendo siempre la responsabilidad de lo que finalmente se genere”.

Entre los aspectos negativos, apunta la gran desigualdad en el acceso a las herramientas, cuestiones éticas sobre cómo se desarrollan, efectos ambientales, y la reproducción de sesgos discriminatorios derivados de los datos de entrenamiento, entre otros. “Un problema que enfrenta el sistema educativo es el uso de IA generativa por parte de los estudiantes, principalmente en los trabajos de evaluación de cursos. La Facultad de Ingeniería aprobó recientemente una Guía para el uso ético y crítico de la Inteligencia Artificial para sus docentes, elaborada por una comisión creada por el Claustro de la Facultad para abordar este tema”. La guía propone diferentes niveles de uso de herramientas de inteligencia artificial, según el tipo de curso, y destaca la importancia de informar desde el inicio cuál es el uso admitido en cada caso.

Como contrapunto, Aiala Rosá subrayó que existen numerosas aplicaciones positivas de esta tecnología. “En la facultad trabajamos en proyectos muy diversos de IA, muchos de ellos aplicados a problemas sociales. Por ejemplo, en el Instituto de Computación estamos desarrollando este tipo de recursos para apoyar la enseñanza de inglés, pensados para su uso en escuelas rurales, en una colaboración con Políticas Lingüísticas de ANEP”.

Otras líneas de trabajo citadas por la experta son el procesamiento de lengua de señas, la anonimización de sentencias judiciales, la simplificación de textos para generar materiales accesibles, y el procesamiento de archivos del pasado reciente, entre muchas. Asimismo, destacó la IA aplicada a la salud en el marco de un proyecto financiado por la Agencia Nacional de Investigación e Innovación que se conoce como IA responsable en salud: integración de modelos de lenguaje, conocimiento clínico y evaluación ética. En este proyecto participa un equipo interdisciplinario integrado por profesionales de informática, salud y áreas sociales de Uruguay e investigadoras argentinas con experiencia en usos éticos de IA y procesamiento de lenguaje natural aplicado a textos biológicos. “Uno de los desafíos es la imposibilidad de utilizar servicios externos, es decir, modelos de lenguaje cerrados que podrían arrojar muy buenos resultados. Esta limitación se debe a la necesidad de preservar la confidencialidad de los datos que, al pertenecer al ámbito médico, son altamente sensibles”. La investigación recién comienza y se debe aguardar para conocer las primeras conclusiones.

Talented,Young,Female,Scientist,Working,On,A,Prosthetic,Robotic,Hand.
“Estas herramientas deben utilizarse solamente como asistentes para avanzar en las tareas, pero asumiendo siempre la responsabilidad de lo que finalmente se genere”, afirmó Aiala Rosá, responsable del Grupo Procesamiento de Lenguaje Natural en Instituto de Computación de Facultad de Ingeniería de Udelar.
Gorodenkoff/Shutterstock

Apuesta al encuentro

Desde hace cuatro años, Uruguay cuenta con un foro dedicado a debatir estos temas de manera presencial, dirigido a públicos más amplios que los profesionales del rubro y que convoca a conferenciantes de primera línea. Se trata del Summit AI Human Future, un congreso en el que se analizan las consecuencias de la inteligencia artificial desde perspectivas críticas, éticas y prácticas. Un punto de coincidencia entre todos los asistentes y ponentes en los últimos años es que la IA ya está aquí, su impacto ya no pertenece al futuro.

En cada edición las charlas se estructuran alrededor de ejes temáticos como son el impacto en el talento, las transformaciones en la economía y el empleo, o los cambios en la educación y la sociedad. Buena parte de los especialistas convocados a compartir experiencias en ese escenario señalaron que, si bien la capacidad de la IA se duplica aproximadamente cada cuatro meses, su impacto real presenta una fuerte dualidad. Por un lado, ofrece beneficios tangibles en productividad y eficiencia, pero por otro plantea riesgos estructurales que afectan tanto a los modelos de negocio como al tejido social. Así lo expuso Jon Hernández, divulgador de Inteligencia Artificial en España, quien disertó en la edición 2025 del Summit. Hernández, fotógrafo comercial y editor con 20 años de experiencia, realizó una transición profesional para convertirse en experto en IA tras entender el efecto que esta tecnología tendría en el mundo de la creatividad. Una de sus premisas básicas se refiere a que la IA no es solo “un programa más”, sino una revolución comparable a la electricidad e Internet. En su ponencia, disponible en Youtube, abordó una de las cuestiones que más inquietan hoy en día a la sociedad: las consecuencias de la IA en la vida cotidiana y en el trabajo. “A la mayoría de las personas nos interesan dos cosas de la inteligencia artificial: cómo me afecta y cómo le saco partido”.

Hernández planteó que no debe entenderse a esta tecnología simplemente como una herramienta, sino como una transformación estructural que está cambiando el mundo. También hizo hincapié en una paradoja: incluso quienes la desarrollan no siempre comprenden completamente su funcionamiento. Por eso, recomendó centrarse en sus efectos concretos más que en su complejidad técnica. “Dejemos los tecnicismos para los científicos”, dijo.

Desde su experiencia personal recordó que la IA irrumpió en campos creativos que antes parecían exclusivamente humanos. “De repente, el talento también lo puede lograr la inteligencia artificial”, ironizó. Acto seguido dijo que incluso el razonamiento ya no es un atributo estrictamente humano.

En la misma línea opinó Jerónimo Pino, fundador y creador del Summit IA Human Future. “Nos encontramos ante una paradoja muy clara; mientras semana a semana se descubren curas para nuevas enfermedades, vemos cómo disminuyen las oportunidades laborales para los perfiles junior". A esto se suma un desafío aún más relevante: “los deepfakes y la IA están empezando a difuminar la línea entre lo real y lo irreal”.

Pino indicó que su visión evolucionó con el tiempo, aunque una idea se hace cada día más clara: los encuentros presenciales son fundamentales. “A diferencia de otros eventos tecnológicos de la región, este no fue pensado solo para expertos. Es un espacio transversal y corporativo que impacta en todas las industrias. Es un lugar que hacía falta, donde debatir, comprender y acercar estos temas a una audiencia más amplia. Aquí no te perdés en tecnicismos. Los ponentes son de alto nivel y tienen la capacidad de comunicar ideas complejas de forma clara y accesible. La propuesta es sencilla: que las personas se lleven un valor real de cada charla porque el cambio ya está sucediendo”.

La cuarta edición de Summit IA Human Future se celebra el 20 de mayo en el auditorio del LATU. Aunque aún no está cerrado el programa, los detalles en sus redes sociales y la web.

Alcance y resultado

Juan Lavista Ferrés es vicepresidente corporativo y científico jefe de datos de Microsoft. En sus reflexiones para este medio, el experto afirmó que “es posible medir los alcances de la IA, aunque no de forma perfecta ni completa”. Según compartió, existen tres niveles principales de análisis: la adopción, el impacto positivo y los riesgos.

En términos de alcance, el experto recordó que “más del 15 por ciento de la población mundial ya utiliza inteligencia artificial generativa”, mientras que en Uruguay esta cifra asciende aproximadamente al 22,5 por ciento. Esto permite hacerse una idea de la rapidez con la que se está adoptando, pero también pone de manifiesto las diferencias entre regiones y sectores.

Respecto a los beneficios, Lavista Ferrés destacó que “existe evidencia concreta de aumentos significativos de la productividad”, especialmente en tareas como la programación, la escritura y la atención al cliente, así como en aplicaciones en áreas como la salud, la respuesta a desastres y la conservación. No obstante, advirtió que medir los efectos negativos es más complejo. “El mayor desafío no es medir, sino atribuir”, dijo al explicar que resulta difícil distinguir qué cambios son consecuencia directa de la inteligencia artificial y cuáles responden a otros factores económicos o sociales. Como ejemplos negativos comentó el uso de esta tecnología en fraude o desinformación. “Gran parte de este fraude y desinformación ya existía; la inteligencia artificial generativa, en muchos casos, reduce el costo y facilita su ejecución”. También citó como tema a mirar con lupa, el potencial impacto en el mercado laboral, como la disminución en ciertos trabajos freelance. “Esta es una tecnología de propósito general. A lo largo de la historia, los economistas han identificado alrededor de 25 tecnologías de este tipo, como la imprenta, la electricidad, la computadora o Internet. Si revisamos su impacto, vemos que todas produjeron transformaciones profundas en la sociedad, la productividad y la forma de trabajar. Si bien muchos trabajos desaparecieron, por ejemplo, telefonistas o industrias completas como la fabricación de diskettes y CDs, en el agregado, estas tecnologías terminaron generando más empleo. Hoy es difícil predecir el resultado neto. Algunas personas argumentan que esta vez es diferente, pero lo cierto es que cada una de estas tecnologías también lo fue en su momento. Parte del desafío es que el impacto es asimétrico: es más fácil identificar los puestos que desaparecerán que los que aún no existen. En los años 90', era relativamente sencillo anticipar que Internet afectaría a las agencias de viaje, pero era imposible imaginar que surgirían nuevas profesiones como la creación de contenido para redes sociales”.

Lavista Ferrés concluyó su aporte con una pregunta que deja abierta la puerta a próximos análisis para entender el momento actual: “¿cómo distinguimos correlación de causalidad?”. El comentario es como una pestaña que se abre en un buscador y deja espacio para iniciar una nueva reflexión.

¿Encontraste un error?

Reportar

Temas relacionados

Revista Paula Abril 2026

Te puede interesar