La advertencia de una académica argentina: “Establecer una regulación única para la IA es imposible”

Beatriz Busaniche, presidenta de la Fundación Vía Libre, advirtió sobre los desafíos de regular la inteligencia artificial en ámbitos sensibles como la medicina, la seguridad y la vida pública.

Beatriz Busaniche
Beatriz Busaniche, presidenta de la Fundación Vía Libre.
Foto cedida a El País.

“El problema no es la tecnología en sí, sino el modo en que se la usa y regula”. Con esa frase, Beatriz Busaniche sintetizó uno de los ejes centrales de su presentación sobre inteligencia artificial y vigilancia digital, realizada el pasado jueves 24 de julio en Montevideo, en el marco del ciclo de formación: Gobernanza digital – hacia una nueva agenda legislativa, organizado por el Programa de las Naciones Unidas para el Desarrollo (PNUD), el Parlamento y la Escuela de Gobierno del Parlamento. Desde su doble rol de activista y académica, la directora de la Fundación Vía Libre lleva años advirtiendo sobre los riesgos de la automatización sin control, especialmente cuando entra en juego la vulneración de derechos fundamentales.

Durante la charla, la académica argentina dejó en claro que no se puede hablar de la inteligencia artificial como un bloque uniforme. “No es lo mismo seguridad que medicina, que arte o música. Cada aplicación requiere un enfoque distinto y hay regulaciones que ya existen y deben aplicarse”, explicó. Como ejemplo, señaló que un sistema automatizado no puede recetar medicamentos: “Eso ya está regulado como ejercicio ilegal de la medicina”.

Pero su principal foco estuvo en los usos más invasivos de la IA, en especial el reconocimiento facial en espacios públicos. “Estas tecnologías tienen un impacto muy fuerte en una multiplicidad de derechos: la privacidad, la libertad de expresión, la libre circulación. Y eso se agrava cuando se usan para vigilar protestas o asambleas pacíficas”, advirtió.

Citó casos paradigmáticos como los de las ciudades de San Francisco y Boston en Estados Unidos, donde el uso de reconocimiento facial por parte de la Policía fue directamente prohibido, y explicó que en la Unión Europea se considera una tecnología de alto riesgo, lo que obliga a marcos regulatorios muy estrictos. “Bélgica, por ejemplo, lo prohibió completamente”, agregó.

Uno de los ejemplos más cercanos y preocupantes es el caso de la Ciudad de Buenos Aires, donde la implementación de sistemas de vigilancia automatizada derivó en múltiples fallas, incluyendo la detención errónea de personas por confusión de identidad. La Fundación Vía Libre fue una de las organizaciones que denunció el uso sin evaluación de impacto en derechos humanos, sin transparencia técnica ni control legislativo. El sistema hoy se encuentra suspendido cautelarmente por orden judicial, gracias a un amparo colectivo impulsado por organizaciones de la sociedad civil.

“Lo más grave no fue solo el error técnico, sino que se usaron estos sistemas para espiar a activistas, periodistas y dirigentes políticos, al margen de cualquier control democrático”, explicó Busaniche.

Beatriz Busaniche
Beatriz Busaniche, presidenta de la Fundación Vía Libre.
Foto cedida a El País.

Arte, educación y medios

Busaniche también trazó una diferencia con los usos creativos de la inteligencia artificial, como en la música o el arte digital. “Ahí las alucinaciones no suponen un riesgo para nadie. Pueden incluso alimentar la creatividad. Capaz que una melodía se transforma en algo horrible o en una genialidad”, señaló. Por eso insistió en que "regular la IA requiere discernimiento y no caer en regulaciones punitivas generalizadas".

La Fundación Vía Libre, que dirige Busaniche, es una organización argentina pionera en la defensa de los derechos humanos en entornos mediados por tecnologías digitales. Desde hace más de 20 años trabaja en temas como privacidad, acceso al conocimiento, software libre y regulación tecnológica con enfoque en derechos. Fue parte clave de campañas como #ConMiCaraNo, que visibilizaron los peligros del uso indiscriminado del reconocimiento facial en América Latina.

Consultada sobre qué puede hacerse ante estos desafíos, enfatizó el rol del periodismo, la política y la educación. “Hay que resensibilizar a la sociedad frente a nuevos riesgos. Hoy existen tecnologías capaces de emular la voz o imagen de una persona al punto de hacerle decir cosas que nunca dijo. Eso tiene consecuencias graves, incluso en la salud mental”, afirmó, y citó casos de uso malicioso de deepfakes y suplantación de identidad que ya han comenzado a judicializarse.

ChatGPT.
ChatGPT.
Foto: Francisco Flores.

Ni utopía ni distopía: pensar en clave de derechos

“La misma tecnología que permite cosas geniales también puede ser usada con fines maliciosos. Por eso hay que evitar tanto el entusiasmo ingenuo como el pánico. No hay respuestas simples ni un modelo único de regulación”, concluyó Busaniche. Su intervención dejó una advertencia clara: los sistemas automatizados ya forman parte del entramado social, y su impacto dependerá de cómo los usemos, cómo los entendamos y cómo los regulemos.

¿Encontraste un error?

Reportar

Temas relacionados

Inteligencia artificial

Te puede interesar