Publicidad

El gobierno define su estrategia para regular la inteligencia artificial: ¿cuáles son los peligros?

La Agesic evalúa una eventual regulación de la inteligencia artificial, siguiendo la línea de Europa y algunos países sudamericanos. Los especialistas debaten si se puede controlar esta tecnología

Compartir esta noticia
Inteligencia Artificial.
Inteligencia Artificial.
Foto: Archivo.

La inteligencia artificial (IA) está de moda. Se dice mucho sobre ella: que es del tamaño de una revolución industrial o un cambio de paradigma; que atraviesa prácticamente todos los ámbitos de la vida pero que recién están empezando a conocerse sus múltiples impactos; que sus resultados son impredecibles hasta para quienes entrenan sus sistemas; que podría poner en riesgo a la humanidad.

Está en las redes sociales, en las recomendaciones de las plataformas de streaming o en las transacciones con tarjeta cuando pagamos una compra. Pero se popularizó en noviembre de 2022, cuando la empresa OpenAI puso a disposición el ChatGPT, un chatbot con el que, en dos meses, 100 millones de personas ya se habían volcado con curiosidad a interactuar, porque parecía ser una persona que les respondía todas sus dudas en segundos y correctamente escritas.

La IA está de moda, pero no parece pasajera, porque no nació ahora. Su historia empezó en la Segunda Guerra Mundial, cuando un grupo de científicos británicos liderados por Alan Turing y Dillwyn Knox descifraron, por medio de la máquina de cálculo “Bombe” -desarrollada por Turing en la mansión de Bletchley Park, a 70 kilómetros de Londres, desde donde trabajaba para los servicios de inteligencia británicos- los mensajes encriptados que los alemanes mandaban desde su máquina “Enigma”. Algo que resultó fundamental para que el bando aliado venciera.

Entre el puntapié inicial de Turing y la popularidad de hoy, se dio un avance lento de esta tecnología que es repasado en Artificial. La nueva inteligencia y el contorno de lo humano, el libro de Mariano Sigman y Santiago Bilinkis. Aparecen conceptos como el de las redes neuronales artificiales, que intentan emular las capas en las que se organizan y se conectan las redes neuronales cerebrales. Científicos como Marvin Minsky, Warren McCulloch y John Hopfield las desarrollaron desde la década de 1940.

Inteligencia Artificial.
Inteligencia Artificial.
Foto: Archivo.

En Uruguay hay científicos que trabajan con aprendizaje automático (machine learning) desde hace un par de décadas. Es el caso de Federico Lecumberry, doctor en ingeniería eléctrica y docente de procesamiento de señales y aprendizaje automático de la Udelar, quien explica que “un sistema de IA aprende a reconocer patrones de la misma forma que nosotros los humanos aprendemos a reconocer o usar esos patrones para realizar una tarea”. Y explica: “Si nosotros queremos aprender a andar en bicicleta tenemos que hacerlo a través de la experiencia. Alguien nos dice: ‘Acá tenés un patrón de movimientos, girá las piernas en este sentido, mantené el equilibrio moviendo levemente el manubrio’”.

Y gracias al aumento del poder de cómputo del hardware para procesar datos, esas redes adquirieron un tipo de aprendizaje automático profundo (deep learning), por el que las máquinas no solo aprenden de la experiencia sino que se entrenan a sí mismas para ser más efectivas. Esto se logra a través de, por ejemplo, el aprendizaje por refuerzos: “Que es la forma en la que aprendemos los humanos”, advierte Lecumberry, “si andamos bien en bicicleta tenemos la recompensa de que nos podemos desplazar, ir más rápido o divertirnos. Eso es una recompensa: son estímulos para poder mejorar nuestra forma de desarrollar tareas”.

Claro: lo que completó la ecuación para que la IA creciera fue la masificación de Internet desde la década de 1990. Tiempo después las redes neuronales ya tenían los datos que la humanidad les había dado para desarrollarse.

Regulación por capas.

Avancemos rápido en el tiempo hasta 2023: el 1° y 2 de noviembre Estados Unidos, China, la Unión Europea, Reino Unido, India, Brasil y otras potencias firmaron la declaración de Bletchley -lugar simbólico donde Turing inventó la máquina para descifrar los mensajes alemanes- para “trabajar juntos de manera inclusiva para asegurar una IA humano-céntrica, fiable y responsable, que sea segura”. Allí estuvieron también los directivos de algunas de las multinacionales de tecnología como Elon Musk (Tesla), Yann LeCun (Meta) y Demis Hassabrisks (cofundador de DeepMind de Google). Las próximas cumbres de seguridad de la IA serán en Corea del Sur y Francia, dentro de seis meses y un año respectivamente.

Días antes, el 30 de octubre, el presidente de Estados Unidos Joe Biden había emitido un decreto para regular la IA en Estados Unidos que, por ejemplo, le exige a las empresas que desarrollan esta tecnología que hagan pruebas de seguridad de sus sistemas que deben ser notificadas al gobierno antes de lanzar sus productos. No obstante, y aunque el Congreso estadounidense no ha avanzado en una legislación integral de IA, el gobierno de Biden busca, entre otras cosas, regular los efectos que la tecnología podría tener en la generación de deepfakes —videos, imágenes o audios manipulados por IA para que parezcan originales y confundir a las personas— durante las elecciones presidenciales de noviembre de 2024. Sobre todo luego del escándalo de Cambridge Analytica descubierto en 2018 sobre las elecciones de 2016.

La Unión Europea ha sido pionera en regulación, desde 2021. Su ley de Inteligencia Artificial -presentada en el Parlamento Europeo en junio de 2023, y que está en proceso para su versión final- establece tres niveles de riesgo para regular los sistemas de IA: inaceptable, como los de reconocimiento facial en tiempo real; alto, como los de IA generativas como ChatGPT; y los de riesgo limitado, como los que manipulan imágenes, audio o video (caso de las que sirven para generar deepfakes).

Los Estados intentan moverse rápido, porque saben que la tecnología siempre va un paso adelante. El avance de la IA en la última década, con su punto exponencial en el último año, empezó a mostrar sus enormes oportunidades y retos.

Esta tecnología tan potente, que parece tener la omnipresencia del Aleph del que hablaba Borges -ese lugar donde están “todos los lugares del orbe, vistos desde todos los ángulos”-, ha generado increíbles descubrimientos. Es el caso del que el sociólogo Felipe Arocena, quien junto a su colega Sebastián Sansone publicó este año el ensayo Aceleración —en referencia a la tecnológica—, destaca como “fantástico”. Se trata de AlphaFold, un sistema de IA desarrollado por DeepMind de Alphabet (Google), que desde 2018 permitió descifrar la morfología de casi la totalidad de las proteínas: “Algo que -apunta Arocena- a los seres humanos les hubiera llevado la edad del universo, la IA lo hizo en dos años”. Lecumberry, quien trabajó como investigador en el procesamiento de imágenes en biología estructural en el Institut Pasteur, sabe del tema: “AlphaFold fue entrenado a partir de un conjunto muy grande de las estructuras tridimensionales de las moléculas y las cadenas de aminoácidos. Entonces se le da una cadena de aminoácidos y te dice cuál es la estructura probable”.

Esto permitió descubrir unos 200 millones de moléculas esenciales para entender, por ejemplo, enfermedades como el alzhéimer o el párkinson.

EL USO DE IA

Preguntas y respuestas en un evento de El País

La tercera edición de Transformación Digital, conferencia organizada por El País, será una oportunidad para responder a preguntas sobre la IA. Será el 7 de diciembre a las 9 y contará con charlas del ingeniero Gonzalo Damonte de la Unidad Soluciones Data Center de Antel; la ingeniera Lorena Etcheverry; Pablo Rebufello, gerente de Tecnología e Innovación en ICA; Juan Pablo Gambini, director técnico de Cudim; Ana Iglesias, directora del Área de Tecnología de Prosegur; Alberto Varela, country manager de Fiserv; Matías Rodríguez, CEO de Fixed y Gabriel Hernández de Agesic. Modera la periodista Ana Laura Pérez. El acceso virtual es gratuito; para concurrir al evento presencial se debe contar con una invitación. El formulario de registro y pueden encontrarse en web.elpais.com.uy/transformacion-digital-2023.

Pero, del otro lado, el mal uso de IA por parte de funcionarios gubernamentales de Reino Unido, que publicó The Guardian a fines de octubre, muestra los desafíos que propone esta tecnología. Se trató, entre otros, de un algoritmo usado por el Departamento de Trabajo y Pensiones que derivó en la pérdida de beneficios de varias personas; también el uso por parte de la Policía de una herramienta de reconocimiento facial que discriminaba a las personas afrodescendientes; u otra usada por el Ministerio del Interior para identificar matrimonios falsos, que eligió en forma desproporcionada a personas de determinadas nacionalidades.

Allí se dejan ver los sesgos discriminatorios que pueden tener estos sistemas, y que son otro gran tema de discusión. “Hay una parte importante de los sesgos que dependen de los datos sobre los cuales el sistema se basó para ser entrenado”, explica el decano de la Facultad de Ingeniería de la ORT y presidente de Endeavor, Eduardo Mangarelli.

Lecumberry señala que los sesgos están siempre en los seres humanos, para bien o para mal, a veces inconscientemente, y que tienen que ver con las fuentes de donde se sacan los datos para la IA: la producción humana subida a Internet. Y señala que allí tiene que entrar la regulación, con la que está de acuerdo porque “lamentablemente tenemos que ponernos esas restricciones como humanos, donde hay una recompensa negativa si uno infringe una regla”, y que ese control deben ejercerlo los Estados. En este caso para acceder a las formas en que los sistemas son entrenados, y para que siempre esté un humano por detrás “que evalúa las respuestas, las valida, las clasifica o dice si puede haber una mejor”. Sobre ese feedback humano, Mangarelli afirma que “todavía no hay mecanismos contundentes que aseguren llevar a cero las alucinaciones (respuestas falsas o antiéticas)” que tienen los sistemas.

El director ejecutivo de la Agencia de Gobierno Electrónico y Sociedad de la Información y del Conocimiento (Agesic), Hebert Paguas, plantea que los desafíos están en “cómo regular para no limitar la innovación, y en cómo regular el mal uso de la tecnología, que es un terreno de la ciberseguridad o la ciberdelincuencia”.

Hebert Paguas, director de Agesic.
Hebert Paguas, director de Agesic.
Foto: Archivo.

Paguas tiene confianza en que se llegue a esos estándares internacionales que permitan, no regular la tecnología, algo que no cree posible, sino los entornos (financiero, educativo, cultural, laboral, medioambiental y todos los que atraviesan la vida) donde se desarrolla. Un concepto similar al del eurodiputado Drago Tudorache, quien habló de una regulación “por capas y no transversal” en el foro “Navegando por la Inteligencia Artificial”, realizado en el marco de la Segunda Cumbre Mundial de Comisiones del Futuro, en Uruguay a fines de setiembre. Allí el presidente Luis Lacalle Pou llamó a ver “de manera positiva” los temas del futuro y no con una “visión patológica”.

El punto de vista al respecto de Martín Pesce, abogado especializado en protección de datos, socio de Ferrere y docente de Derecho Informático, es que, siempre sin limitar la innovación, “en el mundo digital y globalizado en que vivimos, donde la regla es que cualquier desarrollo tecnológico va ser aplicado y utilizado sin fronteras en una infinidad de países resulta clave caminar hacia una convergencia regulatoria donde a mismos desafíos, se apliquen mismas soluciones”.

Arocena y Sansone hablan de una “regulación con escepticismo”; creen que debe haberla, pero no están seguros de que se consiga ni de que se cumpla. Arocena piensa que el tema pasa por tres niveles: generar conciencia de la regulación; que los Estados y las organizaciones supranacionales “intenten regular lo más posible”; y por último entender que “hay un nivel en donde tenemos que ser conscientes de que cualquier regulación probablemente se perfore”. Por más regulada que esté la IA, “siempre lo más probable es que algo se escape porque si esto no ocurriera, entonces estaríamos creando un régimen tan totalitario que sería igual de preocupante, condenatorio y rechazable que lo que podrían ser las consecuencias no deseadas de la IA”.

Uruguay y la región.

Perú, Brasil, Chile y Colombia son los países sudamericanos que tienen legislaciones específicas en IA o proyectos de ley en curso, en base a los tres niveles de riesgo planteados por la Unión Europea.

Perú aprobó en julio una ley de cinco artículos que promueve el uso de la IA para el desarrollo económico y social, y que apuesta por la responsabilidad ética. Chile, en tanto, tiene un proyecto de ley en curso -al igual que Colombia-, así como una Política Nacional de IA con lineamientos estratégicos del Estado para la regulación. Y Brasil está en una posición similar, con leyes vigentes de protección de datos y delitos informáticos y ciberseguridad, y dos proyectos de ley de regulación específica de IA en curso.

En Uruguay no hay una ley o proyecto en curso sobre regulación de IA, pero sí leyes como la 18.381 sobre el derecho de acceso a la información pública y la 18.331 sobre protección de datos personales que es, tal como lo entiende Pesce, “una moderna legislación de protección de datos personales en línea con los estándares internacionales, que a priori aparece como apta y suficiente para regular el fenómeno de la IA, y poner en balance el desarrollo tecnológico con los derechos de los individuos”. Además, esa ley “que sigue la línea europea, está basada en principios como responsabilidad, consentimiento, finalidad, seguridad… y los principios tienen la ventaja de que no quedan desactualizados, sino que se adecuan y pueden ser aplicados aun a innovaciones tecnológicas disruptivas como la IA generativa, que ni siquiera se conocían en el momento en que fueron legislados”.

En forma paralela, hay un proyecto de ley de tipificación del ciberdelito, con media sanción en el Senado y que Paguas remarca porque en el país no existe el delito de usurpación de identidad. Y hacerse pasar por otra persona puede utilizarse para generar, por ejemplo, deepfakes, algo importante de regular antes de años de elecciones como las de 2024.

CIFRAS

Uruguay está tercero en ranking en la región

La Agesic participó del Foro sobre la Ética de la Inteligencia Artificial el 23 y 24 de octubre en Chile. Allí se aprobó la creación de un grupo de trabajo para formar un Consejo intergubernamental de IA para América Latina y el Caribe. La idea es mitigar las desigualdades que marcó la presentación en agosto del primer Índice Latinoamericano de Inteligencia Artificial. Allí Uruguay ocupa el tercer lugar con 54,99 puntos, solo por detrás de Chile (73,21) y Brasil (65,31), pero muy por encima de países como Paraguay (18,82) o Bolivia (15,10). Uruguay lidera en investigación, desarrollo y adopción, con 75,95 puntos de promedio. Está octavo en gobernanza de los datos, ya que aún no ha definido en quién recaerá esa función.

En forma paralela, la Agesic trabaja desde 2020 en la Estrategia de Inteligencia Artificial, que empezó un proceso de revisión en junio de este año -y hasta abril de 2024- en el que participarán la academia, el sector privado y la sociedad civil, y que cuenta con la cooperación técnica del Banco de Desarrollo de América Latina y el Caribe (CAF) y la Unesco.

“Estamos revisando la Estrategia Nacional de IA”, señala Paguas, “y en paralelo votamos en la Rendición de Cuentas la responsabilidad de generar una Estrategia Nacional de IA, de mandar el informe al Parlamento para que luego evalúe qué le parece más conveniente o no hacer. También estamos creando la Estrategia Nacional de Datos, que es la primera vez que Uruguay la va a tener, muy vinculada a la estrategia de IA. Y, por otro lado, estamos revisando una Estrategia Nacional de Ciudadanía Digital para generar herramientas para que las personas puedan ser más libres, más seguras y más controladoras de lo que se hace”.

La educación de la población es uno de los preventivos contra los malos usos de la IA que está en la Recomendación sobre la Ética de la IA de Unesco (2021), a la que Uruguay fue uno de los primeros países en adherir en junio de este año. En ese sentido, Paguas remarca que en Uruguay hay planes educativos -algunos de “largo aliento”- con el Plan Ceibal e Ibirapitá, y que la Agesic visitó este año más de 40 escuelas para dar “charlas de contenidos digitales, de capacitación y sensibilización”.

Además, está encaminado el primer sandbox regulatorio en Uruguay, que es algo así como un banco de pruebas virtual para el software desarrollado en el país antes de sacarlo al mercado. El objetivo, cuenta Paguas, es que las empresas puedan probar con los reguladores, como Agesic o el Banco Central del Uruguay, si se tratara de un proyecto de fintech, y recibir asesoramiento para que los productos sean seguros.

Lo complejo de todo esto es que no quede en mero palabrerío y buenas intenciones. Porque los riesgos de un mal uso de la inteligencia artificial -y más con una campaña electoral a la vuelta de la esquina- son reales, aunque su dimensión exacta es lo que está en discusión. ¿Será para tanto?

PODER

“El riesgo es real, no hay que subestimarlo”

Elon Musk, empresario e inversor.
Elon Musk, empresario e inversor.
Foto: Archivo.

Desde la inteligencia artificial (IA) Skynet de Terminator, que lleva al borde de la extinción a la raza humana, hasta otras películas como Metrópolis, 2001: odisea del espacio, Mad Max, Matrix o los libros del escritor ruso Isaac Asimov, la relación de los humanos con las máquinas ha estado presente en el arte. Pero ahora, advierte el sociólogo Sebastián Sansone, hay “gente que piensa que la IA es ciencia ficción y no es así”.

Tanto en su libro Aceleración, donde con su colega Felipe Arocena hablan de una superinteligencia (concepto del filósofo sueco Nick Bostrom) que exceda a la humana o la equipare (singularidad), hasta en Artificial de Mariano Sigman y Santiago Bilinkis, donde recuerdan la publicación en marzo del artículo de investigación “Destellos de la IA General: experimentos iniciales con GPT-4”, realizado por científicos de OpenAI y Microsoft, se afirma que esa posibilidad es real.

Los autores citan además la carta abierta de marzo de 2023 en la que más de 1.000 expertos en IA -entre ellos Elon Musk, Steve Wozniak (cofundador de Apple) e investigadores de DeepMind de Google- y ejecutivos tecnológicos pedían pausar por seis meses su desarrollo “fuera de control”.

O el comunicado que se publicó a fines de mayo apoyado entre otros por el director ejecutivo de OpenAI, Sam Altman, y el de Google DeepMind, Demis Hassabis, que decía que “mitigar el riesgo de extinción a manos de la IA debería ser una prioridad mundial, junto con otros peligros a escala social, como las pandemias y la guerra nuclear”.

Si bien hay otra corriente de expertos que no está de acuerdo con estas visiones apocalípticas, como Ray Kurzweil (exdirector de ingeniería de Google) y Mark Zuckerberg, Sigman y Bilinkis sugieren que el peligro puede estar en dejarse llevar por el “sesgo optimista”, proclive en el ser humano, de ignorar las malas noticias (ponen como ejemplo el cambio climático). Y agregan: “El mayor peligro de todos quizá sea pecar de ingenuos. El riesgo es real. Y desatenderlo o subestimarlo no hace más que amplificarlo”.

¿Encontraste un error?

Reportar

Te puede interesar

Publicidad

Publicidad