Publicidad

Sonría, lo estamos espiando

Compartir esta noticia
reconocimiento facial

DE PORTADA

Jugar a cambiar de género en una app es divertido, pero también plantea desafíos para la convivencia y el derecho a la privacidad.

Es lo que tiene ser un entusiasta de la tecnología. O cuando se padece el síndrome FOMO, por “Fear Of Missing Out” (en castellano: temor a quedarse a fuera). Uno se sube a cualquier carro, lo más rápido posible. ¿La moda es sacarse una selfie? Allá vamos. ¿Lo más cool es ser un influencer? Listo, ponemos un “canal” de YouTube (o Instagram o lo que venga) y empezamos a tratar de influir sobre los demás para que compren tal o cual producto o hagan tal o cual ejercicio. Estas modas no duran mucho, pero lo que es constante es la voluntad de sentirse parte de algo y estar ahí donde todos parecieran estar.

En estos días, todos queremos saber cómo nos veríamos si en vez de haber nacido con el género asignado lo hubiésemos hecho con el “sexo opuesto”, como se decía antes. Allá vamos entonces. Nos bajamos (tal vez de nuevo) la aplicación FaceApp, le damos una foto nuestra a esa aplicación -al menos, creemos que es solo una- y voilá: ya tenemos un chiche nuevo para compartir con los demás. Si no es de literalidad, vamos a extinguirnos de ganas de compartir algo, lo que sea, en redes sociales.

FaceApp
¿Cómo se vería Angelina Jolie si hubiese nacido como un hombre?

Cuestión de género

La modelo y actriz uruguaya, y trans, Morena Simón subió el 17 de junio un video a su cuenta de Instagram. Ahí explicaba que lo hacía porque había detectado que se usaba mucho FaceApp. “Me pareció una buena oportunidad para reflexionar sobre este tema. Cuando una persona lleva a cabo un proceso de cambio de género eso implica muchas barreras, muchos obstáculos. Viendo cómo se lo están tomando, de una forma tan descontracturada y sin prejuicios, me gustaría que cuando esto pasa en la vida real se lo tomen de la misma manera, así podemos cambiar esta realidad”, es entre otras cosas lo que ella dice en el video, acompañado de este texto: “Tomemos como aprendizaje que el cambio de género de una persona no es nada grave, sino por el contrario, simplemente es una vivencia totalmente personal que algunos/as/es vivimos. Que en 2020 el promedio de vida de trans femeninas sea de 36 años tiene que cambiar ya”.

La psicóloga, docente y activista Marcela Pini, dijo a Revista Domingo que FaceApp “puede ser entendida como un juego. Como cuando los y las niñas pequeñas se visten con atuendos que a priori no correspondan al género asignado al nacer”. Eso, añade, no necesariamente significa que estén en un “transitar en el género”. Los niños y las niñas necesitan jugar, dice, porque el juego es “una necesidad vital para las personas”. Además, cualquier app o plataforma social se puede usar para hacer una reivindicación política. “El punto es que no es la app lo que está en cuestión, sino para que la usamos, como cualquier red social”.

Para Pini, además, hay que continuar generando conciencia sobre las particularidades de la experiencia de ser trans. “Hemos dado testimonio de nuestras propias historias, informado y educado a la población y a profesionales de la salud incluso. Lo que saben lo han aprendido de nuestros relatos, de nuestras historias de vida. Hemos construido una identidad política que comienza a ser reconocida en el sentido de ser vista como personas válidas y viables y no patologizables solo por el mero hecho de no habitar una identidad impuesta”.

Y nadie va a poder decir que nos agarraron desprevenidos. Hay muchas voces que, sin llegar a ser apocalípticas, nos vienen advirtiendo sobre esa manía que tenemos de darle a corporaciones privadas todos nuestros datos. La periodista y docente Ana Laura Pérez (actual gerente de contenidos digitales de El País) hace años que viene informando sobre aquellos vericuetos por los cuales empresas como Facebook o Google se hacen de nuestra identidad para luego comercializarla. Hay otras voces, claro.

Pero mejor ir por partes. FaceApp es una aplicación que ya fue famosa hace un año, cuando todos quisimos ver cómo sería nuestra apariencia como adultos mayores. También entonces hubo quienes cuestionaron el “compartitis” frenético, pero no importó. Ahora nos encandilamos con esto de cambiar de género. ¿Qué tiene de malo? En teoría, nada. Pero en la práctica puede tener algunas consecuencias, como lo tuvo habernos abierto una cuenta de Facebook o una de Gmail.

La más importante es que dándole una foto a esta empresa (como ya se la dimos a Facebook y a tantas otras plataformas) es que seguimos contribuyendo a las grandes bases de datos que las más poderosas entidades comerciales y estatales siguen construyendo. En sí, tampoco eso es necesariamente perjudicial. Como dice el experto en seguridad informática Eduardo Carozo, gerente de la empresa del rubro ITC, todo dependerá del uso que se haga de la tecnología de reconocimiento facial (TRF), quien empieza recordando que esa tecnología fue útil para identificar barrabravas en las tribunas del Estadio Centenario. “Bien usada, es de lo mejor que puede haber para una convivencia pacífica en una comunidad. La TRF no solo es capaz de reconocer caras. También es capaz de reconocer muchas otras cosas: puede usarse para contar animales en el campo, por ejemplo. O para detectar si algunos cultivos necesitan regarse. Entonces, este es un tema que hay que entender en su totalidad. No se trata únicamente de reconocimiento facial. En última instancia, se trata de que las máquinas nos van a ayudar a reconocer el entorno. Y bien usadas son capaces de encontrar en una multitud a una persona que se está cayendo porque está teniendo un infarto cardíaco. O de reconocer a un carterista entrando a un vehículo de transporte colectivo”.

Cámaras
Foto: Commons Creative.

Pero Carozo también sabe que hay usos non sanctos y agrega que tan importante como usar bien la tecnología es tener un marco legal adecuado. Si alguien llegara a usar su imagen para denigrarlo e incriminarlo en la arena pública dice que debería poder recurrir a alguien para quejarse y poder hacer algo al respecto.

El periodista británico John Oliver presentó el pasado 15 de junio un episodio de su programa Last Week Tonight dedicado a esta temática. Entre muchas otras cosas, el programa señaló dos o tres hechos inquietantes. Se descubrió que, por ejemplo, la Policía estadounidense usaba esta tecnología para identificar manifestantes del movimiento antirracista Black Lives Matter para arrestarlos varios días después de la movilización. Otro: una estudiante estadounidense oriunda de Sri Lanka fue “identificada” como la posible autora de un atentado terrorista. Y así varios casos más.

. “No se puede parar a la tecnología. Lo importante es que si hay alguien que esté usando ese software en forma incorrecta, haya una instancia legal donde se pueda denunciar. Uruguay tiene una legislación adecuada. En teoría, utilizar una app de reconocimiento facial implica que pidas una autorización de esa base de datos a Agesic, que se toma bastante tiempo y hace buenos análisis de si es pertinente que uses esa base de datos o no”, acota Carozo.

La abogada Patricia Díaz, especialista de derechos digitales, coincide con Carozo en que hay un marco regulatorio adecuado en Uruguay. “Tenemos la Unidad Reguladora de Control y Datos Personales (Urdcp) y el estándar europeo es el que más o menos estamos usando. Hoy Europa es líder en protección de datos personales y cuando cambia la normativa en este respecto allá, cambia también acá. Hay excepciones en Uruguay respecto a temas de seguridad pública”, comenta y menciona las fotos disponibles en la web del Ministerio del Interior. “Pero nuestra normativa está muy actualizada. La última modificación fue hecha en febrero de este año y entre otras cosas impone que el diseño de software tiene que basarse en la privacidad como regla. Hoy, un desarrollador de software en Uruguay debería seguir un montón de normativas y procedimientos que resguardan la privacidad. No se puede desarrollar software de cualquier manera”.

Otra cuestión es si un marco regulatorio es, por sí solo, suficiente. Díaz dice que no alcanza. Además de un marco jurídico adecuado, es necesario también que la sociedad civil conozca sus derechos y obligaciones y sepa cómo opera la TRF. Para eso, agrega, es necesario que los medios masivos de comunicación difundan, además de que la academia produzca conocimiento y eduque sobre usos y posibles abusos de la herramienta. Por último, tienen que destinarse recursos humanos y financieros para sostener el marco regulatorio. “Por ejemplo, no podemos hacer auditorías tan importantes como las que se realizan en España. Eso genera conciencia, porque si uno sabe que va a ser auditado, toma medidas. El sistema de protección se basa en consultas y denuncias de las personas. Pero si las personas no tienen una alfabetización básica...”, comenta respecto al nivel de conocimiento que deberíamos tener sobre esta y otras tecnologías.

Gustavo Gómez es otra de esas voces que desde redes sociales difunde sobre cuestiones de privacidad, libertad de expresión y buenas prácticas en cuanto a tecnologías de la información. Para él, “el problema es el uso indiscriminado y masivo en espacios públicos”. Si no hay transparencia, advierte, pueden afectarse derechos fundamentales. “Todo parece ir hacia la vigilancia y el control social. La TRF empezó como una herramienta para perseguir el delito, pero puede terminar siendo usada en protestas pacíficas, en donde el anonimato es una condición para participar. Si estás protestando pacíficamente contra un gobierno autoritario, no querés que te reconozcan”.

Gómez usa el término “gobierno autoritario” para reforzar el ejemplo, pero no tiene por qué tratarse, únicamente, de China u otro país con un régimen así. “Ahora porque FaceApp es ruso, y los rusos ‘son malos’, ¿no? Pero empresas estadounidenses tienen todos nuestros datos. Es bastante ingenuo e hipócrita hacer este tipo de distinciones. Claramente, muchas empresas usan reconocimiento facial para todo tipo de cosas”, afirma.

Tampoco él está en contra de esta herramienta. Dice sí, que hay que seguir debatiendo sobre sus alcances y que tal vez sea mejor bajar la pelota al piso antes de seguir. “IBM retiró del mercado su servicio de reconocimiento facial. Amazon le prohibió el uso de su TRF a la Policía, justamente por todo lo que está pasando en EE.UU. respecto al racismo. La relatoría de la libertad de expresión de ONU pidió el año pasado una moratoria en el uso de esta tecnología”, añade y agrega que aún existen sesgos importantes en los algoritmos que sostienen a esta tecnología, en particular en cuanto a aspectos étnicos o de género.

Manifestación Black Lives Matter
Manifestación Black Lives Matter.

Es poco probable que disminuyamos la velocidad con la que adoptamos nuevas tecnologías. Carozo pregunta, retóricamente: “¿Qué tal si vos para entrar en un estadio, pasás la mano, se te abre el portón y a medida que vas avanzando te van indicando el camino hacia tu lugar? ¿Está mal? No, está muy bien. ¿O que ese sistema pueda identificar a quien no debe entrar? ¿Qué tal si estás en una plaza y está fallando el distanciamiento social y alguien acude para que se respete la distancia? Todo eso está muy bien. Pero primero: las personas tienen que saber que existen sistemas así. Segundo: tienen que tener el cometido para mejorar la convivencia”.

Convivir y compartir. Dos verbos clave en estas épocas que vivimos. Dependerá de muchos factores si esas actividades redundarán en beneficios tangibles o si la compulsión a dar nuestros datos a terceros nos llevará a una sociedad en la cual el panóptico se convertirá en el amo y señor de los destinos.

Reconocer las caras tapadas

Con la pandemia, el uso del tapabocas se ha impuesto como una nueva norma social. Eso implica algún que otro desafío para la tecnología de reconocimiento facial, pero aún más para la convivencia e interacción: “Justo hoy tuve una paciente que me comentaba sobre que a ella le gustaba sentarse a mirar la gente pasar. Pero ahora solo ve gente enmascarada. Antes era un disfrute, ahora no. Yo también lo vivo como un duelo”, dice el psicólogo Álvaro Alcuri. Y agrega que si bien havisto varios capítulos de la serie Black Mirror y que le preocupa el control y la vigilancia que se pueda llevar a cabo con la tecnología, quiere volver a la “vieja normalidad”. “Donde nuestras caras son la más visible extensión de nuestra identidad. Cuanto antes recuperemos eso, mejor. El encuentro entre seres humanos ya estaba amenazado por los vínculos virtuales, y esto solo lo empeora”. Para él, esta situación es insostenible. “Necesitamos encontrarnos. El ser humano es gregario y tenemos que vernos las caras para convivir”.

¿Encontraste un error?

Reportar

Temas relacionados

reconocimiento facial

Te puede interesar

Publicidad

Publicidad