Publicidad

Alerta: videos porno falsos

Compartir esta noticia
Gal Gadot, Taylor Swift, Emma Watson, entre otras fueron parte de las víctimas. Foto: Shutterstock

TECNOLOGÍA

Esta realidad se suma a los fraudes de la red contra los que los usuarios deben luchar actualmente.

Las redes sociales y las plataformas digitales se enfrentan a un nuevo reto: el uso de las tecnologías de reconocimiento facial, por medio de Inteligencia Artificial (IA), para superponer el rostro de una persona en el cuerpo de alguien que participa en una escena pornográfica.

Desde diciembre de 2017 se han venido haciendo virales varios videos en los que las caras de las famosas de Hollywood, como Scarlett Johansson, Emma Watson y Taylor Swift, son puestos en los cuerpos de actrices porno. La polémica comenzó con un video de la actriz israelí Gal Gadot que causó furor en las redes sociales y que posicionó la tendencia de los llamados deepfakes. Todo empezó porque los contenidos se empezaron a compartir en la plataforma Reddit por un usuario que se hacía llamar deepfakes. Alrededor de estos videos se creó una comunidad, que llegó a tener más de 90.000 miembros.

Pero el tema no quedó ahí. Tras la respuesta dentro de dicha comunidad el usuario creó una aplicación denominada FakeApp que permite que, a través de un sistema de Inteligencia Artificial, cualquier persona pueda replicar la misma dinámica de reemplazo de rostros.

La tecnología detrás de esta app está basada en la utilización de un algoritmo de aprendizaje automático, técnica que hace parte de la inteligencia artificial, que analiza cientos de fotografías tomadas desde otras plataformas como Google y YouTube, para crear una versión generada de la cara de alguien e incorporarla en otro cuerpo.

El fenómeno se extendió de una manera preocupante. Además de la propagación de noticias falsas, los mensajes de odio en redes sociales y la transmisión en vivo de escenas violentas, ahora la tendencia de crear videos porno falsos se sumó a la lista de grandes desafíos a superar por parte de las redes sociales.

La situación empeora teniendo en cuenta la dificultad de reconocer la veracidad del video. "La edición de cada fotograma es tan perfecto que habría que revisar fotograma por fotograma y mirar el error de cada uno en un software de edición", dice Julián Molina, desarrollador de videos.

Conciencia.

Pero las compañías de tecnología han decidido tomar medidas antes de que el tema pudiera salirse de control. Reddit eliminó el foro donde fue compartido el contenido y prohibió la publicación de imágenes sexuales sin el consentimiento de la persona, lo que catalogó como "pornografía involuntaria".

"A partir del 7 de febrero de 2018, hemos realizado dos actualizaciones a nuestra política de todo el sitio con respecto a la pornografía involuntaria y contenido sexual o sugerente que involucra a menores. Estas políticas se combinaron previamente en una sola regla; ahora serán divididos en dos distintos. Las comunidades se centraron en este contenido y los usuarios que publiquen dicho contenido serán excluidos del sitio", dijo la plataforma en su sitio web.

De acuerdo con el medio Motherboard, que reveló el escandalo detrás de esta app, Twitter suspenderá las cuentas que publiquen videos porno producidos o distribuidos sin el consentimiento de uno de los involucrados así como los perfiles de quienes los compartan. Además, la red social borrará todos los contenidos creados por los algoritmos "deepfake".

Twitter, a diferencia de otras redes sociales, permite contenido para adultos siempre y cuando estén marcados como "contenido confidencial". Sin embargo, aún no queda claro cómo identificarán, por ejemplo, que no hubo consentimiento de uno de los involucrados cuando sean casos en los que no hay celebridades.

"Es importante que las plataformas de tecnología verifiquen cuando un contenido es falso. Se podría comprobar la procedencia de un video, por ejemplo, validando las dirección IP de donde se está originando el contenido para de alguna u otra forma verificar que sea una fuente confiable", Germán Vargas, docente del programa de Ingeniería de Sistemas de la Universidad El Bosque.

"Las falsificaciones profundas se pueden aplicar a políticos, deportista y a cualquier persona. Es un tema muy delicado porque existen técnicas de inteligencia artificial para hacer todo tipo de falsificaciones", agrega el experto.

Otras plataformas como Discord, Gfycat y Pornhub también se han pronunciado. "Los usuarios han comenzado a marcar contenido como este y vamos a quitarlo tan pronto como nos encontremos con las banderas. Alentamos a cualquier persona que se encuentre con este problema a que visite nuestra página de eliminación de contenido para que pueda realizar una solicitud oficialmente", dijo el vicepresidente de Pornhub, Corey Price, según reseña el diario The Independent.

Mujer Maravilla

En el centro de una polémica

En diciembre, el portal MotherBoard informó que se había utilizado un algoritmo para crear videos porno falsos de la actriz de la Mujer Maravilla, Gal Gadot y las señales de alerta se encendieron.

Rostro

Las aplicaciones lo hacen más fácil

La práctica se popularizó después del lanzamiento de una herramienta de software llamada FakeApp, que usa inteligencia artificial para lograr el face swap (reemplazo de rostros), pero en video.

Deepfakes

Cada vez son más populares

El uso de inteligencia artificial para crear "Deepfakes" permite la generación de una versión computarizada de un sujeto y asemeja las expresiones originales de otra persona en un video.

¿Encontraste un error?

Reportar

Te puede interesar

Publicidad

Publicidad