Publicidad

En Facebook tampoco somos todos iguales

Compartir esta noticia
Facebook

REDES SOCIALES

En las redes sociales no somos todos iguales, algunos pueden decir ciertas cosas y otras no. Solo hace falta estar en una lista selecta y prolijamente alimentada por ejecutivos de la compañía.

Este contenido es exclusivo para nuestros suscriptores.

Días atrás The Wall Street Journal publicó una serie de reportajes con documentos internos de Facebookque obtuvieron sus periodistas. La serie incluyó artículos en los que se hicieron públicos documentos en los que se asegura que Facebook sabía que Instagram está dañando a las adolescentes con sus prácticas y otros en los que se denuncia cómo los partidos políticos modificaron sus prácticas de contenidos en acuerdo con la empresa para seguir teniendo espacios privilegiados.

Pero otro de los informes vuelve a dejar en evidencia los problemas que Facebook, igual que todas las otras plataformas, tiene para moderar los contenidos que circulan en ella.

La moderación en redes y plataformas sociales es el proceso de revisión, selección y eventual eliminación de los contenidos generados por los usuarios (User Generated Content, UCG por sus siglas en inglés) y la actividad en las plataformas sociales de internet.

El componente básico de cómo funciona la moderación es la existencia de reglas, guías, restricciones y políticas de funcionamiento que los usuarios aceptan al comenzar a usarlas y que pueden ser actualizadas durante su uso. Esas reglas y guías son lo que conocemos como Términos y Condiciones o Normas Comunitarias. Para moderar esos contenidos, las redes sociales usan enormes equipos humanos (unos 15 mil en el caso de Facebook) tercerizados en otras empresas (Facebook tiene un acuerdo con Accenture, entre otras) que revisan cientos de miles de mensajes y posteos por hora y deciden si cumplen o no con las reglas y si deben seguir publicados o no, reducido su alcance y varias otras sanciones previstas más.

También utilizan, porque los humanos son muy caros y a veces deben irse a sus casas en medio de un lock down provocado por una pandemia, herramientas de inteligencia artificial que deciden si lo que publicamos es o no aceptado.

Pero volvamos a lo que Facebook sabía pero no nos dijo. En las redes sociales no somos todos iguales, algunos pueden decir ciertas cosas y otras no. Solo hacía falta estar en una lista selecta y prolijamente alimentada por ejecutivos de la compañia que lidera Mark Zuckerberg.

La lista, llamada internamente XCheck o crosscheck, no es otra cosa que una nómina de ciudadanos VIP de las redes sociales cuyos contenidos que violaran las reglas de funcionamiento no podían ser eliminados, o al menos no tan fácil como nos ocurre al resto de nosotros.

Esos contenidos son revisados por un equipo especializado de moderadores mejor preparados e incluso por ejecutivos de alto rango de Facebook.
Tal vez por eso cuando Penelope Cruz publicó en Instagram el afiche de su última película con Pedro Almodóvar en la que se ve un pezón desnudo con una gota de leche, nada ocurrió y cuando lo mismo hizo el autor del afiche, su cuenta fue suspendida.

Según la investigación de The Wall Street Journal, Neymar era uno de los que integraban esa lista que a 2020 tenía más de 5.800.000 de nombres. Por eso pudo publicar en 2019 fotos desnudas de una mujer que lo acusaba de violarla en sus cuentas sin que esos contenidos fueran eliminados. La desnudez es uno de los contenidos más rápidamente eliminados de la red, sin embargo, ser parte de XCheck protegió a Neymar.

Según el propio informe de Facebook, ese posteo -con fotos que mostraban desnuda a una mujer que lo acusa de violarla- fue visto por 56 millones de personas.

Tema para un texto aparte sería reflexionar sobre si son las empresas las que tienen que regular lo que podemos o no podemos decir en un espacio de intercambio público, aunque sea propiedad de una empresa privada. Como un restaurante por más privado que sea tiene que sacar la sal de las mesas o ceñirse a estrictos protocolos para proteger a sus clientes del covid.

Lo que sí es claro, es que deberíamos saber mucho más de lo que sabemos sobre cómo se decide qué podemos decir y qué no, quiénes lo ven y quiénes no.

¿Encontraste un error?

Reportar

Temas relacionados

premium

Te puede interesar

Publicidad

Publicidad