Publicidad

Cómo Facebook controla lo que podés publicar

Compartir esta noticia
Secretos que rigen a 2.000 millones de usuarios. Foto: Reuters

Secretos que rigen a 2.000 millones

Investigación desnuda fallas y favoritismos, con un panorama de reglas poco claras.

A veces un emoticón es solo un emoticón. Pero, a veces, puede ser una amenaza. Y en solo unos segundos, los moderadores de Facebook tienen que reaccionar y tomar una decisión —incluso si el texto que acompaña a la cara amarilla sonriente está en un idioma que no conocen bien—.

Para ayudarles con esas decisiones, Facebook ha creado una lista de lineamientos sobre lo que sus 2.000 millones de usuarios pueden decir. Los moderadores trabajan con esas reglas, que son actualizadas frecuentemente.

Para Facebook, el objetivo es la claridad. Sin embargo, para los miles de moderadores en todo el mundo, que enfrentan la tarea de navegar este bizantino laberinto de reglas mientras monitorean a diario miles de millones de publicaciones en más de cien idiomas, la claridad es difícil de lograr.

Facebook intenta que esos lineamientos, y su existencia, se mantengan en secreto. Sin embargo, The New York Times adquirió 1.400 páginas de esas reglas, y no solo detectó problemas en la redacción, sino también en la manera en que se realiza el proceso de moderación.

A continuación presentamos cinco puntos clave de nuestra investigación:

- Cada dos martes, las reglas se discuten durante un desayuno que se celebra en una sala de conferencias en Menlo Park, California, lejos de la aceleración del descontento social que los críticos suelen achacarle a Facebook.

Aunque la compañía no consulta a grupos externos, las reglas son determinadas en gran medida por jóvenes abogados e ingenieros, la mayoría de los cuales no tienen experiencia en las regiones del mundo sobre las que están tomando decisiones.

Las reglas que ellos crean parecen estar escritas para anglohablantes que a veces dependen del traductor de Google. Eso indica una falta de moderadores con habilidades idiomáticas locales que podrían entender mejor los contextos locales.

Los empleados de Facebook dicen que no han entendido, del todo, qué tipo de publicaciones pueden crear disturbios violentos o políticos. Los reglamentos son deducciones.

- Algunos de los lineamientos usados por los moderadores son imprecisos, están desactualizados o carecen de matices críticos.

Por ejemplo, una presentación se refiere al criminal de guerra bosnio Ratko Mladic como un fugitivo, a pesar de que fue arrestado en 2011.

Otra parece tener errores sobre la ley india porque aconseja a los moderadores que casi cualquier crítica a la religión debe ser marcada como probablemente ilegal. De hecho, según un académico especializado en temas jurídicos, criticar a la religión solo es ilegal cuando se tiene la intención de generar violencia.

En Birmania, un error de papeleo permitió que un prominente grupo extremista, acusado de fomentar el genocidio, permaneciera en la plataforma durante meses.

- Facebook subcontrata los procesos de moderación con compañías que emplean a miles de trabajadores para hacer cumplir las reglas. En algunas de estas oficinas, los moderadores dicen que se espera que revisen muchas publicaciones en apenas ocho a diez segundos. El trabajo puede ser tan exigente que muchas personas solo duran unos cuantos meses en ese puesto.

Los moderadores dicen que tienen pocos incentivos para contactar a Facebook cuando encuentran fallas en el proceso. Por su parte, Facebook permite en gran medida que las compañías que contratan a los moderadores se supervisen a sí mismas.

- Cada vez, las políticas de Facebook se vuelven más asertivas para prohibir el acceso a grupos y personas, así como a tipos de discurso que, según los moderadores podrían conducir a la violencia.

En países donde la línea entre extremismo y política tradicional es poco clara, el poder de la red social para prohibir el acceso a algunos grupos significa que, en esencia, ayuda a definir ganadores y perdedores políticos.

A veces elimina partidos políticos, como Amanecer Dorado en Grecia, así como movimientos religiosos tradicionales en Asia y Oriente Medio. Esto puede significar que Facebook impide la participación de un sector de la población en los debates nacionales que suceden en su plataforma, argumenta un experto.

Algunas intervenciones son más sutiles. Durante las elecciones en Pakistán, la empresa les pidió a los moderadores que aplicaran un escrutinio extra a un partido, pero calificó al otro de "benigno".

Y sus decisiones a menudo son modificadas a favor de los gobiernos, los cuales pueden multar o regular Facebook.

- Aunque Facebook intenta limitar el contenido peligroso en su plataforma, continúa trabajando para incrementar sus usuarios. A veces, esa tensión se observa en los lineamientos. Por ejemplo, los moderadores que revisan publicaciones sobre Pakistán reciben advertencias sobre crear un "incendio de relaciones públicas" al hacer cualquier cosa que podría "tener un impacto negativo en la reputación de Facebook o incluso poner a la compañía en riesgo legal".

Al depender de trabajadores subcontratados para realizar la mayor parte de la moderación, Facebook puede mantener costos bajos incluso mientras fija reglas para más de 2.000 millones de usuarios.

¿Encontraste un error?

Reportar

Te puede interesar

Publicidad

Publicidad