REDES SOCIALES

Un estudio que muestra que el algoritmo de Twitter no es inocente

Se trata de una de las primeras investigaciones a gran escala en las que una red social permite a científicos acceder a sus datos.

Redes sociales. Los posteos de los influenciadores son una vidriera para las marcas.
Twitter. Foto: archivo

Este contenido es exclusivo para nuestros suscriptores.

Hace unos días, el 21 de octubre, Twitter hizo pública una investigación llevada adelante por un grupo de científicos para determinar si su algoritmo de distribución de contenido favorece a algún tipo de ideología política sobre otra.

Se trata de una de las primeras investigaciones a gran escala (en 7 países) en las que una red social permite a científicos acceder a sus datos para intentar entender algunas de las lógicas sobre las que funciona la forma en la que algunos contenidos se vuelven más virales que otros.

Desde hace unos años, Twitter ha incorporado un algoritmo que define que tuits vemos en nuestra línea de tiempo. Esto implica que muchos de los usuarios de la red en todo el mundo ven contenidos de cuentas a las que no siguen pero que Twitter considera le pueden interesar en función de una serie de parámetros con los que construyó ese algoritmo.

Es posible para cualquier usuario optar por no utilizar esa forma de distribución yendo a su menú de configuración, pero la mayoría de las personas no lo ha hecho. Además, según explica el estudio Twitter ha dejado un 1% de personas que ven su línea de tiempo de la manera tradicional, solo a los que siguen y en orden cronológico, y es ese grupo el que fue usado como grupo de control.

Los investigadores se plantearon como objetivo determinar si el algoritmo de recomendación de contenido tiende a favorecer a un determinado espectro del arco ideológico sobre otros. Para ello hicieron dos investigaciones paralelas. La primera implicó analizar 3.634 cuentas de legisladores electos y en funciones de 7 países distintos: Canadá, Estados Unidos, Alemania, España, Francia, Reino Unido y Japón. Los países fueron elegidos en función de la disponibilidad de datos así como en el nivel de actividad de Twitter para asegurarse de generar masa crítica suficiente para el análisis.

En los tuits analizados incluyeron retuits pero solo si el autor había agregado algún comentario y dejaron fuera aquellos que eran meras repeticiones de contenido ajeno, así como aquellos tuits en los que varios legisladores usaban idénticos textos dado que consideraron que era complejo adjudicar la autoría de esos contenidos.

El estudio determinó que “con excepción de Alemania, se encontró una diferencia estadísticamente significativa que favorece a la derecha política” en la amplificación de los contenidos a partir del sistema algorítmico de recomendación de Twitter. El efecto más fuerte de esto se da en Canadá donde los Liberales registran una aplificación de 43% y los Consevadores una de 167% (todo valor por encima de 0% indica la presencia de una amplificación más allá de los usuarios “naturales” para una cuenta determinada siendo 200% un alcance 4 veces superior). El otro país en el que se registran valores destacables es el Reino Unido en el que los Laboristas tienen una amplificación del 112% frente a 176% para los Conservadores.

Determinaron también que el efecto grupal no se traduce en un efecto individual. Esto significa que dos cuentas de dos personas que pertenecen al mismo espacio del espectro ideológico, no tienen la misma amplificación.

Los investigadores intentaron ir un paso más allá e intentar ver si como muchos suponen los extremos del arco reciben mayor amplificación del algoritmo que las versiones moderadas tanto de izquierda como de derecha. Sobre este punto no encontraron evidencia que sostenga que los extremos son más amplificados por los algoritmos.

Si leyó hasta aquí seguramente una pregunta ha flotado a lo largo de todo el texto. ¿Por qué un algoritmo favorece contenidos de un tipo sobre otro? No está claro. De hecho, Twitter promete que es lo que ahora va a investigar. De todos modos, un adelanto. Que los humanos no sepamos por qué los algoritmos que incorporan inteligencia artificial toman ciertas decisiones, lejos de ser raro, es bastante común. Muchas veces, incluso quien crea un algoritmo no sabe por qué toma una decisión determinada. Y eso, estimado lector, es un gran problema.

Reportar error
Enviado
Error
Reportar error
Temas relacionados