Amnistía Internacional: El algoritmo de X favorece narrativas incendiarias y racistas contra musulmanes y migrantes
La plataforma de redes sociales desempeñó un papel central en la difusión de narrativas falsas y contenido dañino, lo que contribuyó a la violencia racista contra las comunidades musulmanas y migrantes en Gran Bretaña tras el asesinato de tres niñas.

ESTAMBUL
El diseño y las decisiones políticas de X crearon un terreno fértil para narrativas incendiarias y racistas dirigidas a musulmanes y migrantes tras el mortal atentado de Southport del año pasado en Reino Unido, según reveló un nuevo análisis este miércoles.
Según una investigación publicada por Amnistía Internacional, la plataforma de redes sociales X desempeñó un papel central en la difusión de narrativas falsas y contenido dañino, lo que contribuyó a la violencia racista contra las comunidades musulmanas y migrantes en Gran Bretaña, tras el trágico asesinato de tres niñas en la ciudad de Southport el verano pasado.
El análisis técnico del código abierto de X, o software disponible públicamente, mostró que su sistema de recomendación, también conocido como algoritmos de clasificación de contenido, prioriza sistemáticamente el contenido que genera indignación, provoca acalorados intercambios, reacciones e interacción, sin las garantías adecuadas para prevenir o mitigar los daños.
"Nuestro análisis muestra que el diseño algorítmico y las decisiones políticas de X contribuyeron a un aumento de los riesgos en medio de una ola de violencia antimusulmana y antimigrante observada en varios lugares del Reino Unido el año pasado, que sigue representando un grave riesgo para los derechos humanos en la actualidad", declaró Pat de Brun, director de Responsabilidad de las Grandes Tecnológicas de Amnistía Internacional.
Según la investigación, mientras una publicación genere interacción, el algoritmo parece no tener ningún mecanismo para evaluar el potencial de causar daño, "al menos no hasta que suficientes usuarios la denuncien". "Estas características de diseño propiciaron el desarrollo de narrativas racistas incendiarias en X tras el ataque de Southport", añadió.
El estudio también señaló que una cuenta en X llamada "Invasión de Europa", conocida por publicar contenido antiinmigrante e islamófobo, publicó poco después de conocerse la noticia del ataque que el sospechoso "presuntamente era un inmigrante musulmán".
Se observó que la publicación obtuvo más de cuatro millones de visitas y, en 24 horas, todas las publicaciones de X que especulaban sobre la posibilidad de que el autor fuera musulmán, refugiado, extranjero o hubiera llegado en barco, registraron un estimado de 27 millones de impresiones.
Al afirmar que la tragedia de Southport se produjo en el contexto de importantes cambios de política y personal en X, el estudio señaló que, desde la toma de posesión de Elon Musk a finales de 2022, X ha despedido al personal de moderación de contenido, ha restablecido cuentas previamente bloqueadas, ha disuelto el Consejo Asesor de Confianza y Seguridad de Twitter y ha despedido a ingenieros de confianza y seguridad.
También se restablecieron numerosas cuentas que habían sido bloqueadas previamente por odio o acoso, incluida la de Stephen Yaxley-Lennon, figura de extrema derecha más conocida como Tommy Robinson.
*Traducido por Daniel Gallego.
El sitio web de la Agencia Anadolu contiene sólo una parte de las historias de noticias ofrecidas a los suscriptores en el Sistema de Difusión de AA News (HAS), y en forma resumida.