Informes sobre Contenido Extremista en TikTok
ISD reportó esta cuenta, junto con 49 cuentas más, en junio por violar las políticas de TikTok sobre discurso de odio, fomento de la violencia contra grupos protegidos, promoción de ideologías odiosas, celebración de extremistas violentos y negación del Holocausto. En todos los casos, TikTok no encontró violaciones, y todas las cuentas inicialmente fueron permitidas para seguir activas.
Acciones de TikTok y Resultados
Un mes después, 23 de las cuentas fueron baneadas por TikTok, lo que indica que la plataforma está removiendo al menos algo de contenido y canales violadores con el tiempo. Antes de ser eliminadas, las 23 cuentas baneadas habían acumulado al menos 2 millones de vistas. Los investigadores también crearon nuevas cuentas de TikTok para entender cómo se promueve contenido nazi a nuevos usuarios mediante el poderoso algoritmo de TikTok.
Promoción de Contenido Extremista
Usando una cuenta creada a finales de mayo, los investigadores vieron 10 videos de la red de usuarios pro-nazis, haciendo clic ocasionalmente en las secciones de comentarios, pero evitando cualquier forma de compromiso real como dar “me gusta”, comentar o añadir a favoritos. Los investigadores también visualizaron 10 cuentas pro-nazis. Cuando luego cambiaron al feed “Para Ti” dentro de la aplicación, solo tomó tres videos para que el algoritmo sugiriera un video con un soldado nazi de la era de la Segunda Guerra Mundial superpuesto a un gráfico de tasas de homicidio en EE. UU., desglosadas por raza. Más tarde, apareció un video de un discurso traducido por IA de Hitler superpuesto a un cartel de reclutamiento de un grupo nacionalista blanco.
Desafíos para TikTok
Otra cuenta creada por investigadores de ISD vio aún más contenido extremista promovido en su feed principal, con un 70% de los videos provenientes de nazis autoidentificados o presentando propaganda nazi. Después de que la cuenta siguió a varias cuentas pro-nazis para acceder a contenido en canales configurados como privados, el algoritmo de TikTok también promovió otras cuentas nazis a seguir. Todas las primeras 10 cuentas recomendadas por TikTok a esta cuenta usaron simbología nazi o palabras clave en sus nombres de usuario o fotos de perfil, o presentaron propaganda nazi en sus videos.
“De ninguna manera esto es particularmente sorprendente,” dice Abbie Richards, una investigadora de desinformación especializada en TikTok. “Estas son cosas que hemos encontrado una y otra vez. Sin duda las he encontrado en mi investigación.” Richards escribió sobre contenido de supremacistas blancos y aceleracionistas militantes en la plataforma en 2022, incluyendo el caso del neo-nazi Paul Miller, quien, mientras cumplía una sentencia de 41 meses por cargos de armas de fuego, apareció en un video de TikTok que acumuló más de 5 millones de vistas y 700,000 “me gusta” durante los tres meses que estuvo en la plataforma antes de ser eliminado.
Marcus Bösch, un investigador de la Universidad de Hamburgo que monitorea TikTok, dice a WIRED que los hallazgos del informe “no son una gran sorpresa,” y no tiene esperanzas de que TikTok pueda hacer algo para resolver el problema. “No estoy seguro de dónde está exactamente el problema,” dice Bösch. “TikTok dice que tiene alrededor de 40,000 moderadores de contenido, y debería ser fácil entender violaciones de política tan obvias. Sin embargo, debido al volumen [de contenido] y la capacidad de los actores maliciosos para adaptarse rápidamente, estoy convencido de que el problema de desinformación no puede ser solucionado definitivamente, ni con IA ni con más moderadores.”
TikTok dice que ha completado un programa de mentoría con Tech Against Terrorism, un grupo que busca interrumpir la actividad en línea de los terroristas y ayuda a TikTok a identificar amenazas en línea. “A pesar de los pasos proactivos tomados, TikTok sigue siendo un objetivo de explotación por grupos extremistas a medida que su popularidad crece,” dice Adam Hadley, director ejecutivo de Tech Against Terrorism, a WIRED. “El estudio de ISD muestra que un pequeño número de extremistas violentos puede causar estragos en grandes plataformas debido a la asimetría adversarial. Este informe subraya la necesidad de inteligencia sobre amenazas entre plataformas apoyada por una moderación de contenido impulsada por IA mejorada. El informe también nos recuerda que Telegram también debería ser responsabilizada por su papel en el ecosistema extremista en línea.”
Como indica Hadley, los hallazgos del informe muestran que hay lagunas significativas en las políticas actuales de la compañía. “Siempre he descrito a TikTok, cuando se trata del uso de la extrema derecha, como una plataforma de mensajería,” dijo Richards. “Más que nada, se trata de repetición. Se trata de estar expuesto a la misma narrativa odiosa una y otra vez, porque en cierto punto comienzas a creer cosas después de verlas lo suficiente, y realmente comienzan a influir en tu visión del mundo.”
Fuente y créditos: www.wired.com
Cats: Politics,Politics / Politics News,moderation