Desinformación y disturbios tras la tragedia en Southport
Getty Images
La policía informó que la desinformación en línea ayudó a desencadenar un disturbio después de que tres niños fueron asesinados en Southport, Inglaterra. Este incidente ha seguido un patrón familiar: un ataque violento se produce, personas inocentes son asesinadas, y las redes sociales se inundan con acusaciones infundadas, a menudo incorrectas, sobre la identidad del agresor y sus motivaciones.
En el ataque del lunes durante una sesión de danza y yoga para niños, un falso nombre fue atribuido al acusado de 17 años que mató a tres niñas y dejó heridas a otros ocho niños y dos adultos. Este nombre se propagó rápidamente por X (anteriormente conocido como Twitter). La BBC no repetirá el nombre falso aquí para evitar la difusión de desinformación, y la Policía de Merseyside ha confirmado que el nombre compartido en redes sociales es incorrecto. A pesar de esto, las publicaciones en X que compartían el nombre falso fueron promovidas y acumularon millones de visualizaciones.
Falsedades que avivan la tensión social
Además del nombre falso, se hicieron afirmaciones incorrectas de que el atacante era un refugiado que llegó al Reino Unido en 2023 y especulaciones infundadas sobre su religión. La Policía de Merseyside ha aclarado que el sospechoso nació en Cardiff, de padres ruandeses, y no tiene vínculos conocidos con el islamismo. Aun así, estos rumores contribuyeron a envenenar la atmósfera en línea.
Si bien los posts falsos en redes sociales pueden haber alimentado las llamas de descontento en Southport, existen múltiples factores que contribuyeron al disturbio, que estuvo liderado por manifestantes con posturas antiinmigrantes y antiislámicas. Los discursos políticos, el racismo y la frustración más amplia sobre la inmigración también jugaron un papel importante. La decisión de algunos manifestantes de dirigirse a la mezquita de Southport sugiere que pudieron haber sido influenciados por acusaciones en línea que apuntaban a un ataque terrorista islamista.
Las redes sociales como catalizador de violencia
Hubo discusiones sobre la manifestación en canales regionales antiinmigrantes en la aplicación Telegram. Los movimientos de protesta suelen organizarse en grupos de chat cerrados. Sin embargo, las afirmaciones falsas sobre el ataque se expandieron más allá de los espacios en línea habituales donde se organizan dichos protestas, llegando a millones de usuarios de X.
Algunas cuentas que amplificaron estas ideas incluyeron comentaristas políticos prominentes, así como otras menos conocidas, pero que tienen la reputación de promover teorías de conspiración sin evidencia. Muchos de estos perfiles compraron verificaciones azules, lo que significa que sus publicaciones aparecen de manera más destacada en los feeds de otros usuarios. También han compartido variaciones de las afirmaciones falsas para impulsar ideas antiinmigratorias. Esto fue enfrentado por una reacción que denunciaba la especulación, aunque la respuesta tuvo menos visibilidad proporcionalmente que las afirmaciones originales.
La situación se complicó con el cambio de propiedad de la plataforma social por parte de Elon Musk, quien alteró la moderación del contenido falso y odioso, despidiendo a muchos empleados de estas áreas y introduciendo nuevas medidas que permitían que los usuarios verificaran hechos por sí mismos. Hasta ahora, X no ha respondido a las solicitudes de comentarios de la BBC. La empresa pública afirma que defiende y protege las voces de los usuarios en su plataforma. Aunque esto abarca mucho más que una avalancha de publicaciones en redes sociales, es una clara evidencia de cómo el mundo en línea puede exacerbar tensiones preexistentes en el mundo real, un mundo donde tres niñas han perdido trágicamente sus vidas.
Fuente y créditos: www.bbc.com
Cats: