Cuando la violencia en Facebook traspasa la pantalla

CIUDAD DE MÉXICO

Acoso, daños morales y físicos, incluso muertes: la violencia en Facebook puede tener consecuencias dramáticas en la vida real.

Hannah Gittings sufrió una experiencia trágica el pasado 25 de agosto cuando acudió a una concentración en Kenosha (Wisconsin) con su pareja, Anthony Huber, en apoyo a Jacob Blake, un afroestadounidense herido de bala dos días antes por un policía blanco.

En poco tiempo, el cortejo pacífico se vio confrontado por una milicia de extrema derecha, la Kenosha Guard, que había llamado en Facebook a tomar las armas para «proteger» la ciudad. Pese a centenas de reportes, su página no había sido retirada.

Uno de los participantes, un adolescente de 17 años cargado con un fusil semiautomático, disparó a quemarropa sobre un manifestante y lo mató. Huber se precipitó entonces sobre el joven para quitarle el arma, pero fue abatido frente a los ojos de su novia.

«La página (Kenosha Guard) no solo fue mantenida, sino que fue juzgada como no peligrosa pese a que los miembros incitaban abiertamente a la violencia diciendo que iban a disparar a los negros y ‘alborotadores'», afirmó emocionada Gittings durante una reciente conferencia de prensa organizada por la ONG Avaaz.

La mujer lanzó en septiembre acciones legales contra Facebook, indignada por los comentarios de su máximo responsable, Mark Zuckerberg, quien calificó la no supresión de la página de Kenosha Guard como un «error de funcionamiento».

Desde las masacres de los rohinyás en Birmania al reciente asesinato del profesor Samuel Paty en Francia, llamados a la violencia en Facebook se han traducido en dramas.

«Trabajamos sin descanso para mejorar nuestra tecnología y reforzar nuestras medidas cuando es necesario con el fin de eliminar los contenidos peligrosos de nuestra plataforma», aseguró un portavoz de Facebook a la AFP.

La plataforma afirma haber multiplicado sus iniciativas para limpiar los intercambios. Especialmente, tomó enérgicas medidas contra los movimientos racistas o conspirativos como QAnon, desmanteló redes de manipulación e invirtió en un programa de verificación de informaciones por terceros.

El gigante tecnológico dice haber identificado más de 600 grupos paramilitares desde agosto y suprimido más de 22 millones de publicaciones con contenido de odio este verano.

Pero para muchos, es muy poco y muy tarde.

Según un estudio realizado en octubre por SurveyUSA, el 65% de los estadounidenses preguntados vieron aparecer en su muro de Facebook mensajes políticos engañosos durante la campaña presidencial y un cuarto entre ellos los creyó.

Joyce Jones lo sufrió en su propia piel durante la campaña municipal en Montevallo, Alabama, donde se presentó como candidata en agosto.

«Hicimos un debate con mi oponente un martes por la noche y cuando me desperté al día siguiente descubrí (en Facebook) que yo estaba a favor de suprimir los presupuestos de la policía», recordó esta afroestadounidense.

«Fui la primera sorprendida, porque jamás dije algo así», precisó Jones, que se vio sobrepasada por el flujo de informaciones falsas sin filtrar por la red social.

Y el día del escrutinio, su abuela no pudo acceder a la oficina de voto porque llevaba una camiseta con el nombre de su nieta, una práctica sin embargo autorizada.

«Mark Zuckerberg y otros directivos deben comprender que lo que pasa en Facebook no se queda solo en Facebook», insistió Jones.

«Se viene con nosotros a casa, a la tienda o a nuestro trabajo. Y afecta a nuestros hijos», añadió.

Para Mark Potok, del Centro de Análisis de la Derecha Radical, la supresión total de los contenidos difundidos por los grupos extremistas en las redes sociales es una quimera.

«Publican una cantidad enorme al día», recordó el experto. «Dudo que las empresas puedan erradicar su influencia».

Seguidor de Donald Trump, el padre de Kristin Urquiza murió en junio tras contraer el nuevo coronavirus.

La página de homenaje abierta por su hija fue inundada por mensajes que cuestionaban la eficacia de las mascarillas, el distanciamiento social o la propia existencia de la enfermedad.

«Puede que Facebook no haya apretado el gatillo, pero sí condujo el auto de huida», describió Urquiza, muy molesta contra el algoritmo de la red social, que favorece según ella y numerosos expertos, los contenidos mentirosos y peligrosos, más susceptibles de captar el interés de los usuarios.

La ONG Avaaz milita por una modificación del algoritmo para que se haga menos «tóxico», para obtener una política más rigurosa de supresión de las cuentas de grupos nocivos y para que se incluyan más moderadores de contenido y estos sean mejor tratados.

Related Articles

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *