La red social tiene dos meses para poner a disposición de asociaciones del país galo datos claros y concretos sobre su trabajo para eliminar la toxicidad de la plataforma
Las redes sociales llevan tiempo figurando como una de las herramientas más importantes que tiene a su disposición el usuario para comunicarse. Sin embargo, las plataformas no terminan de dar con la tecla para acabar con el discurso tóxico que se vierte en su interior. Ahora, el Tribunal Judicial de París, en Francia, ha ordenado a Twitter que proporcione detalles concretos y claros a asociaciones contrarias a la discriminación sobre los trabajos de la red social para frenar el discurso del odio en la plataforma.
Según el fallo judicial, al que ha tenido acceso la agencia Reuters, la medida llega después de que varios grupos de presión del país -entre los que figuran la asociación de estudiantes judíos franceses UEJF, SOS Racisme y SOS Homophobie- acusasen a Twitter de fallos «prolongados y persistentes» a la hora de bloquear los comentarios de odio en la red. El tribunal le ha dado dos meses de plazo a la red social afincada en San Francisco para compartir con las asociaciones la información demandada sobre los esfuerzos de la plataforma desde mayo de 2020.
Fuentes de Twitter señalan a ABC que, en estos momentos, la red social está revisando la decisión dictada por el tribunal. Asimismo, destaca su predisposición a cooperar: «Nuestra prioridad número uno es la seguridad de las personas que utilizan nuestro servicio. Estamos comprometidos a construir una Internet más segura, combatir el odio en línea y mejorar la salud de la conversación pública».
Un problema que viene de lejos
Esta no es, ni de lejos, la primera vez que la red social del pajarito es cuestionada por sus políticas sobre el contenido tóxico y el discurso del odio. El pasado 2018 la revista ‘Science’ compartió un estudio en el que se sostenía que en la plataforma las noticias falsas se esparcen seis veces más rápido que las verdaderas y que la ira es la emoción que se extiende con más rapidez. Estos fallos también son extensibles a otras plataformas, como Facebook, que ha sido duramente criticada por sus problemas a la hora de controlar la desinformación y las incitaciones al odio. Incluso la exitosa TikTok ha sido acusada recientemente de potenciar el contenido de usuarios afines a grupos extremistas estadounidenses, como es el caso de Qanon.
«Las redes sociales tienen responsabilidad a la hora de controlar el contenido. Tenemos un problema con los algoritmos encargados de moderar el contenido. Hemos dejado que una parte cada vez más importante de nuestra vida en manos de ellos, que son los que deciden lo que ocurre. Si vemos algo, se elimina una publicación o se bloquea una cuenta. Hasta el momento, Twitter siempre se ha justificado afirmando que es un espacio de libertad de expresión», explicaba recientemen a este periódico Fernando Checa, experto en redes sociales y marketing online y profesor en la Universidad Internacional de La Rioja (UNIR).
Durante los últimos meses, Twitter ha lanzado nuevas herramientas destinadas a combatir los insultos y los mensajes de odio en las conversaciones. Recientemente ha comenzado a mostrar notificaciones a los usuarios cuando su algoritmo detecta alguna palabra malsonante en un tuit antes de ser publicado. El objetivo es que el internauta se lo piense dos veces antes de proceder al envío.
ABC TECNOLOGIA