En los últimos años las redes sociales se erigieron como una suerte de kiosko virtual al que acudir para informarse. Los hábitos de los consumidores han cambiado y, ahora, en muchas ocasiones, pasan por sus perfiles para consumir noticias al mismo tiempo en que disfrutan de divertimentos varios y entretenimiento. Pero si 2017 ha dejado clara una tendencia es que las firmas tecnológicas tratan, distribuyen y discriminan los contenidos informativos, lo que ha dado paso a una de sus mayores lacras, la presencia de las llamadas «fake news» o «noticias falsas».
Este tipo de contenidos han provocado un cisma en las redes sociales, en especial a Facebook, cuya evolución se ve, ahora, cuestionada desde varios sectores. ¿Qué responsabilidad tienen respecto a los enlaces que albergan? ¿Deben mejorar sus filtros para evitar la presencia de informaciones falsas o erróneas que pueden llegar a moldear el conocimiento e, incluso, influir en la mente de los votantes potenciales? Un escenario que ha generado cierta controversia en las sociedades occidentales.
La multinacional norteamericana ha continuado a lo largo del año depurando su estrategia para combatir las «fake news». Para introducir las muchas medidas que ha puesto en marcha se ha basado en una combinación de elementos informáticos (algoritmos) y humanos (equipo de revisores). Ahora, ha añadido dos cambios. La red social dejará de usar unos «indicadores» que identificaban de manera automática las noticias falsas. En cambio, introducirá una serie de artículos relacionados para intentar ayudar a los usuarios a disponer de un contexto sobre la historia compartida en cuestión. Una tarea de «fast checking» o «verificación de hechos» en base a enlaces de terceros. Con todo, y pese a la presencia de información malintencionada ese contenido no desaparecerá.
Según los datos que maneja la propia compañía, a partir del tercer día en que se empezó a difundir un contenido erróneo o directamente falso los usuarios, al disponer de un contexto informativo con garantías, dejan de compartir los enlaces entre el resto de contactos. Y, por tanto, su influencia mengua y va desapareciendo. Es decir, no se viraliza. Una investigación interna llevada a cabo por la propia compañía en colaboración con expertos académicos ha revelado que la «correción de la desinformación» mediante un indicador de advertencia al lado de un artículo supuestamente falso provoca el efecto contrario: afianza creencias profundamente arraigadas.
«Hemos detectado que cuando mostramos artículos relacionados al lado de una historia falsa, produce menos acciones que cuando se muestra una bandera de advertencia»
«Por el contrario, los artículos relacionados están diseñados simplemente para dar más contexto, lo que nuestra investigación ha demostrado es una forma más efectiva para ayudar a las personas a conocer los hechos. De hecho, hemos detectado que cuando mostramos artículos relacionados al lado de una historia falsa, produce menos acciones que cuando se muestra una bandera de advertencia», explica en un comunicado Tessa Lyons, responsable de producto de Facebook.
Otra iniciativa que ha puesto en marcha Facebook para reducir la presencia de contenidos malintencionados es intentar comprender las razones que empujan a las personas a decidir si una determinada información es precisa o no en función de las fuentes de noticias de las que dependen. Una media que, a corto plazo, no afectará directamente a News Feed, el muro de actualizaciones de la red social y, para muchos usuarios, la puerta de entrada. «Sin embargo, puede ayudarnos a medir mejor nuestro éxito en mejorar de la calidad de la información en Facebook a lo largo del tiempo», añade.
Facebook ha admitido que el auge de las noticias falsas socava la percepción social que tienen los usuarios de la red social, la mayor del mundo al albergar más de 2.000 millones de usuarios registrados. «Estamos invirtiendo en mejoras tecnológicas y más profesionales para ayudar a prevenir la propagación de desinformación. En general, estamos progresando. Descartar noticias erróneas es una de nuestra batalla porque los artículos falsos suelen pierden el 80% de su tráfico», sostiene Lyons.
ABC