Críticas por la falta de criterio de una prueba de Facebook contra las noticias falsas

Numerosos usuarios de Facebook han criticado una prueba desarrollada por la red social contra las ‘fake news’ o noticias falsas en su plataforma a través de la que se destacaron de forma automática todos aquellos comentarios a publicaciones de noticias que incluían la palabra “falso”.

Según ha recogido el medio británico BBC, la prueba, ya finalizada, tenía como objetivo priorizar aquellos comentarios que mostrasen incredulidad ante historias publicadas en Facebook. Sin embargo, los escasos usuarios que han sido partícipes del test han comprobado cómo las listas de comentarios de publicaciones de medios como The Economist, The New York Times, The Guardian o la propia BBC estaban encabezadas por mensajes que incluían la palabra “falso”.

Tal y como han protestado los usuarios, la herramienta probada por Facebook priorizaba los comentarios que incluían este término de un modo automático en un amplio espectro de noticias e historias, tanto las que mostraban una sólida veracidad como aquellas que podrían ser falsas. Los mensajes destacados procedían de diversas personas que solo compartían el uso de la palabra “falso” en el texto, ha explicado el medio público británico.

Facebook ha confirmado a la BBC que esta prueba ya ha concluido, y es parte de su trabajo para “frenar la expansión de la desinformación” en su plataforma, dentro del que se incluye la puesta en marcha de tests que ayuden a encontrar “nuevas vías” de hacer frente a las noticias falsas. Así, la red social buscaba comprobar si “podría ayudar” que se priorizasen comentarios que indicasen incredulidad.