Facebook ha negado la mayor todos estos años. Bajo su escudo de red social para «conectar» personas, la empresa siempre ha negado tratar la información que alberga. No es un medio de comunicación, insistieron directivos cuando se les acechaba. Eso fue, sin embargo, antes de saltar el escándalo de las «noticias falsas» o «fake news» que, junto con el caso de las filtraciones Cambridge Analytica, han colocado a la mayor red social del mundo en una posición delicada.

Lleva seis meses intentando limpiar no solo su imagen sino su mundo virtual de «trolls» y manipuladores que han pervertido su plataforma. No quiere, por presiones sociales y gubernamentales, alojar contenidos que recurran a mala praxis y a mentiras para generar audiencia. La edad del «clickbait», nombre que se identifica a los titulares cebo para atraer, está llegando a su fin. Y Facebook no quiere que le pille el toro, por lo que lleva un tiempo ideado nuevas herramientas y procedimientos para evitar la propagación de este tipo de contenidos que, en muchas ocasiones, solo pretenden manipular a los usuarios.

Frente a ello, la multinacional estadounidense ha concretado más detalles de su herramienta para combatir las «fake news». La función, que empieza a desplegarse en la versión norteamericana, mostrará referencias y la procedencia de las publicaciones difundidas en el News Feed, la página de entrada de Facebook en donde se muestran las actualizaciones de contactos y páginas a las que se siguen. La idea es añadir «contexto» a los contenidos informativos, así como ofrecer detalles del medio del que procede la noticia. Esa información procederá, además, de la enciclopedia online Wikipedia, algo que ya ha anunciado por su parte Google en su canal de videos YouTube.

El objetivo, según un comunicado oficial de Facebook, es «agregar funciones adicionales para brindar más contexto a las personas para que puedan decidir por sí mismos qué leer, confiar y compartir en sus muros». Según la compañía tecnológica, esta información «ayuda» evaluar la credibilidad de un artículo y determinar si los usuario pueden confiar en la fuente de la noticia. «Estamos facilitando que las personas vean el contexto de un artículo, incluida la entrada de Wikipedia del editor, artículos relacionados sobre el mismo tema, información sobre cuántas veces se ha compartido el artículo en Facebook, dónde está compartido, así como una opción para seguir la página del medio», relatan Taylor Hughes (Ingeniero de Software),Jeff Smith (Diseñador de producto) y Alex Leavitt (experto en búsquedas).

Puede darse el caso que un editor en particular no disponga de su propia entrada en Wikipedia. Entonces, Facebook informará que no cuenta con esa información, lo que a juicio de los expertos de la compañía, «también puede aportar un contexto útil». Pese a estas medidas, desde Facebook desconocen si tendrán un efecto positivo entre los usuarios, aunque les servirá, según recalcan las mismas fuentes, para analizar si conocer cierta información del medio editor de la publicación contribuye a evaluar la credibilidad de un artículo en particular. Por ello, también podrán consultar artículos relacionados así como seguir directamente a la página del medio. «Esta información solo se mostrará si el editor ha implementado las pertinentes etiquetas de autor en su sitio web», añaden.

Facebook se encuentra en una encrucijada que le ha llevado a perder una enorme credibilidad en el último año. Su fundador, Mark Zuckerberg, además, está en el centro de las críticas hasta el punto que ya empiezan a surgrir voces autorizadas que piden su cabeza como solución a esta crisis. En una entrevista a la cadena «CNBC», Scott Stringer, uno de los principales inversores de Facebook, ha insistido en la idea que la junta directiva debe dar un paso al frente para evitar la dependencia de una sola persona (por Zuckerberg), con lo que insta al actual máximo responsable de la compañía, a abandonar su cargo. «Necesitamos directores independientes y directores que tengan experiencia en los datos y la ética».