El propietario de Facebook, Meta Platforms Inc, compartirá más datos sobre las elecciones de orientación realizadas por los anunciantes que publican anuncios de temas políticos y sociales en su base de datos de anuncios públicos, informó este lunes.

Meta dijo que también incluiría información detallada de orientación para estos anuncios individuales en su base de datos «Facebook Open Research and Transparency» utilizada por investigadores académicos, en una expansión de un piloto lanzado el año pasado.

«En lugar de analizar cómo Facebook entregó un anuncio, realmente se trata de buscar una estrategia de anunciante para lo que estaban tratando de hacer», indicó Jeff King, vicepresidente de integridad comercial de Meta, en una entrevista telefónica.

El gigante de las redes sociales ha enfrentado presiones en los últimos años para brindar transparencia en torno a la publicidad dirigida en sus plataformas, particularmente en torno a las elecciones. En 2018, lanzó una biblioteca pública de anuncios, aunque algunos investigadores la criticaron por fallas y la falta de datos de orientación detallados.

Meta dijo que la biblioteca de anuncios pronto mostrará un resumen de la información de orientación para anuncios políticos, electorales o de temas sociales que se ejecutan en una página.

«Por ejemplo, la biblioteca de anuncios podría mostrar que durante los últimos 30 días, una página publicó 2000 anuncios sobre temas sociales, elecciones o política, y que el 40 % de su gasto en estos anuncios estaba dirigido a ‘personas que viven en Pensilvania’ o ‘personas que están interesadas en la política'», indicó Meta en una publicación de blog.

Meta agregó que la información adicional en la biblioteca de anuncios se añadirá en julio. Dijo que los datos para los investigadores examinados estarán disponibles a fines de mayo y mostrarán información desde agosto de 2020.

La empresa ha llevado a cabo varios programas con investigadores externos como parte de sus esfuerzos de transparencia. El año pasado, dijo que un error técnico significaba que se habían proporcionado datos defectuosos a los académicos en su proyecto «Social Science One».

En 2021, la compañía dijo que había inhabilitado las cuentas de un grupo de investigadores de la Universidad de Nueva York que estudiaban anuncios políticos en su plataforma debido a preocupaciones sobre la privacidad de los usuarios.

Fuente: Reuters