El Twitter de Elon Musk se está apoyando fuertemente en la automatización para moderar el contenido, eliminando ciertas revisiones manuales y favoreciendo las restricciones en la distribución en lugar de eliminar ciertos discursos por completo, dijo a Reuters su nuevo jefe de confianza y seguridad.

Twitter también está restringiendo de manera más agresiva los hashtags propensos al abuso y los resultados de búsqueda en áreas que incluyen la explotación infantil, independientemente de los impactos potenciales en los «usos benignos» de esos términos, dijo la vicepresidenta de productos de confianza y seguridad de Twitter, Ella Irwin.

«Lo más importante que ha cambiado es que el equipo está totalmente facultado para moverse rápido y ser lo más agresivo posible», dijo Irwin el jueves, en la primera entrevista que un ejecutivo de Twitter ha dado desde la adquisición de la compañía de redes sociales por parte de Musk a fines de octubre.

Sus comentarios se producen cuando los investigadores informan un aumento en el discurso de odio en el servicio de redes sociales, luego de que Musk anunciara una amnistía para las cuentas suspendidas bajo el liderazgo anterior de la compañía que no habían infringido la ley ni se habían involucrado en «spam atroz».

La empresa se ha enfrentado a preguntas puntuales sobre su capacidad y voluntad para moderar el contenido dañino e ilegal desde que Musk recortó la mitad del personal de Twitter y emitió un ultimátum para trabajar muchas horas que resultó en la pérdida de cientos de empleados más.

Y los anunciantes, la principal fuente de ingresos de Twitter, han abandonado la plataforma por preocupaciones sobre la seguridad de la marca.

El viernes, Musk prometió «un refuerzo significativo de la moderación del contenido y la protección de la libertad de expresión» en una reunión con el presidente de Francia, Emmanuel Macron.

Irwin dijo que Musk alentó al equipo a preocuparse menos por cómo sus acciones afectarían el crecimiento de los usuarios o los ingresos, diciendo que la seguridad era la principal prioridad de la empresa. “Él enfatiza eso todos los días, varias veces al día”, dijo.

El enfoque de seguridad que describió Irwin refleja, al menos en parte, una aceleración de los cambios que ya se estaban planificando desde el año pasado en torno al manejo de Twitter de las conductas de odio y otras violaciones de políticas, según ex empleados familiarizados con ese trabajo.

Un enfoque, capturado en el mantra de la industria «libertad de expresión, no libertad de alcance», implica dejar ciertos tuits que violan las políticas de la empresa pero prohibir que aparezcan en lugares como la cronología de inicio y la búsqueda.

Twitter ha implementado durante mucho tiempo tales herramientas de «filtro de visibilidad» en torno a la información errónea y ya las había incorporado en su política oficial de conducta odiosa antes de la adquisición de Musk. El enfoque permite un discurso más libre al tiempo que reduce los daños potenciales asociados con el contenido abusivo viral.

La cantidad de tuits con contenido de odio en Twitter aumentó considerablemente en la semana anterior a que Musk tuiteara el 23 de noviembre que las impresiones o las opiniones sobre el discurso de odio estaban disminuyendo, según el Centro para Contrarrestar el Odio Digital, en un ejemplo de investigadores que señalan el prevalencia de dicho contenido, mientras que Musk promociona una reducción en la visibilidad.

Los tuits que contenían palabras que eran anti-negras esa semana triplicaron el número visto en el mes anterior a que Musk asumiera el control, mientras que los tuits que contenían un insulto gay aumentaron un 31 %, dijeron los investigadores.

‘MÁS RIESGOS, MUÉVETE RÁPIDO’

Irwin, quien se unió a la empresa en junio y anteriormente ocupó puestos de seguridad en otras empresas, incluidas Amazon.com y Google, rechazó las sugerencias de que Twitter no tenía los recursos o la voluntad de proteger la plataforma.

Ella dijo que los despidos no afectaron significativamente a los empleados o contratistas de tiempo completo que trabajan en lo que la compañía denominó sus divisiones de «Salud», incluso en «áreas críticas» como la seguridad infantil y la moderación de contenido.

Dos fuentes familiarizadas con los recortes dijeron que se despidió a más del 50 % de la unidad de ingeniería de Salud. Irwin no respondió de inmediato a una solicitud de comentarios sobre la afirmación, pero previamente negó que el equipo de Salud se haya visto gravemente afectado por los despidos.

Agregó que la cantidad de personas que trabajan en seguridad infantil no había cambiado desde la adquisición y que el gerente de producto del equipo todavía estaba allí. Irwin dijo que Twitter reemplazó algunos puestos para personas que dejaron la empresa, aunque se negó a proporcionar cifras específicas sobre el alcance de la rotación.

Ella dijo que Musk se centró en usar más la automatización, argumentando que la compañía se había equivocado en el pasado al usar revisiones humanas de contenido dañino que requerían mucho tiempo y trabajo.

«Él animó al equipo a tomar más riesgos, moverse rápido, asegurar la plataforma», dijo.

En cuanto a la seguridad de los niños, por ejemplo, Irwin dijo que Twitter se había desplazado hacia la eliminación automática de tuits informados por figuras confiables con un historial de marcar con precisión publicaciones dañinas.

Carolina Christofoletti, investigadora de inteligencia de amenazas en TRM Labs que se especializa en material de abuso sexual infantil, dijo que recientemente notó que Twitter eliminó algunos contenidos tan rápido como 30 segundos después de informarlos, sin acusar recibo de su informe o confirmación de su decisión.

En la entrevista del jueves, Irwin dijo que Twitter eliminó alrededor de 44,000 cuentas involucradas en violaciones de seguridad infantil, en colaboración con el grupo de seguridad cibernética Ghost Data.

Twitter también está restringiendo hashtags y resultados de búsqueda frecuentemente asociados con abuso, como aquellos destinados a buscar pornografía «adolescente». Las preocupaciones anteriores sobre el impacto de tales restricciones en los usos permitidos de los términos desaparecieron, dijo.

El uso de «reporteros de confianza» fue «algo que discutimos en el pasado en Twitter, pero hubo algunas dudas y, francamente, solo un poco de retraso», dijo Irwin.

«Creo que ahora tenemos la capacidad de seguir adelante con cosas como esa», dijo.

Fuente: Reuters