¿Quién sabía que conectar el mundo podría ser tan complicado? Quizás algunas de las mentes más brillantes de la tecnología deberían haberlo visto venir.

Las prohibiciones de las redes sociales del teórico de la conspiración Alex Jones han empujado a Facebook, YouTube, Twitter y otros a un papel que nunca quisieron: como guardianes del discurso en sus plataformas, decidiendo qué debería y no debería permitirse y enojando a casi todo el mundo en el proceso. Jones, un provocador derechista, de repente se encontró excluido de la mayoría de las principales plataformas sociales esta semana, después de años en los cuales era libre de usarlos para promulgar una variedad de afirmaciones falsas.

Twitter, que uno de sus ejecutivos una vez llamó el “ala de la libertad de expresión del partido de la libre expresión”, sigue siendo un solitario enfrentamiento con Jones. La reacción negativa resultante sugiere que no importa lo que hagan las compañías tecnológicas, “no hay forma de que puedan complacer a todos”, como observó Scott Shackelford, profesor de derecho comercial y ética en la Universidad de Indiana.

Alex Jones, conspirador estadounidense (Foto Consequence of Sound)

Mark Zuckerberg de Facebook, Jack Dorsey de Twitter y su equipo, y los administradores de Google de YouTube no pensaron en las consecuencias, ya que construyeron sus imperios con objetivos nobles para conectar el mundo y democratizar el discurso. En ese momento, eran los rebeldes que intentaban eludir a los viejos porteros (editores de periódicos, programadores de televisión y otros tipos de establecimientos) y dejar que las personas se comuniquen directamente entre sí.

“Si se remonta a una década más o menos, la idea de hablar en las redes sociales se vio como una luz altamente positiva”, dijo Tim Cigelske, que enseña redes sociales en la Universidad de Marquette en Wisconsin. Estaba la primavera árabe. Hubo historias de adolescentes homosexuales, lesbianas y transgénero de pueblos pequeños que encontraron apoyo en línea.

Al mismo tiempo, por supuesto, las compañías se apresuraron a construir el mayor público posible, dividir sus datos de usuario y obtener grandes ganancias convirtiendo esa información en publicidades dirigidas lucrativas.

El lado oscuro del discurso sin trabas, pensó, se resolvería solo a medida que las comunidades en línea se moderaran a sí mismas, ayudadas por algoritmos informáticos de rápida evolución y, finalmente, inteligencia artificial.

“Escalaron, construyeron, querían generar ingresos así como también la base de usuarios”, dijo el analista de tecnología Tim Bajarin, presidente de la consultora Creative Strategies. “Esa era la prioridad uno y controlar el contenido era la prioridad dos”. Debería haber sido al revés “.

Todo eso se volvió más difícil una vez que la elección del presidente Donald Trump enfocó nueva atención en noticias falsas y campañas organizadas de desinformación, sin mencionar el hecho de que algunas de las personas que agarraron estos nuevos megáfonos de medios sociales eran salvajes teóricos de la conspiración que , nacionalistas blancos que organizan manifestaciones violentas y hombres que amenazan a las mujeres con violaciones y asesinatos.

Si bien las plataformas pueden no haber anticipado la afluencia de discursos de odio y la intromisión de potencias extranjeras como Rusia, Corea del Norte y China, dijo Bajarin, deberían haber actuado más rápido una vez que lo encontraron. “El hecho es que estamos lidiando con un mundo nuevo y valiente que han permitido que suceda, y necesitan tomar más control para evitar que se propague”, dijo.

Es más fácil decirlo que hacerlo, por supuesto. Pero es particularmente difícil para las grandes compañías de tecnología equilibrar los bienes públicos, como la libertad de expresión, con la necesidad de proteger a sus usuarios del acoso, el abuso, las noticias falsas y la manipulación. Especialmente dado que sus modelos de negocio requieren que alienen a la menor cantidad posible de usuarios, para que no pongan en riesgo el flujo de dinero publicitario.

“Tratar de armar un marco de trabajo que funcione para todos, y asegurarnos de hacer cumplir efectivamente ese marco, es un desafío”, escribió Richard Allan, vicepresidente de políticas de Facebook, en una publicación de blog el jueves. “Cada política que tenemos se basa en tres principios básicos: dar voz a las personas, mantener a las personas seguras y tratar a las personas de manera equitativa. Las frustraciones que escuchamos sobre nuestras políticas, tanto externas como internas, provienen de la tensión inevitable entre estos tres principios “.

Tales tensiones obligan a algunas de las corporaciones más grandes del mundo a decidir, por ejemplo, si prohibir a los nazis también significa prohibir a los nacionalistas blancos y descubrir cómo diferenciarlos de no ser así. O si dar el pistoletazo de salida a Jones significa que deben prohibir a todos los proveedores de falsas teorías de conspiración. O si los comentarios racistas deberían permitirse si se publican, para hacer un comentario, por las personas que los recibieron.

“No creo que las plataformas en el fondo de su corazón quieran mantener a Alex Jones”, dijo Nathaniel Persily, profesor de la Facultad de Derecho de Stanford. “Pero es difícil encontrar un principio para decir por qué Alex Jones y otros no serían eliminados”.

Si bien la mayoría de las empresas tienen políticas contra el “discurso de odio”, definir qué constituye discurso de odio puede ser difícil, agregó. Incluso los gobiernos tienen problemas con eso. La libertad de expresión de un país es el discurso de odio de otro país, que se castiga con penas de cárcel.

Facebook, Twitter, Google, Reddit y otros se enfrentan a estas preguntas millones de veces al día, ya que los moderadores y algoritmos humanos deciden qué publicaciones, qué personas, qué fotos o videos permitir, para iniciar o simplemente hacen menos visibles y más difíciles de encontrar. Si permiten demasiado contenido dañino, corren el riesgo de perder usuarios y anunciantes. Si van demasiado lejos y eliminan demasiado, enfrentan cargos de censura y prejuicio ideológico.

“Mi sensación es que están tirando todo a la pared y viendo qué se pega”, dijo Persily. “Es un problema de whack-a-mole”. No son las mismas amenazas las que continúan, y tienen que ser lo suficientemente ágiles para enfrentar nuevos problemas”.

Con información AP