Si eres un "radical" o buscas contenido "extremista" en línea, las mayores redes sociales y compañías de Internet en la Tierra pronto te convertirán en un moderado dócil, o al menos lo intentarán.

Facebook, Google y Twitter han estado evaluando y filtrando "contenido extremista" durante años, pero el miércoles, los guardianes de Internet confirmaron al Congreso que están acelerando sus esfuerzos y se dirigirán a los usuarios que puedan estar expuestos a contenido extremista / terrorista, re-dirigiéndolos en cambio, a publicaciones "positivas y moderadas".

Representantes de las tres compañías testificaron ante el Comité Senatorial de Comercio, Ciencia y Transporte para delinear formas específicas en que están tratando de combatir el extremismo en línea.

Facebook, Google y Twitter no solo están retocando sus algoritmos para restringir ciertos tipos de contenido y mensajes violentos. También están utilizando el aprendizaje automático y la inteligencia artificial (AI) para fabricar lo que ellos llaman "contra discurso" (counterspeech), que tiene un sonido inquietantemente orwelliano. Esencialmente, su objetivo es atrapar a los extremistas florecientes, o las personas que se radicalizan en línea, y volver a diseñarlos a través de anuncios propagandísticos específicos.

Monika Bickert, directora de gestión de políticas globales de Facebook, declaró:

"Creemos que una parte clave de la lucha contra el extremismo es prevenir el reclutamiento al interrumpir las ideologías subyacentes que llevan a las personas a cometer actos de violencia. Es por eso que apoyamos una variedad de esfuerzos de contra discurso".

Mientras tanto, YouTube ha implementado algo llamado "Método de redirección", desarrollado por el grupo de investigación Jigsaw de Google. Con este protocolo, YouTube utiliza las métricas del historial de búsqueda para identificar a los usuarios que pueden estar interesados en el contenido extremista y luego utiliza la publicidad dirigida para contrarrestar el contenido "odioso" con contenido "positivo". YouTube también ha invertido en un programa llamado "Creadores para el cambio", un grupo de usuarios que hace videos que se oponen al discurso de odio y la violencia. Además, la plataforma de video ha modificado su algoritmo para reducir el alcance del contenido límite.

En su testimonio, Juniper Downs, jefe de políticas públicas de YouTube, dijo:

"Nuestros avances en el aprendizaje automático nos permiten reducir casi el 70% del contenido de extremismo violento en 8 horas de carga y casi la mitad en 2 horas".

En el blog oficial de YouTube, la compañía discutió cómo planean interrumpir el "embudo de radicalización" y cambiar de opinión a las personas. Los cuatro pasos incluyen:

  • "Ampliar la nueva funcionalidad del producto de YouTube a un conjunto más amplio de consultas de búsqueda en otros idiomas además del inglés.

  • Uso de aprendizaje automático para actualizar dinámicamente los términos de la consulta de búsqueda.

  • Trabajar con ONG expertas en el desarrollo de nuevo contenido de video diseñado para contrarrestar los mensajes extremistas violentos en diferentes partes del embudo de radicalización.

  • Colaborar con Jigsaw para expandir el 'Método de redireccionamiento' en Europa".

A partir del final del año pasado, la compañía ya había comenzado a alterar su algoritmo para que el 30% de sus videos fueran desmonetizados. La compañía había explicado que quería que YouTube fuera un lugar más seguro para que las marcas publicitaran, pero la medida ha enojado a muchos productores de contenido que generan ingresos con sus canales de video.

El esfuerzo por utilizar el aprendizaje automático y la Inteligencia Artificial como parte de un embudo de ingeniería social probablemente no sea nuevo, pero nunca lo hemos visto abiertamente manejado en gran escala por un consorcio corporativo influenciado por el gobierno. Por decir lo menos, es inquietante para muchos.

Un usuario comentó debajo de la publicación: "Entonces, si tienes una opinión que no es parte de la agenda, eres un terrorista. La libertad de expresión está muerta en YouTube".

Por su parte, el representante de Twitter le dijo al Congreso que desde 2015 la compañía había participado en más de 100 eventos de capacitación centrados en cómo reducir el impacto del contenido extremista en la plataforma.

En una publicación llamada "Introducción a las preguntas difíciles" en su blog, Facebook discutió el replanteamiento del "significado de la libertad de expresión". La publicación planteó una serie de preguntas hipotéticas, que incluyen:

  • ¿Cuán agresivamente deberían las compañías de medios sociales monitorear y eliminar publicaciones e imágenes polémicas de sus plataformas? ¿Quién decide qué es controvertido, especialmente en una comunidad global con una multitud de normas culturales?

  • ¿Quién puede definir qué es una noticia falsa, y cuál es el discurso político simplemente polémico?

Los tres gigantes tecnológicos han estado bajo el intenso escrutinio de los legisladores que sienten que las plataformas se han utilizado para sembrar división en línea e incluso reclutar terroristas locales. Si bien la idea de utilizar un algoritmo para combatir el extremismo en línea no es nueva, un frente unificado de Facebook, Google y Twitter nunca ha producido colectivamente propaganda original en línea, cuyos detalles y alcance siguen siendo vagos a pesar de los intentos de transparencia de las empresas.

Recientemente, en el Acta de Autorización de Defensa Nacional (NDAA) de 2012, fue el uso de la propaganda en el pueblo estadounidense por parte del gobierno formalmente legalizado. El entonces presidente Barack Obama continuó fortaleciendo la propaganda del gobierno al final de su administración con la distópica Ley de Contra-información y Propaganda de 2017, que creó una especie de Ministerio de la Verdad para la creación de las llamadas "narrativas basadas en hechos".

Parece que mientras el gobierno continúa fortaleciendo su potencial para llevar a cabo operaciones psicológicas (psyops), también está uniendo fuerzas con los gatekeepers del internet que pueden usar sus algoritmos para adoctrinar miles de millones de mentes en línea. Si bien se puede aplaudir el objetivo ostensible de frenar el reclutamiento de terroristas, el uso de psyops para la ingeniería social y el consentimiento de fabricación podría extenderse mucho más allá de la intención original.

Fuente: Anti-Media