Mark Zuckerberg, CEO de Facebook (que también es propietario de otras redes sociales como Instagram y WhatsApp), testificó esta semana ante el Senado y el Congreso de los EEUU.

El escándalo de Cambridge Analytica fue el último de varios escándalos consecutivos que salpicaron a la red social de forma general y a Zuckerberg de forma particular. Vamos a resumir todo lo que ha ocurrido, polémica a polémica, para que pueda entenderse el contexto y por qué, por primera vez en todo este tiempo, Mark Zuckerberg abre la puerta a una posible regulación para su servicio.

El caso de Cambridge Analytica

Cambridge Analytica es una empresa británica creada en 2013 dedicada al análisis y minería de datos. Steve Bannon, editor del diario conservador Breitbart y ex-asesor de Trump, fue uno de sus inversores y responsables antes de comenzar a trabajar para el Presidente. Bannon consiguió convencer a Robert Mercer, multimillonario conservador, para financiara el proyecto.

La compañía ha colaborado en diversas campañas políticas en Estados Unidos, incluida la de Donald Trump, y también en la campaña a favor del Brexit en Reino Unido.

Ha sido ampliamente criticada por su forma de trabajar.

¿Qué tiene que ver con Facebook?

Cambridge Analytica utilizó datos para sus actividades comerciales que proceden de Facebook y han sido obtenidos de una forma que vulnera los términos de uso.

¿Qué pinta Rusia en todo esto?

No está muy claro pero Aleksandr Kogan, el científico de datos que creó el test, es ruso y recibió varias becas por parte del Gobierno de dicho país para estudiar los estados emocionales de la gente en Facebook. Él asegura que es inocente y que Cambridge Analytica le aseguró que todo era legal. Cambridge Analytica, por su parte, insiste en que no ha hecho negocios con Rusia, pero hay documentación que muestra como cliente a una petrolera rusa y una pequeña empresa con lazos con el Kremlin. Este punto todavía no está nada claro.

¿Cómo consiguieron los datos?

Antes de 2014, Facebook permitía a aplicaciones con fines de investigación recopilaran datos de los usuarios que consintieran el acceso a la app en cuestión y también de sus amigos (que no tenían que consentir nada). Nótese que en esta frase hay dos partes importantes:

  • Los datos sólo se podían utilizar para investigación: no podían venderse ni utilizarse con fines comerciales. Cambridge Analytica no cumplió esta parte, según Facebook.
  • Aunque tú no dieras acceso a la app para que consultara tus datos, bastaba con que uno de tus amigos lo hiciera.

Cambridge Analytica, a través de una aplicación aparentemente inofensiva que hacía un supuesto test de personalidad (ThisIsYourDigitalLife), pagó en 2013 para que 270.000 usuarios hicieran el test, dando acceso además a los datos de todos sus amigos.

¿Sigue siendo posible acceder a datos de esta forma?

A nuevos datos, no: Facebook restringió la API en 2014 para que no pudiera accederse tan fácil a los datos de los amigos de una cuenta sin su permiso. Pero los datos recopilados durante 2013 y 2014 son los que Cambridge Analytica está usando.

¿A los datos de cuántas cuentas ha accedido entonces Cambridge Analytica?

Aunque 270.000 usuarios le dieron permisos, hay que contar también los datos de sus amigos. Se cree que han accedido a los datos de más de 87 millones de personas. La mayoría son perfiles procedentes de Estados Unidos, pero la red social calcula que 2,7 millones de cuentas son de la Unión Europea y que más de 780.000 son cuentas de usuarios mexicanos.

¿A qué datos tuvo acceso Cambridge Analytica?

Básicamente a toda la información que fuera accesible para los amigos de los perfiles (tanto de la gente que dio permiso como de la que no, insisto) a los que tuvieron acceso. Esto incluye pero no se limita a: publicaciones, cumpleaños, intereses, "me gusta", fotografías, religión, estado sentimental, localización...

A partir de estos datos, pueden crearse (con mayor o menor exactitud) patrones psicológicos.

Pero no sólo eso: según Facebook confirma, unas 305.000 personas dieron permiso a la app para leer mensajes privados. Cambridge Analytica lo niega.

¿Para qué usó esos datos?

Según la propia Cambridge Analytica, no para las elecciones, pero lo cierto es que no hay forma de comprobarlo.

¿Qué hizo Facebook cuando se enteró de las actividades de Cambridge Analytica en 2015?

En 2015 saltó la noticia de que el equipo de Ted Cruz, candidato del partido republicano de EEUU en las primarias, estaba utilizando datos que Cambridge Analytica había conseguido sin permiso.

Cuando en Facebook se enteraron a finales de 2015, contactaron con Cambridge Analytica y con GSR (la compañía que creó inicialmente el test) para pedir que borrara todos los datos. Comprobaron después que fue así pero algo no les debió convencer ya que en 2016 demandaron a GSR por comerciar con datos obtenidos de forma ilegal. En 2017, GSR se dejaba auditar para confirmar que ya no guardaban esos datos.

Según el diario New York Times, los datos todavía siguen disponibles y ellos mismos han tenido acceso.

¿Qué hizo Facebook cuando se publicaron más detalles sobre Cambridge Analytica hace unas semanas?

Lo primero de todo, amenazar legalmente a los periodistas que iban a publicar la noticia original, según reconocieron los propios periodistas de The Guardian y confirmaba después una ejecutiva asegurando que "no fue su movimiento más sabio".

Tras la publicación y varios días de silencio, Zuckerberg aparecía en público reconociendo los errores. El fundador de Facebook, no muy propenso a ofrecer entrevistas, dio un tour por varios medios en las que entonaba el "mea culpa" y anunciaba tres nuevas medidas para evitar que esto se volviera a repetir.

Cambridge Analytica, pese a lo que se publicó en 2015, no fue baneada de Facebook hasta después de que la polémica resurgiera en 2018. La red social tampoco notificó a los usuarios afectados hasta entonces, pese a saber que se había producido un uso no autorizado de los datos de millones de sus usuarios.

¿Por qué testificó Mark Zuckerberg ante el Senado?

Tras la polémica, Mark Zuckerberg fue convocado por el Senado (comité Jurídico y Comité de Comercio, Ciencia y Transporte) y por el Congreso de Estados Unidos para dar explicaciones sobre todo lo que ha ocurrido. Durante su intervención recitó de memoria el discurso que tenía preparado y respondió a las preguntas, también bastante preparadas, de los distintos senadores.

Las otras polémicas: Fake News y ¿penaliza Facebook los contenidos más conservadores y cristianos?

A pesar de que el motivo principal de la comparecencia de Mark Zuckerberg ante el Senado fue lo ocurrido con Cambridge Analytica, algunos senadores aprovecharon la oportunidad para hacer referencia y pedir más información sobre otros dos de los escándalos más recientes.

Ted Cruz, senador republicano que fue el protagonista de la polémica de Cambridge Analytica de 2015, fue bastante listo y no preguntó a Zuckerberg sobre las relaciones con la compañía, sino que giró la discusión hacia el papel editorial de Facebook y si existe diversidad política entre los trabajadores de la red social que se encargan de moderar el contenido.

Se trata de una polémica que surgió en 2016 después de que Gizmodo publicara una exclusiva en la que ex-empleados de Facebook reconocían manipular manualmente los Trending Topics que destacaban los contenidos más comentados en cada momento.

En concreto, dichos trabajadores aseguraban restar manualmente visibilidad a las noticias políticas de caracter conservador. No había órdenes de los jefes para hacerlo, pero aquí intervenía las preferencias personales de cada empleado. Esto no gustó nada a los políticos conservadores de Washington.

En 2017, Facebook rediseñó el funcionamiento de estos temas del momento para que su selección fuera automática y no manual. Esto introdujo problemas adicionales: algunas noticias falsas conseguían colarse y aparecer en el ranking.

Fuente: https://youtu.be/BSG4cbKSd9U

Fuente: https://youtu.be/_Pn361V9UtM

Y llegamos quizá al problema más gordo al que Facebook se ha enfrentado en los últimos meses: el de las noticias falsas. Durante las elecciones a la Presidencia de Estados Unidos, numerosos medios falsos se dedicaron a difundir información falsa con el fin de influir en la decisión de los votantes. La plataforma principal que utilizaron: Facebook.

Si bien Zuckerberg respondió inicialmente asegurando que ellos no habían tenido nada que ver y que la influencia de las noticias falsas no había sido significativa, las numerosas críticas y la supuesta división dentro de la compañía le obligaron a tomar partido y ser más rotundo al respecto. Y ahí surgió el debate: ¿deben ser las redes sociales las que decidan si algo es falso o verídico?

Otra de las grandes preguntas que surgió a continuación: ¿quién está detrás de las noticias falsas? Sí, hay gente que supuestamente está haciendo negocio con ellas, pero el gran problema parece ser la implicación de Rusia. Y es que, según el FBI y el Senado de EEUU, Rusia está detrás de esta campaña de desinformación.

Todavía faltan muchos datos por hacer públicos, pero Facebook ha reconocido que la "granja de trolls" rusa se dejó 100.000 dólares en publicidad y propaganda durante las pasadas elecciones. Zuckerberg asumía estos días los "errores" y el no haber tomado medidas para evitar la proliferación de estas historias. Aunque en su día también pidieron a Facebook testificar ante el Congreso y el Senado, en los comités participaron algunos de sus empleados, nunca el propio Zuckerberg.

La influencia de Facebook va todavía más allá

¿Cómo de influyente es Facebook en política internacional? Según investigadores de la ONU, mucho. La red social ha sido acusada hace tan sólo unas semanas de ayudar a difundir el discurso del odio en Myanmar, borrando publicaciones de los activistas que denunciaban las acciones violentas del Gobierno. Zuckerberg respondía a las acusaciones asegurando que mejorarían el sistema que trata los reportes y que añadirían nuevos moderadores que hablaran el lenguaje para revisar los contenidos.

También Zuckerberg ha recibido críticas por permitir que otros gobiernos utilicen Facebook para censurar y desinformar, además de ayudar a la proliferación de regímenes violentos y opresivos, como es el caso de Filipinas.

Entre 2016 y 2018, Mark Zuckerberg se ha enfrentado a todas las polémicas que acabamos de describir, y lo que haga de ahora en adelante posiblemente marque el camino que seguirá Facebook durante los últimos años. Estamos en un punto de inflexión en el que a Zuckerberg le va a tocar tomar decisiones difíciles. Ya vimos algunas cosas de las que dijo ayer por encima pero que nos dan alguna pista: no cierra la puerta a las regulaciones externas (siempre que sean buenas regulaciones) y considera que Facebook es responsable de los contenidos (frente a la aproximación anterior de que ellos simplemente eran una plataforma).

Fuente: Xataka

Zuckerberg admite que está desarrollando inteligencia artificial para censurar contenido

Durante los dos días de testimonio, el plan para usar IA algorítmica para posibles prácticas de censura fue discutido varias veces bajo los auspicios de evitar los discursos de odio, noticias falsas, interferencia electoral, anuncios discriminatorios y mensajes terroristas. De hecho, AI fue mencionado al menos 30 veces. Zuckerberg afirmó que Facebook está a cinco o diez años de una sólida plataforma de inteligencia artificial. Los otros cuatro conglomerados tecnológicos de Big 5 - Google, Amazon, Apple y Microsoft - también están desarrollando inteligencia artificial, muchos de ellos con el objetivo compartido de controlar el contenido.

Por razones obvias, esto debería preocupar a los activistas de la libertad civil y a cualquier persona preocupada por la erosión de los derechos de la primera enmienda en línea. El espectro que invade una alianza de propaganda corporativa-gubernamental no es una teoría de conspiración. Hace apenas un mes, Facebook, Google y Twitter testificaron ante el Congreso para anunciar el lanzamiento de una campaña de "contraespionaje" en la que los mensajes positivos y moderados estarán dirigidos a personas que consumen y producen contenido extremista o radical.

Al igual que las otras redes sociales importantes, Facebook ya ha sido atacado por acusaciones de censura contra fuentes de noticias conservadoras y alternativas. La Electronic Frontier Foundation (EFF) destacó algunos otros ejemplos de la "censura exagerada" de la compañía en el último año:

"Los periodistas de alto perfil en Palestina, Vietnam y Egipto se han encontrado con un aumento significativo en la eliminación de contenido y la suspensión de cuentas, con pocas explicaciones ofrecidas fuera de una carta genérica de 'Estándares comunitarios'. El discurso civil sobre el racismo y el acoso a menudo es etiquetado como "discurso de odio" y censurado. Por ejemplo, se eliminaron los informes de violaciones de derechos humanos en Siria y en contra de los musulmanes Rohingya en Myanmar, a pesar del hecho de que este es el contenido esencial de un periodista sobre asuntos de gran interés público mundial".

Para ser claros, AI ya está trabajando para Facebook.

"Hoy, mientras estamos aquí sentados, el 99% del contenido de ISIS y Al Qaeda que derribamos en Facebook, nuestra bandera de sistemas de inteligencia artificial antes de que cualquier ser humano lo vea", dijo Zuckerberg.

¿Es acaso posible que los 'guardianes de la información' como Facebook y Google usen la inteligencia artificial para regular el contenido sin practicar la censura? Como señala EFF, "el software de toma de decisiones tiende a reflejar los prejuicios de sus creadores y, por supuesto, los prejuicios incrustados en sus datos".

Por supuesto, en una época en que nuestro gobierno parece ser una corporatocracia con una puerta giratoria entre Silicon Valley y el Departamento de Estado, una discusión sobre la censura corporativa incluye invariablemente un reconocimiento de propaganda gubernamental, que oficialmente se legalizó en 2012 bajo el NDAA de Obama.

¿Es realista para nosotros no esperar una superposición entre lo que el gobierno quiere que creamos y lo que las corporaciones permiten como libertad de expresión?

En un momento dado durante su testimonio, un senador le preguntó a Zuckerberg si cree que Facebook es más confiable con los datos de los usuarios que el gobierno. Después de una larga pausa, Zuckerberg respondió: "Sí". Este momento ha sido completamente pasado por alto, pero Zuckerberg esencialmente confirmó en una palabra que a pesar de toda la charla sobre violaciones a la privacidad, todavía cree que el gobierno es peor en materia de privacidad. Y después de todo lo que Edward Snowden y Wikileaks nos revelaron, ¿está equivocado?

Más importante aún, dado que AI albergará los sesgos y valores de la entidad que lo crea, ¿por qué supondríamos que la IA hará que los humanos sean más seguros? AI (al menos AI temprana) hará las pujas de su creador. Si bien el aprendizaje automático puede ser el futuro árbitro de la libertad de expresión, serán los programadores corporativos y gubernamentales quienes determinen sus protocolos. Y como ya sabemos, los derechos de los ciudadanos y los derechos de los tecnócratas no son lo mismo.

Fuente: The Anti Media