Un apagón mundial que dejó a 2900 millones de personas desconectadas. El flujo de información y de intercambio comercial y financiero frenado por más de cinco horas. La corporación Facebook Inc. es el mayor continente del planeta. Todos le temen. Analizamos por qué.
Cuando Mark Zuckerberg dio a conocer en marzo de 2019 su nueva visión de empresa para Facebook “centrada en la privacidad», citó a WhatsApp como modelo.
Ahí dijo, en una suerte de mea culpa, que Facebook «no tiene una sólida imagen en eso de proteger la privacidad de sus servicios», y agregó: “creo que el futuro de la comunicaciones tendrá cada vez más servicios privados y encriptados, donde la gente pueda estar segura de que lo que envía y recibe se mantiene seguro, y que sus mensajes y contenidos no se quedarán ahí para siempre. Nuestro modelo es WhatsApp”
¿Cuál era ese ‘valor’ modélico del servicio de mensajería WhatsApp, que la empresa prometía en 2019 trasladarlo a Instagram y a Facebook Messenger?
El cifrado de extremo a extremo, que convierte todos los mensajes en un formato ilegible, y que sólo se desbloquea cuando llegan a los destinatarios previstos. “Los mensajes de WhatsApp son tan seguros, dijo, que nadie más -ni siquiera la empresa- puede leer una palabra”. Esto mismo lo había dicho en un declaración testimonial ante el Senado de EE.UU en 2018. Y para no dejar lugar a dudas, aparece una frase en ese sentido en la pantalla de los usuarios («Nadie fuera de este chat, ni siquiera WhatsApp, puede leerlos o escucharlos”).
¿Y entonces, si es así, para qué tienen más de 1000 trabajadores contratados que llenan pisos de oficinas en Austin, Texas, Dublin y Singapur ?
Sentados en sus cubículos, son jueces. Su tarea, con un software especial de Facebook, es pasar por un filtro millones de mensajes privados, imágenes y videos. Ellos, en menos de un minuto, juzgan desde sus pantallas reclamos por fraude o spam, pornografía infantil y lo que consideren como potencialmente relacionado con conspiraciones terroristas.
Los trabajadores que hacen esa tarea tienen acceso sólo a un subconjunto de mensajes de WhatsApp, aquellos que los usuarios marcaron como ‘no deseados’, y que automáticamente los recibe la empresa como presuntamente abusivos. Esa revisión es solo un elemento de una operación de monitoreo más amplia, porque por su parte la compañía también revisa material que no está cifrado, incluyendo datos sobre el remitente y su cuenta.
Indudablemente, vigilar a los usuarios mientras les aseguras que su privacidad es sacrosanta pone a WhatsApp en un lugar incómodo.
El director de comunicaciones de WhatsApp, Carl Woog, reconoció que tienen equipos de trabajadores contratados en Austin y otros lugares, que revisan los mensajes de WhatsApp para identificar y eliminar a «los peores» abusadores. Sin embargo, negó que tengan una política de moderación de contenido, e incluso dijo «WhatsApp es un salvavidas para millones de personas en todo el mundo»
La insistente negativa de que WhatsApp revisa el contenido de los mensajes contrasta absolutamente con lo que ocurre con los otros dos productos de la corporación Facebook Inc., porque la propia empresa reconoce que tiene un escuadrón de 15.000 moderadores que examinan el contenido de Instagram y Facebook, que en ningún caso es crifrado, y por ello mismo es que publican un informe trimestral de “transparencia” donde detallan cuántas cuentas de Facebook e Instagram han intervenido por su contenido inapropiado. No existe un informe de ese tipo para WhatsApp.
Implementar un ejército de trabajadores dedicados a revisar contenidos es solo una de las formas en que la corporación Facebook Inc. ha comprometido la privacidad de los 2 mil millones de usuarios de WhatsApp. Lo cierto es que la app es mucho menos privada de lo que sus usuarios probablemente entienden o esperan.
Una investigación de ProPublica, basada en datos, documentos y docenas de entrevistas con empleados y contratados, actuales y otros que han pasado por la empresa, revela cómo, desde la compra de WhatsApp en 2014, Facebook ha socavado silenciosamente y de múltiples maneras sus supuestas garantías de seguridad. Lo que está en juego, además de violar el pacto de privacidad, es saber qué hace Facebook Inc. con la información que captura.
Los empleados contratados para moderar contenidos en WhatsApp avalan, desde el anonimato (veremos por qué), una denuncia que fue presentada el año pasado ante la Comisión de Valores y Bolsa de EE.UU, en la que se menciona el uso de sistemas digitales y de seguimiento detallado de cuentas de WhatsApp. Esos programas analizan los videos, las imágenes y los mensajes que envían los usuarios. Por supuesto, la empresa lo negó. La Comisión de Valores (la SEC) no tomó acciones al respecto.
Facebook Inc. minimizó la cantidad de datos que recopila de los usuarios de WhatsApp, lo que hace con ellos, y cuánto de eso comparte con las fuerzas de seguridad. Por ejemplo, WhatsApp comparte con el Departamento de Justicia los metadatos, registros no cifrados que pueden revelar mucho sobre la actividad de un usuario.
Algunos rivales, como Signal, recopilan intencionadamente muchos menos metadatos de sus usuarios, y por lo tanto comparten mucho menos con el Estado.
La empresa puso como ejemplo positivo que ese análisis de información privada ayudó a los fiscales a construir un caso contra una empleada del Departamento del Tesoro (Natalie ‘May’ Edwards) que filtró documentos confidenciales al sitio BuzzFeed News, donde puso al descubierto cómo el dinero sucio fluye a través de los bancos de Estados Unidos. La mujer fue a la cárcel en septiembre 2021.
Para Will Cathcart, jefe de WhatsApp, no tiene nada de contradictorio que le empresa entregue información privada a las fuerzas del orden.
La tensión entre la privacidad y la difusión de esa información tiene otro aspecto: los dueños de WhatsApp son los dueños de Facebook, que pagaron 22 mil millones de dólares en 2014 para quedarse con WhatsApp y quieren hacer dinero con un servicio de mensajería que como cualquiera sabe, es gratuito.
Ya en 2016 el objetivo era monetizar la app compartiendo datos con Facebook, algo que frenó la Unión Europea al sostener que era tecnológicamente imposible.
Ese enigma de cómo facturar con una aplicación que se define ‘gratuita’ tuvo constantes oleadas de ira de los usuarios, o de los organismos reguladores, o de ambos. Nadie olvida el plan de 2019, que finalmente fue descartado poco antes de la pandemia, al igual que el escándalo internacional por aquella nueva política de privacidad que iba a permitir que las interacciones de los usuarios con las empresas, usando WhatsApp, les permitiera a las empresas utilizar los datos de los clientes. El éxodo que desencadenó fue notable: Telegram que nació en 2013 pasó a tener más de 500 millones de usuarios.
El plan de negocios de Facebook Inc. para su ‘hija’ WhatsApp es cada vez más agresivo: se centra en cobrar a las empresas por una variedad de servicios, por ejemplo, le permite a los usuarios hacer pagos a través de WhatsApp y gestionar chats de servicios empresarios (en Argentina, se expandió notablemente durante la pandemia el servicio de WhatsApp del Gobierno de la Ciudad de Buenos Aires, de la empresa Aerolíneas Argentinas, etc). Eso ha generado comodidad pero menos protecciones de privacidad. Hay un confuso sistema de privacidad de dos niveles dentro de la misma aplicación, porque las protecciones ofrecidas para los mensajes ‘de extremo a extremo’ se resquebrajan cuando los usuarios de WhatsApp se comunican con WhatsApp de empresas.
TU CONTENIDO, MI CONTENIDO
Las entrevistas con 29 moderadores de WhatsApp revelan que, en muchos sentidos, la experiencia de ser un moderador de contenido en la sede de Austin es idéntica a ser un moderador para Facebook o Instagram. La mayoría tiene entre 20 y poco más de 30 años, muchos con experiencia como vendedores, o baristas, o empleados de supermercado. Su contratista es Accenture, un gigante del tema recursos humanos que tiene como cliente a Facebook.
Los avisos en busca de empleados dicen que es para el área “Content Review” o sea, «Revisión de Contenido», y no hacen mención de Facebook o WhatsApp. En los papeles, el trabajador cotratado figura como “content moderation associate”, o sea “moderador de contenido», para lo cual reciben capacitación, pero deben firmar un acuerdo donde dice que trabajan para Accenture, y con cláusula de confidencialidad/no divulgación. El pago es de U$S 16,50 la hora (un 20% más que el valor medio de la hora de trabajo en Austin).
En conjunto, este gran equipo de 1000 trabajadores informáticos (podrían ser más porque solo para Accenture trabaja esa cantidad) examinan millones de piezas de contenido de WhatsApp por semana, utilizando una herramienta de software de Facebook, pensada para examinar un flujo de «tickets», organizados por individuo, en dos paquetes o colas: «reactivas» y «proactivas».
Cada contratado debe ver unos 600 por día, lo que implica menos de un minuto por ‘ticket’. Se espera que los moderadores de WhatsApp, al igual que sus homólogos de Facebook e Instagram, cumplan con las métricas de rendimiento de velocidad y precisión, que son auditadas por Accenture. Una cinta transportadora virtual que en vez de llevar motores, tornillos o paquetes, lleva mensajes.
A diferencia de lo que pasa con Facebook e Instagram, como el contenido de WhatsApp está cifrado, los sistemas de inteligencia artificial no pueden escanear automáticamente todos los chats, imágenes y videos. Acceden a ellos cuando los usuarios presionan el botón «reportar» en la aplicación, identificando un mensaje como una supuesta violación de los términos de servicio de la plataforma. Esto reenvía a WhatsApp cinco mensajes: el supuestamente ofensivo más los cuatro anteriores en el intercambio, incluyendo imágenes o videos; llegan descifrados y es ahí que los sistemas informáticos los ponen en el paquete o cola de ‘mensajes reactivos’ y lo derivan para que los moderadores evalúen.
La otra parte son los lotes de mensajes ‘proactivos’ que el algoritmo informático de WhatsApp escanea y por el cual recopila datos no cifrados de sus usuarios, y los compara con información de cuenta sospechosa. También el algoritmo regula las cuentas que mandan un gran volumen de chats -spam-, y analiza imágenes que a priori se han considerado inapropiadas.
¿Qué información no está encriptada y está disponible para el monitoreo?
Los nombres e imágenes de perfil de los grupos de WhatsApp de un usuario, así como su número de teléfono, foto de perfil, mensaje de estado, nivel de batería del teléfono, idioma y zona horaria, ID de teléfono móvil, dirección IP, intensidad de la señal inalámbrica y sistema operativo del teléfono, cualquier cuenta de Facebook e Instagram relacionada, así como el registro de la última vez que usó la aplicación y si hubiera violaciones anteriores de los códigos de uso.
Estos jóvenes revisores de WhatsApp tienen tres opciones cuando se les presenta un ticket: pueden no hacer nada, o poner al usuario en «vigilancia» para un mayor control, o prohibir la cuenta. Sus pares de Facebook e Instagram tienen más opciones, incluyendo eliminar publicaciones o posteos. En ese punto está la diferencia sobre la cual la empresa afirma que los revisores de contenido de WhatsApp no son «moderadores de contenido”.
Según los documentos analizados y las entrevistas realizadas para esta investigación de ProPublica, los moderadores de WhatsApp deben hacer juicios subjetivos, sensibles y sutiles.
Examinan una amplia gama de categorías, incluyendo «Spam Report», «Civic Bad Actor» (discurso de odio político y desinformación), «Amenaza de Terrorismo Global”, «CEI» (imágenes de explotación infantil) y «CP» (pornografía infantil).
Otro conjunto de categorías aborda la mensajería y la conducta de millones de pequeñas y grandes empresas que utilizan WhatsApp para chatear con clientes y vender sus productos. En estos casos las categorías de los mensajes en cola son “prevalencia de suplantación de negocios», «infractores probables de la política comercial» y «verificación comercial”.
WhatsApp tiene usuarios en 180 países, la gran mayoría fuera de los EE.UU, y eso presenta un obstáculo para la revisión de mensajes, por defectos de traducción.
Aunque Accenture contrata trabajadores que hablan una variedad de idiomas, no cubre todos, y en esa circunstancia usan la herramienta de traducción de Facebook, que es tan precaria -según los propios revisores de contenido que fueron consultados- que ha llegado a etiquetar mensajes en árabe como si fuera español, eso sin considerar la carencia para entender las jergas locales, el contexto político o las insinuaciones sexuales.
El proceso puede estar plagado de errores y malentendidos. Hay empresas que fueron marcadas como traficantes de armas cuando estaban vendiendo máquinas de afeitar.
Se puede vender ropa interior femenina pero si el lenguaje de marketing se registra como «adulto», quien lo vende en WhatsApp puede ser etiquetado como un «negocio orientado a servicios sexuales prohibidos.»
De hecho, una herramienta de traducción defectuosa activó una alarma cuando detectó ‘niños para la venta y el sacrificio’, lo que tras ser analizado con mayor detenimiento mostró ser comida halal: eran cabras jóvenes destinadas a ser cocinadas.
Los moderadores deben tomar decisiones sobre las presuntas ‘imágenes sexuales abusivas’: Por ejemplo, sobre si un niño desnudo en una imagen es adolescente o púber, está basada en la comparación de los huesos de la cadera y el vello púbico, con una tabla de índice médico.
Un ex empleado crítico, recordó un video un poco granulado de un discurso político que mostraba a un hombre con un machete, sosteniendo lo que parecía ser una cabeza cortada: «Tuvimos que mirar y decir, “¿Esto es un cuerpo muerto real o un cuerpo muerto falso?” Como otro moderador de WhatsApp sostuvo: «la mayor parte del tiempo, la inteligencia artificial no es tan inteligente.»
USTED, EL USUARIO, ES EL PRODUCTO
Desde el momento en que Facebook anunció planes para comprar WhatsApp en 2014, los observadores se preguntaron qué beneficio sacaría de esta app, conocida por su ferviente compromiso con la privacidad…dentro de una corporación conocida por lo contrario.
Zuckerberg se había convertido en una de las personas más ricas del planeta al usar un enfoque de «capitalismo de vigilancia»: recolectar y explotar montones de datos personales para vender a los usuarios anuncios digitales direccionados. La incesante búsqueda de crecimiento y ganancias de Facebook ha generado una serie de escándalos de privacidad en los que se la acusó de engañar tanto a los usuarios como a las agencias de control.
Por el contrario, hasta ser parte de Facebook Inc., WhatsApp sabía poco acerca de sus usuarios. Sabía, obviamente, su número de teléfono, pero no compartía esa información con terceros. WhatsApp no publicó anuncios, y sus co-fundadores, Jan Koum y Brian Acton, ambos ex ingenieros de Yahoo, eran contrarios a usar avisos comerciales.
«En cada empresa que vende anuncios», escribieron en 2012, «una parte significativa de su equipo de ingeniería pasa el día afinando la minería de datos, escribiendo el mejor código para recopilar todos sus datos personales, actualizando los servidores que contienen todos los datos y asegurándose de que todo está siendo registrado, cotejado, cortado y envasado y enviado».
Y agregaron: «Recuerde que cuando hay publicidad de por medio, usted, el usuario es el producto.» En aquella época de WhatsApp sus creadores decían «sus datos ni siquiera están en nuestra mira. Simplemente no estamos interesados en nada en ello”.
En 2018, los cofundadores de WhatsApp, ahora ambos multimillonarios, se habían ido. Brian Acton, en lo que más tarde describió como un acto de «penitencia» por el «crimen» de vender WhatsApp a Facebook, donó 50 millones de dólares a una fundación de apoyo a Signal, la otra aplicación de mensajería cifrada gratuita, rival WhatsApp.
Mientras tanto, Facebook estaba bajo fuego por sus filtraciones de seguridad y privacidad, lo que terminó con una multa histórica de 5 mil millones de dólares, que le impuso en julio de 2019 la Comisión Federal de Comercio por violar un acuerdo previo para proteger la privacidad del usuario.
La multa fue casi 20 veces mayor que cualquier penalización anterior relacionada con la privacidad, porque la FTC comprobó que Facebook «engaña a los usuarios sobre su capacidad para proteger su privacidad”.
Sin importarle demasiado las multas y exigencias de regulación, el emporio Zuckerberg al mismo tiempo que promocionaba su nuevo compromiso con la privacidad, había comenzado a usar a Accenture y otras agencias de búsqueda de personal para contratar a cientos (¿miles?) de revisores de contenido para WhatsApp. Públicamente no dijo nada. Tampoco mencionó que estaba compartiendo metadatos de sus usuarios de WhatsApp con la empresa matriz, y con las agencias de seguridad.
Para el oído no entrenado, el término “metadatos” puede sonar abstracto, una palabra que evoca la intersección de la crítica literaria y la estadística. Para usar una vieja analogía pre-digital, los metadatos son el equivalente de lo que está escrito en el exterior de un sobre de correo: los nombres, las direcciones del remitente y el destinatario, la estampilla que refleja dónde y cuándo se envió por correo, mientras que el «contenido» es lo que está escrito dentro de la carta.
Lo mismo ocurre con los mensajes de WhatsApp: el contenido está protegido, pero el sobre revela una multitud de detalles reveladores y útiles.
«Los metadatos te dicen absolutamente todo sobre la vida de alguien», dijo una vez el ex consejero general de la NSA, Stewart Baker. «Si tienes suficientes metadatos, realmente no necesitas contenido».
En un simposio en la Universidad Johns Hopkins en 2014, el general Michael Hayden, ex director tanto de la CIA como de la NSA, fue aún más lejos: “Matamos a personas en función de los metadatos”.
No está claro exactamente lo que las agencias de seguridad estatales han podido recopilar a través de WhatsApp, ya que los resultados se mantienen fuera de la vista del público.
Internamente, WhatsApp llama a estas solicitudes de información sobre los usuarios «posibles pares de mensajes» o PMP. Estos PMP proporcionan datos sobre los patrones de mensajería de un usuario, en respuesta a lo que piden las agencias estatales. Eso ocurre en Norteamérica, así como en el Reino Unido, Brasil e India, pero podría ocurrir con otros países.
Fueron los metadatos de WhatsApp los que llevaron al arresto y condena de la mencionada Natalie «May» Edwards, una ex funcionaria del Departamento del Tesoro, por filtrar informes bancarios confidenciales sobre transacciones sospechosas.
La denuncia penal del FBI detallaba cientos de mensajes entre Edwards y un reportero del sitio BuzzFeed usando una «aplicación encriptada» de WhatsApp. El teléfono celular de Natalie Edwards intercambió aproximadamente 70 mensajes con el teléfono celular Reporter-1, durante un lapso de aproximadamente 20 minutos, entre las 12:33 y las 12:54 am”, escribió la agente especial del FBI en su denuncia de octubre de 2018. Edwards y el reportero usaron WhatsApp porque ella creía que la plataforma era segura, según una persona familiarizada con el asunto.
La página de privacidad de WhatsApp asegura a los usuarios que tienen el control total sobre sus propios metadatos.
Dice que los usuarios pueden «decidir si solo sus contactos, todos o nadie pueden ver su foto de perfil», o cuándo abrieron sus actualizaciones de estado por última vez o cuándo abrieron la aplicación por última vez. Pero independientemente de la configuración que elija cada usuario, WhatsApp recopila y analiza todos esos datos, un hecho que no se menciona en ninguna parte de la página.
Otras plataformas encriptadas adoptan un enfoque muy diferente para monitorear a sus usuarios. Signal no emplea moderadores de contenido, recopila muchos menos datos de usuarios y grupos, no permite copias de seguridad en la nube y, en general, rechaza la idea de que debería vigilar las actividades de los usuarios.
ALGO DE TODO LO QUE AUN NO SE DIJO SOBRE FACEBOOK
La Editora ejecutiva de la prestigiosa revista The Atlantic, Adrienne LaFrance investigó durante años al gigante Facebook. El lunes 4 de octubre, el día del apagón, ella lo definió como si repentinamente hubieran desaparecido del mapa un gran conjunto de países.
“La web no es solo frágil, sino completamente efímera. Tenemos la falsa sensación de permanencia que dan esos gigantes tecnológicos, con sus plataformas de muros arborescentes. Pero lo concreto es que nada perdura online, y se trata de una gran alucinación colectiva. Solo un apagón semejante al del 4 de octubre puede hacer reflexionar sobre sus hábitos y cómo encaran sus relaciones cientos de millones de personas.
Esto, claro está, también tiene consecuencias económicas, porque para quienes usan estas herramientas para trabajar, las vuelve menos productivas, y es real que una gran porción de la economía digital se mueve a través de Facebook.
Creo que hay que poner en un primerísimo lugar el análisis de qué rol ocupa Facebook. Porque es un peligro concreto contra la democracia y contra la humanidad. Y si está off-line es menos peligroso que on-line.
El continente Facebook es una autocracia, y el territorio más poblado del mundo: tiene 2900 millones de ‘habitantes’. Es Facebookland. Por eso dejó de llamarlos ‘usuarios’ para pasar a definirlos como ‘gente’, aunque para Zuckerberg no sea más que un eufemismo, dado que la información de su ‘gente’ le permite entregar data a las más diversas empresas, y eso le generó en el primer semestre de 2021 nada menos que 54.000 millones de dólares.
El universo Facebook no es solo un sitio web, o una plataforma, o una publicación, o una red social, o una guía telefónica online, o una corporación o un servicio. Es todo eso, y además de eso, es como un poder enemigo extranjero.
Equivale a un poder interesado solo en su expansión, inmune a cualquier obligación cívica, con una superaltiva capacidad de minar elecciones, una manifiesta antipatía por el periodismo independiente, y cuyos gobernantes son arrogantes e indiferentes a los cánones democráticos”
Sheera Frenkel y Cecilia Kang publicaron un libro que se llama An Ugly Truth: Inside Facebook’s Battle for Domination, en el que hablan de una batalla entre “empresa versus el país”, y sostienen que la corporación tiene todos los condimentos de una nación: un territorio, una moneda, una filosofía de gobernanza y una población. Pero ese país está en ninguna parte, es virtual, y las únicas leyes que valen -y la percepción de las ganancias- son exclusivas de la cúspide que comanda Zuckerberg.
Por si queda alguna duda con respecto a que tiene su propia moneda más allá del uso del dólar, Facebook está desarrollando su propio dinero: un sistema de pago basado en el blockchain, que en un principio se iba a llamar Libra pero que ahora es conocido como Diem, y ante el cual todos los reguladores financieros y bancos temen porque podría engullirse la economía global y convertir en enano al dólar norteamericano.
Tal vez por eso el ojo de la prensa mundial registró la declaración de una ex empleada de Facebook que decidió denunciar a la corporación ante el Senado norteamericano, aduciendo que todo el sistema algorítimo de la empresa está concebido para producir un daño a la sociedad.
Frances Haugen, una graduada en Harvard de 37 años, que previamente trabajó en Google y en Pinterest, declaró este martes, un día después del apagón mundial.
Subrayó entre otros aspectos el impacto negativo de Instagram en los cuerpos de las muchachas y muchachos más jóvenes que usan la aplicación. Sostuvo que la compañía favorece a las elites, que sus algoritmos alimentan la discordia, y que los traficantes de drogas y de trata de personas usan los servicios de Facebook sin ningún problema.
Haugen renunció a la empresa en mayo 2021. Insinuó, reiteradamente, que los problemas de Facebook tienen una onda expansiva mundial, y que está dispuesta a declarar sobre el ciber espionaje que hace la empresa. Entre los casos de violencia que involucran a la plataforma Facebook -aseveró- están las matanzas de Myanmar y lo que ahora está ocurriendo en la zona de Tigray, en Etiopía.
Este es el link del video de la declaración en el Congreso de EE.UU
Datos y promesas incumplidas de 2014, 2017, 2018, 2019, 2020 y 2021…¿será como afirman Sheera Frenkel y Cecilia Kang en su libro, que Facebook es el más distópico y peligroso proyecto de dominación?
*
Este informe fue parcialmente elaborado por Alex Mierjeski, Doris Burke, Peter Elkind, Jack Gillum y Craig Silverman de ProPublica.
También contiene información de The Wall Street Journal, BuzzFed, el sitio web de Facebook, el sitio web de WhatsApp, The Washington Post, The Daily Beast, The New Yorker, y otras fuentes y archivos propios de www.purochamuyo.com / Cuadernos de Crisis.
*
La reproducción total o parcial de este artículo solo puede hacerse citando la fuente y la fecha de publicación, sin modificar el contenido.
*
Artículos relacionados que pueden interesar:
[…] [i] https://purochamuyo.com/que-pasa-y-pasara-con-whatsapp/ […]
[…] www.purochamuyo.com/que-pasa-y-pasara-con-whatsapp/ […]