La consultora Cambridge Analytica utilizó datos obtenidos de Facebook para influir sobre votantes de todo el mundo. Las denuncias y el escándalo subsiguiente instalaron la necesidad de debatir acerca del impacto en la sociedad de prácticas que ponen en jaque a la democracia.
12 de abril de 2018
(EHRHARDT/GINA/AFP/DACHARY)
Mis hijos no entenderán el concepto de comunicación de masas», explicaba el CEO de la consultora política Cambridge Analytica, Alexander Nix, durante una conferencia en Nueva York en septiembre de 2016 que aún puede verse en YouTube. Faltaban menos de dos meses para las elecciones presidenciales que llevaron a Trump a la presidencia de los EE.UU. «Hoy en día la comunicación está cada vez más dirigida, individualizada», continuaba la exposición. «En el futuro ustedes recibirán solamente publicidad de productos o candidatos que sean de su interés y esa publicidad estará matizada de acuerdo con la forma en que ustedes ven el mundo». La promesa de influir en los votantes es habitual en cualquier asesor político; otra cosa es lograr realmente una revolución en la comunicación política. Para eso Nix contaba con una nueva herramienta: la psicografía. Además de los datos, claro. ¿Qué había de cierto en sus promesas?
Psicografía y personalidad
Desde principio de siglo XX los psicólogos intentan encontrar el mejor modelo para describir los factores fundamentales de la personalidad humana y predecir comportamientos. En los años 80 el psicólogo estadounidense Lewis Goldberg concluyó que las cinco variables fundamentales eran: extroversión, simpatía, responsabilidad, neurosis y la apertura a las nuevas experiencias. Este modelo de cinco factores es conocido como OCEAN por la sigla que forman las iniciales en inglés. Históricamente, para realizar los tests psicológicos resultaba necesario formular una batería de preguntas a los individuos, uno por uno, y luego procesarlas. El gran avance lo realizó Michal Kosinski, un investigador de la Universidad de Cambridge, cuando lanzó un test de personalidad online que fue completado por miles de personas. El experto en psicometría luego utilizó esos datos para compararlos con información online de esas personas: sus likes, cantidad de seguidores, género, gustos musicales, hobbies, etcétera. Así comprendió que se podían establecer correlaciones como, por ejemplo, que los fans de Lady Gaga tendían a ser más introvertidos o que los seguidores de una banda de rap tendían a ser heterosexuales. En 2012 Kosinski y su equipo lograron refinar la metodología para que 68 likes de Facebook permitieran ubicar a cada persona en el modelo OCEAN sin necesidad de hacerle el test. De esta manera se podía escalar la muestra si se contaba con los datos disponibles en las redes sociales.
Ocean. Una escala para predecir conductas.
Kosinski aseguró en varias entrevistas que Cambridge Analytica (CA) usaba su metodología para construir los perfiles de los votantes. Desde la empresa lo negaron, pero quedan pocas dudas de que la psicografía que describen es muy similar a la de Kosinski. Esa metodología fue la que usaron para la campaña en los EE.UU.; primero para un competidor de Trump y luego para este, quien resultó finalmente el ganador. Gracias al conocimiento de la personalidad de los votantes de ese país, la campaña segmentó a la población en grupos y les envió los mensajes e imágenes adecuadas para cada perfil, en horarios y formatos que brindaban más posibilidades de producir el mayor efecto. Lo que muchos se preguntaban era cómo había obtenido esta empresa la enorme cantidad de datos necesarios hacer un test de personalidad suficientemente masivo como para influir en las elecciones.
Vida digital
La respuesta llegó hace unas pocas semanas, cuando un exmiembro de CA contó que la información usada por esta empresa provenía de Facebook. Pero no la obtuvo gracias a claves robadas o corrompiendo a sus ingenieros: un colega de Kosinski había desarrollado una divertida aplicación llamada «Esta es tu vida digital»; quien la completara, recibiría un pequeño pago. El test explotaba una opción de Facebook de compartir no solo la información propia, sino también la de los amigos. Gracias a esto alcanzaron 270.000 tests para acceder a datos de 87 millones de personas. Esa fue la información que utilizó CA para generar los perfiles de los votantes estadounidenses, según el arrepentido.
Mientras la revelación llegaba a los medios de todo el mundo, el Canal 4 de Reino Unido realizó un informe sobre CA que incluyó cámaras ocultas. Seducidos por un falso candidato de Sri Lanka dispuesto a contratarlos, los directores de CA dieron varias entrevistas con los potenciales clientes y contaron su metodología en detalle. Uno de ellos, Mark Turnball, explicaba que las campañas deben apelar a los miedos y los deseos de las personas porque eso resulta mucho más efectivo que apuntar a su racionalidad: «Al final, todo depende de las emociones», sintetizaba. Para dar cuenta de su reputación, Turnball enumeró sus participaciones en Kenia, República Checa, India, Argentina y otros países, aunque sin dar detalles sobre los clientes. También se supo de su intervención en la elección que definió, para sorpresa de todos, la salida del Reino Unido de la Comunidad Europea o Brexit, que dejó perplejos a los políticos y medios de ese país.
En línea. A través de una aplicación se reunieron datos sobre 87 millones de personas. (VATSYAYANA/AFP/DACHARY)
En las reuniones dejaron claro que no solo utilizan la psicografía, sino también otros métodos como conexiones con servicios de inteligencia para encontrar «los esqueletos en el placard» de los competidores. En caso de que no los encuentren, pueden ofrecerle una cantidad de dinero imposible de rechazar o enviarle «algunas chicas» y grabarlo, como explica el mismo Nix en una de las reuniones finales. Con ese tipo de información crean mensajes que deben distribuirse en la red «sin que nadie piense que es propaganda, porque si no la gente se va a preguntar quién la distribuyó». En caso de que el mensaje no se multiplique en las redes, se lo podrá mejorar y darle un «empujón virtual» para renovar su fuerza. Como estas campañas sucias son peligrosas, CA usa una red de empresas fantasma y nunca dejan registros escritos que permitan conectarlas con el candidato que los contrata.
El estallido
Frente al escándalo, Facebook reconoció haber detectado la actividad de CA hacía tiempo. La red social los acusó de utilizar la información recopilada a través del test de personalidad para fines distintos de los anunciados, algo prohibido por ley, y les pidió que la eliminaran. CA, por su parte, sabía que la imagen de Facebook ya venía golpeada y debía evitar el escándalo; por eso se limitó a negar las acusaciones y seguir con su actividad. En silencio, Facebook ya había cambiado sus políticas para impedir que alguien pudiera abrir los datos de sus amigos con un solo clic.
Pero fue el estallido de este caso en los medios lo que forzó a Facebook a dar más explicaciones públicas y a reconocer errores, además de prometer «resolverlos» y ser más cuidadosos. Mark Zuckerberg, el CEO de la empresa, explicó la dificultad de equilibrar la misión de conectar gente con la necesidad de cuidar la privacidad. Pero, en realidad, el mayor problema no es la misión sino el modelo de negocios: la empresa logró en solo 20 años transformarse en una de las más grandes del mundo gracias a los datos y su uso; conectar gente, mantenerla conectada aportando más datos es su forma de ganar más dinero. Limitar su recopilación o el acceso a estos datos atenta contra el negocio.
CEO. Zuckerberg tuvo que dar explicaciones. (EDELSON/AFP/DACHARY)
La información que la gente vuelca en la red es utilizada para segmentar a los usuarios con gran detalle y permitir así que los clientes lleguen con gran precisión a su público potencial. El negocio de Facebook son esos datos, es de ellos que obtiene sus ganancias y existen numerosas formas de usarlos a cambio de dinero. Otras empresas comprendieron el enorme negocio de los datos en los últimos años y descubrieron que existen numerosas fuentes para obtenerlos: tarjetas de crédito, supermercados, empresas telefónicas o transporte, aplicaciones y jueguitos se suman al negocio de registrar la estela que dejamos en nuestra vida digital.
Esta información está ahí, almacenada, y a lo largo de los últimos años se ha aprendido a usarla con efectividad. La tentación de usarla debe resultar irresistible. Pero, ¿qué poder tienen realmente?
Usos del tiempo
Tristan Harris trabajó en Google como «diseñador ético» hasta 2016, cuando comprendió que cualquier propuesta de limitar el uso de datos privados chocaría con un límite infranqueable para las empresas capitalistas: la necesidad de incrementar ganancias. Proponer a sus jefes reducir la recolección de datos o las conexiones que permitan explotarlos mejor, era como sugerir a un productor agrario dejar abandonada parte de su cosecha. Frustrado, Harris se fue de Google y creó la ONG Time Well Spent (tiempo bien usado) para dar a conocer cómo las empresas 2.0 utilizan los datos para mantener a la gente «enganchada» a las aplicaciones y, así, seguir acumulando datos. Los recursos son variados: Instagram anuncia de a poco los likes recibidos para forzar más visitas expectantes; YouTube inicia el siguiente video sin preguntar; y mucho (pero mucho) más.
Trump. La publicidad personalizada fue decisiva en la campaña de 2016. (PENNINGTON/GINA/AFP/DACHARY)
La ONG de Harris ha logrado más atención luego de los últimos escándalos, pero también porque otros trabajadores e inversores de empresas 2.0 se sumaron a ella tras ver la manipulación a escala que se hace de la sociedad. Uno de ellos es Justin Rosenstein, el ingeniero que creó el botón like en Facebook, el cual, explica, «produce pequeños repiques de pseudoplacer». Ese tipo de recompensas aleatorias, detalla Harris, es la que nos mantiene pasando el pulgar sobre el celular en busca de un nuevo estímulo; el mecanismo neurológico que se activa es el mismo que mantiene a la gente jugando en una máquina tragamonedas porque tal vez, ahora sí, llegará el premio (o el like).
En una excelente charla TED (ver Secuestrar…), Harris explica que estas empresas compiten por nuestra atención y que una de las dificultades mayores para evitarlo pasa por creer que no somos influenciables. Pero a fuerza de datos, pruebas, retoques y mayor conocimiento de los usuarios, han logrado naturalizar en pocos años una dependencia generalizada de aplicaciones y dispositivos.
La manipulación social a través de los medios de comunicación masiva es conocida desde hace años: la forma en que Adolf Hitler utilizó la radio revolucionó la comunicación de masas. Pero creer que Hitler es un producto exclusivo de las ondas hertzianas sería una simplificación extrema. De la misma manera, el uso de los datos no explica totalmente la victoria de Donald Trump: evidentemente existen otras variables y los competidores también usaron técnicas similares de otras empresas que ofrecen servicios comparables. De hecho, Obama fue pionero con un sistema mucho más simple en su primera elección.
Cambridge analytica. Oficinas de la consultora cuestionada, en Londres. (AKMEN/AFP/DACHARY)
Lo que sí ha cambiado es la escala en la cantidad de datos involucrados en una sola campaña, la falta de límites éticos en su uso y el nivel de precisión alcanzado. La democracia ya distaba de ser perfecta y se veía afectada por los medios de comunicación masiva tradicionales, sobre todo por el poder de aquellos monopólicos o altamente concentrados. Por eso existían regulaciones que les pusieron algunos (tal vez insuficientes) límites. El escándalo de CA revela el nivel de penetración de este nuevo poder que, a diferencia de lo que ocurre con los medios tradicionales, no está regulado.
Los cuatro grandes
Algunos senadores demócratas de los EE.UU. han pedido que se apliquen leyes antimonopólicas a los cuatro grandes de la tecnología (Google, Amazon, Facebook y Apple) antes de que sea demasiado tarde; como era de esperar, tienen el apoyo de (aún) poderosos medios de comunicación cuyo negocio se ha visto seriamente dañado por las corporaciones 2.0 y la voracidad con que avanzan sobre la torta publicitaria. Seguramente las medidas en EE.UU. no alcanzarán y será necesario pensar también localmente distintos mecanismos para reducir los daños producidos por una exportación permanente de datos al Primer Mundo. Si se regula la entrada de medicamentos o alimentos para garantizar la salud pública del país, se aplican multas a quienes producen daño ambiental o se hacen campañas de concientización en la sociedad, ¿no debería hacerse algo similar con las aplicaciones que afectan la concentración de niños y adultos, producen adicción o, también, alejan la democracia aún más de su ideal? La respuesta aún está por verse.