Cierren la muralla

Tiempo de lectura: ...

Big data, escaneo cerebral y otras técnicas permiten analizar algunos mecanismos de la psicología política, como la tendencia a prestar atención a los datos que refuerzan formas de pensar previas. La delgada línea entre el conocimiento y la manipulación.

(Foto: Shutterstock)

Un nuevo fantasma recorre el mundo, y es el de la ciencia social computacional. Responder si a través de internet el público está «mejor» o «peor» informado que antes sería demasiado difícil y depende del cristal con que se mire. La utopía originaria hablaba de una gran red neutral a la que cualquier ciudadano podría sumar información responsablemente y en igualdad de condiciones y ser leído en cualquier parte del mundo y, recíprocamente, informarse de igual modo; la realidad dista mucho de eso y el grueso de ese tráfico «horizontal» circula por un puñado de canales privilegiados –las redes sociales– que condicionan en gran medida la participación y las conductas de los usuarios, así como el control de la información y su instrumentación con fines monetarios.
Pero algo de ese maremágnum es totalmente real y objetivo para quienes tienen el poder de acceder a la dimensión del big data: hoy todo el mundo vive haciendo clic ante sus pantallas, compartiendo y comentando información. Eso queda registrado y genera a su vez un nuevo flujo de datos que pueden ser analizados por sistemas inteligentes con enorme capacidad de procesamiento, «entrenados» para hallar correlaciones y describir lo que ocurre en tiempo real (o sea, a medida que las cosas suceden). Así nació esta nueva rama de la ciencia social, que tuvo su Big Bang en 2009 con la publicación de un artículo de David Lazer en la icónica revista Science, donde prometía una capacidad de predicción nunca vista de las conductas de las masas a través del análisis de su vida digital, y hoy está en plena ebullición y expansión.
Una de sus vertientes, para decirlo con todas las letras, es el control de las narrativas juzgadas potencialmente «peligrosas». La impulsan, entre otros organismos, el Foro Económico Mundial, que se reúne en Davos, y la Unión Europea, que cuenta con una red de un centenar de investigadores dirigidos por el alemán Michael Butler, considerado un experto en «teorías conspirativas».
¿Internet está inundando el mundo de narrativas delirantes? En realidad, estas eran mucho más frecuentes un siglo atrás, cuando no había celulares, computadoras ni TV, admitió en un reciente reportaje este experto. Pero si las nuevas tecnologías no son el problema, el problema, ¿dónde está?

Cosecharás tu siembra
Para el italiano Walter Quattrociocchi, científico de datos de la Escuela de Estudios Avanzados sobre Instituciones, Mercados y Tecnología de la ciudad de Lucca, el problema está en el «sesgo de confirmación» que ponemos en práctica cuando experimentamos el mundo servido a través de la pantalla. En pocas palabras, se trata de que, inconscientemente y sin importar cuál sea nuestra tendencia ideológica, solo prestamos atención a aquella información que refuerza nuestros preconceptos y formas de pensar previos, y descartamos el resto. Claro que esto es una tendencia y no una ley inexorable de la naturaleza, pero el análisis mediante big data realizado por este experto parece revelar que en un contexto informativo «sin filtro» como el de las redes sociales, los usuarios son más proclives a sucumbir al sesgo de confirmación.
Según Quattrociocchi, que trabaja expresamente en línea con las directivas del Foro de Davos, lo importante es hallar técnicas algorítmicas para frenar la generación, la difusión y el refuerzo de lo que llama «narrativas amañadas». Claro que aquí, la intencionalidad y el sesgo de quienes analizan la información se inmiscuyen mucho más claramente en la supuesta fría objetividad de los datos.
Los algoritmos de su equipo registran y procesan constantemente desde 2010 el tráfico generado por la actividad en Facebook de más de 1.200.000 usuarios. Así halló que, en cinco años, las noticias de fuentes clasificadas como «alternativas» son difundidas más eficazmente que las de fuentes verificables y chequeadas, ya que las primeras son reproducidas y comentadas en un 99,08% de los casos (casi siempre) mientras que en el caso de las noticias de fuentes «serias» ese porcentaje baja al 90,29%. La conclusión de Quattrociocchi es que nuestro comportamiento ante las redes no es racional, y que quienes más desconfían de las fuentes «serias» terminan siendo los más susceptibles a la manipulación.
Dietas, medioambiente, salud y geopolítica serían los temas más recurrentes donde la gente se «encierra en su burbuja». Pero la clasificación que hace el italiano de esos nichos de información «alternativa» es por demás ambigua: incluye, en la misma bolsa, desde los antivacunas hasta quienes dudan de la «neutralidad» de las fuerzas del mercado.

Aquella vieja posverdad
¿No suena parecido a lo que ya habían descubierto casi un siglo atrás los primeros teóricos de la comunicación masiva, aquellos funcionalistas norteamericanos como Harold Laswell o Paul Lazarsfeld? Efectivamente, estos pioneros cuyos nombres suelen ser lo primero que aprenden los ingresantes a las carreras universitarias de comunicación social sabían que el público tiende a consumir solo aquella información que refuerza sus preconceptos. Lo que ha cambiado, además del eje y la categorización de los «peligros», es la eficacia de las herramientas de predicción; y quizá también su legitimación social, en una época de frustración política general en la que la eficacia técnica parece un valor capaz de poder decidir sobre cualquier otro. Y tomar decisiones «basadas en evidencia y no en meras conjeturas» (sean cuales sean estas decisiones) hoy suena como un argumento atractivo en los ámbitos de gestión.
Quienes analizan la psicología política también recurren al escaneo cerebral mediante resonancia magnética funcional. En la Universidad Emory, de Atlanta, Drew Westen estudió con esa técnica a partidarios del republicano George W. Bush y del demócrata John Kerry durante la campaña electoral de 2004: cuando aparecía una contradicción entre las expectativas de la persona y los datos que se le presentaban, se activaban regiones cerebrales asociadas con las emociones negativas, el estrés y el dolor. Esas reacciones no ocurrían ante información absurda pero políticamente «neutra», por ejemplo, las contradicciones expresadas por estrellas de TV sobre su vida sentimental. Evitar esas emociones negativas jugaría un papel importante en la «selección» inconsciente de la información que consumimos.
De manera que la tendencia a la formación de estos «medioambientes informativos» relativamente estables parece darse tanto en la psicología individual como fuera de ella, en las redes, y nos devuelve la pregunta: ¿qué papel cumple el medio tecnológico? Google, Facebook y otros gigantes de la web –no es novedad– usan algoritmos de autoaprendizaje, que interpretan los clics y los likes dados por los usuarios como señales de incentivo para enviarles, selectivamente, publicidades, ofertas y noticias con más probabilidad de ser aceptadas de acuerdo con su perfil. Así, si el usuario deja que el círculo se cierre sobre su ombligo –y si se olvida de que la historia nunca es un proceso cerrado–, las condiciones parecieran estar dadas para que cada cual se encierre en su burbuja.