Ya se habrán dado cuenta en las últimas semanas: posverdad es la palabra de moda, al menos entre los pocos lectores de periódicos que vamos quedando. No está en el diccionario de la RAE, pero su equivalente inglesa ha sido elegida palabra del año por el diccionario de Oxford. Varios fenómenos políticos muy significativos han llevado a una preocupación generalizada por la propagación indiscriminada de noticias falsas y de teorías de corte conspirativo sin fundamento en la realidad, pero de alcance creciente. Esta preocupación comienza a dirigir sus miradas hacia las compañías más poderosas del planeta (Facebook, Google etc.) y su controvertido papel en la promoción y difusión de la desinformación.
En realidad, aunque el problema esté ahora en la primera plana, hace años que está sobre la mesa de muchos científicos, en relación con el fenómeno de las cámaras de eco: comunidades de usuarios con fuerte polarización ideológica y sentimental que apenas entran en contacto con el "mundo exterior" a ellas, lo cual refuerza la mencionada polarización y aumenta la exposición a la desinformación y la posverdad. Recientemente, Investigación y Ciencia publicó un interesantísmo artículo de Walter Quattrociocchi donde se resumen los resultados que su grupo de investigación en la Escuela de Estudios Avanzados sobre Instituciones, Mercados y Tecnología de Lucca, en Italia, y sus colaboradores han venido obteniendo en los últimos años, sobre "la dinámica del contagio social y el uso de contenidos en diversas redes sociales, como Facebook, Twitter y YouTube". Se trata de un grupo de científicos altamente interdisciplinar, compuesto por dos físicos, Guido Caldarelli y Antonio Scala; un estadístico, Alessandro Bessi; una matemática, Michaela Del Vicario; y dos informáticos, Fabiana Zollo y el propio Quattrociocchi. Esta combinación de habilidades matemáticas, físicas y computacionales es la adecuada para el análsis de este tipo de fenómenos.
Tras la publicación del artículo en IyC, han seguido apareciendo resultados de la máxima urgencia e interés. Bessi, junto con Emilio Ferrara de la University of Southern California, analizó más de 20 millones de tuits emitidos por más de 2,8 millones de usuarios sobre las elecciones presidenciales en Estados Unidos en las semanas previas a la votación. Sus conclusiones publicadas en la revista First Monday y basadas en técnicas de "aprendizaje de máquinas" (machine learning) muestran que había unos 400.000 robots activos en la discusión, que produjeron casi4 millones de tuits, es decir, cerca de un 20 % del total. El número de robots produciendo mensajes positivos a favor del candidato Trump fue muy superior al de aquellos que producían mensajes a favor de la candidata Clinton, lo cual evidentemente pudo distorsionar artificialmente la percepción sobre el apoyo real a los dos candidatos.
En otro estudio, realizado por el grupo de Quattrociocchi para Il corriere della sera antes del reciente referendum realizado en Italia, los investigadores volvieron a confirmar la aparición de dos comunidades diferentes en Facebook, sin apenas contacto entre sí, repartidas aproximadamente entre un 70-80 % para una y 20-30 % para la otra. El estudio muestra que el 20 % de las interacciones con noticias sobre el referendum, eran interacciones con noticias falsas, que se relacionaban sobre todo con la comunidad minoritaria. Teniendo en cuenta que Facebook es la fuente principal de información para un número creciente de personas (el 35 % de los italianos, por ejemplo), los resultados son especialmente preocupantes, ya que sugieren que una cantidad nada despreciable de la población se informa casi exclusivamente con noticias falsas.
En azul, interacciones con noticias falsas sobre el referéndum en Italia. En rojo y en verde, las dos comunidades. (Fuente: estudio realizado para Il Corriere della Sera). |
Carlos Sabín, Ciencia y posverdad, Blogs Investigación y Ciencia 16/12/2016