¿Han notado que una persona siempre cambia de opinión cuando le presentan unos datos que contradicen sus convicciones más profundas? No, ¿verdad? Yo tampoco. Es más, da la impresión de que una persona cuando se le presentan pruebas abrumadoras en contra de lo que cree, se reafirma en sus opiniones. El motivo es que esos datos ponen en peligro su visión del mundo. (...)
El hecho de que las convicciones resulten más fuertes que las pruebas se debe a dos factores:
la disonancia cognitiva y el llamado efecto contraproducente. En el clásico
When Prophecy Fails (cuando la profecía se equivoca), e
l psicólogo Leon Festinger y sus coautores escribían en 1956 acerca de la reacción que tuvieron los miembros de una secta que creía en los ovnis cuando la nave espacial que esperaban no llegó a la hora prevista. En lugar de reconocer su error, “siguieron tratando de convencer al mundo entero” y, “en un intento desesperado por eliminar su disonancia, se dedicaron a hacer una predicción tras otra, con la esperanza de acertar con alguna de ellas”. Festinger llamó disonancia cognitiva a la incómoda tensión que surge cuando se piensan dos cosas contradictorias al mismo tiempo.
En su libro de 2007
Mistakes Were Made, But Not By Me (hubo errores, pero yo no los cometí), dos psicólogos sociales, Carol Tavris y Elliot Aronson (alumno de Festinger), documentan miles de experimentos que demuestran que
la gente manipula los hechos para adaptarlos a sus ideas preconcebidas con el fin de reducir la disonancia. Su metáfora de la “pirámide de la elección” sitúa a dos individuos juntos en el vértice de la pirámide y muestra cómo, cuando cada uno adopta y defiende una posición distinta, empiezan a distanciarse rápidamente hasta que acaban en extremos opuestos de la base de la pirámide.
En otros experimentos llevados a cabo
por el profesor de Dartmouth College (EE UU) Brendan Nyhan y el profesor de la Universidad de Exeter (Reino Unido) Jason Reifler, los investigadores identifican un factor relacionado con esta situación: lo que denominan el efecto contraproducente, “por el que al tratar de corregir las percepciones equivocadas, éstas se refuerzan en el grupo”. ¿Por qué? “Porque ponen en peligro su visión del mundo o de sí mismos”.
Por ejemplo, a los sujetos de los experimentos se les dieron artículos falsos de periódicos que confirmaban ideas erróneas pero muy extendidas, como la de
que había armas de destrucción masiva en Irak. Cuando después les mostraron un artículo que explicaba que, en realidad, nunca se habían encontrado dichas armas, quienes se oponían a la guerra aceptaron el nuevo artículo y rechazaron el anterior. Sin embargo, los partidarios de la guerra dijeron que el nuevo artículo les había convencido aún más de que había armas de destrucción masiva, porque probaba que Sadam Husein las había escondido o destruido. De hecho, dicen Nyhan y Reifler, entre muchos de estos últimos participantes, “la idea de que Irak tenía armas de destrucción masiva antes de la invasión encabezada por Estados Unidos persistió hasta mucho
después de que el propio Gobierno de Bush llegara a la conclusión de que no era así”.Si los datos que deberían corregir una opinión solo sirven para empeorar las cosas, ¿qué podemos hacer para convencer al público de que está equivocado? Por mi experiencia, aconsejo mantener las emociones al margen; discutir, no criticar (nada de ataques personales y nada de mencionar a Hitler); escuchar con atención e intentar expresar detalladamente la otra postura; mostrar respeto; reconocer que es comprensible que alguien pueda pensar de esa forma; intentar demostrar que, aunque los hechos sean otros de los que se pensaba, esto no significa necesariamente que se altere la visión del mundo.
Michael Shermer,
Solo te creeré si me dices lo que quiero oír, El País 27/01/2018
[https:]]