“Erre que erre” o los inconvenientes de no dejarse convencer

cambiar de opinión

Leo con sorpresa (y algo de contradicción interna ¡a que negarlo!) que una famosa estrella de Hollywood anda vendiendo ¡¿lavativas?! de un café carísimo, ¡eso sí!, pero que, a fin de cuentas, no son más que irrigaciones anales.  Sea como fuere, me resulta curioso, que (por muy apasionante que sea la fisiología digestiva) se ocupen, tan explícitamente, de “labores de retrete” en el ambiente “mega-ultra-glamuroso” que (se supone) rodea a nuestra protagonista. Más asombrosa, aún, es la repercusión mediática que todo esto ha tenido porque, la pseudo-terapia que sugiere, resulta, dicho sea de paso, como poco, inútil, cuando no absolutamente contraindicada para mantener la salud del colon.  Con todo, lo realmente preocupante es ¡que lo vende! O lo que es lo mismo, ¡hay gente que SE LO CREE! y, por tanto,  lo compra.

Esto no deja de ser una prueba más de que CREER ES UN ACTO VOLUNTARIO. Solo aceptando esta evidencia, se puede entender que, de motu proprio, las personas se aferren a convicciones como estas (por infundadas que sean). De hecho, parece que cuando se establece una creencia, se ponen en marcha ciertos resortes mentales que influenciarán cualquier juicio posterior. Se produce el denominado fenómeno de “ceguera a la elección” que hace que, una vez se escoja una opción, inevitablemente, se trate de justificarla. Quien controla este mecanismo puede generar adhesiones inquebrantables haciendo comprar, al grupo recién converso, “cafés  purgadores de colón”, o cualquier otra peregrina idea.  Paralelamente, conseguirá también  volver una labor ímproba (cuando no imposible) la tarea de hacer cambiar su opinión al respecto, aun cuando las evidencias indiquen, claramente, que se está persistiendo en una equivocación manifiesta…¡Se ha conseguido la “fidelización del cliente total”!, demoledora para el juicio crítico, pero sin competencia posible.

No obstante, lamentablemente, en este caso, se trata de algo más que una anécdota, más o menos jocosa , ya que se enmarca en un ambiente social en el que las “pseudo-ciencias pseudo-curativas” cada día, parecen reunir más crédulos discípulos (a los que, por otra parte, una vez convencidos, resulta extremadamente difícil sacar de su error).Y es que, el problema de conseguir que alguien cambie de opinión, hunde sus raíces en el hecho de que el cerebro trabaja partiendo de la base de que no se equivoca. Así, dado que, modificando un juicio se acepta que se ha cometido un error, cambiar un punto de vista no será, para nada, fácil.

De hecho, existen bastantes estudios que han probado que, ni argumentos, ni evidencias sirven para ello. Bien al contrario, pareciese que, el hecho de mostrar pruebas contra lo defendido, reforzase la posición y creencias sostenidas por cada individuo y su grupo de referencia.  Para que así ocurra, la mente humana se ve impelida a fijar posiciones ante  cualquier cuestión que se plantee reaccionando, fundamentalmente, en clave  emocional y juzgando al respecto (mientras que, la indecisión, es considerada una prueba de inconsistencia o debilidad).  Sin embargo, al opinar prematuramente, o con datos insuficientes, es más proclive a equivocaciones de las que será mucho más difícil desprenderse pues, el cerebro YA HABRÁ TOMADO PARTIDO y, una vez hecha una elección, la circuitería neuronal de toma de decisiones, va a empezar a trabajar a favor de sustentarla (especialmente si entran en el terreno de las creencias definitorias de la persona, como serían postulados religiosos o políticos, por ejemplo).  Por esta vía, por tanto, se va a establecer todo el “corpus ideológico” de cada sujeto. Por lo que un buen consejo sería “pensar antes de hablar” (o, mejor aún “consultar con la almohada”) para dejar un tiempo de reflexión antes de “posicionarse”sobre cualquier tema, aunque resulte más fácil decirlo que hacerlo. Además, existen hallazgos que indican que, precisamente, las personas se aferran a sus convicciones con mayor intensidad frente urgencias o amenazas (reales o aparentes). Así, las creencias afianzarían las redes grupales en condiciones de riesgo, al mantenerlas sin discusión lo que sería ventajoso. Algo así como que “contra algo” (o alguien) es cuando más unidad se consigue. Por cierto que, alguna situación política recurrente (como los debates territoriales en las regiones europeas), serían un magnífico ejemplo de esto.

Cabría preguntarse “qué pasa en las cabezas” de esas personas que siguen defendiendo cualquier postulado, aun cuando, objetivamente, les resulte perjudicial… Y algo se empieza a saber: Existen datos que sitúan el origen de esta especie de juego de autoengaños, en la corteza frontal posterior medial (pMFC). Esta estructura juega un papel clave en la detección de discrepancias entre las condiciones deseadas por cada sujeto, y las que realmente disfruta (o padece) ajustando el comportamiento posterior para resolver dichos conflictos.  Para ello, en situaciones de crisis, la pMFC actuaría potenciando la adhesión a las ideologías, como un mecanismo cognitivo subyacente a los procesos de decisión. Se trata del mecanismo mental que fuerza a huir de las paradojas e incoherencias cuando generan “disonancia cognitiva”. Gracias a él, cuando se entra en contradicción entre creencias y hechos, no se acaba con la disolución del grupo que mantenía la idea que se muestra equivocada, sino que se refuerza encontrando justificaciones “ad hoc”. He aquí el origen de las elaboradísimas teorías “conspiranóícas” en general. Estos mecanismo neurales actuarían, igualmente, con cualquier afirmación del tipo “la Tierra es plana”, “el Apolo 11 no llegó a la Luna” o, las extremadamente peligrosas, de apoyo a la homeopatía, del negacionismo climático, o del gremio anti-vacunas, por ejemplo…

Es importante señalar, en este contexto, que las ideologías resumen las dimensiones de una persona, definiendo tanto su comportamiento en público, como en privado, por lo que confieren  propiedades “identitarias”, asumiendo, con ello, postulados y valores. Y, lógicamente, “sostenella y no enmendalla”, sería una respuesta común ante los retos personales y de grupo. De hecho, la Historia muestra, en abundancia, hasta que extremos se llega en defensa de creencias sociales, como son convicciones políticas, o confesiones religiosas (generando tanto actos de valor heroico, como de una injusticia horrorosa). Por tanto, si se quiere, en un debate, una mínima posibilidad de éxito, se ha de tener en cuenta que, cada cerebro, construye su razonamiento desde un supuesto de veracidad y, por tanto, NO SE VA A DEJAR CONVENCER de que está equivocado.

Pero, si las pruebas no sirven ¿cómo generar, entonces, un cambio de actitud cuando la mayoría de experimentos muestran que los prejuicios tienen “las de ganar” frente a las nuevas ideas? Pues parece evidente que una buena estrategia para impedir que se extienda una creencia (especialmente si esta es irracional o peligrosa) pasaría por evitar la confrontación directa, para no activar el mecanismo de defensa cognitivo contra quién indica que se está en un error. También es útil, dar una idea original al respecto, ya que la dinámica anti-disonancia cognitiva, tiende a dar razones para justificar los conceptos que ya se tienen, pero no las innovaciones.  Si se presenta el razonamiento cómo nuevo no tendrá que ajustarse a las ideas previas, evitando lo que se ha denominado “efecto ancla”‘… Porque las opiniones son cómo los clavos ¡se hunden más cuanto más se martillean! dejando “anclado” el razonamiento al juicio pre-instaurado.  

La conclusión es que “tener razón” es un “sentimiento” muy arraigado y, por tanto, no se estará predispuesto  a tratar de escuchar  argumentos que “osen”a intentar quitarnos tan preciada posesión , pero persistir en un  error no es loable, ni se debe justificar con la fidelidad a unos principios inquebrantables, bien al contrario, aunque cueste, RECTIFICAR ES DE SABIOS (¡y SABIAS!)

Para saber más:

http://www.elperiodico.com/es/extra/20180109/lavativas-cafe-gwyneth-paltrow-6539424

Manual de instrucciones para cambiar de opinión: https://verne.elpais.com/verne/2014/11/17/articulo/1416205830_000028.html

https://www.newyorker.com/science/maria-konnikova/i-dont-want-to-be-right

http://naukas.com/2010/08/19/ceguera-a-la-eleccion-asi-inventamos-una-explicacion-para-nuestras-decisiones/

http://www.vozpopuli.com/altavoz/next/Ciencia-Psicologia-Neurociencia_0_701029898.html

http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0071303#pone.0071303-Moore1

Neuromodulation of group prejudice and religious belief;  Soc Cogn Affect Neurosci. 2016 Mar; 11(3): 387–394, (2015); Colin Holbrook, Keise Izuma, Choi Deblieck, Daniel M. T. Fessler, and Marco Iacoboni.

Nonpolitical Images Evoke Neural Predictors of Political Ideology . Curr Biol. (2014); 24(22): 2693–2699. Woo-Young Ahn,  Kenneth T. Kishida,Xiaosi Gu,Terry Lohrenz,Ann Harvey, John R. Alford, Kevin B. Smith, Gideon Yaffe,John R. Hibbing, Peter Dayan, and P. Read Montague.

Individual differences in political ideology are effects of adaptive error management Behavioral and Brain Sciences, Volume 37, Issue 3  (2014) , pp. 324-325  Michael Bang Petersen, Lene Aarøe.

Attitude Change: Persuasion and Social Influence;  Wendy Wood. Annual Review of Psychology Vol. 51:539-570 (2000).

 

 

 

 

 

 

 

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s