Ante falsas ilusiones

Por qué no vemos el mundo tal y como realmente es

Hacer juicios apresurados basados en lo que vemos (y pensamos que sabemos) forma parte del mecanismo del cerebro para ayudarnos a lidiar con toda la información que nos asalta. Sin embargo en un mundo que está cada vez más en riesgo por varios frentes, es cuando aprendemos a como cuestionar esos juicios que podemos afrontar mejor el alcance.

El mundo moderno nos presenta muchas amenazas preocupantes, desde desastres naturales hasta los causados por la conducta humana. Empero, no todo el mundo comparte la misma creencia acerca de la gravedad de tales amenazas y si se puede o se debe hacer algo al respecto. Con mucha frecuencia, y para nuestro perjuicio, creemos lo que queremos creer acerca del riesgo que conlleva tal o cual situación.

Por ejemplo, en 2001, Enron —una empresa estadounidense que pasará a la historia como un caso emblemático de falsas ilusiones— finalmente se vio obligada a enfrentar la realidad e irse a la quiebra, costando a la economía estadounidense miles de millones de dólares.

En una investigación canadiense realizada en 2012, se examinó la salud de más de cuarentaicinco mil adultos. De entre quienes corrían mayor riesgo de sufrir ataques cardiacos (porque presentaban cinco o más factores de riesgo), casi dieciocho por ciento descartaron la idea de que necesitaban tomar medidas para reducir su riesgo.

Un estudio efectuado en Yale en 2016 sugería que, a pesar de que setenta de cada cien estadounidenses creen que realmente está ocurriendo un calentamiento global, más de cincuenta de cada cien creen que en caso de que llegara a afectarlos, lo haría mínimamente.

No existe dudad de que cada persona sopesa los riesgos de manera diferente. Esto se percibe claramente a través del clamor diario de principios de interés público en lo que respecta a temas como la contaminación ambiental o la reducción de la violencia armada. Sin embargo, en una época en donde la información abunda y está a disposición de cualquiera que tenga acceso a la Internet, ¿cómo está eso de que llegamos a conclusiones tan diferentes en cuanto a cómo pesar la evidencia y juzgar el riesgo de tal o cual amenaza? Si fuera simplemente una cuestión de lógica, de seguro que todos estaríamos de acuerdo acerca de cómo responder a los riesgos que enfrentamos, sean estos locales o internacionales. Mas a como están las cosas, ni siquiera podemos estar siempre de acuerdo en cuanto a cuáles son esos riesgos.

«Quienes lidian con situaciones de catástrofes o desastres naturales dicen que ante una amenaza de tsunami, por ejemplo, por lo general, la mitad de la gente dirá: ‘A nosotros nunca nos va a pasar’».

Peter Townsend, Visión entrevista (2017)

Tal como la investigación, la experiencia nos enseña que a veces el cerebro humano exagera riesgos de menor importancia mientras pasa por alto o minimiza peligros que, si se los considerara racionalmente, deberían alarmarnos por lo menos de manera igual, sino es que más. Por usar una antigua metáfora, pudiera decirse que colamos el mosquito mientras nos tragamos el camello. ¿Por qué hacemos eso?

Lo cierto es que el cerebro humano suele usar atajos (lo que se conoce como heurística), por lo general sin nuestra participación consciente, lo cual hace que a veces perdamos consideraciones importantes. Daniel Kahneman, ganador del premio Nobel quien por largo tiempo ha estudiado el proceso humano de toma de decisiones, publicó en sus inicios una serie de escritos sobre el tema juntamente con su fallecido colega Amós Tversky. Para ayudarnos a entender cómo empleamos estos atajos, él esbozó un útil modelo de dos sistemas de pensamiento, recalcando que ninguno de ellos actúa solo.

El Sistema1, señala, «opera rápida y automaticamente, con poco o nada de esfuerzo y sin sentido alguno de control voluntario». El Sistema 2, en cambio, «asigna atención a las esforzadas actividades mentales que la requieren; entre ellas, las calculaciones complejas. La operaciones del Sistema 2 se asocian a menudo con la experiencia subjetiva de representación, elección y concentración». A medida que el Sistema 2 se esfuerza en aprender, algo de lo aprendido pasa al Sistema 1; por ejemplo, tras practicar lo suficiente, conducir un automóvil o andar en bicicleta pasan a ser actividades del Sistema 1.

Es el Sistema 1 el que entra en acción para ahorrarnos tiempo cuando necesitamos tomar decisiones rápidas o llenar los vacíos de información o de significado. Tal como Kahneman señala, por lo general, el Sistema 1 hace esto al responder a una pregunta fácil en vez de a una más difícil. Esto puede resultar útil en muchos sentidos, pero sin nada que se le oponga también representa un peligro para nuestro pensamiento, pues puede evitar que reconozcamos riesgos de mayor importancia.

Lo bueno es que el Sistema 2 ciertamente puede dar un paso adelante para ofrecer el desafío necesario cuando pensamos en pedirle que preste atención. La mala noticia es que no siempre somos conscientes de que estamos en una situación en la que el Sistema 1 ha tomado la iniciativa. Y por muy aguzados o bien letrados que podamos ser, todos somos susceptibles a utilizar los mismos atajos mentales que todos los demás.

Saber que nuestra propia mente nos juega malas pasadas afectando nuestra percepción de los riesgos, y nuestra predisposición a sopesar las evidencias, ¿cómo podemos esperar responder a los graves problemas que enfrentamos a nivel mundial? ¿Qué —si algo— podemos hacer para minimizar el efecto que estos atajos incorporados al pensamiento pueden tener sobre cuán lejos se nos descarría?

Sin duda, el lugar para comenzar es tomar conciencia de las trampas potenciales.

Los atajos pueden ser los pozos

Paul Slovic es profesor de investigación de la Universidad de Oregón y fundador de Decision Research, una organización que estudia la ciencia subyacente al juicio humano, el proceso de toma de decisiones y el riesgo. Slovic ha venido investigando y publicando sobre esto desde la década de 1960. Uno de los aspectos al que más han contribuido él y sus colegas para que entendamos la toma de decisiones del ser humano y su percepción del riesgo ha sido apodado afecto heurístico.

En la jerga psicológica, el afecto se refiere a las emociones o los sentimientos subjetivos que una persona exhibe; algo así como un estado de ánimo. Alguien que tenga un afecto negativo pudiera estar experimentando una emoción angustiante, como tristeza, ansiedad, enojo o irritación. Alguien con un afecto positivo pudiera estar sintiendo interés, gozo, entusiasmo, estado de alerta; en general, un estado de ánimo positivo.

Si bien todos los atajos mentales implican un elemento de sentimiento, sabemos que este en particular está en juego cuando evaluamos un riesgo basado en los sentimientos negativos o positivos que asociamos con este. El sistema 1 sustituye «¿Qué opino de esto?» con una pregunta más fácil: «¿Cómo me siento al respecto?» Cuando nos sentimos bien con algo, ya sea por experiencia personal o no, sus beneficios parecen ser mayores que sus riesgos. Si tenemos sentimientos negativos al respecto, los riesgos parecen superar los beneficios.

Este atajo funciona bastante bien cuando podemos confiar en la precisión de nuestros sentimientos. Lamentablemente, este no es siempre el caso. Podríamos asociar un sentimiento positivo o negativo a una imagen, experiencia u objeto que no lo justifique. Los publicistas nos manipulan para que hagamos esto todo el tiempo. Gracias al Sistema 1, también vemos a nuestro equipo deportivo o partido político favorito sobre la base de los sentimientos positivos con los que llegamos a la mesa de negociaciones. Puede que pensemos que nuestros puntos de vista surgen de una evaluación lógica, pero si nos encontramos con una respuesta instintiva inmediata a algo que merece una mayor consideración, generalmente significa que el Sistema 1 está ejecutando el programa.

Por supuesto, este es solo uno de los muchos atajos de nuestro arsenal evaluar el riesgo. Los primeros trabajos de Kahneman y Tversky se concentraban en varios; entre ellos, la representatividad heurística y la accesibilidad heurística.

El primero describe nuestra tendencia a esperar que las muestras pequeñas sean representativas de un grupo más grande. Digamos que se nos dice que Rob usa lentes y traje de lana, lee mucho, es algo excéntrico, y puede contar hechos insolitos con sorprendente facilidad. Se nos pide que pronostiquemos si es un agricultor o un profesor universitario. Kahneman y Tversky descubrieron que la mayoría de nosotros supondría que es un profesor en función de lo representativo que es del estereotipo del profesor. Esto es cierto incluso cuando sabemos que hay muchos más agricultores en su ciudad que profesores, un factor que ciertamente debería tener peso. Es fácil ver cómo este atajo puede llevarnos por el camino equivocado, especialmente cuando lo usamos para hacer juicios sobre una clase completa a partir de una muestra pequeña. Por ejemplo, si los medios informan principalmente sobre musulmanes que son terroristas y no conocemos a muchos musulmanes personalmente, podríamos concluir que la mayoría de los musulmanes son terroristas, a pesar de los datos que indican que solo 46 musulmanes estadounidenses (de un total de 3,3 millones) estaban vinculados con extremismo violento en 2016. Y ese número fue inferior al del año anterior.

La heurística de accesibilidad puede parecer algo similar, pero tiene que ver más con la frecuencia que con la representación. Kahneman y Tversky la definieron como «el proceso de juzgar la frecuencia por la facilidad con que los casos nos vienen a la mente». En otras palabras, determinamos si un acontecimiento pudiera pasar, basados en cuán fácilmente podemos recordar un acontecimiento similar del pasado o imaginarnos uno del futuro. Así, si podemos pensar en varios amigos que se divorciaron cuando tenían alrededor de sesenta años, es probable que consideremos esa edad como común para los divorcios, aunque puede que —en el conjunto de la población— eso sea raro.

«Quienes lidian con situaciones de catástrofes o desastres naturales dicen que ante una amenaza de tsunami, por ejemplo, por lo general, la mitad de la gente dirá: ‘A nosotros nunca nos va a pasar’».

Daniel Kahneman, «A Machine for Jumping to Conclusions» en Monitor on Psychology

Slovic exploró esta tendencia en el contexto de riesgo al pedir a los participantes que estimaran la frecuencia de varias causas de muerte. Él y su equipo presentaron los temas de a dos en contraposición; por ejemplo, tornados en contraposición a asma y derrames cerebrales en contraposición a accidentes, preguntando cuáles eran los causantes de muerte más comunes. Los participantes fueron engañados sin mayor esfuerzo por la facilidad con que recordaban la cobertura informativa. (Por si se lo pregunta, por entonces el asma causaba veinte veces más muertes que los tornados; y los derrames cerebrales, casi el doble de muertes que todos los accidentes combinados).

Lo que solemos no tener en cuenta cuando permitimos que este atajo mental funcione sin supervisión es que lo inusual, lo aberrante —no lo cotidiano— es lo que los informes noticiosos cubren o viene a la memoria más fácilmente por experiencia propia. Aun si pudiéramos recordar varios casos de acontecimientos similares, recordemos también otro obstáculo: nuestra propia experiencia no es necesariamente representativa de una verdad universal. Por esta misma razón, el hecho de no poder recordar un ejemplo de determinado tipo de acontecimiento no significa que este no haya sucedido o no pueda suceder en el futuro, pese a que el Sistema 1 se complazca en hacernos dormir en los laureles. El hecho de que cincuenta por ciento de los estadounidenses crean que el calentamiento global los afectará «muy poco, si acaso» se puede atribuir, al menos parcialmente, al funcionamiento de la heurística de disponibilidad.

Pensándolo bien

A esta altura debería ser claro que cuando nos oímos decir «actué por instinto», estamos habilitando al menos uno de los atajos del Sistema 1… y tal vez más de uno. No se trata de que nuestro instinto sea incapaz de orientarnos bien a veces; el problema es que puede estar equivocado tantas veces como está en lo cierto. Así que, por las dudas, esa frase debería siempre inducirnos a retroceder y verificar.

Incluso cuando revisamos nuestras decisiones conociendo los peligros en potencia, somos aún capaces de caer presa de atajos o prejuicios. Puede resultar fácil convencernos de que hemos eliminado bien todos nuestros programas mentales maliciosos incluso cuando en el fondo opera un poderoso troyano.

Uno de los más poderosos de entre estos es nuestra confianza ciega en nuestra propia inteligecia y capacidad de razonamiento. Aunque, tal como Kahneman señala, la confianza también es un sentimiento, «uno determinado mayormente por la coherencia de la historia y la facilidad con la que viene a la mente, incluso cuando la evidencia para la historia es escasa y poco fiable. El sesgo hacia la coherencia favorece la confianza excesiva». Si, para nosotros, la conclusión de la historia simplemente «tiene sentido», no tenemos reparos en omitir algunos detalles inconvenientes, aunque fácticos. En realidad, según Kahneman, cuantos menos son los detalles, más fácil nos resulta construir una historia coherente.

«Nuestra reconfortante convicción de que el mundo tiene sentido yace sobre una base segura: nuestra casi ilimitada capacidad de ignorar nuestra ignorancia».

Daniel Kahneman, Thinking, Fast and Slow

Ayudando y contribuyendo con este troyano está el hecho de que cada uno de nosotros somos emocionalmente dependientes de suposiciones preexistentes —nuestros propios pequeños ídolos mentales, por así decirlo— que impulsan la manera en que construimos nuestras historias. Puede que pensemos que razonamos desde una posición objetiva, pero en cuanto la confianza excesiva en la calidad de nuestro pensamiento se consolida, menos nos motiva usar de modo alguno la razón. Nuestra atención se siente atraída a cualquier evidencia que parece justificar nuestra confianza, mientras pasamos por alto lo que no la justifica. Así la racionalización ha tomado el lugar del razonamiento.

Tal vez uno de los ejemplos más dramáticos de esto se puede ver en la arena política, donde muchos de los riesgos que enfrenta la humanidad se discuten públicamente. Los teóricos de la política alguna vez pensaron que el partidismo polarizado garantizaría «decisiones partidistas inteligentes», porque las personas podrían determinar lógicamente lo mejor de dos cursos opuestos. De manera muy similar, antes los economistas creían que sostenían la economía personas que hacían elecciones racionales siempre considerando su mejor interés. Sin embargo, al igual que Kahneman reveló que «el economista racional» es una figura imaginaria, otros investigadores están encontrando que «el público racional» es un fantasma en la arena política. Todos los atajos mentales que la gente usa en la economía proliferan también en la política; y no es de extrañarse: los seres humanos que operan en ambos ámbitos constituyen la misma especie, sujeta a los mismos errores de juicio.

Conocemos la verdad de esto. La vemos a diario, al menos en otros. Es fácil detectar errores cognitivos en los demás; es ante los nuestros que a menudo estamos ciegos. Y puede que este sea el mayor obstáculo que nos impida, colectivamente, abordar los apremiantes problemas mundiales que amenazan la supervivencia humana. Si pudiéramos extraer tales debates del plano político y colocarlos en uno moral, podríamos tener una oportunidad.

«Para sobrevivir, una humanidad sabia se guiará por creencias que sean bien fundamentadas y morales».

Julian Cribb, Surviving the 21st Century

Presumiblemente, sería más fácil convenir en los principios morales, porque existen por encima de la contienda política: «Ama a tu prójimo como a ti mismo»; si ve a alguien en necesidad y puede ayudarle, hágalo; sean buenos administradores de la tierra. Pasamos por alto muchos imperativos morales en detrimento nuestro, pero estos pocos nos darían siquiera un comienzo por un camino más constructivo.

Esperar una transformación radical de la humanidad en el futuro cercano es, en el mejor de los casos, idealista. Pero comenzando en una escala mucho más local —conmigo, contigo— podemos hacer cambios individuales positivos a nuestro pensamiento y comportamiento. Puede que no cambiemos la trayectoria de la supervivencia humana a escala global, pero podemos tener la satisfacción de trabajar duro para corregir nuestro propio pensamiento y comportamiento, haciendo lo correcto por las razones correctas. ¿Y qué pasaría si los demás hicieran lo mismo?