¿Por qué creemos que entendemos el mundo más de lo que realmente lo hacemos?

La ilusión de la profundidad explicativa

explicó.
Bias

¿Qué es la ilusión de profundidad explicativa?

La ilusión de profundidad explicativa (IOED) describe nuestra creencia de que entendemos más sobre el mundo de lo que realmente entendemos. A menudo, hasta que no se nos pide que expliquemos un concepto, no nos enfrentamos a nuestra limitada comprensión del mismo.

Dónde se produce este sesgo

Imagina que un extraterrestre viene a la Tierra y te exige que le expliques el concepto de las casas. Para ti es fácil, ¿verdad? Es de suponer que has vivido en una casa toda tu vida, al igual que todos tus conocidos. Cada vez que das un paseo o vas en coche, ves al menos 50 de ellas. Explicar las casas a los extraterrestres debería ser pan comido.

Y sin embargo, cuando el extraterrestre toma asiento para escuchar, te das cuenta de que puedes decirle lo que es una casa, pero no puedes explicarle gran cosa sobre ellas. ¿Cómo se construyen? ¿Cómo llegamos los civiles a vivir en casas? ¿Cómo se determinan sus precios? ¿Cuáles son las leyes que las rigen? ¿Cuánto tiempo hace que la gente vive en casas y en qué vivían antes? Tal vez pueda responder a una o dos de estas preguntas concretas, pero seguro que el extranjero tendrá aún más preguntas que usted no puede responder. Pensar que la vivienda es un concepto tan sencillo y que en realidad sabes mucho menos de lo que habías previsto te desconcierta enormemente. Esto se debe a la ilusión de profundidad explicativa: tener que explicar tus conocimientos te lleva a darte cuenta de que en realidad sabes mucho menos de lo que creías.

Efectos individuales

La ilusión de profundidad explicativa puede hacer que tomes decisiones importantes basándote en información limitada, ya que crees sistemáticamente que tienes mucha más información con la que trabajar de la que realmente tienes. Como resultado de una información limitada pero convincente, es posible que un nuevo concepto le apasione y le entusiasme. Tal vez descubra una nueva causa que decida apoyar, o una nueva clase que de repente le entusiasme seguir. Sin embargo, cuando se le pide que explique la causa por la que lucha o la clase a la que se apunta, puede que se quede sin palabras. En estos casos, tus decisiones e intuiciones suelen basarse más en sentimientos que en pensamientos profundos, lo que se hace evidente por tu escasa capacidad para explicarlas. Si eliges constantemente en función de tus sentimientos inmediatos, hacia objetivos o causas que no puedes explicar en profundidad y que no comprendes del todo, puede que tus valores se vean tergiversados por tus elecciones vitales.

Efectos sistémicos

En general, la gente suele tener opiniones muy firmes sobre temas sobre los que tiene poca información, lo que hace que los movimientos sociales y políticos tengan mucha gente detrás con ideas limitadas sobre aquello por lo que luchan. De hecho, los estudios demuestran que los más apasionados por una causa determinada suelen saber menos sobre ella. Cuando el científico cognitivo Phil Fernbach y sus colegas plantearon una pregunta científica sobre los alimentos modificados genéticamente a un grupo lleno de personas y luego les preguntaron con qué firmeza estaban a favor o en contra de los alimentos modificados genéticamente, descubrieron que los que se equivocaban en la pregunta científica solían estar más apasionados por el bando que apoyaban.

En nuestra esfera política, los temas suelen debatirse acaloradamente sobre la base de "a favor o en contra", con dos bandos enfrentados. Aunque la mayoría de la gente puede enumerar una tras otra las razones por las que está a favor o en contra de una determinada causa, son menos los que pueden explicar con claridad el tema en cuestión. Pensar que entendemos las cosas mucho más de lo que realmente las entendemos nos lleva, por desgracia, a sacar conclusiones precipitadas sobre el bando al que apoyamos antes incluso de comprender plenamente la cuestión. Como puede ver, este sesgo causa innecesariamente división y falta de consenso en la sociedad.

Por qué ocurre

Ceguera al cambio

La ceguera al cambio es la tendencia humana a pasar por alto los cambios en la apariencia cuando el cambio se ve interrumpido por otros estímulos visuales. Por ejemplo, si ves la imagen de una bicicleta y, de repente, ves otra cosa, no te darás cuenta si la imagen de la bicicleta vuelve a tener un aspecto ligeramente distinto al anterior.

En cierto modo, la ceguera al cambio contribuye a que entendamos mucho menos de lo que creemos acerca de todo tipo de conceptos. Cuando no tenemos algo delante, nos volvemos ciegos a muchas de sus características, y también a nuestra propia ceguera. Esto se demostró específicamente con las bicicletas en otro experimento, en el que Fernbach y sus colegas preguntaron a la gente cuánto sabían sobre las bicicletas. Como se puede predecir, muchos de los sujetos del experimento pronosticaron un alto grado de conocimiento. Sin embargo, después de pedirles que dibujaran una bicicleta básica, todos sus dibujos eran tremendamente inexactos cuando se comparaban con bicicletas reales, en gran parte debido a la ceguera al cambio. Por desgracia, cuando no tenemos la información delante, nuestros recuerdos y concepciones de la misma son, en el mejor de los casos, precarios, pero nuestro ego sigue intacto.

La ilusión de los niveles

Ser capaz de describir distintos niveles de un elemento o concepto infla nuestra percepción de lo mucho que sabemos sobre él. Por ejemplo, si te piden que expliques cómo funciona un ordenador, puedes empezar enumerando sus distintas partes: hay una pantalla, un ratón, un teclado y una placa base. Si puedes pasar al siguiente nivel -describir qué hace o qué aspecto tiene un teclado-, es posible que creas que puedes seguir profundizando más y más y que, por tanto, sabes mucho. Dicho esto, si sigues sin poder explicar cómo funcionan estas piezas juntas para que el ordenador funcione, en realidad no puedes explicar los ordenadores.

Información indiscreta

A diferencia de los hechos o el conocimiento de procesos, las explicaciones no tienen un final discreto y, en la práctica, pueden no detenerse hasta que el público llegue a comprenderlas. Mientras que para nosotros está claro si conocemos o no un hecho -sí o no- y si podemos o no describir un proceso -en la medida en que alcanza un objetivo final-, el conocimiento explicativo no llega a un final natural. Por eso, cualquier cosa que puedas empezar a explicar te lleva a creer que la entiendes aunque la explicación no sea en absoluto sólida o completa.

Rareza

Por último, la ilusión de profundidad explicativa se produce porque, sencillamente, rara vez explicamos las cosas. Si piensas en la última vez que le contaste a alguien un hecho o le enseñaste a alguien un proceso, probablemente fue hace más tiempo que la última vez que explicaste un concepto. A menudo damos razones por las que apoyamos o condenamos una causa, pero rara vez explicamos la causa en detalle. A su vez, esto conduce a una peor comprensión general y a una menor práctica y destreza en las explicaciones: un clásico círculo vicioso.

Por qué es importante

La ilusión de profundidad explicativa es importante porque muestra la ignorancia en la que se basan muchos aspectos de la sociedad y las falsas pretensiones bajo las que existe tanta división. Aunque muchas personas se creen expertas en determinados campos, cuando se les pide que expliquen sus puntos de vista, a menudo se callan. La ilusión de la profundidad explicativa nos muestra que más explicaciones -y menos "dar la razón" y argumentar- pueden ayudar a nuestra sociedad a crear consenso, comprensión y conocimientos más profundos.

Cómo evitarlo

La próxima vez que conozcas algo nuevo, pídele que te explique el concepto en voz alta a ti mismo o a otra persona antes de formarte una opinión firme al respecto. Acepta preguntas de otras personas, o predice cuáles pueden ser sus preguntas. Al hacerlo, sigue indagando en busca de respuestas y no te cierres a descubrir más información. Desgraciadamente, las personas mejor informadas se apasionan menos por los temas, ya que comprenden bien las múltiples facetas y factores en juego. Antes de que tu propia pasión nuble tu comprensión y se convierta en un post odioso en Facebook, practica explicando conceptos en voz alta y detectando lagunas en tus propios conocimientos.

Cómo empezó todo

La ilusión de profundidad explicativa fue acuñada en 2002 por los investigadores de Yale Leonid Rozenblit y Frank Keil. En su experimento, Rozenblit y Keil pidieron a estudiantes universitarios de Yale que evaluaran sus conocimientos sobre objetos cotidianos como máquinas de coser, teléfonos móviles y cremalleras. A continuación, pidieron a los sujetos que escribieran una explicación detallada del funcionamiento de cada artículo y luego volvieran a calificar sus propios conocimientos sobre ellos. Al enfrentarse a las limitaciones de su propia comprensión, los participantes se puntuaron a sí mismos mucho más bajo de lo que lo habían hecho antes de escribir estas explicaciones. En su artículo The Misunderstood Limits of Folk Science: An Illusion of Explanatory Depth, Rozenblit y Keil llegaron a la conclusión de que tener que explicar conceptos básicos ayuda a las personas a darse cuenta de que no saben todo lo que creen saber.

Ejemplo 1 - Toma de decisiones sobre el sarpullido

Supongamos que encuentra información sobre un nuevo programa de postgrado que parece encajar perfectamente con usted. Su eslogan y sus técnicas de marketing se basan en tus valores de innovación, mejora de la sociedad y diversidad. Está situado en una ciudad a la que siempre has querido mudarte, y sus graduados recientes han tenido carreras de éxito en una variedad de campos que sin duda podrías ver en tu bola de cristal personal. Ya has empezado a presentar tu solicitud y empiezas a hablar a tus amigos y familiares de tu entusiasmo.

De repente, uno de tus amigos te llama y te pide que le cuentes más cosas sobre el programa. Le das las razones por las que quieres ir: está en una gran ciudad, tiene antiguos alumnos de renombre y su sitio web refleja tus valores.

"No, no, no", dice tu amigo, deteniéndote. "Quiero que me expliques el programa en sí. ¿Qué vas a aprender? ¿Para qué te entrena realmente el programa?".

A menudo, los temas y los conceptos nos atrapan cuando pensamos deprisa y con mucha pasión, lo que significa que nuestros sentimientos no se traducen necesariamente de forma sucinta en una explicación. En estos casos, podemos tomar decisiones precipitadas sin pensarlas bien, y que nos pidan que nos expliquemos puede ayudarnos a ponernos en contacto con nuestros propios pensamientos.

Si no fuera por tu amigo, antes de que te des cuenta, puedes gastarte miles de dólares en un programa de posgrado que ni siquiera entiendes del todo. Sólo el intento de explicarte el programa puede volver a ponerte en contacto con tu propia realidad, e impulsarte a investigar un poco más.

Ejemplo 2 - Extremismo político

En un estudio realizado por Phil Fernbach y sus colegas, los experimentadores preguntaron a los sujetos qué causas políticas les interesaban más y les pidieron que explicaran por qué las apoyaban. Después, los experimentadores se ofrecieron a donar dinero en nombre de los sujetos a un grupo de defensa de esas causas concretas, y la mayoría de las veces, los sujetos aceptaron.

En un segundo ensayo, los experimentadores preguntaron a los sujetos qué causas políticas les interesaban más y luego les pidieron que las explicaran detalladamente. Después, una vez más, los experimentadores se ofrecieron a donar dinero en nombre de los sujetos a un grupo de defensa de esas causas concretas. En este ensayo, sin embargo, la gente rechazó en gran medida las ofertas de los experimentadores. Tras explicarles las causas, los sujetos solían darse cuenta de que en realidad no sabían tanto como creían saber sobre estos temas, y que preferirían profundizar en ellos antes de darles dinero.

Mientras que en el primer caso, cuando se les pedía que pensaran en un solo bando, se confirmaban sus opiniones, cuando se les pedía que explicaran un punto de vista más general en el segundo ensayo, se lo pensaban dos veces antes de apoyar una causa. Como puede verse, el hecho de que nuestro panorama político se centre en la argumentación y la razón, en lugar de en la explicación exhaustiva, a menudo confirma las opiniones que la gente ya tiene, fomentando el extremismo y la división.

Resumen

  1. Qué es
    La ilusión de profundidad explicativa describe la constatación común que tenemos cuando empezamos a explicar un concepto: que en realidad lo entendemos mucho menos de lo que pensábamos.
  1. Por qué ocurre
    La ilusión de profundidad explicativa ocurre por cuatro razones:
    1. Cuando la información no está delante de nosotros, nuestros recuerdos para ella son borrosos, pero no somos conscientes de este vacío.
    2. Creer que podemos explicar brevemente múltiples partes o niveles de un concepto nos lleva a creer que entendemos mejor todo el concepto
    3. .
    4. No tener un punto final natural para las explicaciones alimenta nuestro ego y nos lleva a creer que podemos explicar bien cualquier cosa, ya que no existe lo "completo"
    5. .
    6. Rara vez explicamos las cosas y, por lo tanto, no obtenemos la práctica o la retroalimentación que necesitamos para comprender nuestras propias deficiencias.
  1. Ejemplo 1 - Toma de decisiones precipitadas
    Sin la oportunidad de explicar nuestras decisiones y, por lo tanto, de detectar lagunas en las que debemos profundizar, basamos demasiado nuestras decisiones en emociones e impulsos, lo que nos lleva a tomar decisiones de las que más tarde podemos arrepentirnos.
  2. Ejemplo 1 - Toma de decisiones precipitadas
  1. Ejemplo 2 - Extremismo político
    Cuando explicamos los conceptos que subyacen a nuestros puntos de vista, en lugar de las razones o argumentos que los sustentan, obtenemos una comprensión más holística de cualquier asunto que puede combatir el extremismo político y la división.
  2. Extremismo político.
  1. Cómo evitarlo
    Puedes evitar el IOED explicando conceptos en detalle, en voz alta, antes de lanzarte a debatir o tomar decisiones al respecto. Mantén la mente, los ojos y los oídos abiertos, y asegúrate de comprender todos los puntos de vista de un tema antes de elegir uno por el que responder.
  2. Cómo evitarlo
  3. Cómo evitarlo.

Artículos relacionados con TDL

El sesgo de confirmación describe nuestra tendencia a buscar información que se corresponda con las creencias que ya tenemos. Al igual que la ilusión de profundidad explicativa, este sesgo puede provocar división en la sociedad como resultado de la ignorancia disfrazada de arrogancia.

Al igual que la ilusión de profundidad explicativa, la ilusión de validez describe nuestra tendencia a confiar demasiado en la exactitud de nuestros juicios y predicciones.

Referencias

  1. Fernbach, P. (2013, November 15). The Illusion of Understanding: Phil Fernbach at TEDxGoldenGatePark. YouTube. https://www.youtube.com/watch?v=2SlbsnaSNNM&ab_channel=TEDxTalks
  2. (2017, November 29). You Don’t Know How Toilets Work – The Illusion Of Explanatory Depth [Video]. YouTube. https://www.youtube.com/watch?v=9CodKUa4F2o&ab_channel=Technicality
  3. Waytz, A. (2017). The Illusion of Explanatory Depth. Edge.org. https://www.edge.org/response-detail/27117
Notes illustration

Eager to learn about how behavioral science can help your organization?