Pourquoi pensons-nous mieux comprendre le monde qu'en réalité ?

L'illusion de la profondeur explicative

a expliqué.
Bias

Qu'est-ce que l'illusion de la profondeur explicative ?

L'illusion de la profondeur explicative (IOED) décrit notre conviction que nous comprenons mieux le monde que nous ne le faisons en réalité. Souvent, ce n'est que lorsqu'on nous demande d'expliquer un concept que nous sommes confrontés à notre compréhension limitée de celui-ci.

Où ce biais se produit-il ?

Imaginez qu'un extraterrestre vienne sur Terre et vous demande d'expliquer le concept de maison. C'est facile pour vous, n'est-ce pas ? Vous avez probablement vécu dans une maison toute votre vie, comme toutes les personnes que vous connaissez. Chaque fois que vous vous promenez, vous en voyez au moins 50. Expliquer les maisons aux extraterrestres devrait être un jeu d'enfant.

Pourtant, alors que l'étranger s'assoit pour écouter, vous vous rendez compte que vous pouvez lui dire ce qu'est une maison, mais que vous ne pouvez pas lui expliquer grand-chose à leur sujet. Comment sont-elles construites ? Comment en sommes-nous venus, en tant que civils, à vivre dans des maisons ? Comment leurs prix sont-ils déterminés ? Quelles sont les lois qui les régissent ? Depuis combien de temps les gens vivent-ils dans des maisons, et dans quoi vivaient-ils auparavant ? Vous pouvez peut-être répondre à une ou deux de ces questions spécifiques, mais l'étranger aura certainement d'autres questions auxquelles vous ne pourrez pas répondre. Penser que le logement est un concept si simple et que vous en savez en réalité beaucoup moins que vous ne l'aviez prédit vous laisse très perplexe. Cela est dû à l'illusion de la profondeur explicative : le fait de devoir expliquer vos connaissances vous amène à réaliser que vous en savez en fait beaucoup moins que vous ne le pensiez.

Effets individuels

L'illusion de la profondeur explicative peut vous amener à prendre des décisions importantes sur la base d'informations limitées, car vous croyez constamment que vous disposez de beaucoup plus d'informations que vous n'en avez en réalité. Grâce à des informations limitées mais convaincantes, vous pouvez devenir passionné et enthousiaste à l'égard d'un nouveau concept. Vous découvrez peut-être une nouvelle cause que vous décidez de soutenir ou un nouveau cours que vous êtes soudain enthousiaste à l'idée de suivre. Cependant, lorsqu'on vous demande d'expliquer la cause que vous défendez ou le cours auquel vous vous inscrivez, vous risquez d'être à court de mots. Dans ce cas, vos décisions et vos intuitions sont souvent fondées sur des sentiments plutôt que sur des pensées profondes, comme en témoigne votre faible capacité à les expliquer. Si vous faites systématiquement des choix en fonction de vos sentiments immédiats, en faveur d'objectifs ou de causes que vous ne pouvez pas expliquer en profondeur et que vous ne comprenez pas entièrement, vous risquez de voir vos valeurs mal représentées dans vos choix de vie.

Effets systémiques

Dans l'ensemble, les gens ont trop souvent des opinions tranchées sur des sujets pour lesquels ils ne disposent que d'informations limitées, ce qui fait que les mouvements sociaux et politiques sont soutenus par un grand nombre de personnes qui n'ont qu'une idée limitée de ce pour quoi elles se battent. En fait, des études montrent que les personnes les plus passionnées par une cause donnée en savent souvent moins à son sujet. Lorsque le chercheur en sciences cognitives Phil Fernbach et ses collègues ont posé une question scientifique sur les aliments génétiquement modifiés à un groupe de personnes, puis leur ont demandé s'ils étaient pour ou contre les aliments génétiquement modifiés, ils ont constaté que ceux qui s'étaient trompés sur la question scientifique étaient souvent plus passionnés par le camp qu'ils soutenaient.

Dans notre sphère politique, les questions sont souvent vivement débattues sur la base d'un "pour ou contre", avec deux camps opposés. Si la plupart des gens peuvent énumérer les raisons pour lesquelles ils sont pour ou contre une certaine cause, rares sont ceux qui peuvent réellement expliquer la question en jeu avec clarté. Le fait de penser que nous comprenons les choses bien mieux qu'elles ne le sont en réalité nous pousse malheureusement à tirer des conclusions hâtives sur le camp que nous soutenons avant même d'avoir pleinement compris la question. Comme vous pouvez le constater, ce parti pris est inutilement source de division et d'absence de consensus dans la société.

Pourquoi cela se produit-il ?

Cécité au changement

La cécité au changement est la tendance humaine à ne pas remarquer les changements d'apparence lorsque le changement est perturbé par d'autres stimuli visuels. Par exemple, si vous voyez l'image d'un vélo, puis soudainement quelque chose d'autre, vous ne remarquerez pas si l'image du vélo revient avec un aspect légèrement différent de celui d'avant.

D'une certaine manière, la cécité au changement explique pourquoi nous comprenons beaucoup moins que nous ne le pensons toutes sortes de concepts. Lorsque quelque chose n'est pas devant nous, nous devenons aveugles à bon nombre de ses caractéristiques - et également aveugles à notre propre cécité. Cela a été prouvé avec les vélos dans une autre expérience, au cours de laquelle Fernbach et ses collègues ont demandé à des personnes ce qu'elles savaient sur les vélos. Comme on peut s'en douter, la plupart des sujets de l'expérience avaient prévu un niveau de connaissance élevé. Cependant, après leur avoir demandé de dessiner un vélo de base, tous leurs dessins se sont révélés extrêmement imprécis lorsqu'ils ont été comparés à des vélos réels, en grande partie à cause de la cécité au changement. Malheureusement, lorsque l'information n'est pas directement sous nos yeux, nos souvenirs et nos conceptions sont pour le moins fragiles, mais notre ego reste intact.

L'illusion des niveaux

Le fait de pouvoir décrire différents niveaux d'un élément ou d'un concept gonfle notre perception de l'étendue de nos connaissances à son sujet. Par exemple, si l'on vous demande d'expliquer le fonctionnement d'un ordinateur, vous pouvez commencer par énumérer ses différentes parties : il y a un écran, une souris, un clavier et une carte mère. Si vous pouvez passer au niveau suivant - décrire ce que fait un clavier ou à quoi il ressemble - vous pouvez penser que vous pouvez aller de plus en plus loin et que vous en savez donc beaucoup. Cela dit, si vous ne pouvez toujours pas expliquer comment ces pièces fonctionnent ensemble pour faire fonctionner l'ordinateur, vous ne pouvez pas vraiment expliquer ce qu'est un ordinateur.

Informations discrètes

Contrairement aux faits ou à la connaissance des processus, les explications n'ont pas de fin discrète et, dans la pratique, peuvent ne pas s'arrêter tant que le public n'a pas compris. Alors que nous savons clairement si nous connaissons ou non un fait - oui ou non - et si nous pouvons ou non décrire un processus - car il atteint un objectif final - la connaissance explicative n'atteint pas une fin naturelle. Pour cette raison, tout ce que vous pouvez commencer à expliquer vous amène à croire que vous le comprenez, même si l'explication n'est pas du tout solide ou complète.

Rareté

Enfin, l'illusion de la profondeur explicative se produit parce que, tout simplement, nous expliquons rarement les choses. Si vous pensez à la dernière fois que vous avez raconté un fait ou enseigné un processus à quelqu'un, c'est probablement plus récent que la dernière fois que vous avez expliqué un concept. Nous donnons souvent les raisons pour lesquelles nous soutenons ou condamnons une cause, mais nous expliquons rarement cette cause en détail. Cela conduit à une moins bonne compréhension globale et à une diminution de la pratique et de la compétence en matière d'explications - un cercle vicieux classique.

Pourquoi c'est important

L'illusion de la profondeur explicative est importante parce qu'elle montre l'ignorance sur laquelle reposent de nombreux aspects de la société et les faux prétextes sous lesquels tant de divisions existent. Alors que de nombreuses personnes pensent être des experts dans certains domaines, lorsqu'on leur demande d'expliquer leur point de vue, elles se taisent souvent. L'illusion de la profondeur explicative nous montre que plus d'explications - et moins de "raisonnements" et d'arguments - peuvent aider notre société à parvenir à un consensus, à la compréhension et à une connaissance plus approfondie.

Comment l'éviter ?

La prochaine fois que vous découvrirez quelque chose de nouveau, demandez-vous d'expliquer le concept à haute voix, à vous-même ou à quelqu'un d'autre, avant de vous faire une opinion bien arrêtée sur le sujet. Répondez aux questions des autres ou prévoyez les questions qu'ils pourraient vous poser. Ce faisant, continuez à chercher des réponses et ne vous empêchez pas de découvrir d'autres informations. Malheureusement, les personnes les mieux informées sont moins passionnées par un sujet, car elles comprennent bien les nombreux aspects et facteurs en jeu. Avant que votre passion n'obscurcisse votre compréhension et ne se transforme en un post haineux sur Facebook, entraînez-vous à expliquer les concepts à voix haute et à repérer les lacunes dans vos propres connaissances.

Comment tout a commencé

L'illusion de la profondeur explicative a été inventée en 2002 par les chercheurs de Yale Leonid Rozenblit et Frank Keil. Dans leur expérience, Rozenblit et Keil ont demandé à des étudiants de Yale d'évaluer leur compréhension d'objets courants tels que les machines à coudre, les téléphones portables et les fermetures à glissière. Ils ont ensuite demandé aux sujets de rédiger une explication détaillée du fonctionnement de chaque article, puis de réévaluer leurs propres connaissances sur ces articles. Confrontés aux limites de leur propre compréhension, les participants se sont systématiquement notés beaucoup moins bien qu'avant de rédiger ces explications. Dans leur article intitulé "The Misunderstood Limits of Folk Science : An Illusion of Explanatory Depth, Rozenblit et Keil concluent que le fait de devoir expliquer des concepts de base aide les gens à se rendre compte qu'ils ne savent pas tout ce qu'ils croient savoir.

Exemple 1 - Prise de décision en matière d'éruption cutanée

Supposons que vous tombiez par hasard sur des informations concernant un nouveau programme d'études supérieures qui semble vous convenir parfaitement. Son slogan et ses techniques de marketing s'inspirent de vos valeurs d'innovation, d'amélioration de la société et de diversité. Il est situé dans une ville où vous avez toujours voulu vous installer, et ses récents diplômés ont fait de brillantes carrières dans des domaines variés que vous pourriez certainement voir dans votre boule de cristal personnelle. Vous commencez déjà à poser votre candidature et vous commencez à faire part de votre enthousiasme à vos amis et à votre famille.

Soudain, l'un de vos amis vous appelle et vous demande de lui en dire plus sur le programme. Vous lui présentez les raisons pour lesquelles vous voulez y aller : la ville est excellente, les anciens élèves sont réputés et le site web correspond vraiment à vos valeurs.

"Non, non, non", dit votre ami en vous arrêtant. "Je veux que tu m'expliques le programme lui-même. Qu'allez-vous apprendre ? Qu'est-ce que le programme vous apprend à faire ?"

Souvent, les sujets et les concepts nous interpellent lorsque nous pensons vite et que nous sommes passionnés, ce qui signifie que nos sentiments ne se traduisent pas nécessairement par une explication succincte. Dans ces cas-là, nous pouvons prendre des décisions irréfléchies, et le fait d'être invité à s'expliquer peut en fait nous aider à prendre conscience de nos propres pensées.

Sans votre ami, vous risquez de dépenser des milliers d'euros pour un programme d'études supérieures que vous ne comprenez même pas entièrement. Seule la tentative d'explication du programme peut vous remettre en contact avec votre propre réalité et vous inciter à faire des recherches plus approfondies.

Exemple 2 - L'extrémisme politique

Dans une étude menée par Phil Fernbach et ses collègues, les expérimentateurs ont demandé aux sujets quelles étaient les causes politiques qui leur tenaient à cœur, puis leur ont demandé de donner les raisons pour lesquelles ils les soutenaient. Ensuite, les expérimentateurs ont proposé aux sujets de faire un don d'argent à un groupe de défense de ces causes particulières et, le plus souvent, les sujets ont accepté.

Dans un deuxième essai, les expérimentateurs ont demandé aux sujets quelles étaient les causes politiques qui leur tenaient à cœur, puis leur ont simplement demandé d'expliquer ces causes en détail. Ensuite, les expérimentateurs ont à nouveau proposé aux sujets de faire un don d'argent à un groupe de défense de ces causes particulières. Dans cet essai, cependant, les sujets ont largement décliné les offres des expérimentateurs. Après avoir expliqué les causes, les sujets ont souvent réalisé qu'ils n'en savaient pas autant qu'ils le pensaient sur ces sujets et qu'ils préféreraient approfondir ces questions avant de leur donner de l'argent.

Alors que dans le premier cas, le fait d'être invité à penser à un seul camp a confirmé les opinions déjà exprimées par les sujets, le fait d'être invité à expliquer un point de vue plus général lors du deuxième essai a incité les sujets à réfléchir à deux fois avant d'apporter leur soutien à une cause. Comme vous pouvez le constater, l'accent mis par notre paysage politique sur l'argumentation et la raison, plutôt que sur l'explication approfondie, confirme souvent les opinions déjà exprimées par les gens, encourageant l'extrémisme et la division.

Résumé

  1. De quoi s'agit-il ?
    L'illusion de la profondeur explicative décrit la prise de conscience commune que nous avons lorsque nous commençons à expliquer un concept : nous le comprenons en fait beaucoup moins que nous ne le pensions.
  1. Pourquoi ça arrive
    L'illusion de la profondeur explicative se produit pour quatre raisons:
    1. Lorsque l'information n'est pas devant nous, nos souvenirs sont flous, mais nous ne sommes pas conscients de cette lacune.
    2. Le fait de croire que nous pouvons expliquer brièvement plusieurs parties ou niveaux d'un concept nous amène à penser que nous comprenons mieux l'ensemble du concept
    3. .
    4. L'absence de point final naturel pour les explications nourrit notre ego et nous amène à croire que nous pouvons expliquer n'importe quoi de manière satisfaisante, puisque la notion de "complet" n'existe pas
    5. .
    6. Nous expliquons rarement les choses et, par conséquent, nous n'obtenons pas la pratique ou le retour d'information dont nous avons besoin pour comprendre nos propres lacunes.
  1. Exemple 1 - Prise de décision irréfléchie
    Sans la possibilité d'expliquer nos décisions et donc de repérer les lacunes à approfondir, nous fondons trop largement nos décisions sur nos émotions et nos impulsions, ce qui nous conduit à des choix que nous risquons de regretter par la suite.
  1. Exemple 2 - L'extrémisme politique
  1. Comment l'éviter ?
    Vous pouvez éviter la DEIO en expliquant les concepts en détail, à voix haute, avant de vous lancer dans un débat ou de prendre des décisions à leur sujet. Gardez l'esprit, les yeux et les oreilles ouverts et veillez à comprendre tous les aspects d'un sujet avant d'en choisir un pour lequel vous vous porterez garant.

Articles connexes de TDL

Le biais de confirmation décrit notre tendance à rechercher des informations qui correspondent aux croyances que nous avons déjà. Tout comme l'illusion de la profondeur explicative, ce biais peut conduire à la division de la société en raison de l'ignorance déguisée par l'arrogance.

Tout comme l'illusion de la profondeur explicative, l'illusion de la validité décrit notre tendance à être trop confiant dans l'exactitude de nos jugements et de nos prédictions.

Références

  1. Fernbach, P. (2013, November 15). The Illusion of Understanding: Phil Fernbach at TEDxGoldenGatePark. YouTube. https://www.youtube.com/watch?v=2SlbsnaSNNM&ab_channel=TEDxTalks
  2. (2017, November 29). You Don’t Know How Toilets Work – The Illusion Of Explanatory Depth [Video]. YouTube. https://www.youtube.com/watch?v=9CodKUa4F2o&ab_channel=Technicality
  3. Waytz, A. (2017). The Illusion of Explanatory Depth. Edge.org. https://www.edge.org/response-detail/27117
Notes illustration

Vous souhaitez savoir comment les sciences du comportement peuvent aider votre organisation ?