illustration of future of preferences

Perspective TDL : L'avenir des préférences

read time - icon

0 min read

Dec 13, 2020

"Je pense que les plus grandes questions en neurosciences auxquelles on n'a pas encore répondu seront les principaux moteurs de ce que nous déciderons de faire e
n tant qu'espèce avec la technologie.

man holding a computer connecting to another man holding the same

Avant-propos

Le projet TDL Perspectives est une série d'entretiens avec des leaders d'opinion qui participent à notre mission de démocratisation des sciences du comportement. Nous sélectionnons des points de vue spécifiques qui se situent à la frontière de l'actualité des sciences du comportement, qu'il s'agisse d'applications qui intègrent nos connaissances dans divers secteurs d'activité ou de discussions théoriques sur la frontière controversée de la recherche actuelle. Si vous avez des idées sur ces discussions, si vous avez une expertise que vous aimeriez partager ou si vous voulez contribuer d'une manière ou d'une autre, n'hésitez pas à contacter Nathan à l'adresse nathan@thedecisionlab.com.

Introduction

Aujourd'hui, Sekoul Krastev, directeur général du Decision Lab, s'entretient avec Nathan de l'intelligence artificielle et de l'avenir des choix humains. Nous faisons un zoom sur l'intersection entre l'IA et les sciences du comportement pour comprendre comment le paysage de la prise de décision subit des transitions périodiques et ce qui peut être fait pour rendre le monde meilleur dans ce contexte. Nous déconstruisons les différentes façons dont les personnes travaillant dans les domaines concernés envisagent la cognition humaine et la cognition des machines. Ensuite, nous nous tournons vers l'avenir de la technologie pour comprendre comment ces différentes compréhensions de la prise de décision informent les solutions potentielles aux problèmes actuels.

Principaux enseignements

  • Même si les décisions sont prises en un instant, le processus est étalé dans le temps. Ce n'est pas toujours le cas pour les machines et cela change la façon dont elles sont conçues.
  • La plus grande différence entre l'homme et l'IA pourrait être liée à la manière dont ils sont conçus, plutôt qu'à leurs processus cognitifs une fois que les résultats sont déterminés.
  • Une quantité limitée d'informations est vraiment importante pour le bon fonctionnement d'un système d'intelligence artificielle.
  • Le choix fondé sur la valeur reste une question ouverte, actuellement hors de portée de l'automatisation.
  • La technologie rend les individus plus influents, mais elle a un prix.
  • La vitesse à laquelle la société fait des choix est perpétuellement plus rapide que les normes réglementaires, de sorte qu'il incombe souvent aux employés des entreprises technologiques de prendre des décisions importantes sur la façon dont nous menons notre vie.
  • Les sciences du comportement peuvent être un facteur clé pour changer la course entre le développement technologique et les cadres éthiques.

Discussion

Nathan : J'ai Sekoul avec moi aujourd'hui et nous allons parler de l'IA et des sciences du comportement. Entrons dans le vif du sujet. L'IA est souvent considérée comme une alternative à la prise de décision humaine. Les gens proposent que l'intelligence artificielle puisse remplacer la prise de décision humaine dans un certain nombre de contextes, en particulier lorsque nous reconnaissons que notre prise de décision est imparfaite et que nous commettons des erreurs qui pourraient être évitées. Considérez-vous l'intelligence artificielle comme une alternative à la prise de décision humaine ?

Sekoul : Je pense que dans certains contextes, c'est possible. L'intelligence artificielle est un terme assez large. Elle va des statistiques les plus simples aux algorithmes à boîte noire qui résolvent des problèmes complexes. Ainsi, en fonction de la décision que vous essayez d'automatiser, je pense que vous aurez différents types de succès.

Sekoul : Dans un scénario très simple où vous essayez de déterminer, par exemple, si une image représente une cellule cancéreuse ou non cancéreuse, c'est une décision qui a toujours été prise par des professionnels formés à cet effet. Nous savons que l'IA est aujourd'hui plus performante que l'homme pour établir un diagnostic.

Nathan : D'après vous, que fait l'IA que nous ne faisons pas ? S'agit-il d'être capable de mieux saisir les informations ? Ou simplement de sélectionner le bon type d'informations ? Quelle est, selon vous, la différence ?

"Des expériences ont montré que les humains peuvent [avoir une intuition] implicite, mais ne peuvent pas décrire explicitement un grand nombre de ces caractéristiques. L'IA est donc capable de faire beaucoup de ce que nous appelons de l'intuition, qui consiste essentiellement à traiter de grandes quantités de données pour aboutir à un résultat très simple."

Sekoul : Je pense qu'il est capable de capter les informations d'une manière plus parfaite. Je pense qu'au cours de sa carrière, un professionnel peut apprendre à comprendre intuitivement les caractéristiques de l'image qui permettent de prédire un résultat ou un autre. Je pense que l'IA peut faire la même chose beaucoup plus rapidement. La raison en est que le résultat est très clair. Vous êtes donc en mesure de donner un retour d'information à l'IA et de lui dire quand elle a raison, quand elle a tort. Ce faisant, elle apprend quelles sont les caractéristiques qui permettent de prédire un résultat et quelles sont celles qui ne le permettent pas.

Sekoul : Des expériences ont montré que les humains peuvent le faire de manière implicite, mais qu'ils ne peuvent pas décrire explicitement un grand nombre de ces caractéristiques. L'IA est donc capable de faire beaucoup de ce que nous appelons de l'intuition, qui consiste essentiellement à traiter de grandes quantités de données pour arriver à un résultat très simple.

Nathan : Parlons-en un peu plus. D'après vous, de quoi est faite l'intuition ? Parce que je pense que c'est une chose qui est parfois très mal comprise dans les sciences du comportement, c'est l'idée de notre puissance de traitement, dont nous ne sommes pas nécessairement conscients.

Nathan : Daniel Kahneman, dans son célèbre ouvrage Thinking, Fast And Slow, explique que les jugements d'experts se font en un clin d'œil, d'une manière que nous ne pouvons pas vraiment considérer comme une sorte de choix délibéré précis et approfondi. Il s'agit d'un choix qui s'effectue sans aucun traitement conscient. Pensez-vous qu'il existe des systèmes inconscients à l'œuvre dans ce domaine, similaires aux systèmes d'apprentissage informatique ? Ou bien avons-nous certaines façons de traiter l'information que nos systèmes d'intelligence artificielle actuels n'ont pas encore assimilées ?

Sekoul : Nous n'en savons pas assez sur la manière dont le cerveau traite les informations pour pouvoir le dire. Il est très probable qu'il le fasse d'une manière que nous n'avons pas encore pu reproduire avec l'IA. Si vous réfléchissez à la philosophie des neurosciences ou des sciences cognitives, il y a certainement une expérience de la prise de décision que l'IA ne crée probablement pas, qu'il s'agisse des qualia ou de l'expérience de la prise de décision.

Sekoul : En termes de traitement de l'information pure, l'intuition est quelque chose qui prend de grandes quantités de données et, comme notre attention ne peut pas se porter sur chaque élément d'information, elle braque les projecteurs sur une toute petite partie de l'information ou peut-être même sur rien du tout. On a alors le sentiment que quelque chose est correct ou non.

Sekoul : Ce n'est donc pas parce que quelque chose n'entre pas dans votre conscience que vous utilisez nécessairement un système différent pour prendre cette décision. Je pense que c'est une idée fausse. De nombreuses recherches montrent que, même pour les décisions que nous considérons comme conscientes, une grande partie du traitement se produit avant que nous soyons conscients de la décision. Des recherches menées il y a quelques années ont même montré que lorsqu'on demande aux gens d'attraper un objet, l'ordre d'attraper l'objet vient en fait avant la prise de conscience de la décision. Les gens utilisent donc cela pour dire qu'il n'y a pas de libre arbitre.

Sekoul : Il est intéressant de noter qu'à l'inverse, il existe un libre arbitre, c'est-à-dire que vous pouvez annuler l'action pendant que vous tendez la main vers l'objet, jusqu'à la toute dernière seconde. Vous avez donc le contrôle conscient de l'interruption de l'action. Mais pour ce qui est de choisir de le faire, il semble que la conscience soit un peu détachée du traitement de l'information. En d'autres termes, il est certain que nous prenons certaines décisions plus ou moins délibérément, mais dans les deux cas, nous traitons l'information à l'aide des mêmes systèmes. Et nous créons essentiellement un résultat basé sur des techniques qui sont quelque peu similaires à ce que fait l'IA.

Nathan : C'est drôle quand je réfléchis, surtout dans un contexte académique, au processus de prise de décision ou à l'expérience de la prise de décision, comme vous le disiez, je trouve que beaucoup de mes idées préconçues sur la façon dont cela fonctionne s'effondrent assez rapidement.

[lire : La démocratie à l'épreuve des faits].

Nathan : Un exemple récent est la façon dont un électeur fait son choix de vote et à quel moment ce choix se produit réellement. Dans cet exemple, le traitement de l'information se poursuit pendant des semaines avant l'élection. Les gens recueillent clairement des informations auprès de leurs amis, de la publicité, des personnalités politiques, en regardant les discours, les débats, etc. Mais il n'y a pas de point de décision clair. L'expérience de la prise de décision est en fait très étalée dans le temps.

Nathan : Et je me demande si nos machines sont dotées de cette même capacité à traiter l'information au fil du temps, parce qu'en général, nous nous attendons à ce qu'un résultat soit craché juste au moment où nous le voulons. Et je suppose que c'est la même chose pour les humains. Nous attendons un résultat une fois que nous sommes dans l'isoloir ou chez le médecin, peu importe.

Sekoul : Je veux dire que c'est intéressant parce que, encore une fois, votre expérience de votre propre opinion peut avoir besoin de se cristalliser à un point différent. Ainsi, si vous demandez à une personne pour qui elle va voter, son opinion se cristallisera d'une manière particulière, en fonction de ce qu'elle ressent à ce moment-là. C'est la même chose pour une IA : à tout moment, elle calcule des moyennes pour différents résultats. Il y a évidemment différentes façons d'obtenir un résultat. On peut avoir des choses qui s'affrontent jusqu'à la ligne d'arrivée. On peut avoir des choses qui vont dans des directions différentes et qui sont tirées vers le haut, puis qui commencent à descendre. Dès que l'on atteint un certain seuil, que ce soit à la hausse ou à la baisse, on prend une décision.

Sekoul : Il y a différentes façons de procéder. Mais en fin de compte, nous pouvons, à tout moment, précipiter cette décision et procéder à une sorte de vérification du système. C'est vrai pour l'IA. C'est également vrai pour les humains.

Peut-on gérer l'incertitude avec des raccourcis cognitifs ?

"Les algorithmes sont généralement conçus de manière plus délibérée. Contrairement, par exemple, à un électeur qui n'a peut-être pas accès à toutes les informations relatives à la décision qu'il essaie de prendre. Et c'est là que je pense que les algorithmes sont plus puissants. Ce n'est pas tant dans l'exécution que dans la configuration".

Nathan : La gestion de l'incertitude est une idée qui relie quelques-uns de ces éléments. De nos jours, tout le monde parle de l'incertitude des temps, n'est-ce pas ? Pour moi, cela revient à dire que nous n'avons pas assez d'informations pour prendre les décisions auxquelles nous sommes confrontés. Si nous considérons une personne comme un système qui absorbe constamment des informations et qui est appelé à prendre des décisions à des moments quelque peu imprévisibles, il peut y avoir des interventions qui médiatisent la façon dont nous recevons les informations, n'est-ce pas ?

Nathan : Je me demande si vous pensez que l'IA peut aider à résoudre ce genre de problèmes de gestion de l'incertitude où les politiques ne peuvent pas être entièrement élaborées parce que nous ne disposons pas de suffisamment d'informations pour atteindre ce que nous considérons comme les résultats idéaux. Dans le cas d'une réponse à une pandémie, par exemple, on ne sait pas exactement dans quelle mesure les gens vont coopérer à la politique mise en œuvre, quelle qu'elle soit. Cela pose un problème de prévision.

Nathan : On parle de l'utilisation de certaines heuristiques. Nous utilisons des raccourcis et des moyens peu coûteux pour traiter les données afin de tirer des conclusions, même si nous ne disposons pas de toutes les informations pertinentes. Pensez-vous que les machines peuvent adopter ce mode de traitement ? Ou pensez-vous qu'il y a des avantages à ce que les machines trouvent d'autres moyens de prendre ces décisions sans avoir recours à des raccourcis ?

Sekoul : Je pense qu'en fin de compte, nous prenons des raccourcis pour les mêmes raisons que les machines. Les ressources informatiques du cerveau humain sont limitées, tout comme celles d'un ordinateur. En fait, si l'on pense à un ordinateur, les ressources sont encore plus limitées, en d'autres termes, ils ont moins de puissance de traitement que le cerveau. Les machines doivent donc simplifier encore plus les données et les décisions. Cela dit, le calendrier auquel elles sont confrontées n'est généralement pas le même que celui auquel nous sommes confrontés. Il est assez rare que l'on demande à un algorithme de prendre une décision, une décision complexe comme celle que vous venez de décrire, extrêmement rapidement. En revanche, on peut demander à un humain d'avoir une opinion sur quelque chose de ce genre très, très rapidement.

Sekoul : Je pense donc que les algorithmes sont généralement conçus de manière plus délibérée. Contrairement, par exemple, à un électeur qui n'a peut-être pas accès à toutes les informations relatives à la décision qu'il essaie de prendre. Et c'est là que je pense que les algorithmes sont plus puissants. Ce n'est pas tant dans l'exécution que dans la configuration.

Sekoul : Maintenant, si vous prenez un être humain et que vous le formez à comprendre différents sujets et à comprendre la relation entre ces sujets et un résultat, et cetera, et cetera, et cetera. Si vous pouviez, d'une manière ou d'une autre, passer outre leur formation et leur expérience passées et les convaincre d'examiner les données de manière dépassionnée et de se dire, d'accord, voici le résultat, et voici les politiques qui sont susceptibles d'y conduire avec une probabilité de X pour cent. Si vous pouviez faire cela, je pense qu'un humain serait meilleur qu'une IA pour prendre des décisions.

Le choix fondé sur les valeurs est-il un processus exclusivement biologique ?

Nathan : Il y a une toute autre question de valeur dans ces décisions. Et l'attribution d'une valeur aux différents résultats. D'un point de vue purement mécanique, tant que les résultats sont délibérés, comme nous l'avons dit précédemment, il n'est pas si difficile d'attribuer une valeur. En effet, il est possible de comparer à quel point une certaine étape me rapproche de mon objectif final.

Nathan : Mais avec la prise de décision politique ou morale, il y a un problème de contestation de la valeur tout d'un coup. C'est donc probablement un défi pour les machines qui essaient de prendre ce genre de décisions.

"Est-il préférable d'utiliser une méthode purement factuelle pour prendre des décisions ? En tant qu'individus, parfois peut-être. En tant que groupe, probablement pas, car les gens ont des préférences. En fin de compte, il est très difficile de comprendre de quoi se compose une préférence. Je pense que les gens supposent que les préférences sont composées uniquement d'un résultat, que la science prédit très bien dans certains cas. Mais je pense que les préférences sont plus complexes que cela".

Sekoul : Je pense que c'est là que les choses se gâtent un peu. Le choix fondé sur la valeur est un domaine relativement nouveau des neurosciences et de la psychologie. Et nous ne comprenons pas très bien les choix fondés sur la valeur. Nous savons qu'ils sont en grande partie déterminés par le cortex préfrontal. Il semble donc que nous fassions ce genre de choix de manière assez délibérée. Mais nous savons aussi que, selon la situation, les centres émotionnels du cerveau peuvent avoir différents niveaux d'effet qui peuvent annuler ce choix délibéré.

Sekoul : Il existe une dynamique dans la manière dont cette décision est prise dans le cerveau. Il est donc très difficile de comprendre dans quelle mesure le résultat est influencé par différentes informations. Surtout si l'on tient compte du fait qu'une grande partie de la réaction émotionnelle que nous pouvons observer est due à une expérience qui a pris toute une vie à se former. Je pense que c'est la partie qu'il est vraiment difficile d'opérationnaliser dans un algorithme.

Sekoul : On peut donc opérationnaliser le cortex préfrontal. Vous pourriez dire : "J'essaie d'aller du point A au point B, et cette politique m'aidera à y parvenir. Du point de vue du cortex préfrontal, il suffit d'élaborer un plan et de tracer le chemin le plus court entre les deux points. Et c'est votre solution optimale. Un algorithme peut faire cela. Encore une fois, en supposant que vous disposiez d'informations finies et que vous donniez les mêmes informations à la personne et à l'IA.

Sekoul : Une vision purement préfrontale de la manière dont un choix basé sur la valeur est fait pourrait être assez similaire entre un algorithme et le cerveau. Mais dès que l'on implique d'autres centres cérébraux, et bien sûr, ce n'est pas si simple, je le réduis en quelque sorte à cela, mais il y a vraiment un mystère autour de la façon dont les émotions et l'expérience passée, les souvenirs, etc. C'est quelque chose que l'algorithme ne peut pas simuler aussi facilement. Tout simplement parce que nous ne comprenons pas exactement comment cet effet est créé.

Nathan : C'est vrai. C'est tout à fait logique. Existe-t-il des moyens par lesquels un algorithme pourrait peut-être alléger la charge cognitive de la prise de décision ? Pourrions-nous prendre les parties de notre traitement que nous comprenons et les découper en parties qui pourraient être assistées par la technologie ? Pourrions-nous utiliser l'IA pour simplifier le domaine des choix que nous devons faire ?

Sekoul : Je ne dirais pas que c'est l'IA que nous utiliserions dans ce cas. Je veux dire que la réponse est certainement oui. Mais dans une certaine mesure, c'est la science qui le fait. La science le fait pour nous en tant que société. Nous recherchons donc le meilleur consensus scientifique possible sur un sujet. Et nous considérons cela comme un point de données. Mais je ne pense pas que quiconque utilise ce seul élément comme moteur pour prendre des décisions dans sa vie.

Sekoul : Est-il donc préférable d'utiliser une méthode de prise de décision purement factuelle ? En tant qu'individus, parfois peut-être. En tant que groupe, probablement pas pour être honnête, parce que les gens ont des préférences. En fin de compte, il est très difficile de comprendre de quoi cette préférence est composée. Je pense que les gens supposent que les préférences sont composées uniquement d'un résultat, que la science prédit très bien dans certains cas. Mais je pense que les préférences sont plus complexes que cela. Comment arrive-t-on au résultat ? Et quel est le sentiment que vous avez éprouvé en y arrivant ?

Nathan : Il est intéressant que vous mentionniez la science ou la technologie comme moyen de faciliter la prise de décision. Je pense en effet qu'il existe une relation très complexe entre la technologie qui améliore hypothétiquement nos vies, simplifie nos choix et nous permet d'obtenir de meilleurs résultats plus rapidement. Mais je pense que beaucoup de gens voient aussi la science comme quelque chose qui complexifie le monde. Cela nous donne soudain beaucoup plus d'options et ouvre de nouvelles frontières en matière de prise de décision. Mais cela rend aussi notre environnement beaucoup plus stressant pour le même appareil cognitif.

Comment les humains gèrent-ils les technologies avancées ?

Nathan : Pensez-vous qu'il y ait une valeur à cette inquiétude selon laquelle les technologies avancées que l'utilisateur ne comprend pas entièrement remettent en cause sa capacité à se frayer un chemin dans le monde ?

Sekoul : Je pense que la technologie ouvre définitivement plus de portes, et parce que ces portes permettent plus d'actions et de décisions, elle crée de la complexité, elle crée une charge cognitive, elle rend nos vies plus difficiles. Elle nous rend également plus productifs. Je pense que l'individu moyen d'aujourd'hui est probablement beaucoup plus productif, simplement en tant qu'individu, et que son effet sur le monde est plus profond que celui d'un individu d'il y a cent ou mille ans. Je pense que la technologie a cet effet amplificateur. Et en vertu de l'amplification de notre effet sur le monde, elle apporte nécessairement une complexité accrue parce que nous affectons fondamentalement la réalité d'une manière plus significative.

Nathan : Je pense qu'il est intéressant de noter que nous avons non seulement plus de contrôle sur notre monde grâce à la technologie, mais que nous avons également un contrôle sur cette technologie, en particulier sur les personnes qui la conçoivent. Et je pense que les personnes qui conçoivent la technologie qui facilite notre interaction avec le monde ont un rôle clé à jouer. Pensez-vous qu'il existe certaines façons de concevoir cette technologie qui sont bénéfiques ? Peut-être en faisant appel aux sciences du comportement pour améliorer cette technologie ? Pensez-vous qu'il s'agit là d'une utilisation valable des sciences du comportement ?

Sekoul : Oui, tout à fait. Il y a différentes façons de procéder. Je veux dire que la conception de l'expérience utilisateur existe depuis si longtemps. Il s'agit de créer des interfaces qui se prêtent mieux à l'expression des préférences et des opinions des utilisateurs. Je pense que c'est quelque chose de très puissant.

Sekoul : Je pense qu'il est très important de réduire la distance entre les humains et le contrôle de la technologie. C'est, par exemple, ce que fait Elon Musk avec Neuralink, ce qui suscite évidemment de nombreuses critiques pour diverses raisons. Mais en fin de compte, l'idée de combler le fossé entre l'utilisateur et l'interface est très puissante. Il s'agira sans aucun doute d'un sujet important au cours des 30 prochaines années.

Sekoul : En même temps, je pense qu'il est très difficile de comprendre ce que les gens veulent lorsqu'ils utilisent la technologie. Il est donc possible de combler un fossé, d'accroître l'engagement, d'augmenter la vitesse à laquelle les gens s'engagent avec la technologie, etc. il est très difficile de comprendre ce que l'utilisateur attend fondamentalement de cette interaction.

Sekoul : La raison en est qu'il y a les besoins à court terme et les besoins à long terme. À court terme, on peut se dire que l'utilisateur est incité à interagir davantage lorsque je mets des couleurs vives et que je lui donne beaucoup de " j'aime " et de commentaires, etc. C'est très bien, mais cela ne fait que créer un écosystème d'hédonisme dopaminergique ou autre. En fait, cela crée un tapis roulant hédonique dans lequel les gens vont s'engager et dont ils vont devenir dépendants.

Sekoul : Mais en fin de compte, à long terme, comprendre ce qui crée une valeur réelle, d'un point de vue humaniste, dans la vie des gens est quelque chose que la conception de l'expérience utilisateur a très peu de chances d'atteindre. Je pense donc que c'est là que les sciences du comportement peuvent intervenir, en comprenant la perspective à long terme, en nous posant des questions plus existentielles sur ce que devrait être notre relation avec la technologie.

Sekoul : Le problème, c'est qu'on peut en parler d'un point de vue philosophique, mais comment le rendre opérationnel, comment rendre opérationnel quelque chose que nous avons passé des milliers d'années à essayer de comprendre, c'est vraiment difficile. Et je pense que c'est une chose avec laquelle des entreprises comme Facebook, Apple et Google se débattent de plus en plus.

Nathan : Est-ce que le fait de fournir des résultats valables à long terme plutôt que d'exploiter nos tendances pour certains types de produits saillants est quelque chose que vous avez vu sur le terrain ?

Sekoul : Oui, je pense qu'ils sont passés d'une valeur à très court terme à une valeur à moyen terme. Mais je pense que la valeur à long terme, au niveau personnel et sociétal, est un énorme défi. Comment décider de ce qu'est la valeur à long terme pour la société ?

Nathan : C'est difficile. Je pense qu'un prolongement de cela est que, en particulier pour les grandes entreprises, les personnes qui ont beaucoup d'influence sur l'environnement dans lequel nous prenons nos décisions, ont en fait une influence sur ce qu'est cette valeur à long terme. Nous savons que nos préférences étendues sur le monde sont variables et soumises à certaines influences. Et je pense que, surtout lorsque certaines personnes sont à la tête d'un site comme Facebook, où les gens s'engagent tous les jours et passent plusieurs heures par jour, elles ont probablement un certain contrôle sur les préférences des gens.

Qui veille à l'éthique de l'évolution rapide des technologies ?

Sekoul : Je pense qu'il est intéressant de constater que les gens parlent de plus en plus de la possibilité que certaines de ces entreprises de médias sociaux aient des intentions malveillantes. Et elles ont une responsabilité dont elles ne sont pas pleinement conscientes.

Sekoul : Je ne sais pas dans quelle mesure c'est vrai. Ce que je sais, c'est que les avancées technologiques se succèdent, que des changements de paradigme se produisent et qu'il y a toujours une lutte pour rattraper le retard. Je pense que le dernier en date a permis de connecter tous les habitants de la planète en l'espace d'une décennie ou moins. Je ne pense pas qu'une entreprise, un individu ou un groupe de personnes aurait pu gérer cela de manière satisfaisante. Je ne pense pas qu'il soit possible de le faire lentement et délibérément. Tout simplement parce que nous ne comprenons pas fondamentalement ce que cela signifie. Nous ne comprenons pas comment le cerveau traite ce type d'environnement. Nous sommes essentiellement conçus pour interagir avec 50 personnes au cours de notre vie. Lorsque nous sommes exposés à 500, 5 000 ou 5 millions de personnes, cela devient vraiment déroutant. Et personne ne peut vraiment savoir à quoi cela ressemblera. D'autant plus que cela n'arrive pas à une seule personne, mais à tout le monde en même temps. C'est donc un système d'une complexité folle.

Nathan : Oui. Il n'y a pas de contrôle.

Sekoul : Je pense qu'au lieu de critiquer ces entreprises, et bien sûr elles devraient être critiquées pour beaucoup de choses, mais je pense que d'un point de vue existentiel, nous, en tant que société, devons simplement réfléchir davantage à la valeur que nous voulons tirer de ces technologies. Et cela nous ramène à l'IA. Je pense que la compréhension du problème que nous essayons de résoudre est la partie la plus importante de tout cela.

Sekoul : Les gens utilisent l'IA comme s'il s'agissait d'un outil qui peut nous aider à résoudre de nombreux problèmes, mais ils n'insistent pas assez sur la compréhension des problèmes. Ils considèrent davantage l'IA comme une solution, mais elle n'est une solution que pour les problèmes qui sont extrêmement bien définis. Et je pense que nous devons commencer à mieux définir les problèmes.

Nathan : Et à qui revient-il de définir correctement ces problèmes ? Est-ce à celui qui est chargé d'essayer d'améliorer la vie des gens grâce à cette technologie ? Ou y a-t-il un antécédent, est-ce une question politique de savoir qui est chargé de cette tâche ? Ou s'agit-il simplement de la personne présente sur le moment ? Que vous soyez à la tête d'une entreprise technologique, alors que nous entrons de plain-pied dans l'ère numérique. Tout d'un coup, c'est votre problème parce que vous êtes le seul à pouvoir le résoudre.

Sekoul : Je pense que les gens sont littéralement chargés de résoudre ces problèmes. Il y a des gens dont le travail consiste à résoudre le problème. Et je ne pense pas qu'ils creusent assez profondément. Si vous concevez une nouvelle interface pour l'iPhone, par exemple, votre travail consiste littéralement à réfléchir à ce problème. Mais vous avez probablement adopté une vision à plus court terme. Vous vous demandez comment rendre cette interaction plus rapide ? Comment la rendre plus efficace, plus efficiente, plus agréable pour l'utilisateur ? Comment vendre plus de téléphones, etc.

Sekoul : En fin de compte, ce sont donc les moteurs économiques qui prendront la décision. Et je ne pense pas que ce soit la faute de ces personnes. Ce n'est pas de leur faute. Si l'on suit cette logique, on peut dire que les moteurs économiques sont poussés par les consommateurs et les politiques qui les entourent. Il y a donc certainement une place pour des politiques qui ralentissent ces décisions et les rendent un peu plus délibérées. Je pense que nous ne comprenons pas complètement comment la technologie, l'IA, ces choses nous affecteront au niveau sociétal. Et je pense qu'il est normal de ralentir parfois, de prendre son temps et de comprendre les choses avant de s'y lancer à corps perdu. Je ne pense pas que cela se produira. C'est plus une hypothèse, ce serait bien, mais il y a beaucoup de raisons pour que cela ne se produise pas comme ça.

Nathan : Je veux dire, nous pourrions prendre, et peut-être terminer avec ce genre d'étude de cas, nous pourrions prendre une étude de cas de la réaction presque instantanée au COVID-19 en déplaçant la majeure partie du monde en ligne, la majeure partie de notre interaction sociale en ligne. Et il n'y a eu aucun moment où nous avons pu nous arrêter et dire, attendez, ayons tous une grande discussion de groupe sur la façon de faire cela correctement. Si nous allons utiliser Zoom. Quels sont les effets potentiels d'un cours de six heures par jour en ligne ? Il n'y a pas de point de décision, ce qui nous ramène à ce que nous disions au début à propos du point de décision, il n'y a pas d'endroit où l'on peut s'arrêter et dire, attendez, c'est exactement ce qu'il faut faire.

Nathan : Lorsque nous considérons la technologie, en particulier la technologie de l'intelligence artificielle, comme quelque chose que l'on ne peut appliquer que lorsque la décision est cristallisée et que nous savons exactement quels résultats nous voulons obtenir, nous nous retrouvons dans une situation délicate. Selon vous, que peuvent faire les sciences du comportement pour améliorer ce processus ? Qu'il s'agisse de le ralentir ou de travailler dans l'instant aussi vite que possible pour réorienter certains flux, en particulier aux niveaux les plus élevés de la gouvernance de la conception et de l'entreprise. Que peuvent faire les sciences du comportement à ce moment-là ?

Sekoul : COVID-19 est une très bonne étude de cas à cet égard. En effet, il y a eu une ruée en ligne, du moins dans le monde occidental. Je pense qu'il faut nuancer. En effet, la plupart des pays n'ont pas adopté les classes Zoom. La plupart des pays du monde ont continué à suivre la même voie qu'auparavant, à bien des égards. Parce qu'ils sont sous le seuil de pauvreté ou presque, et qu'ils n'ont pas eu le choix. Mais pour la partie du monde dans laquelle nous nous trouvons. Et je pense qu'une grande partie des changements que nous avons observés se sont produits très rapidement.

Sekoul : Et je pense que dans une large mesure, ce que la technologie nous offre dans une telle situation, c'est un outil. La façon dont nous choisissons de l'utiliser reflète le type de problème immédiat que nous essayons de résoudre. Dans ce cas, nous ne pouvions pas nous voir physiquement, alors nous avons transféré les cours en ligne. C'est très bien.

Sekoul : Je pense que ce que les sciences du comportement peuvent faire dans cette situation n'est pas nécessairement d'empêcher que cela se produise. Je ne pense pas que ce soit réaliste. Mais je pense qu'il suffit de comprendre les effets, d'essayer de comprendre quels types de questions il faut poser en faisant cela. Essayer de comprendre quels sont les problèmes qui sont créés et comment cela peut affecter les gens. En fait, il s'agit d'expérimenter autour de ce changement. Et aller dans une direction où l'on peut prendre ces décisions de manière plus délibérée et faire de petits ajustements autour d'elles.

Sekoul : Par exemple, disons que vous avez fait cela sans vous préoccuper de la psychologie des gens, vous avez juste mis les gens en ligne et vous avez dit, ok, les enfants, passez juste six heures par jour sur Zoom, c'est tout. C'est un scénario. Et vous pouvez vous retrouver dans une bonne situation ou non.

Sekoul : Mais un autre scénario est celui où vous mettez tout en ligne. Vous essayez différentes choses. Il y a des classes où, par exemple, il y a une pause déjeuner et où les enfants sont autorisés à passer du temps sur Zoom. Dans d'autres classes, ce n'est pas le cas. Il y a des classes où il n'y a qu'un seul type d'interaction sur Zoom. Il y a peut-être des petits groupes de discussion où les élèves interagissent en petites équipes, d'autres où il s'agit toujours d'un grand groupe, etc.

Sekoul : Et avec le temps, je pense que l'on répond aux questions concernant les types d'interactions les plus positives. Mais je pense que c'est la valeur que la science comportementale apportera. En fin de compte, elle vous fournira simplement plus de données sur ce qui favorise les interactions et les sentiments positifs.

Sekoul : Encore une fois, je pense que les questions les plus importantes concernent ce qui se passerait si vous faisiez cela pendant des décennies. Pendant très longtemps. J'espère que ce n'est pas le cas ici. Je pense que nous sommes à quelques mois d'y parvenir.

Sekoul : Mais pour une grande partie de ce que la technologie nous offre, c'est le cas. Nous nous dirigeons vers un monde où nous ne pourrons plus nous en passer. Et c'est là que les sciences du comportement doivent poser des questions plus fondamentales. C'est là qu'intervient la recherche fondamentale en sciences du comportement. Il ne s'agit pas seulement de recherches menées dans le cadre d'une entreprise, mais plutôt de recherches menées dans les universités sur des questions telles que : qu'est-ce que l'être humain ? Qu'est-ce qui nous comble en fin de compte ? Comment traitons-nous l'information ?

Sekoul : Je pense que les plus grandes questions en neurosciences qui n'ont pas encore trouvé de réponse seront les principaux moteurs de ce que nous déciderons de faire en tant qu'espèce avec la technologie.

Nathan : Très bien. C'est une excellente façon de terminer. Merci de vous être joints à moi.

About the Authors

Sekoul Krastev's portrait

Dr. Sekoul Krastev

Sekoul est cofondateur et directeur général du Decision Lab. Il est l'auteur du best-seller Intention, un livre qu'il a écrit avec Wiley sur l'application consciente de la science comportementale dans les organisations. Scientifique de la décision, titulaire d'un doctorat en neurosciences de la décision de l'Université McGill, les travaux de M. Sekoul ont été publiés dans des revues à comité de lecture et ont été présentés lors de conférences dans le monde entier. Auparavant, Sekoul a conseillé la direction sur la stratégie d'innovation et d'engagement au Boston Consulting Group, ainsi que sur la stratégie des médias en ligne à Google. Il s'intéresse de près aux applications des sciences du comportement aux nouvelles technologies et a publié des articles sur ces sujets dans des revues telles que le Huffington Post et Strategy & Business.

Nathan Collett portrait

Nathan Collett

Senior Editor

Nathan Collett étudie la prise de décision et la philosophie à l'Université McGill. Les expériences qui influencent son esprit interdisciplinaire comprennent une bourse de recherche au sein du Groupe de recherche sur les études constitutionnelles, des recherches à l'Institut neurologique de Montréal, un programme d'architecture à l'Université Harvard, une fascination pour la physique moderne et plusieurs années en tant que directeur technique, coordinateur de programme et conseiller dans un camp d'été géré par des jeunes sur l'île de Gabriola. Un prochain projet universitaire portera sur les conséquences politiques et philosophiques des nouvelles découvertes dans le domaine des sciences du comportement. Il a grandi en Colombie-Britannique, passant à peu près autant de temps à lire qu'à explorer le plein air, ce qui lui a permis d'acquérir une appréciation durable de la nature. Il privilégie la créativité, l'inclusion, la durabilité et l'intégrité dans tous ses travaux.

Read Next

Notes illustration

Vous souhaitez savoir comment les sciences du comportement peuvent aider votre organisation ?