L'intelligence artificielle au service du progrès social : Bob Suh

PodcastFebruary 12, 2021
man holding a computer connecting to another man holding the same

Je crois que nous sommes des animaux sociaux et, à quelques exceptions près, nous avons tendance à nous gouverner avec des mœurs et des comportements qui aident l'ensemble du groupe. Et je pense que, encore une fois, cela revient à dire que l'IA peut aider ou nuire à cela. Elle peut exploiter l'arbitrage et l'information ou la réalité, ou elle peut guider les modèles de comportement plus vers le bien commun, si vous voulez.

Listen to this episode

spotify button background imagespotify button background image

Intro

From the proliferation of social comparisons to growing political extremism, the negative effects that technology has on our societal fabric are evident. But can we create a future that looks different? One in which technology has our backs, and our best interests at heart?

On this episode of The Decision Corner, our host Brooke Struck is joined by Bob Suh, founder and CEO of OnCorps. OnCorps is an American company dedicated to elevating workplace performance outcomes through the use of artificial intelligence. By applying predictable algorithms to a variety of decisions and tasks, OnCorps reduces work, errors, and risk within the financial service industry. The organization provides cutting-edge solutions to an array of companies, with advisors from Yale, Harvard, and Oxford. Their innovative algorithms earned them the 2019 NOVA Award by NICSA and the 2019 Fintech Breakthrough Award for best banking infrastructure software.

Bob Suh has also written for the Harvard Business Review about how efficient use of AI can lead to better decision making and forecasting. Find his work here.

In this episode, Brooke and Bob discuss:

  • La science comportementale fondamentale qui s'applique à l'IA
  • Comment l'intelligence émotionnelle des êtres humains peut-elle être mise au service de la technologie ?
  • Comment notre forte emprise sur l'analyse des données peut influencer des comportements incompatibles avec la vérité et l'authenticité, ainsi qu'une saturation de la publicité.
  • Comment pouvons-nous atténuer certains de ces problèmes en utilisant la technologie pour une architecture de choix positive ?
  • La monétisation des plateformes sociales actuelles et futures, et son évolution
  • L'avenir de l'innovation sociale et technologique : comment la technologie évolue vers des résultats sociaux positifs

Les principaux messages

L'intuition l'emporte sur la probabilité dans les hautes sphères du pouvoir

"Les décideurs de haut niveau, en particulier ceux qui exercent des professions très rémunératrices, ont tendance à surestimer la puissance de leurs capacités intuitives et à sous-estimer les lois de la probabilité et, franchement, la banalité des décisions pour lesquelles ils sont bien payés et la prévisibilité de ces décisions..."

L'IA n'est pas le problème - c'est nous

"L'IA ne fait qu'amplifier ce que nous faisons. Elle ne fait donc qu'amplifier ce que les humains font sur les médias sociaux. Le problème, c'est que les humains sont beaucoup plus susceptibles de partager des fausses nouvelles. Les IA, les robots, ne font que repartager des choses que nous partageons beaucoup. Il ne s'agit pas de rejeter toute la responsabilité sur nos épaules. Il est certain que nous faisons partie du problème. Le fait que nous partagions trop de fausses nouvelles est un problème. C'est surtout un problème en combinaison avec ces IA qui ne font que remonter les informations les plus partagées.

L'attention, c'est de l'argent

"Il ne s'agit pas seulement d'acquérir et de conserver des utilisateurs. Il s'agit aussi de monétisation. Les méga-plateformes actuelles sont efficaces parce qu'elles peuvent convertir l'engagement des utilisateurs en actifs pour lesquels quelqu'un est prêt à payer. En général, cela signifie qu'elles vendent nos données à quelqu'un qui veut nous vendre quelque chose, et parfois cette chose qu'ils veulent nous vendre est une idéologie politique".

Modèles alternatifs pour la fourniture d'informations

"Je pense que le défi réside dans le fait que le mécanisme de diffusion de la publicité sur Facebook est tellement plus efficace que les magazines ou les journaux, que je crois encore à la possibilité qu'un modèle basé sur l'abonnement profite aux producteurs de biens et de services qui veulent essentiellement promouvoir quelque chose de positif dans la vie de quelqu'un. Il peut s'agir de les aider à se sentir mieux dans leur peau ou à retrouver un régime alimentaire sain, ou quoi que ce soit d'autre.

Technologie réfléchissante

J'aimerais voir une application qui dirait simplement : "Hé, tu penses mal à ce que tu viens de faire. Devinez quoi ? C'est tout à fait normal. Je pense que les médias en général, et les plateformes sociales basées sur l'IA en particulier, ont une façon de grossir la queue droite des choses....Je dis simplement que nous avons définitivement un média où la queue droite est juste hyper grossie, et cela fait que les gens se sentent mal. Je pense que cela les pousse à s'inquiéter pour des choses qui ne devraient pas l'être. Cela leur donne l'impression d'être inadéquats.

La qualité plutôt que la quantité

"Ferrari et Porsche sont deux entreprises qui ont décidé non pas de vendre le plus grand nombre de voitures, mais de vendre les meilleures voitures dans leur esprit. Je pense qu'il est toujours rare que quelqu'un prenne un chemin différent pour une fonction objective. Mais c'est peut-être ainsi que les choses devraient se passer. C'est peut-être pour cela que la qualité est élevée".

La désillusion est un catalyseur de changement

"Beaucoup de gens se sentent actuellement très désillusionnés par les types de systèmes dans lesquels nous nous trouvons actuellement, et... la situation va probablement s'aggraver avant de commencer à s'inverser. Cette désillusion pourrait être un ingrédient causal nécessaire pour que les gens examinent attentivement le modèle dans lequel nous fonctionnons actuellement et se disent : "Ce n'est tout simplement pas le type de monde que je veux construire. Je vais donc me donner pour mission professionnelle, au cours des 10, 20 ou 30 prochaines années, de proposer quelque chose qui nous offre la possibilité d'agir différemment".

Transcript

Intelligence artificielle et sciences du comportement

Brooke : Bonjour à tous. Bienvenue sur le podcast du Decision Lab, une société de recherche appliquée à vocation sociale qui utilise les sciences du comportement pour améliorer les résultats pour l'ensemble de la société. Je m'appelle Brooke Struck, directrice de recherche au TDL, et je serai votre hôte pour cette discussion.

Mon invité aujourd'hui est Bob Suh, fondateur et PDG d'OnCorps. Dans l'épisode d'aujourd'hui, nous parlerons de l'IA, de l'empathie et de la question de savoir si les machines peuvent nous sauver de nous-mêmes. Bob, merci de nous rejoindre.

Bob : Merci, Brooke. C'est un plaisir d'être ici.

Brooke : Vous avez donc écrit sur les préjugés et le comportement humain, et sur la façon dont ces préjugés nous mènent à de mauvais résultats. Entrons lentement dans le vif du sujet. Quels sont les résultats qui vous inquiètent et comment les préjugés y contribuent-ils ?

Bob : Je pense que ce qui me préoccupe le plus, c'est que les décideurs de haut niveau dans les professions en col blanc très bien rémunérées et, en fait, les dirigeants eux-mêmes - parce qu'ils sont essentiellement des décideurs rémunérés - ont tendance à surestimer le pouvoir de leurs capacités intuitives et à sous-estimer les lois de la probabilité et, franchement, la banalité du type de décisions pour lesquelles ils sont bien payés et la prévisibilité de ces décisions.

Dans un documentaire dont j'ai oublié le nom, on essaie de montrer la loi des grands nombres, et le journaliste commence à tirer au panier avec un joueur de l'université. Dans les trois premiers tirs, le journaliste mène deux à trois. Mais, évidemment, pour prouver la loi des grands nombres, après 20 ou 30 tirs, il est clair que le joueur universitaire est supérieur. Pour utiliser une analogie avec l'IA, cela signifie que les humains peuvent accorder trop d'importance à la chance, aux événements précoces qui ne relèvent pas de la loi des grands nombres, et sous-estimer le pouvoir de l'informatique, du calcul, de l'application des probabilités à chaque décision et, en fait, de la nécessité d'échouer pour que quelque chose fonctionne bien ou pour former quelque chose de bien.

Pour moi, la question la plus importante est donc la suivante : les dirigeants et les humains donneront-ils une chance à l'IA ? Les dirigeants et les humains donneront-ils une chance à l'IA, permettront-ils à la loi des grands nombres de prévaloir, permettront-ils à l'IA d'être formée correctement ? Ensuite, apprendront-ils également à adopter et à être conscients des décisions qui sont franchement banales et qui devraient être prises selon les règles statistiques, par opposition à celles qui requièrent réellement de l'intuition, un sens multifactoriel, tout ce à quoi un humain est plus apte qu'un ordinateur ?

Brooke : Oui, la création de sens, la création de signification, ce genre de choses. Vous dites que l'IA peut améliorer ou aggraver une situation. Si je comprends bien, ce que vous dites essentiellement, c'est que l'IA est un puissant amplificateur. Elle n'est ni positive ni négative en soi. L'IA peut plutôt amplifier les bons ou les mauvais éléments du signal. Si l'on prend l'exemple des fausses nouvelles, on a beaucoup parlé des algorithmes d'IA et des médias sociaux qui pourraient exacerber le problème des fausses nouvelles. Certains chercheurs ont réalisé une étude que j'ai trouvée très intéressante, cherchant à déterminer si l'IA était particulièrement encline à amplifier les fausses nouvelles plus que les vraies.

La conclusion à laquelle ils sont parvenus est que l'IA ne fait qu'amplifier ce que nous faisons. Elle ne fait donc qu'amplifier ce que les humains font sur les médias sociaux. Le problème, c'est que les humains sont beaucoup plus susceptibles de partager des fausses nouvelles. Les IA, les robots, ne font que repartager des choses que nous partageons beaucoup. Il ne s'agit pas de rejeter toute la responsabilité sur nos épaules. Il est certain que nous faisons partie du problème. Le fait que nous partagions trop de fausses nouvelles est un problème. C'est surtout un problème en combinaison avec ces IA qui ne font que remonter les informations les plus partagées. Comment voyez-vous cela dans le contexte dont vous parlez ici, l'IA en tant qu'amplificateur, qui peut potentiellement amplifier tout ce que les humains font sous la surface ?

Bob : C'est vrai. Lorsque vous apprenez les statistiques de base, on vous apprend qu'il y a une variable Y et une variable X. La variable Y est le résultat. La variable Y est le résultat. C'est la chose que l'on veut changer. La variable X est la variable indépendante. En tant qu'étudiant, vous passez le plus clair de votre temps à essayer de modifier la variable X pour influencer la variable Y. Vous essayez de trouver un lien de causalité entre les deux variables. Vous essayez de trouver la causalité ou la corrélation. Ce que j'ai appris au fil des ans, c'est que, trop souvent, les gens n'envisagent pas de modifier la variable Y. Or, la modification de la variable Y est probablement l'action à plus fort effet de levier que vous pouvez entreprendre pour résoudre un problème, non seulement avec l'IA, mais aussi dans la recherche. Dans ce cas, ce que vous décrivez est une variable Y pour la popularité, essentiellement.

Je parle de popularité pour diverses raisons. L'une d'entre elles est qu'il s'agit presque d'une incitation en deux parties, où il ne s'agit pas seulement de dire que les entreprises de réseautage social doivent être réglementées ou qu'elles sont mauvaises ou quoi que ce soit d'autre. C'est que, pour reprendre votre point de vue, les gens essaient essentiellement d'obtenir plus de vues et plus de visites. Ils modifient la variable X pour savoir comment gagner en popularité, mais ils ne modifient pas la variable Y. Ils essaient simplement d'obtenir plus de vues et plus de visites. Ils essaient simplement d'obtenir plus de vues. Il y a donc des gens qui promeuvent intentionnellement des conspirations et d'autres nouvelles farfelues pour obtenir plus de vues. Ils remarquent qu'ils obtiennent plus de vues, et [j'ai vu un documentaire dans lequel] Rush Limbaugh, à ses débuts, était en fait un libéral. Mais il a remarqué que lorsqu'il passait à l'extrême droite, il obtenait plus d'audience. Ce qui me fait peur, c'est que notre mécanisme pour ne pas changer la variable Y de la fonction de récompense de la popularité, si vous voulez, est que nous créons des leaders qui n'en sont pas vraiment. Ils ne sont en quelque sorte que des suiveurs. Ils ne font que souscrire à une manière de diriger qui leur permet d'obtenir plus de vues ou plus de visites.

Je pense que c'est vraiment dangereux, et je pense que ce que nous devons vraiment faire, c'est nous demander quelle est la variable Y que nous voulons vraiment, non seulement pour nous-mêmes, mais aussi pour notre environnement politique, pour notre environnement commercial. Vous constaterez souvent, par exemple, qu'une entreprise dont le seul objectif, la seule variable Y est le profit, pourrait faire des choses très destructrices. En revanche, si sa variable Y était, par exemple, la qualité du produit, elle réaliserait probablement des bénéfices suffisants, mais elle pourrait sans doute aussi vivre en paix la nuit. Je pense qu'il y a vraiment un problème avec les réseaux sociaux et avec les premières instanciations de l'IA où la variable Y est presque fixée sur ce syndrome "vues, visites, publicité", et ce n'est vraiment pas sain. Il est clair que ce n'est pas sain, et je suis sûr que cela sera, à un moment ou à un autre, réglementé.

La technologie et le quotient émotionnel (QE)

Brooke : C'est vrai. Je pense que c'est une bonne façon de nous amener à ce point que vous avez abordé dans votre récent article de la HBR, en parlant d'injecter un peu de QE dans le mélange lorsqu'il s'agit d'IA. J'aimerais vous laisser un peu d'espace pour en parler. Je veux dire que j'aimerais revenir sur l'idée d'ajuster la variable Y. Je pense qu'il y a quelque chose que l'on ne peut pas faire. Je pense qu'il y a quelque chose que vous avez relevé sur le leadership et sur lequel j'aimerais revenir également. Mais commençons par le QE.

Bob : Bien sûr. Je pars du principe qu'il existe une relation. En particulier dans le monde de l'IA, vous établissez une relation avec une application de la même manière que vous établissez une relation avec une personne. Un étudiant a un rendez-vous galant. Il raconte à sa mère et à son colocataire deux histoires totalement différentes à propos de ce rendez-vous. Vous choisissez donc ce que vous partagez en fonction de votre public.

Et si l'on pousse à l'extrême l'analogie avec les applications, on peut considérer les systèmes d'entreprise comme des casse-pieds. Ils sont presque toujours en train de vous harceler. Vous avez fait quelque chose de mal. Vous ne pouvez pas y aller. Vous ne pouvez pas vous connecter à cette application. Vous avez dépassé la limite du nombre de caractères ou autre. Les systèmes de réseaux sociaux peuvent également être considérés comme de la flagornerie. En d'autres termes, tout ce qu'ils essaient de faire, c'est de vous faire sentir bien, quelles qu'en soient les conséquences.

Ainsi, lorsque vous considérez les applications et les personnes comme étant en relation, ce que je crois sincèrement, vous commencez à voir qu'il existe des relations qui sont flagorneuses, qui sont basées sur le harcèlement. Mais il y a aussi des relations qui ont un QE extraordinairement élevé, où les actions et les contre-actions des deux parties sont empathiques. Elles sont conscientes d'elles-mêmes. Elles reconnaissent le fait qu'elles sont peut-être trop harcelantes ou trop flagorneuses. Ils comprennent qu'ils doivent revenir en arrière parce que la discussion est un peu trop punitive.

L'un des exemples que j'ai donnés est celui d'une relation naissante avec quelqu'un. Vous vivez ensemble. Une personne vous harcèle et vous dit : "Hé, tu n'as pas sorti la poubelle". Ce n'est pas comme un système qui vous préviendrait ou vous alerterait. Mais l'autre système pourrait dire ou l'autre personne dans votre appartement pourrait dire : "J'ai remarqué que tu as sorti la poubelle. Merci." Il s'agit là d'une interaction à QE élevé, car vous êtes essentiellement gentil et vous récompensez quelqu'un. En outre, vous modifiez probablement les comportements bien plus que si vous vous contentiez de harceler quelqu'un.

Je pense donc qu'il s'agit là d'un terrain qu'une application peut emprunter. Je ne pense pas qu'il s'agisse d'interactions typiquement humaines. Je pense simplement qu'elles sont prévenantes. Elles nécessitent une logique de branche plus sophistiquée et ce genre de choses.

Brooke : Vous commencez à entrer dans le domaine du comportement et de l'empathie. Quel rôle les concepts et la théorie du comportement ont-ils à jouer dans l'enrichissement de ces écosystèmes d'IA pour, d'une part, promouvoir un meilleur comportement, de meilleurs résultats, mais aussi, d'autre part, pour promouvoir des mentalités plus saines chez les utilisateurs ?

Bob : Je pense qu'ils sont énormes. Quand on pense aux recherches de Thaler et Kahneman, on se rend compte qu'ils révèlent des schémas dans la nature humaine qui, s'ils sont modifiés, pourraient vraiment ouvrir la voie à des changements de performance très puissants, si vous voulez, en particulier dans le monde des affaires, ou peut-être même dans la vie personnelle. Je pense qu'il ne fait aucun doute qu'il y a un avenir dans les algorithmes qui non seulement vous incitent à cliquer sur quelque chose, mais vous dissuadent de cliquer sur quelque chose ou vous dissuadent d'envoyer quelque chose.

Je pense qu'il existe tout un monde d'algorithmes qui relèvent probablement de la théorie des jeux, qui prennent en compte les conséquences d'une action A ou d'une action B, et qui réfléchissent ensuite au type de communication ou de message à envoyer qui vous amènerait de la manière la plus probabiliste possible à agir de manière optimale. Je suis très enthousiaste à ce sujet.

Nous menons des recherches avec le Human Nature Lab de Nicholas Christakis sur des schémas comportementaux très simples. Nous l'appelons le syndrome du regard noir. En fait, dans le monde des affaires, si vous examinez quelque chose qui se produit très rarement, vous ne verrez que des faux positifs. [Supposons, par exemple, que quelqu'un soit atteint du syndrome de la TSA. Vous avez tendance à avoir les yeux qui brillent. En d'autres termes, nous pouvons prouver statistiquement que vous n'êtes pas vraiment capable de trouver une erreur, par exemple, dans une énorme transaction financière.

Nous avons découvert qu'il est possible d'identifier les moments où les yeux sont éblouis, et cela dépend essentiellement du temps. Le temps est en fait une variable extrêmement importante dans l'IA comportementale. Si vous êtes trop rapide ou trop lent, c'est une variable très puissante.

Brooke : Donc, le syndrome TSA et tous ces faux positifs, pour ceux qui ne sont pas familiers avec ce contexte, si je vous lis bien, ce dont vous parlez est, par exemple, l'agent de sécurité de l'aéroport qui regarde tout le monde passer ses bagages, et qui est en alerte renforcée, se méfiant de tout le monde, essayant d'identifier la personne qui essaie de faire passer une arme ou quoi que ce soit d'autre qu'elle n'est pas censée faire passer. Dans ce genre de situation où l'on est en état d'alerte maximale, où l'on soupçonne tout le monde, alors que l'on sait que la grande majorité des gens ne font rien de mal, c'est là qu'apparaît le syndrome de l'œil glacé, où l'on se concentre sur trop de petits détails. C'est ça ?

Bob : Exactement. Vous voyez un schéma de faux positifs. Je vais vous donner un exemple parfait : Les alarmes d'hôtel. Personne ne se réveille à l'alarme d'un hôtel en pensant qu'il est en danger imminent. En général, les gens se réveillent et la première chose qui leur vient à l'esprit est de savoir quand ils vont l'éteindre pour que je puisse me rendormir. Ils ne pensent jamais à vérifier si la porte est chaude ou s'il y a de la fumée, par exemple. C'est essentiellement ce syndrome qui consiste à s'engourdir face à un faux positif.

Environ 99 % des alarmes domestiques sont des faux positifs, ce qui a rendu la technologie obsolète d'une certaine manière. Le plus important est probablement que le panneau d'alarme soit un moyen de dissuasion, et non l'alarme elle-même. Et donc, oui, c'est exactement cela. C'est un moyen pour les humains de désactiver les alertes ou tout autre élément de ce type, et il a été prouvé que cela se produit assez fréquemment et assez rapidement.

Les inconvénients des données

Brooke : D'accord. Je pense que vous avez très bien expliqué comment l'IA peut nous aider à surmonter certains de ces défis et que la science du comportement a son rôle à jouer en nous informant sur la façon dont nous concevons les algorithmes de manière à promouvoir un comportement plus conforme ou plus efficace, ainsi que des mentalités plus saines.

Je voudrais maintenant revenir sur la question du changement de la variable Y, car je pense qu'il s'agit là d'un concept très intéressant. Changer la variable Y, c'est tout l'enjeu du leadership et de la stratégie. La stratégie consiste à décider de la chose sur laquelle on va s'appuyer et à identifier ce que l'on va optimiser.

Ainsi, dans ma configuration initiale, lorsque je vous présentais le sujet et que je vous donnais un peu d'espace pour exposer vos idées, j'ai qualifié l'IA d'amplificateur neutre. Mais c'est peut-être une erreur. Peut-être ne devrions-nous jamais considérer l'IA comme un amplificateur neutre. Elle est toujours neutre dans le sens où elle optimise toujours. Mais elle n'est jamais neutre dans le sens où nous devons toujours choisir ce que nous optimisons. Il y a toujours cette question de l'optimisation de quoi ? C'est là qu'interviennent le leadership et la stratégie.

Bob : Exactement.

Brooke : L'exemple de Rush Limbaugh, que je n'avais jamais entendu, d'ailleurs, avant que vous ne le mentionniez, est fascinant. Il m'a fait penser que dans le contexte d'une entreprise où l'on peut entendre quelqu'un dire simplement "Notre stratégie est de vendre tout ce que les gens achètent", c'est une abdication du leadership. C'est l'abdication de la stratégie. Et c'est exactement ce que semble être la théorie de l'amplificateur neutre. Elle consiste à dire : "Nous minimisons le rôle que nous avons à jouer en décidant de l'optimisation."

Bob : Exactement. Et ce qui est effrayant, c'est qu'on pourrait se demander : "Pourquoi ne pas changer la variable Y et faire quelque chose de plus intègre ?" Parce que ça marche. Je veux dire qu'il est rentable de ne pas changer la variable Y. Il est rentable d'exploiter les systèmes tels qu'ils sont conçus. Il est rentable d'exploiter les systèmes tels qu'ils sont mis en place, et c'est regrettable. Je dirais qu'il en a toujours été ainsi. Les gens ont toujours exploité les systèmes dans lesquels ils opéraient. C'est certainement aux grandes communautés qu'il incombe, à long terme, de réguler les mauvais comportements.

Je pense qu'il s'agit d'une question qui mérite d'être explorée dans le domaine de l'IA. Une IA peut-elle, tout comme un village peut essayer de décourager les comportements nuisibles au village, une communauté plus large - pas un petit groupe que vous inscrivez sur votre page Facebook, mais une communauté plus large - peut-elle en quelque sorte réguler la définition de ce que devrait être une variable Y ?

Brooke : Oui. Vous avez dit que c'était payant et qu'il n'y avait peut-être pas de conséquences. J'ai lu un peu d'histoire récemment, et la première chose qui m'est venue à l'esprit, c'est que je me demande ce que la famille royale de France pense de cela. À la Belle Époque, ils exploitaient vraiment le système à fond et accumulaient des richesses considérables au sein de la famille royale et de cette aristocratie élargie. Et, bien sûr, le système dans son ensemble est revenu pour corriger cela, à l'aide d'une guillotine.

Bob : Exactement. En particulier lorsqu'il y avait des inégalités. Et je sais que c'est ce qui dérange les gens aujourd'hui, c'est que les inégalités sont si grandes qu'il y aura peut-être un retour de bâton. Et je pense que l'histoire a raison à cet égard. La boucle est généralement bouclée. Parfois, cela prend beaucoup de temps.

Brooke : Oui. Cela nous aiderait certainement à donner un sens à certaines des choses que nous lisons dans les nouvelles. Par exemple, en début de semaine et même à la fin de la semaine dernière, l'un des sujets d'actualité était GameStop et toutes ces ligues et ligues d'investisseurs qui, par le biais de Reddit, coordonnent de gros achats de l'action GameStop ainsi que d'autres. Cela semble en partie motivé par des raisons économiques, car lorsque tout le monde achète, l'action commence bien sûr à monter. Mais il y a aussi un sens dans lequel une grande partie du discours autour de cela est vindicatif. Il ne s'agit pas de personnes qui font des choix économiques pour gagner de l'argent. Il s'agit de personnes qui font des choix expressifs pour dire à toute une série d'initiés de Wall Street ce qu'ils pensent d'eux et comment ils se comportent.

Bob : C'est vrai. Et je pense que certains voient le bitcoin de la même manière, c'est-à-dire comme une libéralisation de quelque chose qui est contrôlé par des entités très puissantes qui ont le droit d'établir les règles, franchement. C'est très intéressant. C'est une discussion très intéressante.

Utiliser la technologie pour obtenir des résultats positifs

Brooke : Passons des descriptions que vous avez données à un modèle plus normatif. Qui fixe les conditions d'un bon comportement ? Avant de vous lancer sur cette question, je voulais faire un clin d'œil à un de mes collègues, Adam Briggle, qui a écrit un article que j'adore, intitulé "The Great Impacts Houdini", dans lequel il parle de toute l'infrastructure et du paysage de la recherche et de l'innovation qui ont été construits autour de la recherche qui doit avoir un impact. La critique qu'il formule à l'encontre de toute cette infrastructure est que personne ne parle nulle part de ce que les impacts sont censés être. Qu'est-ce qui différencie un impact positif d'un impact négatif ? C'est tout le contenu de l'édifice qui fait défaut. Comme nous l'avons déjà dit, il s'agit simplement d'optimisation. Mais il n'y a pas de discussion sur ce qu'il faut optimiser.

Mais le point qu'il soulève dans son article est que, socialement, nous ne sommes pas vraiment en bonne position pour avoir des conversations sur la société idéale que nous voulons construire. Nous avons du mal à avoir des conversations civiles entre des personnes qui ne sont pas d'accord sur les personnes qui, selon elles, devraient occuper des fonctions politiques. Donc, ce genre de projet plus large, à savoir quelle est la société que nous voulons avoir pour nous-mêmes, pour nos descendants, dans 50 ans, 100 ans, 200 ans ? Nous ne semblons pas être dans une position très avantageuse pour avoir ces conversations. Mais, en fin de compte, il faut bien que quelqu'un prenne cette décision. Lorsque nous construisons un système, comme un système d'intelligence artificielle, qui doit déterminer ce qui constitue un comportement sain et qui ne l'est pas ?

Bob : Je pense qu'il y a deux réponses à cela. La première est que, pour revenir à l'exemple de Rush Limbaugh, c'est vrai, mais on pourrait aussi trouver des personnes à l'autre bout du spectre politique qui sont devenues libérales parce qu'elles pensaient que cela leur apporterait de la popularité. Et c'est là que réside, je pense, une partie de la réponse à votre question : voulons-nous un système, une IA ou une série d'applications qui promeuvent la bonne chose à dire, ou qui mettent en adéquation ce qui est dit avec ce qui est réellement accompli ?

Je pense que c'est là qu'il y a de l'espoir pour quelque chose comme une IA. Évidemment, comme vous l'avez dit, une IA ne fait que ce que vous lui demandez de faire. Mais une IA est très objective et très mathématique, et je pense que plus de gens devraient penser aux variables Y qui sont des résultats réels.

Si l'on prend l'exemple de la politique, on peut dire que les opinions extrêmes, qu'elles soient de gauche ou de droite, partent d'une bonne intention. Quelqu'un essaie de réparer quelque chose, et c'est un acte d'intention positive. Mais si l'on demande à l'algorithme "Changez la variable Y" et que l'on essaie de voir où cela fait une différence, où cela affecte ou non la vie des gens, on peut dire que c'est une chose que je dirais. Je dirais que c'est une chose que nous devrions examiner.

Dans le domaine des affaires, dans le domaine de l'investissement, c'est noir ou blanc. Soit vous gagnez de l'argent, soit vous n'en gagnez pas. On ne peut pas défendre trop longtemps une opération qui fait perdre de l'argent, et c'est essentiellement pour cette raison qu'il y a eu ces dernières années d'énormes flux de sortie des fonds actifs vers les fonds indexés et les fonds algorithmiques. Ainsi, parce que la seule chose qui compte, ce résultat n'est pas du tout subjectif. Si l'on demandait à une IA ou à un système comprenant une IA de reproduire les résultats réels, je pense que c'est ce qui a manqué.

Brooke : Oui. Pendant que vous parliez, l'une des choses qui m'est venue à l'esprit, c'est qu'il n'y a pas beaucoup d'acteurs sur le terrain. Peut-être que l'une des façons de s'attaquer à ce problème est l'innovation, et je dois rire de moi-même en disant cela parce que j'ai souvent levé les yeux au ciel devant des gens qui disaient : "La solution à tout problème est simplement plus d'innovation". Mais une partie de la solution pourrait consister à dire : "Ce n'est pas à nous de décider quels sont les bons résultats". C'est à nous de mettre en place un grand nombre de systèmes et d'options pour que les gens puissent choisir, et si nous réfléchissons à cette idée de QE que vous nous avez exposée aujourd'hui, les gens graviteront autour des systèmes qui favorisent les types d'interactions qu'ils souhaitent avoir et qui leur permettent de se sentir comme ils le souhaitent.

Bob : Je le crois. Je crois que nous sommes des animaux sociaux et, à quelques exceptions près, nous avons tendance à nous gouverner avec des mœurs et des comportements qui aident l'ensemble du groupe. Et je pense que, encore une fois, cela revient à dire que l'IA peut aider ou nuire à cela. Elle peut exploiter l'arbitrage et l'information ou la réalité, ou elle peut orienter les modèles de comportement davantage vers le bien commun, si vous voulez. Absolument.

Brooke : Il y a certainement un rôle comportemental à jouer ici aussi. Une partie de la décision de continuer à utiliser une plateforme n'est pas seulement liée à la façon dont elle me laisse un sentiment. Mais elle sera aussi profondément influencée par ma perception de ce que ressentent les autres. Si je pense, par exemple, que je vais à une fête, que je regarde autour de moi et que j'ai l'impression que tout le monde s'amuse, mais que je ne m'amuse pas beaucoup, je vais peut-être rester et continuer à jouer cette pièce de théâtre, qui a l'air de dire : "Oui, je m'amuse aussi". Alors qu'en fait, s'il y a un moment pour prendre quelques personnes à part et leur dire : "Écoutez, est-ce que vous vous amusez vraiment à cette fête, ou est-ce que nous ne passons pas tous un bon moment et que nous devrions nous en aller ?" Ce genre de conversation peut favoriser de meilleurs résultats.

C'est donc le genre de choses où, comme vous l'avez mentionné plus tôt, la conception du système, intégrant certaines de ces caractéristiques comportementales, peut être vraiment puissante parce que tant que cette illusion est maintenue, que d'autres personnes s'amusent, mais que cette plateforme laisse aux autres le genre de sentiment qu'ils veulent ressentir en termes de connexion avec d'autres utilisateurs, ce genre de choses peut me tenir en haleine en tant qu'utilisateur individuel pendant un certain temps, potentiellement indéfiniment.

Bob : Sans aucun doute. Je n'ai jamais eu ce problème lors des fêtes, d'ailleurs, surtout parce que je n'y vais jamais.

Brooke : Une brève parenthèse. Pendant toute la durée de la pandémie, j'ai l'impression qu'il y a tellement d'énergie qui s'accumule qu'une fois que les contrôles seront relâchés, on assistera à une série de fêtes incroyables et scandaleuses. Quand je repense à la grippe espagnole à la fin des années 1910 et que je regarde un film comme The Great Gatsby, je me dis : "Oh, c'est pour ça qu'ils ont fait toutes ces choses".

Bob : C'est vrai. La demande s'accroît.

Contexte social et monétisation

Brooke : Oui, c'est exact. Nous avons beaucoup parlé de la façon dont nous pourrions concevoir un système parfait qui surmonterait certains de ces défis, et je pense que cette idée que nous avons besoin de nombreux systèmes et d'adopter une approche de portefeuille, que nous expérimentons beaucoup de choses différentes et que les utilisateurs ont la possibilité de voter avec leurs données, de voter avec leur participation et une plateforme, que ceux qui favorisent le genre de choses que les utilisateurs recherchent seront les plateformes qui finiront par l'emporter, s'il y a des options et de la clarté autour de ces plateformes.

Mais une partie de la discussion qui est si difficile autour de ces systèmes parfaits est que nous ne partons jamais de zéro. Nous n'opérons jamais dans un vide historique. Il existe déjà des plateformes qui présentent certaines dynamiques et caractéristiques, ce qui crée également certaines attentes parmi les bases d'utilisateurs sur la manière dont les plateformes devraient fonctionner et sur ce que l'on devrait ressentir en utilisant une plateforme, et ce genre de choses. De même, vous avez mentionné plus tôt qu'on ne peut pas continuer à injecter indéfiniment de l'argent dans une entreprise qui, en fin de compte, ne rapporte rien. Il existe donc des incitations économiques dans l'écosystème.

Il ne s'agit pas seulement d'acquérir et de conserver des utilisateurs. Il s'agit aussi de monétisation. Les méga-plateformes actuelles sont efficaces parce qu'elles peuvent convertir l'engagement des utilisateurs en actifs pour lesquels quelqu'un est prêt à payer. En général, cela signifie qu'elles vendent nos données à quelqu'un qui veut nous vendre quelque chose, et parfois cette chose qu'ils veulent nous vendre est une idéologie politique. De quels types d'environnements incitatifs avons-nous besoin pour soutenir un écosystème de plateformes et un écosystème d'IA qui s'attaquent aux types de comportements sains que vous décrivez ? Pour poser la question de manière un peu plus lapidaire, quel type d'entreprise voudrait faire de la publicité sur ma plateforme si ma plateforme aide les gens à contrôler leurs habitudes de consommation autodestructrices et impulsives ?

Bob : Je pense que la tempête parfaite de l'industrie de la publicité, qui s'est rendu compte que son modèle de publicité physique était grossièrement inefficace, combinée à l'entrée en scène des réseaux sociaux, je pense que l'histoire va considérer cela comme un baril de poudre, et de manière assez négative. Je pense que ce que l'on n'a pas vu, c'est qu'il y avait en fait quelques grandes entreprises qui suivaient un modèle d'abonnement dans lequel les gens payaient, étaient prêts à payer, pas beaucoup, mais étaient prêts à payer pour avoir le droit d'utiliser leur service, qu'il s'agisse de Spotify ou d'Apple. Amazon Prime en est même un exemple. Il s'agit d'un service d'abonnement. Il s'agit d'un abonnement pour acheter plus de choses. Mais vous bénéficiez d'avantages en contrepartie.

Je pourrais imaginer un scénario dans lequel vous pourriez reconstruire un mode de collaboration et de partage personnel et professionnel qui vaille la peine d'être payé. Et, peut-être pour que cela vaille la peine de payer, vous êtes en mesure de contrôler ce que vous voyez. Vous êtes en mesure de réguler les choses. Il apprend ce que vous faites, mais d'une manière positive. Je pense que le défi réside dans le fait que le mécanisme de diffusion de la publicité sur Facebook est tellement plus efficace que les magazines ou les journaux, que je crois encore à la possibilité qu'un modèle basé sur l'abonnement profite aux producteurs de biens et de services qui veulent essentiellement promouvoir quelque chose de positif dans la vie de quelqu'un. Il peut s'agir de les aider à se sentir mieux dans leur peau ou à retrouver un régime alimentaire sain, ou autre.

Et je pense qu'un modèle basé sur l'autosélection et l'abonnement serait aussi efficace qu'un mécanisme de diffusion sur Facebook. Je pense simplement que personne n'a jamais essayé de le faire. Je veux dire, peut-être que quelqu'un l'a fait, mais je pense que ce sera probablement la prochaine génération. Je pense que ce serait très positif, à moins que vous ne fassiez la promotion de quelque chose de manifestement destructeur pour les gens. Mais je pense que la plupart des gens qui passent leur temps à créer des produits et des services croient qu'ils améliorent la vie des organisations, des équipes et des personnes.

Brooke : Vous avez mentionné la manière dont les plateformes sont financées, et je pensais à l'histoire, une fois de plus, et je me disais que Facebook, Twitter, ces grandes plateformes de médias sociaux, ne sont pas les premières plateformes qui ont vu le jour pour promouvoir la communication entre les individus. Comment la poste a-t-elle pu voir le jour ? Il a fallu qu'il y ait un financement derrière, et il a aussi vraiment révolutionné la façon dont les gens communiquent entre eux.

Nous voyons tous les mêmes types de caractéristiques où la publicité et, bien sûr, la publicité pour les produits et les services, ainsi que la publicité pour la politique et les politiques, se sont également greffées. Le service postal américain, lorsqu'il a commencé à s'étendre à tout le pays, était un mécanisme de distribution novateur et extrêmement puissant pour les essais politiques et ce genre de choses, que les partis publiaient pour tenter d'influencer les électeurs. Je ne sais pas précisément quand la publicité de type commercial a commencé à être envoyée par la poste, mais nous ne pensons pas qu'il soit inapproprié de devoir payer un timbre pour envoyer quelque chose. Nous pouvons coller un autocollant "pas de courrier" sur notre boîte aux lettres, et cela ne signifie pas que nous ne sommes plus autorisés à recevoir les choses que nous voulons. Il existe d'autres plateformes qui ont occupé des rôles fonctionnels similaires dans notre société au cours de l'histoire, et il y a peut-être des leçons à en tirer.

Bob : Tout à fait.

L'avenir de l'innovation sociale

Brooke : En ce qui concerne les modèles de paiement par l'utilisateur, il y a aussi quelque chose à considérer, je pense, autour des avantages qui peuvent être créés avec ces plateformes. Si nous nous posons la question de savoir qui bénéficie d'une plateforme entière d'utilisateurs heureux ou moins stressés, ce genre de choses, il ne s'agit pas seulement d'un idéal utopique selon lequel, eh bien, c'est une société parfaite, mais personne ne va payer pour cela. Il existe des avantages réels, concrets et tangibles pour lesquels certaines personnes sont prêtes à payer afin de parvenir à ce type de situation. L'un des exemples qui me vient à l'esprit est celui des employeurs.

Les employeurs dépensent chaque année des milliards et des milliards de dollars en ressources humaines pour s'assurer que leurs employés sont heureux, bien adaptés et résilients, car les personnes qui présentent toutes ces caractéristiques, ou qui sont décrites par toutes ces caractéristiques à un moment donné, sont productives. Ils travaillent mieux, et cela crée plus de valeur pour les entreprises pour lesquelles ils travaillent. Ce n'est peut-être qu'un exemple. Un employeur pourrait être le client, même s'il n'est pas l'utilisateur final, d'une plateforme qui promeut une collaboration saine, un état d'esprit positif, ce genre de choses, dans le cadre de la conception systémique de la plateforme.

Aux États-Unis, c'est peut-être un peu différent parce qu'il n'y a pas de soins de santé universels financés par l'État, mais dans de nombreux pays du monde où c'est le cas, les gouvernements ont aussi une énorme incitation à réduire les charges de santé publique, les charges de santé mentale. Ainsi, partout où une plateforme peut être conçue pour promouvoir le bien-être physique et mental des individus, il faut faire preuve d'un peu de créativité. Il n'est certainement pas facile d'entamer ces conversations ou même d'entrer dans la salle. Mais il y a des acteurs qui ont beaucoup d'argent à dépenser et qui le consacrent actuellement à résoudre des problèmes, à traiter des effets, alors que si vous pouvez dire que je peux traiter cela en amont pour un coût bien moindre et m'occuper des causes, il y a des modèles commerciaux vraiment, vraiment solides qui peuvent être construits dans ce sens.

Bob : Oh, je suis tout à fait d'accord, et je pense que si l'on revient à l'IA et à certains des ratés, j'aimerais bien voir une application qui dirait simplement : " Hé, tu penses mal à ce que tu viens de faire. Devinez quoi ? C'est tout à fait normal". Je pense que les médias en général, et les plateformes sociales basées sur l'IA en particulier, ont une façon d'amplifier la bonne queue des choses.

Ma femme me parlera d'un décès tragique dû au COVID et me dira à quel point c'est horrible, et je lui répondrai : "Je sais qu'il y a 25 millions de cas. Si vous preniez 25 millions de cas de personnes se rendant à l'épicerie en voiture, je suis sûr que je pourrais trouver des histoires vraiment horribles". Je ne minimise pas du tout l'importance de COVID. Je dis simplement que nous disposons d'un média où la bonne queue est tout simplement amplifiée, ce qui fait que les gens se sentent mal. Je pense que cela les pousse à s'inquiéter de choses dont ils ne devraient pas s'inquiéter. Ils se sentent inadaptés.

En tant que dirigeant d'une startup depuis plus de neuf ans, j'essaie de dire à tout le monde que mon film préféré pour une startup est Rocky parce que ce n'est pas la victoire, c'est le fait d'aller jusqu'au bout des 12 rounds qui compte. Il s'agit d'une fonction objective différente ou d'une variable Y. Survivre est ce qui compte vraiment dans certaines startups. Si vous ne continuez pas à vous relever, c'est le moyen le plus sûr d'échouer. Mais continuez à vous relever, et plus vous vous relèverez de vos échecs, qui sont inévitables, plus vous aurez de chances de réussir.

Brooke : Donc, pour quelqu'un qui s'intéresse à l'IA, au nudging empathique, à la construction de ce type de plateformes, par où commencer ? Que pouvez-vous faire dès lundi matin pour mettre ces idées en pratique ?

Bob : Je pense qu'il existe une abondante littérature dans le domaine des sciences du comportement et de l'économie du comportement, que vous connaissez bien. C'est certainement un point de départ. Mais il y a aussi des gens très brillants qui font de la modélisation. Je lisais justement le professeur Sandholm, de Carnegie Mellon, qui travaille sur une IA Libratus qui bat les champions du monde de poker. Il y a dans ces modèles quelque chose qui relève de la théorie des jeux, de l'interactivité, de la recherche d'un équilibre de Nash, si l'on peut dire.

D'autres personnes étudient comment les systèmes d'apprentissage, les systèmes éducatifs, peuvent déduire des questions que vous posez la quantité de connaissances que vous apprenez. Je pense qu'il existe des éléments disparates d'idées très puissantes que les gens pourraient commencer à étudier. Les professeurs qui utilisent les réseaux neuronaux et la théorie des jeux pour devenir des professionnels des jeux. Je pense que c'est un bon point de départ. La raison pour laquelle je dis cela, c'est parce qu'il s'agit généralement d'un modèle à deux parties, je pense qu'il y a quelque chose là où je commencerais à regarder, ainsi que les travaux fondamentaux de Kahneman et d'autres.

Brooke : Qu'en est-il du modèle d'entreprise, du leadership, de la recherche de la bonne variable ou de la bonne variable Y ? Par où commencer ?

Bob : D'un point de vue philosophique, je dirais que ce ne sera jamais la voie la plus populaire. Ferrari et Porsche ne sont que deux entreprises qui ont décidé de ne pas vendre le plus grand nombre de voitures, mais de vendre les meilleures voitures dans leur esprit. Je pense qu'il est toujours rare que quelqu'un prenne un chemin différent pour une fonction objective. Mais c'est peut-être ainsi que les choses devraient se passer. C'est peut-être pour cela que la qualité est élevée.

Je dirais donc que ce n'est pas différent de n'importe quelle autre chose que vous faites. Vous devez décider pourquoi vous vous levez le matin. Je pense que si vous décidez qu'il s'agit de quelque chose de superficiel ou d'incontrôlable, vous risquez d'avoir beaucoup de mal. En revanche, si vous décidez que c'est quelque chose d'intrinsèque à mon apprentissage, à une qualité ou à l'amélioration de ma partie du monde, je pense simplement que c'est quelque chose d'intrinsèque à certaines personnes. J'espère que plus de gens y seront sensibles, mais je crois que c'est une chose que certains décident de faire, et d'autres non.

Brooke : Eh bien, c'est peut-être un espoir pour l'avenir. Beaucoup de gens se sentent actuellement très désillusionnés par le type de système dans lequel nous nous trouvons, et ce genre de désillusion, aussi décevant que cela puisse être que nous ayons dû laisser les choses aller aussi loin, ira probablement encore plus loin avant que les choses ne commencent à s'arranger. Cette désillusion pourrait être un ingrédient causal nécessaire pour que les gens examinent attentivement le modèle dans lequel nous fonctionnons actuellement et se disent : "Ce n'est tout simplement pas le type de monde que je veux construire. Je vais donc me donner pour mission professionnelle, au cours des 10, 20 ou 30 prochaines années, de proposer quelque chose qui nous offre la possibilité d'agir différemment".

Bob : Je suis d'accord, et je sais que de très nombreuses personnes réfléchissent déjà à cette question et travaillent très dur pour trouver une meilleure façon d'envisager la collaboration. Je suis donc optimiste.

Brooke : Très bien. Bob, merci beaucoup pour votre temps et vos idées aujourd'hui.

Bob : Je vous remercie.

Brooke : Nous nous réjouissons de vous revoir un jour.

Bob : D'accord. C'est un plaisir.

Nous aimerions avoir de vos nouvelles ! Si vous appréciez ces podcasts, n'hésitez pas à nous le faire savoir. Envoyez un courriel à notre rédacteur en chef pour lui faire part de vos commentaires, suggestions, recommandations et réflexions sur la discussion.

About the Guest

Bob Suh

Bob Suh

Bob est le fondateur et le directeur général d'OnCorps. Il a publié des articles sur l'économie comportementale dans la Harvard Business Review et le Financial Times. Avant de travailler pour OnCorps, Bob était chef de la stratégie technologique chez Accenture et directeur de la stratégie pour la division technologique de l'entreprise. Il a été nommé par Consulting Magazine dans la liste des 25 meilleurs consultants. Bob a également été président de groupe chez Perot Systems, où il a contribué à l'entrée en bourse de la société. Bob est titulaire d'un master en économie politique de l'université de Harvard, où il a été conseiller de classe et assistant de recherche du lauréat du prix Nobel d'économie 2005. Il est titulaire d'une licence de l'université de Californie du Sud.

About the Interviewer

Listen to next

stickman conversation
Podcast

L'effet de tension avec John List FR

John List parle de l'effet de tension, du moment et de la manière de mettre à l'échelle une idée réussie, et du moment où il faut connaître ses limites.

Notes illustration

Vous souhaitez savoir comment les sciences du comportement peuvent aider votre organisation ?