man looking straight

La gouvernance de l'IA

Nos vies sont régies par les données. Non seulement parce qu'elles informent les entreprises de ce que nous voulons, mais aussi parce qu'elles nous aident à nous souvenir et à différencier ce que nous voulons, ce dont nous avons besoin et ce que nous pouvons ignorer. Toutes ces décisions donnent lieu à des schémas, et les schémas, lorsqu'ils sont agrégés, nous donnent une image de nous-mêmes. Un monde où de tels modèles nous suivent, ou même nous sont envoyés avant nous - aux restaurants pour leur indiquer si nous avons des allergies, aux magasins de détail pour leur indiquer notre taille de vêtement préférée - est désormais si faisable que le qualifier de science-fiction révélerait un manque de conscience plus qu'un manque d'imagination.

Les avantages de l'IA rendent nombre de nos choix plus faciles et plus pratiques et, ce faisant, resserrent la concurrence dans l'espace de choix des clients. Au fur et à mesure de cette évolution, la question n'est pas tant de savoir dans quelle mesure l'IA encadre nos choix, mais plutôt comment elle les façonne. Dans un tel monde, nous devons comprendre quand notre comportement est façonné, et par qui.

Il est clair que la plupart d'entre nous se sentent à l'aise dans un monde où nos choix sont influencés par l'IA. En effet, nous vivons déjà dans un tel monde : des moteurs de recherche à la fluidité du trafic, nombre de nos commodités quotidiennes reposent sur la rapidité fournie par le backend. La question que nous devons nous poser lorsque nous envisageons l'IA et sa gouvernance est de savoir si nous sommes à l'aise dans un monde où nous ne savons pas si, et comment, nous sommes influencés.

Biais ou indices comportementaux ?

L'IA peut faire pour notre compréhension du comportement ce que le microscope a fait pour la biologie.

Nous avons déjà atteint le point où les logiciels peuvent découvrir des tendances dans nos modèles de comportement que nous n'aurions pas envisagées, en identifiant des traits que nos amis et notre famille ne connaîtraient pas. L'histoire tristement célèbre, mais apocryphe, du père qui a découvert que sa fille était enceinte lorsque Target a commencé à lui envoyer des publicités pour des fournisseurs de bébés (après avoir détecté un changement dans ses dépenses) nous donne un avant-goût[i].

Nos vies sont déjà régies par des hypothèses probabilistes, destinées à orienter les comportements. Nous devons maintenant nous demander, et répondre honnêtement, quelle part de notre vie sommes-nous prêts à laisser façonner par des algorithmes que nous ne comprenons pas ? Plus important encore, qui devrait être chargé de surveiller ces algorithmes pour détecter les mauvaises décisions ou les décisions délibérément manipulatrices ?

Alors que de plus en plus d'entreprises utilisent l'IA et que la complexité de ses informations ne cesse de croître, nous serons confrontés à une lacune par rapport au droit à la compréhension ou au droit d'être informé - nous serons confrontés à une lacune concernant le moment où une violation a été commise, et si elle l'a été.

À mesure que notre présence numérique s'accroît, et que cette présence est tirée par des orientations publiques concernant l'avenir de l'e-gouvernance et privées concernant la manière dont nous nous engageons avec nos intérêts, une gouvernance significative devra inclure une première étape essentielle, le droit de savoir comment nos données sont utilisées, qui les détient, et quand elles sont utilisées.

Un autre exemple de la façon dont le comportement et la technologie interagissent à un rythme plus rapide que jamais est l'observation de ce que les chatbots nous apportent : le potentiel d'associations émotionnelles, qui peuvent être utilisées à des fins de manipulation[ii]. Alors que les développements en matière de traitement du langage naturel se combinent de plus en plus avec la robotique avancée, le potentiel de construction de ce lien à partir du toucher, de la chaleur, du confort, augmente également - en particulier dans un monde où nous connaissons la plus grande endémie de solitude, ce qui a poussé le Royaume-Uni à nommer littéralement un ministre de la solitude.

À mesure que les données de machine à machine se multiplient dans l'internet des objets, les entreprises bénéficiant d'un accès préférentiel auront de plus en plus d'informations sur des aspects de plus en plus infimes des modèles de comportement que nous ne comprenons peut-être pas nous-mêmes, ce qui leur donnera la possibilité d'influencer les comportements. Les bonnes données ne sont pas seulement une question de volume, mais aussi de véracité - avec le développement de l'IdO, nous offrons aux entreprises tout ce qu'elles ont besoin de savoir sur nous sur un plateau d'argent.

On peut encore affirmer que le problème n'est pas le volume, mais l'asymétrie des compétences analytiques dans la gestion de ce volume - ce qui signifie des asymétries dans la capture de la valeur. Cela signifie que certaines entreprises non seulement vous comprennent, mais peuvent prédire votre comportement au point de savoir comment influencer un choix particulier de la manière la plus efficace. À l'ère du big data, la meilleure activité est celle de la connaissance.

Responsabilité : qui s'occupe de nous ?

La première question concernant la responsabilisation est de savoir comment maintenir les humains dans la boucle de décision des processus rendus plus autonomes par l'IA. L'étape suivante doit préserver la responsabilité dans le droit à la compréhension - savoir pourquoi un algorithme a pris une décision plutôt qu'une autre.

De nouvelles propositions émergent déjà sur la manière d'y parvenir - par exemple, lorsque des projets d'IA spécifiques sont des aspects exclusifs de la compétitivité d'une entreprise, nous pourrions être en mesure d'utiliser des systèmes contrefactuels pour évaluer tous les choix possibles auxquels l'IA est confrontée[iii], mais les systèmes qui cartographient les décisions sans briser la boîte noire ne seront pas en mesure de fournir les raisons pour lesquelles cet algorithme a pris une décision au lieu d'une autre.

Pourtant, le problème est encore plus profond. Le problème des modèles de transparence réside dans l'hypothèse que nous saurons même ce qu'il faut rechercher - que nous saurons quand il faut choisir de refuser l'utilisation des données par une entreprise. Dans un avenir proche, nous ne serons peut-être pas en mesure de comprendre par nous-mêmes quand une IA nous influence.

Cela nous amène à une question fondamentale : pour gouverner l'IA, nous devrons peut-être utiliser l'IA.

Nous aurons besoin de l'IA non seulement pour comprendre quand nous sommes influencés de manière manifeste, mais aussi pour comprendre les nouvelles façons dont les entreprises peuvent tirer parti de la micro-compréhension de notre comportement. La capacité des cadres juridiques, des institutions politiques et des normes de responsabilité existants à comprendre, prédire et empêcher l'utilisation de l'IA à des fins de manipulation fait cruellement défaut.

La collusion algorithmique est déjà un problème - les ententes sur les prix laissent place à des questions de prix qui peuvent disparaître, sans accord préalable, évitant ainsi les réclamations initiales[iv]. Nous pouvons imaginer un monde où la collusion est organisée non pas par le marché, mais par le suivi du comportement de groupes distincts d'individus pour organiser des changements de micro-prix.

Naturellement, des questions se posent : qui gouvernera l'IA que nous utilisons pour surveiller l'IA ? Comment saurons-nous qu'il n'y a pas de collusion entre ceux qui observent et ceux qui sont observés ? De quel type de système de transparence aurons-nous besoin pour gouverner l'IA afin de minimiser les exigences de transparence de l'IA d'entreprise ?

L'avenir de la gouvernance de l'IA se jouera dans les marges - ce à quoi nous devons prêter attention n'est pas tant la structure changeante de la collusion et de la manipulation que la conduite et la capacité de l'IA compétente à trouver le nombre minimal de points d'influence pour façonner la prise de décision.

Nous devons avoir une conversation pour que nos hypothèses et nos convictions sur la fixation des prix, la collusion et la manipulation soient douloureusement claires. À l'ère de l'IA, nous ne pouvons pas nous permettre d'être vagues.

References

[i] Piatetsky, Gregory. Target a-t-il vraiment prédit la grossesse d'une adolescente ? The Inside Story 7 mai 2014 KD nuggets

[ii] Annuellement, Liesl. Nous devons parler du pouvoir de l'IA de manipuler les humains. 5 juin 2017. MIT Tech Review

[iii] Mittelstadt, Brent. Wachter, Sandra. Les contrefactuels pourraient-ils expliquer les décisions algorithmiques sans ouvrir la boîte noire ? 15 janvier 2018. Blog de l'Oxford Internet Institute

[iv] Algorithmes et collusion : La politique de concurrence à l'ère numérique. OCDE 2017

About the Authors

Mark Esposito

Mark Esposito

Harvard

Mark Esposito est membre de la faculté d'enseignement de la Division of Continuing de l'Université de Harvard, professeur de commerce et d'économie, avec une nomination à la Hult International Business School. Il a été nommé chercheur au Circular Economy Center, à la Judge Busines School de l'université de Cambridge. Il est également membre de la Mohammed Bin Rashid School of Government à Dubaï.

Danny Goh

Danny Goh

Oxford

Danny est un entrepreneur en série et un investisseur précoce. Il est partenaire et directeur commercial de Nexus Frontier Tech, une société de conseil en intelligence artificielle présente à Londres, Genève, Boston et Tokyo, qui aide les PDG et les membres du conseil d'administration de différentes organisations à créer des entreprises innovantes en tirant pleinement parti de la technologie de l'intelligence artificielle.

Josh Entsminger

Josh Entsminger

Virginia Tech

Josh Entsminger est chercheur appliqué à Nexus Frontier Tech. Il est également chargé de cours au Centre pour la politique et la compétitivité de l'École des Ponts, associé de recherche à l'initiative d'innovation sociale de l'IE Business School et collaborateur de recherche à l'initiative "Future of Production" du Forum économique mondial.

Terence Tse

Terence Tse

ESCP Europe Business School

Terence est cofondateur et directeur général de Nexus Frontier Tech : An AI Studio. Il est également professeur associé de finance au campus londonien de l'ESCP Europe Business School. Terence est le co-auteur du best-seller Understanding How the Future Unfolds : Using DRIVE to Harness the Power of Today's Megatrends. Il est également l'auteur de Corporate Finance : The Basics.

Read Next

Notes illustration

Vous souhaitez savoir comment les sciences du comportement peuvent aider votre organisation ?