handwritten letter

Une Magna Carta pour l'inclusivité et l'équité dans l'économie mondiale de l'IA

"Votre Uber auto-conducteur doit-il être autorisé à enfreindre le code de la route pour s'insérer en toute sécurité sur l'autoroute ? Dans quelle mesure les algorithmes sont-ils aussi enclins à des modes de pensée discriminatoires que les humains - et comment un organisme de réglementation pourrait-il faire cette détermination ? Plus fondamentalement, alors que de plus en plus de tâches sont déléguées à des machines intelligentes, dans quelle mesure ceux d'entre nous qui ne sont pas directement impliqués dans le développement de ces technologies seront-ils en mesure d'influencer leurs décisions ? C'est avec ces quest
ions à l'esprit que nous sommes heureux d'avoir adapté l'article suivant pour le publier sur TDL. - Andrew Lewis, rédacteur en chef"

Nous nous trouvons à un moment décisif pour l'avenir numérique, vaste et inconnu, de la société. Une technologie puissante, l'intelligence artificielle (IA), a émergé de ses propres cendres, en grande partie grâce aux progrès des réseaux neuronaux qui s'inspirent largement du cerveau humain. L'IA est capable de trouver des modèles dans des ensembles massifs de données non structurées et d'améliorer ses propres performances au fur et à mesure que les données deviennent disponibles. Elle peut identifier des objets rapidement et avec précision, et faire des recommandations toujours plus nombreuses et meilleures - améliorant ainsi la prise de décision, tout en minimisant l'interférence d'humains compliqués et politiques. Cela soulève des questions majeures sur le degré de choix et d'inclusion de l'être humain dans les décennies à venir. Comment les êtres humains, à tous les niveaux de pouvoir et de revenu, seront-ils impliqués et représentés ? Comment gouvernerons-nous ce meilleur des mondes de la méritocratie des machines ?

La méritocratie des machines

Pour répondre à cette question, il faut remonter 800 ans en arrière : Nous sommes en janvier 1215 et le roi Jean d'Angleterre, qui vient de rentrer de France, doit faire face à des barons en colère qui souhaitent mettre fin à son impopulaire autorité sur le royaume, vis et voluntas ("force et volonté"). Afin de les apaiser, le roi et l'archevêque de Canterbury réunissent 25 barons rebelles pour négocier une "Charte des libertés" qui consacre un ensemble de droits destinés à limiter le pouvoir discrétionnaire du roi. En juin, ils ont conclu un accord qui prévoyait une plus grande transparence et une meilleure représentation dans le processus décisionnel royal, des limites aux impôts et aux paiements féodaux, et même certains droits pour les serfs. La célèbre "Magna Carta" était un document imparfait, truffé de dispositions relatives à des intérêts particuliers, mais aujourd'hui, nous avons tendance à considérer la Carta comme un tournant dans l'évolution de l'humanité vers une relation équitable entre le pouvoir et ceux qui y sont soumis. Elle a ouvert la voie aux Lumières, à la Renaissance et à la démocratie.

L'équilibre des pouvoirs

C'est cet équilibre entre le pouvoir sans cesse croissant du nouveau potentat - la machine intelligente - et le pouvoir des êtres humains qui est en jeu. De plus en plus, notre monde sera un monde dans lequel les machines créeront de plus en plus de valeur, en produisant davantage de nos produits quotidiens. À mesure que ce rôle s'étend et que l'IA s'améliore, le contrôle humain sur les conceptions et les décisions diminuera naturellement. Les modèles de travail et de vie actuels seront à jamais modifiés. Notre propre création tourne désormais en rond autour de nous, plus vite que nous ne pouvons compter les tours.

Décisions de la machine

Cela va bien au-delà de l'emploi et de l'économie : dans tous les domaines de la vie, les machines commencent à prendre des décisions à notre place, sans que nous en soyons conscients. Les machines reconnaissent nos habitudes passées et celles de personnes (prétendument) similaires à travers le monde. Nous recevons des informations qui façonnent nos opinions, nos perspectives et nos actions en fonction des inclinaisons que nous avons exprimées dans nos actions passées ou qui découlent des actions d'autres personnes dans nos bulles. Au volant de nos voitures, nous partageons nos schémas comportementaux avec les constructeurs automobiles et les compagnies d'assurance afin de pouvoir bénéficier de la navigation et de la technologie des véhicules de plus en plus autonomes, qui nous offrent en retour de nouvelles commodités et des transports plus sûrs. Nous profitons de divertissements et de jeux vidéo plus riches et personnalisés, dont les fabricants connaissent nos profils socio-économiques, nos habitudes de déplacement et nos préférences cognitives et visuelles pour déterminer la sensibilité des prix.

Alors que nous acceptons de plus en plus de commodités, nous choisissons de faire confiance à une machine pour "nous comprendre". La machine apprendra à nous connaître de manière peut-être plus honnête que nous ne nous connaissons nous-mêmes - du moins d'un point de vue strictement rationnel. Mais la machine ne rendra pas facilement compte des déconnexions cognitives entre ce que nous prétendons être et ce que nous sommes réellement. S'appuyant sur des données réelles issues de nos actions réelles, la machine nous contraint à ce que nous avons été, plutôt qu'à ce que nous voudrions être ou à ce que nous espérons devenir.

Choix personnel

La machine éliminera-t-elle ce choix personnel ? Va-t-elle supprimer la sérendipité de la vie - en planifiant et en organisant nos vies de manière à ce que nous rencontrions des gens comme nous, nous privant ainsi de rencontres et de frictions qui nous obligent à évoluer vers des êtres humains différents, peut-être meilleurs ? Le potentiel est énorme : les décisions personnelles sont intrinsèquement subjectives, mais nombre d'entre elles pourraient être améliorées par l'inclusion d'analyses plus objectives. Par exemple, l'inclusion de l'empreinte carbone des différents modes de transport et son intégration dans nos horaires et nos inclinaisons pro-sociales pourraient nous amener à prendre des décisions plus respectueuses de l'environnement ; l'obtention d'indications honnêtes sur nos caractéristiques les plus et les moins désirables, ainsi qu'un aperçu des caractéristiques que nous trouvons constamment attirantes chez les autres, pourraient améliorer le choix de nos partenaires ; les programmes d'études destinés à des groupes d'étudiants nombreux et diversifiés pourraient être mieux adaptés à l'individu, sur la base d'informations sur ce qui a fonctionné dans le passé pour des profils similaires.

Polarisation

Mais ne risque-t-elle pas aussi de polariser les sociétés en nous poussant davantage dans des bulles de personnes partageant les mêmes idées, renforçant nos croyances et nos valeurs sans possibilité aléatoire de les vérifier, de les défendre et d'être contraints de les repenser ? L'IA pourrait être utilisée à des fins d'"ingénierie sociale numérique" pour créer des microsociétés parallèles. Imaginons que des agents politiques utilisent l'IA pour attirer les électeurs de certains profils dans certaines circonscriptions des années avant les élections, ou que des micro-communautés AirBnB ne louent qu'à certains profils sociopolitiques, économiques ou psychométriques. Envisageons que les entreprises puissent embaucher de manière beaucoup plus chirurgicalement ciblée, augmentant à la fois leur taux de réussite et compromettant leur option stratégique avec un vivier d'employés plus étroit et moins polyvalent.

Qui juge ?

Une machine nous juge sur la base des valeurs que nous exprimons, en particulier celles qui sont implicites dans nos transactions commerciales, tout en négligeant d'autres valeurs profondément ancrées que nous avons supprimées ou qui sont en sommeil à un moment donné de notre vie. Une IA pourrait ne pas tenir compte des croyances nouvellement formées ou des changements dans ce que nous valorisons en dehors du domaine facilement codifié. Par conséquent, elle pourrait, par exemple, prendre des décisions concernant notre sécurité qui compromettent le bien-être d'autres personnes - en se basant sur les données historiques de nos jugements et de nos décisions, mais en entraînant des actions que nous jugeons inacceptables au moment présent. Nous sommes des êtres complexes qui effectuent régulièrement des arbitrages de valeur dans le contexte de la situation présente, et parfois ces situations n'ont que peu ou pas de précédents codifiés qu'une IA puisse traiter. La machine respectera-t-elle nos droits au libre arbitre et à l'auto-réinvention ?

Discrimination et préjugés

De même, une machine pourrait discriminer des personnes en moins bonne santé ou moins bien placées dans la société parce que ses algorithmes sont fondés sur la reconnaissance de formes et de grandes moyennes statistiques. Uber a déjà été confronté à un tollé pour discrimination raciale lorsque ses algorithmes se sont appuyés sur les codes postaux pour identifier les quartiers d'où les passagers étaient le plus susceptibles de provenir. L'IA favorisera-t-elle la survie du plus fort, du plus apprécié ou du plus productif ? Prendra-t-elle ces décisions de manière transparente ? Quels seront nos recours ?

En outre, les antécédents personnels, les prédispositions et les préjugés invisibles d'un programmeur - ou les motivations et incitations de son employeur - peuvent influencer involontairement la conception des algorithmes et l'approvisionnement des ensembles de données. Peut-on supposer qu'une IA travaillera toujours en toute objectivité ? Les entreprises développeront-elles des IA qui favorisent leurs clients, leurs partenaires, leurs dirigeants ou leurs actionnaires ? Par exemple, une IA de soins de santé développée conjointement par des entreprises technologiques, des sociétés hospitalières et des compagnies d'assurance agira-t-elle dans le meilleur intérêt du patient ou donnera-t-elle la priorité à un certain rendement financier ?

Nous ne pouvons pas remettre le génie dans la bouteille, et nous ne devrions pas essayer - les bénéfices seront transformateurs, nous conduisant à de nouvelles frontières dans la croissance et le développement humains. Nous nous trouvons au seuil d'une explosion évolutive sans précédent au cours du dernier millénaire. Et comme toutes les explosions et révolutions, elle sera désordonnée, obscure et semée d'embûches éthiques.

Une nouvelle charte des droits

C'est pourquoi nous proposons une Magna Carta pour l'économie mondiale de l'IA - une charte des droits inclusive, élaborée collectivement et multipartite qui guidera notre développement continu de l'intelligence artificielle et jettera les bases de la coexistence future entre l'homme et la machine et d'une croissance humaine continue et plus inclusive. Que ce soit dans un contexte économique, social ou politique, nous devons, en tant que société, commencer à identifier les droits, les responsabilités et les lignes directrices en matière d'inclusion et d'équité aux intersections de l'IA et de la vie humaine. Sans cela, nous n'établirons pas suffisamment de confiance dans l'IA pour tirer parti des possibilités extraordinaires qu'elle peut nous offrir et qu'elle nous offrira.

* Adapté du livre à paraître "Solomon's Code : Power and Ethics in the AI Revolution" (titre provisoire) copyright © 2017 Olaf Groth & Mark Nitzberg.

About the Authors

Olaf Groth

Olaf Groth

Hult International Business School

Olaf Groth, Ph.D., est coauteur de "Solomon's Code" et PDG de Cambrian.ai, un réseau de conseillers sur les tendances mondiales en matière d'innovation et de perturbation, telles que l'IA, l'IOT, les systèmes autonomes et la quatrième révolution industrielle pour les cadres et les investisseurs. Il est professeur de stratégie, d'innovation et d'économie à la Hult International Business School, chercheur invité à la table ronde de l'UC Berkeley sur l'économie internationale et membre du Global Expert Network au Forum économique mondial.

Mark Nitzberg

Mark Nitzberg

University of California, Berkeley

Mark Nitzberg est co-auteur de "Solomon's Code" et directeur exécutif du Center for Human-Compatible AI à l'université de Californie à Berkeley. Il est également directeur et scientifique en chef de Cambrian.ai, ainsi que conseiller auprès d'un certain nombre de startups, tirant parti de son expérience combinée d'informaticien en réseau mondial et d'entrepreneur social en série.

Mark Esposito

Mark Esposito

Harvard

Mark Esposito est membre de la faculté d'enseignement de la Division of Continuing de l'Université de Harvard, professeur de commerce et d'économie, avec une nomination à la Hult International Business School. Il a été nommé chercheur au Circular Economy Center, à la Judge Busines School de l'université de Cambridge. Il est également membre de la Mohammed Bin Rashid School of Government à Dubaï.

Read Next

Notes illustration

Vous souhaitez savoir comment les sciences du comportement peuvent aider votre organisation ?