Les dangers d'un futur artificiellement intelligent
Il ne fait aucun doute que nous sommes entrés dans la dernière période révolutionnaire de l'histoire de l'humanité, la révolution technologique. Cette nouvelle ère promet l'efficacité, la commodité, la communication, l'égalité d'accès à l'information et une prospérité inégalée, mais à quel prix ?
Il est facile d'être ébloui par les prouesses technologiques des smartphones modernes, des voitures autonomes ou des jeux VR, et d'oublier que ces machines ont été construites par des humains, dans toute leur gloire irrationnelle et illogique. Les programmeurs deviennent des architectes du choix : ils ont le pouvoir de façonner les contextes dans lesquels les gens prennent des décisions, et donc ces décisions elles-mêmes.1 Les concepteurs de ces technologies, cependant, sont sensibles aux mêmes biais et préjugés inconscients que le reste d'entre nous, et les technologies qui en résultent - l'IA et les algorithmes d'apprentissage automatique en particulier - menacent d'exacerber les inégalités sociales en encodant nos biais humains et en les faisant proliférer à grande échelle.
L'apprentissage automatique, expliqué
Les algorithmes d'apprentissage automatique ne sont peut-être pas les grands prédicteurs que nous croyons qu'ils sont. Ils se contentent de reproduire la société telle qu'elle est et telle qu'elle était, plutôt que de prédire ce qu'elle pourrait être - ou, plus important encore, ce que nous voudrions qu'elle soit.
Les algorithmes semblent assez complexes, et dans certains cas ils le sont, mais ils ne dépassent pas l'entendement humain. En fait, nous utilisons des algorithmes prédictifs dans notre tête des centaines de fois chaque jour. Que dois-je manger pour le dîner aujourd'hui ? Je pourrais peut-être m'arrêter au supermarché en rentrant du travail et acheter des légumes pour accompagner les restes de saumon d'hier. Ce serait l'option la plus rentable en termes de temps et d'argent, et ce serait la solution à un algorithme prédictif que vous avez calculé dans votre tête.
Lorsque nous effectuons ces calculs dans notre tête, nous nous appuyons sur notre expérience vécue et notre historique d'apprentissage pour éclairer nos décisions. Les algorithmes d'apprentissage automatique, quant à eux, font des choix en fonction de ce qu'ils ont appris à partir d'ensembles de données qui leur ont été fournis par leurs développeurs. Si vous surfez régulièrement sur l'internet, vous connaissez certainement reCAPTCHA, un dispositif de sécurité qui demande aux utilisateurs de sélectionner (par exemple) toutes les images contenant des feux de circulation. Il s'agit d'un algorithme d'apprentissage automatique de base pour le traitement des images : Google utilise vos réponses pour entraîner son intelligence artificielle et la rendre plus performante en matière de reconnaissance d'images.
Les ensembles de données utilisés pour programmer des algorithmes d'apprentissage automatique plus avancés comprennent des collections de visages humains pour les logiciels de reconnaissance faciale, des informations sur les employés performants pour les logiciels de sélection des candidatures, et les lieux des arrestations policières pour les logiciels de police prédictive. Dans quelle mesure notre avenir artificiellement "intelligent" l'est-il ?
Comment les algorithmes apprennent nos préjugés
Joy Buolamwini, chercheuse diplômée au MIT, a attiré l'attention sur la question de la discrimination algorithmique en dévoilant une découverte qu'elle avait faite en travaillant avec un logiciel de reconnaissance faciale. Dans son exposé TED de 2016 intitulé "How I'm fighting bias in algorithms" (Comment je lutte contre les préjugés dans les algorithmes), qui a été visionné plus de 1,2 million de fois à l'heure où nous écrivons ces lignes2, Joy Buolamwini décrit un projet universitaire qu'elle a entrepris, intitulé "Aspire Mirror", dans le cadre duquel elle a tenté de projeter des masques numériques sur son reflet. Elle a rencontré des difficultés lorsque le logiciel de reconnaissance faciale qu'elle utilisait n'a pas reconnu son visage - jusqu'à ce qu'elle mette un masque blanc.
Les systèmes de reconnaissance faciale sont des algorithmes ML formés à partir de vastes ensembles de données. L'algorithme identifie, collecte et évalue les caractéristiques du visage et les compare aux images existantes dans la base de données. Si, comme moi, vous avez déjà essayé en vain d'appliquer l'un des filtres faciaux de TikTok ou d'Instagram à l'un de vos animaux de compagnie, c'est parce que l'ensemble de données utilisé pour entraîner le logiciel de reconnaissance faciale ne contient que des visages humains et ne connaît pas les caractéristiques faciales des animaux.
Le problème est que les algorithmes de reconnaissance faciale sont très majoritairement formés à partir d'ensembles de données entachés d'un biais d'échantillonnage. Dans une étude de 2018 intitulée "Gender Shades", il a été constaté que deux référentiels d'analyse faciale étaient composés en grande majorité d'individus à la peau plus claire (79,6 % pour IJB-A et 86,2 % pour Adience).3 L'étude a également révélé que les femmes à la peau foncée constituaient le groupe le plus mal classé, avec des taux d'erreur allant jusqu'à 34,7 % (par rapport à 0,8 % pour les hommes blancs). Des résultats similaires ont été obtenus avec le logiciel de reconnaissance faciale d'Amazon, Rekognition.4
Il n'est donc pas surprenant que le logiciel de reconnaissance faciale ait échoué pour Joy, une femme noire. L'algorithme ne parvenait pas à reconnaître le visage de Joy car il contenait très peu d'exemples de visages comme le sien - un problème auquel les minorités ethniques, en particulier les femmes de couleur, sont habituées. À l'heure où les algorithmes d'apprentissage automatique s'immiscent discrètement dans tous les aspects de notre vie, il est impératif d'éclairer les visages cachés dans nos ensembles de données afin d'éliminer les préjugés existants.
References
- Thaler, R. H., & Sunstein, C. R. Nudge : Améliorer les décisions en matière de santé, de richesse et de bonheur.
- Buolamwini, J. (2016). Comment je lutte contre les préjugés dans les algorithmes. https://www.ted.com/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms?language=en#t-170583
- Buolamwini, J., & Gebru, T. (2018). Gender Shades : Disparités intersectionnelles de précision dans la classification commerciale des genres. Proceedings of Machine Learning Research, 81:1-15. https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
- Singer, N. (2019, 24 janvier). Amazon pousse la technologie faciale qui, selon une étude, pourrait être biaisée. The New York Times. https://www.nytimes.com/2019/01/24/technology/amazon-facial-technology-study.html
- Givens, A. R., Schellmann, H. et Stoyanovich, J. (2021, 17 mars). We Need Laws to Take On Racism and Sexism in Hiring Technology (Nous avons besoin de lois pour lutter contre le racisme et le sexisme dans les technologies d'embauche). The New York Times. https://www.nytimes.com/2021/03/17/opinion/ai-employment-bias-nyc.html
- Bertrand, M. et Mullainathan, S. (2004). Emily et Greg sont-ils plus employables que Lakisha et Jamal ? A Field Experiment on Labor Market Discrimination. American Economic Review, 94(4), 991-1013. https://www.aeaweb.org/articles?id=10.1257/0002828042002561
- O'Neil, C. (2016). Weapons of Maths Destruction : Comment le big data accroît les inégalités et menace la démocratie. Crown.
- Goldin, C. et Rouse, C. (2000). Orchestrating Impartiality : The Impact of "Blind" Auditions on Female Musicians. American Economic Review, 90(4), 7515-741. https://pubs.aeaweb.org/doi/pdfplus/10.1257/aer.90.4.715
About the Author
Eva McCarthy
Eva est titulaire d'une licence en mathématiques et entreprend actuellement un master en sciences cognitives et décisionnelles à l'University College London. Elle est membre du comité de la Behavioral Innovations Society de l'UCL, une communauté d'étudiants en sciences du comportement qui vise à apporter des changements de comportement positifs et durables au sein de l'UCL et au-delà. Elle travaille également pour Essentia Analytics, un service d'analyse des données comportementales qui aide les gestionnaires d'investissement à prendre de meilleures décisions d'investissement. À l'aube de bouleversements technologiques majeurs, elle estime qu'il est essentiel d'appliquer la recherche en sciences du comportement aux nouvelles avancées technologiques.