laptop

Algorithmes pour une prise de décision plus simple (1/2) : Le cas des prothèses cognitives

read time - icon

0 min read

Oct 23, 2018

Nos fonctions cognitives sont de plus en plus confiées à des algorithmes informatiques, qui améliorent nos capacités de prise de décision et manipulent notre comportement. Les espaces numériques, où l'information est plus accessible et plus abordable que jamais, nous fournissent des informations et des données que nous pouvons utiliser à notre guise. Aujourd'hui, une simple recherche sur Google peut jouer le rôle de conseiller financier, d'avocat ou même de médecin. Mais les informations que nous trouvons en ligne sont silencieusement triées, ordonnées et présentées par des algorithmes qui fouillent dans nos traces de données numériques à la recherche des médias les plus pertinents et les plus "sympathiques". À bien des égards, cette curation invisible est une commodité bienvenue ; passer au crible et raisonner avec des données et des informations en ligne apparemment infinies est une tâche irréaliste pour tout être humain. Néanmoins, nous commençons à perdre notre autonomie cognitive chaque fois que nous déléguons la collecte et l'évaluation des informations à des algorithmes, limitant ainsi notre réflexion à ce que les algorithmes jugent approprié.

L'interaction avec ces algorithmes nous permet de donner un sens et de participer aux flux de données qui construisent constamment nos modes de travail et de vie. La prise de décision algorithmique - c'est-à-dire l'analyse automatisée déployée dans le but d'éclairer de meilleures décisions fondées sur des données - incarne ce phénomène. Et si un monde dirigé par des algorithmes offre d'innombrables possibilités d'optimiser l'expérience humaine, il appelle également à une réflexion sur la relation entre l'homme et l'algorithme sur laquelle nous nous appuyons aujourd'hui.

Alors que nos opinions sur les données passent de l'empirisme à l'idéologie, de la datafication au dataisme, il est facile de se laisser emporter par la ferveur. D'innombrables articles appellent à la transparence, à la responsabilité et à la protection de la vie privée dans le cadre du déploiement des pratiques algorithmiques. Il s'agit bien sûr d'idéaux nobles (et souvent nécessaires) - par exemple, des comités de surveillance des données et des garanties législatives peuvent assurer un développement et une mise en œuvre responsables. Cependant, nombre de ces appels à la surveillance reposent implicitement sur des hypothèses non fondées concernant l'impact sociopolitique des algorithmes. Nous nous retrouvons donc avec un certain nombre d'hypothèses a priori sur la manière dont les algorithmes affecteront la société - et donc avec des affirmations sur les mesures que nous devons prendre pour les réglementer - qui sont souvent fondées sur des hypothèses erronées.

D'une part, le dogme des données conventionnelles a déformé le concept d'algorithme pour en faire une sorte d'être agentiel, omniscient et impossible à comprendre. Cette conception erronée suggère qu'un algorithme possède un pouvoir d'autorité en soi, alors qu'en réalité, toute influence que l'algorithme peut projeter est le résultat d'une conception et d'une légitimation humaines (Beer, 2017). En d'autres termes, alors que le rôle des algorithmes évolue vers un statut semi-mythique (voire déifié) de la Silicon Valley à Wall Street, on oublie souvent que les algorithmes sont le fruit d'un effort humain et qu'ils sont soumis à un contrôle humain.

References

Beer, D. (2017). Le pouvoir social des algorithmes. Information Communication et Société, 20(1), 1-13. https://doi.org/10.1080/1369118X.2016.1216147

Clark, A. et Chalmers, D. (1998). L'esprit étendu. Analysis, (janvier), 7-19.

Dietvorst, B. J., Simmons, J. P. et Massey, C. (2015). Algorithm Aversion : Les gens évitent par erreur les algorithmes après les avoir vus se tromper. Journal of Experimental Psychology : General, 144(1), 114-126. https://doi.org/10.1037/xge0000033

Dietvorst, B. J., Simmons, J. P. et Massey, C. (2016). Surmonter l'aversion pour les algorithmes : Les gens utiliseront des algorithmes imparfaits s'ils peuvent les modifier (même légèrement). Management Science, 64(3), 1155-1170. https://doi.org/10.1287/mnsc.2016.2643

Gigerenzer, G. (2001). Decision Making : Nonrational Theories. International Encyclopedia of the Social and Behavioral Sciences, 5, 3304-3309. https://doi.org/10.1016/B978-0-08-097086-8.26017-0

Hafenbrädl, S., Waeger, D., Marewski, J. N. et Gigerenzer, G. (2016). Applied Decision Making With Fast-and-Frugal Heuristics (Prise de décision appliquée avec des heuristiques rapides et frugales). Journal of Applied Research in Memory and Cognition, 5, 215-231. https://doi.org/10.1016/j.jarmac.2016.04.011

Lee, M. K., Kusbit, D., Metsky, E. et Dabbish, L. (2015). Working with Machines : The Impact of Algorithmic and Data-Driven Management on Human Workers. Actes de la conférence ACM CHI'15 sur les facteurs humains dans les systèmes informatiques, 1, 1603-1612. https://doi.org/10.1145/2702123.2702548

Meehl, P. E. (1954). Clinical vs. Statistical Prediction : A Theoretical Analysis and a Review of the Evidence.

Phillips, N. D., Neth, H., Woike, J. K. et Gaissmaier, W. (2017). FFTrees : Une boîte à outils pour créer, visualiser et évaluer des arbres de décision rapides et économiques. Judgment and Decision Making, 12(4), 344-368. Extrait de https://journal.sjdm.org/17/17217/jdm17217.pdf

Prahl, A. et Van Swol, L. (2017). Comprendre l'aversion pour les algorithmes : Quand les conseils de l'automatisation sont-ils ignorés ? Journal of Forecasting, 36, 691-702. https://doi.org/10.1002/for.2464

Simon, H. (1956). Rational choice and the structure of the environment. Psychological Review, 63, 129-138.

About the Author

Jason Burton

Jason Burton

Birkbeck, University of London

Jason est chercheur doctorant au Centre for Cognition, Computation & Modelling (CCCM) de Birkbeck, University of London. Avant de rejoindre Birkbeck, il a obtenu une maîtrise en psychiatrie et psychologie organisationnelles au King's College de Londres et a occupé un poste de chercheur au département de numérisation de l'école de commerce de Copenhague. Ses recherches visent à mieux comprendre comment les processus cognitifs s'entrecroisent avec l'environnement de la post-vérité, et tournent en fin de compte autour du thème de la rationalité humaine. En dehors du monde universitaire, Jason travaille avec HATCH Analytics en tant que psychologue de recherche afin d'appliquer les connaissances comportementales sur le lieu de travail.

Read Next

people holding their phones
Insight

Le problème de la post-vérité

Pourquoi le climat moral actuel semble-t-il si explosif ? Dans notre monde hyperconnecté et numérisé, un essai de l'époque victorienne fournit des conseils étonnamment pertinents.

Automation job design
Insight

Cinq façons de concevoir un meilleur emploi pour vous-même

Les ordinateurs peuvent gagner aux échecs, mais les humains peuvent gagner au travail, même si l'automatisation augmente de façon exponentielle. Grâce à la conception des emplois, nous pouvons créer des emplois plus qualifiés et plus motivants, ce qui rendra l'avenir du travail moins robotique et plus humain.

Notes illustration

Vous souhaitez savoir comment les sciences du comportement peuvent aider votre organisation ?