Algorithme

L'idée de base

Dans un monde de plus en plus dominé par la technologie, nous entendons partout le mot "algorithme". Mais qu'est-ce qu'un algorithme ? En termes simples, un algorithme est essentiellement une séquence d'instructions concrètes qui indiquent à un opérateur ce qu'il doit faire. Pensez à un organigramme qui passe par des étapes de OUI et de NON pour guider quelqu'un vers un résultat spécifique.

Une analogie couramment utilisée pour expliquer un algorithme est celle d'une recette de cuisine. Imaginez une recette typique de biscuits aux pépites de chocolat. La recette comprend des ingrédients bruts qui passent par une séquence de commandes afin de créer un produit final. Dans ce cas, l'"opérateur" est le boulanger, qui lira la recette, exécutera les instructions, et peut-être même mettra à jour et affinera la recette, en fonction du résultat des biscuits.

Nous pouvons appliquer cette logique conceptuelle à un programme informatique, en remplaçant le boulanger par un ordinateur. Le programme lira, exécutera et affinera également les instructions, en prenant les ingrédients bruts, ou entrées, à travers une séquence de commandes pour créer un résultat final ou résoudre un problème. Ce processus se produit tout autour de nous. Le chemin que vous avez parcouru pour arriver sur cette page et lire cet article a été facilité par une série d'algorithmes. Vous avez peut-être tapé "algorithme" sur Google ou quelqu'un a partagé ce lien sur les médias sociaux ; bien qu'il semble que vous vous soyez retrouvé ici de votre propre chef, il y a une couche cachée de code informatique algorithmique qui a rendu le processus transparent.

Nous avons déjà confié notre monde à l'apprentissage automatique et aux algorithmes. La question est maintenant de savoir comment mieux comprendre et gérer ce que nous avons fait.


- Barry Chudakov, fondateur et directeur de Sertain Research

Termes clés

Intelligence artificielle (IA) : Un domaine de l'informatique où l'intelligence est générée par une machine plutôt que par un être biologique.

Apprentissage automatique : Un processus dans le domaine de l'informatique correspondant à des algorithmes qui s'améliorent grâce à l'expérience et au retour d'information - "l'apprentissage" - par opposition au codage explicite d'un programmeur humain.

Big Data : Très grands ensembles de données souvent analysés par des processus algorithmiques pour révéler des modèles.

L'histoire

Le terme algorithme vient du nom latinisé d'un polymathe perse du IXe siècle, Muḥammad ibn Mūsā al-Khwārizmī, à qui l'on doit l'introduction du concept d'algèbre dans les mathématiques européennes.1 Outre l'étymologie, les algorithmes remontent à bien avant le IXe siècle, avec la découverte d'une tablette d'argile près de Bagdad qui serait la première utilisation d'un algorithme de division utilisé par les mathématiciens de l'ancienne Babylone en 2 500 av. J.-C.2.

Vers la fin de la révolution industrielle, une série de triomphes a ouvert la voie à l'algorithme, qui est passé de la tablette d'argile à ce qu'il est aujourd'hui. En 1840, Ada Lovelace a mis sur papier ce que l'on considère comme le premier algorithme machine au monde. En 1847, George Boole invente l'algèbre binaire, parfois appelée algèbre de Boole, qui deviendra la base du code informatique. En 1888, Giuseppe Peano introduit l'axiomatisation des mathématiques, une logique basée sur des règles, aujourd'hui essentielle à l'informatique moderne.

Ces découvertes du XIXe siècle ont ouvert la voie à l'algorithme. En 1936, alors qu'il était doctorant à l'université de Princeton, le mathématicien britannique Alan Turing a créé le premier appareil informatique au monde. Bien que Turing soit souvent considéré comme le créateur de l'ordinateur, d'autres travaux réalisés dans les années 1930, tels que ceux de Kurt Gödel et d'Alonzo Church, qui ont également tenté d'établir le concept de calculabilité, méritent également d'être salués. Dans l'ensemble, un certain nombre d'esprits brillants ont contribué à l'évolution de l'informatique et des algorithmes modernes - il est difficile d'identifier une innovation ou un génie intellectuel unique qui a ouvert la voie à l'omniprésence des algorithmes informatiques que nous connaissons aujourd'hui.

Les personnes

Muḥammad ibn Mūsā al-Khwārizmī

Astronome et mathématicien musulman du IXe siècle, la légende d'al-Khwārizmī se perpétue dans les versions latinisées de son nom et de ses travaux, dans les termes algèbre et algorithme. Au XIIe siècle, son manuel d'arithmétique a été traduit en latin et on lui attribue l'introduction du système de numération décimal dans le monde occidental.

Alan Turing

Ce mathématicien britannique est considéré comme une figure centrale dans la conceptualisation de l'algorithme et de l'informatique moderne. L'héritage de Turing a été amplifié par sa contribution au décryptage des codes pour les forces alliées pendant la Seconde Guerre mondiale, ainsi que par les défis qu'il a dû relever pour faire face aux préjugés et à la discrimination en tant qu'homosexuel dans l'Angleterre du milieu du XXe siècle. Le prix honorifique Turing qui porte son nom est souvent considéré comme le "prix Nobel de l'informatique".

Conséquences

Tout résumé des conséquences des algorithmes sur la société moderne sera un euphémisme, car il est difficile de communiquer pleinement l'impact d'un concept aussi répandu en seulement quelques paragraphes. Une grande partie du monde moderne est désormais régie par des algorithmes : tout ce que vous pouvez imaginer faire sur l'internet ou sur votre smartphone est en grande partie un processus algorithmique. La majorité des transactions sur les marchés financiers sont effectuées par des algorithmes, ce qui signifie qu'une grande partie de votre épargne et de votre pension est désormais gérée par des lignes de code autant que par des décisions humaines. Les décisions financières ne sont pas les seules à être confiées à des algorithmes : de nombreuses décisions en matière de soins médicaux, de politique publique et de gestion d'entreprise sont désormais le fruit d'une forme ou d'une autre d'IA.

Les algorithmes sont à la base de l'intelligence artificielle (IA). Aujourd'hui, de nombreux programmes d'IA reposent sur un algorithme d'apprentissage automatique. Ces algorithmes recherchent des modèles dans de vastes ensembles de données et sont supérieurs aux algorithmes traditionnels. Imaginez que vous écriviez un programme capable d'identifier des photos de tigres. Vous devriez incorporer explicitement la logique nécessaire pour distinguer une photo d'un tigre. Si vous considérez cela sous la forme d'un organigramme, vous pourriez voir des questions binaires comme celle de savoir si l'animal a la couleur orange dans son pelage. Le problème de cette méthode est que les tigres sont peut-être plus compliqués que vous ne le pensiez. Il y a trop de règles à programmer, et sans elles, le programme serait sujet à de nombreuses erreurs, comme l'incapacité à identifier un tigre blanc. Un algorithme d'apprentissage automatique, en revanche, se verrait présenter des milliers de photos de tigres et de non-tigres et ferait une prédiction sur le fait qu'une photo représente ou non un tigre en se basant sur les régularités statistiques qu'il a observées. Il peut ensuite affiner son processus en fonction du retour d'information qu'il reçoit à la suite de ses prédictions.

Ce processus est omniprésent dans le monde numérique. Les algorithmes d'apprentissage automatique sur l'internet recherchent des modèles dans les données, en incorporant les données d'entrée, telles que le comportement de l'utilisateur, afin de créer un résultat, tel qu'un fil d'actualité personnalisé. Les algorithmes d'apprentissage automatique sur Netflix, par exemple, font des prédictions sur le contenu que vous pourriez vouloir regarder, sur la base de ce que vous avez regardé dans le passé, et font des recommandations sur la base de leurs prédictions. L'algorithme affinera ses prédictions au fur et à mesure que vous accepterez ou rejetterez ses recommandations. Notez que cela diffère d'un ensemble prédéterminé de critères définis par un programmeur. Ce processus d'apprentissage permet aux algorithmes de s'améliorer avec davantage de données, ce qui explique en grande partie la croissance de l'économie du big data.

Lorsque de nombreuses personnes pensent à l'IA, elles imaginent des robots à l'image de l'homme qui vont bientôt envahir le monde. Ce qui échappe à notre attention, ce sont toutes les façons dont l'IA est déjà intégrée dans notre vie quotidienne. La plupart des gens ont aujourd'hui dans leur poche une multitude d'algorithmes d'apprentissage automatique. Il ne fait aucun doute que les algorithmes - parfois synonymes de "technologie" - nous ont facilité la vie à bien des égards. Au lieu de devoir consulter un plan de ville ambigu, nous pouvons laisser Google Maps nous indiquer exactement où aller, et au lieu d'analyser d'innombrables textes dans une bibliothèque publique pour trouver un simple fait, nous pouvons le retrouver en quelques millisecondes grâce à un moteur de recherche. Compte tenu de la puissance et de l'omniprésence d'un tel concept, il n'est pas surprenant que les algorithmes portent une énorme responsabilité sociale et fassent l'objet d'un vaste débat public.

Controverses

Les algorithmes sont au cœur de nombreux débats de société contemporains. La plupart de ces controverses découlent de la moralité qui entoure l'utilisation d'un algorithme donné, tant en termes de conséquences que de questions relatives à la confidentialité des données.

Les algorithmes ont été critiqués pour leur trop grand pouvoir. Ils peuvent déterminer qui est embauché pour un emploi, qui obtient un prêt et quelles nouvelles vous lisez. Ce dernier point est devenu un sujet particulièrement brûlant à l'ère des fake news, car nous reconnaissons que Facebook et YouTube ont des algorithmes qui jouent un rôle dans la création de chambres d'écho et le renforcement de la polarisation politique.4 En 2018, une controverse a éclaté à la suite d'une violation des données de Facebook par Cambridge Analytica, un cabinet de conseil qui a utilisé des techniques d'apprentissage automatique pour générer des publicités politiques sur mesure. Au-delà de la mauvaise gestion de la confidentialité des données dans le cadre de ce scandale, l'idée que les convictions politiques soient manipulées par des méthodes algorithmiques conçues pour susciter l'engagement des utilisateurs et augmenter les profits des entreprises apparaît comme plutôt dystopique pour beaucoup.

Les préoccupations dystopiques entourant les algorithmes sont un thème central du scepticisme à l'égard de leur utilisation. On évoque souvent l'utilisation de la reconnaissance faciale - un concept populaire de l'apprentissage automatique - en Chine et les parallèles inquiétants avec un système de surveillance sociale orwellien. Des arguments similaires sont avancés en Amérique du Nord, où les forces de l'ordre ont été critiquées pour leur utilisation de la technologie de reconnaissance faciale. Outre les questions de protection de la vie privée, beaucoup soulignent la faillibilité de ces technologies algorithmiques, notant que nombre de ces services peuvent présenter des préjugés raciaux. Bien que l'erreur humaine et la discrimination raciale soient encore très présentes dans des domaines tels que le maintien de l'ordre, les gens sont beaucoup moins à l'aise avec la notion d'erreurs commises par un algorithme défectueux.

Il est vrai que les algorithmes font l'objet d'un examen approfondi en raison de leurs défauts et de leurs erreurs, mais les partisans de la gouvernance technologique remettent en question le bien-fondé de cet examen. Chaque fois qu'un accident impliquant la fonction d'IA Autopilot de Tesla se produit, l'entreprise est mise sous les feux de la rampe, les gens soulignant les dangers des voitures autopilotées. Elon Musk a contesté cette critique, tweetant un jour qu'"il est vraiment anormal qu'un accident de Tesla entraînant une fracture de la cheville fasse la une des journaux alors que les quelque 40 000 personnes décédées dans les seuls accidents de la route aux États-Unis l'année dernière ne font l'objet d'aucune couverture médiatique". Nombreux sont ceux qui partagent le sentiment de Musk selon lequel les algorithmes, bien qu'ils ne soient pas parfaits, constituent dans de nombreux cas une amélioration par rapport à la prise de décision humaine.

Études de cas

Watson d'IBM promeut la diversité et l'inclusion

Comme l'a souligné la section précédente, les processus algorithmiques sont souvent contestés pour leurs biais involontaires qui peuvent avoir un impact négatif sur des personnes telles que celles ayant un statut socio-économique inférieur, ainsi que sur les minorités. Cependant, tous les algorithmes ne sont pas identiques, car certains peuvent en fait renforcer la diversité et l'inclusion au lieu de les entraver. C'est le message qu'IBM a fait passer dans la promotion de ses services d'IA pour les pratiques RH. Dans un livre blanc de l'entreprise, un groupe de chercheurs a dressé la liste de divers biais cognitifs, tels que le biais de confirmation et le biais d'égocentrisme, qui peuvent avoir des conséquences négatives sur le lieu de travail, en particulier en ce qui concerne la diversité et l'inclusion. IBM poursuit en indiquant que 65 % des professionnels des ressources humaines pensent que l'IA peut aider à lutter contre ces problèmes de biais. "Contrairement aux êtres humains, les machines n'ont pas de préjugés inhérents qui entravent la diversité et l'inclusion", écrivent-ils. "Elles sont plutôt soumises aux choix des données et aux caractéristiques algorithmiques choisies par les personnes qui les construisent. Lorsqu'elle est développée et déployée de manière appropriée, l'IA peut être en mesure d'éliminer les attributs qui conduisent à des préjugés et peut apprendre à détecter les préjugés potentiels, en particulier les préjugés inconscients qui ne sont pas intentionnels et difficiles à découvrir dans les processus de prise de décision."

Flash Crash 2010

L'importance du trading algorithmique sur les marchés financiers a fait naître le risque de baisses importantes et rapides du marché. Ces événements sont appelés "flash crashs" et peuvent se produire lorsque les algorithmes de trading réagissent à un changement particulier sur le marché, déclenchant un effet boule de neige où d'importants volumes sont vendus pour éviter de nouvelles pertes. D'un point de vue conceptuel, il s'agit d'un effet ordinaire sur le marché boursier : Une action est en forte baisse et les investisseurs vendent pour réduire leurs pertes, ce qui contribue à sa chute. Ces ventes peuvent se produire plus lentement lorsque la plupart des transactions sont exécutées par des humains, mais avec des algorithmes à la barre, une chute brutale peut se produire à tout moment.

Le 6 mai 2010, à 14 h 32 HNE, le marché boursier américain a connu l'une des périodes les plus turbulentes de son histoire. En l'espace de quelques minutes, l'indice Dow Jones Industrial Average a enregistré la plus forte baisse intrajournalière de son histoire, ce qui s'est traduit par des pertes de plusieurs centaines de milliards de dollars.5 L'événement a duré un peu plus de 30 minutes, et le marché a rapidement récupéré ses pertes, mais ce jour est devenu un moment tristement célèbre dans l'histoire de Wall Street. Bien que la cause exacte du krach soit débattue et peut-être plus nuancée qu'une source causale unique, le fil conducteur de l'événement est qu'il a été déclenché par des algorithmes de trading à haute fréquence qui ont déclenché la vente de manière irrationnelle.

Ressources connexes

La gouvernance de l'IA

Cet article aborde certains des problèmes moraux liés à l'IA qui ont été mentionnés dans la section "controverses", notamment en ce qui concerne les questions de responsabilité.

L'impulsion gouvernementale à l'ère des données massives (Big Data)

Cet article examine les avantages potentiels de l'utilisation du big data et de l'application d'algorithmes d'apprentissage automatique pour maximiser l'efficacité des interventions de politique publique.

Sources d'information

  1. Al-Khwārizmī. Encyclopédie Britannica. Extrait de https://www.britannica.com/biography/al-Khwarizmi
  2. Barbin, É. (1999). Une histoire des algorithmes : du caillou à la puce (Vol. 23). J. L. Chabert (Ed.). Berlin : Springer.
  3. Watson, I. (2012, avril). Comment Alan Turing a inventé l'ère informatique. Scientific American. Consulté sur le site https://blogs.scientificamerican.com/guest-blog/how-alan-turing-invented-the-computer-age/
  4. Bessi, A., Zollo, F., Del Vicario, M., Puliga, M., Scala, A., Caldarelli, G., ... & Quattrociocchi, W. (2016). Polarisation des utilisateurs sur Facebook et Youtube. PloS one, 11(8), e0159641.
  5. Kirilenko, A., Kyle, A. S., Samadi, M. et Tuzun, T. (2017). The flash crash : High-frequency trading in an electronic market. The Journal of Finance, 72(3), 967-998.
Notes illustration

Vous souhaitez savoir comment les sciences du comportement peuvent aider votre organisation ?