Médias sociaux et indignation morale
Le 3 octobre 2021, Frances Haugen est devenue la plus récente dénonciatrice de Facebook. Elle a fourni des documents internes pour l'enquête du Wall Street Journal (WSJ) intitulée "Facebook Files". Ces documents expliquent comment "Facebook Inc. sait, dans les moindres détails, que ses plateformes sont truffées de défauts qui causent du tort, souvent d'une manière que seule l'entreprise comprend parfaitement".1 Frances Haugen estime que les produits de l'entreprise "nuisent aux enfants, attisent les divisions et affaiblissent [...] la démocratie".
Les documents divulgués par Haugen révèlent des informations préoccupantes sur la modification apportée en 2018 à l'algorithme du fil d'actualité de Facebook, qui a favorisé les interactions sociales significatives (ou MSI) entre les amis et la famille.2 À l'époque, ce changement était généralement considéré comme positif, censé accroître l'engagement et améliorer le bien-être de l'utilisateur. Des mémos internes révèlent qu'en fait, c'est le contraire qui s'est produit : l'algorithme remanié a "récompensé l'indignation" et encouragé le sensationnalisme.
Comment ce changement apparemment bien intentionné a-t-il pu se retourner contre nous ? Pourquoi le fait de donner la priorité aux messages des personnes dont nous sommes les plus proches a-t-il entraîné une telle catastrophe de haine, de colère et de négativité ? Le modèle MAD de contagion morale offre une perspective comportementale qui peut nous aider à répondre à ces questions.
Les racines évolutives de l'indignation morale
Les recherches ont montré que les contenus sont souvent diffusés plus largement sur les médias sociaux s'ils sont "moralisés", c'est-à-dire s'ils "font référence à des idées, des objets ou des événements typiquement interprétés en termes d'intérêts ou de bien d'une unité plus grande que l'individu".3 En général, les contenus émotionnels sont plus susceptibles d'être partagés en ligne, mais lorsqu'il s'agit de politique et d'actualités, les émotions négatives sont particulièrement efficaces pour augmenter la portée d'un contenu.4,5,6 Les actualités politiques formulées en termes de moralité7 et les tweets contenant des mots moraux et émotionnels ont tendance à se propager plus largement sur les médias sociaux. En comparaison, les messages contenant uniquement des mots moraux ou émotionnels ne bénéficient pas d'un tel engagement.8
Notre habitude de diffuser des contenus émotionnels a très probablement des racines évolutives. Les humains partagent des histoires émotionnelles afin de tisser des liens sociaux. On suppose que le partage contribue à l'action collective en aidant à créer une perception de similitude entre les personnes, en facilitant la coordination émotionnelle et en alignant nos points de vue sur le monde.9
Mais pourquoi notre propension à l'indignation morale en particulier ? Il est possible que nous ayons évolué vers ce type de contenu parce que l'indignation morale peut agir comme un signal de notre identité sociale, de nos valeurs et de nos idéaux pour les autres membres du groupe (ainsi que pour nous-mêmes).10 La mise en évidence d'un comportement erroné ou immoral est un moyen puissant pour nous de maintenir ou d'améliorer notre réputation dans un cercle social particulier.
La colère : pourquoi l'indignation morale se propage-t-elle en ligne ?
Dans l'ensemble, l'expression morale et émotionnelle a des racines évolutives dans la mesure où elle permet de tisser des liens sociaux, d'élever sa réputation et de signaler sa propre identité, sa moralité et ses valeurs.
Malheureusement, lorsque le contenu moral et émotionnel se répand, il peut agir comme un antécédent de la polarisation politique, en encourageant la circulation de nouvelles politiques à l'intérieur des frontières de l'identité politique.11,12 L'indignation morale est encouragée à l'intérieur de ces frontières.13 Elle a le potentiel d'alimenter des bouleversements politiques majeurs, et potentiellement de créer un fossé si profond entre les différentes identités de groupe que des actions extrêmes (telles que la violence) en viennent à être considérées comme acceptables.14
Le modèle MAD de contagion morale a été développé par les chercheurs de Yale Molly Crockett, Jay Bavel et William Brady pour expliquer pourquoi les contenus moralisés se propagent si rapidement sur les médias sociaux. Selon leur article fondateur, "le modèle MAD postule que les gens ont des motivations basées sur l'identité de groupe pour partager des contenus moraux et émotionnels, que ces contenus sont particulièrement susceptibles de capter notre attention et que la conception des plateformes de médias sociaux amplifie nos tendances motivationnelles et cognitives naturelles à diffuser de tels contenus "15.
Analysons chacune de ces dimensions, en commençant par les motivations.
Motivations de l'indignation morale fondées sur l'identité du groupe
L'homme est une créature sociale : il s'épanouit en groupe. À l'époque préhistorique, cela nous obligeait à établir la confiance et de bonnes relations avec ceux qui nous aidaient en cas de détresse collective ou individuelle. Dans le même temps, il était crucial de rester vigilant face aux menaces des groupes rivaux, afin de ne pas se faire tuer ou de ne pas perdre nos précieuses ressources. Nous avons développé des raccourcis pour savoir à qui faire confiance et à qui ne pas faire confiance.
Au XXIe siècle, nous vivons avec les mêmes instincts évolutifs : ceux que nous percevons comme partageant nos valeurs et nos opinions sont considérés comme notre groupe interne, tandis que ceux que nous percevons comme n'étant pas d'accord avec nous sont considérés comme notre groupe externe.
Lorsque l'identité de groupe est facilement perceptible, comme c'est souvent le cas sur les médias sociaux, nous avons tendance à passer de motivations centrées sur nous-mêmes à des motivations centrées sur le groupe. Nos attitudes, nos émotions et nos comportements commencent à être influencés davantage par les évaluations faites en fonction de cette identité de groupe, plutôt que par des objectifs individuels.16 Nous avons tendance à nous engager dans des actions qui distinguent le groupe interne du groupe externe, afin de renforcer notre appartenance à notre groupe interne et d'afficher notre affirmation de ses valeurs et de sa morale, en particulier lorsque des menaces apparaissent.17
Prenons l'exemple des événements entourant la campagne #MeToo, qui est devenue virale en 2017. Alors que de plus en plus de personnes commençaient à publier des articles sur leur expérience du harcèlement et des abus sexuels, certains groupes se sont sentis plus menacés que d'autres. Certains ont réagi sur la défensive, suggérant que tous les hommes étaient punis pour les méfaits de quelques-uns. Ces messages présentaient souvent le problème comme une question d'appartenance à des "camps" distincts : les femmes étaient le groupe d'exclus et les hommes le groupe d'exclus. Dans certains cas, cela s'est transformé en hostilité à l'égard des partisans de #MeToo et de ceux qui ont partagé leur histoire publiquement (groupe interne : personnes qui désapprouvent le changement du statu quo, groupe externe : personnes qui soutiennent le changement)18.
Les recherches montrent que le fait de dénigrer le groupe extérieur et d'exprimer de l'animosité à son égard sur les médias sociaux est beaucoup plus efficace pour stimuler l'engagement que les messages qui expriment simplement un soutien au groupe intérieur.19 Les messages moraux et émotionnels exprimant une telle animosité ont une plus grande portée, d'autant plus que les algorithmes des médias sociaux sont conçus pour promouvoir davantage le contenu qui obtient de bons résultats en termes d'engagement.
Les publicités diffusées sur les médias sociaux peuvent renforcer ces identités de groupe. L'algorithme de diffusion des publicités de Facebook semble "différencier efficacement le prix à payer pour atteindre un utilisateur en fonction de son [...] alignement politique [...], ce qui empêche les campagnes politiques d'atteindre des électeurs ayant des opinions politiques diverses". En d'autres termes, il est moins coûteux pour une entité d'atteindre un public appartenant à un groupe que de toucher un public n'appartenant pas à un groupe.20 Pour une entité disposant d'un petit budget, cela pourrait signifier qu'elle préférerait allouer une part importante de son budget pour atteindre le groupe, contribuant ainsi à la polarisation politique de la population en général.
D'autre part, il semble également que l'exposition en ligne à des points de vue d'un groupe extérieur puisse renforcer les croyances d'un groupe intérieur.21 Des chercheurs américains ont constaté qu'après avoir été exposés en ligne à des points de vue démocrates, des participants républicains à une étude ont exprimé des attitudes plus conservatrices. (La même tendance a également été observée chez les participants démocrates, mais l'effet pour ce groupe était plus faible et pas statistiquement significatif). La réponse à ce problème ne consiste donc pas simplement à exposer les utilisateurs à des points de vue plus diversifiés ; dans certains cas, cela peut se retourner contre eux et exacerber la polarisation.
Les médias sociaux aggravent cette polarisation, contrairement à leur devise générale qui est de rassembler les gens et d'être le théâtre de conversations intéressantes.22 Les médias sociaux semblent amplifier le fossé et favoriser l'absence de réalité partagée entre les groupes opposés, en promouvant des contenus basés sur les identités de groupe.
Passons maintenant à la deuxième partie du modèle MAD de contagion morale.
Attention et indignation morale
L'activité des médias sociaux repose sur le concept de l'économie de l'attention. Dans cette économie, l'attention humaine est considérée comme une ressource rare qui peut être exploitée à des fins lucratives. Dans cette optique, les algorithmes des médias sociaux sont conçus pour promouvoir des contenus qui retiennent l'attention des internautes le plus longtemps possible, les encourageant ainsi à passer plus de temps en ligne qu'ils ne l'auraient souhaité. Cela crée plus d'opportunités de montrer aux utilisateurs des publicités payantes, ainsi que plus de données qui peuvent être utilisées pour optimiser les algorithmes de ciblage et augmenter les revenus.
L'étendue des données que ces entreprises ont stockées au fil du temps et leurs puissances de calcul ont été exploitées dans le but unique d'exploiter les ressources attentionnelles humaines de toutes les manières possibles. Ces algorithmes sont essentiellement amoraux : ils n'ont aucune notion du bien ou du mal et ne sont sensibles qu'à ce qui permet de maximiser l'attention. En conséquence, les biais algorithmiques se superposent aux biais humains pour servir plus de négativité et d'indignation morale.
Les émotions et la morale occupent le devant de la scène dans toute discussion ou événement politique. Les mots moraux et émotionnels qui attirent davantage l'attention en laboratoire sont en effet associés à un plus grand partage lorsqu'ils apparaissent dans des messages sur les médias sociaux.23 Chaque mot moral et émotionnel dans un tweet est associé à une augmentation moyenne de 20 % de sa diffusion (partage).24
L'analyse des mauvais comportements nous permet de juger les gens et leur caractère. Les évaluations extrêmes et négatives attirent en effet l'attention.25 Les parties intéressées ont toujours été en mesure d'exploiter notre sensibilité à la contagion morale pour susciter une action politique par le biais des médias grand public tels que la radio, les journaux et la télévision. Les médias sociaux ont ouvert cette possibilité aux masses et ont accéléré la vitesse et la portée du marketing de l'indignation.
Aucune entité dans l'histoire du monde n'a jamais eu le pouvoir que les médias sociaux exercent sur notre attention collective. Par le passé, des campagnes prosociales en ligne comme #MeToo et #BlackLivesMatter ont capté l'attention humaine grâce à nos préjugés moraux et ont contribué à des activités hors ligne significatives comme des protestations coordonnées et des changements de politique. D'autres tendances en ligne ont eu des effets antisociaux. La théorie du complot QAnon et les émeutes du Capitole sont deux exemples des conséquences néfastes de la contagion morale en ligne.
Design et indignation morale
Enfin, abordons le troisième pilier du modèle MAD de contagion morale. Les médias sociaux sont conçus pour faire appel à notre cerveau de système 1. Ils exigent des actions rapides de la part des utilisateurs en termes de visualisation, de réaction et de rédaction d'un message, ainsi que de construction de relations en ligne. Ils s'appuient sur notre compréhension de mots tels que "partager", "aimer", "like" et "amis" pour nous aider à nous sentir à l'aise avec une toute nouvelle façon d'établir des relations, un processus qui, historiquement, a exigé beaucoup de communication physique en face-à-face.
Les médias sociaux ont supprimé des frictions importantes dans des processus tels que le partage d'opinions, le débat, la dénonciation d'injustices, tout en facilitant l'expression d'animosité, d'antipathie et de haine à l'égard de personnes ou d'entités. L'interaction en face à face suscite un sentiment d'empathie chez l'être humain. Cela nous aide à prendre conscience de la manière dont nos commentaires ou nos actions peuvent être reçus par l'autre partie : anticiper ce que nous pourrions ressentir à leur place nous empêche souvent d'exprimer notre mécontentement de manière irrespectueuse.26 La recherche montre également que l'interaction par la parole est plus susceptible d'influencer positivement notre évaluation d'une personne, par rapport aux interactions par texte. Or, c'est par le texte que se déroulent la plupart des interactions sociales sur les médias sociaux27.
Les gens sont plus enclins à se fier à leurs émotions lorsqu'ils sont contraints de prendre rapidement une décision morale.28 Ils sont également plus enclins à réagir rapidement lorsqu'ils pensent en fonction de leurs croyances et valeurs morales.29 Cela élimine encore davantage les frictions, rendant l'expression de l'indignation morale beaucoup plus facile dans le domaine en ligne que dans le domaine hors ligne.
Grâce aux recommandations algorithmiques, les gens se retrouvent facilement dans des chambres d'écho où leur indignation, en particulier à l'égard d'un groupe extérieur, peut être bien accueillie, voire encouragée. La réduction des humains à des icônes bidimensionnelles nous permet également de nous exprimer facilement pour punir un malfaiteur.
En outre, la nature toujours active de l'internet et ses services 24 heures sur 24 dans le monde entier signifient que l'indignation morale n'est plus limitée par le temps ou le lieu. Il n'est pas nécessaire d'être physiquement présent ou d'habiter la région pour exprimer son indignation. En effet, les gens consomment plus d'informations sur les actions immorales en ligne que hors ligne.30
Réexamen des dossiers Facebook
Sachant ce que nous savons aujourd'hui du modèle MAD de contagion morale, nous pouvons peut-être comprendre pourquoi l'initiative MSI a échoué lamentablement à tenir sa promesse d'un meilleur contenu. Facebook pensait que la prédominance des vidéos et des messages produits par des professionnels transformait les internautes en consommateurs passifs de contenu. Le temps passé était en hausse, mais les internautes ne s'engageaient pas dans le contenu. Trouver un moyen d'accroître l'interaction avec les personnes figurant dans la liste d'amis encouragerait une réponse active au contenu qu'ils font défiler, ainsi que leur bien-être.
L'erreur du système MSI résidait dans la manière dont il évaluait le contenu. Il a biaisé l'algorithme en faveur des messages qui évoquaient (ou semblaient évoquer) des réactions émotionnelles, qui étaient ensuite partagés à nouveau, qui attiraient de longs commentaires (comme c'est souvent le cas dans les guerres de flammes sur Internet) et qui étaient susceptibles de circuler largement au sein de communautés particulières.
Prenons l'exemple d'un message utilisant un langage moral-émotionnel dans un contexte politique. Ce message est susceptible d'évoquer l'identité politique de l'auteur, et les lecteurs sont susceptibles de réagir selon que l'auteur appartient à un groupe d'appartenance ou à un groupe d'exclusion. Même les utilisateurs les plus passifs peuvent utiliser les boutons de réaction ("haha", "colère", "amour", etc.) pour signaler une réponse émotionnelle.31
Pour chacune de ces réactions, l'algorithme MSI ajoute 5 points au quotient qui détermine le degré de priorité du message. Les commentaires sont plus susceptibles d'être associés à des personnes ayant des opinions politiques extrêmes32 . Ils peuvent soutenir ou aller à l'encontre de l'opinion exprimée (si, d'une manière ou d'une autre, le message sort des limites politico-idéologiques). Ils peuvent également contribuer à creuser l'écart de perception entre les groupes.
Étant donné que les utilisateurs des médias sociaux sont plus susceptibles d'être amis avec des personnes partageant les mêmes goûts, et que l'algorithme rétrograde les messages des non-membres et des étrangers, les gens sont encore moins susceptibles de voir un message provenant d'un groupe extérieur. D'un côté, il y a quelques avantages à cela, car l'interaction en ligne avec ceux qui ne sont pas d'accord peut être frustrante ou dérangeante.33 Mais cela signifie aussi que ces groupes restent constamment séparés sur les médias sociaux, ce qui propage un manque de réalité partagée. Ce message contenant un langage moral-émotionnel est susceptible de devenir un exemple de contagion morale, grâce à l'algorithme MSI.
Derniers mots
Les algorithmes des médias sociaux donnent la priorité à la diffusion de contenus qui se sont avérés populaires - indépendamment de ce que ces contenus sont réellement - dans le but de monétiser cet engagement. Les contenus à succès sont souvent conçus pour susciter l'indignation morale, ce qui incite naturellement les humains à les partager en fonction de leur identité de groupe.
C'est lorsque ce type d'activité en ligne entraîne des conséquences hors ligne (comme la discrimination, l'intimidation, voire la violence) que nous devons commencer à remettre en question les positions que les géants de la technologie adoptent souvent à l'égard de la liberté d'expression. Devons-nous modérer de manière proactive le contenu en ligne, au prix de certaines concessions sur nos droits à la liberté d'expression ? Ou bien nous attaquons-nous à l'algorithme et au modèle d'entreprise qui sont à la base de l'amplification de discours potentiellement haineux ?
Récemment, les entreprises technologiques ont montré un nouvel intérêt pour l'utilisation de leurs plateformes afin de protéger la démocratie. Mais cela n'a jamais été leur priorité. Les entreprises prétendent être des plateformes neutres, facilitant un débat constructif. Mais ont-elles le droit de se qualifier de "plateformes" neutres lorsqu'elles choisissent ce que chaque utilisateur doit voir ?
En fait, les entreprises technologiques sont tout sauf neutres. Leurs algorithmes maximisent l'attention et l'engagement et en tirent des bénéfices. Même lorsque les entreprises tentent d'agir, leurs efforts se concentrent le plus souvent exclusivement sur les pays occidentaux et anglophones.34 Les pays autres que les États-Unis souffrent tout autant, si ce n'est plus, de ce phénomène. En Allemagne, par exemple, des chercheurs ont constaté qu'en période de montée des sentiments anti-réfugiés, moins d'attaques anti-réfugiés se produisaient pendant la durée des pannes d'internet.35
Frances Haugen, la lanceuse d'alerte, est fermement convaincue que les entreprises comme Facebook devraient être plus transparentes et qu'elles devraient soutenir la formation d'organes de contrôle indépendants pour les aider à traverser cette mer de problèmes sur leur plateforme. Pour le meilleur ou pour le pire, les plateformes technologiques font désormais partie du tissu social du monde contemporain. Elles ont la responsabilité d'agir, car elles exercent une influence majeure sur la voie que l'humanité emprunte collectivement.
References
- (2021, 13 septembre) The Facebook Files. The Wall Street Journal. https://www.wsj.com/articles/the-facebook-files-11631713039
- Hagey, K. et Horwitz, J. (2021, 15 septembre) Facebook a tenté de rendre sa plateforme plus saine. It Got Angerier Instead. The Wall Street Journal. https://www.wsj.com/articles/facebook-algorithm-change-zuckerberg-11631654215
- Brady, W. J., Crockett, M. J. et Van Bavel, J. (2020). Le modèle MAD de contagion morale : Le rôle de la motivation, de l'attention et de la conception dans la propagation du contenu moralisé en ligne. Perspectives on psychological science : a journal of the Association for Psychological Science, 15(4), 978-1010. https://doi.org/10.1177/1745691620917336
- Heimbach, I., Schiller, B., Strufe, T. et Hinz, O. (2015). Content virality on online social networks : Empirical evidence from Twitter, Facebook, and Google+ on German news websites. In Proceedings of the 26th ACM Conference on Hypertext & Social Media (pp. 39-47). New York, NY : Association for Computing Machinery. doi:10.1145/2700171.2791032
- Hansen, L.K., Arvidsson, A., Nielsen, F.A., Colleoni, E., & Etter, M. (2011) Good friends, bad news-affect and virality in Twitter. In J. J. Park, L. T. Yang, & C. Lee (Eds.), Future information technology (pp. 34-43). Amsterdam, Pays-Bas : Springer. doi:10.1007/978-3-642-22309-9_5
- Fan, R., Zhao, J., Chen, Y. et Xu, K. (2014). La colère est plus influente que la joie : Sentiment correlation in Weibo. PLOS ONE, 9(10), Article e110184. doi:10.1371/journal .pone.0110184
- Valenzuela, S., Piña, M., & Ramírez, J. (2017) Behavioral Effects of Framing on Social Media Users : How Conflict, Economic, Human Interest, and Morality Frames Drive News Sharing. Journal of Communication, 67(5), pp 803-826, https://doi.org/10.1111/jcom.12325
- Brady, W. J., Wills, J. A., Jost, J. T., Tucker, J. A. et Van Bavel, J. (2017). L'émotion façonne la diffusion de contenu moralisé dans les réseaux sociaux. Proceedings of the National Academy of Sciences, USA, 114, 7313-7318.
- Peters, K. et Kashima, Y. (2007). From social talk to social action : Shaping the social triad with emotion sharing. Journal of Personality and Social Psychology, 93(5), 780-797. https://doi.org/10.1037/0022-3514.93.5.780
- Aquino, K. et Reed, A. II. (2002). The self-importance of moral identity. Journal of Personality and Social Psychology, 83(6), 1423-1440. https://doi.org/10.1037/0022-3514.83.6.1423
- Barberá, P., Jost, J. T., Nagler, J., Tucker, J. A. et Bonneau, R. (2015). Tweeting From Left to Right : Is Online Political Communication More Than an Echo Chamber ? Psychological Science, 26(10), 1531-1542. https://doi.org/10.1177/0956797615594620
- Brady, W. J., Wills, J. A., Jost, J. T., Tucker, J. A. et Van Bavel, J. (2017). L'émotion façonne la diffusion de contenu moralisé dans les réseaux sociaux. Proceedings of the National Academy of Sciences, USA, 114, 7313-7318.
- Brady, W. J., McLoughlin, K. L., Doan, T. N. et Crockett, M. (2021, 19 janvier). Comment l'apprentissage social amplifie l'expression de l'indignation morale dans les réseaux sociaux en ligne. https://doi.org/10.31234/osf.io/gf7t5
- Mooijman, M., Hoover, J., Lin, Y., Ji, H. et Dehghani, M. (2018). La moralisation dans les réseaux sociaux et l'émergence de la violence lors des manifestations. Nature Human Behaviour, 2, 389-396.
- Brady, W. J., Crockett, M. J. et Van Bavel, J. (2020). Le modèle MAD de contagion morale : Le rôle de la motivation, de l'attention et de la conception dans la propagation du contenu moralisé en ligne. Perspectives on psychological science : a journal of the Association for Psychological Science, 15(4), 978-1010. https://doi.org/10.1177/1745691620917336
- Tajfel, H. et Turner, J. C. (1979). An integrative theory of intergroup conflict. In W. G. Austin & S. Worchel (Eds.), The social psychology of intergroup relations (pp. 33-47). Monterey, CA : Wadsworth.
- Branscombe, N. R., Ellemers, N., Spears, R. et Doosje, B. (1999). The context and content of social identity threat. Dans N. Ellemers & R. Spears (Eds.), Social identity : Context, commitment, content (pp. 35-59). Oxford, Angleterre : Blackwell Science.
- PettyJohn, M. E., Muzzey, F. K., Maas, M. K., & McCauley, H. L. (2019). #HowIWillChange : Engager les hommes et les garçons dans le mouvement #MeToo. Psychology of Men & Masculinities, 20(4), 612-622. https://doi.org/10.1037/men0000186
- Rathje, S., Van Bavel, J.J., & van der Linden, S. (2021). L'animosité de l'outgroup stimule l'engagement sur les médias sociaux. Proceedings of the National Academy of Sciences. 118 (26) e2024292118 ; https://doi.org/10.1073/pnas.2024292118
- Ali, M., Sapiezynski, P., Korolova, A., Mislove, A., & Rieke, A. (2021) Ad delivery algorithms : The hidden arbiters of political messaging. In Proceedings of the 14th ACM International Conference on Web Search and Data Mining, WSDM '21. 13–21. https://doi.org/10.1145/3437963.3441801
- Bail, C.A., Argyle, L.P., Brown, T.W., Bumpus, J.P., Chen, H., Hunzaker, M.B.F., Lee, J., Mann, M., Merhout, F., & Volfovsky, A. (2018). L'exposition à des opinions opposées sur les médias sociaux peut augmenter la polarisation politique. Actes de l'Académie nationale des sciences. 115 (37) 9216-9221. https://doi.org/10.1073/pnas.1804840115
- Yudkin, D. Hawkins, S., & Dixon, T. (2019) The Perception Gap. More in Common. https://perceptiongap.us/ Consulté le 14 octobre 2021 14:15 BST.
- La capture attentionnelle permet d'expliquer pourquoi les contenus moraux et émotionnels deviennent viraux. Source : Brady, W. J., Gantman, A. P. et Van Bavel, J. (2020). La capture attentionnelle permet d'expliquer pourquoi les contenus moraux et émotionnels deviennent viraux. Journal of experimental psychology. General, 149(4), 746-756. https://doi.org/10.1037/xge0000673
- Brady, W. J., Wills, J. A., Jost, J. T., Tucker, J. A. et Van Bavel, J. (2017). L'émotion façonne la diffusion de contenu moralisé dans les réseaux sociaux. Proceedings of the National Academy of Sciences, USA, 114, 7313-7318.https://doi.org/10.1073/pnas.1618923114
- Fiske, S. T. (1980). Attention and weight in person perception : The impact of negative and extreme behavior. Journal of Personality and Social Psychology, 38(6), 889-906. https://doi.org/10.1037/0022-3514.38.6.889
- Crockett, M.J. L'indignation morale à l'ère numérique. Nature Human Behaviour 1, 769-771 (2017). https://doi.org/10.1038/s41562-017-0213-3
- Schroeder, J., Kardas, M. et Epley, N. (2017). The Humanizing Voice : Speech Reveals, and Text Conceals, a More Thoughtful Mind in the Midst of Disagreement (La voix humanisante : la parole révèle, et le texte dissimule, un esprit plus réfléchi au milieu d'un désaccord). Psychological Science, 28(12), 1745-1762. https://doi.org/10.1177/0956797617713798
- Suter, R. S. et Hertwig, R. (2011). Time and moral judgment. Cognition, 119, 454-458. https://doi.org/10.1016/j.cognition.2011.01.018
- Van Bavel, J. J., Packer, D. J., Haas, I. J. et Cunningham, W. A. (2012). The importance of moral construal : Moral versus non-moral construits elicits faster, more extreme, universal evaluations of the same actions. PLOS ONE, 7(11), Article e48693. https://doi.org/10.1371/journal.pone.0048693
- Crockett, M.J. L'indignation morale à l'ère numérique. Nature Human Behaviour 1, 769-771 (2017). https://doi.org/10.1038/s41562-017-0213-3
- Rathje, S., Van Bavel, J.J., & van der Linden, S. (2021). L'animosité de l'outgroup stimule l'engagement sur les médias sociaux. Proceedings of the National Academy of Sciences. 118 (26) e2024292118 ; https://doi.org/10.1073/pnas.2024292118
- Yudkin, D. Hawkins, S., & Dixon, T. (2019) The Perception Gap. More in Common. https://perceptiongap.us/ Consulté le 14 octobre 2021 14:15 BST.
- (2016, 25 octobre) L'environnement politique sur les médias sociaux. Pew Research Center. https://www.pewresearch.org/internet/2016/10/25/the-political-environment-on-social-media/ récupéré le 17 octobre 2021 19:24 hrs BST.
- (2021, 6 octobre) Facebook conteste l'allégation de signalement inadéquat des contenus vernaculaires. Economic Times. https://economictimes.indiatimes.com/tech/technology/facebook-budget-to-curb-misinformation-in-india-paltry-lacks-hindi-bengali-content-reviewers/articleshow/86804663.cms consulté le 17 octobre 2021 21:01 hrs BST.
- Müller, K. et Schwarz, C. (2020). Fanning the Flames of Hate : Social Media and Hate Crime. Journal de l'Association économique européenne (19:4), 2131-2167. http://dx.doi.org/10.2139/ssrn.3082972
About the Author
Paridhi Kothari
Paridhi Kothari est étudiante en maîtrise de sciences du comportement à l'université de Warwick et possède une formation en mathématiques et en informatique. Elle s'intéresse à l'impact des médias sociaux sur le tissu socioculturel et politique de la société dans son ensemble. Elle est actuellement bénévole à Big Brother Watch (Royaume-Uni), en tant que chercheuse politique pour leur campagne sur la liberté d'expression en ligne et a précédemment travaillé dans le domaine du comportement du consommateur en tant qu'assistante de recherche.