Les algorithmes des réseaux sociaux


« Oui, ils influencent durablement nos opinions politiques »

Dans une étude récente qu’elle a coréalisée, l’économiste Ekaterina Zhuravskaya démontre que le fil algorithmique du réseau social X privilégie les contenus de droite et modifie les choix d’abonnements des utilisateurs, comme elle l’explique dans une tribune au « Monde ».

Les algorithmes de recommandation se sont discrètement installés dans notre quotidien. Sur les réseaux sociaux tels que X, Facebook, Instagram ou LinkedIn, ils remplacent ou complètent le simple déroulé antéchronologique (du plus récent au plus ancien) des messages postés par des comptes que nous avons décidé nous-mêmes de suivre. En fonction de la personnalité de l’utilisateur, ils mettent en avant certains messages et en invisibilisent d’autres, pourtant parfois postés par des comptes suivis.

Ces fils personnalisés sont conçus pour maximiser l’engagement des utilisateurs : clics, « j’aime », réponses, partages, temps passé, achats… Les inquiétudes quant à leurs effets sociaux et politiques sont donc légitimes : en cherchant à capter l’attention, ils peuvent privilégier des contenus extrêmes, polarisants ou toxiques. Ils peuvent aussi renforcer des croyances existantes, y compris des idées fausses, et alimenter des environnements informationnels polarisés, souvent décrits comme des « bulles de filtres ».

Jusque-là, aucun travail scientifique n’avait démontré que ces algorithmes modifiaient les comportements des utilisateurs des réseaux sociaux. Mais dans une étude menée avec mes collègues Germain Gauthier, Roland Hodler et Philine Widmer, et que nous venons de publier, le 18 février, dans Nature, nous démontrons que l’activation du fil « Pour vous » sur X aux Etats-Unis déplace des opinions politiques dans un sens favorable aux républicains, alors que sa désactivation n’entraîne pas de « retour en arrière ». Oui, l’algorithme modifie durablement l’environnement informationnel des utilisateurs, en les incitant à suivre davantage de comptes politiques, avec une prédilection pour ceux qui penchent à droite.

Position favorable au Kremlin

Nos résultats remettent en cause les conclusions rassurantes qui avaient été trop hâtivement tirées des recherches antérieures, et notamment d’une étude de grande ampleur, publiée en 2023 dans Science. Celle-ci constatait que les attitudes politiques ne sont pas affectées par la désactivation des algorithmes de recommandation. Menée pendant l’élection présidentielle américaine de 2020, en coopération avec Meta (Facebook, Instagram…), elle montrait que remplacer un fil algorithmique par un fil chronologique n’avait pas d’effet mesurable sur les attitudes politiques. Beaucoup en ont déduit que les inquiétudes étaient exagérées : Facebook n’avait pas « fait élire » Donald Trump en 2016. Mais peut-on juger de l’impact d’un algorithme en observant seulement ce qui se passe quand on le désactive ?

Notre étude a été réalisée pendant l’été 2023, sans coopération avec la plateforme X. Les utilisateurs pouvaient choisir entre deux fils : le fil chronologique « Abonnements » et le fil algorithmique « Pour vous ». Nous avons assigné de façon aléatoire des utilisateurs à l’un des deux réglages et les avons rémunérés pour y rester pendant sept semaines. Certains ont été invités à changer de fil, d’autres ont conservé leur réglage initial. Cela a permis d’observer les conséquences (engagement, attitudes politiques, choix d’abonnements) tant de l’activation que de la désactivation de l’algorithme.

Nous constatons que les attitudes politiques ont été affectées par l’activation du fil algorithmique : les utilisateurs concernés donnent davantage la priorité à des enjeux typiquement mis en avant par les républicains (inflation, immigration, criminalité) plutôt qu’à des enjeux plus souvent mis en avant par les démocrates (santé, éducation), en comparaison des utilisateurs restés sur un fil chronologique. Ils sont aussi plus enclins à juger inacceptables les enquêtes pénales visant Donald Trump, les percevant comme portant atteinte à la démocratie et à l’Etat de droit. Enfin, ils adoptent plus souvent une position favorable au Kremlin sur l’invasion russe de l’Ukraine, exprimant davantage de sentiments négatifs envers les dirigeants ukrainiens et envers le soutien de Joe Biden à l’Ukraine.

Une identité partisane

Ce qui frappe tout autant, c’est ce que nous ne trouvons pas. D’abord, le passage du fil algorithmique au fil chronologique n’a pratiquement aucun effet sur les attitudes politiques. Ce résultat est cohérent avec l’étude Meta précitée. Ensuite, nous ne trouvons aucun effet sur l’identification partisane déclarée (républicain ou démocrate), ni quand on active les algorithmes ni quand on les désactive : ces derniers peuvent donc modifier des opinions et des priorités politiques sans transformer, à court terme, le sentiment d’identité partisane.

Le fil algorithmique de X contient une part plus élevée de contenus politiques que le fil chronologique et, au sein de ceux-ci, privilégie nettement davantage des contenus de droite. Il affiche aussi davantage de contenus provenant d’influenceurs politisés et moins de contenus provenant des médias traditionnels. A première vue, l’asymétrie entre activation et désactivation peut sembler paradoxale. Si la mise en place d’un algorithme pousse les opinions dans une direction, pourquoi la retirer ne renverse-t-elle pas ce mouvement ? La réponse réside dans la manière dont l’algorithme façonne le comportement.

L’exposition au fil algorithmique modifie le choix des comptes suivis. Les utilisateurs passés sur ce fil deviennent plus susceptibles de s’abonner à des comptes d’activistes, en particulier de droite. L’algorithme « pousse » donc les utilisateurs vers de nouvelles sources, et ceux-ci continuent à les suivre même après la désactivation : ils ne se désabonnent pas des comptes nouvellement suivis. L’influence de ces sources persiste donc, même quand le fil algorithmique est désactivé.

Ces résultats invitent à ouvrir une discussion sérieuse sur la régulation des algorithmes de recommandation et sur la transparence des plateformes. Le résultat le plus frappant, c’est qu’ils relèguent massivement les contenus des médias traditionnels, laissant de nombreux utilisateurs sans repères solides. Un tel mode de hiérarchisation des contenus peut et doit être supprimé par la réglementation.

Ekaterina Zhuravskaya est professeure d’économie à l’Ecole d’économie de Paris (PSE) et directrice d’études à l’Ecole des hautes études en sciences sociales (EHESS).

https://www.lemonde.fr/idees/article/2026/02/25/oui-les-algorithmes-des-reseaux-sociaux-influencent-durablement-nos-opinions-politiques_6668156_3232.html