X/Twitter : un réseau social de plus en plus toxique

X est le réseau social dont les polémiques qui y naissent se retrouvent dans les médias. ©Getty - Xesai
X est le réseau social dont les polémiques qui y naissent se retrouvent dans les médias. ©Getty - Xesai
X est le réseau social dont les polémiques qui y naissent se retrouvent dans les médias. ©Getty - Xesai
Publicité

X, anciennement Twitter, est un parfait terrain de jeu pour les scientifiques. Une nouvelle étude révèle que l'algorithme favorise les messages toxiques. Un phénomène qui s'amplifie depuis le rachat de la plateforme par Elon Musk.

C’est un réseau social particulièrement intéressant pour les scientifiques, d'abord parce que ses données étaient, jusqu'au rachat d'Elon Musk, disponibles et ouvertes. Ensuite, parce qu’il est très utilisé : il y a plus de 560 millions de comptes actifs mensuels, soit 7 % de la population globale. C’est énorme, mais ce n’est pas le plus utilisé : Instagram comptabilise 1,4 milliard d'utilisateurs et Facebook 3 milliards.

À écouter : Show Musk go on ?
La Méthode scientifique
59 min

X déborde hors de la plateforme

Mais X possède quelque chose que les autres n’ont pas : la plateforme est politique. Les polémiques qui s’y déroulent et les propos qui sont tenus par des personnalités politiques ou non sont repris dans les médias. Les conversations de l’ex-Twitter débordent donc en dehors du réseau social… et ça, c’est du jamais vu pour Facebook ou Instagram. D’où l’enjeu crucial de comprendre comment l'algorithme choisit de vous montrer ce tweet plutôt qu’un autre.

Publicité

Paul Bouchaud est doctorant à l’Institut des Systèmes Complexes à Paris : "Depuis 2016, les messages que les gens envoient dans leur fil d'actualité sont choisis par un algorithme, typiquement choisi parmi ce que tous leurs amis ont publié dans les dernières heures. Et cet algorithme choisit ce qu'il pense être le plus pertinent pour l'utilisateur. Il cherche à maximiser l'engagement de l'utilisateur, donc maximiser le nombre de retweets, le nombre de likes, ce genre de choses. Et on sait que les algorithmes peuvent introduire des biais. Twitter, par exemple, en 2022, avait reconnu que leur algorithme préférait certains messages politiques et les amplifiait vis-à-vis des autres. Donc l'idée, c'était de faire l'analyse la plus complète ce que l'algorithme de Twitter déforme, montre aux utilisateurs comparativement à ce que leurs amis ont publié. Donc, on a regardé pour chaque utilisateur, tout ce que ses amis ont publié et on regarde ce que Twitter a décidé de montrer à l'utilisateur."

Le Meilleur des mondes
58 min

Des messages toxiques poussés par l'algorithme

Mais pour cela, il faut pouvoir “voir” ce que les utilisateurs ont vu passer sous leurs yeux. Et ça, ce n’est pas une donnée qui peut être livrée clé en main par la plateforme. Alors pour mener cette étude, 500 volontaires ont ajouté une extension à leur navigation pour que les chercheurs puissent avoir accès à tout ce que Twitter leur a montré - c’est un peu comme si vous donniez vos codes d’accès ! Résultats, les messages toxiques, ceux contenant des menaces, des insultes ou de la haine sont poussées par l’algorithme et encore davantage depuis le rachat de Musk…

Paul Bouchaud est l’auteur principal de  cette étude parue dans Scientific Reports : "Durant une période de décembre à janvier, Musk avait déjà racheté Twitter, mais n'avait pas vraiment encore commencé à manipuler l'algorithme comme il le fait actuellement, on voyait que les messages toxiques étaient amplifiés de l'ordre de 30 %. C'est-à-dire que les auteurs voient 30 % de messages en plus toxiques, donc d'insultes, de menaces, comparativement à ce que leurs amis ont réellement publié. Et on se rend compte qu'en février, c'était passé à 50 %. Donc, on a une augmentation de l'amplification algorithmique. C'est-à-dire que les messages toxiques sont de plus en plus amplifiés par l'algorithme Twitter."

À écouter : La valeur de Twitter
Les Enjeux des réseaux sociaux
2 min

L'utilisateur est aussi responsable

Mais c’est aussi le comportement des utilisateurs qui est cause : "Ce sont des phénomènes qui sont extrêmement compliqués à voir dans le code même parce que c'est typiquement des phénomènes qui émergent de la manière dont les utilisateurs se comportent. Typiquement, les messages toxiques, les utilisateurs les préfèrent, au sens où pour un même nombre de vues, ils sont deux fois plus likés et ont deux fois plus de réponses que des messages non toxiques. Donc typiquement, si un algorithme comme celui de Twitter cherche à maximiser les likes ou les réponses, il va préférer montrer les messages toxiques."

Les scientifiques pressentaient cet effet. Les messages toxiques sont préférés, donc ils favorisent l’engagement sur la plateforme… et la plateforme, elle, veut plus d’engagement - tout le monde y gagne sauf les destinataires de ces messages. Et c’est la première étude à mettre en évidence ce lien.

Un biais algorithmique dont se servent les climatosceptiques

Les conséquences de cette multiplication des messages toxiques sont en partie connues. Ils entraînent la création d’un monde virtuel déformé, ce qui fait croire aux utilisateurs que le réseau social est plus toxique qu’il ne l’est vraiment. D’autre part, on sait que certaines communautés peuvent être plus toxiques que d’autres pour justement profiter de cette viralité, en postant des messages toxiques. C’est une méthode de communication dont se servent les climato-dénialistes ou climatosceptiques - ceux refusant la véracité du changement climatique d’origine humaine.

La suite de ces travaux, c'est de pouvoir mener le même audit, mais dans d’autres plateformes, sur Google ou YouTube, pour enquêter sur si leurs algorithmes présentent ce même biais.

4 min

L'équipe