L'algorithme de recommandation de YouTube ne se contente pas de piéger gentiment les internautes dans de douces chambres d'écho, il est plus susceptible de suggérer des vidéos conservatrices, quelle que soit votre orientation politique. C'est ce qui ressort d'une étude du Center for Social Media and Politics (CSMP) de l'université de New York, publiée ce mois-ci par Brookings. Le résumé de l’article des chercheurs précise que cette orientation vers la droite de l'algorithme de YouTube se produit « indépendamment de l'idéologie » des spectateurs de YouTube, ce qui, selon eux, est une découverte inédite.Les participants ont été invités à sélectionner une vidéo YouTube de départ parmi un panel de 25 composé d'un mélange de sujets politiques et non politiques, puis à suivre un parcours déterminé parmi les vidéos que YouTube leur recommandait de regarder ensuite. Il était demandé aux internautes de toujours cliquer sur la première, la deuxième, la troisième, la quatrième ou la cinquième recommandation à chaque fois ; l'emplacement de la recommandation était choisi au hasard par personne dès le départ. Cette action sur des vidéos suggérées par YouTube a été répétée 20 fois par chaque participant, sur une période allant d'octobre à décembre 2020.
L'extension a enregistré les vidéos recommandées par YouTube à chaque étape, et donc les vidéos qui ont été regardées. L'équipe a noté le point de vue idéologique de chaque vidéo, selon qu'elle était plus conservatrice ou plus libérale, afin de mesurer l'effet des chambres d'écho et de tout parti pris latent dans le système, et de voir si les spectateurs se voyaient recommander des contenus de plus en plus extrêmes. La façon dont ce score idéologique a été déterminé est assez cruciale pour cette étude, nous allons donc croire pour le moment qu'il était robuste. Les participants ont également été interrogés sur leurs caractéristiques démographiques.
« Nous avons constaté que l'algorithme de recommandation de YouTube n'entraîne pas la grande majorité des utilisateurs dans des terriers de lapins extrémistes, bien qu'il pousse les utilisateurs vers des gammes de contenus idéologiques de plus en plus étroites dans ce que nous pourrions appeler la preuve d'une chambre d'écho idéologique (très) légère », ont révélé les universitaires dans le rapport. Nous constatons également qu'en moyenne, l'algorithme de recommandation de YouTube tire les utilisateurs légèrement vers la droite du spectre politique, ce qui, selon nous, est une découverte inédite. »
Le résumé de leur article précise que cette orientation vers la droite se produit « indépendamment de l'idéologie » des spectateurs de YouTube. L'étude a révélé que les utilisateurs étaient incités à regarder des médias de droite ou de gauche, selon leur point de départ. Les recommandations de YouTube semblent donc être orientées légèrement vers la droite pour les conservateurs et vers la gauche pour les progressistes.
Ce changement dans la force idéologique des recommandations a commencé modestement et a augmenté au fur et à mesure que l'internaute suivait les recommandations de l'algorithme. En d'autres termes, si vous regardez (par exemple) ce qui est considéré comme un contenu modérément à gauche, avec le temps, vos recommandations vont dériver vers la gauche, mais seulement très légèrement et progressivement, selon cette étude.
Des zones d'écho idéologiques légères existent donc sur YouTube, ont affirmé les chercheurs. Cela serait logique pour YouTube, car cela permet de s'assurer que les spectateurs restent engagés et restent collés au site. En particulier, rien ou presque ne semble indiquer que les spectateurs sont mis sur la voie rapide d'un contenu idéologiquement plus extrême.
On commence par regarder le clip d'un animateur de talk-show inoffensif, puis on se fait conseiller de regarder un sketch d'un humoriste modéré, on se retrouve à regarder une conversation d'un podcasteur alternatif, puis on reçoit des conseils de vie d'un universitaire douteux, puis des principes marginaux d'un autre influenceur, et avant longtemps, on regarde quelqu'un qui contourne les règles de YouTube sur les discours haineux. Ou peut-être que l'étude a raison, et que ce n'est pas le moteur de recommandation qui conduit les gens sur des pentes abruptes.
Ce qui est peut-être plus intéressant, c'est que YouTube semble avoir tendance à recommander des contenus modérément conservateurs aux utilisateurs, quelle que soit leur orientation politique, du moins selon le centre de l'université de New York.
L'équipe ne sait pas vraiment pourquoi. « Bien que nos données nous permettent d'isoler le rôle joué par l'algorithme de recommandation, nous sommes incapables de regarder à l'intérieur de la boîte noire. Sans cette clarté, nous ne pouvons pas déterminer si l'algorithme opère avec plus de force pour les conservateurs parce qu'ils sont plus exigeants que les libéraux en matière de contenu idéologiquement congruent, ou pour une autre raison », écrivent-ils dans leur article.
Il se peut que les gens de droite soient plus susceptibles de regarder systématiquement des contenus de...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.