IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

YouTube adore recommander des vidéos de conservateurs par des biais algorithmiques,
Quelles que soient leurs orientations politiques, selon le CSMP

Le , par Bruno

19PARTAGES

9  0 
YouTube adore recommander des vidéos de conservateurs, quelles que soient leurs orientations politiques,
par des biais algorithmiques, selon le CSMP

L'algorithme de recommandation de YouTube ne se contente pas de piéger gentiment les internautes dans de douces chambres d'écho, il est plus susceptible de suggérer des vidéos conservatrices, quelle que soit votre orientation politique. C'est ce qui ressort d'une étude du Center for Social Media and Politics (CSMP) de l'université de New York, publiée ce mois-ci par Brookings. Le résumé de l’article des chercheurs précise que cette orientation vers la droite de l'algorithme de YouTube se produit « indépendamment de l'idéologie » des spectateurs de YouTube, ce qui, selon eux, est une découverte inédite.

Les participants ont été invités à sélectionner une vidéo YouTube de départ parmi un panel de 25 composé d'un mélange de sujets politiques et non politiques, puis à suivre un parcours déterminé parmi les vidéos que YouTube leur recommandait de regarder ensuite. Il était demandé aux internautes de toujours cliquer sur la première, la deuxième, la troisième, la quatrième ou la cinquième recommandation à chaque fois ; l'emplacement de la recommandation était choisi au hasard par personne dès le départ. Cette action sur des vidéos suggérées par YouTube a été répétée 20 fois par chaque participant, sur une période allant d'octobre à décembre 2020.


L'extension a enregistré les vidéos recommandées par YouTube à chaque étape, et donc les vidéos qui ont été regardées. L'équipe a noté le point de vue idéologique de chaque vidéo, selon qu'elle était plus conservatrice ou plus libérale, afin de mesurer l'effet des chambres d'écho et de tout parti pris latent dans le système, et de voir si les spectateurs se voyaient recommander des contenus de plus en plus extrêmes. La façon dont ce score idéologique a été déterminé est assez cruciale pour cette étude, nous allons donc croire pour le moment qu'il était robuste. Les participants ont également été interrogés sur leurs caractéristiques démographiques.

« Nous avons constaté que l'algorithme de recommandation de YouTube n'entraîne pas la grande majorité des utilisateurs dans des terriers de lapins extrémistes, bien qu'il pousse les utilisateurs vers des gammes de contenus idéologiques de plus en plus étroites dans ce que nous pourrions appeler la preuve d'une chambre d'écho idéologique (très) légère », ont révélé les universitaires dans le rapport. Nous constatons également qu'en moyenne, l'algorithme de recommandation de YouTube tire les utilisateurs légèrement vers la droite du spectre politique, ce qui, selon nous, est une découverte inédite. »

Le résumé de leur article précise que cette orientation vers la droite se produit « indépendamment de l'idéologie » des spectateurs de YouTube. L'étude a révélé que les utilisateurs étaient incités à regarder des médias de droite ou de gauche, selon leur point de départ. Les recommandations de YouTube semblent donc être orientées légèrement vers la droite pour les conservateurs et vers la gauche pour les progressistes.

Ce changement dans la force idéologique des recommandations a commencé modestement et a augmenté au fur et à mesure que l'internaute suivait les recommandations de l'algorithme. En d'autres termes, si vous regardez (par exemple) ce qui est considéré comme un contenu modérément à gauche, avec le temps, vos recommandations vont dériver vers la gauche, mais seulement très légèrement et progressivement, selon cette étude.

Des zones d'écho idéologiques légères existent donc sur YouTube, ont affirmé les chercheurs. Cela serait logique pour YouTube, car cela permet de s'assurer que les spectateurs restent engagés et restent collés au site. En particulier, rien ou presque ne semble indiquer que les spectateurs sont mis sur la voie rapide d'un contenu idéologiquement plus extrême.

On commence par regarder le clip d'un animateur de talk-show inoffensif, puis on se fait conseiller de regarder un sketch d'un humoriste modéré, on se retrouve à regarder une conversation d'un podcasteur alternatif, puis on reçoit des conseils de vie d'un universitaire douteux, puis des principes marginaux d'un autre influenceur, et avant longtemps, on regarde quelqu'un qui contourne les règles de YouTube sur les discours haineux. Ou peut-être que l'étude a raison, et que ce n'est pas le moteur de recommandation qui conduit les gens sur des pentes abruptes.

Ce qui est peut-être plus intéressant, c'est que YouTube semble avoir tendance à recommander des contenus modérément conservateurs aux utilisateurs, quelle que soit leur orientation politique, du moins selon le centre de l'université de New York.

L'équipe ne sait pas vraiment pourquoi. « Bien que nos données nous permettent d'isoler le rôle joué par l'algorithme de recommandation, nous sommes incapables de regarder à l'intérieur de la boîte noire. Sans cette clarté, nous ne pouvons pas déterminer si l'algorithme opère avec plus de force pour les conservateurs parce qu'ils sont plus exigeants que les libéraux en matière de contenu idéologiquement congruent, ou pour une autre raison », écrivent-ils dans leur article.

Il se peut que les gens de droite soient plus susceptibles de regarder systématiquement des contenus de droite et que les gens de gauche soient plus susceptibles de regarder des contenus plus diversifiés - des choses avec lesquelles ils sont d'accord et des choses qu'ils partagent - ou qu'il y ait simplement plus de vidéos conservatrices que de vidéos libérales sur YouTube. Les recommandations de YouTube peuvent être tirées vers la droite afin de refléter la vidéothèque, de satisfaire la demande du public et d'augmenter l'engagement tant désiré.

Un effet similaire a également été observé sur Twitter. Son algorithme de recommandation a tendance à favoriser les messages des politiciens et des publications d'information de droite plutôt que ceux de gauche. Des politologues de la même équipe de l'université de New York ont indiqué que cela pouvait s'expliquer par le fait que les contenus conservateurs sont plus susceptibles de susciter l'indignation et, par conséquent, d'entraîner un engagement plus important.

Biais algorithmique et impacts sur la société

Le biais algorithmique décrit des erreurs systématiques et répétables dans un système informatique qui créent des résultats « injustes », comme le fait de « privilégier » une catégorie par rapport à une autre d'une manière différente de la fonction prévue de l'algorithme.

Les réseaux sociaux vivent et meurent grâce à leurs algorithmes de recommandation : ils sont conçus pour garder les visiteurs sur les sites et les applications en leur fournissant un contenu qui les accroche, et si cela suscite un engagement - partage de liens avec d'autres, commentaires, abonnement, votes positifs, etc. Les contenus controversés ou époustouflants sont parfaits pour cela, car ils sont susceptibles de susciter davantage de partages et de commentaires, et donc de maintenir l'addiction d'un plus grand nombre de personnes. « Nous constatons que l'algorithme de recommandation de YouTube n'entraîne pas la grande majorité des utilisateurs dans des méandres extrémistes, mais les pousse dans des espaces de réflexion idéologique et vers des contenus modérément conservateurs », écrivent les chercheurs.

Le biais peut provenir de nombreux facteurs, y compris, mais sans s'y limiter, de la conception de l'algorithme ou de l'utilisation involontaire ou imprévue ou des décisions relatives à la façon dont les données sont codées, collectées, sélectionnées ou utilisées pour entraîner l'algorithme. Par exemple, les biais algorithmiques observés dans les résultats des moteurs de recherche et des plateformes de médias sociaux peuvent avoir des impacts allant de la violation involontaire de la vie privée au renforcement des préjugés sociaux de race, de sexe, de sexualité et d'ethnicité.

Pour aborder la question des algorithmes de YouTube, l’équipe de chercheurs du CSMP a étudié les effets des recommandations de YouTube en demandant à 1 063 internautes adultes, recrutés par le biais de publicités sur Facebook, d'installer une extension de navigateur qui permet de suivre leur expérience de navigation sur le site Web appartenant à Google.

Les chercheurs du CSMP ont demandé à ces utilisateurs de commencer par une vidéo qui leur avait été assignée, puis de cliquer sur 20 séries de recommandations, capturant ainsi ce qui leur était montré en temps réel alors qu'ils utilisaient la plateforme en se connectant à leurs comptes réels. En utilisant une nouvelle méthode pour estimer l'idéologie d'une vidéo YouTube, ils démontrent que l'algorithme de recommandation YouTube pousse en fait les utilisateurs réels dans des zones d'écho idéologiques où, à la fin de la tâche de collecte de données, les libéraux et les conservateurs ont reçu des distributions de recommandations différentes les unes des autres, bien que cette différence soit faible.

Ces flux sont donc personnalisés pour chaque internaute en fonction de ses intérêts, ce qui est...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !