L'algorithme de recommandation de YouTube ne se contente pas de piéger gentiment les internautes dans de douces chambres d'écho, il est plus susceptible de suggérer des vidéos conservatrices, quelle que soit votre orientation politique. C'est ce qui ressort d'une étude du Center for Social Media and Politics (CSMP) de l'université de New York, publiée ce mois-ci par Brookings. Le résumé de l’article des chercheurs précise que cette orientation vers la droite de l'algorithme de YouTube se produit « indépendamment de l'idéologie » des spectateurs de YouTube, ce qui, selon eux, est une découverte inédite.
Les participants ont été invités à sélectionner une vidéo YouTube de départ parmi un panel de 25 composé d'un mélange de sujets politiques et non politiques, puis à suivre un parcours déterminé parmi les vidéos que YouTube leur recommandait de regarder ensuite. Il était demandé aux internautes de toujours cliquer sur la première, la deuxième, la troisième, la quatrième ou la cinquième recommandation à chaque fois ; l'emplacement de la recommandation était choisi au hasard par personne dès le départ. Cette action sur des vidéos suggérées par YouTube a été répétée 20 fois par chaque participant, sur une période allant d'octobre à décembre 2020.
L'extension a enregistré les vidéos recommandées par YouTube à chaque étape, et donc les vidéos qui ont été regardées. L'équipe a noté le point de vue idéologique de chaque vidéo, selon qu'elle était plus conservatrice ou plus libérale, afin de mesurer l'effet des chambres d'écho et de tout parti pris latent dans le système, et de voir si les spectateurs se voyaient recommander des contenus de plus en plus extrêmes. La façon dont ce score idéologique a été déterminé est assez cruciale pour cette étude, nous allons donc croire pour le moment qu'il était robuste. Les participants ont également été interrogés sur leurs caractéristiques démographiques.
« Nous avons constaté que l'algorithme de recommandation de YouTube n'entraîne pas la grande majorité des utilisateurs dans des terriers de lapins extrémistes, bien qu'il pousse les utilisateurs vers des gammes de contenus idéologiques de plus en plus étroites dans ce que nous pourrions appeler la preuve d'une chambre d'écho idéologique (très) légère », ont révélé les universitaires dans le rapport. Nous constatons également qu'en moyenne, l'algorithme de recommandation de YouTube tire les utilisateurs légèrement vers la droite du spectre politique, ce qui, selon nous, est une découverte inédite. »
Le résumé de leur article précise que cette orientation vers la droite se produit « indépendamment de l'idéologie » des spectateurs de YouTube. L'étude a révélé que les utilisateurs étaient incités à regarder des médias de droite ou de gauche, selon leur point de départ. Les recommandations de YouTube semblent donc être orientées légèrement vers la droite pour les conservateurs et vers la gauche pour les progressistes.
Ce changement dans la force idéologique des recommandations a commencé modestement et a augmenté au fur et à mesure que l'internaute suivait les recommandations de l'algorithme. En d'autres termes, si vous regardez (par exemple) ce qui est considéré comme un contenu modérément à gauche, avec le temps, vos recommandations vont dériver vers la gauche, mais seulement très légèrement et progressivement, selon cette étude.
Des zones d'écho idéologiques légères existent donc sur YouTube, ont affirmé les chercheurs. Cela serait logique pour YouTube, car cela permet de s'assurer que les spectateurs restent engagés et restent collés au site. En particulier, rien ou presque ne semble indiquer que les spectateurs sont mis sur la voie rapide d'un contenu idéologiquement plus extrême.
On commence par regarder le clip d'un animateur de talk-show inoffensif, puis on se fait conseiller de regarder un sketch d'un humoriste modéré, on se retrouve à regarder une conversation d'un podcasteur alternatif, puis on reçoit des conseils de vie d'un universitaire douteux, puis des principes marginaux d'un autre influenceur, et avant longtemps, on regarde quelqu'un qui contourne les règles de YouTube sur les discours haineux. Ou peut-être que l'étude a raison, et que ce n'est pas le moteur de recommandation qui conduit les gens sur des pentes abruptes.
Ce qui est peut-être plus intéressant, c'est que YouTube semble avoir tendance à recommander des contenus modérément conservateurs aux utilisateurs, quelle que soit leur orientation politique, du moins selon le centre de l'université de New York.
L'équipe ne sait pas vraiment pourquoi. « Bien que nos données nous permettent d'isoler le rôle joué par l'algorithme de recommandation, nous sommes incapables de regarder à l'intérieur de la boîte noire. Sans cette clarté, nous ne pouvons pas déterminer si l'algorithme opère avec plus de force pour les conservateurs parce qu'ils sont plus exigeants que les libéraux en matière de contenu idéologiquement congruent, ou pour une autre raison », écrivent-ils dans leur article.
Il se peut que les gens de droite soient plus susceptibles de regarder systématiquement des contenus de droite et que les gens de gauche soient plus susceptibles de regarder des contenus plus diversifiés - des choses avec lesquelles ils sont d'accord et des choses qu'ils partagent - ou qu'il y ait simplement plus de vidéos conservatrices que de vidéos libérales sur YouTube. Les recommandations de YouTube peuvent être tirées vers la droite afin de refléter la vidéothèque, de satisfaire la demande du public et d'augmenter l'engagement tant désiré.
Un effet similaire a également été observé sur Twitter. Son algorithme de recommandation a tendance à favoriser les messages des politiciens et des publications d'information de droite plutôt que ceux de gauche. Des politologues de la même équipe de l'université de New York ont indiqué que cela pouvait s'expliquer par le fait que les contenus conservateurs sont plus susceptibles de susciter l'indignation et, par conséquent, d'entraîner un engagement plus important.
Biais algorithmique et impacts sur la société
Le biais algorithmique décrit des erreurs systématiques et répétables dans un système informatique qui créent des résultats « injustes », comme le fait de « privilégier » une catégorie par rapport à une autre d'une manière différente de la fonction prévue de l'algorithme.
Les réseaux sociaux vivent et meurent grâce à leurs algorithmes de recommandation : ils sont conçus pour garder les visiteurs sur les sites et les applications en leur fournissant un contenu qui les accroche, et si cela suscite un engagement - partage de liens avec d'autres, commentaires, abonnement, votes positifs, etc. Les contenus controversés ou époustouflants sont parfaits pour cela, car ils sont susceptibles de susciter davantage de partages et de commentaires, et donc de maintenir l'addiction d'un plus grand nombre de personnes. « Nous constatons que l'algorithme de recommandation de YouTube n'entraîne pas la grande majorité des utilisateurs dans des méandres extrémistes, mais les pousse dans des espaces de réflexion idéologique et vers des contenus modérément conservateurs », écrivent les chercheurs.
Le biais peut provenir de nombreux facteurs, y compris, mais sans s'y limiter, de la conception de l'algorithme ou de l'utilisation involontaire ou imprévue ou des décisions relatives à la façon dont les données sont codées, collectées, sélectionnées ou utilisées pour entraîner l'algorithme. Par exemple, les biais algorithmiques observés dans les résultats des moteurs de recherche et des plateformes de médias sociaux peuvent avoir des impacts allant de la violation involontaire de la vie privée au renforcement des préjugés sociaux de race, de sexe, de sexualité et d'ethnicité.
Pour aborder la question des algorithmes de YouTube, l’équipe de chercheurs du CSMP a étudié les effets des recommandations de YouTube en demandant à 1 063 internautes adultes, recrutés par le biais de publicités sur Facebook, d'installer une extension de navigateur qui permet de suivre leur expérience de navigation sur le site Web appartenant à Google.
Les chercheurs du CSMP ont demandé à ces utilisateurs de commencer par une vidéo qui leur avait été assignée, puis de cliquer sur 20 séries de recommandations, capturant ainsi ce qui leur était montré en temps réel alors qu'ils utilisaient la plateforme en se connectant à leurs comptes réels. En utilisant une nouvelle méthode pour estimer l'idéologie d'une vidéo YouTube, ils démontrent que l'algorithme de recommandation YouTube pousse en fait les utilisateurs réels dans des zones d'écho idéologiques où, à la fin de la tâche de collecte de données, les libéraux et les conservateurs ont reçu des distributions de recommandations différentes les unes des autres, bien que cette différence soit faible.
Ces flux sont donc personnalisés pour chaque internaute en fonction de ses intérêts, ce qui est essentiel pour les attirer et les retenir. Des chambres d'écho se forment lorsque les gens publient et partagent des choses pour lesquelles ils ont un intérêt commun, et ignorent tout ce qui est contraire à ces principes et attitudes. Cela conduit à une boucle de rétroaction positive d'engagement au sein du groupe, renforçant les croyances et augmentant le temps - et les vues des publicités - dans l'application ou le site Web.
À mesure que les algorithmes étendent leur capacité à organiser la société, la politique, les institutions et les comportements, les sociologues s'inquiètent de la manière dont la production et la manipulation imprévues des données peuvent avoir un impact sur le monde. Les algorithmes étant souvent considérés comme neutres et impartiaux, ils peuvent, à tort, projeter une autorité supérieure à celle de l'expertise humaine (en partie à cause du phénomène psychologique du biais d'automatisation) et, dans certains cas, la confiance dans les algorithmes peut déplacer la responsabilité humaine de leurs résultats. Les systèmes algorithmiques peuvent être biaisés par des attentes culturelles, sociales ou institutionnelles préexistantes, par les limites techniques de leur conception ou par leur utilisation dans des contextes imprévus ou par des publics qui n'ont pas été pris en compte lors de la conception initiale du logiciel.
Le biais algorithmique a été cité dans des cas allant des résultats d'élections à la diffusion de discours haineux en ligne. Il est également apparu dans la justice pénale, les soins de santé et l'embauche, aggravant les préjugés raciaux, socio-économiques et de genre existants. L'incapacité relative de la technologie de reconnaissance faciale à identifier avec précision les visages à la peau plus foncée a été liée à de nombreuses arrestations injustifiées d'hommes noirs, un problème qui découle d'ensembles de données déséquilibrés.
Les problèmes de compréhension, de recherche et de découverte des biais algorithmiques persistent en raison de la nature propriétaire des algorithmes, qui sont généralement traités comme des secrets commerciaux. Même lorsqu'une transparence totale est assurée, la complexité de certains algorithmes constitue un obstacle à la compréhension de leur fonctionnement. En outre, les algorithmes peuvent changer ou réagir aux entrées ou aux sorties d'une manière qui ne peut être anticipée ou facilement reproduite pour l'analyse. Dans de nombreux cas, même au sein d'un seul site web ou d'une seule application, il n'y a pas un seul "algorithme" à examiner, mais un réseau de nombreux programmes et entrées de données interdépendants, même entre utilisateurs du même service.
Source : CSMP
Et vous ?
Trouvez-vous pertinente cette étude ?
Selon vous, les logiciels peuvent-ils faire basculer les gens dans l'extrémisme ?
Les algorithmes poussent-ils les utilisateurs vers des voies idéologiques de plus en plus étroites ?
Pensez-vous qu’il existe un biais systémique dans les recommandations ?
Voir aussi :
YouTube peut désormais monétiser les vidéos des petits créateurs dans le monde entier, mais ne partagera pas les bénéfices avec eux, ces derniers dénoncent la cupidité de l'entreprise
YouTube Free teste discrètement 5 publicités, au lieu de 2, avant le début de votre vidéo, la fonctionnalité est en cours de test
YouTube adore recommander des vidéos de conservateurs par des biais algorithmiques,
Quelles que soient leurs orientations politiques, selon le CSMP
YouTube adore recommander des vidéos de conservateurs par des biais algorithmiques,
Quelles que soient leurs orientations politiques, selon le CSMP
Le , par Bruno
Une erreur dans cette actualité ? Signalez-nous-la !