IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une étude révèle que 75 % des publications Facebook contenant des URL sont partagées sans que le contenu de la page liée ait été lu au préalable,
Ce qui exacerbe le risque de désinformation et de manipulation

Le , par Mathis Lucas

13PARTAGES

4  0 
Une nouvelle révèle que la plupart des utilisateurs de réseaux sociaux partagent des articles sans avoir préalablement lu l'intégralité du contenu. Plus précisément, l'étude a révélé que 75 % des publications contenant des URL sur Facebook sont partagés par les utilisateurs sans avoir pris la peine de lire le contenu de la page liée. Cette tendance à « partager sans lire » soulève des inquiétudes quant à la propagation d'informations non vérifiées ou trompeuses, augmentant les risques de désinformation sur les réseaux sociaux. Selon les auteurs, des mesures doivent être prises afin de promouvoir une diffusion plus responsable de l'information en ligne.

Le partage sans clic prend des proportions alarmantes sur les médias sociaux

Les plateformes de médias sociaux telles que Facebook sont optimisées pour des interactions rapides et superficielles. Elles disposent généralement d'une fonction qui permet aux utilisateurs de partager des messages. Tout cela encourage le partage instantané, les utilisateurs passant peu de temps à analyser chaque publication dans un flux dense d'informations. Résultat ? Des millions de publications sont partagées régulièrement sans que le contenu ait été consulté.


Une étude menée par une équipe de recherche dirigée par le professeur Shyam Sundar de l'université d'État de Pennsylvanie révèle que la situation devient alarmante. Dans le cadre de l'étude, l'équipe a analysé plus de 35 millions de messages Facebook publics contenant des URL partagés entre 2017 et 2020. Elle a constaté que les partages sans clics (shares without clicks - SwoCs) constituent environ 75 % des liens transférés. Ce qui suscite de vives inquiétudes.

Citation Envoyé par Extrait de l'étude

Les contenus politiques extrêmes et alignés sur les utilisateurs recevaient davantage de SwoC, les partisans s'y engageant plus que les utilisateurs politiquement neutres. En outre, les analyses portant sur 2 969 fausses URL ont révélé un plus grand nombre de partages et, par conséquent, de SwoC par les conservateurs (76,94 %) que par les libéraux (14,25 %), probablement parce que, dans notre ensemble de données, la grande majorité (76 - 82 %) d'entre eux provenaient de domaines d'information conservateurs.

Les résultats suggèrent que la viralité du contenu politique sur les médias sociaux (y compris la désinformation) est due au traitement superficiel des titres et des blurbs [courte description (ou résumé) du contenu de la page liée] plutôt qu'au traitement systématique du contenu principal, ce qui a des implications en termes de conception pour la promotion d'un discours délibéré dans la sphère publique en ligne.
Les résultats de l'étude ont été publiés dans la revue Nature Human Behavior. Pour limiter la diffusion de fausses informations, les auteurs de l'étude suggèrent que les plateformes de médias sociaux mettent en place des avertissements ou des alertes pour informer les utilisateurs des risques qu'ils encourent en partageant des contenus sans les lire. Cela aiderait les utilisateurs à prendre des décisions plus éclairées avant de rediffuser des articles d'actualité.

« À mon avis, le partage est l'un des comportements les plus influents sur les médias sociaux. Non seulement il crée un effet de synergie en diffusant des informations par l'intermédiaire de réseaux personnels, mais il a également exacerbé la diffusion d’infox en ligne ces dernières années », a déclaré Shyam Sundar au média spécialisé en psychologie PsyPost. Selon Shyam Sundar, ce phénomène représente un danger pour l'intégrité et l'avenir du Web.

« Ce que la plupart des gens ne réalisent pas, c'est que nos amis et notre famille sur les médias sociaux ne sont pas formés comme des journalistes pour vérifier et revérifier les faits avant de les partager. Nous avons tendance à être influencés par ce qu'ils partagent », a ajouté le professeur.

La conception des plateformes critiquée et accusée d'exacerber le phénomène

Les plateformes de médias sociaux prospèrent grâce au partage, un comportement qui stimule l'engagement et permet au contenu de devenir viral. Mais la facilité et la rapidité du partage font que les utilisateurs agissent souvent de manière impulsive, diffusant des liens en fonction d'indices superficiels tels que les titres ou le nombre de « Like ». Cela peut involontairement contribuer à la diffusion d'informations erronées, en particulier dans le domaine politique.

Des recherches antérieures ont suggéré que les gens se forgent souvent des opinions à partir de courtes bribes, créant ainsi une illusion de connaissance sans vraiment comprendre le contenu. Cette nouvelle étude montre que le problème prend une ampleur considérable et qu'il faut prendre des mesures. « Le principal enseignement est que la plupart des liens partagés sur Facebook le sont sans que le responsable ait lu le contenu », a déclaré Shyam Sundar.

Le professeur a ajouté : « cela nous indique que les utilisateurs de médias sociaux se contentent de jeter un coup d'œil au titre et au texte lorsqu'ils décident de diffuser un lien d'information à leurs réseaux. Cette diffusion peut avoir un effet multiplicateur et entraîner une propagation rapide de l'information à des millions de personnes en ligne. Il peut en résulter une vitalité de la
, la diffusion d'informations erronées et de théories du complot ».

Selon les critiques, la conception des plateformes de médias sociaux est l'un des principaux facteurs qui contribuent à cet état de choses. Les utilisateurs ressentent une forme de pression pour participer à la vie de communauté, ce qui leur apporterait plus de visibilité en ligne. Entre autres facteurs, on peut citer :

  • la conception des plateformes : Facebook et d'autres réseaux sociaux sont optimisés pour des interactions rapides et superficielles, incitant au partage instantané ;
  • la pression sociale : le fait de partager un contenu qui semble pertinent ou populaire donne une impression de participation et d'engagement ;
  • un flux d'informations continu et un temps limité : le flux dense d'informations contraint les utilisateurs à passer moins de temps à analyser chaque publication.


En plus du fait que les contenus non lus sont plus susceptibles de contenir des informations inexactes ou décontextualisées, le partage impulsif peut également réduire le débat constructif. Cela signifie que les discussions s'appuient sur des impressions superficielles au lieu d'analyses approfondies. Le partage impulsif pose également des problèmes de crédibilité. Le fait de partager du contenu sans vérifier peut nuire à la crédibilité des individus et des sources.

Impacts du partage impulsif sur la politique et les élections dans le monde

L'équipe a observé une autre tendance claire : « plus le contenu est politiquement extrême, plus il est susceptible d'être partagé sans être consulté ». Cette tendance s'est vérifiée pour les utilisateurs de tout le spectre politique. En d'autres termes, que le contenu soit fortement libéral ou conservateur, il a attiré davantage de partages superficiels que le contenu neutre. Cela pourrait expliquer l'impact des médias sociaux sur les élections dans le monde.

Les utilisateurs étaient plus enclins à partager des contenus correspondant à leurs convictions politiques. Par exemple, les libéraux étaient plus enclins à partager des contenus de gauche sans cliquer, tandis que les conservateurs étaient plus enclins à partager des contenus de droite. Cela suggère que les utilisateurs s'appuient sur les titres qui confirment leurs préjugés existants, ce qui peut ensuite les dispenser de s'intéresser à l'ensemble du contenu.

Citation Envoyé par Shyam Sundar

Plus le contenu est politiquement extrême, plus il est partagé sans avoir été cliqué au préalable. C'est vrai pour l'extrême gauche comme pour l'extrême droite. Comme nous le savons, les opinions tranchées et les commentaires tendancieux ont tendance à se multiplier aux extrêmes de l'échiquier politique. Il y a donc plus de place pour les infox et les théories du complot qui se font passer pour des informations légitimes dans les domaines d'actualité politiquement extrêmes.
La grande majorité des 2 969 fausses URL provenaient de domaines d'information conservateurs et, sans surprise, l'équipe a constaté que les conservateurs étaient cinq fois plus susceptibles que les libéraux de partager ces liens, le plus souvent sans cliquer dessus et sans lire d'abord les fausses histoires.

Selon le professeur Shyam Sundar, cette tendance suggère que « si des utilisateurs politiquement partisans voient un titre qui semble correspondre à leur idéologie politique, ils partageront volontiers l'article sans prendre la peine de vérifier si l'information contenue dans la page liée est vraiment vraie ».

Analyse critique de l'étude

L'étude met en évidence une tendance critique dans la manière dont les utilisateurs des médias sociaux interagissent avec le contenu. Mais elle a ses limites. Elle s'est appuyée sur des données agrégées, ce qui signifie que l'équipe n'a pas pu observer directement les comportements des utilisateurs individuels. Certains partages sans clics peuvent encore refléter des actions délibérées ; par exemple, le partage à nouveau d'un contenu familier sans le revisiter.

En outre, l'étude n'ayant porté que sur Facebook, on ne sait pas si des comportements similaires existent sur d'autres plateformes comme X (anciennement Twitter) ou Instagram. De futures recherches pourraient explorer le phénomène du partage impulsif sur une plus grande échelle et examiner comment les différents appareils, tels que les téléphones portables et les ordinateurs, influencent les habitudes de partage des utilisateurs des médias sociaux.

L'équipe estime que ces résultats ont des implications importantes pour les plateformes de médias sociaux et leurs utilisateurs. Elle suggère notamment que les interfaces des médias sociaux pourraient être repensées afin d'encourager un partage plus délibéré. Par exemple, les plateformes pourraient mettre en place des invites rappelant aux utilisateurs de lire un article avant de le partager ou fournir des indicateurs montrant si un lien partagé a été cliqué.

Ces interventions pourraient réduire la diffusion d'infox et favoriser un engagement plus réfléchi à l'égard des contenus d'actualité. « Si les médias sociaux mettent en place un avertissement qui indique que le contenu peut être faux et que les utilisateurs reconnaissent le danger que cela représente, cela pourrait aider les gens à réfléchir avant de le partager », a déclaré Shyam Sundar. (L'étude est intitulée « Sharing without clicking on news in social media ».)

Source : rapport de l'étude

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des conclusions de l'étude concernant le phénomène du partage impulsif sur les réseaux sociaux ?
Quels impacts ce phénomène pourrait-il avoir sur l'état du Web dans les années à venir ?
Selon vous, comment les plateformes de médias sociaux peuvent-elles faire face à ce phénomène ?

Voir aussi

La pandémie de la désinformation : 1,5 milliard de fake news sont publiées chaque jour sur les médias sociaux, selon ID Crypt Global. Facebook et X hébergent le plus grand nombre de contenus de désinformation

Elon Musk aurait laissé X, anciennement Twitter, se transformer en site de propagande pour l'idéologie de suprémacisme blanc. Une situation imputée à des règles de modération laxistes

Une étude montre que la désinformation se propage six fois plus vite sur Facebook qu'il y a un an, la société aurait tenté de nuire à l'étude en bannissant les chercheurs de la plateforme

Une erreur dans cette actualité ? Signalez-nous-la !