IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Meta avait une politique de tolérance de 17 incidents liés au trafic sexuel avant suspension de compte
Selon l'ancienne responsable de la sécurité et du bien-être de l'entreprise

Le , par Stéphane le calme

79PARTAGES

7  0 
Meta avait une politique de tolérance de 17 incidents liés au trafic sexuel avant suspension de compte,
selon l'ancienne responsable de la sécurité et du bien-être de l'entreprise

Meta est visée par une importante action collective initiée par des districts scolaires aux États-Unis. Ces plaignants soutiennent que la plateforme a failli à protéger les mineurs, tant du point de vue de la santé mentale que de la sécurité face à l’exploitation sexuelle. Un dossier récemment mis sous scellé puis partiellement rendu public met en avant des documents internes, des témoignages d’anciens dirigeants et des communications internes de la société.

Parmi les accusations, l’un des éléments les plus marquants est le témoignage selon lequel Meta aurait appliqué une règle de « 17 chances » dans les cas de comptes liés au trafic sexuel. D’après ce témoignage, émanant de l’ex-responsable de la sûreté et du bien-être chez Meta, Vaishnavi Jayakumar, un certain volume de violations — jusqu’à seize — était toléré avant que la dix-septième ne déclenche la suppression du compte


Meta aurait donné 16 chances aux comptes impliqués dans le « trafic d'êtres humains à des fins sexuelles » avant de les suspendre, selon le témoignage de l'ancienne responsable de la sécurité et du bien-être de l'entreprise, Vaishnavi Jayakumar. Ce témoignage, ainsi que plusieurs autres allégations selon lesquelles Meta ignorait les problèmes s'ils augmentaient l'engagement, ont été révélés dans un dossier judiciaire non expurgé lié à un procès sur la sécurité des enfants sur les réseaux sociaux intenté par des districts scolaires à travers les États-Unis.

« Cela signifie que vous pouviez commettre 16 infractions pour prostitution et sollicitation sexuelle, et qu'à la 17e infraction, votre compte était suspendu », a déclaré Jayakumar lors de sa déposition. Elle a ajouté que cela « constituait un seuil très élevé » selon « toutes les normes du secteur », selon le procès. Des documents internes « confirment » également cette politique, affirment les avocats.

Le dossier non expurgé révèle d'autres accusations troublantes, notamment que Meta « ne disposait pas d'un moyen spécifique » permettant aux utilisateurs d'Instagram de signaler les contenus pédopornographiques (CSAM) sur la plateforme. Lorsque Jayakumar en a pris connaissance, elle aurait « soulevé cette question à plusieurs reprises », mais on lui aurait répondu que cela représenterait trop de travail à mettre en place et à examiner les signalements.

Bien que Meta ait récemment remporté sa bataille antitrust contre la Commission fédérale du commerce, l'entreprise fait face à une pression réglementaire et juridique croissante concernant la sécurité des enfants sur la plateforme. Le dossier non expurgé fait partie d'un procès massif intenté contre Meta, TikTok, Google et Snapchat par des dizaines de districts scolaires, de procureurs généraux et de parents, qui les accusent de contribuer à une « crise de santé mentale » en exploitant des plateformes « addictives et dangereuses ». Le PDG de Meta, Mark Zuckerberg, a déclaré l'année dernière qu'il estimait qu'il n'y avait « aucun lien de causalité » entre les réseaux sociaux et la santé mentale des adolescents.

Le dossier révèle plusieurs cas dans lesquels Meta est accusée d'avoir minimisé les inconvénients de ses plateformes afin de favoriser l'engagement. En 2019, Meta a envisagé de rendre tous les comptes d'adolescents privés par défaut afin de les empêcher de recevoir des messages indésirables ; cependant, l'entreprise aurait rejeté cette idée après que l'équipe chargée de la croissance ait estimé qu'elle « risquait de nuire à l'engagement ». Meta a commencé à mettre les adolescents sur Instagram dans des comptes privés l'année dernière.

Le procès affirme également que, bien que les chercheurs de Meta aient constaté que le fait de masquer les mentions « J'aime » sur les publications rendrait les utilisateurs « nettement moins susceptibles de se sentir mal dans leur peau », l'entreprise a renoncé à ce projet après avoir constaté qu'il avait « un impact assez négatif sur les indicateurs de performance de Facebook ». Meta est également accusée d'avoir réintroduit les filtres beauté en 2020, alors même qu'elle avait constaté qu'ils « encourageaient activement les jeunes filles à développer une dysmorphie corporelle ». La suppression des filtres aurait pu avoir « un impact négatif sur la croissance, tout simplement parce que toute restriction est susceptible de réduire l'engagement si les gens vont voir ailleurs », a déclaré Meta, selon la plainte.

« Nous sommes en total désaccord avec ces allégations, qui s'appuient sur des citations choisies de manière sélective et des opinions erronées dans le but de présenter une image délibérément trompeuse », a déclaré Andy Stone, porte-parole de Meta, dans un communiqué. « Le dossier complet montrera que depuis plus de dix ans, nous avons écouté les parents, étudié les questions les plus importantes et apporté de réels changements pour protéger les adolescents, comme l'introduction de comptes pour adolescents avec des protections intégrées et la mise à disposition des parents de contrôles pour gérer l'expérience de leurs adolescents. »


Meta attaqué en justice par 41 États US qui estiment qu'Instagram et Facebook créent une dépendance et nuisent aux enfants

En 2023, les procureurs généraux de 41 États et du district de Columbia ont poursuivi Meta. La plainte allègue que Meta utilise secrètement des fonctionnalités de conception qui exploitent et capitalisent délibérément sur les vulnérabilités uniques des jeunes utilisateurs et surmontent la capacité des jeunes à autoréguler leur temps passé sur sa plateforme. Ces fonctionnalités incluent le « défilement infini », les notifications et alertes quasi constantes, les Story et les Reel à lecture automatique, des fonctionnalités conçues pour créer un sentiment de « FOMO » (peur de rater quelque chose) et des mécanismes de « récompenses variables intermittentes » similaires à ceux utilisés par machines à sous.

Ces fonctionnalités ont été conçues et déployées dans le but d'inciter les jeunes utilisateurs à passer le plus de temps possible sur la plateforme, de les attirer à revenir lorsqu'ils tentent de s'arrêter et de submerger leur capacité à contrôler ou réguler leur propre utilisation, avec des conséquences significatives et concernant les impacts négatifs sur le développement cérébral et la santé mentale des adolescents utilisateurs.

La plainte allègue en outre que Meta savait que ces fonctionnalités avaient des impacts néfastes et négatifs sur les jeunes utilisateurs - mais au lieu de prendre des mesures pour atténuer ces dommages, elle a choisi d'induire le public en erreur, vantant la sécurité de ses plateformes pour les jeunes et affirmant qu'elle donne la priorité au bien-être des jeunes utilisateurs. De nombreux documents et communications internes montrent que Meta, y compris ses plus hauts dirigeants, étaient conscients que certaines fonctionnalités d'Instagram incitaient les jeunes utilisateurs à une utilisation addictive et habituelle de ses plateformes. Au lieu de donner la priorité au bien-être des jeunes utilisateurs – comme elle l’a publiquement affirmé – Meta a choisi à plusieurs reprises et délibérément de ne pas mettre en œuvre de mesures ni de concevoir des changements dont elle savait qu’elles pourraient réduire les méfaits et améliorer le bien-être des jeunes utilisateurs.

De plus, la plainte allègue que malgré les affirmations de Meta selon lesquelles les enfants de moins de 13 ans ne sont pas autorisés sur Instagram et n’utilisent pas la plateforme, les dossiers internes montrent qu’ils le font. Meta a permis à ces utilisateurs mineurs de rester sur sa plateforme tout en sachant que sa nature nocive avait le plus grand impact sur ses utilisateurs les plus jeunes. Des documents internes révèlent que l’entreprise savait que ses mesures visant à garder les utilisateurs de moins de 13 ans étaient inefficaces et n’étaient pas appliquées de manière significative, mais qu’elle a décidé de ne pas utiliser ou investir dans des mesures de vérification de l’âge plus efficaces, car cela affecterait la croissance et les revenus de l’entreprise.


Meta a conçu ses plateformes de manière à rendre les jeunes utilisateurs dépendants en exploitant les faiblesses connues du cerveau des enfants

Une présentation interne de Meta datant de 2020 montre que l'entreprise a cherché à concevoir ses produits de manière à tirer parti des aspects de la psychologie des jeunes qui rendent les adolescents prédisposés à l'impulsion, à la pression des pairs et à un comportement à risque potentiellement dangereux. La présentation rend compte des observations de Meta sur les conditions suscitant la sécrétion de la dopamine chez les jeunes.

Meta décrit son produit existant comme étant déjà bien adapté pour fournir le type de stimuli qui déclenchent le puissant neurotransmetteur. La présentation indique : « les adolescents sont insatiables lorsqu'il s'agit d'effets dopaminergiques. Et chaque fois qu'un de nos utilisateurs adolescents trouve quelque chose d'inattendu, son cerveau lui fournit une dose de dopamine ». Citant des notes internes, la plainte allègue en effet que les cadres de Meta qui traitent les questions liées au bien-être des jeunes avaient conscience des dangers potentiels. Ils ont reconnu que les problèmes de bien-être étaient particulièrement prononcés chez les jeunes adolescents.

La plainte cite un courriel datant de mai 2021 dans lequel Karina Newton, responsable de la politique d'Instagram, a expliqué : « ce ne sont pas les régulateurs ou les critiques qui pensent qu'Instagram est malsain pour les jeunes adolescents, mais tout le monde, des chercheurs aux experts universitaires en passant par les parents. Le modèle de l'application n'est pas conçu pour un groupe d'âge qui n'a pas les mêmes compétences cognitives et émotionnelles que les adolescents plus âgés ». Meta réfute ces allégations et un porte-parole a déclaré : « la plainte dénature notre travail en utilisant des citations sélectives et des documents triés sur le volet ».

La plainte fait écho aux affirmations de longue date selon lesquelles Meta a sciemment créé des produits addictifs et nocifs pour les enfants. Ces affirmations ont été mises en lumière par la lanceuse d'alerte américaine Frances Haugen, qui a révélé que des études internes de Meta montraient que des plateformes comme Instagram conduisaient les enfants vers des contenus liés à l'anorexie. Elle a également déclaré que l'entreprise ciblait intentionnellement les enfants de moins de 18 ans. Ancienne employée de Meta, Haugen a divulgué des dizaines de milliers de documents internes de la du géant des réseaux sociaux au Wall Street Journal en 2021.


Conséquences pour la modération numérique à grande échelle

Au-delà de Meta, cette affaire invite à un examen plus large de la modération dans les plateformes numériques. Trois dimensions méritent d’être repensées.

D’abord, la transparence des politiques internes : les utilisateurs, les régulateurs et les chercheurs devraient pouvoir savoir non seulement ce qui est interdit mais aussi comment les seuils d’application sont définis, auditables ou modifiables.

Ensuite, la place de l’humain dans les chaînes de modération : l’IA montre ses limites notamment dans des contextes de trafic humain ou d’exploitation. Le recours à des modérateurs humains spécialisés reste indispensable mais coûteux. Le modèle économique des plateformes peut dissuader d’investir à l’échelle nécessaire.

Enfin, l’alignement entre modèle économique et responsabilité sociale. Quand une plateforme dépend de métriques d’engagement, chaque friction (liaison à la modération stricte) est un risque. La question est : jusqu’à quel point les entreprises acceptent-elles de réduire l’engagement pour renforcer la sécurité ?

Conclusion : un point d’inflexion pour la gouvernance des plateformes

Ce qui semble être une politique interne spécifique à Meta pourrait devenir un élément de doctrine pour l’ensemble de l’écosystème numérique. Lorsque la modération tolère jusqu’à dix-six violations avant action, la frontière entre incapacité technique et choix stratégique se floute. Pour les professionnels de l’IT, cette affaire constitue un cas d’étude majeur : comment concilier croissance, innovation et sécurité, en gardant l’utilisateur au centre plutôt que l’algorithme.

Meta affirme avoir tourné la page de ce seuil élevé mais le débat est lancé : la modération à grande échelle n’est pas juste une question de technologie, mais de gouvernance, d’éthique et de responsabilité.

Source : dossier Meta non expurgé

Et vous ?

Comment une plateforme qui revendique l’usage d’algorithmes avancés peut-elle justifier un seuil aussi élevé de tolérance pour des infractions liées à la traite humaine ?

Si une politique interne de tolérance a permis à des trafiquants de rester actifs plus longtemps, faut-il redéfinir la responsabilité des plateformes dans les infractions commises sur leurs services ? La protection quasi absolue dont bénéficient les acteurs numériques doit-elle être révisée pour des cas d’une telle gravité ?

Le modèle publicitaire basé sur l’engagement ne crée-t-il pas un biais systémique qui pousse les plateformes à minimiser les frictions, même lorsqu’il s’agit de comportements criminels graves ? Peut-on imaginer un modèle social où la sécurité prime réellement sur le volume et l’activité ?
Vous avez lu gratuitement 379 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/02/2026 à 11:01
Citation Envoyé par Artaeus Voir le message
Les droits fondamentaux et libertés des individus doivent être respectées.
Bullshit!

1. Le RESPECT commence par celui que l'on doit envers les autres et pas ce que vous considérer comme une "liberté des individus"!

2. Ses propres DROITS se terminent quand ils empiètent sur ceux des autres!

Est-ce un droit fondamental et une liberté individuelle de se droguer ou d'avoir 2 grammes d'alcool dans le sang et de prendre le volant pour finir par tuer des usagers de la route qui n'avaient rien demandé?
7  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 18/02/2026 à 0:00
Après 16 heures de connexion sur 24h, il reste 8 heures

Ces 8 heures qui sont la durée moyenne de sommeil conseillée par le monde médical pour les adultes mais avant tout pour les ados.

24 heures - 16 h de connexion - 8 h de sommeil = ?

Ben 0 mon bon monsieur! 0 heure pour boire/manger, se laver, se nourrir, discuter avec son entourage, etc, etc, etc... En résumé: Vivre sa vie, vivre dans le monde réel!!!!!!!!!!!!!!!!!!!!

Mais être connecté 16 h par jour, cela ne relève pas de l'addiction

Je l'avais écrit il y a quelques temps, la totalité des CEO des GAFAM & Cie sont des tarés qui démontrent, chaque fois qu'ils ouvrent la bouche, leur total déconnexion du monde réel...
5  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 25/02/2026 à 10:04
Citation Envoyé par Artaeus Voir le message
Suis-je dangereux pour les autres parce que j'accède à un réseau social qui a une interface "addictive" (sur quel critère d'ailleurs) ? Est-ce qu'un réseau social est dangereux car l'interface est "addictive" ?
Oui, quand tu consulte ton RS au volant.
Oui, quand tes enfants te voient passer des heure sur ton RS et qu'il suivent ton exemple.
Oui, quand tu es tellement absorbé par ton RS que tu ne vois pas ton gosse qui s'étouffe ou qui joue avec des allumettes.
Oui, quand tu es tellement absorbé par ton RS que tu ne prends même plus la peine de regarder avant de traverser la rue.
Oui, quand tu traines sur ton RS au lieu de faire ton boulot, cela a des conséquences pour la boite qui t'emploie.
etc.
5  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 12/02/2026 à 15:14
Sur youtube j'ai bloqué quasiment tout le contenu de la page sauf le player.
Non seulement la page charge plus vite mais en plus on est quitte de subir les suggestions infernales.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 11/02/2026 à 12:08
Roooooooooooooh! Tout de suite les grands mots... Quelle addiction?

Quand je vois des couples ou des collègues mangeant au resto en tête-à tête, ne s'échangeant pas un seul mot, les 2 ayant le nez planté sur leur smartphone,

la populace se promener dans la rue, le smartphone en main comme un "doudou" (perso, j'ai arrêté de me promener avec mon ours en pluche préféré à 1 an et demi),
les idiots se jeter sous les roues de ma voiture en traversant la route sans même lever un oeil de leur écran
ou encore les open-space où on entend sonner toutes les 10 secondes une sonnerie de smartphone annonçant la dernière news qui va changer le monde...

... On se demande bien comment certains peuvent conclure à de l'addiction
3  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 12/02/2026 à 16:13
Je dois être chanceux mais je n'ai jamais eu une seule pub sur youtube (firefox + uBlock origin).

Et sinon, un coup de shell avec :
Code : Sélectionner tout
yt-dlp url_de_la_video
3  0 
Avatar de JackIsJack
Membre éclairé https://www.developpez.com
Le 15/02/2026 à 7:16
Les shorts sont vraiment de la m* addictive et qui affaiblie le cerveau à petit feu. Heureusement il y a une extension Chrome pour rendre invisible tous les shorts sur youtube.

Sinon j'utilise (et paie) Blocksite pour bloquer l'accès à youtube lorsque je veux rester concentré. Le déblocage nécessite un mot de passe assez long. Cela n'empêche pas ponctuellement de regarder une vidéo sur un thème précis en passant par la recherche de vidéo google et dans un lecteur intégré (si la vidéo le permet).

Pour moi c'est clair que Youtube peut avoir une tendance addictive dans la mesure où je pouvais y aller, me sentir moins bien après y être aller (sensation de lassitude, écoeurement) et pourtant y revenir après comme si le cerveau n'avait pas eu sa dose de micro-satisfaction.
3  0 
Avatar de JackIsJack
Membre éclairé https://www.developpez.com
Le 22/02/2026 à 21:44
On commence enfin à nommer ces comportements addictifs au même titre que les jeux d'argents. Ils isolent et contribut à l'instabilité psychologique... Les gens le savent, les médecins le savent, les entreprises qui les gèrent le savent également... Il ne reste que l'Etat !
3  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 23/02/2026 à 12:36
Citation Envoyé par Artaeus Voir le message
Ce procès est d'une mauvaise foi indécente :
- Vous ouvrez un magazine pour enfant, vous avez des pubs ciblant les enfants.
- Vous allumez la TV, vous avez des pubs ciblant les enfants (programme pour enfants).
- Vous vous promenez dans la rue, vous avez des pubs ciblant les enfants (Noël, fêtes, jouets).

Bref, que les parents soient responsables, un enfant n'a pas à trainer seul sur Internet !
Les parents sont tout autant soumis à l'addiction que leur enfants!!!

Et donc le docteur Artaeus considère que ce sont des drogués qui vont limiter l'usage de la drogue???
3  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 23/02/2026 à 16:40
Artaeus -> Quand des multinationales demandent spécifiquement à des neurologues/sociologues de travailler le design et les mécanismes d'un logiciel ou d'un site internet pour exploiter au maximum les biais cognitifs des utilisateurs dans le seul but de les rendre captifs et dépendants, oui il faut réguler. Soit tu interdis ces pratiques à la conception, soit tu régules l'accès aux outils qui ont été conçus dans le seul objectif de baiser la gueule du plus grand nombre utilisateurs. T'as pas remarqué qu'on n'avait jamais fait ce genre de reproche à Word ou à Gimp ? Ça te vient pas à l'esprit qu'il puisse y avoir une raison à ça ?
Ça n'a rien à voir avec une atteinte à tes libertés fondamentales.
Enfin si, justement : en mettant des bâtons dans les roues de ces multinationales et de leurs pratiques pernicieuses, on protège les utilisateurs les plus faibles. T'as qu'à passer un coup de fil à un addictologue et lui demander ce qu'il en pense.

La santé n'a pas à être prétexte à toutes les mesures liberticides comme ce fut le cas il y a quelques années avec le Covid.
T'es allé faire un tour dans une maison de retraite ou dans un service hospitalier pendant le covid ?
T'as des potes médecins ou infirmiers ? T'as débriefé avec eux ? Ils t'ont parlé de ce qu'ils ont vécu ?
Oui la crise a été très mal gérée et c'était déjà très mal parti avant même le premier contaminé (on était en train d'incinérer nos stocks de masques quand la pandémie a commencé). On ne parlera même pas de la qualité de la communication de nos politiciens qui étaient complètement paumés/cons.
D'un autre côté, on ne pouvait pas connaître les conséquences de la maladie. Demander à la population de rester chez elle pour préserver les plus faibles, on appelle ça de la restriction de liberté ou bien de la bienveillance envers les plus faibles, ça dépend du point de vue qu'on décide d'adopter.
Y'a des plus de 60/70 ans dont tu te sens proche ? T'es allé leur claquer la bise pendant le confinement ? Tu leur recommandes de ne pas se faire vacciner contre la grippe ?
Oui, c'est sûr, la façon dont le confinement a été mis en place et les réactions des populations vont être épluchées par des sociologue et les dirigeants vont se faire un plaisir de lire ces études pour voir à quel point on peut manipuler une foule. Mais tu as l'air de penser que ces décisions ont été prises dans le seul but de te nuire : faut quand même faire preuve d'un certain égoïsme pour en arriver là, non ?

Moi non plus je les ai pas bien vécus les confinements. Mais si tu crois que tu peux qualifier ça de restriction de liberté fondamentale injustifiée, patiente encore un peu et tu verras que ton mètre étalon va prendre un sacré coup dans la gueule.
Et si t'es vraiment impatient, regarde ce qui se passe dans d'autre régions du monde tous les jours de l'année, crise sanitaire ou non. Ou bien ce qui s'est passé pour les générations passées. Les exemples ne manquent pas.

Edit :
Citation Envoyé par Artaeus
Ce procès est d'une mauvaise foi indécente :
- Vous ouvrez un magazine pour enfant, vous avez des pubs ciblant les enfants.
- Vous allumez la TV, vous avez des pubs ciblant les enfants (programme pour enfants).
- Vous vous promenez dans la rue, vous avez des pubs ciblant les enfants (Noël, fêtes, jouets).

Bref, que les parents soient responsables, un enfant n'a pas à trainer seul sur Internet !
Tu fais semblant de ne pas comprendre la différence avec le sujet traité dans cette actualité ou bien t'as vraiment pas compris ? (pas de condescendance, c'est une vraie question).
4  1