Meta supprime également les restrictions sur les discours concernant des sujets tels que l'immigration, l'identité sexuelle et le genre. L'entreprise affirme que la modération et la vérification des faits sont devenues des sujets très politisés. « Les gouvernements et les médias traditionnels ont poussé à censurer de plus en plus. Une grande partie de ce phénomène est clairement politique », a déclaré le PDG de Meta, Mark Zuckerberg, dans une vidéo explicative.
Une décision controversée et un tollé général
Cette modification des politiques de contenu de Meta marque un revirement fort pour une entreprise qui s’est historiquement positionnée comme un champion de l’inclusion et de la diversité. Alors que les discours de haine sont généralement bannis des plateformes comme Facebook et Instagram, cette nouvelle directive semble créer une exception ciblant directement la communauté LGBTQ+.
Les critiques n’ont pas tardé à pleuvoir. Des défenseurs des droits humains, des associations LGBTQ+ et des personnalités publiques ont dénoncé une mesure discriminatoire qui risque d’aggraver la stigmatisation et les violences envers ces communautés.
La révolte des employés : « C’est le chaos total »
En interne, la situation est explosive. Des centaines d’employés ont exprimé leur opposition à cette décision, certains allant jusqu’à organiser des protestations silencieuses et des discussions collectives pour dénoncer l’inaction de la direction face aux préoccupations soulevées. Selon des témoignages anonymes recueillis, l’ambiance au sein de l’entreprise est décrite comme « chaotique », les employés se sentant trahis par une décision qu’ils jugent contraire aux valeurs fondamentales de Meta.
« Je suis LGBT et atteint d'une maladie mentale », peut-on lire dans un message posté par un employé sur une plateforme Meta interne appelée Workplace. « Juste pour vous faire savoir que je vais prendre du temps pour m'occuper de ma santé mentale ».
Les initiatives internes, telles que les groupes de soutien aux employés LGBTQ+, ont également redoublé d’efforts pour faire entendre leur voix. Des pétitions circulent et des appels à revenir sur cette décision se multiplient.
Lundi, Mark Zuckerberg a annoncé que l'entreprise allait « revenir à ses racines en matière de liberté d'expression » pour permettre « plus de discours et moins d'erreurs ». L'entreprise a déclaré « nous nous débarrassons d'un certain nombre de restrictions sur des sujets comme l'immigration, l'identité sexuelle et le genre qui font l'objet de discours et de débats politiques fréquents. » Un examen des politiques officielles de modération du contenu de Meta montre, en particulier, que certains des seuls changements substantiels apportés à la politique ont été faits pour autoriser spécifiquement les « allégations de maladie mentale ou d'anormalité lorsqu'elles sont fondées sur le genre ou l'orientation sexuelle ».
Un autre fil de discussion sur le site interne Workplace de Meta, qui compte plusieurs centaines de commentaires et plus d'un millier de réactions, se lit comme suit : « [feedback] L'orientation sexuelle et le genre en tant que maladie mentale... J'aimerais avoir plus de détails sur les points suivants : Comment la décision a été prise de mettre à jour la politique, en particulier parce qu'elle ne reflète aucun consensus scientifique général ; Comment la politique reflète nos valeurs et nos perspectives en tant qu'entreprise, et si elles sont différentes des valeurs que nous avons exprimées dans le passé ; Qui (le cas échéant) les groupes LGBT [internes ou externes] ont été consultés dans le cadre de ce changement. »
Un membre de l'équipe chargée de la politique a déclaré aux employés dans le fil de discussion que « nos valeurs fondamentales n'ont pas changé ».
« Les changements apportés à notre politique en matière de conduite haineuse visent à éliminer la dérive de la mission qui a rendu nos règles trop restrictives et trop susceptibles d'être appliquées de manière excessive », ont-ils écrit dans un fil de discussion avec les employés. « Réaffirmer notre valeur fondamentale de liberté d'expression signifie que nous pourrions voir sur nos plateformes des contenus que les gens trouvent offensants [...] Les changements d'hier non seulement ouvrent la conversation sur ces sujets, mais permettent aussi de contre-argumenter sur ce qui compte pour les utilisateurs ».
D'autres commentaires incluent :
- « J'ai beaucoup de mal à comprendre comment le fait de définir explicitement quels groupes de personnes marginalisées peuvent être victimes de ce que nous considérons comme un discours de haine peut être bénéfique pour les communautés que nous espérons construire sur nos plates-formes.
- « Ce changement est inacceptable à tous les niveaux.
- « Quelqu'un s'est penché sur cette politique et n'a pas seulement supprimé la protection, il l'a en fait *doublée* et l'a rendue explicitement acceptable. C'est complètement fou. »
- « J'ai dû relire plusieurs fois le libellé de la politique pour croire ce que je voyais - une déclaration très claire selon laquelle nous acceptons que des personnes attaquent d'autres personnes en raison de leur orientation sexuelle ou de leur identité de genre. Je n'arrive pas à comprendre pourquoi nous pensons que c'est acceptable ou utile pour notre communauté et la mission de notre entreprise. Je n'ai jamais eu autant le sentiment que nous sommes du mauvais côté de l'histoire. Cela va causer beaucoup de tort. S'il vous plaît, reconsidérez ce changement.
- « Lorsque j'ai commencé à travailler dans cette entreprise, les gens me critiquaient tout le temps parce que je travaillais ici. Je vous ai défendu maintes et maintes fois, en insistant toujours sur le fait qu'en fin de compte, nous faisons de notre mieux, même si cela ne marche pas toujours - mais là ? c'est épouvantable. »
- « Je pense qu'il est clair que l'équipe politique n'est pas ouverte à un quelconque retour d'information et qu'elle est engagée dans un projet idéologique qui sacrifie certaines de nos communautés afin d'atteindre son objectif », a écrit un employé. « Traitez-moi de travelo et mettez fin à la discussion. Au moins, ce serait honnête ».
Discussion interne introuvable
D'autres employés ont souligné qu'ils ne pouvaient pas trouver de discussion interne sur la manière dont les nouveaux changements ont été apportés. Dans le fil de discussion, les employés ont indiqué qu'ils ne pouvaient pas trouver d'informations sur la manière dont la politique a été élaborée et sur les personnes qui ont été consultées.
« Les employés ont déclaré qu'ils ne pouvaient pas trouver d'informations sur la façon dont la politique a été créée et sur les personnes qui ont été consultées ».
« J'en ai cherché un et je ne l'ai pas trouvé non plus », a répondu une autre personne.
« L'équipe politique peut-elle également expliquer pourquoi l'entreprise n'a pas préparé de réponse à une question qui aurait manifestement un impact aussi important en interne et en externe sur les employés/utilisateurs qui appartiennent à ces catégories ? »
Un quatrième a déclaré : « Les changements apportés à la politique de Meta doivent être réfléchis et faire l'objet d'une consultation approfondie de la part d'analystes politiques, de juristes et d'autres experts en la matière. Ces changements devraient être justifiés par des documents, de préférence accessibles au public. À tout le moins, Meta devrait être en mesure d'expliquer à ses employés pourquoi il est désormais acceptable de traiter un grand nombre d'entre eux de malades mentaux ou de les qualifier de "biens" ou de "choses" ».
Un impact potentiel sur l’image de Meta
Au-delà des répercussions internes, cette controverse pourrait nuire considérablement à la réputation de Meta. Déjà sous le feu des critiques pour ses pratiques en matière de données personnelles et de modération de contenu, l’entreprise risque de perdre la confiance de millions d’utilisateurs qui attendent des politiques respectueuses et inclusives.
Les investisseurs pourraient également réagir négativement, voyant dans cette polémique un risque pour la stabilité de l’entreprise et son attractivité sur le marché. Par ailleurs, des campagnes de boycott pourraient émerger, renforçant encore la pression sur Meta pour rectifier le tir.
Une direction silencieuse face à la tempête
Pour l’instant, Mark Zuckerberg et les autres dirigeants de Meta ont maintenu un silence relatif, évitant les commentaires publics sur cette décision controversée. Cependant, ce mutisme pourrait se retourner contre eux, alors que la crise continue de s’aggraver.
Meta se débarrasse de son programme controversé de vérification des faits
Dans le cadre d'un certain nombre de changements radicaux qui modifieront considérablement la façon dont les posts, les vidéos et autres contenus sont modérés en ligne, Meta va ajuster ses politiques d'examen des contenus sur ses plateformes, en se débarrassant des vérificateurs des faits tiers. L'opérateur de Facebook, Instagram et Threads a récemment fait marche arrière en ce qui concerne la modération, et sa vérification des faits a toujours été controversée.
« Il n'est pas normal que des choses puissent être dites à la télévision ou au Congrès, mais pas sur nos plateformes », a écrit Joel Kaplan, le nouveau responsable des affaires internationales de Meta, dans un billet de blogue décrivant les changements. Dans une vidéo d'accompagnement, le PDG de Meta, Mark Zuckerberg, a déclaré que les règles que l'entreprise applique actuellement dans ces domaines sont « tout simplement déconnectées du discours dominant ».
Meta va remplacer les vérificateurs de faits tiers par des « notes communautaires » générées par les utilisateurs, similaires à celles de X d'Elon Musk. Meta supprime également les restrictions sur les discours concernant des sujets tels que l'immigration, l'identité sexuelle et le genre, que Meta décrit comme des sujets fréquents de discours et de débats politiques. Meta affirme que la modération et la vérification des faits sont devenues des sujets trop politisés :
Meta affirme que les experts qui vérifient les faits ont leurs propres préjugés
L'intention du programme de vérification des faits par des tiers était de faire en sorte que des experts indépendants donnent aux gens plus d'informations sur les choses qu'ils voient en ligne, en particulier les canulars viraux, afin qu'ils soient en mesure de juger par eux-mêmes ce qu'ils voient et lisent. Mais selon le responsable des affaires internationales de Meta, « les experts chargés de la vérification des faits ont également leurs propres préjugés et perspectives ».
Joel Kaplan a ajouté que « le programme a fini par imposer des étiquettes intrusives et réduire la distribution de contenus que les gens considèrent comme des discours et des débats politiques légitimes ». Cette évolution a réduit la liberté d'expressions sur les plateformes de Meta. Joel Kaplan affirme que le système de notes communautaires permet à la communauté de décider quand les messages sont potentiellement trompeurs et nécessitent plus de contexte.
Maria Ressa accuse Mark Zuckerberg de donner libre cours à la haine en ligne
Maria Ressa met en garde contre les « temps dangereux » que ces changements peuvent engendrer pour le journalisme et la démocratie. Elle rejette l'argument de Meta selon lequel cette mesure vise à rétablir la liberté d'expression sur ses plateformes. « Il n'est pas normal que des choses puissent être dites à la télévision ou au Congrès, mais pas sur nos plateformes », a déclaré Joel Kaplan, responsable des affaires internationales de l'entreprise.
Pour Maria Ressa, tout ceci est « faux ». « Mark Zuckerberg dit que c'est une question de liberté d'expression ; c'est complètement faux. Ce n'est que si vous êtes motivés par le profit que vous pouvez prétendre cela ; ce n'est que si vous voulez du pouvoir et de l'argent que vous pouvez prétendre cela. Il s'agit de sécurité ».
Elle a également rejeté l'affirmation de Mark Zuckerberg selon laquelle « les vérificateurs de faits avaient été trop biaisés politiquement et avaient détruit plus de confiance qu'ils n'en ont créée ». « Les journalistes ont un ensemble de normes et d'éthique », a déclaré Maria Ressa à l'AFP, ajoutant :
« Ce que Facebook veut faire, c'est se débarrasser de cela et permettre aux mensonges, à la colère, à la peur et à la haine d'infecter chaque personne sur la plateforme. Cette décision est synonyme de période extrêmement dangereuse pour le journalisme, la démocratie et les utilisateurs de médias sociaux ».
Source : Meta
Et vous ?
Quelle est votre opinion sur le rôle des entreprises comme Meta dans la régulation des discours de haine en ligne ?
Pensez-vous qu'autoriser certains discours discriminatoires au nom de la liberté d'expression soit justifiable ? Pourquoi ou pourquoi pas ?
Selon vous, les employés de Meta ont-ils raison de protester publiquement contre cette décision ? Quelles alternatives auraient-ils pu envisager ?
Les géants technologiques ont-ils une responsabilité particulière pour défendre les droits des minorités ? Si oui, comment peuvent-ils mieux s’y engager ?
Ce type de décision influence-t-il votre confiance ou votre utilisation des plateformes de Meta comme Facebook et Instagram ? Pourquoi ?
Comment différencier liberté d'expression et discours de haine dans un contexte global et numérique ?