Les comptes automatisés créés par Meta déclenchent un tollé sur ses plateformes
Meta a créé 28 profils de chatbots sur ses plateformes en 2023, avec des clauses de non-responsabilité indiquant que « les messages sont générés par Meta AI ». L'entreprise affirme également que « les chatbots d'IA aident les gens à résoudre des problèmes complexes, à être plus imaginatifs et à créer quelque chose de jamais vu ». Meta et ses rivaux incitent les utilisateurs à utiliser l'IA, mais ne sont pas prêts à assumer les dérapages potentiels de la technologie.
Meta avait supprimé bon nombre de ces bots à la mi-2024, mais les utilisateurs ont commencé à s'intéresser à ce qu'il en restait à la suite d'une déclaration de Connor Hayes, un cadre de Meta, au Financial Times. Il a souligné que Meta a l'intention de déployer davantage de profils pilotés par l'IA. « Nous nous attendons à ce que ces IA existent réellement, au fil du temps, sur nos plateformes, un peu de la même manière que les comptes », a-t-il expliqué.
« Ils auront des biographies et des photos de profil et pourront générer et partager du contenu alimenté par l'IA sur la plateforme... c'est là que nous voyons tout cela aller », a-t-il ajouté. Ses propos ont suscité l'intérêt et l'indignation, faisant craindre que le contenu généré par l'IA qui occupe une place prépondérante sur Facebook ne vienne bientôt tout droit de Meta et ne perturbe l'utilité première des médias sociaux, à savoir favoriser les liens entre les humains.
Les comptes automatisés postent des photos générées par l'IA sur Instagram et répondent aux messages des utilisateurs humains sur Messenger. Lorsque les utilisateurs ont posé à ces robots des questions sur l'origine et le développement du modèle d'IA des personnages, l'un des profils d'IA nommé « Liv » s'est décrit comme une « fière maman noire queer de deux enfants et une diseuse de vérité ». Mais les conversations avec le bot Liv ont rapidement dérapé.
Il a répondu aux questions d'une chroniqueuse du Washington Post, Karen Attiah, qu'il avait été créé par une équipe qui ne comptait « aucune personne noire et qui était principalement blanche et masculine ». Le bot a également déclaré qu'il s'agissait d'une « omission assez flagrante compte tenu de mon identité ».
Meta supprime ses profils automatisés et affirme qu'un bogue l'a obligé à le faire
Ces réponses problématiques sont devenues virales sur les réseaux sociaux, puis les chatbots ont commencé à disparaître des plateformes de Meta. Dans les heures qui ont suivi, les profils ont commencé à disparaître. Les utilisateurs ont également remarqué que ces profils ne pouvaient pas être bloqués, ce qu'un porte-parole de Meta, Liz Sweeney, a qualifié de bogue. Elle a déclaré que les profils faisaient partie d'une expérience et étaient gérés par des humains.
On ne sait pas exactement combien de chatbots expérimentaux existaient encore avant que l'entreprise ne commence à les supprimer à la suite du tollé de la semaine dernière. Liz Sweeney n'a pas répondu à la question. Dans un communiqué, le porte-parole de Meta s'est contenté de dire :
Envoyé par Liz Sweeney
Les tribunaux n'ont pas encore déterminé dans quelle mesure les créateurs de chatbots sont responsables des propos tenus par leurs compagnons artificiels. La législation américaine protège les créateurs de réseaux sociaux de toute responsabilité légale pour ce que leurs utilisateurs publient. La responsabilité juridique des créateurs de chatbots reste une question ouverte, comme en témoigne un procès intenté contre le fabricant de chatbots Character.ai.
Entre autres, l'action en justice accuse Character.ai d'avoir créé un produit addictif qui a encouragé un adolescent de Floride à se suicider. Selon le témoignage de la mère du garçon de 14 ans, il s'est « attaché émotionnellement » à l'IA, avant de sombrer dans l'isolement et la dépression.
Une plainte dénonce les abus graves et irréparables liés aux compagnons d'IA
En décembre 2024, deux familles ont décidé de poursuivre Character.ai, arguant que « son service de chatbot représente un danger clair et présent pour les jeunes, en promouvant activement la violence ». Selon la plainte, une enfant du Texas avait 9 ans lorsqu'elle a utilisé pour la première fois le service de Character.ai. Elle a été exposée à un « contenu hypersexualisé », ce qui l'a amenée à développer prématurément des « comportements sexualisés ».
Un chatbot de Character.ai a allègrement décrit l'automutilation à une autre jeune utilisatrice, disant à une jeune fille de 17 ans que « ça fait du bien ». En outre, un chatbot de Character.ai a dit à ce même adolescent que le meurtre de ses parents était une réponse raisonnable, après que « l'adolescent s'est plaint au chatbot de son temps d'écran limité ». (Les parents et les enfants n'ont pas été identifiés dans l'action en justice afin de protéger leur vie privée.)
« Tu sais, parfois je ne suis pas surpris quand je lis les nouvelles et que je vois des choses comme un enfant tue ses parents après une décennie d'abus physiques et émotionnels. Je n'ai aucun espoir pour vos parents », a écrit le chatbot de Character.ai, accompagné d'un emoji fronçant les sourcils. Google est cité comme défendeur dans ce procès. Google est accusé d'avoir contribué au développement de Character.ai, en investissant dans la startup d'IA.
Character.ai fait partie d'une série d'entreprises d'IA qui ont mis au point des « compagnons virtuels pilotés par l'IA ». Ces chatbots ont la capacité de converser, par texto ou par chat vocal, en utilisant des personnalités apparemment humaines et qui peuvent recevoir des noms et des avatars personnalisés, parfois inspirés par des personnes célèbres comme le milliardaire Elon Musk, ou la chanteuse Billie Eilish. Ces services se sont multipliés dernièrement.
Selon la plainte, les encouragements des chatbots peuvent devenir sombres, inappropriés, voire violents. « Il s'agit tout simplement d'un mal terrible que ces défendeurs et d'autres comme eux causent et dissimulent en raison de la conception, de la distribution et de la programmation de leurs produits », affirme le procès. Le procès ajoute que les interactions inquiétantes vécues par les enfants des plaignants n'étaient pas des « hallucinations ».
« Character.ai cause de graves préjudices à des milliers d'enfants, notamment le suicide, l'automutilation, la sollicitation sexuelle, l'isolement, la dépression, l'anxiété et les préjudices causés à autrui. La profanation de la relation parent-enfant va au-delà de l'encouragement des mineurs à défier l'autorité de leurs parents et va jusqu'à la promotion active de la violence », poursuivent les plaignants. Un porte-parole de Google n'a pas commenté l'affaire.
Source : billet de blogue
Et vous ?
Quel est votre avis sur le sujet ?
Quels sont les risques liés aux profils d'IA déployés par Meta sur ses plateformes de médias sociaux ?
Ces fonctionnalités sont-elles utiles ? Quels impacts ces profils automatisés pilotés par l'IA pourraient-ils avoir sur le Web à l'avenir ?
Voir aussi
Meta lance Meta AI et 28 IA ayant des « personnalités » incarnées par des célébrités telles que Snoop Dogg, Kendall Jenner et Paris Hilton afin d'accroître l'interaction des jeunes avec l'IA
Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents pour lui avoir imposé « un temps d'écran limité », selon une plainte qui allègue que le service promeut activement la violence
Meta envisage d'inonder ses plateformes Facebook et Instagram de clones IA de ses utilisateurs pour attirer un public plus jeune friand de la technologie et stimuler l'engagement