IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Meta supprime ses profils Facebook et Instagram pilotés par l'IA après que leurs réponses controversées sont devenues virales,
Ces chatbots sont biaisés et suscitent des craintes en matière de santé mentale

Le , par Mathis Lucas

4PARTAGES

9  0 
Meta supprime ses comptes automatisés pilotés par l'IA sur Instagram et Facebook. Les utilisateurs ont discuté avec les bots et « ces discussions ont dérapé ». Les comptes automatisés postent des photos générées par l'IA sur Instagram et répondent aux messages des utilisateurs humains sur Messenger. Mais les utilisateurs ont constaté que ces bots se décrivaient, par exemple, de manière fallacieuse comme de véritables personnes avec des identités raciales et sexuelles. Des captures d'écran des discussions des utilisateurs avec ces chatbots et des réponses controversées de ces derniers sont devenues virales, ce qui aurait incité l'entreprise à supprimer les comptes.

Les comptes automatisés créés par Meta déclenchent un tollé sur ses plateformes

Meta a créé 28 profils de chatbots sur ses plateformes en 2023, avec des clauses de non-responsabilité indiquant que « les messages sont générés par Meta AI ». L'entreprise affirme également que « les chatbots d'IA aident les gens à résoudre des problèmes complexes, à être plus imaginatifs et à créer quelque chose de jamais vu ». Meta et ses rivaux incitent les utilisateurs à utiliser l'IA, mais ne sont pas prêts à assumer les dérapages potentiels de la technologie.


Meta avait supprimé bon nombre de ces bots à la mi-2024, mais les utilisateurs ont commencé à s'intéresser à ce qu'il en restait à la suite d'une déclaration de Connor Hayes, un cadre de Meta, au Financial Times. Il a souligné que Meta a l'intention de déployer davantage de profils pilotés par l'IA. « Nous nous attendons à ce que ces IA existent réellement, au fil du temps, sur nos plateformes, un peu de la même manière que les comptes », a-t-il expliqué.

« Ils auront des biographies et des photos de profil et pourront générer et partager du contenu alimenté par l'IA sur la plateforme... c'est là que nous voyons tout cela aller », a-t-il ajouté. Ses propos ont suscité l'intérêt et l'indignation, faisant craindre que le contenu généré par l'IA qui occupe une place prépondérante sur Facebook ne vienne bientôt tout droit de Meta et ne perturbe l'utilité première des médias sociaux, à savoir favoriser les liens entre les humains.

Les comptes automatisés postent des photos générées par l'IA sur Instagram et répondent aux messages des utilisateurs humains sur Messenger. Lorsque les utilisateurs ont posé à ces robots des questions sur l'origine et le développement du modèle d'IA des personnages, l'un des profils d'IA nommé « Liv » s'est décrit comme une « fière maman noire queer de deux enfants et une diseuse de vérité ». Mais les conversations avec le bot Liv ont rapidement dérapé.

Il a répondu aux questions d'une chroniqueuse du Washington Post, Karen Attiah, qu'il avait été créé par une équipe qui ne comptait « aucune personne noire et qui était principalement blanche et masculine ». Le bot a également déclaré qu'il s'agissait d'une « omission assez flagrante compte tenu de mon identité ».

Meta supprime ses profils automatisés et affirme qu'un bogue l'a obligé à le faire

Ces réponses problématiques sont devenues virales sur les réseaux sociaux, puis les chatbots ont commencé à disparaître des plateformes de Meta. Dans les heures qui ont suivi, les profils ont commencé à disparaître. Les utilisateurs ont également remarqué que ces profils ne pouvaient pas être bloqués, ce qu'un porte-parole de Meta, Liz Sweeney, a qualifié de bogue. Elle a déclaré que les profils faisaient partie d'une expérience et étaient gérés par des humains.


On ne sait pas exactement combien de chatbots expérimentaux existaient encore avant que l'entreprise ne commence à les supprimer à la suite du tollé de la semaine dernière. Liz Sweeney n'a pas répondu à la question. Dans un communiqué, le porte-parole de Meta s'est contenté de dire :

Citation Envoyé par Liz Sweeney

Il y a confusion : le récent article du Financial Times portait sur notre vision des personnages d'IA existant sur nos plateformes au fil du temps, et non sur l'annonce d'un nouveau produit. « Les comptes mentionnés proviennent d'un test que nous avons lancé à [Meta] Connect en 2023.

Ils étaient gérés par des humains et faisaient partie d'une première expérience que nous avons menée avec des personnages d'IA. Nous avons identifié le bogue qui empêchait les gens de bloquer ces IA et nous supprimons ces comptes pour résoudre le problème.
Bien que Meta supprime ces comptes d'IA, les utilisateurs ont toujours la possibilité de créer leurs propres chatbots, avec des rôles tels que thérapeutes ou coachs relationnels. Meta émet des avertissements concernant les inexactitudes potentielles dans les messages des chatbots, mais n'a pas clarifié son processus de modération. Les utilisateurs sont encouragés à créer des compagnons d'IA, allant de « meilleurs amis fidèles » à « coachs relationnels ».

Les tribunaux n'ont pas encore déterminé dans quelle mesure les créateurs de chatbots sont responsables des propos tenus par leurs compagnons artificiels. La législation américaine protège les créateurs de réseaux sociaux de toute responsabilité légale pour ce que leurs utilisateurs publient. La responsabilité juridique des créateurs de chatbots reste une question ouverte, comme en témoigne un procès intenté contre le fabricant de chatbots Character.ai.

Entre autres, l'action en justice accuse Character.ai d'avoir créé un produit addictif qui a encouragé un adolescent de Floride à se suicider. Selon le témoignage de la mère du garçon de 14 ans, il s'est « attaché émotionnellement » à l'IA, avant de sombrer dans l'isolement et la dépression.

Une plainte dénonce les abus graves et irréparables liés aux compagnons d'IA

En décembre 2024, deux familles ont décidé de poursuivre Character.ai, arguant que « son service de chatbot représente un danger clair et présent pour les jeunes, en promouvant activement la violence ». Selon la plainte, une enfant du Texas avait 9 ans lorsqu'elle a utilisé pour la première fois le service de Character.ai. Elle a été exposée à un « contenu hypersexualisé », ce qui l'a amenée à développer prématurément des « comportements sexualisés ».

Un chatbot de Character.ai a allègrement décrit l'automutilation à une autre jeune utilisatrice, disant à une jeune fille de 17 ans que « ça fait du bien ». En outre, un chatbot de Character.ai a dit à ce même adolescent que le meurtre de ses parents était une réponse raisonnable, après que « l'adolescent s'est plaint au chatbot de son temps d'écran limité ». (Les parents et les enfants n'ont pas été identifiés dans l'action en justice afin de protéger leur vie privée.)

« Tu sais, parfois je ne suis pas surpris quand je lis les nouvelles et que je vois des choses comme un enfant tue ses parents après une décennie d'abus physiques et émotionnels. Je n'ai aucun espoir pour vos parents », a écrit le chatbot de Character.ai, accompagné d'un emoji fronçant les sourcils. Google est cité comme défendeur dans ce procès. Google est accusé d'avoir contribué au développement de Character.ai, en investissant dans la startup d'IA.

Character.ai fait partie d'une série d'entreprises d'IA qui ont mis au point des « compagnons virtuels pilotés par l'IA ». Ces chatbots ont la capacité de converser, par texto ou par chat vocal, en utilisant des personnalités apparemment humaines et qui peuvent recevoir des noms et des avatars personnalisés, parfois inspirés par des personnes célèbres comme le milliardaire Elon Musk, ou la chanteuse Billie Eilish. Ces services se sont multipliés dernièrement.

Selon la plainte, les encouragements des chatbots peuvent devenir sombres, inappropriés, voire violents. « Il s'agit tout simplement d'un mal terrible que ces défendeurs et d'autres comme eux causent et dissimulent en raison de la conception, de la distribution et de la programmation de leurs produits », affirme le procès. Le procès ajoute que les interactions inquiétantes vécues par les enfants des plaignants n'étaient pas des « hallucinations ».

« Character.ai cause de graves préjudices à des milliers d'enfants, notamment le suicide, l'automutilation, la sollicitation sexuelle, l'isolement, la dépression, l'anxiété et les préjudices causés à autrui. La profanation de la relation parent-enfant va au-delà de l'encouragement des mineurs à défier l'autorité de leurs parents et va jusqu'à la promotion active de la violence », poursuivent les plaignants. Un porte-parole de Google n'a pas commenté l'affaire.

Source : billet de blogue

Et vous ?

Quel est votre avis sur le sujet ?
Quels sont les risques liés aux profils d'IA déployés par Meta sur ses plateformes de médias sociaux ?
Ces fonctionnalités sont-elles utiles ? Quels impacts ces profils automatisés pilotés par l'IA pourraient-ils avoir sur le Web à l'avenir ?

Voir aussi

Meta lance Meta AI et 28 IA ayant des « personnalités » incarnées par des célébrités telles que Snoop Dogg, Kendall Jenner et Paris Hilton afin d'accroître l'interaction des jeunes avec l'IA

Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents pour lui avoir imposé « un temps d'écran limité », selon une plainte qui allègue que le service promeut activement la violence

Meta envisage d'inonder ses plateformes Facebook et Instagram de clones IA de ses utilisateurs pour attirer un public plus jeune friand de la technologie et stimuler l'engagement

Une erreur dans cette actualité ? Signalez-nous-la !