IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sam Altman affirme que les bots tels que ChatGPT d'OpenAI donnent aux réseaux sociaux un caractère « factice »,
Ce qui alimente une crise de confiance dans les interactions en ligne

Le , par Mathis Lucas

277PARTAGES

3  0 
Les principaux acteurs de la course à l'IA commencent à reconnaître les pièges de leurs propres créations. Sam Altman affirme qu'à cause des bots, il est désormais presque impossible de savoir si les publications sur les réseaux sociaux sont réellement écrites par des humains. Parlant de ses craintes pour l'avenir d'Internet, le PDG d'OpenAI a déclaré que des robots, tels que ChatGPT, donnent l'impression que le Web est « très faux ». Précédemment, Sam Altman a déclaré que la « théorie de l'Internet mort » pourrait contenir une part de vérité, car les plateformes de médias sociaux telles que X (ex-Twitter) d'Elon Musk sont envahies par les robots.

Sam Altman, PDG d'OpenAI, fait partie des personnalités qui ont le plus participé à créer et amplifier l’attention médiatique, l’enthousiasme et parfois l’exagération autour de l'IA générative. Le résultat est la formation d'une gigantesque bulle spéculative autour de la technologie et un Internet de plus en plus envahi par les chatbots d'IA. Aujourd'hui, les internautes peinent à dissocier le contenu généré par un chatbot d'IA du contenu créé par un humain.

Même les patrons des entreprises d’IA commencent à comprendre que cette technologie plonge l'Internet dans une dystopie. Sam Altman a déclaré lundi avoir vécu une « expérience étrange » en lisant un fil de discussion Reddit consacré à Codex, le nouvel agent de codage développé par OpenAI pour les développeurs.

OpenAI a lancé Codex en mai en réponse à l'agent de codage Claude Code d'Anthropic. Dernièrement, ce subreddit a été tellement inondé de publications d'utilisateurs autoproclamés de Claude Code annonçant leur passage à Codex qu'un utilisateur de Reddit a même plaisanté : « est-il possible de passer à Codex sans publier de billet sur Reddit ? ». Ce fil de discussion critique Claude Code, tout en étant excessivement positif à l'égard de Codex d'OpenAI.


Sam Altman a parcouru ce fil de discussion et partagé ses impressions sur X : « j'ai eu une expérience très étrange en lisant cela. Je suppose que tout cela est faux/des bots, même si dans ce cas précis, je sais que la croissance de Codex est vraiment forte et que la tendance est réelle ». Il a poursuivi en expliquant :

Citation Envoyé par Sam Altman


Je pense qu'il y a plusieurs choses qui se passent : les vraies personnes ont adopté les particularités du langage des LLM, les internautes très actifs se regroupent de manière très corrélée, le cycle de hype est marqué par un extrémisme du type « c'est tellement dépassé/on est tellement de retour », la pression d'optimisation exercée par les plateformes sociales pour stimuler l'engagement et le fonctionnement connexe de la monétisation des créateurs, d'autres entreprises nous ont astroturfé, donc je suis très sensible à cela, et bien d'autres choses encore (y compris probablement certains bots).

Sam Altman arrive un peu tard à la fête, étant donné que nous avons tous vu Internet et les plateformes de médias sociaux comme X et Reddit se transformer en un magma généré par l'IA au cours des 12 derniers mois environ. Dans ce cas, il a une hypothèse sur la façon dont cela s'est produit.

Sam Altman n'est pas le premier à souligner le fait que les gens commencent à parler davantage comme des chatbots d'IA dans la vie réelle. Hiromu Yakura, chercheur postdoctoral à l'Institut Max Planck pour le développement humain à Berlin, a remarqué des différences dans son propre vocabulaire environ un an après le lancement de ChatGPT fin 2022.

Hiromu Yakura, en collaboration avec d'autres chercheurs de l'Institut Max Planck, a analysé des millions d'e-mails, d'essais et d'autres textes, ainsi que des centaines de milliers de vidéos YouTube et d'épisodes de podcasts, et a constaté une augmentation des mots utilisés par ChatGPT, tels que « delve » (approfondir), « examine » (examiner) et « explore » (explorer), au cours des 18 mois qui ont suivi la sortie de l'outil d'IA d'OpenAI.

« Les modèles stockés dans la technologie d'IA semblent se transmettre à l'esprit humain », a déclaré Levin Brinkmann, coauteur de l'étude, également chercheur à l'Institut Max Planck pour le développement humain.

Une autre étude menée par l'université de Californie à Berkeley a révélé que les réponses de ChatGPT renforcent la discrimination dialectale. En d'autres termes, ChatGPT privilégie l'anglais américain standard, ce qui peut frustrer les utilisateurs non américains. Cela souligne l'idée que ChatGPT a une façon standard de répondre aux utilisateurs, ce qui influence à son tour leur façon de parler et d'écrire.

Le PDG d'OpenAI accuse les humains de copier le langage des LLM

Sam Altman accuse les humains de commencer...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !