Les principaux acteurs de la course à l'IA commencent à reconnaître les pièges de leurs propres créations. Sam Altman affirme qu'à cause des bots, il est désormais presque impossible de savoir si les publications sur les réseaux sociaux sont réellement écrites par des humains. Parlant de ses craintes pour l'avenir d'Internet, le PDG d'OpenAI a déclaré que des robots, tels que ChatGPT, donnent l'impression que le Web est « très faux ». Précédemment, Sam Altman a déclaré que la « théorie de l'Internet mort » pourrait contenir une part de vérité, car les plateformes de médias sociaux telles que X (ex-Twitter) d'Elon Musk sont envahies par les robots.Sam Altman, PDG d'OpenAI, fait partie des personnalités qui ont le plus participé à créer et amplifier l’attention médiatique, l’enthousiasme et parfois l’exagération autour de l'IA générative. Le résultat est la formation d'une gigantesque bulle spéculative autour de la technologie et un Internet de plus en plus envahi par les chatbots d'IA. Aujourd'hui, les internautes peinent à dissocier le contenu généré par un chatbot d'IA du contenu créé par un humain.
Même les patrons des entreprises d’IA commencent à comprendre que cette technologie plonge l'Internet dans une dystopie. Sam Altman a déclaré lundi avoir vécu une « expérience étrange » en lisant un fil de discussion Reddit consacré à Codex, le nouvel agent de codage développé par OpenAI pour les développeurs.
OpenAI a lancé Codex en mai en réponse à l'agent de codage Claude Code d'Anthropic. Dernièrement, ce subreddit a été tellement inondé de publications d'utilisateurs autoproclamés de Claude Code annonçant leur passage à Codex qu'un utilisateur de Reddit a même plaisanté : « est-il possible de passer à Codex sans publier de billet sur Reddit ? ». Ce fil de discussion critique Claude Code, tout en étant excessivement positif à l'égard de Codex d'OpenAI.
Sam Altman a parcouru ce fil de discussion et partagé ses impressions sur X : « j'ai eu une expérience très étrange en lisant cela. Je suppose que tout cela est faux/des bots, même si dans ce cas précis, je sais que la croissance de Codex est vraiment forte et que la tendance est réelle ». Il a poursuivi en expliquant :
Sam Altman n'est pas le premier à souligner le fait que les gens commencent à parler davantage comme des chatbots d'IA dans la vie réelle. Hiromu Yakura, chercheur postdoctoral à l'Institut Max Planck pour le développement humain à Berlin, a remarqué des différences dans son propre vocabulaire environ un an après le lancement de ChatGPT fin 2022.
Hiromu Yakura, en collaboration avec d'autres chercheurs de l'Institut Max Planck, a analysé des millions d'e-mails, d'essais et d'autres textes, ainsi que des centaines de milliers de vidéos YouTube et d'épisodes de podcasts, et a constaté une augmentation des mots utilisés par ChatGPT, tels que « delve » (approfondir), « examine » (examiner) et « explore » (explorer), au cours des 18 mois qui ont suivi la sortie de l'outil d'IA d'OpenAI.
« Les modèles stockés dans la technologie d'IA semblent se transmettre à l'esprit humain », a déclaré Levin Brinkmann, coauteur de l'étude, également chercheur à l'Institut Max Planck pour le développement humain.
Une autre étude menée par l'université de Californie à Berkeley a révélé que les réponses de ChatGPT renforcent la discrimination dialectale. En d'autres termes, ChatGPT privilégie l'anglais américain standard, ce qui peut frustrer les utilisateurs non américains. Cela souligne l'idée que ChatGPT a une façon standard de répondre aux utilisateurs, ce qui influence à son tour leur façon de parler et d'écrire.
Le PDG d'OpenAI accuse les humains de copier le langage des LLM
Sam Altman accuse les humains de commencer...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.