IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sam Altman affirme que les bots tels que ChatGPT d'OpenAI donnent aux réseaux sociaux un caractère « factice »,
Ce qui alimente une crise de confiance dans les interactions en ligne

Le , par Mathis Lucas

7PARTAGES

3  0 
Sam Altman affirme que les bots tels que ChatGPT d'OpenAI donnent aux réseaux sociaux un caractère « factice »
ce qui alimente une crise de confiance dans les interactions en ligne

Les principaux acteurs de la course à l'IA commencent à reconnaître les pièges de leurs propres créations. Sam Altman affirme qu'à cause des bots, il est désormais presque impossible de savoir si les publications sur les réseaux sociaux sont réellement écrites par des humains. Parlant de ses craintes pour l'avenir d'Internet, le PDG d'OpenAI a déclaré que des robots, tels que ChatGPT, donnent l'impression que le Web est « très faux ». Précédemment, Sam Altman a déclaré que la « théorie de l'Internet mort » pourrait contenir une part de vérité, car les plateformes de médias sociaux telles que X (ex-Twitter) d'Elon Musk sont envahies par les robots.

Sam Altman, PDG d'OpenAI, fait partie des personnalités qui ont le plus participé à créer et amplifier l’attention médiatique, l’enthousiasme et parfois l’exagération autour de l'IA générative. Le résultat est la formation d'une gigantesque bulle spéculative autour de la technologie et un Internet de plus en plus envahi par les chatbots d'IA. Aujourd'hui, les internautes peinent à dissocier le contenu généré par un chatbot d'IA du contenu créé par un humain.

Même les patrons des entreprises d’IA commencent à comprendre que cette technologie plonge l'Internet dans une dystopie. Sam Altman a déclaré lundi avoir vécu une « expérience étrange » en lisant un fil de discussion Reddit consacré à Codex, le nouvel agent de codage développé par OpenAI pour les développeurs.

OpenAI a lancé Codex en mai en réponse à l'agent de codage Claude Code d'Anthropic. Dernièrement, ce subreddit a été tellement inondé de publications d'utilisateurs autoproclamés de Claude Code annonçant leur passage à Codex qu'un utilisateur de Reddit a même plaisanté : « est-il possible de passer à Codex sans publier de billet sur Reddit ? ». Ce fil de discussion critique Claude Code, tout en étant excessivement positif à l'égard de Codex d'OpenAI.


Sam Altman a parcouru ce fil de discussion et partagé ses impressions sur X : « j'ai eu une expérience très étrange en lisant cela. Je suppose que tout cela est faux/des bots, même si dans ce cas précis, je sais que la croissance de Codex est vraiment forte et que la tendance est réelle ». Il a poursuivi en expliquant :

Citation Envoyé par Sam Altman


Je pense qu'il y a plusieurs choses qui se passent : les vraies personnes ont adopté les particularités du langage des LLM, les internautes très actifs se regroupent de manière très corrélée, le cycle de hype est marqué par un extrémisme du type « c'est tellement dépassé/on est tellement de retour », la pression d'optimisation exercée par les plateformes sociales pour stimuler l'engagement et le fonctionnement connexe de la monétisation des créateurs, d'autres entreprises nous ont astroturfé, donc je suis très sensible à cela, et bien d'autres choses encore (y compris probablement certains bots).

Sam Altman arrive un peu tard à la fête, étant donné que nous avons tous vu Internet et les plateformes de médias sociaux comme X et Reddit se transformer en un magma généré par l'IA au cours des 12 derniers mois environ. Dans ce cas, il a une hypothèse sur la façon dont cela s'est produit.

Sam Altman n'est pas le premier à souligner le fait que les gens commencent à parler davantage comme des chatbots d'IA dans la vie réelle. Hiromu Yakura, chercheur postdoctoral à l'Institut Max Planck pour le développement humain à Berlin, a remarqué des différences dans son propre vocabulaire environ un an après le lancement de ChatGPT fin 2022.

Hiromu Yakura, en collaboration avec d'autres chercheurs de l'Institut Max Planck, a analysé des millions d'e-mails, d'essais et d'autres textes, ainsi que des centaines de milliers de vidéos YouTube et d'épisodes de podcasts, et a constaté une augmentation des mots utilisés par ChatGPT, tels que « delve » (approfondir), « examine » (examiner) et « explore » (explorer), au cours des 18 mois qui ont suivi la sortie de l'outil d'IA d'OpenAI.

« Les modèles stockés dans la technologie d'IA semblent se transmettre à l'esprit humain », a déclaré Levin Brinkmann, coauteur de l'étude, également chercheur à l'Institut Max Planck pour le développement humain.

Une autre étude menée par l'université de Californie à Berkeley a révélé que les réponses de ChatGPT renforcent la discrimination dialectale. En d'autres termes, ChatGPT privilégie l'anglais américain standard, ce qui peut frustrer les utilisateurs non américains. Cela souligne l'idée que ChatGPT a une façon standard de répondre aux utilisateurs, ce qui influence à son tour leur façon de parler et d'écrire.

Le PDG d'OpenAI accuse les humains de copier le langage des LLM

Sam Altman accuse les humains de commencer à parler comme les grands modèles de langage (LLM), alors que les LLM — développés par OpenAI — ont été littéralement inventés pour imiter la communication humaine, jusqu'au tiret long. Et les modèles d'OpenAI ont clairement été entraînés sur Reddit, où Sam Altman était membre du conseil d'administration jusqu'en 2022 et reste l'un des principaux actionnaires de la plateforme communautaire.

Il fait valoir à juste titre que les fandoms, menés par des utilisateurs de réseaux sociaux extrêmement actifs et toujours connectés, ont tendance à se comporter de manière étrange. Plusieurs groupes peuvent se transformer en festivals de haine s'ils sont envahis par ceux qui expriment leur frustration à leurs semblables.


Sam Altman critique également les incitations lorsque les réseaux sociaux et les créateurs de contenu comptent sur l'engagement pour gagner de l'argent. C'est tout à fait légitime. Mais il avoue ensuite que l'une des raisons pour lesquelles il pense que les messages pro-OpenAI dans ce subreddit pourraient être des bots est qu'OpenAI a également été victime d'« astroturfing ». Cela implique généralement des messages publiés par des personnes ou des bots payés par le concurrent, ou payés par un sous-traitant de troisième degré, ce qui permet au concurrent de nier de manière plausible.

Il n'y a aucune preuve d'astroturfing (bien que cela soit possible). Mais nous avons vu comment les subreddits pro-OpenAI se sont retournés contre la société après la sortie de GPT-5. Au lieu d'une vague d'éloges de la part des fidèles sur le nouveau modèle, de nombreux messages de colère ont été votés. Sur Reddit et sur X, les critiques se plaints de tout, de la personnalité du modèle à la façon dont il brûlait ses crédits sans terminer ses tâches.

Au lendemain d'un lancement mouvementé, Sam Altman a participé à une session « Ask Me Anything » sur Reddit, dans le subreddit r/GPT, au cours de laquelle il a reconnu les problèmes rencontrés lors du déploiement et promis des changements. Le subreddit GPT n'a jamais retrouvé son niveau d'engouement initial, les utilisateurs continuant à poster régulièrement des commentaires exprimant leur mécontentement vis-à-vis des changements apportés à GPT-5. S'agit-il d'humains ? Ou sont-ils en quelque sorte faux, comme semble le suggérer Sam Altman ?

Sam Altman suppose que « le résultat net est que, d'une certaine manière, l'IA sur Twitter/Reddit semble très fausse, ce qui n'était pas le cas il y a un an ou deux ». Si c'est vrai, à qui la faute ? La technologie d'OpenAI GPT a permis aux modèles de devenir si performants en écriture qu'ils sont devenus un fléau non seulement pour les réseaux sociaux (qui ont toujours eu un problème de bots), mais aussi pour les écoles, le journalisme et les tribunaux.

L'analyse de Sam Altman fortement critiquée dans la communauté

Selon certains critiques, les inquiétudes publiques constantes de Sam Altman concernant l'état du monde dans lequel nous vivons depuis l'introduction de l'IA générative semblent artificielles. « Honnêtement, j'apprécierais davantage qu'il reconnaisse le caractère étrange d'Internet dans ce nouveau monde de plus en plus dominé par l'IA, et qu'il admette le rôle considérable qu'il a joué dans cette évolution », peut-on lire dans les commentaires.

Sam Altman ne reconnaît pas clairement le rôle qui est le sien dans l'état actuel d'Internet. Au lieu de cela, il affirme qu'Internet est en danger et exprime une profonde inquiétude quant à la manière dont les gens interagissent avec l'IA, sans aucune forme de conscience de soi ou de responsabilité.

Mais que comptent faire Sam Altman et les autres milliardaires de la Tech pour y remédier ? Une solution potentielle pourrait être un autre projet sur lequel travaille Sam Altman : l'Orb Mini. Annoncé en mai 2025, cet appareil scanne le globe oculaire des humains pour vérifier leur humanité en ligne.

Avec l'intention d'expédier 7 500 appareils à travers les États-Unis d'ici la fin de l'année, l'avenir d'Internet verra peut-être les humains vérifiés par un matériel externe avant d'accéder à des sites de médias sociaux comme Reddit ou X. Mais cette initiative suscite de nombreuses préoccupations en matière de confidentialité et de sécurité. Le projet a été interdit dans de nombreux pays et l'entreprise a été sommée de supprimer les données déjà collectées.

Pour certains, les revirements constants de Sam Altman entre « l'IA est l'avenir et c'est génial » et « l'IA est l'avenir et c'est terrifiant » deviennent lassants. Il s'agit peut-être d'une stratégie marketing calculée, mais il est difficile d'ignorer l'ironie : celui-là même qui attise la panique autour de l'IA la moitié du temps est aussi très investi dans une entreprise de vérification humaine, qui pourrait, à l'avenir, vous facturer pour prouver que vous êtes réel en ligne.

Conclusion

Sam Altman suggère que la « théorie de l'Internet mort » pourrait être vrai, car les plateformes telles que X d'Elon Musk sont aujourd'hui envahies par les robots. Des études récentes montrent que près de la moitié du trafic Internet mondial provient déjà de sources non humaines, ce qui est énorme. Sam Altman ajoute que les chatbots, tels que ChatGPT d'OpenAI, donnent aujourd'hui un caractère factice aux plateformes de médias sociaux.

Cette situation alimente une crise de confiance dans les interactions en ligne. Les réseaux sociaux semblent désormais artificiels et manipulés, ce qui fragilise leur rôle d’espace de communication authentique. Certains commentateurs avancent que les récentes prises de parole de Sam Altman pourraient préparer le terrain à un réseau social développé par OpenAI et mieux protégé contre les bots, mais rien n’est confirmé pour l’instant.

Source : Sam Altman, PDG d'OpenAI

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des observations de Sam Altman ? Sont-elles pertinentes ?
Avez-vous déjà eu l’impression que des messages sur les réseaux sociaux étaient écrits par des bots ?
Trouvez-vous vous aussi que les conversations en ligne semblent moins « authentiques » qu’auparavant ?
Quels impacts la prolifération des bots sur Internet pourrait-elle avoir sur les échanges numériques ?

Voir aussi

Le patron de ChatGPT, Sam Altman, suggère que la « théorie de l'Internet mort » pourrait contenir une part de vérité, car les plateformes telles que X d'Elon Musk sont aujourd'hui envahies par les robots

L'IA est en train de tuer le Web. Elle ruine le trafic et le modèle économique des sites Web, tout en transformant la toile en une immense base de contenus recyclés par des machines sans originalité

L'IA serait sur le point de transformer l'Internet en un véritable cauchemar, un outil à double tranchant pour le web : créativité ou manipulation ?
Vous avez lu gratuitement 1 819 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !