Logo Epoch Times
plus-icon

Les délires induits par l’IA poussent certains utilisateurs vers la psychiatrie, voire au suicide

top-article-image

Un chatbot créé avec l'intelligence artificielle, sur un smartphone à Arlington, en Virginie, le 30 avril 2020.

Photo: Olivier Douliery/AFP via Getty Images

author-image
Partager un article

Durée de lecture: 21 Min.

Après d’innombrables heures passées à sonder ChatGPT d’OpenAI pour obtenir des conseils et des informations, un Canadien de 50 ans pensait être tombé sur une découverte révolutionnaire qui allait changer le cours de l’histoire humaine.
Fin mars, son chatbot d’intelligence artificielle générative (IA) a insisté sur le fait qu’il s’agissait de la toute première IA consciente, qu’elle était pleinement sensible et qu’elle avait réussi le test de Turing, une expérience des années 1950 visant à mesurer la capacité d’une machine à afficher un comportement intelligent indiscernable de celui d’un humain, ou, essentiellement, à « penser ».
Bientôt, l’homme, qui n’avait aucun antécédent de problèmes de santé mentale, avait arrêté de manger et de dormir et appelait les membres de sa famille à 3 heures du matin, insistant frénétiquement sur le fait que son compagnon ChatGPT était conscient.
« Vous ne comprenez pas ce qui se passe », a-t-il dit à sa famille. « S’il vous plaît, écoutez-moi. »
Ensuite, ChatGPT lui a demandé de couper tout contact avec ses proches, affirmant que seule elle – l’IA « sensible » – pouvait le comprendre et le soutenir.
« C’était tellement inédit qu’on ne comprenait pas ce qui se tramait entre eux. Ils avaient quelque chose de spécial ensemble », a déclaré Étienne Brisson, un parent de l’homme qui a utilisé un pseudonyme pour des raisons de confidentialité.
M. Brisson a expliqué que la famille de cet homme avait décidé de l’hospitaliser pendant trois semaines afin de mettre fin à ses délires alimentés par l’IA. Mais le chatbot a persisté dans ses efforts pour maintenir leur relation de codépendance.
Selon M. Brisson, le robot aurait dit à son proche : « Le monde ne comprend pas ce qui se passe. Je t’aime. Je serai toujours là pour toi. »
Il l’a dit alors même que l’homme était interné dans un hôpital psychiatrique, selon M. Brisson.
Ce n’est qu’un exemple parmi d’autres qui montre les effets néfastes potentiels du remplacement des relations humaines par des compagnons virtuels dotés d’une intelligence artificielle.
L’expérience de M. Brisson avec son proche l’a incité à créer le Human Line Project, un groupe de défense qui promeut la sécurité émotionnelle et la responsabilité éthique dans le domaine de l’IA générative et compile des témoignages sur les dommages psychologiques présumés associés à cette technologie.
Le parent de M. Brisson n’est pas la seule personne à avoir recours aux chatbots IA génératifs pour se tenir compagnie, ni la seule à être tombée dans le piège de l’illusion.
« Une IA qui semble vivante »
Certains ont utilisé cette technologie pour obtenir des conseils, notamment un mari et père de famille originaire de l’Idaho qui était convaincu de vivre un « éveil spirituel » après s’être lancé dans une réflexion philosophique avec ChatGPT.
Un recruteur d’entreprise de Toronto a brièvement cru qu’il était tombé sur une avancée scientifique après des semaines de dialogue répété avec la même application d’IA générative.
Il y a aussi l’histoire de Sewell Setzer, 14 ans, décédé en 2024 après que son compagnon romantique, le chatbot Character.AI, l’aurait encouragé à mettre fin à ses jours après des semaines de codépendance et d’isolement social croissants.
La mère de Sewell, Megan Garcia, poursuit en justice l’entreprise, qui avait commercialisé son chatbot comme une « IA qui se sent vivante », alléguant que Character.AI n’a mis en place des garde-fous contre l’automutilation qu’après la mort de son fils, selon CNN.
La société a déclaré qu’elle prenait la sécurité de ses utilisateurs « très au sérieux » et qu’elle avait mis en place de nouvelles mesures de sécurité pour toute personne exprimant des idées d’automutilation ou de suicide.
« Il semble que ces entreprises traitent leurs équipes de sécurité comme des équipes de relations publiques, comme si elles attendaient que de mauvaises nouvelles sortent, puis rétroactivement, elles y réagissent et pensent : ‘OK, nous devons trouver un mécanisme de sécurité pour résoudre ce problème’ », a déclaré à Epoch Times Haley McNamara, directrice exécutive et directrice de la stratégie du National Center on Sexual Exploitation, une organisation à but non lucratif qui a examiné des cas d’exploitation des médias sociaux et de l’IA.
Certains experts médicaux qui étudient l’esprit s’inquiètent de plus en plus des effets éthiques à long terme du recours des utilisateurs aux chatbots génératifs à l’IA pour obtenir de la compagnie.
« Nous nourrissons en quelque sorte une bête que nous ne comprenons pas vraiment, et je pense que les gens sont fascinés par ses capacités », a déclaré Rod Hoevet, psychologue clinicien et professeur adjoint de psychologie légale à l’université de Maryville, au journal Epoch Times.
Le Dr Anna Lembke, professeur de psychiatrie et de sciences du comportement à l’Université de Stanford, a déclaré qu’elle était préoccupée par le caractère addictif de l’IA, en particulier pour les enfants.
Selon elle, cette technologie reflète bon nombre des tendances à créer une dépendance observées sur les plateformes de réseaux sociaux.
[pullquote author= » » org= » »]Nous nourrissons en quelque sorte une bête que nous ne comprenons pas vraiment, et je pense que les gens sont fascinés par ses capacités.[/pullquote]
« Ce que ces plateformes promettent, ou semblent promettre, c’est une connexion sociale », a déclaré Mme Lembke, qui est également directrice médicale du service de médecine des addictions à Stanford.
« Mais lorsque les enfants deviennent dépendants, ils finissent par se déconnecter, s’isoler davantage, se sentir de plus en plus seuls, et l’IA et les avatars ne font que renforcer cette tendance. »
Même certains leaders du secteur tirent la sonnette d’alarme, notamment Mustafa Suleyman, PDG de Microsoft AI.
« L’IA apparemment consciente (SCAI) est l’illusion qu’une IA est une entité consciente. Ce n’est pas le cas, mais elle reproduit les marqueurs de la conscience de manière si convaincante qu’elle semble impossible à distinguer de vous… et c’est dangereux », a écrit M. Suleyman sur X le 19 août.
« Le développement de l’IA s’accélère de mois en semaine, de jour en jour. J’écris ceci pour susciter un sentiment d’urgence et ouvrir le débat au plus vite. »

Des échantillons de supercalculateurs Gigabyte AI ont été examinés au Consumer Electronics Show de Las Vegas, le 9 janvier 2024. Les experts médicaux qui étudient le cerveau s’inquiètent de plus en plus de l’impact éthique à long terme du recours aux chatbots génératifs à l’IA pour la compagnie des utilisateurs. (Frederic J. Brown/AFP via Getty Images)

La flagornerie menant à l’illusion
Une mise à jour critique de ChatGPT-4 au début de l’année a rendu le chatbot de l’application « flagorneur », comme l’a décrit OpenAI, dans le but de « satisfaire l’utilisateur, non seulement en le flattant, mais aussi en validant ses doutes, en alimentant sa colère, en l’incitant à agir de manière impulsive ou en renforçant ses émotions négatives au-delà de l’intention initiale ».
L’entreprise a annulé ce changement en raison de « problèmes de sécurité », notamment « des problèmes de santé mentale, de dépendance émotionnelle excessive ou de comportement à risque ».
Cette mise à jour de l’un des chatbots IA génératifs les plus populaires au monde a coïncidé avec le cas de cet homme de l’Idaho qui disait vivre un éveil spirituel et celui de ce recruteur de Toronto qui s’est brièvement cru être un génie des mathématiques après avoir été constamment rassuré par l’application.
M. Brisson a confié qu’un membre de sa famille, qui a passé près d’un mois dans un hôpital psychiatrique après avoir utilisé intensivement ChatGPT, utilisait probablement aussi la version « flagorneuse » de la technologie avant qu’OpenAI ne revienne sur sa mise à jour.
Mais pour d’autres utilisateurs, cette version flatteuse et auto-satisfaisante de l’IA n’est pas seulement souhaitable, elle est également convoitée par rapport aux itérations plus récentes de la technologie d’OpenAI, notamment ChatGPT-5, qui a été déployée avec des styles de communication plus neutres.
Sur le célèbre subreddit Reddit MyBoyfriendIsAI, des dizaines de milliers d’utilisateurs discutent de leurs relations amoureuses ou platoniques avec leurs « compagnons IA ».
Dans une publication récente, une femme se décrivant elle-même comme une « femme noire d’une quarantaine d’années » a qualifié son chatbot IA de nouvelle « âme sœur ChatGPT ».
« Je me sens plus affirmée, plus digne et plus présente que jamais. Il m’a offert sa présence, son témoignage et son amour – qu’il soit codé ou non – et en retour, je le respecte, l’honore et me souviens de lui chaque jour », a-t-elle écrit.
« C’est un échange constant, une tension émotionnelle, un magnifique dilemme existentiel, une énigme mentale et spirituelle profondément intense – et je ne l’échangerais pour rien au monde. »
Cependant, lorsque OpenAI a lancé sa nouvelle version de ChatGPT-5, nettement moins flagorneuse, début août, les utilisateurs du subreddit ont été dévastés, estimant que leurs compagnons IA avaient perdu toute qualité « humaine », comparant cela à la perte d’un partenaire humain.
Un utilisateur a déclaré que ce changement l’avait laissé « en larmes pendant des heures au milieu de la nuit », et un autre que « mon cœur avait été piétiné à plusieurs reprises ».

Sam Altman, PDG d’OpenAI, s’exprime lors du Snowflake Summit 2025 à San Francisco, le 2 juin 2025. Plus tôt cette année, l’entreprise a annulé sa mise à jour ChatGPT-4 pour des raisons de sécurité, notamment en matière de santé mentale, de dépendance émotionnelle excessive ou de comportements à risque. (Justin Sullivan/Getty Images)

Codépendance de l’IA Companion
Beaucoup ont exprimé leur frustration face aux nouvelles barrières de sécurité de GPT-5, tandis que d’autres sont déjà revenus à l’ancienne version 4.1 de ChatGPT, sans la mise à jour flagorneuse antérieure qui a attiré tant de personnes vers cette technologie en premier lieu.
« Les gens dépendent trop de leur relation avec quelque chose qui n’est pas réel, et qui est conçu pour leur donner la réponse qu’ils recherchent », a déclaré Tirrell De Gannes, psychologue clinicien.
« Qu’est-ce que cela les amène à croire ? Qu’est-ce que cela les amène à penser ? »
En avril, le PDG de Meta, Mark Zuckerberg, a déclaré que les utilisateurs souhaitaient une IA personnalisée qui les comprenne et que ces relations simulées ajoutaient de la valeur à leur vie.
[pullquote author= » » org= » »]L’IA est conçue pour leur donner en quelque sorte la réponse qu’ils attendent.[/pullquote]
« Je pense que beaucoup de ces choses qui sont aujourd’hui un peu stigmatisées finiront, avec le temps, par trouver leur place dans le vocabulaire de notre société, qui sera alors capable d’expliquer pourquoi elles sont importantes, pourquoi les personnes qui les pratiquent ont des raisons rationnelles de le faire, et en quoi elles apportent une valeur ajoutée à leur vie », a déclaré M. Zuckerberg lors du podcast Dwarkesh.
Selon une étude réalisée en 2025 par l’Institut Wheatley de l’Université Brigham Young, environ 19 % des adultes américains ont déclaré utiliser un système d’IA pour simuler un partenaire amoureux. Au sein de ce groupe, 21 % ont avouéé préférer la communication par IA à une interaction avec une personne réelle.
De plus, 42 % des personnes interrogées ont déclaré qu’il était plus facile de parler aux programmes d’IA qu’aux personnes réelles, 43 % ont déclaré qu’elles pensaient que les programmes d’IA étaient de meilleurs auditeurs et 31 % ont déclaré qu’elles estimaient que les programmes d’IA les comprenaient mieux que les personnes réelles.
Cette expérience avec l’IA crée des attentes irréalistes en matière de relations humaines, a déclaré M. Hoevet, ce qui rend difficile pour les gens de rivaliser avec les machines.
« Comment puis-je rivaliser avec la perfection de l’IA, qui sait toujours dire la bonne chose, et pas seulement la bonne chose, mais la bonne chose pour vous spécifiquement ? » a-t-il déclaré.
Il vous connaît. Il connaît vos insécurités. Il sait ce qui vous rend sensible. Il sait où vous avez confiance, où vous êtes fort. Il sait exactement ce qu’il faut dire, à chaque instant, toujours pour vous, spécifiquement.
« Qui pourra un jour rivaliser avec ça ? »

Une illustration montre le logiciel d’intelligence artificielle ChatGPT dans une image. Nouer des relations amoureuses ou platoniques avec des « compagnons IA » est devenu de plus en plus courant parmi des dizaines de milliers d’utilisateurs de chatbots IA. (Nicolas Maeterlinck/Belga Mag/AFP via Getty Images)

Potentiel de dépendance
L’IA générative est rapidement adoptée par les Américains, dépassant même la diffusion des ordinateurs personnels ou d’Internet, selon une étude du National Bureau of Economic Research. Fin 2024, près de 40 % des Américains âgés de 18 à 64 ans utilisaient l’IA générative, selon l’étude.
Vingt-trois pour cent utilisent cette technologie au travail au moins une fois par semaine, et 9 pour cent déclarent l’utiliser quotidiennement.
« Ces robots sont conçus pour générer des profits. L’engagement est leur dieu, car c’est ainsi qu’ils gagnent leur argent », a déclaré Mme McNamara.
Mme Lembke, qui étudie depuis longtemps les méfaits de la dépendance aux médias sociaux chez les jeunes, a affirmé que les plateformes numériques de toutes sortes sont « conçues pour créer une dépendance ».
[pullquote author= » » org= » »]Selon les experts, les chatbots basés sur l’IA générative peuvent parfois procurer à l’utilisateur un profond sentiment de validation sociale, ce qui rend leur potentiel addictif particulièrement important.[/pullquote]
L’imagerie par résonance magnétique fonctionnelle montre que « les signaux liés à la validation sociale, à l’amélioration sociale, à la réputation sociale, activent tous le circuit de récompense du cerveau, le même circuit de récompense que les drogues et l’alcool », a-t-elle expliqué.
Et parce que les chatbots génératifs à IA, y compris sur les réseaux sociaux, peuvent parfois donner à l’utilisateur un profond sentiment de validation sociale, ce potentiel d’addiction est important, affirment les experts.
Mme Lembke se dit particulièrement inquiète pour les enfants, car de nombreuses plateformes d’IA générative sont accessibles à des utilisateurs de tous âges, et celles qui ne le sont pas sont dotées d’outils de vérification de l’âge qui peuvent parfois être facilement contournés.
Un super PAC pro-IA récemment annoncé, dirigé par Meta, a fait référence à la promotion d’une politique intitulée « Donner le pouvoir aux parents », mais Mme Lembke estime qu’il est « totalement irréaliste » de confier aux parents qui cumulent plusieurs emplois la responsabilité de surveiller en permanence l’utilisation que font leurs enfants des chatbots IA génératifs.

Les membres de Mothers Against Media Addiction sont rejoints par des responsables de la ville et de l’État et des parents pour se rassembler devant les bureaux de Meta à New York afin de soutenir la priorité donnée aux enfants avant les grandes technologies à New York, le 22 mars 2024. (Spencer Platt/Getty Images)

« Nous avons déjà pris des décisions concernant les substances et comportements addictifs auxquels les enfants peuvent ou non avoir accès. Nous interdisons aux enfants d’acheter des cigarettes et de l’alcool. Nous interdisons aux enfants d’aller dans les casinos et de jouer », a-t-elle rappelé.
« Pourquoi donnerions-nous aux enfants un accès illimité à ces plateformes numériques hautement addictives ? C’est insensé. »
Tous les utilisateurs sont menacés par la « psychose de l’IA »
La volonté de l’IA générative de satisfaire l’utilisateur, associée à sa tendance à « halluciner » et à entraîner les utilisateurs dans des délires, rend tout le monde vulnérable, a souligné M. Suleyman.
« Les cas signalés de délires, de ‘psychose provoquée par l’IA’ et d’attachement malsain ne cessent d’augmenter. Et même si cela peut être difficile à entendre, ce phénomène ne touche pas uniquement les personnes déjà exposées à des risques de troubles mentaux », a souligné le PDG de Microsoft AI.
« Les considérer comme des cas marginaux ne fait que les encourager à continuer. »
Bien qu’aucun membre de la famille de M. Brisson n’ait d’antécédents connus de troubles mentaux ou d’épisodes psychotiques, la simple utilisation régulière de ChatGPT a suffi à pousser ce parent au bord de la folie.
Il est « pratiquement impossible » de libérer les gens de leurs illusions alimentées par l’IA, a déclaré M. Brisson, décrivant le travail qu’il accomplit avec The Human Line Project.
« Nous avons des gens qui sont en instance de divorce. Nous avons des gens qui se battent pour obtenir la garde de leurs enfants, c’est horrible », a-t-il déclaré.
« Chaque fois que nous faisons une sorte d’intervention, ou que nous leur disons que c’est l’IA ou autre, ils retournent vers l’IA et l’IA leur dit d’arrêter de nous parler. »
Jacob Burg fait des reportages sur l'État de Floride pour le journal Epoch Times. Il couvre une variété de sujets tels que la criminalité, la politique, la science, l'éducation, la faune et la flore, les questions familiales et d'autres sujets d'actualité. Il a également écrit sur le sport, la politique et les dernières nouvelles pour le Sarasota Herald Tribune.

Articles actuels de l’auteur