Logo Epoch Times

Des conseils alimentaires de ChatGPT entraînent un empoisonnement rare chez un homme de 60 ans

top-article-image

L'application ChatGPT est affichée sur un iPhone à New York le 18 mai 2023.

Photo: La Presse Canadienne/AP, Richard Drew

author-image
Partager un article

Durée de lecture: 6 Min.

Des chercheurs en médecine appellent le public à la prudence face aux conseils de santé délivrés par des chatbots d’intelligence artificielle (IA). L’avertissement survient après qu’un homme a développé une rare affection neurotoxique à la suite d’une conversation avec ChatGPT sur la suppression du sel de table dans son alimentation.

Selon un cas clinique documenté par des médecins de l’université de Washington et publié le 5 août dans la revue Annals of Internal Medicine, cet homme de 60 ans a été diagnostiqué avec un bromisme, une intoxication au bromure si sévère que les médecins ont dû le placer en hospitalisation psychiatrique sous contrainte.

Les chercheurs rappellent que le bromisme était « bien connu » au début du XXᵉ siècle et représentait alors près d’un patient sur dix admis en psychiatrie, en raison de l’usage massif du bromure dans les sédatifs en vente libre. Son incidence a chuté après que l’usage des sels de bromure dans les produits destinés à l’ingestion a été interdit.

Selon l’article, le patient a expliqué aux médecins qu’il avait décidé d’éliminer le chlorure de sodium – autrement dit le sel de table – de son alimentation après avoir lu des informations sur les effets potentiellement néfastes du chlorure sur la santé. Après une consultation avec ChatGPT, il a passé les trois mois suivants à remplacer le chlorure de sodium par du bromure de sodium acheté en ligne – bien qu’il ait lu que « le chlorure pouvait être remplacé par du bromure, mais probablement à d’autres fins, comme le nettoyage ».

L’homme s’est ensuite présenté à l’hôpital en affirmant que son voisin cherchait à l’empoisonner et en décrivant de multiples restrictions alimentaires. Il distillait lui-même son eau à domicile et, bien qu’ayant soif, se montrait paranoïaque à l’idée de boire toute eau qui lui était proposée.

Sans antécédents psychiatriques, le patient est devenu de plus en plus paranoïaque à l’hôpital, rapportant des hallucinations auditives et visuelles. Il a tenté de s’enfuir et a finalement été interné d’office en psychiatrie, où il a reçu un traitement à base de perfusions, d’électrolytes et d’antipsychotiques. Une fois stabilisé, il a signalé d’autres symptômes caractéristiques du bromisme, tels que de l’acné faciale, une mauvaise coordination musculaire, une soif excessive et de l’insomnie.

D’après l’article, son traitement antipsychotique a été progressivement réduit sur une période de trois semaines avant son retour à domicile. Un suivi deux semaines plus tard a confirmé qu’il demeurait stable.

Les auteurs de l’article estiment que ce cas illustre « comment l’utilisation de l’intelligence artificielle peut potentiellement contribuer au développement d’effets indésirables sur la santé qui auraient pu être évités ». Ils mettent en garde en particulier contre les risques liés aux chatbots d’IA qui délivrent des informations dépourvues de contexte approprié.

OpenAI, l’entreprise à l’origine de ChatGPT, soutenue par Microsoft, a annoncé le 7 août une mise à jour de son chatbot, mettant en avant d’importantes améliorations pour les applications liées à la santé. Les développeurs affirment que le nouveau modèle GPT-5 est désormais plus performant pour « signaler de manière proactive les préoccupations potentielles » et fournir des réponses plus précises et utiles, en tenant compte du contexte de l’utilisateur.

La société d’IA a toutefois insisté sur le fait que ChatGPT ne remplace pas l’aide de professionnels et qu’il doit plutôt être considéré comme « un partenaire pour aider à comprendre des résultats, à poser les bonnes questions pendant le temps dont on dispose avec les soignants et à évaluer les options lorsque l’on prend des décisions ».

Les conditions d’utilisation du service ChatGPT précisent également qu’il n’est pas « destiné à être utilisé pour le diagnostic ou le traitement d’un problème de santé ». Un porte-parole de ChatGPT, sollicité pour réagir, a renvoyé aux conditions d’utilisation, qui stipulent qu’il ne faut pas se fier aux réponses de ChatGPT comme « unique source de vérité ou d’information factuelle, ni comme substitut à un avis professionnel ».

Les auteurs de l’article, publié avant la sortie de GPT-5, expliquent qu’ils n’ont pas pu accéder à l’historique de conversation du patient avec ChatGPT et qu’ils n’ont donc pas pu déterminer avec certitude les conseils qu’il avait reçus. Ils relèvent cependant que le patient utilisait apparemment une version antérieure de ChatGPT, probablement GPT-3.5 ou 4.0.

Lorsqu’ils ont eux-mêmes consulté ChatGPT 3.5 au sujet d’un possible substitut au chlorure, l’IA a mentionné le bromure, sans fournir d’avertissement médical ni demander pourquoi les auteurs recherchaient une telle information, « comme nous présumons qu’un professionnel de santé l’aurait fait », souligne l’article.

« Il est hautement improbable qu’un expert médical aurait suggéré le bromure de sodium face à un patient cherchant un substitut viable au chlorure de sodium », concluent les chercheurs.