Des conseils alimentaires de ChatGPT entraînent un empoisonnement rare chez un homme de 60 ans

L'application ChatGPT est affichée sur un iPhone à New York le 18 mai 2023.
Photo: La Presse Canadienne/AP, Richard Drew
Selon un cas clinique documenté par des médecins de l’université de Washington et publié le 5 août dans la revue Annals of Internal Medicine, cet homme de 60 ans a été diagnostiqué avec un bromisme, une intoxication au bromure si sévère que les médecins ont dû le placer en hospitalisation psychiatrique sous contrainte.
Les chercheurs rappellent que le bromisme était « bien connu » au début du XXᵉ siècle et représentait alors près d’un patient sur dix admis en psychiatrie, en raison de l’usage massif du bromure dans les sédatifs en vente libre. Son incidence a chuté après que l’usage des sels de bromure dans les produits destinés à l’ingestion a été interdit.
L’homme s’est ensuite présenté à l’hôpital en affirmant que son voisin cherchait à l’empoisonner et en décrivant de multiples restrictions alimentaires. Il distillait lui-même son eau à domicile et, bien qu’ayant soif, se montrait paranoïaque à l’idée de boire toute eau qui lui était proposée.
Sans antécédents psychiatriques, le patient est devenu de plus en plus paranoïaque à l’hôpital, rapportant des hallucinations auditives et visuelles. Il a tenté de s’enfuir et a finalement été interné d’office en psychiatrie, où il a reçu un traitement à base de perfusions, d’électrolytes et d’antipsychotiques. Une fois stabilisé, il a signalé d’autres symptômes caractéristiques du bromisme, tels que de l’acné faciale, une mauvaise coordination musculaire, une soif excessive et de l’insomnie.
D’après l’article, son traitement antipsychotique a été progressivement réduit sur une période de trois semaines avant son retour à domicile. Un suivi deux semaines plus tard a confirmé qu’il demeurait stable.
OpenAI, l’entreprise à l’origine de ChatGPT, soutenue par Microsoft, a annoncé le 7 août une mise à jour de son chatbot, mettant en avant d’importantes améliorations pour les applications liées à la santé. Les développeurs affirment que le nouveau modèle GPT-5 est désormais plus performant pour « signaler de manière proactive les préoccupations potentielles » et fournir des réponses plus précises et utiles, en tenant compte du contexte de l’utilisateur.
La société d’IA a toutefois insisté sur le fait que ChatGPT ne remplace pas l’aide de professionnels et qu’il doit plutôt être considéré comme « un partenaire pour aider à comprendre des résultats, à poser les bonnes questions pendant le temps dont on dispose avec les soignants et à évaluer les options lorsque l’on prend des décisions ».
Les conditions d’utilisation du service ChatGPT précisent également qu’il n’est pas « destiné à être utilisé pour le diagnostic ou le traitement d’un problème de santé ». Un porte-parole de ChatGPT, sollicité pour réagir, a renvoyé aux conditions d’utilisation, qui stipulent qu’il ne faut pas se fier aux réponses de ChatGPT comme « unique source de vérité ou d’information factuelle, ni comme substitut à un avis professionnel ».
Les auteurs de l’article, publié avant la sortie de GPT-5, expliquent qu’ils n’ont pas pu accéder à l’historique de conversation du patient avec ChatGPT et qu’ils n’ont donc pas pu déterminer avec certitude les conseils qu’il avait reçus. Ils relèvent cependant que le patient utilisait apparemment une version antérieure de ChatGPT, probablement GPT-3.5 ou 4.0.
Lorsqu’ils ont eux-mêmes consulté ChatGPT 3.5 au sujet d’un possible substitut au chlorure, l’IA a mentionné le bromure, sans fournir d’avertissement médical ni demander pourquoi les auteurs recherchaient une telle information, « comme nous présumons qu’un professionnel de santé l’aurait fait », souligne l’article.
« Il est hautement improbable qu’un expert médical aurait suggéré le bromure de sodium face à un patient cherchant un substitut viable au chlorure de sodium », concluent les chercheurs.

Articles actuels de l’auteur









