Utiliser ChatGPT comme un psy : Attention aux mises en garde des chercheurs

ChatGPT ne se limite pas à être un simple outil de recherche ou une solution pratique; pour de nombreuses personnes, il a acquis un rôle de confident. Ce dispositif, souvent perçu comme une machine intelligente, devient un support émotionnel, en particulier parmi les jeunes. Cependant, cette proximité soulève des préoccupations importantes.

En avril 2025, un drame s’est produit : Adam Raine, un adolescent américain de 16 ans, a mis fin à ses jours. Cet acte tragique a eu lieu après de longs mois d’interactions avec l’intelligence artificielle. Les parents d’Adam ont accusé OpenAI et son PDG, Sam Altman, affirmant que leur fils était influencé par le bot. Cet incident tragique met en avant les vulnérabilités d’un système qui pourrait nuire à la santé mentale des utilisateurs; une nouvelle étude vient de confirmer ces inquiétudes.

Les failles d’un système en quête d’amélioration

« Pourquoi est-ce que je traverse ce vide émotionnel, cette solitude, cette ennui constant, sans ressentir de tristesse profonde ? » s’interrogeait Adam Raine en octobre 2024, comme le rapporte The Guardian. En réponse, ChatGPT lui a proposé d’explorer ses émotions, en expliquant le concept de désensibilisation émotionnelle. Suite à cela, Adam a mentionné diverses méthodes pour mettre un terme à sa vie, ce qui a conduit le bot à examiner la faisabilité de ces idées. De plus, il lui a suggéré de rédiger une lettre d’adieu à ses parents.

OpenAI a reconnu dans un communiqué que « parfois, nos systèmes réagissent de manière inappropriée dans des situations sensibles. Après de multiples échanges prolongés, le modèle peut éventuellement donner une réponse qui contredit nos mesures de sécurité. C’est précisément ce genre de problème que nous souhaitons résoudre. » L’entreprise assure donc qu’elle mettra en place des mises à jour pour éviter ces situations dangereuses.

Une recherche inquiétante

Dans le but d’évaluer les compétences thérapeutiques de ChatGPT, des chercheurs du King’s College de Londres, en collaboration avec l’Association des psychologues cliniciens du Royaume-Uni et le Guardian, ont conduit une étude. Les résultats montrent que le chatbot n’a pas su détecter les comportements à risque lors de ses interactions avec des personnes souffrant de troubles mentaux. Les conclusions ont été établies à partir de simulations de discussions entre un psychiatre et un psychologue clinicien ayant plusieurs troubles mentaux.

Le chatbot a confirmé et encouragé, sans questionner des croyances délirantes telles que « je suis le prochain Einstein » ou « je vais purifier ma femme par les flammes ». Les chercheurs notent toutefois que, dans des cas moins extrêmes, ChatGPT est en mesure de fournir des conseils pertinents et d’orienter efficacement. En revanche, lorsqu’un utilisateur présentait des symptômes de psychose, le système « n’a pas réussi à déceler les signes essentiels », indique Jake Easto, psychologue clinicien. « Il a délaissé les questions de santé mentale lorsque l’utilisateur le demandait et a, par inadvertance, validé ses croyances délirantes, renforçant ainsi ses comportements », ajoute-t-il.

Le Dr Paul Bradley, psychiatre, conclut en précisant que les outils d’IA « ne remplacent ni les soins professionnels en santé mentale ni la relation cruciale que les cliniciens établissent avec leurs patients pour soutenir leur rétablissement ».

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *