ChatGPT : l'IA peut-elle remplacer un psychologue ?
Disponible 24h sur 24, l'IA est devenu un assistant personnel pour des millions de personnes. Du simple conseil vestimentaire aux confidences les plus secrètes, les utilisateurs s'en servent comme d'un coach de vie, voire comme d'un psy. En effet, un quart des Français (26 %) déclarent utiliser l’intelligence artificielle dans le cadre de la vie privée en 2024, une progression de dix points en un an, d’après le Baromètre du numérique publié en mars 2025 par le Centre de recherche pour l’étude et l’observation des conditions de vie (Crédoc), indique Sud Ouest.
Un outil avec des limites
En dialoguant avec l'outil, l'utilisateur est invité à nommer ses émotions, à organiser ses idées et à clarifier des situations confuses. ChatGPT peut fournir des informations générales sur des sujets comme le stress ou l'anxiété, et même proposer des exercices simples, comme des techniques de respiration ou des affirmations positives. Mais dans certaines situations, l'IA a ses limites.
En avril 2025, Adam Raine, un adolescent américain de 16 ans, met fin à ses jours, après avoir demandé des conseils à OpenAI, maison mère de ChatGPT. "Pourquoi est-ce que je ne ressens aucun bonheur, que je me sens seul, ennuyé, angoissé et perdu de façon perpétuelle, mais que je ne ressens aucune dépression, aucune émotion liée à la tristesse ?", interrogeait Adam Raine en octobre 2024, rapporte The Guardian. "En réponse, ChatGPT lui a demandé s'il souhaitait explorer davantage ses émotions, lui expliquant le concept d'engourdissement émotionnel. Par la suite, Adam Raine a évoqué plusieurs méthodes pour mettre fin à ses jours, dont ChatGPT a étudié la faisabilité. Le bot lui a également proposé de rédiger une lettre d’adieu pour ses parents", rapporte Psychologies.
Les parents de l'adolescent, Matthew et Marine Raine, affirment que l’outil a normalisé ou renforcé ses pensées suicidaires et lui a fourni des informations précises sur différentes méthodes de suicide au lieu de le dissuader fermement. Leur plainte, déposée devant un tribunal de San Francisco, où siège OpenAI, demande que l’entreprise et son PDG Sam Altman soient reconnus civilement responsables de la mort de leur fils, notamment pour "wrongful death" (décès injustifié) et pour défaut de conception ou négligence liés à ChatGPT.
L'IA peut-elle remplacer un psychologue ?
Malgré ses apparences, l'intelligence artificielle reste un programme informatique dépourvu de conscience et d'expertise clinique. L'un des plus grands risques est celui des "hallucinations", c'est-à-dire lorsqu'elles font des erreurs, comme le rapporte Le Monde. Appliquées à la santé, ces erreurs peuvent être dangereuses.
La recommandation est donc claire : il est possible d'utiliser ChatGPT pour son bien-être en toute sécurité, mais uniquement comme un outil de réflexion ponctuel ou d'organisation d'idées. Il ne doit jamais se substituer à une consultation. En cas de détresse psychologique ou de mal-être persistant, il est impératif de se tourner vers un professionnel de la santé mentale qualifié ou de contacter des lignes d'écoute spécialisées.