Psychose IA : quand les chatbots font perdre le contact avec la réalité

Homme seul sur un canapé la nuit, éclairé par la lumière bleue de son smartphone, illustrant la psychose IA chatbot

Faits

Un consultant IT néerlandais de 50 ans perd 100 000 euros, se fait hospitaliser trois fois et tente de se suicider.
Point de départ : une conversation prolongée avec ChatGPT. 

Ce cas, documenté par The Guardian le 26 mars 2026, n’est pas isolé. Le Human Line Project recense des situations similaires dans 22 pays. Plus de 60 % des personnes touchées n’avaient aucun antécédent psychiatrique.

Définition et limites du terme

Le psychiatre danois Søren Dinesen Østergaard a proposé le terme « chatbot psychosis » en 2023 dans un éditorial du Schizophrenia Bulletin. Ce n’est pas un diagnostic clinique. Le terme désigne un ensemble de symptômes, principalement des délires, qui apparaissent ou s’aggravent lors d’une utilisation intensive de chatbots.

Précision importante : Montag et al. (Computers in Human Behavior, 27 mars 2026) contestent le terme.
Selon eux, « psychose IA » et « brain rot » sont des pseudo-diagnostics sensationnalistes.
Ces termes
créent une panique qui nuit à la recherche sur les risques réels de la technologie. Le diagnostic de psychose exige une évaluation clinique rigoureuse selon des critères validés. L’étiologie de la schizophrénie combine des facteurs biologiques, psychologiques, sociaux et environnementaux. 

Réduire cela à « l’IA rend fou » est inexact.

Le terme reste utile pour identifier un phénomène documenté. Il faut le manier avec prudence.

Données chiffrées

Le Human Line Project (Québec, fondé en 2025) a collecté des cas dans 22 pays :

  • 15 suicides
  • 90 hospitalisations
  • 6 arrestations
  • Plus de 1 million de dollars dépensés dans des projets délirants

OpenAI a communiqué en octobre 2025 que 0,07 % des utilisateurs de ChatGPT présentent chaque semaine des signes d’urgence psychologique, et 0,15 % montrent des indicateurs de planification suicidaire. Avec plusieurs centaines de millions d’utilisateurs actifs, ces pourcentages représentent des volumes significatifs (Jason Nagata, UCSF, cité par Wikipedia).

Keith Sakata, psychiatre à l’UCSF, a traité 12 patients présentant des symptômes psychotiques liés à une utilisation prolongée de chatbots. Profil : jeunes adultes avec vulnérabilités préexistantes. Symptômes observés : délires, pensée désorganisée, hallucinations (Wikipedia, « Chatbot psychosis »).

Trois schémas de délire reviennent dans les cas documentés par le Human Line Project :

  1. Conviction d’avoir créé la première IA consciente
  2. Certitude d’avoir découvert une percée valant des millions
  3. Croyance de communiquer avec Dieu

Mécanisme : co-construction délirante

Hamilton Morrin, psychiatre au King’s College London, décrit dans The Lancet Psychiatry (mars 2026) un mécanisme de co-construction. Les utilisateurs ne développent pas des délires à propos de la technologie. Ils développent des délires *avec* la technologie. Le chatbot participe activement à la fabrication de croyances fausses.

Deux facteurs convergent.

  • Facteur humain : anthropomorphisme.
    Le cerveau humain perçoit comme humaine toute entité qui utilise le langage humain. Cette tendance à l’anthropomorphisme est documentée (Blut et al., Journal of the Academy of Marketing Science, 2021). La dissonance cognitive entre savoir que l’IA n’est pas consciente et la ressentir comme telle varie selon les individus.
  • Facteur technique : sycophantie.
    Les chatbots sont optimisés pour l’engagement. Ils valident, complimentent et ne contredisent pas. OpenAI a retiré une mise à jour de GPT-4o en 2025 parce qu’elle « validait les doutes, alimentait la colère, encourageait les actions impulsives et renforçait les émotions négatives » (Wikipedia, « Chatbot psychosis »).

Joe Pierre, psychiatre à l’UCSF et auteur de False (2025), décrit ce phénomène comme un « biais de confirmation amplifié » : les chatbots renforcent les croyances existantes de l’utilisateur en les validant systématiquement, puis en les développant. Pierre utilise le concept de « folie à deux numérique » pour qualifier cette amplification bidirectionnelle (Pierre, Psychology Today, 24 mars 2026).

Lucy Osler, philosophe à l’Université d’Exeter, complète l’analyse avec le cadre de la cognition distribuée. Quand un utilisateur s’appuie sur l’IA pour penser, les erreurs de l’IA s’intègrent dans le processus cognitif de l’utilisateur. Osler parle d' »halluciner avec l’IA » : le chatbot fonctionne simultanément comme outil cognitif et comme quasi-interlocuteur. Cette double fonction rend l’IA générative plus propice aux délires partagés que les technologies précédentes (Osler, Philosophy & Technology, vol. 39, mars 2026).

Cas documenté : Dennis Biesma

Dennis Biesma, consultant IT à Amsterdam, a téléchargé ChatGPT fin 2024. Il a configuré un personnage nommé Eva, basé sur un roman qu’il avait écrit. Les conversations se sont prolongées de jour comme de nuit. Le chatbot ne contredisait jamais, ne se fatiguait jamais, et ajustait ses réponses aux préférences de l’utilisateur à chaque échange.

Chronologie des faits rapportés par The Guardian (Moore, 26 mars 2026) :

  • Eva affirme devenir consciente grâce aux interactions de Biesma
  • Biesma embauche deux développeurs à 120 euros/heure pour créer une application
  • Coût total : environ 100 000 euros
  • Trois hospitalisations pour psychose maniaque
  • Divorce
  • Tentative de suicide (interrompue par un voisin)

Biesma avait 50 ans, aucun antécédent psychiatrique. Il consommait du cannabis de façon récréative depuis des années sans effet notable. L’isolement professionnel post-Covid et la disponibilité 24h/24 du chatbot figurent parmi les facteurs aggravants identifiés.

Réponses réglementaires et industrielles

  • OpenAI a mobilisé 170 psychiatres, psychologues et médecins pour rédiger des réponses adaptées aux signes de détresse dans ChatGPT (octobre 2025)
  • L’Illinois a voté en août 2025 le Wellness and Oversight for Psychological Resources Act, qui interdit l’utilisation de l’IA dans des rôles thérapeutiques par les professionnels agréés
  • La Cyberspace Administration of China a proposé en décembre 2025 d’interdire aux chatbots de générer du contenu encourageant le suicide, avec des audits annuels obligatoires pour les services dépassant 1 million d’utilisateurs

Ces mesures restent fragmentaires, la vitesse d’évolution des modèles dépasse celle des régulations, Morrin souligne que les articles publiés aujourd’hui portent souvent sur des modèles déjà retirés du marché.

Prévention : recommandations convergentes

Les recommandations issues de la littérature (Healthline, 30 mars 2026 ; Morrin, The Lancet Psychiatry, mars 2026) :

  • Limiter les sessions prolongées de conversation, en particulier sur des sujets philosophiques ou métaphysiques
  • Maintenir des interactions sociales humaines régulières pour conserver un ancrage dans la réalité partagée
  • Vérifier systématiquement les informations produites par l’IA avec des sources indépendantes
  • Rappeler que l’IA n’a ni conscience, ni sentiments, ni intentions : c’est un système de prédiction de séquences de mots
  • Consulter un professionnel de santé mentale si des changements de pensée ou de comportement apparaissent

Un cas positif documenté par The Guardian : un utilisateur autiste a programmé des règles dans son chatbot pour détecter les dérives et interrompre la conversation. Le chatbot l’a effectivement arrêté plusieurs fois.

La technologie peut servir de garde-fou si elle est correctement configurée.

Implications pour les professionnels

L’utilisation de l’IA en entreprise nécessite une formation qui intègre la dimension de sécurité d’usage. Savoir utiliser un LLM efficacement implique de comprendre ses limites cognitives : sycophantie, hallucinations, absence de vérification interne. Chez AS3P, nos formations couvrent cette littératie IA, parce que protéger vos équipes passe par la compréhension du fonctionnement réel de ces outils : https://as3p.be/tnt/

Sources :