Dr Alain Cohen | 15 Octobre 2025

L’intelligence artificielle, nouvelle source de délires ?

Dès à présent concrétisée par les agents conversationnels (chatbots, tel le célèbre ChatGPT d’OpenAI), la déferlante récente de l’intelligence artificielle (IA) peut-elle contribuer à initier ou aggraver des délires chez des sujets vulnérables, notamment psychotiques ?

C’est cette hypothèse qu’analyse Søren Dinesen Østergaard (psychiatre exerçant à l’Université d’Aarhus, au Danemark) dans un éditorial d’Acta Psychiatrica Scandinavica.

Parmi les mécanismes plausibles pouvant expliquer cette induction ou majoration d’un délire chez l’utilisateur d’une IA conversationnelle, l’auteur insiste sur l’aspecttrop « flagorneur », autrement dit « affirmatif et flatteur sans sincérité » d’un tel chatbot qui tendrait parfois à confirmer des hypothèses erronées, sans remise en question, et à renforcer ainsi des intuitions fallacieuses préexistantes chez son locuteur humain.

Il faut toutefois tenir compte d’une limitation importante dans la portée de cette hypothèse d’un recours à l’IA éventuellement « délirogène » : en effet, les cas observés sont majoritairement auto-déclarés et peu vérifiés par des cliniciens, ce qui explique l’absence actuelle d’études expérimentales, conduites avec une rigueur méthodologique apte à confirmer l’existence objective d’une relation causale claire entre dialogue avec l’IA et flambée d’un délire.
Mais en définitive, l’auteur estime que son évocation initiale d’une simple hypothèse tend désormais à devenir un nouveau champ de recherche plausible, conforté par plusieurs observations concordantes.
Pour approfondir cette question, il encourage les cliniciens à contribuer à l’étude de cette hypothèse de façon pluridisciplinaire.

Et dans l’attente de connaissances plus solides sur cette dangerosité éventuelle du recours inconsidéré à l’IA par des sujets vulnérables ou souffrant de troubles mentaux, il juge raisonnable de recommander une utilisation prudente des chatbots par ces personnes.

Néanmoins, avec un souci d’objectivité, l’auteur reconnaît que « tout est rarement noir ou blanc » et qu’il existe aussi, à l’inverse, des cas d’utilisation potentiellement positive d’outils basés sur l’intelligence artificielle générative, en particulier pour la recherche : par exemple, il confie que la rédaction de son propre éditorial s’est ainsi appuyée sur des échanges avec ChatGPT !

References

Østergaard SD. Generative Artificial Intelligence Chatbots and Delusions: From Guesswork to Emerging Cases. Acta Psychiatr Scand. 2025 Oct;152(4):257-259. doi: 10.1111/acps.70022.

Lead image credit: ID 281255650 © VectorMine | Dreamstime.com

© 2025 WebMD, LLC

==============================================================================================