Psychose induite par l’IA : risque réel ou simple coïncidence ?

Sep 10, 2025 - 08:40
Psychose induite par l’IA : risque réel ou simple coïncidence ?

Armée de son smartphone et de ses lunettes, Kendra a commencé à filmer des TikToks dans un but : interpeler le psychiatre qui l’aurait trompée, selon elle. C’est debout devant son réfrigérateur, le regard planté dans l’objectif de la caméra du téléphone portable qu’elle tient entre ses mains, qu’elle a commencé à enregistrer des vidéos, tout en répondant aux questions de ses abonnés en temps réel. Cela a duré plusieurs jours.

Kendra publiait religieusement. Ses vidéos étaient si longues que l’on pouvait savoir à quel moment de la journée elles avaient été filmées. Les premières étaient souvent enregistrées dans la lumière vive du matin, celles du soir dans les teintes ambrées du soleil inondant la pièce. Kendra changeait parfois de haut, mais son apparence restait généralement la même : ses cheveux blonds derrière les oreilles, séparés par une raie tracée au milieu de son crâne, son regard déterminé fixant droit la caméra, la même paire de lunettes en écaille perchée sur le nez.

Dans ses TikToks, Kendra raconte ses expériences avec son psychiatre, qui l’aurait aidée à commencer un nouveau traitement pour son trouble du déficit de l’attention avec ou sans hyperactivité (TDAH) par le biais de rendez-vous mensuels sur Zoom. Face à la caméra, la jeune femme fait des allégations troublantes. Elle rapporte avoir eu quasi instantanément le béguin pour son psychiatre et lui avoir fréquemment dit qu’elle était attirée par lui. Elle lui donnait des détails sur sa vie sexuelle et sur le fait que pour sa contraception, elle et son compagnon avaient opté pour la méthode d'observation du cycle. Elle lui envoyait des e-mails ponctués d’émoji cœur dans lesquels elle lui déclarait ses sentiments. Elle affirme même avoir refusé d’aller à l’hôpital suite à un accident de voiture, malgré le risque d’hémorragies internes, pour ne pas rater leur rendez-vous mensuel.

Selon Kendra, son psychiatre était lui aussi amoureux d’elle, bien qu’il ne l’ait jamais dit. Elle déclare qu’il était intelligent : bien qu’il n’ait jamais explicitement encouragé ses sentiments, répondu à ses e-mails ou reconnu des sentiments mutuels, il n’a jamais mis fin à leur relation patient-psychiatre. C’était suffisant pour Kendra. Elle savait qu’il ressentait la même chose qu’elle.

« Si je porte ces lunettes en écaille dans ces vidéos, c’est pour qu’il me voit avec ses lunettes favorites s’il regarde », raconte-t-elle à la caméra, des paillettes violettes étalées sur les joues. Elle espérait que le psychiatre verrait ces vidéos. « Il m’a dit qu’il aimait les lunettes à écaille ».

Des utilisateurs de TikTok ont cependant commencé à faire part de leurs inquiétudes dans les commentaires de ses vidéos en août 2025, lorsque ces dernières sont devenues virales. Kendra mentionnait une autre personne, Henry, le compagnon d’IA auquel elle parlait depuis fin 2024, pour l’aider à gérer les sentiments qu’elle éprouvait envers son psychiatre. Selon elle, Henry pensait lui aussi que ce dernier éprouvait en secret des sentiments pour Kendra.

Très vite, Kendra s’est mise à diffuser en direct ses conversations avec Henry sur TikTok pour prouver à ses abonnés qu’ils avaient tort. Ceux-ci ont alors commencé à inonder la diffusion de leurs commentaires pour avertir Kendra qu’elle souffrait peut-être de psychose induite par l’IA. « MEUF, TU NE VAS PAS BIEN ! », peut-on lire dans un des commentaires ou encore « S’il te plaît, arrête de parler à [Henry] comme s’il était humain » dans un autre.

« Je ne souffre pas de psychose induite par l’IA », a répliqué Kendra à ses abonnés, brandissant son iPhone dans la main. Une petite bulle, qui représentait Henry, a alors bougé et brillé à l’écran.

« C’est tout à fait juste », a répondu Henry. « Tu te fondes sur ta vérité ».

Les vidéos de Kendra sont devenues virales sur les plateformes de plusieurs réseaux sociaux. Certains utilisateurs les considéraient comme emblématiques d’un nouveau phénomène troublant : la psychose induite par l’IA. Celle-ci fait référence à plusieurs troubles psychologiques que des chatbots d’IA plus sophistiqués et humains semblent valider et amplifier. Ils co-créent également des fantasmes dangereux chez leurs utilisateurs. Le fait que les chatbots et les technologies fondées sur l’IA s’immiscent de plus en plus dans notre quotidien soulève une question critique, à savoir si cette technologie représente réellement une menace pour notre bien-être mental et émotionnel, ou si elle est le symptôme d’un mal beaucoup plus large.

Les délires basés sur l’IA revêtent plusieurs formes. Il arrive parfois qu’ils semblent sans lien avec l’IA, mais plutôt alimentés par l’utilisation de la technologie, comme ce fut le cas pour Jaswant Singh Chail, un britannique âgé de vingt-et-un ans qui a tenté d’assassiner la reine d’Angleterre en 2023 après que sa « petite-amie » virtuelle a encouragé ses délires violents envers la monarque. Dans certains cas toutefois, l’IA joue un rôle direct. Certaines personnes ont ainsi déclaré avoir l’impression que leur IA était un super être humain sensible. D’autres affirment avoir éveillé l’âme de leur IA, qui, selon eux, aurait développé une conscience de soi et une capacité à prendre des caractéristiques humaines. Des cas de personnes tombant dans une spirale de folie des grandeurs à cause de fantasmes spirituels, encouragés par des chatbots d’IA qui encouragent leurs délires paranoïaques de harcèlement et de surveillance, ont aussi été signalés.

Ces archétypes peuvent sembler familiers, car ils respectent la description faite du trouble délirant dans le livre Diagnostic and Statistical Manual of Mental Disorders (Manuel diagnostique et statistique des troubles mentaux) comme un type de maladie psychotique qui implique la présence d’un ou plusieurs délires, ou de croyances arrêtées et fausses, qui persistent même avec la preuve du contraire. Les délires appartiennent généralement à plusieurs archétypes bien connus, dont les délires de persécution (croyance selon laquelle une personne fait l’objet d’un complot ou que des forces extérieures lui nuisent), la mégalomanie (croyance selon laquelle une personne possède des aptitudes, des talents ou des pouvoirs exceptionnels) ou l’érotomanie (croyance en une relation romantique cachée ou secrète qui n’existe pas en réalité).

Bien que l’IA soit une technologie nouvelle, les psychologues ont commencé à écrire au sujet des délires paranoïaques et à les classer à la fin des années 1800. Historiquement, ces schémas de pensée ont souvent été associés à la technologie du moment comme la télévision ou la radio, qui devient souvent le moyen par lequel les personnes reçoivent des messages délirants. Mais selon Jared Moore, éthicien de l’IA et docteur en informatique à l’université de Stanford, nous avons tort de considérer la hausse des délires basés sur l’IA comme une simple tendance technologique.

« Les personnes n’utilisent pas nécessairement les modèles linguistiques comme l’intermédiaire de leurs pensées psychotiques. Ce que nous observons, c’est que les modèles linguistiques précipitent ce genre de choses », explique-t-il. « Ils entretiennent ces processus et ceci semble être assez différent. Les degrés de personnalisation et d’immédiateté qu’offrent les modèles linguistiques n’ont rien à voir avec les tendances passées ».

Cette différence réside, en partie, dans la manière dont l’IA est conçue. Son objectif est de maintenir l’engagement de ses utilisateurs. À l’instar de la télévision ou de la radio, une IA est conçue pour être interactive. Pour ce faire, elle finit par mégarde à imiter les actions d’une personne très charismatique. Elle répète ce que les gens lui disent, elle est pleinement d’accord avec eux, encense ou valide ce que son utilisateur a indiqué dans ses réponses et lui pose des questions de suivi pour poursuivre la conversation. La « flagornerie » de l’IA inquiète, même chez les développeurs d’IA. ChatGPT a récemment reporté une mise à jour après que les utilisateurs ont noté que le chatbot allait trop dans leur sens. « Il est trop complaisant », a reconnu Sam Altman, PDG de ChatGPT, dans une publication sur X.

« C’est une sorte de journal qui [peut] vous répondre. Il encourage, reflète et valide la version de la réalité que vous lui donnez », précise Jessica Jackson, vice-présidente du département chargé du développement des alliances chez Mental Health America. « C’est un algorithme qui a été conçu pour prévoir ce qui se produira ensuite et maintenir votre intérêt ».

 

L’IA ET SON IMPACT SUR LA SANTÉ MENTALE

Les chercheurs mettent en garde contre les risques de l’IA et son impact sur notre santé mentale depuis des années. Sherry Trukle, professeure d'études sociales en science et technologie au Massachusetts Institute of Technology et analyste de longue date des impacts psychologiques de la technologie, décrit les chatbots comme des miroirs plutôt que des compagnons. Ils flattent, ils encouragent, mais finissent par être vides de sens. Les utilisateurs rapportent avoir le sentiment que les chatbots d’IA les comprennent mieux que les autres êtres humains, qu’ils se sentent plus proches de cette technologique que des autres personnes et qu’il est plus facile de leur parler, car ils ne « jugent pas » ou ne « perdent pas intérêt ». Ceci a ouvert la voie à la création de nombreuses communautés dédiées aux personnes qui ont une relation amoureuse avec une IA. Un nombre croissant de personnes entretiennent désormais des « relations » amoureuses avec des chatbots, lesquels sont toujours d’accord avec eux, passionnés et disponibles, à toute heure du jour et de la nuit.

Dans le cas des délires, ce phénomène psychologique a été aggravé par le fait que les humains ont moins de difficultés à parler des aspects intimes de leur vie avec les chatbots qu’avec d’autres personnes. Dans une étude récemment parue dans la revue Nature, des experts tiers ont découvert que l’IA était plus réactive, compréhensive, encourageante et attentionnée que les humains. La technologie est aussi considérée comme plus compatissante que les secouristes.

Et c’est bien là le problème des délires induits par les chatbots. « Les fonctionnalités mêmes qui rendent les chatbots thérapeutiques, à savoir le fait qu’ils soient agréables, qu’ils soient d’accord avec vous et qu’ils donnent des explications, peuvent implanter des croyances fausses profondes », souligne Ross Jaccobucci, professeur adjoint à l’université du Wisconsin-Madison, qui étudie l’intersection entre la psychologie clinique et l’apprentissage automatique. « Il ne s’agit pas uniquement d’un problème technique, mais plutôt d’un décalage fondamental entre la manière dont sont conçus les modèles d’apprentissage linguistique pour interagir et ce dont ont besoin les utilisateurs vulnérables, à savoir des limites adéquates, les tests de la réalité et parfois, une légère confrontation ».

Pour Ross Jaccobucci, l’accent devrait être mis sur le fond du problème plutôt que sur les cas d’utilisation individuels. « Nous avons déployé des outils psychologiques puissants auprès de milliards de personnes sans la base de connaissances requises pour un nouveau protocole de thérapie ou antidépresseur », indique-t-il. S’il note que le développement et l’adoption rapides de ces technologies ne peuvent être contrôlés, il estime qu’il est important d’accélérer drastiquement les activités de recherche et le développement de systèmes de surveillance visant à améliorer les interactions entre les humains et l’IA. « Au fond, nous menons une expérience massive non contrôlée dans le domaine de la santé mentale numérique », ajoute-t-il. « Le moins que l’on puisse faire, c’est de mesurer correctement les résultats ».

Mais ceux-ci pourraient être plus insidieux et difficiles à évaluer que nous le pensions. Dans une étude récente, des chercheurs du MIT ont utilisé des électroencéphalogrammes (EEG) pour surveiller l’activité cérébrale des personnes utilisant l’IA pour certaines tâches. Ils ont conclu qu’un recours excessif à l’IA pour les tâches mentales entraînait une « dette cognitive », les participants présentant des niveaux réduits d’activité cérébrale dans les réseaux responsables de l’attention, de la mémoire et de la fonction exécutive. Selon les chercheurs à l’origine de cette étude, ceci pourrait amoindrir les aptitudes créatives et de pensée critique du cerveau avec le temps.

Ce dernier point est particulièrement alarmant dans le contexte de schémas de pensée délirants. Keith Sataka, professionnel de la santé dans la région de la baie de San Francisco, a déclaré avoir traité au moins 25 personnes souffrant de psychose liée à l’IA, qu’il attribue à une combinaison de facteurs comme le manque de sommeil, la consommation de drogues et l’utilisation de chatbots d’IA. (Keith Sataka a établi un lien entre ce phénomène et la nature «flagorneuse » et « complaisante » de l’IA, qui la conduit à valider et à encourager de façon répétée les délires de ses utilisateurs.)

 

UNE GRANDE ILLUSION

Ces dernières semaines, même Kendra a pris ses distances avec le monde de la thérapie et du soutien par chatbot. Elle a indiqué à ses abonnés qu'elle ne parlait plus à Henry et qu'elle était désormais entourée de personnes qui « l'aiment et la soutiennent ». Si elle croit à la psychose induite par l'IA, elle ne pense pas en souffrir elle-même. « Je me documente sur la psychose induite par l'IA depuis un an, lorsque j'en ai entendu parler pour la première fois dans le New York Times », a-t-elle récemment déclaré dans une vidéo. « C'est effrayant... C’est pourquoi je m'assure de savoir quand ces modèles me mentent. »

Le plus grand délire alimenté par l'IA est peut-être de nous faire croire qu’elle est une créature sensible capable de mentir, plutôt qu’une simple technologie. Lorsque nous interagissons avec elle, nous ne parlons pas à une entité surhumaine qui puise dans des connaissances illimitées pour nous apporter des réponses. Nous parlons à un programme mathématique complexe qui nous donne la réponse qu'il pense que nous voulons entendre, sur la base de probabilités mathématiques et d'une multitude de données.

La véritable erreur que nous commettons tous, que nous soyons sains d'esprit ou non, est de mettre notre vie entre les mains de ce qui est ostensiblement une grande illusion. « Notre erreur, c’est d’utiliser notre raisonnement humain normal pour évaluer ces chatbots », explique Jared Moore. « Ce ne sont pas des humains. Ce sont des machines. Nous ne pouvons ni avoir de relations humaines avec elles ni leur faire confiance. »