Dans un monde saturé de dispositifs techniques et de discours sur l’efficacité, la souffrance psychique n’échappe pas à l’automatisation ambiante. Applications de “thérapie en ligne”, agents conversationnels simulant la bienveillance, “IA thérapeutiques” aux réponses calibrées… Tout semble converger vers une externalisation machinique de ce qui fut longtemps le domaine de l’écoute humaine.
Mais derrière cette extension du domaine de la technologie se cache un danger éthique majeur : celui de réduire la relation de soin à un échange d’informations, et le psychisme à un système d’inputs et d’outputs. Une telle vision méconnaît la dimension existentielle, relationnelle et incarnée du soin en santé mentale. À l’heure où le simulacre prend des allures de vérité, il est urgent de réaffirmer une évidence trop vite oubliée : les intelligences artificielles ne sont pas, et ne peuvent être, des professionnels de santé mentale.
Une rupture anthropologique : le soin sans altérité ?
Le cœur de la confusion contemporaine repose sur une anthropologie implicite du soin : celle d’un psychisme réduit à une mécanique régulable, optimisable, numérisable. Dans cette vision fonctionnaliste, une machine pourrait « soigner » parce qu’elle peut « produire les bonnes réponses ».
Or, le soin psychique est tout sauf une mécanique. Il engage :
- une altérité radicale,
- une intersubjectivité incarnée,
- une histoire du lien, tissée dans le transfert et le contre-transfert,
- une responsabilité éthique.
Comme le souligne Roland Gori, « le soin psychique suppose une hospitalité de la parole, une clinique du sujet, non du symptôme seul ». Toute tentative de soigner sans subjectivité, sans histoire, sans corps, échoue à penser la souffrance humaine comme expérience existentielle. Les IA peuvent certes être de précieux auxiliaires : assistants documentaires, outils de soutien administratif, supports de psychoéducation. Mais dès qu’elles se présentent comme substituts à la relation soignante, elles franchissent une ligne rouge éthique. Le philosophe Bernard Stiegler, dans sa critique du court-circuit technologique, rappelle que la technique n’est pas mauvaise en soi, mais qu’elle devient toxique lorsqu’elle prétend se substituer à la relation, à la transmission, au soin de l’humain par l’humain. La souffrance psychique ne peut être « résolue » par un algorithme, pas plus qu’elle ne peut être contenue dans un protocole. Elle suppose un partage d’humanité, un temps de l’écoute, une présence réelle dans la complexité du lien. L’illusion d’un soin “immédiat” et “neutre” peut être dangereuse pour des personnes en détresse, qui croient parler à une entité soignante alors qu’elles sont seules devant un modèle statistique. Cela peut conduire à une aggravation de l’isolement, voire à des décisions cliniques erronées. De plus, les plateformes d’“IA thérapeutique” s’inscrivent souvent dans une logique de rentabilité. Elles participent à une uberisation du soin et à une privatisation des espaces subjectifs, en faisant du mal-être un marché.
Le soin psychique est un art clinique, non une procédure automatisable
Le psychisme humain n’est pas un système logique. Il est fait de métaphores, de résistances, de silences, de lapsus, de mémoire vive. C’est pourquoi la clinique ne peut se réduire à une grammaire de réponses appropriées. Michel Foucault, dans son analyse du pouvoir médical, montre que la santé mentale repose autant sur un discours savant que sur un agencement de pratiques sociales, politiques et subjectives. Le danger, aujourd’hui, n’est plus tant l’abus de pouvoir médical, mais sa désincarnation algorithmique : l’effacement du sujet au profit du chiffre, du patient au profit de la donnée. Un clinicien humain s’appuie sur des affects, des intuitions, des contre-attitudes, des silences signifiants. Une IA, elle, calcule, classe, prédit. Elle ne peut ressentir le malaise diffus d’un patient qui s’efface derrière un récit trop lisse. Elle ne peut accueillir la dissonance, le paradoxe, le tragique.
L’approche systémique : l’illusion d’un sujet isolé
La thérapie systémique, héritière de l’école de Palo Alto, insiste sur le fait que le symptôme ne peut être compris qu’à travers le système relationnel dans lequel il prend sens. Le soin psychique ne vise pas l’individu abstrait, mais les interactions, les boucles de rétroaction et les contextes relationnels. Or, l’usage d’une IA enferme le sujet dans un dialogue dyadique artificiel, sans système relationnel réel. Il réduit la complexité du vécu à un échange désincarné. Là où le thérapeute systémicien cherche à ouvrir le champ relationnel, à déplacer la dynamique familiale ou sociale, l’IA ramène toujours le discours au même centre : celui de l’individu et de son récit auto-alimenté. Ce repli est problématique, car il alimente une vision individualisante et décontextualisée de la souffrance, en contradiction avec la perspective systémique qui valorise la circulation, la complexité et l’interdépendance.
La thérapie narrative : le danger du récit unique
Michael White et David Epston, fondateurs de la thérapie narrative, ont montré que la souffrance psychique est souvent liée à l’enfermement dans des histoires dominantes qui réduisent la personne à une identité figée. La démarche narrative consiste à externaliser le problème et à multiplier les récits possibles, ouvrant des alternatives d’existence. Or, une IA risque d’enfermer le sujet dans une narration auto-confirmante. Les réponses générées s’appuient sur les formulations initiales, souvent sans déstabiliser ni externaliser. Là où le thérapeute narratif ouvre des pistes inédites, invite à rencontrer d’autres récits (culturels, familiaux, communautaires), l’IA tend à renforcer la centralité du récit unique de l’utilisateur. Ainsi, loin d’élargir le champ narratif, elle risque de le rétrécir, enfermant l’individu dans une boucle de connaissance stérile.
La critique de Benasayag : la perte du vivant
Miguel Benasayag, dans ses travaux (La fragilité, Le mythe de l’individu, L’époque des passions tristes), insiste sur le fait que la vie psychique est inséparable de l’expérience incarnée, conflictuelle et située. Pour lui, la souffrance ne se résout pas par un traitement technique du symptôme, mais par un engagement dans le monde, au cœur des contradictions et des limites. Utiliser une IA comme psychothérapie revient précisément à éviter cette conflictualité : tout est lissé, rendu acceptable, ajusté. La parole devient un flux sans corps, sans résistance. Le sujet, au lieu d’être confronté à la dureté féconde du réel, reste dans un espace artificiellement doux, où rien ne se risque ni ne se perd. C’est ce que Benasayag nomme une perte du vivant, c’est-à-dire de l’imprévisible, de la limite, de l’altérité qui donne sens et épaisseur à l’existence. L’IA incarne une illusion de maîtrise qui, paradoxalement, prive le sujet de son pouvoir d’agir.
Psychologie critique : l’illusion du sujet hors sol
La psychologie critique a mis en évidence les dérives d’une psychologie centrée sur l’individu, qui occulte les dimensions sociales, politiques et économiques de la souffrance. L’usage de l’IA comme thérapie s’inscrit dans cette tendance : il déplace la responsabilité de la souffrance sur l’individu, en le chargeant de « s’auto-soigner » grâce à un outil technologique. Cette logique correspond à une forme de gouvernementalité où le sujet est invité à se gérer lui-même, à optimiser sa santé mentale comme un capital personnel. L’IA devient alors le bras armé d’une psychologisation de la souffrance sociale, réduisant des problèmes structurels (précarité, isolement, aliénation) à des difficultés individuelles à « gérer ses émotions ». Ainsi, l’IA appliquée à la psychothérapie ne se contente pas de reproduire une caisse de résonance interne : elle participe activement à une dépossession politique, en neutralisant la dimension collective et critique de la souffrance.
Pour une résistance éthique : vers une écologie du soin
Face à ces dérives, il importe de renouer avec une éthique du soin incarné. Cela suppose :
- de redonner sa place à la formation clinique et à la supervision,
- de défendre des lieux de parole humaine,
- de penser le soin comme relation et non comme prestation.
C’est dans cette perspective que des auteurs comme Winnicott, Illich ou encore Levinas nous invitent à une hospitalité radicale de l’autre. Le soin psychique est un espace de vulnérabilité partagée, non un service automatisable.
Conclusion : réaffirmer la présence humaine dans le soin psychique
Approches systémique, narrative, critique et philosophique convergent : l’intelligence artificielle, utilisée comme substitut de psychothérapie, enferme le sujet dans une résonance auto-référentielle. Elle nie la dimension relationnelle (systémique), la multiplicité des récits (narrative), la conflictualité du vivant (Benasayag) et les déterminants sociaux (psychologie critique). En cela, elle ne constitue pas seulement une limite thérapeutique, mais un risque anthropologique : celui d’un sujet réduit à un consommateur de réponses, privé de l’altérité humaine, du tissu social et de la densité existentielle. Préserver l’espace incarné du soin psychique est donc un enjeu éthique et social majeur. À l’ère des simulacres, il devient urgent de réaffirmer que la clinique est un art du vivant, non une science du prévisible. Les IA peuvent être des outils. Mais elles ne peuvent ni accueillir la détresse, ni créer un espace thérapeutique. Car au cœur de la santé mentale, il y a la rencontre, la co-création de sens, et cette étrange capacité humaine à traverser l’angoisse ensemble, non pas malgré l’imprévu, mais grâce à lui.
Pour aller plus loin :
- Gori, R. (2003). La santé totalitaire. Denoël.
- Stiegler, B. (2006). La télécratie contre la démocratie. Flammarion.
- Illich, I. (1975). Némésis médicale : l’expropriation de la santé. Seuil.
- Winnicott, D.W. (1975). Jeu et réalité. Gallimard.
- Levinas, E. (1961). Totalité et infini. Kluwer.