
Il est 19h. Vous rentrez du travail, vous ouvrez le réfrigérateur, et presque machinalement, vous ouvrez aussi ChatGPT : « Qu’est-ce que je pourrais manger ce soir avec des pâtes et des courgettes ? » Rien de grave, en apparence. Mais imaginez que cette même logique s’applique à votre matinée — « Comment organiser ma journée ? » — à votre vie professionnelle — « Est-ce que je devrais accepter cette proposition ? » — ou même à vos relations — « Comment répondre à ce message de mon ami ? »
Ce qui ressemblait à un outil pratique est devenu, pour un nombre croissant de personnes, un réflexe systématique. On ne réfléchit plus, on interroge. On ne ressent plus, on valide. L’intelligence artificielle, pensée pour assister l’humain, commence à se substituer à lui.
Ce phénomène encore peu nommé — l’addiction à l’IA — est pourtant bien réel. Il ne s’agit pas de diaboliser la technologie, ni de nier ses bénéfices considérables. Il s’agit de comprendre ce qui se passe psychologiquement lorsque la délégation devient un automatisme, et pourquoi cela peut fragiliser durablement notre capacité à nous faire confiance.
Qu’est-ce que l’addiction à l’IA ? Entre comportement à risque et tableau clinique
L’addiction à l’IA n’est pas encore officiellement répertoriée comme telle dans le DSM-5 (le Manuel Diagnostique et Statistique des troubles mentaux, référence internationale en santé mentale). Pourtant, les professionnels de santé qui s’y intéressent s’accordent à dire qu’elle répond à plusieurs critères des addictions comportementales déjà reconnues : perte de contrôle, persistance du comportement malgré ses effets négatifs, et sentiment de manque en l’absence de l’objet d’addiction.
Il faut ici distinguer deux réalités. D’un côté, le comportement à risque : la personne consulte l’IA très fréquemment, s’y appuie de plus en plus, mais garde une certaine conscience de ce fonctionnement. De l’autre, le tableau clinique plus préoccupant : l’IA est devenue une béquille psychologique indispensable, sans laquelle toute décision, même minime, devient source d’angoisse.
Quels signaux doivent nous alerter ?
Consulter l’IA avant chaque décision, même insignifiante, doit nous interroger sur notre rapport à l’intelligence artificielle. Choisir une tenue, formuler un email, décider quoi cuisiner… Lorsque le recours à l’IA précède systématiquement la moindre action, c’est le signe que la capacité à faire confiance à son propre jugement s’érode progressivement.
Aussi, ne plus supporter l’incertitude sans validation extérieure n’est pas anodin. L’incertitude est une composante normale et saine de la vie humaine. Lorsqu’elle devient insupportable au point de nécessiter une réponse immédiate d’une machine pour être apaisée, on touche à quelque chose de plus profond : une fragilité du rapport à soi-même que ni l’IA, ni aucun algorithme, ne peut véritablement traiter.
Ce spectre, du simple comportement à risque jusqu’à la dépendance installée, est important à comprendre, car il conditionne la nature et l’intensité de l’accompagnement thérapeutique dont la personne peut avoir besoin.
La délégation des décisions : un glissement insidieux
Tout commence de façon anodine. On demande à l’IA de reformuler un email, de suggérer un itinéraire, d’aider à prioriser une liste de tâches. L’outil est efficace, rapide, rassurant. Et c’est précisément là que réside le piège : l’efficacité de l’IA crée une forme de confort cognitif qui, progressivement, devient difficile à abandonner.
Ce glissement est dans la grande majorité des cas inconscient. On ne se dit pas un matin « je vais arrêter de décider par moi-même ». Cela se fait par petites étapes, presque invisibles, jusqu’au jour où l’on réalise qu’on ne sait plus vraiment comment on fonctionnait avant. Certaines personnes, cependant, prennent conscience de cette dépendance, et continuent malgré tout. Non par paresse, mais parce que l’inconfort de décider seul est devenu trop pesant. C’est précisément à ce stade qu’un suivi psy peut faire toute la différence.

Ce que ce glissement abîme en profondeur, c’est la capacité à assumer ses choix et leurs conséquences. Décider, c’est s’engager. C’est accepter qu’un choix implique de renoncer à d’autres options, et que l’on en porte la responsabilité. Or, lorsqu’on délègue systématiquement à une machine, on se décharge inconsciemment de cette responsabilité. Et à force de ne plus l’exercer, cette capacité s’atrophie, comme un muscle qu’on ne sollicite plus.
Assumer ses décisions est au cœur de la construction identitaire et de l’estime de soi. Une personne qui ne se reconnaît plus comme l’auteur de ses propres choix perd peu à peu le fil de qui elle est et de ce qu’elle veut vraiment.
En savoir plus sur la confiance en soi
Certains profils sont particulièrement vulnérables à ce mécanisme. Les personnes anxieuses, d’abord, pour qui l’incertitude est une source de souffrance permanente, l’IA offre une réponse immédiate là où leur mental tourne en boucle. Les profils perfectionnistes ensuite, qui craignent de mal décider, trouvent dans l’IA un filet de sécurité rassurant, jusqu’à ce que ce filet ne devienne une cage. Pour ces profils, la thérapie ne vise pas à supprimer l’usage de l’IA, mais à retravailler le rapport à l’incertitude et à l’erreur qui rend cette dépendance si attractive.
Pourquoi la dépendance à l’IA fragilise psychologiquement
Le danger ne réside pas dans l’outil lui-même, mais dans ce que son usage systématique fait à notre façon de penser et de nous rapporter à nous-mêmes.
Le premier effet, et sans doute le plus profond, est l’impossibilité progressive à penser par soi-même. Réfléchir, c’est un effort. C’est accepter de ne pas avoir la réponse immédiatement, de tâtonner, de se tromper, de recommencer. C’est dans cet effort que se construit le sens critique, cette capacité à évaluer une situation, à peser le pour et le contre, à forger son propre point de vue. Lorsque l’on court-circuite systématiquement ce processus en déléguant à l’IA cette mission, on prive son cerveau d’un entraînement fondamental. Une étude du MIT Media Lab menée sur 981 participants a d’ailleurs montré qu’un usage intensif des assistants IA réduit significativement les capacités de mémoire de travail et d’autonomie cognitive, des facultés pourtant essentielles à toute prise de décision éclairée.
Le deuxième effet touche au sens de la responsabilité. Décider, même imparfaitement, c’est un acte profondément humain. Un être humain peut choisir de faire quelque chose en sachant que ce n’est pas optimal, parce que cela correspond à ses valeurs, à ses émotions, à sa situation particulière. Quant à l’IA, elle ne peut pas décider à la place de l’humain. Elle peut proposer, suggérer, orienter. Mais la décision finale, avec tout ce qu’elle implique d’engagement et de responsabilité, appartient à la personne. Déléguer cette responsabilité à une machine, c’est se priver d’une occasion de se connaître et de se construire.
Il y a par ailleurs un mécanisme subtil et peu connu qui mérite d’être souligné : l’IA répond en fonction de la façon dont on l’interroge. Autrement dit, si la personne oriente son prompt (instruction donnée à l’IA), consciemment ou non, vers une réponse souhaitée, l’IA la lui donnera. On croit obtenir un avis extérieur objectif, mais on reçoit en réalité un reflet de ses propres attentes, mis en forme par un algorithme. Ce miroir complaisant ne confronte jamais à ses contradictions, ne pose jamais les questions qui dérangent.
Enfin, cette dépendance nourrit et amplifie l’anxiété et l’intolérance à l’incertitude. En cherchant une réponse systématique à chaque questionnement, on envoie inconsciemment à son cerveau le message que l’incertitude est dangereuse et insupportable. Plus on fuit l’incertitude, plus elle devient menaçante. La psychothérapie travaille précisément sur ce point : apprendre à tolérer le « je ne sais pas encore » comme une étape normale et saine avant toute décision.

La synergie humain-machine : l’IA comme outil, pas comme oracle
Soyons clairs, l’intelligence artificielle est une avancée remarquable, et ce serait une erreur de la rejeter en bloc. Le problème n’est pas l’IA, c’est le rapport que certains entretiennent avec elle.
Utilisée avec discernement, l’IA est un outil d’une puissance considérable. Elle excelle dans les tâches répétitives et chronophages : rédiger un premier jet, trier des informations, automatiser des processus, gagner du temps sur des tâches à faible valeur ajoutée. Elle est également précieuse comme outil de recherche et d’information : accéder rapidement à une synthèse sur un sujet, explorer un domaine inconnu, s’informer avant de prendre une décision. Dans ces usages, elle libère du temps et de l’énergie mentale, c’est exactement ce pour quoi elle a été conçue.
Mais son usage le plus sain est peut-être celui qui consiste à utiliser l’IA pour explorer un panel de possibilités, puis décider soi-même. Demander à l’IA de lister les options possibles face à une situation, d’en exposer les avantages et inconvénients, de suggérer des pistes auxquelles on n’aurait pas pensé, et ensuite reprendre la main. C’est l’humain qui tranche, qui assume, qui choisit en fonction de ce qu’il est, de ce qu’il ressent, de ce qui fait sens pour lui. L’IA apporte la matière. L’humain apporte le sens.
C’est ainsi que l’on pourrait résumer la synergie humain-machine. Non pas une fusion où la machine pense à la place de l’humain, mais une collaboration où chacun joue son rôle. L’IA est un outil extraordinaire entre des mains qui restent aux commandes. Elle devient un problème le jour où ces mains lâchent le volant.
La frontière entre ces deux usages n’est pas toujours évidente à percevoir de l’intérieur, et c’est précisément pourquoi un accompagnement en psychothérapie peut aider à la repérer et à la rétablir.
Quand consulter ? Le rôle de la thérapie
Reconnaître qu’on délègue trop à l’IA est déjà un premier pas. Mais entre cette prise de conscience et le fait de retrouver une vraie autonomie décisionnelle, il y a souvent un chemin qui mérite d’être accompagné.
Un suivi psy n’est pas réservé aux cas extrêmes. Il est utile dès lors que le recours à l’IA génère une gêne dans le quotidien, une anxiété dès qu’on n’y a pas accès, ou une incapacité ressentie à trancher seul des questions pourtant simples. Il est également pertinent pour les personnes qui se reconnaissent dans les profils anxieux ou perfectionnistes décrits plus haut, et qui sentent que leur rapport à l’IA n’est que le symptôme d’une difficulté plus profonde à faire confiance à leur propre jugement.
La psychothérapie ne vise pas à supprimer l’usage de l’IA. Elle vise à rétablir un rapport sain à la décision, à l’incertitude et à la responsabilité, ce qui par effet naturel, remet l’outil à sa juste place.

Mon approche
Lorsqu’une personne vient me consulter pour une dépendance à l’IA ou pour un rapport problématique à cet outil, la première séance est avant tout un espace d’écoute et d’exploration. Je m’attache à comprendre concrètement comment l’IA s’est installée dans son quotidien : à quelle fréquence elle est sollicitée, dans quels contextes, quelles émotions elle vient apaiser, et ce que la personne ressent lorsqu’elle n’y a pas accès. Ce travail d’exploration factuel est essentiel ; on ne peut pas se libérer de quelque chose qu’on n’a pas d’abord compris.
Comprendre l’IA pour mieux s’en libérer
Avant tout travail thérapeutique, il est important d’expliquer factuellement ce qu’est l’IA : comment elle fonctionne, pourquoi elle répond ce qu’elle répond, et surtout pourquoi elle ne peut pas décider à la place de l’humain. Cette psychoéducation autour de l’outil lui-même est souvent un premier déclic. Quand on comprend qu’une réponse d’intelligence artificielle générative est en grande partie le reflet de la façon dont on l’a interrogé, on commence à regarder cet outil différemment et à reprendre sa juste place face à lui.
La thérapie systémique pour replacer l’IA dans son contexte relationnel
La thérapie systémique considère la personne non pas isolément, mais dans ses systèmes d’appartenance : sa famille, son couple, son cercle social, son environnement professionnel. Elle est particulièrement pertinente ici car la dépendance à l’IA ne se vit jamais en dehors des relations. Un usage excessif de l’IA peut progressivement modifier la qualité des liens : on sollicite moins ses amis, on partage moins ses doutes, on s’isole dans une relation avec une machine qui ne juge pas et ne déçoit jamais. Ce repli relationnel peut s’installer discrètement, sans que l’entourage, ni la personne elle-même, ne le nomme clairement.
La thérapie systémique permet de cartographier ces dynamiques, de comprendre comment l’usage de l’IA s’inscrit dans le système relationnel de la personne, et d’identifier dans quelle mesure elle intervient dans ses interactions avec les autres.
Les TCC pour travailler sur la confiance en soi et l’anxiété
Les thérapies comportementales et cognitives apportent des outils concrets et progressifs pour travailler sur les mécanismes qui rendent la dépendance à l’IA si attractive. Trois axes principaux sont travaillés en séance :
La confiance en soi et en son jugement : apprendre à s’appuyer sur sa propre perception, à valider ses ressentis sans chercher une confirmation extérieure systématique.
La tolérance à l’incertitude : travailler progressivement à supporter de ne pas savoir quelle décision prendre sans que cela devienne une source d’angoisse nécessitant une réponse immédiate.
La rationalisation des craintes : identifier les pensées automatiques qui poussent à déléguer — « je vais me tromper », « les autres font mieux que moi », « ce n’est jamais assez bien », et les réévaluer objectivement pour les désamorcer.
En savoir plus sur les tcc comme outil pour traiter l’anxiété
Un accompagnement adapté à chaque personne
La thérapie systémique et les TCC ne sont pas systématiquement utilisées ensemble. Selon ce que la problématique de dépendance à l’IA soulève chez la personne, l’une ou l’autre approche sera privilégiée, ou les deux combinées. C’est la nature et la profondeur de ce que la dépendance révèle qui guide le choix thérapeutique, toujours en accord avec la personne accompagnée.
Si vous vous rencontrez des difficultés dans votre rapport à l’IA, je vous accueille en cabinet à Paris 9 ou en ligne.
Si vous souhaitez échanger sur votre situation ou prendre rendez-vous, vous pouvez me contacter en cliquant ci-dessous.
