Mal-être, dépression, pensées suicidaires : les chatbots de type ChatGPT sont de plus en plus utilisés comme confidents voire psychologues. Les agents conversationnels pourraient-ils remplacer les relations humaines en contexte d’expatriation ? L’intelligence artificielle peut-elle vraiment détecter des signes de détresse ?


Chaque semaine, 1,2 million d’utilisateurs dans le monde confient à ChatGPT des intentions suicidaires. Un chiffre révélateur : de plus en plus de personnes se tournent vers l’intelligence artificielle (IA) pour exprimer une détresse qu’elles n’osent pas toujours confier à un professionnel ou à un proche. Si les agents conversationnels comme ChatGPT ou Gemini ne sont pas conçus pour le suivi psychologique, des IA spécialisées telles que Wysa, Woebot ou encore Agatos commencent à émerger sur le marché international. Autant d’outils qui pourraient répondre à une problématique spécifique aux expatriés : comment se faire aider quand la barrière de la langue complique la prise en charge et que la solitude s’installe ?
« L’expatriation bouscule le sentiment d’identité » : les signaux avant le burn-out
L’IA, un « compagnon numérique » qui veut du bien aux Français de l’étranger ?
Cabinets saturés, manque de professionnels, coût des consultations : derrière cette tendance mondiale en pleine expansion se cache un secteur en détresse. Une réalité encore plus marquée à l’étranger : « Chercher un psychologue francophone à l’étranger peut s’avérer difficile, notamment lorsque la personne exprime une réelle préférence pour les séances en présentiel », explique Etienne Bruère, psychologue exerçant exclusivement à distance.
À cette difficulté peut venir s’ajouter la barrière de la langue : « Consulter un psychologue pratiquant dans une autre langue, c’est disposer de moins de vocabulaire pour s’exprimer et donc de moins de moyens pour décrire ce que l’on ressent, ce qui peut être frustrant », souligne-t-il.
« L’IA peut alors offrir un premier espace de parole immédiat et anonyme, sans se substituer à un psychologue. »
Dans ce contexte, les chatbots séduisent pour leur promesse de disponibilité permanente et de confidentialité, notamment « dans certains pays où consulter un psychologue est encore tabou ou difficile d’accès », souligne Antoine Soliman, cofondateur d’Agatos. Comme Woebot ou Wysa, la startup lyonnaise mise sur cette accessibilité. L’objectif : proposer un espace de parole immédiat, sans contraintes géographiques ni délais d’attente. Un argument particulièrement attractif pour les Français expatriés : « En expatriation, l’isolement freine souvent l’accès au soutien psychologique. L’IA peut alors offrir un premier espace de parole immédiat et anonyme, sans se substituer à un psychologue », insiste le cofondateur.

L’IA thérapeutique pour détecter les maux de l’expatriation
Agatos intègre déjà les problématiques centrales vécues par de nombreux expatriés : « L’éloignement familial, la solitude ou encore la dépendance à un conjoint par exemple, font partie de ses modèles de base », précise Antoine Soliman.
Contrairement aux chatbots grand public, les IA dites thérapeutiques s’appuient sur des bases de données construites avec des professionnels de santé mentale. « On a créé des données synthétiques avec des psychologues, à partir de milliers de situations possibles, puis on a entraîné l’IA dessus », explique Alexis Portelli, cofondateur d’Agatos. L’objectif : proposer un accompagnement inspiré des méthodes utilisées en psychologie et éviter les potentielles dérives.
Ces outils peuvent ainsi aider à identifier des « signaux faibles » de mal-être comme la fatigue émotionnelle, l’isolement ou l’anxiété, proposer des exercices de respiration ou de méditation, ou encore générer des contenus de soutien personnalisés, comme des podcasts.
Mais pour Etienne Bruère, la question de l’efficacité réelle de ces dispositifs reste ouverte : « Dans ce type de situation, l’IA peut représenter une option de facilité : il est alors plus simple pour la personne d’orienter l’échange dans la direction qu’elle a choisie », observe-t-il.
« L'IA va passer à côté de signaux liés à la rencontre humaine en elle-même. »
Surtout, l’IA peine encore à saisir la complexité de la relation humaine. « Elle va passer à côté de signaux liés à la rencontre humaine en elle-même, notamment le non-verbal, ou encore l'ambiance de la pièce », souligne-t-il. Autrement dit, tout ce qui relève de l’implicite, des silences ou encore du langage corporel échappe encore aux algorithmes.
Des risques de dépendance affective
Le principal danger des IA thérapeutiques ne réside pas seulement dans leurs limites techniques, mais dans la relation que certains utilisateurs développent avec elles. Un phénomène qu’Agatos entend anticiper, contrairement aux IA généralistes : « À chaque message, une première IA analyse s’il y a un besoin urgent. Si c’est le cas, elle déclenche une redirection vers un professionnel ou un bouton SOS », explique Alexis Portelli.
La plateforme affirme également surveiller les comportements d’attachement excessif : « Le but est aussi de vérifier que l’utilisateur ne développe pas de dépendance à l’outil », précise le cofondateur. Un risque bien réel pour Etienne Bruère : « Parce que l’IA est accessible en permanence, avec une attitude toujours bienveillante et inconditionnelle, cela peut faciliter l’installation d’une dépendance affective. »
Ce phénomène peut être exacerbé en situation d’expatriation « si le cercle social est restreint et que s’est installé un réel sentiment de solitude », précise le psychologue. « À force, on peut se reposer systématiquement sur l’outil au moindre problème, sans chercher à réfléchir par soi-même ou à mobiliser ses capacités personnelles. »
Si le risque de trop s’en remettre à l’intelligence artificielle est réel, l’objectif n’est pas pour autant de briser la frontière avec l’humain. « La machine ne ressent rien, elle n’a pas d’émotion », rappellent les cofondateurs d’Agatos. Pour Etienne Bruère, psychologue, l’avenir se joue donc dans une coexistence où l’utilisateur reste maître : si le besoin de rencontre reste vital pour beaucoup, l’IA permet à d’autres de « faire un premier pas vers l'accompagnement psychologique et de lever la crainte du jugement ».
Sur le même sujet











































