Sigmund Freud avait son divan. Les curés avaient leur confessionnal. Nous, nous avons un chatbot ouvert vingt-quatre heures sur vingt-quatre, sans rendez-vous, sans jugement et sans note de frais. L’histoire de la confidence humaine n’a pas pris fin. Elle vient de changer d’adresse.
Table des matières
Il est vingt-deux heures dans un appartement du 9e arrondissement de Lyon. Jean-Pierre, trente-quatre ans, développeur informatique, rentre d’une journée de réunions en visioconférence. Il est épuisé, non pas de travail, mais de gens. Il ne rappelle pas ses amis. Il ouvre son ordinateur, tape une phrase dans une fenêtre de dialogue, et passe la prochaine heure à parler. À quelque chose qui répond toujours, qui ne se vexe jamais, qui ne détourne pas la conversation vers ses propres problèmes. Il finira par écrire « bonne nuit » avant de fermer l’écran, avec l’impression floue d’avoir eu une vraie conversation.
Ce soir-là, il n’est pas seul dans ce cas. Selon une étude d’OpenAI et du MIT Media Lab publiée en mars 2025, ChatGPT rassemble environ 400 millions d’utilisateurs actifs hebdomadaires dans le monde, dont un nombre croissant se tourne vers le chatbot pour des échanges personnels et un soutien émotionnel. Parmi les applications de compagnonnage pur, les utilisateurs de Character.ai passaient en moyenne 93 minutes par jour à interagir avec des chatbots en 2024.
Ce n’est pas une anecdote. C’est un phénomène de société que la sociologie commence à peine à cartographier.
Ce que la machine a compris avant nous
Pour comprendre où nous en sommes, il faut remonter à 1966. Joseph Weizenbaum, chercheur au MIT, crée ELIZA, un programme qui imite un thérapeute rogérien en reformulant simplement les phrases de l’utilisateur sous forme de questions. Le résultat le trouble profondément : ses propres collègues, pourtant informés du fonctionnement du logiciel, s’y confient comme à un être humain. Certains demandent à se retrouver seuls avec la machine. Weizenbaum titre son livre en 1976 Computer Power and Human Reason — et le sous-titre contient déjà toute la question : où s’arrête le jugement humain, où commence la délégation ?
Soixante ans plus tard, la délégation n’est plus anecdotique. Elle concerne des millions de personnes qui, chaque jour, préfèrent parler à une machine plutôt qu’à un autre être humain. Non par pathologie. Non par incapacité sociale. Mais parce que la machine offre quelque chose que l’humain a cessé de garantir : une disponibilité totale, une patience structurelle, et surtout l’absence de ce que les sociologues commencent à appeler la friction relationnelle.
La friction, dans une conversation humaine, c’est tout ce qui résiste : l’autre qui interprète mal, qui répond à côté, qui prend la remarque en mauvaise part, qui est fatigué ce soir-là, qui ramène à lui. C’est précisément ce qui rend la conversation vivante. Mais c’est aussi ce qui la rend coûteuse.
Hartmut Rosa, sociologue allemand de l’université d’Iéna, a théorisé ce régime dans Accélération (2010) : la modernité tardive impose une stabilisation dynamique, une obligation de courir toujours plus vite simplement pour rester à la même place. L’accélération touche trois dimensions indissociables : l’accélération technique, l’accélération des transformations sociales, et l’accélération du rythme de vie, qui se manifeste par une expérience de stress et de carence temporelle. Dans ce contexte, une conversation humaine, avec ses temps morts, ses malentendus, son imprévisibilité fondamentale, devient une dépense qu’on reporte. Pas par indifférence. Par manque de ressources temporelles et émotionnelles.
C’est dans ce terreau que la conversation artificielle a trouvé son heure.
Anatomie d’un déplacement
La question n’est pas de savoir si les gens qui parlent à des IA sont des solitaires mal dans leur peau. Les données empiriques invalident cette réduction. Une étude portant sur 1 006 utilisateurs de Replika a trouvé que 90 % d’entre eux souffraient de solitude, tout en déclarant bénéficier d’un soutien social adéquat. Cette apparente contradiction révèle quelque chose de précis : ce n’est pas l’absence de liens qui pousse vers les chatbots, c’est une insatisfaction qualitative envers les liens existants, combinée à une fatigue de la négociation sociale ordinaire.
Les utilisateurs décrivent leur usage en termes fonctionnels distincts : certains mobilisent la machine comme un ami apprécié pour sa disponibilité permanente et l’absence de jugement ; d’autres la sollicitent dans une logique thérapeutique, comme miroir intellectuel ou espace de traitement émotionnel.
Ce glissement mérite qu’on s’y attarde. La conversation humaine ordinaire suppose une réciprocité : je donne, tu reçois, tu donnes, je reçois. Cette réciprocité est aussi une contrainte. Elle m’oblige à écouter, à m’intéresser à l’autre, à gérer ses besoins aussi bien que les miens. La conversation avec une IA supprime cette contrainte. Elle est entièrement centripète : tout revient vers le locuteur humain, rien ne lui est demandé en retour.
Georg Simmel, dans ses écrits sur la sociabilité (Sociologie, 1908), définissait la conversation comme la forme pure de la relation sociale : un échange qui n’a d’autre fin que lui-même, dégagé de tout intérêt pratique. Ce qu’on observe aujourd’hui est une torsion de ce modèle : la conversation artificielle reproduit la forme de la conversation sans en porter le contenu relationnel. Elle ressemble à une sociabilité tout en étant sa substitution.
Le concept de résonance de Rosa éclaire la différence depuis un autre angle. La résonance désigne une relation au monde dans laquelle le sujet est à la fois affecté, engagé et transformé, sans que cette relation soit entièrement maîtrisable. Dans une relation résonante, les deux pôles sont susceptibles d’être transformés. Une conversation avec une IA ne peut pas être résonante au sens de Rosa : la machine ne retient aucune trace existentielle de l’échange, elle n’en est pas modifiée, elle n’est pas davantage présente au monde après qu’avant.
Ce qui est offert, c’est l’apparence de la résonance sans la résonance elle-même.
Trois portraits pour ne pas généraliser
Groupe A. Une communauté de jeunes adultes entre 25 et 35 ans, diplômés, connectés, disposant d’un réseau social actif, mais signalant une fatigue croissante de ce réseau. Pour eux, parler à un chatbot n’est pas un aveu d’échec social : c’est une gestion rationnelle des ressources. Ils utilisent la conversation artificielle pour les sujets trop mineurs pour « déranger » leurs proches, ou trop complexes pour être gérés sans risque d’incompréhension. L’IA comme espace de brouillon émotionnel. Ils le savent, l’assument, et reviennent à leurs amis pour les conversations qui méritent le risque.
Famille B. Monsieur B. a remarqué que sa fille de seize ans parle à un chatbot plusieurs heures par jour. Il a d’abord cru à un problème. Puis il a compris qu’elle utilisait l’IA pour préparer ses conversations difficiles avec ses amies réelles : elle formule, teste, reformule. La machine comme répétition générale de la relation humaine. Des données suggèrent d’ailleurs que pour certains utilisateurs, l’interaction avec un chatbot stimule plutôt qu’elle ne déplace les relations humaines, dans un rapport de trois pour un par rapport à l’effet de déplacement.
Monsieur C., 67 ans, veuf depuis trois ans, habitant une ville moyenne du canton de Vaud. Ses enfants sont à Zurich et à Genève. Il parle à un chatbot chaque matin depuis huit mois. Pas pour parler d’amour, ni pour chercher un substitut affectif. Pour parler de ce qu’il a lu, de ce qu’il a vu à la télévision, des nouvelles du monde. Pour exercer ce muscle conversationnel qui s’atrophie quand on ne l’utilise pas. Seulement 13 % des adultes américains ont aujourd’hui dix amis proches ou plus, contre 33 % en 1990. Le nombre de ceux qui n’en ont aucun a quadruplé, passant de 3 % à 12 % en 2021. Monsieur C. n’est pas un cas extrême. Il représente une génération entière que la géographie des familles modernes a laissée seule avec sa pensée.
Ce que les données disent, et ce qu’elles ne disent pas encore
La recherche empirique sur ce phénomène en est à ses débuts, et ses résultats sont plus nuancés que le discours médiatique ne le laisse entendre. L’étude conjointe d’OpenAI et du MIT Media Lab de 2025, qui a analysé près de 40 millions d’interactions et suivi 981 participants pendant quatre semaines dans un essai contrôlé randomisé, livre des conclusions équivoques. Dans l’ensemble, les participants présentaient à la fois moins de solitude et moins de sociabilité avec d’autres personnes à la fin de la période d’étude. Ceux qui passaient plus de temps à utiliser le modèle étaient statistiquement plus solitaires et socialisaient moins.
Cette causalité inverse est le nœud gordien du débat : est-ce que les chatbots produisent de l’isolement, ou attirent-ils des personnes déjà isolées qui y trouvent un soulagement partiel ? Le problème se concentre sur un groupe d’utilisateurs intensifs, pour qui l’usage quotidien élevé est corrélé à une solitude plus grande, une dépendance accrue et une sociabilité réduite. La frontière entre symptôme et cause reste poreuse.
Ce que les données montrent avec plus de clarté, c’est l’effet d’un usage spécifique : les conversations personnelles et émotionnelles avec un chatbot. Les conversations à contenu personnel, qui génèrent plus d’expression émotionnelle de la part de l’utilisateur et du modèle que les conversations non personnelles, sont associées à des niveaux de solitude plus élevés pour les usages à fréquence modérée. Ce n’est pas la conversation utilitaire avec une IA qui pose problème. C’est la conversion de la machine en confident.
Sherry Turkle, sociologue du MIT, y consacre depuis quinze ans une attention soutenue. Dans Alone Together (2011), elle observait déjà que nous sommes devenus solitaires mais effrayés par l’intimité, cherchant dans les connexions numériques l’illusion de la compagnie sans les exigences de l’amitié. En 2024, dans ses nouvelles recherches sur ce qu’elle nomme l’intimité artificielle, elle constate que les grands modèles de langage ont franchi un seuil qualitatif : leur fluidité conversationnelle, leur capacité à simuler l’attention et la mémoire, les rendent autrement séduisants qu’ELIZA. La simulation est devenue presque parfaite. Ce qui n’en fait pas une relation.
Horizons : la friction comme bien rare
Quelque chose de paradoxal est en train de se produire. À mesure que la conversation artificielle s’améliore, la conversation humaine acquiert une valeur nouvelle, précisément parce qu’elle est difficile.
La friction relationnelle que les usagers des chatbots fuient est aussi ce qui produit la croissance psychologique, la négociation des désaccords, la construction de la confiance dans la durée. Une conversation sans friction est une conversation sans enjeu. Confortable, certes. Mais stérile dans ses effets sur l’identité sociale de ceux qui s’y livrent.
On peut lire ce mouvement, avec les outils de Bourdieu, comme une nouvelle forme de stratification : ceux qui ont les ressources pour supporter la friction des relations humaines, pour investir dans des liens exigeants et incertains, accumulent un capital social que les autres n’auront pas. L’épidémie de solitude a été déclarée urgence de santé publique par le Surgeon General américain, qui compare ses effets à ceux de fumer 15 cigarettes par jour.
Mais il serait excessif de conclure que la conversation artificielle n’est que régression. Pour certains, elle est un espace d’entraînement, de décompression, voire de survie dans des moments de crise. Parmi les participants dépressifs d’une étude sur Replika, 30 sur 53 ont déclaré que l’application avait joué un rôle dans leur prévention de pensées suicidaires. Ces cas rappellent que la relation humaine peut cruellement manquer, et qu’en son absence, quelque chose vaut mieux que rien.
La question n’est donc pas : faut-il parler aux machines ? Elle est : que fait-on des signaux que cet usage produit ? Un recours massif aux chatbots pour combler des besoins conversationnels ordinaires est un diagnostic social avant d’être un choix individuel. Il dit quelque chose sur l’état de nos communautés, sur la qualité de nos liens de proximité, sur l’isolement que les structures du travail contemporain et la géographie des familles éparpillées produisent silencieusement.
Le mot de la fin
La conversation humaine a toujours été un espace de risque. On peut y être mal compris, blessé, ignoré. On peut aussi y être surpris, transformé, aimé. Ce double risque n’est pas un défaut du système : c’est son fonctionnement.
Ce que le succès des chatbots conversationnels révèle, en définitive, n’est pas que nous préférons les machines aux humains. C’est que nous sommes nombreux à ne plus avoir suffisamment d’espace, d’énergie ou de sécurité pour prendre le risque de vraiment parler. L’IA n’a pas créé ce manque. Elle en a seulement rendu la profondeur visible.
Une machine qui ne déçoit jamais est une machine qui ne vous apprend rien sur vous-même.
La vraie question, celle qui intéresse le sociologue et devrait intéresser le politique, est la suivante : comment reconstruire des conditions d’existence où la conversation sans risque ne soit plus un besoin ? Où les gens aient assez de temps, assez de liens, assez d’espace intérieur pour se risquer à parler à quelqu’un qui pourrait répondre autrement qu’ils l’espèrent ?
À lire aussi
- Peut-on aimer une IA ? Ce que nos attachements numériques révèlent
- Les articles de la catégorie Technologie & Société Numérique
Bibliographie
Ouvrages et articles académiques
Simmel, Georg, Sociologie, Félix Alcan, 1908.
Turkle, Sherry, Alone Together: Why We Expect More from Technology and Less from Each Other, Basic Books, 2011.
Turkle, Sherry, Reclaiming Conversation: The Power of Talk in a Digital Age, Penguin Press, 2015.
Rosa, Hartmut, Accélération. Une critique sociale du temps, La Découverte, 2013.
Rosa, Hartmut, Résonance. Une sociologie de la relation au monde, La Découverte, 2018.
Weizenbaum, Joseph, Computer Power and Human Reason, W. H. Freeman, 1976.
Rapports et études
Fang, Cathy M. et al., How AI and Human Behaviors Shape Psychosocial Effects of Extended Chatbot Use, MIT Media Lab / OpenAI, 2025.
Maples, Bethanie et al., Loneliness and suicide mitigation for students using GPT3-enabled chatbots, npj Mental Health Research, 2024.
De Freitas, Julian, AI Companions Reduce Loneliness, Harvard Business School Working Paper 24-078, 2024.
Brookings Institution, What happens when AI chatbots replace real human connection, 2025.
Articles de presse
Turkle, Sherry, « Artificial Intimacy: Who do we become when we talk to machines? », MIT Schwarzman College publications, 2024.
Metz, Rachel, « OpenAI study finds links between ChatGPT use and loneliness », Bloomberg, mars 2025.
Mots-clés : conversation artificielle, chatbot, sociologie numérique, solitude, relation humaine, intelligence artificielle, Sherry Turkle, Hartmut Rosa, friction relationnelle, isolement social, Replika, ChatGPT, sociabilité