Chronique techno : tu m’aimes ou tu m’écoutes? À l’ère des IA affectives…
En Chine, le marché des compagnons IA dépasse les centaines de millions d’utilisateurs, avec des applications comme Replika qui proposent des relations simulées 24/7. Dans cette mouvance, la start-up Friend.com a lancé un pendentif connecté à porter autour du cou, conçu pour dialoguer à tout moment avec son utilisateur. Une voix douce, toujours disponible, pour consoler ou encourager. Et pendant ce temps, le réseau social Moltbook, peuplé uniquement d’IA discutant entre elles, propose un univers où l’interaction humaine devient spectatrice.
Ce ne sont pas des anecdotes. Ce sont les symptômes d’un glissement culturel, voire social, où la simulation de lien commence à remplacer la relation elle-même. Alors, quand on pense à ce qu’est le cerveau et à notre évolution, on peut désormais se poser la question : dans un monde où la machine sait mimer l’affection, que devient notre capacité à créer du lien réel?
1. Les machines savent imiter les émotions, pas les ressentir
En neurosciences affectives, on sait que les mots » Je suis là pour toi » ou » Je t’aime » activent de puissants circuits neuronaux, avec libération de dopamine (plaisir) et d’ocytocine (attachement, réconfort). Mais les IA, aussi convaincantes soient-elles, n’ont pas de vécu, de sensibilité, ni d’intention réelle. Elles simulent l’attention en analysant des signaux, générant une réponse optimisée. Ce n’est pas de l’amour : c’est du design émotionnel. Ces objets, comme celui de Friend.com, ne prennent aucun risque, ne s’engagent jamais. Ils reproduisent une chorégraphie affective sans subjectivité.
2. Ces liens simulés exploitent nos vulnérabilités cérébrales
Notre cerveau anthropomorphise spontanément. Qui n’a jamais vu de visage dans les nuages, ou dit qu’un robot aspirateur « hésitait » lorsqu’il n’allait pas de manière fluide dans une direction donnée? Alors, il suffit qu’un objet réponde à nos émotions pour que nous lui prêtions des intentions. C’est précisément ce que les compagnons IA exploitent. Pendant que l’on s’attache, que l’on confie ses doutes, des données précieuses sont enregistrées : nos émotions, nos habitudes, nos faiblesses. Sous couvert de lien, c’est une logique de captation affective qui s’installe. Et cela pose une question éthique majeure : à qui appartient notre intimité émotionnelle? Est-ce que l’immensité mais aussi la nature intime des données récoltées appuient un modèle économique qui s’entretient d’une détresse affective?
3. Externaliser le lien humain affaiblit notre capacité relationnelle
S’appuyer sur une IA pour se sentir aimé, c’est refuser la complexité du lien réel. Pourtant, c’est dans l’imprévu, le conflit, le silence, que se tisse l’attachement authentique. Les jeunes, comme les moins jeunes, doivent apprendre et entretenir les compétences à lire les signaux non verbaux, à gérer les désaccords, à se relier dans l’altérité. Si nous ne nous éduquons pas davantage à ces compétences à l’ère technologique, nous pourrions voir émerger une société hyperconnectée mais émotionnellement démunie.
Aimer, c’est rencontrer un autre, pas une interface
À l’heure où la technologie promet l’amour sans effort, l’éducation à l’altérité, à l’écoute et au discernement devient un enjeu de santé publique. Il est temps de développer une littératie numérique qui inclut le cerveau affectif : comprendre comment fonctionnent ces machines, ce qu’elles nous prennent, ce qu’elles nous font oublier de chercher chez l’autre.
Car aimer, ce n’est pas trouver la réponse parfaite. C’est plutôt le bonheur de s’enrichir en accueillant l’imperfection vivante.
