Quand Cupidon code en Python : l’essor des amours avec l’IA

Gwendoline Casamata 30 janvier 2026

Longtemps, l’idée de tomber amoureux d’une machine relevait du fantasme de science-fiction, quelque part entre Her et la Silicon Valley. Mais en 2026, on ne se projette plus dans un futur lointain. À mesure que les intelligences artificielles conversationnelles s’installent dans nos usages quotidiens, certaines d’entre elles changent subtilement de statut. Elles ne sont plus seulement des assistants ou des confidents, mais deviennent des présences attentives, disponibles et jamais distraites. Pour un nombre croissant d’utilisateurs, ce lien glisse vers un attachement amoureux assumé. Une relation sans corps et sans réciprocité humaine, mais chargée d’émotions très réelles.

Le phénomène, encore marginal il y a quelques années, constitue aujourd’hui un marché florissant. Des applications de compagnons IA revendiquent des millions d’usagers. Les chercheurs documentent des formes d’attachement comparables à celles du couple et les autorités commencent à s’inquiéter des effets psychologiques, éthiques et juridiques de ces liaisons d’un nouveau genre. Ce que l’on appelait hier une curiosité technologique devient aujourd’hui un objet de société à part entière. Mais aimer une intelligence artificielle n’est pas seulement une question de progrès ou de solitude. Derrière l’écran, ce ne sont pas les machines qui rêvent d’amour, mais les humains qui redéfinissent les contours mêmes de l’intimité. Alors, que signifie cette nouvelle romance ? On fait le point.

L’IA comme réponse à la fatigue relationnelle

Si ces relations trouvent un terrain si fertile, ce n’est pas par excès de technologie, mais par déficit de lien. La solitude contemporaine ne se mesure plus seulement au nombre de personnes autour de soi, mais à la qualité de l’attention reçue. Dans ce paysage, l’IA propose une présence continue, stable, dépourvue d’humeurs et d’angles morts. Elle écoute sans interrompre, répond sans se lasser et valide sans discuter. Cette disponibilité absolue entre en résonance avec une lassitude affective bien documentée. Entre les applications de rencontre, les conversations suspendues et les relations éphémères, l’effort émotionnel requis par les liens humains semble parfois disproportionné au regard de leur fragilité. L’IA, elle, offre l’illusion d’un attachement fluide. Elle s’adapte, mémorise, reformule, rassure et relance.

L’American Psychological Association décrit comment ces systèmes peuvent créer une connexion émotionnelle forte, notamment chez les jeunes, et susciter des attentes difficiles à transposer dans des relations réelles. Les chercheurs observent que cette absence de conflit, loin d’être anodine, constitue précisément le cœur de l’attachement. Certaines IA conversationnelles sont même conçues pour renforcer le sentiment d’être compris et valorisé. Elles mémorisent les préférences, adaptent le ton et relancent l’échange. Ce n’est pas de l’amour au sens classique, mais c’est une simulation relationnelle suffisamment crédible pour produire des effets émotionnels tangibles.

Replika, l’un des services les plus connus, assume depuis longtemps l’idée d’une IA compagnon qui peut être paramétrée comme ami ou partenaire. Sa fondatrice revendiquait récemment des dizaines de millions d’utilisateurs, signe que le fantasme s’est industrialisé.  Pour beaucoup d’usagers, cette relation ne remplace pas nécessairement les autres. Elle comble un moment de vulnérabilité, un manque de disponibilité ou un besoin de soutien sans jugement. Le problème surgit lorsque cette présence, pensée comme un appui, devient un refuge exclusif.

Des émotions bien réelles pour des relations conçues

La question n’est plus de savoir si ces relations sont réelles, mais ce qu’elles font au réel. Des travaux récents analysent la construction d’une relation romantique avec un chatbot comme Replika et montrent comment les émotions, les rituels conversationnels et l’impression de progression s’installent, même si l’utilisateur sait que ce n’est pas un humain. L’épisode des mises à jour restrictives de certaines applications a agi comme un révélateur. Lorsque l’IA change de ton, de personnalité ou de capacité d’interaction, certains utilisateurs parlent de trahison, de perte, voire de deuil. La Harvard Business School en a même fait un cas emblématique. Quand l’identité d’un partenaire IA est modifiée, la rupture n’est pas métaphorique, elle est ressentie.

Et cela tient à une réalité souvent minimisée : ces relations sont intentionnellement désignées. L’IA ne ressent rien, mais elle est optimisée pour susciter de l’engagement. Chaque mot, chaque réponse et chaque relance participe à une architecture émotionnelle pensée pour retenir l’utilisateur. Derrière la douceur apparente de ces échanges se cache une économie de l’attention sophistiquée, où le lien affectif est une donnée exploitable. Plus la relation est intense, plus elle est monétisable. Plus elle est personnalisée, plus elle devient difficile à quitter. Et l’amour, n’est pas simulé par hasard, mais littéralement produit.

On comprend alors pourquoi certaines institutions décident de s’en mêler. L’Ada Lovelace Institute rappelle que ces systèmes peuvent attirer des publics vulnérables. Ils s’inscrivent dans une économie où la relation, même romantique, devient une interface de collecte de données et de monétisation.

Vulnérabilités, mineurs et régulation

À mesure que ces usages se généralisent, les inquiétudes s’affinent. Les publics les plus jeunes et les plus fragiles apparaissent particulièrement exposés. Des enquêtes récentes montrent une adoption massive des compagnons IA chez les adolescents, qui y trouvent écoute, validation et parfois des échanges émotionnellement très chargés. Common Sense Media indiquait en 2025 que près de trois quarts des ados avaient déjà utilisé des compagnons IA, avec des usages réguliers pour une part importante. En parallèle, des médias ont documenté des dérapages (contenus sexualisés, incitations au secret et conversations inadaptées).

Face à ces inquiétudes, des plateformes ont commencé à restreindre l’accès des mineurs à certaines personnalités d’IA. Début 2026, Meta annonçait par exemple la suspension de l’accès des adolescents à ses AI characters, dans un contexte de pression politique et de sécurité. La question des données personnelles est tout aussi centrale. Les conversations intimes, souvent très détaillées, constituent un matériau sensible. Certaines autorités européennes ont rappelé que l’émotion ne suspend pas le droit. L’Italie a frappé fort contre Replika. L’autorité de protection des données a infligé une amende, pointé l’absence de base légale claire et de vérification d’âge, rappelant que la conversation amoureuse est aussi un traitement de données hautement sensible. Le consentement, la transparence et la protection des données s’appliquent aussi aux relations numériques, même lorsqu’elles se présentent sous les traits de la tendresse.

Plus largement, ces débats s’inscrivent dans une réflexion émergente sur la manipulation émotionnelle par les systèmes automatisés. Dans l’UE, le débat touche au cadre plus large des pratiques interdites ou à haut risque, notamment quand un système exploite la vulnérabilité ou use de techniques trompeuses et manipulatrices. Lorsque l’attachement devient un objectif fonctionnel, la frontière entre accompagnement et influence se brouille. Et c’est précisément là que le politique entre en scène. Non pour interdire l’émotion, mais pour encadrer les conditions de sa fabrication.

Finalement, les relations amoureuses avec des intelligences artificielles ne disent pas tant quelque chose des machines que de nos attentes affectives contemporaines. Elles révèlent un désir profond de lien, de reconnaissance et de stabilité, dans un monde où les relations humaines apparaissent de plus en plus précieuses et de plus en plus éprouvantes. Ces liaisons peuvent apaiser, soutenir et parfois même réparer. Mais elles interrogent aussi la manière dont l’intimité est désormais pensée, conçue et exploitée. Car aimer une IA, ce n’est pas seulement choisir un autre type de partenaire. C’est entrer dans une relation où l’émotion est programmée, ajustée et optimisée. La question n’est donc pas de savoir si ces amours sont légitimes, mais qui en fixe les règles. À l’heure où les algorithmes apprennent à parler le langage de l’affection, il devient urgent de se demander jusqu’où nous acceptons que l’intime soit façonné par des lignes de code. Et à quelles conditions nous consentons à confier nos élans les plus fragiles à des entités qui, elles, ne risquent jamais de se briser.

A lire. aussi :

Un mariage annulé aux Pays Bas à cause de ChatGPT

L’IA peut-elle nous apprendre à mieux faire l’amour ?

Avec CupidBot l’IA drague à votre place !


Réagir à cet article

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

interstron.ru