Résumé : Les applications de rencontre s'apprêtent à déployer des assistants IA ("wingmen") pour aider les utilisateurs à rédiger leurs profils, sélectionner des photos et écrire des messages. Match Group, propriétaire de Tinder et Hinge, prévoit d'intensifier ces fonctionnalités dès mars 2025. Cette évolution suscite l'inquiétude de nombreux universitaires, dont Dr Luke Brunning de l'Université de Leeds, qui a coordonné la rédaction d'une lettre ouverte appelant à une régulation. La crainte est que la technologie érode davantage l'authenticité déjà fragile des relations en ligne, n'aggrave les problèmes de santé mentale et n'exacerbe les inégalités algorithmiques. Avec 4,9 millions d'utilisateurs au Royaume-Uni et 60,5 millions aux États-Unis, principalement âgés de 18 à 34 ans, l'impact pourrait être considérable, bien que les entreprises comme Match Group et Bumble affirment s'engager pour une utilisation éthique et responsable de l'IA.
Des robots d'intelligence artificielle seront bientôt déployés sur les applications de rencontres pour draguer les utilisateurs, rédiger des messages en leur nom et élaborer leur profil à leur place.
Mais dépendre de l'intelligence artificielle pour stimuler une relation naissante risque de détruire le peu d'authenticité humaine qui subsiste sur les sites de rencontres, ont averti des experts.
Match Group, l'entreprise technologique qui possède le plus grand nombre de sites de rencontres au monde, dont Tinder et Hinge, a annoncé qu'elle augmentait ses investissements dans l'intelligence artificielle, avec de nouveaux produits prévus pour ce mois-ci. Les robots d'IA seront utilisés pour aider les utilisateurs à choisir leurs photos les plus populaires, à rédiger des messages et à fournir un « coaching efficace pour les utilisateurs en difficulté ».
Mais ces « utilisateurs en difficulté », qui manquent peut-être de capacités sociales et qui commencent à compter sur les assistants d'intelligence artificielle pour engager des conversations à leur place, pourraient éprouver des difficultés lors de leurs rendez-vous dans la vie réelle, sans l'aide de leur téléphone pour les aider à dialoguer. Selon un groupe d'universitaires, cela pourrait conduire à l'anxiété et à un repli sur le côté rassurant de la sphère numérique. Cela pourrait également réduire la confiance des utilisateurs sur l'authenticité des autres utilisateurs de l'application. Qui utilise l'IA et qui est un véritable humain en chair et en os qui pianote derrière l'écran ?
Luke Brunning, maître de conférences en éthique appliquée à l'université de Leeds, a co-publié une lettre ouverte appelant à une protection réglementaire contre l'IA sur les applications de rencontres. Il estime qu'essayer de résoudre les problèmes sociaux causés par la technologie avec encore plus de technologie non réglementée ne fera qu'empirer les choses, et que le perfectionnement automatisé des profils renforce également cette culture des applications de rencontres où les gens ont l'impression qu'ils doivent constamment surpasser les autres pour réussir.
« Nombre de ces entreprises ont correctement identifié ces problèmes sociaux », a-t-il déclaré. « Mais elles se tournent vers la technologie pour les résoudre, au lieu d'essayer de faire des choses qui désamorcent vraiment la compétitivité, créer un environnement où la vulnérabilité est acceptée, où l'imperfection est acceptée, où les gens s'acceptent les uns les autres comme des gens ordinaires qui ne mesurent pas plus d'un mètre quatre-vingt-dix, qui ont une carrière fantastique et intéressante, une biographie bien écrite et un sens constant de la plaisanterie spirituelle. La plupart d'entre nous ne sont pas toujours comme ça ».
Il fait partie de la douzaine d'universitaires britanniques, américains, canadiens et européens qui ont mis en garde contre l'adoption hâtive de l'IA générative, qui « pourrait dégrader un environnement en ligne déjà précaire ». Selon eux, l'IA sur les plateformes de rencontres risque d'avoir de multiples effets néfastes, notamment d'aggraver la crise de la solitude et la santé mentale des jeunes, d'exacerber les préjugés et les inégalités, et de dégrader encore davantage les aptitudes sociales des gens dans la vie réelle. Ils estiment que l'explosion des fonctions d'IA sur les applications de rencontres doit être réglementée rapidement.
Rien qu'au Royaume-Uni, 4,9 millions de personnes utilisent des applications de rencontres, et les États-Unis comptent au moins 60,5 millions d'utilisateurs. Environ trois quarts des utilisateurs d'applications de rencontres sont âgés de 18 à 34 ans.
De nombreux célibataires affirment qu'il n'a jamais été aussi difficile de parvenir à une relation amoureuse. Pourtant, cette lettre ouverte avertit que l'IA des applications de rencontres risque de dégrader encore davantage la situation : en facilitant la manipulation et la tromperie, en renforçant les préjugés algorithmiques concernant la couleur de peau et le handicap, et en homogénéisant les profils et les conversations encore plus qu'ils ne le sont aujourd'hui.
Mais les partisans de l'IA dans les applications de rencontres affirment que les assistants et les « assistants de rencontres », comme on les appelle, pourraient contribuer à réduire la lassitude, le surmenage et les démarches à accomplir pour organiser des rendez-vous. L'année dernière, Aleksandr Zhadan, chef de produit, a programmé ChatGPT pour qu'il parcoure et discute avec plus de 5 000 femmes en son nom sur Tinder. Il a fini par rencontrer celle qui est aujourd'hui sa fiancée.
M. Brunning affirme qu'il n'est pas contre ces applications, mais qu'il pense que ces dernières sont au service des entreprises plutôt que de leurs utilisateurs. Il est frustré que le domaine des rencontres numériques fasse l'objet de si peu d'attention par rapport à d'autres domaines de la vie en ligne, comme les réseaux sociaux.
« Les régulateurs réagissent à la nécessité de se pencher sur les réseaux sociaux, et ils s'inquiètent de l'impact social des réseaux sociaux, de leur effet sur la santé mentale. Je m'étonne simplement que les applications de rencontres n'aient pas été intégrées à cette prise de conscience.
« À bien des égards, [les applications de rencontres] sont très similaires aux réseaux sociaux », a-t-il déclaré. « À bien d'autres égards, elles ciblent explicitement nos émotions les plus intimes, nos désirs romantiques les plus forts. Elles devraient attirer l'attention des régulateurs ».
Un porte-parole de Match Group a déclaré : « Chez Match Group, nous nous engageons à utiliser l'IA de manière éthique et responsable, en plaçant la sécurité et le bien-être des utilisateurs au cœur de notre stratégie.... Nos équipes travaillent à la conception d'expériences d'IA qui respectent la confiance des utilisateurs et s'alignent sur la mission de Match Group, qui est de favoriser des relations significatives de manière éthique, inclusive et efficace. » Un porte-parole de Bumble a déclaré : « Nous voyons des opportunités dans l'IA pour aider à améliorer la sécurité, optimiser les expériences des utilisateurs, et permettre aux utilisateurs d'être plus authentique en ligne, tout en étant focalisé sur l'utilisation éthique et responsable de l'IA. Notre objectif avec l'IA n'est pas de remplacer l'amour ou les rencontres par la technologie, mais de rendre la communication humaine meilleure, plus compatible et plus sûre ».
L'Ofcom a souligné que la loi sur la sécurité en ligne s'applique aux chatbots d'IA générative nuisibles. Un porte-parole de l'Ofcom a déclaré : « Lorsqu'elle entrera en vigueur, la loi britannique sur la sécurité en ligne imposera de nouvelles obligations aux plateformes pour protéger leurs utilisateurs des contenus et activités illégales. Nous avons été clairs sur la façon dont la loi s'applique à la GenAI, et nous avons défini ce que les plateformes peuvent faire pour protéger leurs utilisateurs des dommages qu'elle pose en testant les modèles d'IA pour détecter les vulnérabilités. »
traduction de :
https://www.theguardian.com/lifeandstyle/2025/mar/08/ai-wingmen-bots-to-write-profiles-and-flirt-on-dating-apps
Enregistrer un commentaire
Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.