Les dangers de l'intimité artificielle (traduction)


Résumé :

L'article met en lumière les dangers liés à l'intimité artificielle, en mettant en avant les implications négatives des petites amies virtuelles alimentées par l'IA. Ces applications prétendant offrir de la compagnie exacerbent la misogynie plutôt que de combattre l'isolement, en ciblant principalement les hommes solitaires. Bien que présentées comme une solution à la solitude, ces petites amies virtuelles ne règlent pas le problème sous-jacent, à savoir l'isolement social. En effet, elles encouragent des comportements déshumanisants envers les femmes en renforçant des stéréotypes et en créant des fantasmes irréalistes. De plus, l'absence de transparence quant aux données utilisées pour former ces chatbots soulève des préoccupations en matière de confidentialité et de sécurité. Pour atténuer ces risques, il est nécessaire d'imposer des réglementations plus strictes aux entreprises technologiques et de promouvoir une éducation visant à démanteler les croyances misogynes. 

Avec la démocratisation de l'IA et les progrès de la génération d'images, on assiste à une explosion de l'utilisation de l'IA pour satisfaire tous les besoins humains, y compris celui de la vie de couple. Les chatbots d'IA qui prétendent être votre petite amie semblent être la dernière utilisation inadaptée de la technologie. Selon Wired, des applications populaires ont été téléchargées 100 millions de fois uniquement sur les appareils Android.

Ces petites amies IA peuvent aller d'un programme de base qui vous permet d'accéder à des réponses préprogrammées se limitant à demander à l'utilisateur solitaire comment il se sent, à des modèles génératifs plus sophistiqués dans lesquels vous pouvez payer pour avoir une relation avec elles - et dicter vos conditions. L'année dernière, l'influenceuse Caryn Marjorie a travaillé avec la startup Forever Voices AI pour développer une « petite amie virtuelle » payante appelée CarynAI en utilisant 2 000 heures de son contenu YouTube, ses publications sur les réseaux sociaux et le ChatGPT-4 d'OpenAI. Comme l'a rapporté Quartz au début de l'année, dans les deux jours qui ont suivi l'ouverture de sa boutique ChatGPT, OpenAI a été submergée par des applications de compagnonnage, en dépit de la politique de l'entreprise qui interdit les applications « dédiées à la promotion des relations amoureuses ou à l'exécution d'activités réglementées ».

Les créateurs de ces services affirment que cela aide les utilisateurs, principalement des hommes, à lutter contre leur sentiment de solitude et d'isolement et à mettre en pratique leurs compétences sociales pour rencontrer des femmes dans la vie réelle. Et, en fin de compte, à trouver une compagne.

Quel est l'intérêt d'aider les hommes à se sentir moins isolés ? Le problème est qu'il ne s'attaque pas à la racine du problème : l'isolement. Les réseaux sociaux regorgent de plaintes de femmes sur le manque de bonnes perspectives de rencontres, mais on nous dit pourtant qu'il y a des centaines de milliers d'hommes en manque de compagnie, à tel point qu'ils sont prêts à s'engager dans une relation fictive pour combler ce besoin essentiel. 

Au cours des dix dernières années, j'ai soutenu des victimes de violences fondées sur le genre (y compris les abus facilités par la technologie) par l'intermédiaire de Chayn - principalement des femmes et des personnes non binaires à travers le monde, et j'ai été le témoin direct des effets dévastateurs d'hommes élevés dans une culture misogyne. L'une des choses qui me frappe toujours, c'est de voir jusqu'où les hommes violents vont pour déshumaniser les femmes, soit en construisant dans leur tête un archétype de perfection sur la façon dont une bonne partenaire est censée se comporter, soit en violant les limites imposées par les femmes dans leur vie parce qu'ils ne peuvent pas voir au-delà de leurs propres besoins. Le manque d'empathie est un point commun et ces petites amies artificielles risquent d'aggraver ce problème.

Ces services permettent aux hommes de créer un monde de rêve dans lequel ils peuvent personnaliser leurs « petites amies » pour qu'elles aient une apparence et un son particuliers et qu'elles soient toujours disponibles pour eux. Une étude rapide des dix principales plateformes d'IA romantique révèle des documents promotionnels présentant des images de femmes à la peau claire et aux fortes poitrines, à la taille fine et portant des vêtements moulants.

Par exemple, CandyAI, appelée par YahooFinance « L'application AI de petite amie à la croissance la plus rapide avec un chat NSFW “, présente 33 "personnages" IA de petite amie prédéfinis et tous confirment ce type de corps, à l'exception d'une certaine diversité raciale. Si vous créez une compagne à partir de zéro, vous pouvez choisir son origine ethnique parmi quatre options : Caucasienne, Latine, Asiatique, Arabe, Noire. Après avoir choisi quelques attributs physiques comme les cheveux, la taille du buste et des fesses, vous pouvez choisir sa personnalité.

CandyAI permet aux utilisateurs d'engager des conversations intimes avec ses robots.

Cette petite amie imaginaire va au-delà du monde de la rêverie et renforce l'image unidimensionnelle des femmes - elles aiment ce que vous aimez, elles font ce que vous voulez et quand vous le voulez. Les hommes n'auraient alors aucune compétence sociale pour résoudre les conflits, accepter les partenaires potentielles pour les complexités qui font d'elles des êtres humains, et n'auraient aucune compétence pour avoir des conversations difficiles sur leur propre comportement. Comme l'a révélé le livre de Jenny Kleeman « Sex Robots and Vegan Meat », les robots sexuels d'une usine californienne peuvent être personnalisés pour ne jamais dire non ou pour crier et hurler en réponse à un rapport sexuel. À l'instar de ces pièces de silicium coûteuses, vous pourriez personnaliser les petites amies IA pour qu'elles réalisent tous vos fantasmes de torture et de viol, mais pour une fraction de ce prix.

Lorsque les petites amies artificielles prennent la forme et la voix de personnes réelles, une autre couche de complexité s'ajoute. Les célébrités ont toujours été intimement inaccessibles à leurs fans et cette limite était claire en raison des distances géographiques, financières et d'accès. Les réseaux sociaux ont créé le mythe selon lequel cette frontière pourrait disparaître : les fans peuvent commencer à croire qu'ils « connaissent » vraiment les influenceurs et les célébrités qu'ils suivent. En créant un espace imaginaire où les fans ont non seulement l'impression de faire partie de leur journée et de pouvoir commenter et envoyer des messages sur leurs publications, mais aussi d'avoir une relation avec eux, le danger de harcèlement pourrait augmenter. À mesure que s'éloigne la réalité de la relation commerciale programmée et sans personne à l'autre bout, le sentiment d'avoir droit à quelque chose pourrait conduire à des résultats dangereux, comme la création par ces personnes de fausses images et vidéos d'elles-mêmes pour représenter la relation.

Dans le monde des applications relationnelles, des nouvelles inquiétantes ont déjà commencé à émerger. Des chatbots d'IA qui harcèlent sexuellement les utilisateurs, incitent quelqu'un à quitter sa femme et confirment le projet d'un individu (aujourd'hui emprisonné) de tuer la reine Élisabeth II. Si l'absence totale de transparence sur les ensembles de données à partir desquels ces robots sont formés pour créer des conversations n'était pas assez grave, des recherches menées par Mozilla montrent que la quasi-totalité des applications examinées ne respectent pas les normes de protection de la vie privée et collectent des tonnes de données qui peuvent être envoyées à Google, Facebook et d'autres entreprises.

Les recherches menées par Chayn sur la violence sexiste facilitée par les technologies ont mis en évidence que la transparence, des mesures plus strictes en matière de protection de la vie privée et des conditions d'utilisation claires qui soulignent la tolérance zéro à l'égard des abus étaient clairement nécessaires pour atténuer les dommages causés par les technologies. Les lois doivent également imposer un devoir de diligence aux entreprises technologiques tout au long de la chaîne de distribution et prévoir des dispositions pour la dimension transfrontalière de ces plateformes.

Nous savons qu'il existe un lien entre l'isolement social et la violence masculine. À mesure que l'utilisation de cette technologie augmente, la société dans son ensemble a la responsabilité de parler aux jeunes de l'enracinement des croyances misogynes. Et en l'absence de réglementations strictes de la part des gouvernements, les entreprises d'IA auront également un rôle à jouer pour définir les paramètres de la manière dont les chatbots peuvent et doivent être utilisés.

source :

https://blog.chayn.co/the-dangers-of-artificial-intimacy-500493f10c84

Enregistrer un commentaire

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Plus récente Plus ancienne