Deux heures suffisent pour que des agents d'intelligence artificielle reproduisent votre personnalité avec une précision de 85 % (traduction)

 


Résumé : des chercheurs de Google et Stanford ont démontré qu'une intelligence artificielle peut créer une réplique précise de la personnalité d'un individu après seulement deux heures d'interaction. L'étude, impliquant plus de 1 000 participants, a révélé un taux de précision impressionnant de 85% dans la reproduction des réponses des participants à divers tests de personnalité et enquêtes sociales. Ces "agents de simulation" ont été créés à partir d'entretiens approfondis couvrant les histoires personnelles, les valeurs et les opinions des participants sur des questions sociétales. Bien que cette technologie présente des applications prometteuses dans des domaines tels que la recherche en santé publique et l'étude des comportements sociaux, les chercheurs reconnaissent également les risques potentiels d'abus, notamment en matière de manipulation et de deepfakes. Cette avancée ouvre néanmoins de nouvelles perspectives pour l'étude du comportement humain dans un environnement contrôlé, tout en soulevant des questions importantes sur l'éthique et l'avenir de la modélisation comportementale par l'IA.

Des chercheurs ont découvert que deux heures de conversation avec un modèle d'intelligence artificielle (IA) suffisent pour créer une réplique exacte de la personnalité d'une personne.

Dans une nouvelle étude publiée le 15 novembre dans la base de données arXiv, des chercheurs de Google et de l'université de Stanford ont créé des « agents de simulation » - essentiellement des reproductions par IA - de 1 052 personnes en se basant sur des entretiens de deux heures avec chacun des participants. Ces entretiens ont été utilisés pour former un modèle génératif d'IA conçu pour imiter le comportement humain.

Pour évaluer la précision de ces répliques par l'IA, chaque participant a effectué deux séries de tests de personnalité, d'enquêtes sociales et de jeux de logique, et a été invité à répéter le processus deux semaines plus tard. Lorsque les reproductions par l'IA ont subi les mêmes tests, elles ont correspondu aux réponses de leurs équivalents humains avec un taux de précision de 85 %.

Selon cette étude, les modèles d'IA qui imitent le comportement humain pourraient être utiles dans divers scénarios de recherche, tels que l'évaluation de l'efficacité des politiques de santé publique, la compréhension des réactions au lancement de produits, ou même la modélisation des réactions à des événements sociétaux majeurs qui pourraient être trop coûteux, trop difficiles ou trop complexes sur le plan éthique pour être étudiés avec des participants humains.

« La reproduction généralisée des attitudes et des comportements humains - où chaque personne reproduite peut s'engager dans un éventail de contextes sociaux, politiques ou informationnels - pourrait constituer un laboratoire permettant aux chercheurs de tester un large éventail d'interventions et de théories », écrivent les chercheurs dans leur article. Ces simulations pourraient également permettre de piloter de nouvelles politiques publiques, d'élaborer des théories sur les interactions causales et contextuelles et de mieux comprendre comment les institutions et les réseaux influencent les gens, ajoutent-ils.

Pour créer ces robots de simulation, les chercheurs ont mené des entretiens approfondis portant sur la vie des participants, leurs valeurs et leurs opinions sur les questions sociétales. Cela a permis à l'IA de saisir des nuances que les enquêtes traditionnelles ou les données démographiques pourraient négliger, expliquent les chercheurs. Plus important encore, la structure de ces entretiens a donné aux chercheurs la liberté de mettre en évidence ce qu'ils considéraient comme le plus important pour eux personnellement.

Les scientifiques ont ainsi généré des modèles d'IA personnalisés capables de prédire comment les individus pourraient répondre à des questions d'enquête, à des expériences sociales et à des jeux comportementaux. Il s'agissait notamment des réponses à la General Social Survey, un outil bien reconnu pour mesurer les attitudes et les comportements sociaux, à la méthode des cinq grandes personnalités (Big Five Personality Inventory) et à des jeux économiques tels que le jeu du dictateur et le jeu de la confiance. 

Bien que ces agents reproduisent fidèlement leurs homologues humains dans de nombreux domaines, leur précision varie d'une tâche à l'autre. Ils ont particulièrement bien réussi à reproduire les réponses aux enquêtes de personnalité et à déterminer les comportements sociaux, mais ont été moins précis pour prédire les comportements dans les jeux interactifs impliquant une prise de décision de nature financière. Les chercheurs expliquent que l'IA éprouve généralement des difficultés dans les tâches qui impliquent une dynamique sociale et des nuances contextuelles.

Ils ont également reconnu que la technologie pouvait être utilisée de manière malveillante. L'IA et les technologies de « deepfake » sont déjà utilisées par des personnes malveillantes pour tromper, usurper l'identité, abuser et manipuler d'autres personnes en ligne. Pour les chercheurs, ces agents de simulation peuvent également faire l'objet d'une utilisation malveillante.

Toutefois, selon eux, cette technologie pourrait nous permettre d'étudier certains aspects du comportement humain d'une manière qui n'était pas possible auparavant, en fournissant un environnement de test hautement contrôlé sans les défis éthiques, logistiques ou relationnels liés au travail avec des humains.

Dans une déclaration à la MIT Technology Review, l'auteur principal de l'étude, Joon Sung Park, doctorant en informatique à Stanford, a déclaré : « Si vous pouvez avoir plusieurs petits “ vous ” qui se baladent et qui prennent réellement les décisions que vous auriez prises, je pense que c'est en fin de compte l'avenir ».

source :

https://www.livescience.com/technology/artificial-intelligence/just-2-hours-is-all-it-takes-for-ai-agents-to-replicate-your-personality-with-85-percent-accuracy

Enregistrer un commentaire

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Plus récente Plus ancienne