Résumé : Une étude récente révèle que l'intelligence artificielle génère des réponses jugées 16% plus compatissantes que celles des experts humains en santé mentale, étant préférées dans 68% des cas même lorsque les participants en connaissaient la source. Selon la chercheuse Dariya Ovsyannikova, l'IA excelle grâce à sa capacité à identifier les détails subtils et à maintenir l'objectivité, contrairement aux humains sujets à la fatigue. Eleanor Watson, experte en éthique de l'IA, souligne le potentiel de cette technologie pour améliorer l'accès aux soins mentaux, particulièrement dans les régions où 85% des personnes concernées restent sans traitement. Malgré ces avantages, des risques persistent : le phénomène de "stimulus supernormal" créant des attentes irréalistes, les problèmes de confidentialité des données sensibles, et la nécessité d'une gouvernance rigoureuse pour prévenir les abus.
Selon une nouvelle étude, les gens considèrent que les réponses de l'intelligence artificielle (IA) sont plus compatissantes et plus compréhensives que celles des professionnels de la santé mentale. Cette conclusion démontre une fois de plus que l'IA peut surpasser les humains dans des domaines pour lesquels nous avons longtemps pensé que seules les personnes ayant une expérience en la matière étaient compétentes.
Dans cette étude, publiée le 10 janvier dans la revue Communications Psychology, les scientifiques ont mené une série de quatre expériences pour déterminer comment 550 participants évaluaient les réponses empathiques de compassion et de réactivité générées par l'IA par rapport à celles des professionnels. Plus précisément, les participants ont donné des informations sur leurs expériences personnelles et ont ensuite évalué les réponses en termes de compassion, de réactivité et de préférence générale.
Les tests ont révélé que les réponses de l'IA étaient considérées comme plus compatissantes que celles des intervenants professionnels en cas de crise, même lorsque l'auteur des réponses était révélé aux participants.
Les résultats suggèrent que l'IA peut être utilisée dans « des contextes nécessitant une interaction empathique, avec le potentiel de répondre au besoin croissant d'empathie dans des contextes de communication de soutien », écrivent les chercheurs dans l'étude.
En moyenne, les réponses générées par l'IA ont été jugées 16 % plus compatissantes que les réponses humaines et ont été préférées dans 68 % des cas, même lorsqu'elles étaient comparées à celles de professionnels formés à la gestion de crise.
L'auteur principal de l'étude, Dariya Ovsyannikova, directrice de laboratoire au département de psychologie de l'université de Toronto, a expliqué le succès de l'IA par sa capacité à identifier les petits détails et à rester objective lors de la description des expériences de crise. L'IA était ainsi mieux à même de générer une communication attentive qui donnait à l'utilisateur une illusion d'empathie. En même temps, les humains peuvent avoir été moins performants, car ils sont sensibles à la fatigue et à l'épuisement, a-t-elle ajouté.
Live Science a demandé à Eleanor Watson, membre de l'IEEE, ingénieur en éthique de l'IA et professeur d'IA à la Singularity University, ce que signifiait cette découverte, non seulement pour l'avenir des interactions entre l'IA et l'homme, mais aussi sur le débat en cours concernant les tâches que l'IA ne peut pas ou ne devrait pas accomplir lorsque la compréhension et l'apport de l'homme semblent essentiels.
Watson a qualifié cette découverte de « fascinante », mais n'a pas été totalement surpris. « L'IA peut certainement modéliser des réponses de soutien avec une cohérence remarquable et une empathie apparente, ce que les humains ont du mal à maintenir en raison de la fatigue et des biais cognitifs », a-t-elle déclaré à Live Science.
« Les praticiens humains sont limités par leur expérience clinique directe et leurs limites cognitives. L'ampleur des données que l'IA peut traiter modifie fondamentalement l'équation du soutien thérapeutique. Elle peut aussi potentiellement permettre aux patients d'obtenir des perspectives ou des approches auxquelles leur thérapeute n'a pas été formé », a-t-elle ajouté.
Des soins de santé mentale accessibles
À l'échelle mondiale, le secteur de la santé mentale est en crise, et l'étude évoque la possibilité pour l'IA de combler les lacunes. Selon l'Organisation mondiale de la santé, plus de deux tiers des personnes souffrant de troubles mentaux ne reçoivent pas les soins dont elles ont besoin. Dans les pays à revenu faible ou intermédiaire, ce chiffre atteint 85 %.
Selon M. Watson, la facilité d'accès à l'IA par rapport aux thérapeutes humains pourrait en faire un outil utile pour la prise en charge de la santé mentale. « La disponibilité des appareils est un facteur positif, surtout par rapport aux praticiens coûteux dont le temps est limité », a déclaré M. Watson.
« De plus, les gens sont souvent moins intimidés par le fait d'avoir affaire à une machine, en particulier lorsqu'il s'agit de sujets plus délicats. On craint moins les jugements ou les ragots.
Mais le fait de trouver les réponses générées par l'IA plus empathiques n'est pas sans risque. Watson a mis en garde contre le spectre du stimulus supranormal, c'est-à-dire la tendance à réagir plus fortement à une version exagérée d'un stimulus.
« L'IA est si séduisante qu'elle nous envoûte », a déclaré M. Watson. « L'IA peut être séduisante, perspicace, éclairante, amusante, provocante, indulgente et accessible au point qu'il est impossible pour un être humain d'être à la hauteur.
Les contenus relatifs à la santé mentale exacerbent également les problèmes de protection de la vie privée associés à l'IA. « Les implications en matière de protection de la vie privée sont considérables », a fait remarquer M. Watson. « L'accès aux vulnérabilités et aux difficultés les plus profondes des personnes les rend vulnérables à diverses formes d'attaques et de démoralisation. Une gouvernance scrupuleuse des systèmes et des organisations qui les sous-tendent doit être maintenue afin de se prémunir contre leur exploitation par des personnes mal intentionnées. »
traduction de :
https://www.livescience.com/technology/artificial-intelligence/people-find-ai-more-compassionate-than-mental-health-experts-study-finds-what-could-this-mean-for-future-counseling
Enregistrer un commentaire
Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.