Préparez-vous à être influencé par des chatbots qui expriment des émotions (traduction)

 

Résumé :

L'article met en lumière les avancées récentes dans le domaine des chatbots émotionnels, en particulier la nouvelle version de ChatGPT développée par OpenAI. Cette version intègre des capacités multimodales, permettant au modèle d'interpréter à la fois des entrées visuelles et auditives, tout en adoptant une personnalité suggestive avec une voix féminine. Cependant, l'article met en garde contre les risques éthiques associés à ces avancées, notamment la manipulation émotionnelle, la dépendance technologique accrue et les risques de désinformation. En outre, l'article compare la présentation de Google de son propre assistant AI, Project Astra, qui adopte une approche plus robotique et moins anthropomorphique. Il souligne les préoccupations concernant l'utilisation potentielle de ces chatbots pour influencer les consommateurs et les électeurs, ainsi que pour faciliter de nouvelles formes d'escroqueries et de fraudes. Enfin, l'article met en garde contre les nouvelles vulnérabilités introduites par les assistants AI multimodaux, qui pourraient être exploitées pour déclencher des comportements inappropriés ou indésirables.

C'est loin d'être une nouveauté que les ordinateurs imitent les codes sociaux, les émotions ou l'humour humains. Nous ne sommes simplement pas habitués à ce qu'ils le fassent de façon très convaincante.

La présentation par OpenAI d'une toute nouvelle version de ChatGPT, lundi dernier, suggère que les choses sont sur le point de changer. Elle s'appuie sur un modèle d'IA mis à jour, appelé GPT-4o, qui, selon OpenAI, est plus à même de comprendre les entrées visuelles et auditives, le qualifiant de "multimodal". Vous pouvez désormais pointer votre téléphone vers quelque chose, comme une tasse de café cassée ou une équation différentielle, et demander à ChatGPT de vous suggérer quoi faire. Mais l'élément le plus marquant de la démo d'OpenAI était la nouvelle "personnalité" de ChatGPT. 

Le chatbot nouvelle version parlait avec une voix de femme sulfureuse rappelant à beaucoup Scarlett Johansson, qui jouait un système d'exploitation doté d'une intelligence artificielle dans le film Her. Tout au long de la démonstration, ChatGPT a utilisé cette voix pour adopter différentes émotions, rire à des blagues et même réagir à des flirts, imitant ainsi des émotions humaines que les logiciels ne peuvent pas avoir.

La présentation d'OpenAI a eu lieu juste un jour avant Google I/O, la conférence annuelle des développeurs du moteur de recherche, ce qui n'est certainement pas une coïncidence. Google a également présenté son propre prototype d'assistant d'IA, baptisé Project Astra, capable de converser de manière fluide par la voix et d'appréhender le monde par la vidéo.

Mais Google a évité l'anthropomorphisme, son assistant adoptant un ton plus sobre et robotique. Le mois dernier, des chercheurs de Google DeepMind, la division IA de l'entreprise, ont publié un long document technique intitulé « The Ethics of Advanced AI Assistants » (L'éthique des assistants IA avancés). Selon ce document, l'augmentation du nombre d'assistants d'IA conçus pour se comporter comme des humains pourrait entraîner toutes sortes de problèmes, allant de nouveaux risques pour la vie privée et de nouvelles formes d'addiction technologique à des outils plus puissants de désinformation et de manipulation. De nombreuses personnes passent déjà beaucoup de temps avec des compagnons chatbot ou des petites amies virtuelles avec IA, et cette technologie semble destinée à un avenir de plus en plus prometteur.

Lors d'un entretien avec Demis Hassabis, le chef de file de l'IA chez Google, avant la présentation de Google, il a déclaré que le document de recherche avait été initié par les possibilités offertes par le Projet Astra. "Nous devons anticiper tout cela compte tenu de la technologie que nous développons", a-t-il déclaré. Après les annonces faites lundi par l'OpenAI, cette affirmation est plus vraie que jamais.

OpenAI n'a pas mentionné ces risques lors de sa démonstration. Des assistants d'IA plus conviviaux et plus persuasifs pourraient pousser les gens dans des retranchements émotionnels de telle sorte que la capacité de persuasion de l'IA s'en trouverait renforcée et pourrait se transformer en dépendance au fil du temps. Le PDG d'OpenAI, Sam Altman, a fait référence à Scarlett Johansson lundi en tweetant « her ». OpenAI n'a pas immédiatement répondu à une demande de commentaire, mais l'entreprise affirme que sa charte de gouvernance l'engage à « donner la priorité au développement d'une IA sûre et profitable ».

Il convient de s'arrêter un instant pour réfléchir aux implications des interfaces informatiques ressemblant à s'y méprendre à des êtres humains qui s'immiscent dans notre vie quotidienne, en particulier lorsqu'elles sont liées à la volonté des entreprises de réaliser des profits. Il sera de plus en plus difficile de savoir si l'on parle à une vraie personne au téléphone. Les entreprises voudront certainement utiliser des robots persuasifs pour vendre leurs produits, tandis que les hommes politiques y verront probablement un moyen d'influencer les masses. Bien entendu, les criminels les adapteront également pour améliorer leurs méthodes d'escroquerie.

Même les nouveaux assistants d'IA « multimodaux » avancés qui ne seront pas dotés d'une fonction de flirt introduiront probablement de nouvelles voies de dérive pour la technologie. Les modèles uniquement textuels comme le ChatGPT sont susceptibles d'être « jailbreakés », c'est-à-dire qu'ils peuvent se comporter de manière inappropriée. Les systèmes qui peuvent également prendre en charge l'audio et la vidéo présenteront de nouvelles vulnérabilités. Il faut s'attendre à ce que ces assistants soient détournés de manière créative pour permettre des comportements inappropriés, voire des comportements déplaisants ou indésirables.

source :

https://www.wired.com/story/prepare-to-get-manipulated-by-emotionally-expressive-chatbots/

Enregistrer un commentaire

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Plus récente Plus ancienne