Cybercriminalité : attention à ce que vous dites à votre chatbot... (traduction)

 

Les inquiétudes concernant les capacités croissantes des chatbots formés sur de vastes modèles de langage (LLM), tels que GPT-4 d'OpenAI, Bard de Google et Bing Chat de Microsoft, font la une des journaux. Les experts mettent en garde contre leur capacité à diffuser des informations erronées à une échelle monumentale, ainsi que contre le risque existentiel que leur développement pourrait poser à l'humanité. Comme si cela ne suffisait pas, un troisième sujet de préoccupation est apparu, illustré par la récente interdiction de ChatGPT en Italie pour des raisons de protection de la vie privée.

L'autorité italienne de régulation des données a exprimé ses inquiétudes quant au modèle utilisé par OpenAI, propriétaire de ChatGPT, et a annoncé qu'elle enquêterait pour déterminer si l'entreprise avait enfreint les lois européennes strictes en matière de protection des données.

Les chatbots peuvent être utiles pour le travail et les tâches personnelles, mais ils collectent de grandes quantités de données. L'IA présente également de nombreux risques pour la sécurité, notamment parce qu'elle peut aider les criminels à mener des cyberattaques plus convaincantes et plus efficaces.

Les chatbots posent-ils un problème de protection de la vie privée plus important que les moteurs de recherche ?

La plupart des gens sont conscients des risques pour la vie privée que présentent les moteurs de recherche tels que Google, mais les experts pensent que les chatbots pourraient être encore plus gourmands en données. Leur nature conversationnelle peut prendre les gens au dépourvu et les encourager à donner plus d'informations qu'ils n'en auraient saisies dans un moteur de recherche. "Le style humain peut désarmer les utilisateurs", prévient Ali Vaziri, directeur juridique de l'équipe chargée des données et de la protection de la vie privée au sein du cabinet d'avocats Lewis Silkin.

Les chatbots collectent généralement des informations textuelles, vocales et relatives à l'appareil, ainsi que des données susceptibles de révéler votre emplacement, comme votre adresse IP. À l'instar des moteurs de recherche, les chatbots recueillent des données telles que l'activité sur les réseaux sociaux, qui peuvent être liées à votre adresse électronique et à votre numéro de téléphone, explique le Dr Lucian Tipi, doyen associé de la Birmingham City University. "L'amélioration du traitement des données s'accompagne d'un besoin accru d'informations, et tout ce qui se trouve sur le web devient un terrain de jeu.

Les entreprises à l'origine des chatbots affirment que vos données sont nécessaires pour améliorer les services, mais elles peuvent également être utilisées pour de la publicité ciblée. Chaque fois que vous demandez de l'aide à un chatbot d'IA, des micro-calculs alimentent l'algorithme pour établir le profil des individus, explique Jake Moore, conseiller mondial en cybersécurité chez l'éditeur de logiciels ESET. "Ces identifiants sont analysés et pourraient être utilisés pour nous cibler avec des publicités.

Cela commence déjà à se produire. Microsoft a annoncé qu'elle étudiait l'idée d'intégrer des publicités à Bing Chat. Il est également apparu récemment que le personnel de Microsoft pouvait lire les conversations des utilisateurs avec les chatbots et l'entreprise américaine a mis à jour sa politique de confidentialité pour en tenir compte.

La politique de confidentialité de ChatGPT "ne semble pas ouvrir la porte à l'exploitation commerciale des données personnelles", déclare Ron Moscona, associé du cabinet d'avocats Dorsey & Whitney. La politique "promet de protéger les données des gens" et de ne pas les partager avec des tiers, ajoute-t-il.

Toutefois, si Google s'engage également à ne pas partager les informations avec des tiers, la politique de confidentialité plus générale de l'entreprise technologique lui permet d'utiliser les données pour diffuser des publicités ciblées aux utilisateurs.

Comment utiliser les chatbots en toute confidentialité et en toute sécurité ?

Il est difficile d'utiliser les chatbots en toute confidentialité et en toute sécurité, mais il existe des moyens de limiter la quantité de données qu'ils collectent. C'est une bonne idée, par exemple, d'utiliser un VPN tel que ExpressVPN ou NordVPN pour masquer votre adresse IP.

À ce stade, la technologie est trop récente et trop peu sophistiquée pour que l'on puisse être sûr qu'elle est respectueuse de la vie privée et de la sécurité, explique Will Richmond-Coggan, spécialiste des données, de la vie privée et de l'IA au sein du cabinet d'avocats Freeths. Selon lui, il convient de faire preuve d'une "grande prudence" avant de partager des données, surtout s'il s'agit d'informations sensibles ou liées à l'activité de l'entreprise.

La nature d'un chatbot signifie qu'il révélera toujours des informations sur l'utilisateur, quelle que soit la manière dont le service est utilisé, explique M. Moscona. "Même si vous utilisez un chatbot par le biais d'un compte anonyme ou d'un VPN, le contenu que vous fournissez au fil du temps peut révéler suffisamment d'informations pour que vous soyez identifié ou traqué.

Toutefois, les entreprises technologiques qui défendent leurs produits de chatbot affirment qu'il est possible de les utiliser en toute sécurité. Microsoft affirme que son Bing Chat "réfléchit à la manière dont il utilise vos données" pour offrir une bonne expérience et "conserver les politiques et les protections de la recherche traditionnelle dans Bing".

Microsoft protège la vie privée grâce à des technologies telles que le chiffrement et ne stocke et ne conserve les informations que le temps nécessaire. Microsoft offre également un contrôle sur vos données de recherche via le tableau de bord de confidentialité de Microsoft.

Le créateur de ChatGPT, OpenAI, affirme avoir entraîné le modèle à refuser les demandes inappropriées. "Nous utilisons nos outils de modération pour avertir ou bloquer certains types de contenus dangereux et sensibles", ajoute un porte-parole.

Qu'en est-il de l'utilisation des chatbots pour faciliter les tâches professionnelles ?

Les chatbots peuvent être utiles au travail, mais les experts conseillent de procéder avec prudence pour éviter de trop partager et de se retrouver en infraction avec des réglementations telles que la mise à jour de l'UE du règlement général sur la protection des données (RGPD). C'est dans cette optique que des entreprises telles que JP Morgan et Amazon ont interdit ou restreint l'utilisation du ChatGPT par leur personnel.

Le risque est si grand que les développeurs eux-mêmes déconseillent leur utilisation. "Nous ne sommes pas en mesure de supprimer des messages spécifiques de votre historique", indique la FAQ de ChatGPT. "Veuillez ne pas partager d'informations sensibles dans vos conversations.

L'utilisation d'outils de chatbot gratuits à des fins professionnelles "peut s'avérer peu judicieuse", affirme M. Moscona. "La version gratuite de ChatGPT ne donne pas de garanties claires et sans ambiguïté sur la manière dont elle protégera la sécurité des conversations ou la confidentialité des données d'entrée et de sortie générées par le chatbot. Bien que les conditions d'utilisation reconnaissent la propriété de l'utilisateur et que la politique de confidentialité promette de protéger les informations personnelles, elles restent vagues sur la sécurité des informations.

Microsoft affirme que Bing peut aider à accomplir des tâches professionnelles, mais "nous ne recommandons pas d'introduire des informations confidentielles d'une entreprise dans un service grand public".

Si vous devez en utiliser un, les experts vous conseillent la prudence. "Respectez les politiques de sécurité de votre entreprise et ne partagez jamais d'informations sensibles ou confidentielles", déclare Nik Nicholas, PDG de la société de conseil en données Covelent.

Microsoft propose un produit appelé Copilot pour les entreprises, qui reprend les politiques de sécurité, de conformité et de confidentialité plus strictes de l'entreprise pour son produit Microsoft 365.

Comment repérer les logiciels malveillants, les courriels et autres contenus malveillants générés par des personnes malveillantes ou par l'IA ?

À mesure que les chatbots s'intègrent à Internet et aux réseaux sociaux, les risques d'être victime d'un logiciel malveillant ou d'un courriel malveillant augmentent. Le National Cyber Security Centre (NCSC) du Royaume-Uni a mis en garde contre les risques liés aux chatbots IA, affirmant que la technologie qui les alimente pourrait être utilisée dans le cadre de cyberattaques.

Les experts affirment que ChatGPT et ses concurrents ont le potentiel de permettre aux personnes malveillantes de construire des opérations de phishing par email plus sophistiquées. Par exemple, il sera facile de générer des courriels dans différentes langues, de sorte que les signes révélateurs de messages frauduleux, tels que les fautes de grammaire et d'orthographe, seront moins évidents.

Dans cette optique, les experts recommandent de redoubler de vigilance avant de cliquer sur des liens ou de télécharger des pièces jointes provenant de sources inconnues. Comme d'habitude, Nicholas conseille d'utiliser un logiciel de sécurité et de le tenir à jour pour se protéger contre les logiciels malveillants.

Le langage peut être impeccable, mais le contenu d'un chatbot peut souvent contenir des erreurs factuelles ou des informations obsolètes, ce qui peut être le signe d'un expéditeur non humain. Il peut également avoir un style d'écriture fade et formel - mais cela peut aider plutôt que gêner le bot de la personne malveillante lorsqu'il s'agit de passer pour une communication officielle.

Les services fondés sur l'IA se développent rapidement et, à mesure qu'ils se développent, les dangers vont s'aggraver. Les experts affirment que des services tels que ChatGPT peuvent être utilisés pour aider les cybercriminels à créer des logiciels malveillants, et l'on craint que des informations sensibles saisies dans des services de chat ne soient divulguées sur l'internet. D'autres formes d'IA générative - l'IA capable de produire du contenu tel que de la voix, du texte ou des images - pourraient permettre aux criminels de créer des vidéos "deepfake" plus réalistes en imitant, par exemple, un employé de banque qui demande un mot de passe.

Paradoxalement, ce sont les humains qui sont les plus aptes à repérer ce type de menaces basées sur l'IA. "La meilleure protection contre les logiciels malveillants et l'IA des personnes malveillantes est votre propre vigilance", affirme Richmond-Coggan.

source :

https://www.theguardian.com/technology/2023/apr/09/cybercrime-chatbot-privacy-security-helper-chatgpt-google-bard-microsoft-bing-chat

Enregistrer un commentaire

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Plus récente Plus ancienne