Pourquoi vous ne devriez pas confier des informations confidentielles à ChatGPT (traduction)


ChatGPT est devenu un problème majeur de sécurité et de protection de la vie privée parce que trop d'entre nous y partagent inconsciemment leurs informations privées. ChatGPT enregistre toutes les conversations que vous avez avec lui, y compris les données personnelles que vous partagez. Pourtant, vous auriez pu l'ignorer si vous n'aviez pas fouillé dans la politique de confidentialité, les conditions d'utilisation et la page FAQ d'OpenAI pour en savoir plus.

Il est déjà dangereux de divulguer ses propres informations, mais étant donné que de grandes entreprises utilisent ChatGPT pour traiter des informations tous les jours, il pourrait s'agir du début d'un désastre en matière de fuites de données. 

Samsung a divulgué des informations confidentielles via ChatGPT

Selon Gizmodo, des employés de Samsung ont divulgué par erreur des informations confidentielles via ChatGPT à trois reprises en l'espace de 20 jours. Ce n'est qu'un exemple de la facilité avec laquelle les entreprises peuvent compromettre des informations privées.

ChatGPT est publiquement critiqué pour ses problèmes de confidentialité, et c'est donc une grave négligence de la part de Samsung que d'avoir toléré cette situation. Certains pays ont même interdit ChatGPT pour protéger leurs citoyens jusqu'à ce qu'il améliore sa confidentialité, on pourrait donc penser que les entreprises seraient plus prudentes quant à l'utilisation qu'en font leurs employés.

Heureusement, il semble que les clients de Samsung soient en sécurité, du moins pour l'instant. Les données divulguées ne concernent que des pratiques commerciales internes, un code propriétaire en cours de dépannage et le compte rendu d'une réunion d'équipe, tous soumis par des employés. Toutefois, il aurait été tout aussi facile pour le personnel de divulguer des informations personnelles de consommateurs, et ce n'est qu'une question de temps avant qu'une autre entreprise ne fasse exactement la même chose. Si cela se produit, on peut s'attendre à une augmentation massive des escroqueries par hameçonnage et des usurpations d'identité.

Il existe également un autre niveau de risque. Si les employés utilisent ChatGPT pour rechercher des bogues, comme ils l'ont fait dans le cas de la fuite de Samsung, le code qu'ils saisissent dans la boîte de dialogue sera également stocké sur les serveurs d'OpenAI. Cela pourrait conduire à des violations ayant un impact massif sur les entreprises qui dépannent des produits et des programmes non encore commercialisés. Il se pourrait même que des informations telles que des plans d'affaires non divulgués, des versions futures et des prototypes soient divulgués, ce qui entraînerait d'énormes pertes de revenus.

Comment les fuites de données de ChatGPT se produisent-elles ?

La politique de confidentialité de ChatGPT indique clairement qu'elle enregistre vos conversations et partage les journaux avec d'autres entreprises et ses formateurs en IA. Lorsque quelqu'un (par exemple, un employé de Samsung) tape des informations confidentielles dans la boîte de dialogue, celles-ci sont enregistrées et sauvegardées sur les serveurs de ChatGPT.

Il est très peu probable que les employés l'aient fait volontairement, mais c'est justement ce qui est effrayant. La plupart des violations de données sont dues à des erreurs humaines. Souvent, cela est dû au fait que l'entreprise n'a pas sensibilisé son personnel aux risques pour la vie privée liés à l'utilisation d'outils tels que l'IA.

Par exemple, si l'entreprise colle une grande liste de contacts dans le chat et demande à l'IA d'isoler les numéros de téléphone des clients des données, ChatGPT possède alors ces noms et ces numéros de téléphone dans ses dossiers. Vos informations privées sont à la merci d'entreprises avec lesquelles vous ne les avez pas partagées et qui ne les protègent peut-être pas assez bien pour assurer votre sécurité. Vous pouvez prendre certaines mesures pour vous protéger après une violation de données, mais les entreprises doivent être responsables de la prévention des fuites.

Morale de l'histoire : Ne confiez pas vos secrets à ChatGPT

Vous pouvez utiliser ChatGPT en toute sécurité pour des centaines de tâches différentes, mais la gestion d'informations confidentielles n'est pas l'une d'entre elles. Vous devez faire attention à ne pas taper quoi que ce soit de personnel dans la boîte de chat, y compris votre nom, votre adresse, votre email et votre numéro de téléphone. Il est facile de commettre cette erreur, c'est pourquoi vous devez vérifier les invites pour vous assurer que rien n'a été saisi accidentellement.

La fuite de Samsung nous montre à quel point le risque d'une fuite de données liée à ChatGPT est réel. Malheureusement, ce type d'erreurs se multipliera, avec peut-être des conséquences bien plus graves, à mesure que l'IA deviendra un élément essentiel des processus de la plupart des entreprises.

source :

https://www.makeuseof.com/shouldnt-trust-chatgpt-confidential-data/

Enregistrer un commentaire

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Plus récente Plus ancienne