Le temps presse : peut-on éviter un avenir dans lequel les "deepfakes" seraient indétectables ? (traduction)

Résumé :

Le contenu principal de la page web concerne les deepfakes, des vidéos ou images manipulées par l'intelligence artificielle (IA) pour sembler réelles. Il discute de la difficulté croissante de détecter ces deepfakes à mesure que l'IA devient plus avancée. L'article souligne que les signes révélateurs traditionnels de l'IA générative, tels que les erreurs de montage ou les détails incohérents, disparaissent progressivement avec l'amélioration de la technologie. Cela crée un défi pour les experts qui tentent de développer de nouvelles méthodes de détection de la désinformation. L'article mentionne également les réactions des entreprises technologiques, telles que l'adoption de normes de marquage et d'étiquetage pour les images générées par l'IA. Cependant, il souligne que ces mesures peuvent ne pas être suffisantes pour contrer efficacement la désinformation, car les deepfakes deviennent de plus en plus difficiles à repérer. En fin de compte, l'article suggère que la détection automatique de contenu généré par l'IA pourrait être la solution à long terme, bien que cela soit actuellement difficile à réaliser. En résumé, l'article souligne le besoin urgent de développer des techniques plus avancées pour lutter contre les deepfakes à mesure que la technologie évolue.

Avec plus de 4 000 partages, 20 000 commentaires et 100 000 réactions sur Facebook, la photo de cette femme âgée, assise derrière son gâteau d'anniversaire fait maison pour son 122e anniversaire, est incontestablement devenue virale. "J'ai commencé à décorer des gâteaux à l'âge de cinq ans", peut-on lire dans la légende, "et j'ai hâte de poursuivre mon parcours de pâtissière".
La photo est également incontestablement fausse. Si les étranges bougies - l'une d'entre elles semble flotter dans l'air, sans être attachée à quoi que ce soit - ou les étranges taches informes sur le gâteau au premier plan ne sont pas révélatrices, le fait que la personne qui célèbre son anniversaire soit la personne la plus âgée du monde avec presque cinq ans d'écart devrait l'être aussi.

Heureusement, les enjeux pour les décorateurs de gâteaux supercentenaires viraux sont limités. Ce qui est une bonne chose, car l'IA générative devenant de plus en plus performante, l'époque où l'on cherche des indices pour repérer un faux est presque révolue. Une course contre la montre s'est donc engagée : pouvons-nous trouver d'autres moyens de repérer les faux avant que ceux-ci ne deviennent impossibles à distinguer de la réalité ?

"Nous n'avons plus le temps de faire de la détection manuelle", a déclaré Mike Speirs, de la société de conseil en IA Faculty, où il dirige les travaux de la société sur la contre-désinformation. "Les modèles se développent à une vitesse et à un rythme incroyables d'un point de vue technique, et tout à fait alarmants.

"Il existe toutes sortes de techniques manuelles pour repérer des images artificielles, qu'il s'agisse de mots mal orthographiés ou d'une peau anormalement lisse ou ridée. Les mains sont une méthode classique, mais les yeux sont également très révélateurs. Mais même aujourd'hui, cela prend du temps : Ce n'est pas quelque chose que l'on peut vraiment reproduire à grande échelle. Et le temps presse : les modèles sont de plus en plus performants".

Depuis 2021, le générateur d'images d'OpenAI, Dall-E, a publié trois versions, chacune radicalement plus performante que la précédente. Le concurrent indépendant Midjourney en a publié six au cours de la même période, tandis que le modèle libre et gratuit Stable Diffusion en est à sa troisième version, et que Gemini, de Google, s'est joint à la compétition. La technologie est devenue plus puissante, mais aussi plus facile à utiliser. La dernière version de Dall-E est intégrée dans ChatGPT et Bing, tandis que Google propose ses propres outils gratuitement aux utilisateurs. 

 

Les entreprises technologiques ont commencé à réagir au flot imminent de contenus générés. La Coalition for Content Provenance and Authenticity, qui compte parmi ses membres la BBC, Google, Microsoft et Sony, a élaboré des normes pour le filigrane et le marquage, et en février, l'OpenAI a annoncé qu'elle les adopterait pour Dall-E 3. Désormais, les images générées par l'outil ont un label visible et un filigrane lisible par une machine. Face à la diffusion de contenu généré par l'intelligence artificielle, Meta a commencé à ajouter ses propres étiquettes à ce type de contenu et a annoncé la suppression des publications qui ne seront pas étiquetées.

Ces mesures peuvent contribuer à lutter contre certaines des formes les plus virales de désinformation, comme les blagues ou les satires qui se répandent hors de leur contexte d'origine.
Mais elles peuvent aussi créer un faux sentiment de sécurité, estime M. Spiers. "Si le public s'habitue à voir des images générées par l'IA avec un filigrane, cela signifie-t-il qu'il fait implicitement confiance aux images sans filigrane ?

C'est un problème, car l'étiquetage n'est en aucun cas généralisé, et il n'est pas prêt de l'être. Les grandes entreprises comme OpenAI pourraient accepter d'étiqueter leurs créations, mais les startups comme Midjourney n'ont pas la capacité de consacrer du temps d'ingénierie supplémentaire à ce problème. Et pour les projets "open source", comme Stable Diffusion, il est impossible de forcer l'application du filigrane, puisqu'il est toujours possible de simplement "forker" la technologie et de développer une nouvelle technologie.

Et le fait de voir un filigrane n'a pas nécessairement l'effet escompté, explique Henry Parker, responsable des affaires gouvernementales au sein du groupe de vérification des faits Logically. L'entreprise utilise des méthodes manuelles et automatiques pour vérifier le contenu, explique M. Parker, mais l'étiquetage n'a qu'une portée limitée. "Si vous dites à quelqu'un qu'il regarde un deepfake avant même qu'il ne le regarde, la psychologie sociale du visionnage de cette vidéo est si puissante qu'il s'y référera comme s'il s'agissait d'un fait. La seule chose à faire est donc de se demander comment réduire la durée de circulation de ce contenu.

En fin de compte, il faudra trouver et supprimer automatiquement les contenus générés par l'IA. Mais ce n'est pas facile, dit Parker. "Cela fait cinq ans que nous travaillons sur ce sujet, et nous sommes tout à fait conscients que nous sommes arrivés à environ 70 %, en termes de précision." À court terme, il s'agit d'une course aux armements entre la détection et la création : même les générateurs d'images qui n'ont pas d'intention malveillante voudront essayer de battre les détecteurs, puisque le but ultime est de créer quelque chose d'aussi fidèle à la réalité qu'une photo.

Logiquement, la réponse est de regarder autour de l'image, explique Parker : "Comment essayez-vous réellement d'examiner la façon dont les acteurs de la désinformation se comportent ?" Cela signifie qu'il faut surveiller les conversations sur le web pour repérer les acteurs malveillants au stade de la planification sur des sites comme 4chan et Reddit, et garder un œil sur le comportement d'essaimage des comptes suspects qui ont été cooptés par un acteur étatique. Même dans ce cas, le problème des faux positifs est difficile à résoudre. "Suis-je en présence d'une campagne menée par la Russie ? Ou suis-je en présence d'un groupe de fans de Taylor Swift qui échangent des informations sur des billets de concert ?

D'autres sont plus optimistes. Ben Colman, directeur général de Reality Defender, une startup spécialisée dans la détection d'images, pense qu'il y aura toujours une possibilité de détection, même si la solution consiste simplement à signaler quelque chose comme pouvant être faux plutôt que d'arriver à une certitude définitive. Ces signes peuvent aller d'un "filtre à haute fréquence indiquant une trop grande homogénéité" à, pour les contenus vidéo, l'incapacité à rendre des rougeurs invisibles, mais perceptibles, qui apparaissent à chaque fois que le cœur bat et que le sang circule sur le visage.

"Les choses vont continuer à progresser du côté des fakes, mais celui des vrais contenus n'évolue pas", conclut M. Colman. "Nous pensons que nous nous rapprocherons d'un modèle unique qui sera plus durable.

La technologie n'est bien sûr qu'une partie de la solution.
Si les gens croient vraiment que la photo d'une femme de 122 ans avec un gâteau qu'elle a préparé elle-même est réelle, il ne faudra pas des générateurs d'images ultramodernes pour leur faire croire d'autres choses, plus dangereuses. Mais c'est un début.

source :

https://www.theguardian.com/technology/2024/apr/08/time-is-running-out-can-a-future-of-undetectable-deepfakes-be-avoided

Enregistrer un commentaire

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Plus récente Plus ancienne