Les images d'abus sexuels d'enfants générées par l'IA atteignent un «point critique», selon un organisme de surveillance (traduction)


Résumé : Selon un rapport récent de l'Internet Watch Foundation (IWF), le nombre d'images d'abus sexuels sur mineurs générées par l'intelligence artificielle atteint un niveau critique, avec 74 signalements en seulement six mois jusqu'en septembre 2024, dépassant les chiffres de l'année précédente. Ces contenus, principalement accessibles sur le web ouvert et hébergés en Russie et aux États-Unis, montrent un niveau inquiétant de sophistication, suggérant l'utilisation d'images de vraies victimes pour l'entraînement des IA. Face à cette menace croissante, des plateformes comme Instagram mettent en place de nouvelles mesures de protection, notamment le floutage automatique des images de nudité dans les messages directs, particulièrement pour les comptes d'adolescents.

Les images représentant des abus sexuels sur des enfants, générées par des outils d'intelligence artificielle, sont de plus en plus répandues sur Internet et atteignent un « point de bascule », d'après une organisation de surveillance.

L'Internet Watch Foundation a indiqué que la quantité de contenus illégaux générés par l'intelligence artificielle qu'elle avait constatée en ligne au cours de ces six derniers mois avait déjà dépassé le total de l'année dernière.

L'organisation, qui gère une ligne d'assistance téléphonique au Royaume-Uni, mais qui a également un mandat mondial, a déclaré que la quasi-totalité de ces contenus se trouvaient dans des zones d'Internet accessibles au public et non sur le « dark web », auquel il faut accéder à l'aide de navigateurs spécifiques.

Derek Ray-Hill, directeur général par intérim de l'IWF, a déclaré que le niveau de sophistication des images démontrait que les outils d'intelligence artificielle utilisés avaient été entraînés sur des images et des vidéos de véritables victimes. « Les derniers mois montrent que ce problème n'est pas près de disparaître et qu'il s'aggrave même », a-t-il déclaré.

Selon un analyste de l'IWF, cette situation est en train d'atteindre un « point de bascule » où les organismes de surveillance et les autorités ne savent pas si une image concerne un enfant bien réel qui a besoin d'aide.

L'IWF a pris en considération 74 signalements de contenus d'abus sexuel d'enfants générés par l'IA - suffisamment réalistes pour enfreindre la loi britannique - au cours des six mois précédant le mois de septembre de cette année, contre 70 au cours des 12 mois précédant le mois de mars. Un seul rapport peut faire référence à une page web contenant plusieurs images.

Outre les images d'IA mettant en scène des victimes réelles d'abus, les types de contenus vus par l'IWF comprenaient des vidéos « deepfake » où la pornographie adulte avait été manipulée pour ressembler à des sévices sexuels à l'égard des enfants. Dans des rapports précédents, l'IWF a indiqué que l'IA était utilisée pour créer des images de célébrités qui avaient été « rajeunis » puis représentées comme des enfants dans des situations d'abus sexuels. D'autres exemples d'abus sexuels commis sur des enfants ont été observés, notamment des images d'enfants habillés trouvées en ligne pour lesquelles des outils d'intelligence artificielle ont été utilisés pour les « dénuder ».

Plus de la moitié des contenus générés par l'IA signalés par l'IWF au cours des six derniers mois sont hébergés sur des serveurs en Russie et aux États-Unis, le Japon et les Pays-Bas hébergeant également des quantités importantes. Les adresses des pages web contenant les images sont téléchargées sur une liste d'URL de l'IWF, qui est partagée avec l'industrie technologique afin qu'elles puissent être bloquées et rendues inaccessibles.

L'IWF a déclaré que huit rapports sur dix concernant des images illégales fabriquées par l'IA provenaient de personnes qui les avaient trouvées sur des sites publics tels que des forums ou des galeries d'IA.

Parallèlement, Instagram a annoncé de nouvelles mesures pour lutter contre la sextorsion, qui consiste à inciter les utilisateurs à envoyer des images intimes à des criminels, qui se font généralement passer pour des jeunes femmes, et à les soumettre ensuite à des menaces de chantage.

La plateforme va mettre en place une fonctionnalité qui rendra floues les images de nus envoyées aux utilisateurs dans les messages directs, et les incitera à être prudents avant d'envoyer un message direct (DM) contenant une image de nudité. Lorsque l'utilisateur recevra une image floue, il pourra choisir de la visualiser ou non. Il recevra également un message lui rappelant qu'il a la possibilité de bloquer l'expéditeur et de signaler le chat à Instagram.

La fonction sera activée par défaut pour les comptes des adolescents dans le monde entier à partir de cette semaine et pourra être utilisée pour les messages chiffrés, bien que les images signalées par la fonction de « détection sur l'appareil » ne soient pas automatiquement notifiées à la plateforme elle-même ou aux autorités.

Il s'agira d'une fonctionnalité facultative pour les adultes. Instagram cachera également les listes de followers et de followers des escrocs potentiels qui menacent d'envoyer des images intimes à ces comptes.

source :

https://www.theguardian.com/technology/2024/oct/18/artificial-intelligence-child-sexual-abuse-imagery-watchdog-iwf

Enregistrer un commentaire

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Plus récente Plus ancienne