L’IA est utilisée pour produire des images «étonnamment réalistes» d’abus sexuels sur des enfants
L’intelligence artificielle (IA) est utilisée pour produire des images «étonnamment réalistes» d’abus sexuels sur des enfants, qui sont ensuite diffusées en ligne.
C’est l’avertissement des analystes de l’Internet Watch Foundation, une organisation caritative basée au Royaume-Uni qui est chargée d’identifier et de supprimer le matériel d’abus sexuel d’enfants sur Internet.
Au Royaume-Uni – comme aux États-Unis – les soi-disant «pseudo images» d’abus sexuels sur des enfants générées par l’IA sont illégales au Royaume-Uni.
Comme le note l’organisme de bienfaisance, « loin d’être un crime sans victime, cette imagerie peut normaliser et enraciner l’abus sexuel des enfants. Cela peut également rendre plus difficile de repérer quand de vrais enfants peuvent être en danger.
L’Internet Watch Foundation appelle le Premier ministre Rishi Sunak à traiter cette menace comme une « priorité absolue » lorsqu’il accueillera le premier sommet mondial sur l’IA plus tard cette année.
EN SAVOIR PLUS: Le cerf « a attrapé le Covid des humains et l’a retransmis » [LATEST]
Mme Hargreaves, sur la photo, a déclaré que cet abus de l’IA pourrait conduire à « un endroit très dangereux »
La directrice générale de l’Internet Watch Foundation, Susie Hargreaves, a déclaré : « L’IA devient de plus en plus sophistiquée. « Les délinquants utilisent désormais des générateurs d’images IA pour produire des images parfois incroyablement réalistes d’enfants victimes d’abus sexuels.
« Pour les membres du public, une partie de ce matériel serait totalement indiscernable d’une image réelle d’un enfant victime d’abus sexuels. Avoir plus de ce matériel en ligne rend Internet plus dangereux.
« Nous ne voyons actuellement pas ces images en grand nombre, mais il est clair pour nous que les criminels ont le potentiel de produire des quantités sans précédent d’images d’abus sexuels d’enfants réalistes.
« Cela serait potentiellement dévastateur pour la sécurité sur Internet et pour la sécurité des enfants en ligne.
« Nous avons maintenant une chance de devancer cette technologie émergente, mais la législation doit en tenir compte et doit être adaptée à la lumière de cette nouvelle menace.
M. Sexton a averti que les images d’abus sexuels sur des enfants générées par l’IA pourraient entraver les efforts visant à protéger les vrais enfants
L’avertissement fait suite à une étude de cinq semaines menée par la fondation sur les menaces posées par la technologie émergente de l’IA, au cours de laquelle elle a commencé à enregistrer des cas de matériel d’abus sexuel d’enfants généré par l’IA signalé à sa hotline pour la première fois.
Au total, l’organisme de bienfaisance a enquêté sur 29 signalements – y compris ceux soumis par des membres du public – d’URL soupçonnées d’héberger des images d’abus sexuels sur des enfants générées par l’IA.
Parmi celles-ci, l’Internet Watch Foundation a déterminé que sept contenaient effectivement de telles images, y compris du matériel de catégorie A et B représentant des enfants aussi jeunes que 3 à 6 ans.
(Dans ce contexte, le matériel de catégorie A est défini comme ce qui implique une activité sexuelle avec pénétration ou du sadisme. Le matériel de catégorie B implique une activité sexuelle sans pénétration.)
En plus d’identifier et d’avoir supprimé un certain nombre d’instances de matériel d’abus sexuel d’enfants généré par l’IA, les analystes de la fondation ont également découvert un « manuel » en ligne écrit par des délinquants qui explique aux autres criminels comment former l’IA et affiner les invites afin qu’elle renvoie plus résultats réalistes.
L’IWF a appelé Rishi Sunak à faire de la menace une « priorité absolue » lors du premier sommet mondial sur l’IA
Dan Sexton – directeur technique de la fondation – a ajouté que les analystes ont également vu des preuves en ligne que les délinquants trouvent des moyens de contourner les mesures de sécurité mises en place sur les générateurs d’images d’IA destinés à les empêcher de produire des images sexualisées d’enfants.
Il a déclaré : « La mission principale de l’Internet Watch Foundation est de protéger les enfants. Si un enfant peut être identifié et protégé, c’est toujours la priorité numéro un des analystes.
« Notre inquiétude est que, si les images d’IA d’abus sexuels sur des enfants deviennent indiscernables des images réelles, il y a un danger que [our] les analystes pourraient perdre un temps précieux à tenter d’identifier et d’aider les forces de l’ordre à protéger des enfants qui n’existent pas.
« Cela signifierait que de vraies victimes pourraient tomber entre les mailles du filet et que des opportunités de prévenir les abus dans la vie réelle pourraient être manquées. »
Parallèlement à la demande d’action du gouvernement, Mme Harvreeaves appelle également les sociétés et les développeurs d’intelligence artificielle à aider à prévenir l’abus de leurs plateformes.
Elle a déclaré: «Nous savons que les criminels peuvent exploiter et exploitent n’importe quelle nouvelle technologie, et nous sommes à la croisée des chemins avec l’IA.
« L’abus continu de cette technologie pourrait avoir des conséquences profondément sombres – et pourrait voir de plus en plus de personnes exposées à ce contenu préjudiciable.
« Les représentations d’abus sexuels d’enfants, même artificielles, normalisent la violence sexuelle contre les enfants. Nous savons qu’il existe un lien entre le visionnage d’images d’abus sexuels sur des enfants et le fait de commettre des délits de contact contre des enfants.
Elle a conclu: « Mon inquiétude est que si ce matériel devient plus largement et facilement disponible, et peut être produit à volonté – en un clic – nous nous dirigeons vers un endroit très dangereux à l’avenir. »