À mesure que l’intelligence artificielle se développe de façon exponentielle, les deepfakes IA commencent à envahir le web. Cela signifie que vous et moi, nous sommes des cibles vulnérables pour le deepfake porn. Et même si vous n’avez jamais partagé de photos dénudées, une simple image de votre visage peut suffire à générer un contenu pour adulte.
Je ne sais pas si vous vous en souvenez, mais Taylor Swift a récemment été la cible d’un deepfake porn.
Et c’est ce que nous cherchons tous à éviter. Cependant, il existe des solutions pour nous défendre contre cette forme d’agression.
Je n’ose même pas envisager à quel point c’est traumatisant d’être pris au piège du deepfake porn.
Pour Me Goldberge, fondatrice du cabinet new-yorkais CA Goldberg Law, qui est spécialisée dans la défense des victimes de crimes sexuels et de cyberharcèlement, être une victime d’un deepfake porn est une épreuve particulièrement douloureuse.
Mais la situation devient encore plus désastreuse lorsque les victimes sont jeunes. Pourquoi ? Tout simplement parce qu’elles sont souvent désemparées face à l’immensité et la complexité d’Internet.
De plus, la plupart des victimes de deepfakes porn ignorent comment réagir ou vers qui se tourner pour recevoir de l’aide.
Cependant, nous avons la possibilité de nous défendre contre cette forme d’intimidation et d’agression personnelle.
C’est du moins ce qu’a expliqué Goldberg lors d’une interview à l’occasion de la sortie d’un podcast de CNN concernant les Conditions d’utilisation de l’IA.
Quelles alternatives avons-nous pour lutter contre l’exploitation des images explicites non consensuelles ?
Les « Conditions d’utilisation » visent à clarifier ce qui est permis ou interdit en matière d’utilisation de la technologie d’intelligence artificielle.
Du côté des victimes, le premier réflexe à adopter consiste à prendre des captures d’écran des images ou vidéos deepfakes.
Sinon, il est également possible de demander la suppression du contenu. Mais il faudra remplir un formulaire sur Google, Snapchat et Meta, entre autres.
Il existe aussi d’autres organisations non lucratives qui accompagnent les victimes de deepfakes porn en leur proposant de faire retirer tout le contenu.
Il s’agit surtout de Take it Down et StopNCII.org qui se concentrent sur l’abus d’images intimes non consensuelles.
Cependant, ces deux organisations ne collaborent pas forcément avec toutes les plateformes de contenu NSFW.
L’enjeu est de taille : un consensus politique contre les deepfakes porn est-il suffisant ?
La problématique des deepfakes porn et des images explicites non consensuelles a réussi à établir un consensus politique entre les partis.
Une audience au Capitole a permis à des adolescents victimes et à leurs parents de partager leurs témoignages sur l’impact de la pornographie générée par l’intelligence artificielle.
À la suite de ces témoignages, une initiative législative bipartisane a vu le jour. Le sénateur républicain Ted Cruz, avec le soutien de la sénatrice démocrate Amy Klobuchar, a proposé un projet de loi visant à pénaliser la diffusion de telles images.
The largest and most popular deepfake porn site, which gets millions of hits each month, is now inaccessible in the UK after the Government’s announcement this week that it will criminalise the creation of deepfake porn. What a win! 💪 pic.twitter.com/IIpiImxFfz
— Jess Davies (@_JessicaDavies) April 19, 2024
Le texte prévoit également d’imposer aux plateformes de médias sociaux l’obligation de retirer rapidement ces contenus dès qu’une victime les signale.
Toutefois, actuellement, les victimes font encore face à une situation juridique complexe et hétérogène, avec des lois variant d’un État à l’autre.
Dans certaines juridictions, il existe un vide juridique préoccupant. Aucune législation pénale ne protège cependant les adultes contre la création ou la diffusion de deepfakes porn.
En revanche, les mineurs sont protégés par les lois existantes sur l’exploitation sexuelle des enfants concernant les images sexuelles générées par IA les impliquant.
Cela dit, nous ne sommes pas véritablement à l’abri des deepfakes porn. De plus, nous ne pouvons pas grand-chose pour prévenir le pire, pour le moment.
- Partager l’article :
Laisser un commentaire