À l’intérieur de l’industrie florissante du ‘pimping’ d’IA
Des influenceurs générés par l’IA à partir d’images volées de créateurs de contenu pour adultes de la vie réelle inondent les réseaux sociaux.
Des influenceurs générés par l’IA à partir d’images volées de créateurs de contenu pour adultes de la vie réelle inondent les réseaux sociaux.
Dévoilé lors de la conférence annuelle Microsoft Ignite, la nouvelle fonctionnalité prolonge la puissante technologie de clonage vocal de l’entreprise.
À mesure que l’intelligence artificielle se développe de façon exponentielle, les deepfakes IA commencent à envahir le web. Cela signifie que vous et moi, nous sommes des cibles vulnérables pour le deepfake porn. Et même si vous n’avez jamais partagé de photos dénudées, une simple image de votre visage peut suffire à générer un contenu pour adulte.
Je ne sais pas si vous vous en souvenez, mais Taylor Swift a récemment été la cible d’un deepfake porn.
Et c’est ce que nous cherchons tous à éviter. Cependant, il existe des solutions pour nous défendre contre cette forme d’agression.
Je n’ose même pas envisager à quel point c’est traumatisant d’être pris au piège du deepfake porn.
Pour Me Goldberge, fondatrice du cabinet new-yorkais CA Goldberg Law, qui est spécialisée dans la défense des victimes de crimes sexuels et de cyberharcèlement, être une victime d’un deepfake porn est une épreuve particulièrement douloureuse.
Mais la situation devient encore plus désastreuse lorsque les victimes sont jeunes. Pourquoi ? Tout simplement parce qu’elles sont souvent désemparées face à l’immensité et la complexité d’Internet.
De plus, la plupart des victimes de deepfakes porn ignorent comment réagir ou vers qui se tourner pour recevoir de l’aide.
Cependant, nous avons la possibilité de nous défendre contre cette forme d’intimidation et d’agression personnelle.
C’est du moins ce qu’a expliqué Goldberg lors d’une interview à l’occasion de la sortie d’un podcast de CNN concernant les Conditions d’utilisation de l’IA.
Les « Conditions d’utilisation » visent à clarifier ce qui est permis ou interdit en matière d’utilisation de la technologie d’intelligence artificielle.
Du côté des victimes, le premier réflexe à adopter consiste à prendre des captures d’écran des images ou vidéos deepfakes.
Sinon, il est également possible de demander la suppression du contenu. Mais il faudra remplir un formulaire sur Google, Snapchat et Meta, entre autres.
Il existe aussi d’autres organisations non lucratives qui accompagnent les victimes de deepfakes porn en leur proposant de faire retirer tout le contenu.
Il s’agit surtout de Take it Down et StopNCII.org qui se concentrent sur l’abus d’images intimes non consensuelles.
Cependant, ces deux organisations ne collaborent pas forcément avec toutes les plateformes de contenu NSFW.
La problématique des deepfakes porn et des images explicites non consensuelles a réussi à établir un consensus politique entre les partis.
Une audience au Capitole a permis à des adolescents victimes et à leurs parents de partager leurs témoignages sur l’impact de la pornographie générée par l’intelligence artificielle.
À la suite de ces témoignages, une initiative législative bipartisane a vu le jour. Le sénateur républicain Ted Cruz, avec le soutien de la sénatrice démocrate Amy Klobuchar, a proposé un projet de loi visant à pénaliser la diffusion de telles images.
The largest and most popular deepfake porn site, which gets millions of hits each month, is now inaccessible in the UK after the Government’s announcement this week that it will criminalise the creation of deepfake porn. What a win! 💪 pic.twitter.com/IIpiImxFfz
— Jess Davies (@_JessicaDavies) April 19, 2024
Le texte prévoit également d’imposer aux plateformes de médias sociaux l’obligation de retirer rapidement ces contenus dès qu’une victime les signale.
Toutefois, actuellement, les victimes font encore face à une situation juridique complexe et hétérogène, avec des lois variant d’un État à l’autre.
Dans certaines juridictions, il existe un vide juridique préoccupant. Aucune législation pénale ne protège cependant les adultes contre la création ou la diffusion de deepfakes porn.
En revanche, les mineurs sont protégés par les lois existantes sur l’exploitation sexuelle des enfants concernant les images sexuelles générées par IA les impliquant.
Cela dit, nous ne sommes pas véritablement à l’abri des deepfakes porn. De plus, nous ne pouvons pas grand-chose pour prévenir le pire, pour le moment.
Les avancées fulgurantes de l’intelligence artificielle engendrent de nouveaux défis pour la sécurité en ligne. Le deepfake porn, menace sournoise, cible désormais toute personne, même sans images compromettantes préexistantes.
Les deepfakes ne se concentrent plus uniquement sur les personnalités publiques. Tout un chacun peut devenir la cible de cette intrusion technologique. Des outils facilement accessibles permettent de produire des images compromettantes en superposant des visages authentiques sur des corps dénudés. Ces techniques, hélas, sont aujourd’hui d’une simplicité d’utilisation déconcertante. Les répercussions sont lourdes, tant sur la santé mentale des victimes que sur leur image publique.
La situation se dégrade surtout lorsque de jeunes personnes réalisent qu’elles sont dans le viseur. Les adolescents, qui se déplacent déjà dans un univers numérique complexe, éprouvent souvent un sentiment d’impuissance. Les réseaux sociaux deviennent alors des lieux de harcèlement omniprésent. Cela accroît d’ailleurs la détresse des victimes. Néanmoins, des solutions existent pour les soutenir et leur redonner une apparence de contrôle.
Pour contrer ces attaques, les spécialistes conseillent des actions précises afin de réduire les dommages. Premièrement, il est essentiel de documenter ces images. Prendre une capture d’écran peut sembler contre-productif, mais cela constitue une preuve dans le cadre juridique. Cette étape est capitale pour toute démarche judiciaire à venir.
Ensuite, il est primordial d’utiliser les formulaires de signalement fournis par Google, Meta ou Snapchat. Ces plateformes offrent des ressources pour assister les victimes, même si leur efficacité peut varier. De plus, des organisations comme StopNCII.org aident à retirer simultanément les images. Cependant, certains sites persistent à ne pas collaborer. Cela complique la protection.
Le cadre législatif a du mal à suivre l’évolution rapide des technologies telles que le deepfake. Pourtant, des initiatives encourageantes voient le jour. Un groupe de sénateurs par-delà les partis préconise, par exemple, la pénalisation des deepfakes sexuels. Des témoignages touchants d’adolescents et de parents ont de surcroît sensibilisé le Congrès américain.
Cependant, même avec cette montée en puissance du soutien, le cadre législatif demeure morcelé. Certaines zones géographiques n’ont pas encore de lois appropriées pour protéger les adultes touchés. Seules les images impliquant des enfants font l’objet d’une interdiction stricte. Ainsi, de nombreuses victimes doivent composer avec un cadre légal inadapté.
Le changement ne proviendra pas uniquement des législateurs. L’avocate Carrie Goldberg appelle chacun à adopter des pratiques numériques responsables. Les auteurs de ces actes doivent prendre conscience des répercussions de leurs actions. Le respect de la dignité d’autrui est une barrière cruciale contre ces dérives. Dans un monde de plus en plus digitalisé, la sécurité demeure une question collective. Se protéger devient essentiel , mais il est tout aussi indispensable d’éduquer et de sensibiliser.
Le Pentagone a récemment signé un accord historique d’une valeur de 1,8 million de dollars avec Jericho Security. Cette start-up a pour ambition de révolutionner la cybersécurité militaire grâce à l’IA générative, en fournissant des protections avancées adaptées aux menaces émergentes.
Jericho Security, une entreprise de cybersécurité établie à New York, réalise un exploit avec ce contrat octroyé par l’US Air Force. Cette coopération, pilotée par AFWERX, constitue une avancée majeure dans le domaine de la cybersécurité militaire. Forte de son savoir-faire en IA générative, Jericho se projette dans la simulation d’attaques sophistiquées, notamment à travers des exercices de phishing de haut niveau pour former le personnel militaire.
La complexité de la cybersécurité militaire augmente, avec une recrudescence des stratégies de phishing sur plusieurs plateformes. L’approche de Jericho est donc d’offrir une protection efficace contre des menaces de plus en plus subtiles. Comme l’indique Sage Wohns, le PDG de Jericho Security, les tactiques de phishing d’aujourd’hui exploitent des SMS, des appels, et même des vidéos pour duper leurs victimes. Ce type de simulation réaliste prépare les équipes à affronter les scénarios les plus périlleux.
Au-delà de la simulation des cyberattaques, Jericho offre une approche novatrice de la formation fondée sur l’IA générative. Cette technologie se conforme aux vulnérabilités humaines, vues comme la plus grande faille en cybersécurité. Jericho affirme que 95 % des violations de données proviennent d’erreurs humaines, un aspect clé que l’IA est maintenant en mesure de corriger.
La solution de Jericho développe des programmes de formation sur mesure, conçus en fonction du profil de risque de chaque individu. Cela permet aux forces armées de se préparer face aux attaques de deepfake et aux usurpations d’identité, en utilisant des simulations basées sur des scénarios concrets. Pour l’armée américaine, cet accord représente l’avenir de la cybersécurité en cherchant à protéger son personnel contre des menaces ciblées toujours plus élaborées.
Avec ce contrat, Jericho Security renforce sa position dans le domaine de la défense. Pour une start-up, cette validation par le Pentagone est une reconnaissance significative, ouvrant la voie à de nouvelles opportunités. Jusqu’à présent orientée vers le secteur privé, Jericho exploite cette avancée pour s’installer durablement dans le domaine de la cybersécurité gouvernementale, où les investissements continuent de croître face aux menaces informatiques.
Les exigences militaires impliquent des normes de sécurité strictes. Ainsi, Jericho assure un cryptage total et des environnements protégés pour le traitement de données sensibles. Cet accord illustre aussi la stratégie de l’Air Force qui, à travers AFWERX, accélère l’intégration de technologies innovantes pour assurer la sécurité nationale. Depuis 2019, AFWERX a investi plus de 4,7 milliards de dollars dans des start-ups pour moderniser les technologies militaires.
Jericho ne se limite pas à répondre aux dangers : son modèle prédateur-proie permet d’anticiper et d’évoluer face aux menaces potentielles. Nos systèmes s’adaptent plutôt que de simplement réagir, précise Wohns. Grâce à des simulations offensives, les systèmes d’IA de Jericho recueillent des connaissances en temps réel, leur permettant de contrer les menaces avant qu’elles n’atteignent un point critique.
Ce contrat constitue ainsi un tournant pour l’IA dans le secteur militaire. Avec l’intégration de Jericho Security, le Pentagone renforce ses capacités pour prévoir et contrer les cybermenaces, en établissant une vision proactive de la sécurité pour les années à venir.
Les arnaques téléphoniques redorent leur blason grâce à l’IA et piègent davantage de personnes. Pour […]
L’article Les arnaques téléphoniques 2.0 : découvrez comment les escrocs utilisent l’IA pour vous piéger ! est apparu en premier sur INTELLIGENCE-ARTIFICIELLE.COM .
Les États américains cherchent à criminaliser certaines utilisations de contenu généré par l'IA. Les groupes de défense des droits civiques s'y opposent, arguant que certaines de ces nouvelles lois sont en conflit avec le Premier Amendement.
ENQUÊTE – Un jour de mars, au beau milieu d’une journée de travail ordinaire, Kate, 28 ans, a senti un tapotement pressé sur son épaule. Son collègue voulait absolument lui montrer une vidéo. Elle s’est donc approchée de son écran et s’est vue, grimaçante et gémissante, sur un canapé, les jambes écartées, tandis qu’un homme la pénétrait. Kate était écœurée. Ses collègues, venus voir ce qui se passait, en sont restés sans voix. Ça avait l’air vraiment réel. La fille dans la vidéo répondait même au prénom de Kate. Evidemment, elle savait que ça ne pouvait pas être elle puisqu’elle n’avait jamais fait de film porno, et que le corps n’était pas le sien. Il ne pouvait s’agir que d’un canular, mais qui la croirait? “C’était horrible. Je n’avais jamais rien vu de semblable”, explique Kate, qui vit au Texas. La vidéo, qui est toujours en ligne et compte des dizaines de milliers de vues, est un deepfake, une vidéo trafiquée à l’aide d’un logiciel d’intelligence artificielle qui donne l’impression que quelqu’un fait ou dit des choses. Ces algorithmes utilisent les données vidéo et images d’un individu pour créer un modèle virtuel de son visage et le superposer à n’importe quelle image. Dans le cas de Kate, son visage a été superposé sur celui d’une actrice porno. “Avec Photoshop, qui permet de modifier une image statique, on voit la supercherie”, explique Kate, qui avait déjà été la cible d’attaques misogynes. “Mais quand votre propre visage réagit et bouge, c’est absolument déconcertant. Vous vous rendez compte que vous n’avez aucun contrôle sur l’utilisation qui est faite de votre image.” Au début, le deepfake porno s’attaquait presque exclusivement aux célébrités féminines, leurs apparitions à la télévision et au cinéma constituant suffisamment de matériel exploitable pour les auteurs de vidéos. Aujourd’hui, la technologie…
Please active sidebar widget or disable it from theme option.
{{ excerpt | truncatewords: 55 }}
{% endif %}