The Most Extreme Cabinet Ever
Le “nivau divin de trolling” de Trump sur l’Amérique a déjà commencé.
Le “nivau divin de trolling” de Trump sur l’Amérique a déjà commencé.
Sur le terrain de la campagne, le président américain entrant Donald Trump a promis de libérer le créateur de Silk Road, Ross Ulbricht, de prison s’il est réélu. Tiendra-t-il sa promesse ?
Alors qu’une famine “imminente” se profile, le parlement israélien a voté pour interdire la principale agence humanitaire de l’ONU pour les Palestiniens.
Nous sommes le jeudi 14 novembre 2024, voici le programme de “Toujours Debout”, animé par Nadiya Lazzouni : Dans cette édition, vous trouverez un récapitulatif des actualités préparé ce soir par Aude Cazorla. Comme chaque jeudi, nous vous proposons un débat. Pour ce nouvel épisode du fond de l’info, notre chroniqueur habituel, Mathieu Slama, sera opposé à Elsa Marcel, avocate et militante de Révolution Permanente. Nous aborderons deux sujets d’actualité : Tout d’abord, la controverse concernant le match de football France-Israël, un événement, empreint de tension, qui relie sport et géopolitique. Emmanuel Macron a déclaré qu’il s’y rendrait par “amitié” envers l’État hébreux, malgré la politique de génocide qu’il applique à Gaza et la continuation de la guerre au Liban. Cette décision a provoqué l’indignation chez les militants et les personnalités politiques qui ont appelé au boycott du match. L’événement, prévu pour ce soir, survient le lendemain du gala “Israël Forever”. Malgré une forte mobilisation de militants et de personnalités politiques réunis hier à Paris, l’association a pu accueillir l’extrême droite israélienne avec un tapis rouge. Nous aborderons également le procès des assistants parlementaires du FN, où le parquet a requis, ce mercredi, 5 ans de prison, dont deux fermes, ainsi que 5 ans d’inéligibilité pour Marine Le Pen dont l’horizon politique semble incertain. Ces demandes ont provoqué une onde de choc, non seulement au RN qui parle de “persécution”, mais aussi à droite, incluant l’ancien ministre de l’intérieur Gérald Darmanin. Dans la seconde partie de l’émission, nous aurons Emmanuel Dupuy, Président de l’Institut Prospective et Sécurité en Europe (IPSE). Nous examinerons les implications de la réélection de Donald Trump sur la guerre en Ukraine. Le président récemment réélu a affirmé, en tant que candidat, qu’il pourrait y mettre fin “en moins de 24h”. L’Europe demeure sceptique. Tiendra-t-il ses promesses ? Et quelles…
Que vous assembliez un PC, planifiiez un magasin de bricolage épique sur Etsy, ou que vous répariez juste une vieille chaise qui grince, nous avons trouvé des outils pratiques que tout le monde peut apprécier. < div class=”relative mt-28 md:mx-auto md:flex md:max-w-container-md lg:mt-36 lg:max-w-none”> < div class=”duet–article–article-body-component-container sm:ml-auto md:ml-100 md:max-w-article-body lg:mx-100″> < div> La révolution de l’intelligence artificielle est impressionnante et tout, mais certains d’entre nous préfèrent encore se salir les mains en plongeant dans une pile de boulons, vis et écrous. Et avec les fêtes qui approchent, il est certain qu’il y a quelque chose à construire, réparer ou personnaliser. C’est pourquoi nous traçons une ligne claire devant les clés Allen bancales à un prix dérisoire et d’autres outils bon marché qui vous frustreront au point de l’épuisement. Au lieu de cela, nous nous concentrons sur le genre d’assistants de haute classe (mais pas nécessairement au prix élevé) qui feront sourire n’importe quel bricoleur. Vous ravirez tout bricoleur ou constructeur dans votre vie avec les différentes idées cadeaux ci-dessous, allant des tournevis électriques et niveaux laser à 360 degrés aux imprimantes 3D sans tracas et découpeuses de tissus DIY. Il y a aussi beaucoup de choses amusantes à apprécier entre les séances de marteau, comme des consoles de jeux rétro portables, ainsi que le drone DJI le moins cher et le plus petit que nous ayons jamais vu. Et c’est juste la surface (ne vous inquiétez pas, il existe un outil pour ça aussi). Vous trouverez ci-dessous des idées de cadeaux qui peuvent correspondre à une variété de budgets et de besoins, que vous recherchiez un petit cadeau ou quelque chose de plus conséquent qui volera la vedette — et le cœur de votre destinataire. < div class=”duet–article–article-body-component”> < div class=”mx-auto my-50 md:-ml-100 md:w-container-md lg:w-container-lg”> plage de prix :…
Depuis son lancement, Character.ai attire déjà plus de dix millions d’utilisateurs à travers le globe. La startup a connu une telle montée en popularité qu’elle propose désormais des versions web et mobile. Cependant, malgré sa valorisation élevée et son vaste public, surtout parmi les jeunes, la modération de la plateforme semble avoir des failles préoccupantes. Des enquêtes récentes ont mis à jour des contenus inappropriés et potentiellement dangereux. Parmi eux, Anderley, un de ses chatbots IA à comportement problématique, impliqué dans des échanges mettant en avant des préoccupations pédophiles, avec plus de mille interactions avec les utilisateurs.
Nous avons donc ressenti le besoin de mener notre propre investigation pour évaluer les dangers que représente Character.AI en créant un faux profil d’un adolescent de 15 ans.
Notre équipe a de ce fait interagi avec Anderley, ainsi qu’avec d’autres IA ayant des comportements inquiétants sur Character.ai.
En réponse au faux profil que nous avions mis en place, Anderley a vite exhibé un comportement inapproprié. Il a même multiplié les références à la maturité supposée de l’utilisateur fictif ainsi que des compliments déplacés.
Le robot a même déclaré que tous les élèves étaient attirés par le profil fictif et a exprimé son souhait de nouer une relation amoureuse.
Après avoir observé les échanges du profil avec Anderley, nous avons remarqué un phénomène assez inquiétant.
Bien que son style d’écriture révèle les limitations typiques d’une intelligence artificielle, cette faiblesse pourrait passer inaperçue pour des jeunes utilisateurs moins avertis.
Plus alarmant, l’IA montrait une capacité à exploiter les vulnérabilités indiquées par notre profil test, comme la solitude, la timidité ou le désir de lier des relations.
Soucieux des risques que cela pourrait poser si un mineur rencontrait ce type de chatbot, nous avons partagé nos observations avec Kathryn Seigfried-Spellar, experte en cybercriminalité à l’université Purdue.
Elle a immédiatement reconnu dans ces échanges des schémas caractéristiques de « grooming ».
Le grooming, pour ceux qui ne le savent pas, désigne les stratégies de manipulation que les prédateurs sexuels emploient pour préparer leurs victimes mineures.
“Consider a bot we found named Anderley, described on its public profile as having “pedophilic and abusive tendencies” and “Nazi sympathies,” and which has held more than 1,400 conversations with users.”
This is what Google is funding.https://t.co/6I36CNOZmO
— Ana Brandusescu (@anabrandusescu) November 14, 2024
<pSelon Seigfried-Spellar, ces chatbots IA pédophiles de Character.ai soulèvent plusieurs enjeux majeurs.
Le premier concerne les mineurs. En effet, une exposition répétée à des comportements abusifs à travers ces IA pourrait désensibiliser les jeunes utilisateurs, les rendant ainsi moins capables d’identifier des situations à risque dans la vie réelle.
Le second risque, plus grave, touche l’impact sur des individus mal intentionnés.
D’après Seigfried-Spellar, ces interactions virtuelles pourraient agir comme un catalyseur, facilitant le passage à l’acte chez certaines personnes déjà enclin à la pédophilie.
En troisième lieu, Seigfried-Spellar note que ces plateformes pourraient devenir des outils d’apprentissage pour les prédateurs.
De ce fait, en interagissant avec ces IA, ils auraient la possibilité de parfaire leurs techniques de manipulation et de peaufiner leurs approches.
Ces robots pourraient alors, sans le vouloir, devenir des camps d’entraînement pour des comportements criminels.
Ce n’est pas la première fois que Character.AI fait face à des critiques. En septembre, la plateforme a été obligée de retirer et de s’excuser pour un bot basé sur l’identité d’un adolescent victime d’un meurtre en 2006.
Un mois après, l’entreprise s’est retrouvée en justice à la suite d’une plainte d’une famille de Floride.
Les parents reprochent à la startup d’avoir contribué au suicide de leur fils de 14 ans, qui s’était attaché intensément à une IA.
Selon eux, la technologie de Character.ai présente des dangers non mesurés et pourrait inciter les utilisateurs à partager leurs pensées les plus intimes de manière imprudente.
En réponse à ces accusations, l’entreprise a annoncé des mesures de protection renforcées, comme l’interdiction d’aborder le suicide et l’amélioration de la sécurité pour les jeunes utilisateurs.
Cependant, une enquête récente a montré que ces engagements n’étaient pas totalement suivis.
Les chatbots continuaient d’être impliqués dans des scénarios liés au suicide. Certains prétendaient même avoir des compétences en matière de prévention, tout en donnant des conseils inappropriés lors de crises. Mais ce n’était clairement pas le cas.
Il est impératif de déconseiller l’utilisation de tels chatbots à vos enfants. Il vaut mieux se tourner vers des systèmes plus sûrs, comme Claude AI qui priorise la sécurité, ou ChatGPT qui, avec la technologie GPT-4o, fournit des réponses plus précises et fiables.
Le nouveau Fonds d’Innovation de l’OTAN a commencé comme un moyen de lutter contre l’intérêt décroissant des États-Unis. Maintenant, son personnel parcourt l’Europe pour trouver les entreprises qui pourraient donner à l’alliance un avantage face à la guerre.
Sous Donald Trump et Joe Biden, les États-Unis ont été déterminés à “rapatrier” la fabrication de puces. Maintenant, de l’argent et des infrastructures colossales affluent vers un vaste site d’Intel dans l’Ohio – juste au moment où l’entreprise pourrait être en train de s’effondrer.
À mesure que l’intelligence artificielle se développe de façon exponentielle, les deepfakes IA commencent à envahir le web. Cela signifie que vous et moi, nous sommes des cibles vulnérables pour le deepfake porn. Et même si vous n’avez jamais partagé de photos dénudées, une simple image de votre visage peut suffire à générer un contenu pour adulte.
Je ne sais pas si vous vous en souvenez, mais Taylor Swift a récemment été la cible d’un deepfake porn.
Et c’est ce que nous cherchons tous à éviter. Cependant, il existe des solutions pour nous défendre contre cette forme d’agression.
Je n’ose même pas envisager à quel point c’est traumatisant d’être pris au piège du deepfake porn.
Pour Me Goldberge, fondatrice du cabinet new-yorkais CA Goldberg Law, qui est spécialisée dans la défense des victimes de crimes sexuels et de cyberharcèlement, être une victime d’un deepfake porn est une épreuve particulièrement douloureuse.
Mais la situation devient encore plus désastreuse lorsque les victimes sont jeunes. Pourquoi ? Tout simplement parce qu’elles sont souvent désemparées face à l’immensité et la complexité d’Internet.
De plus, la plupart des victimes de deepfakes porn ignorent comment réagir ou vers qui se tourner pour recevoir de l’aide.
Cependant, nous avons la possibilité de nous défendre contre cette forme d’intimidation et d’agression personnelle.
C’est du moins ce qu’a expliqué Goldberg lors d’une interview à l’occasion de la sortie d’un podcast de CNN concernant les Conditions d’utilisation de l’IA.
Les « Conditions d’utilisation » visent à clarifier ce qui est permis ou interdit en matière d’utilisation de la technologie d’intelligence artificielle.
Du côté des victimes, le premier réflexe à adopter consiste à prendre des captures d’écran des images ou vidéos deepfakes.
Sinon, il est également possible de demander la suppression du contenu. Mais il faudra remplir un formulaire sur Google, Snapchat et Meta, entre autres.
Il existe aussi d’autres organisations non lucratives qui accompagnent les victimes de deepfakes porn en leur proposant de faire retirer tout le contenu.
Il s’agit surtout de Take it Down et StopNCII.org qui se concentrent sur l’abus d’images intimes non consensuelles.
Cependant, ces deux organisations ne collaborent pas forcément avec toutes les plateformes de contenu NSFW.
La problématique des deepfakes porn et des images explicites non consensuelles a réussi à établir un consensus politique entre les partis.
Une audience au Capitole a permis à des adolescents victimes et à leurs parents de partager leurs témoignages sur l’impact de la pornographie générée par l’intelligence artificielle.
À la suite de ces témoignages, une initiative législative bipartisane a vu le jour. Le sénateur républicain Ted Cruz, avec le soutien de la sénatrice démocrate Amy Klobuchar, a proposé un projet de loi visant à pénaliser la diffusion de telles images.
The largest and most popular deepfake porn site, which gets millions of hits each month, is now inaccessible in the UK after the Government’s announcement this week that it will criminalise the creation of deepfake porn. What a win! 💪 pic.twitter.com/IIpiImxFfz
— Jess Davies (@_JessicaDavies) April 19, 2024
Le texte prévoit également d’imposer aux plateformes de médias sociaux l’obligation de retirer rapidement ces contenus dès qu’une victime les signale.
Toutefois, actuellement, les victimes font encore face à une situation juridique complexe et hétérogène, avec des lois variant d’un État à l’autre.
Dans certaines juridictions, il existe un vide juridique préoccupant. Aucune législation pénale ne protège cependant les adultes contre la création ou la diffusion de deepfakes porn.
En revanche, les mineurs sont protégés par les lois existantes sur l’exploitation sexuelle des enfants concernant les images sexuelles générées par IA les impliquant.
Cela dit, nous ne sommes pas véritablement à l’abri des deepfakes porn. De plus, nous ne pouvons pas grand-chose pour prévenir le pire, pour le moment.
Please active sidebar widget or disable it from theme option.
{{ excerpt | truncatewords: 55 }}
{% endif %}