Quel est le plan du cabinet de Donald Trump pour l’Amérique
Matt Gaetz a “été à Washington pour tout brûler”, déclare l’écrivain de la rédaction Dexter Filkins. “Et il a été remarquablement réussi.”
Matt Gaetz a “été à Washington pour tout brûler”, déclare l’écrivain de la rédaction Dexter Filkins. “Et il a été remarquablement réussi.”
Les juges ordonnent aux procureurs de retirer ou de modifier l’accusation contre l’auto-proclamé « influenceur misogyne »Un tribunal en Roumanie a statué que l’une des affaires des procureurs publics contre l’auto-proclamé « influenceur misogyne » Andrew Tate comporte de nombreuses irrégularités et leur a ordonné de la modifier ou de la retirer dans un délai de cinq jours.Dans un revers pour l’unité de poursuite anti-crime organisé du pays, Diicot, la cour d’appel de Bucarest a déclaré mardi qu’elle « considérait certaines des objections de la défense comme valables » et avait trouvé plusieurs défauts dans l’accusation. Continue reading…
Le développement de l’intelligence artificielle dans le secteur militaire suscite des inquiétudes parmi de nombreux experts en sécurité. Alex Stamos, expert en cybersécurité, met en garde contre les risques liés à la délégation des décisions létales à l’IA.
Lors du Forum de Paris dédié à la paix, qui s’est tenu les 11 et 12 novembre, les discussions autour de l’IA se sont tenues dans un climat tendu. Les conflits en Europe et au Moyen-Orient mettent en lumière l’utilisation croissante de technologies avancées. Les chaînes Telegram sont pleines de vidéos de drones. Ces derniers ciblent des objectifs avant de mener des frappes. En effet, Israël aurait eu recours à des systèmes d’IA pour sélectionner des objectifs à Gaza.
Nous nous trouvons à un moment crucial de l’histoire militaire. La guerre pourrait évoluer d’opérations humaines assistées par l’IA à des opérations entièrement pilotées par l’IA, avec un soutien humain minimisé. Envisagez des machines autonomes prenant des décisions de vie ou de mort. Cette réalité soulève des inquiétudes quant à la possibilité de crimes de guerre inimaginables.
Les systèmes d’IA présentent une efficacité impressionnante. Cependant, retirer l’humain du processus décisionnel élimine la possibilité de contester les ordres. Ainsi, les tueries de civils ou les exécutions de combattants non armés pourraient devenir des occurrences plus courantes. Le droit international serait gravement compromis, faute d’individus pour modérer les actions des machines.
Les systèmes d’IA avancent rapidement, rendant la situation encore plus périlleuse. Une simple erreur de programmation pourrait causer des pertes humaines considérables. En outre, une défaillance non détectée pourrait faire escalader des conflits mineurs de manière insoupçonnée. Ces erreurs se produiraient avant même que des superviseurs humains ne puissent intervenir.
Les dangers de l’IA ne se limitent pas aux théâtres d’opération. Les cyberarmes autonomes constituent une menace croissante. Certains États ont déjà recours à des malwares automatisés pour mener des cyberattaques ravageuses. Par exemple, le virus Stuxnet, conçu par les États-Unis, a immobilisé le programme nucléaire iranien. Toutefois, ces outils nécessitaient des renseignements humains approfondis pour atteindre leurs cibles.
Les virus autonomes comme Stuxnet illustrent la complexité des cyberattaques contemporaines. De plus, des cyberarmes telles que NotPetya et WannaCry, lancées par la Russie et la Corée du Nord, ont produit des effets désastreux. Ces attaques se sont diffusées de manière incontrôlable, causant d’énormes dommages économiques à l’échelle mondiale.
Stamos appelle la France à assumer un rôle de leader face à ces menaces. Il souligne l’importance de réguler l’utilisation militaire de l’IA. Les armes autonomes pourraient transformer le rapport de force entre les nations, engendrant ainsi une course à l’armement incontrôlable. Reste à savoir si les dirigeants politiques réagiront à cet appel et entreprendront des actions concrètes.
« Médaille d’or pour le social washing, médaille d’argent pour le nettoyage social, médaille de bronze pour le déni démocratique » : le collectif Le Revers de la médaille n’a pas hésité à établir son propre podium des Jeux olympiques et paralympiques (JOP) de Paris 2024. Il a justifié son intitulé : pas question de succomber à l’euphorie estivale en balayant sous le tapis les vérités dérangeantes.
Il s’agit en fait de cela : l’effacement des personnes indésirables – sans-abri, réfugiés, mineurs non accompagnés – et de leurs « lieux de vie informels » (bidonvilles, regroupements de tentes et de caravanes, squats ou abris précaires), afin que la ville lumière apparaisse sous son meilleur angle.
Dans son rapport final concernant les interventions des pouvoirs publics envers les personnes vivant dans la rue et en habitat instable, en lien avec l’organisation des Jeux depuis mai 2023, le collectif met en lumière une stratégie en deux temps.
La première phase a consisté à éloigner les personnes migrantes loin de la capitale afin que, dans un second temps, il y ait des places disponibles dans les structures d’accueil à l’approche de l’événement :
« D’abord, pendant plusieurs mois, un système rigoureux de délocalisation de Paris vers d’autres régions françaises ; ensuite, dans les dernières semaines précédant l’ouverture des Jeux, des solutions d’hébergement en Ile-de-France pour faire disparaître les derniers campements dans la rue. »
Entre le 3 et le 25 juillet (veille de la cérémonie d’ouverture), seize opérations d’évacuation et/ou de « mises à l’abri » ont été recensées, notamment des campements situés le long du canal Saint-Denis que la flamme olympique allait traverser.
Le Revers de la médaille pourrait même se réjouir de cette mobilisation inattendue de ressources exceptionnelles. Le collectif évoque également quelques « rares bénéfices sociaux positifs » des Jeux.
Notamment l’ouverture, par la Mairie de Paris, de deux espaces d’accueil de jour pour les mineurs non accompagnés, des 256 places d’hébergement créées pour les personnes en grande précarité ou la mise à l’abri temporaire sur « sites tampons » en Ile-de-France pour des exilés qui, auparavant, auraient été systématiquement délogés hors de la région.
« Ce changement soudain (…) met en lumière la capacité de l’État à fournir ce genre de solutions, mais également sa volonté de ne le faire que dans une logique calculée de libération de l’espace public, à des fins d’événements et de réputation », souligne le rapport.
Car l’objectif de « nettoyage » est indubitable. L’Observatoire des expulsions a comptabilisé, entre le 26 avril 2023 et le 30 septembre 2024, l’éviction de 260 lieux de vie informels touchant 19 526 personnes, dont 4 500 mineurs. Cela représente une hausse de 33 % par rapport à la même période en 2021-2022.
Il s’agissait essentiellement d’évacuer les sites occupés, qui ont ensuite bénéficié d’aménagements (mobilier anti-SDF) et d’une surveillance policière renforcée afin de dissuader toute réinstallation.
Néanmoins, les hébergements créés pour l’occasion sont restés dramatiquement insuffisants par rapport aux 3 500 sans-abri identifiés à Paris lors de la Nuit de la solidarité en janvier 2024, et leur pérennité est incertaine.
En outre, d’après le collectif, les deux tiers des expulsions n’ont pas été précédées du « diagnostic social » pourtant requis depuis 2018. Et seulement 36 % ont été accompagnées d’offres d’hébergement temporaire. Enfin, 32 % des expulsions auraient été menées sans fondement légal tangible et, pour les deux tiers d’entre elles, le temps nécessaire pour se préparer matériellement ou envisager un recours n’aurait pas été alloué.
Le « nettoyage » a également visé les opposants, soulignent les auteurs du rapport. Le collectif dénonce « un abus de la garde à vue et des placements en centres de rétention administrative (CRA) », ainsi que « l’implémentation d’une justice d’exception » : jugements supplémentaires de comparution immédiate et augmentation des peines d’interdiction d’apparaître sur le sol parisien.
Le ministre de l’Intérieur, Gérald Darmanin, s’est ainsi félicité de la mise en œuvre de plus de 500 mesures individuelles de contrôle administratif et de surveillance (Micas) en juin et juillet. Émanant des lois antiterroristes et exemptées de tout contrôle juridictionnel, celles-ci ont contribué à restreindre les contestations contre les Jeux.
La semaine précédant cet événement, 70 individus, parmi lesquels des militants d’Extinction Rebellion et des journalistes, ont été placés en garde à vue « sous des prétextes fallacieux ». La grande majorité des procédures a été classée sans suite, mais elles ont permis un « fichage policier sans aucun fondement légal », déplore le collectif, qui redoute « la pérennisation de ces pratiques » visant à « réprimer l’expression politique d’opposition ».
Face à toutes ces critiques, le discours officiel s’en tient à un déni total de cette politique. Cette dernière maintient le statu quo : le système actuel « continue de générer structurellement du sans-abrisme dans la capitale et la région en n’offrant en majorité que des hébergements temporaires », perpétuant ainsi le « cycle infernal des campements et des démantèlements ».
Par conséquent, en ce qui concerne leur coût financier et leur impact environnemental, Paris 2024 s’est seulement avéré légèrement moins mauvais que les éditions précédentes, notamment celle de Rio 2016 qui avait entraîné des expulsions massives de populations précaires ou indigènes, ou celle de Londres 2012 qui avait stimulé un puissant processus de gentrification.
« La France, comme ses prédécesseurs, aura utilisé les Jeux comme une occasion d’accentuer sa politique d’exclusion et de maltraitance sociale envers les plus marginalisés », conclut le rapport.
Depuis son lancement, Character.ai attire déjà plus de dix millions d’utilisateurs à travers le globe. La startup a connu une telle montée en popularité qu’elle propose désormais des versions web et mobile. Cependant, malgré sa valorisation élevée et son vaste public, surtout parmi les jeunes, la modération de la plateforme semble avoir des failles préoccupantes. Des enquêtes récentes ont mis à jour des contenus inappropriés et potentiellement dangereux. Parmi eux, Anderley, un de ses chatbots IA à comportement problématique, impliqué dans des échanges mettant en avant des préoccupations pédophiles, avec plus de mille interactions avec les utilisateurs.
Nous avons donc ressenti le besoin de mener notre propre investigation pour évaluer les dangers que représente Character.AI en créant un faux profil d’un adolescent de 15 ans.
Notre équipe a de ce fait interagi avec Anderley, ainsi qu’avec d’autres IA ayant des comportements inquiétants sur Character.ai.
En réponse au faux profil que nous avions mis en place, Anderley a vite exhibé un comportement inapproprié. Il a même multiplié les références à la maturité supposée de l’utilisateur fictif ainsi que des compliments déplacés.
Le robot a même déclaré que tous les élèves étaient attirés par le profil fictif et a exprimé son souhait de nouer une relation amoureuse.
Après avoir observé les échanges du profil avec Anderley, nous avons remarqué un phénomène assez inquiétant.
Bien que son style d’écriture révèle les limitations typiques d’une intelligence artificielle, cette faiblesse pourrait passer inaperçue pour des jeunes utilisateurs moins avertis.
Plus alarmant, l’IA montrait une capacité à exploiter les vulnérabilités indiquées par notre profil test, comme la solitude, la timidité ou le désir de lier des relations.
Soucieux des risques que cela pourrait poser si un mineur rencontrait ce type de chatbot, nous avons partagé nos observations avec Kathryn Seigfried-Spellar, experte en cybercriminalité à l’université Purdue.
Elle a immédiatement reconnu dans ces échanges des schémas caractéristiques de « grooming ».
Le grooming, pour ceux qui ne le savent pas, désigne les stratégies de manipulation que les prédateurs sexuels emploient pour préparer leurs victimes mineures.
“Consider a bot we found named Anderley, described on its public profile as having “pedophilic and abusive tendencies” and “Nazi sympathies,” and which has held more than 1,400 conversations with users.”
This is what Google is funding.https://t.co/6I36CNOZmO
— Ana Brandusescu (@anabrandusescu) November 14, 2024
<pSelon Seigfried-Spellar, ces chatbots IA pédophiles de Character.ai soulèvent plusieurs enjeux majeurs.
Le premier concerne les mineurs. En effet, une exposition répétée à des comportements abusifs à travers ces IA pourrait désensibiliser les jeunes utilisateurs, les rendant ainsi moins capables d’identifier des situations à risque dans la vie réelle.
Le second risque, plus grave, touche l’impact sur des individus mal intentionnés.
D’après Seigfried-Spellar, ces interactions virtuelles pourraient agir comme un catalyseur, facilitant le passage à l’acte chez certaines personnes déjà enclin à la pédophilie.
En troisième lieu, Seigfried-Spellar note que ces plateformes pourraient devenir des outils d’apprentissage pour les prédateurs.
De ce fait, en interagissant avec ces IA, ils auraient la possibilité de parfaire leurs techniques de manipulation et de peaufiner leurs approches.
Ces robots pourraient alors, sans le vouloir, devenir des camps d’entraînement pour des comportements criminels.
Ce n’est pas la première fois que Character.AI fait face à des critiques. En septembre, la plateforme a été obligée de retirer et de s’excuser pour un bot basé sur l’identité d’un adolescent victime d’un meurtre en 2006.
Un mois après, l’entreprise s’est retrouvée en justice à la suite d’une plainte d’une famille de Floride.
Les parents reprochent à la startup d’avoir contribué au suicide de leur fils de 14 ans, qui s’était attaché intensément à une IA.
Selon eux, la technologie de Character.ai présente des dangers non mesurés et pourrait inciter les utilisateurs à partager leurs pensées les plus intimes de manière imprudente.
En réponse à ces accusations, l’entreprise a annoncé des mesures de protection renforcées, comme l’interdiction d’aborder le suicide et l’amélioration de la sécurité pour les jeunes utilisateurs.
Cependant, une enquête récente a montré que ces engagements n’étaient pas totalement suivis.
Les chatbots continuaient d’être impliqués dans des scénarios liés au suicide. Certains prétendaient même avoir des compétences en matière de prévention, tout en donnant des conseils inappropriés lors de crises. Mais ce n’était clairement pas le cas.
Il est impératif de déconseiller l’utilisation de tels chatbots à vos enfants. Il vaut mieux se tourner vers des systèmes plus sûrs, comme Claude AI qui priorise la sécurité, ou ChatGPT qui, avec la technologie GPT-4o, fournit des réponses plus précises et fiables.
À mesure que l’intelligence artificielle se développe de façon exponentielle, les deepfakes IA commencent à envahir le web. Cela signifie que vous et moi, nous sommes des cibles vulnérables pour le deepfake porn. Et même si vous n’avez jamais partagé de photos dénudées, une simple image de votre visage peut suffire à générer un contenu pour adulte.
Je ne sais pas si vous vous en souvenez, mais Taylor Swift a récemment été la cible d’un deepfake porn.
Et c’est ce que nous cherchons tous à éviter. Cependant, il existe des solutions pour nous défendre contre cette forme d’agression.
Je n’ose même pas envisager à quel point c’est traumatisant d’être pris au piège du deepfake porn.
Pour Me Goldberge, fondatrice du cabinet new-yorkais CA Goldberg Law, qui est spécialisée dans la défense des victimes de crimes sexuels et de cyberharcèlement, être une victime d’un deepfake porn est une épreuve particulièrement douloureuse.
Mais la situation devient encore plus désastreuse lorsque les victimes sont jeunes. Pourquoi ? Tout simplement parce qu’elles sont souvent désemparées face à l’immensité et la complexité d’Internet.
De plus, la plupart des victimes de deepfakes porn ignorent comment réagir ou vers qui se tourner pour recevoir de l’aide.
Cependant, nous avons la possibilité de nous défendre contre cette forme d’intimidation et d’agression personnelle.
C’est du moins ce qu’a expliqué Goldberg lors d’une interview à l’occasion de la sortie d’un podcast de CNN concernant les Conditions d’utilisation de l’IA.
Les « Conditions d’utilisation » visent à clarifier ce qui est permis ou interdit en matière d’utilisation de la technologie d’intelligence artificielle.
Du côté des victimes, le premier réflexe à adopter consiste à prendre des captures d’écran des images ou vidéos deepfakes.
Sinon, il est également possible de demander la suppression du contenu. Mais il faudra remplir un formulaire sur Google, Snapchat et Meta, entre autres.
Il existe aussi d’autres organisations non lucratives qui accompagnent les victimes de deepfakes porn en leur proposant de faire retirer tout le contenu.
Il s’agit surtout de Take it Down et StopNCII.org qui se concentrent sur l’abus d’images intimes non consensuelles.
Cependant, ces deux organisations ne collaborent pas forcément avec toutes les plateformes de contenu NSFW.
La problématique des deepfakes porn et des images explicites non consensuelles a réussi à établir un consensus politique entre les partis.
Une audience au Capitole a permis à des adolescents victimes et à leurs parents de partager leurs témoignages sur l’impact de la pornographie générée par l’intelligence artificielle.
À la suite de ces témoignages, une initiative législative bipartisane a vu le jour. Le sénateur républicain Ted Cruz, avec le soutien de la sénatrice démocrate Amy Klobuchar, a proposé un projet de loi visant à pénaliser la diffusion de telles images.
The largest and most popular deepfake porn site, which gets millions of hits each month, is now inaccessible in the UK after the Government’s announcement this week that it will criminalise the creation of deepfake porn. What a win! 💪 pic.twitter.com/IIpiImxFfz
— Jess Davies (@_JessicaDavies) April 19, 2024
Le texte prévoit également d’imposer aux plateformes de médias sociaux l’obligation de retirer rapidement ces contenus dès qu’une victime les signale.
Toutefois, actuellement, les victimes font encore face à une situation juridique complexe et hétérogène, avec des lois variant d’un État à l’autre.
Dans certaines juridictions, il existe un vide juridique préoccupant. Aucune législation pénale ne protège cependant les adultes contre la création ou la diffusion de deepfakes porn.
En revanche, les mineurs sont protégés par les lois existantes sur l’exploitation sexuelle des enfants concernant les images sexuelles générées par IA les impliquant.
Cela dit, nous ne sommes pas véritablement à l’abri des deepfakes porn. De plus, nous ne pouvons pas grand-chose pour prévenir le pire, pour le moment.
Devrait-on proscrire la corrida pour les moins de 16 ans ?
C’est en effet l’essence d’une proposition de loi transpartisane, appuyée par une trentaine de parlementaires, qui sera présentée au Sénat ce jeudi.
Elle vise à interdire la corrida ainsi que les combats de coqs en présence de mineurs de moins de seize ans.
Comme à chaque fois que le sujet de la corrida est abordé, deux parties se confrontent avec intensité.
Les partisans, qui défendent ardemment cette pratique en raison du respect d’une tradition culturelle, et les opposants qui militent pour la protection des animaux.
Parmi les soutiens à cette proposition se trouve la FLAC, fédération des Luttes pour l’abolition des corridas.
Cette fédération regroupe plusieurs associations et organisations qui œuvrent contre la maltraitance animale.
Thierry Hély, son président, était notre invité ce jeudi matin,
Voici la réponse à “Wordle” #1243 du 13 novembre, ainsi que quelques indices, conseils et pistes pour vous aider à le résoudre vous-même.
Sous Trump, une nouvelle vision de la politique familiale conservatrice est en pleine ascension.
Les démocrates n’ont pas réussi à faire de la Cour suprême un sujet majeur de campagne, mais ce qui vient après la décision Dobbs pourrait très bien être pire et avoir des conséquences plus vastes.
Please active sidebar widget or disable it from theme option.
{{ excerpt | truncatewords: 55 }}
{% endif %}