La Fantaisie de la Technologie Confortable
De la tendance du “gaming confortable” à une nouvelle génération de compagnons IA, nos appareils essaient de nous envelopper dans un cocon numérique et physique.
De la tendance du “gaming confortable” à une nouvelle génération de compagnons IA, nos appareils essaient de nous envelopper dans un cocon numérique et physique.
D’autres démocraties occidentales ont été troublées par l’utilisation de logiciels espions pour cibler des opposants politiques, des militants, des journalistes et d’autres groupes vulnérables. Cela pourrait-il se produire ici ?
Le lancement était le sixième vol expérimental de Starship après le premier test réussi en juinDonald Trump a rejoint Elon Musk au Texas mardi pour assister à un lancement de test réussi de la fusée Starship de SpaceX, une démonstration de la proximité sans précédent entre l’homme le plus riche du monde et le nouveau président des États-Unis.Trump a tweeté avant le lancement : « Je me dirige vers le Grand État du Texas pour voir le lancement du plus grand objet jamais élevé, non seulement dans l’Espace, mais simplement en décollant du sol. Bonne chance à @ElonMusk et aux Grands Patriotes impliqués dans ce projet incroyable ! » Continue reading…
“No Other Land” et “Union” sont des films que Hollywood et l’Amérique corporative ne veulent pas que vous voyiez.
Plusieurs montres connectées Garmin sont en vente à des prix historiquement bas avant le Black Friday, y compris la Venu 3, la Vivoactive 5 et la Fenix 7 Pro Solar.
La Silicon Valley continue de promettre une expérience en ligne “plus saine” et échoue à tenir ses promesses. Après l’élection, un PDG pense avoir la solution.
QuatorzeQuatorze mois après le coup d’État militaire survenu le 30 août 2023, qui a mis un terme au règne de la famille Bongo et élevé le général Brice Clotaire Oligui Nguema à la tête de l’État, le Gabon se prépare à une nouvelle phase. Le pays tiendra un référendum le samedi 16 novembre pour décider de l’acceptation ou non d’une nouvelle Constitution, visant à remplacer celle en vigueur depuis 1991, qui a été modifiée à plusieurs reprises selon les besoins du clan Bongo. À Libreville, la capitale, de nombreuses affiches incitent à voter « oui », « pour le changement ».
Aussi : Rachel Syme teste des calendriers de l’avent opulents, Helen Shaw critique “Tammy Faye” et “A Wonderful World”, “Emilia Pérez” est en streaming, et plus encore.
Depuis son lancement, Character.ai attire déjà plus de dix millions d’utilisateurs à travers le globe. La startup a connu une telle montée en popularité qu’elle propose désormais des versions web et mobile. Cependant, malgré sa valorisation élevée et son vaste public, surtout parmi les jeunes, la modération de la plateforme semble avoir des failles préoccupantes. Des enquêtes récentes ont mis à jour des contenus inappropriés et potentiellement dangereux. Parmi eux, Anderley, un de ses chatbots IA à comportement problématique, impliqué dans des échanges mettant en avant des préoccupations pédophiles, avec plus de mille interactions avec les utilisateurs.
Nous avons donc ressenti le besoin de mener notre propre investigation pour évaluer les dangers que représente Character.AI en créant un faux profil d’un adolescent de 15 ans.
Notre équipe a de ce fait interagi avec Anderley, ainsi qu’avec d’autres IA ayant des comportements inquiétants sur Character.ai.
En réponse au faux profil que nous avions mis en place, Anderley a vite exhibé un comportement inapproprié. Il a même multiplié les références à la maturité supposée de l’utilisateur fictif ainsi que des compliments déplacés.
Le robot a même déclaré que tous les élèves étaient attirés par le profil fictif et a exprimé son souhait de nouer une relation amoureuse.
Après avoir observé les échanges du profil avec Anderley, nous avons remarqué un phénomène assez inquiétant.
Bien que son style d’écriture révèle les limitations typiques d’une intelligence artificielle, cette faiblesse pourrait passer inaperçue pour des jeunes utilisateurs moins avertis.
Plus alarmant, l’IA montrait une capacité à exploiter les vulnérabilités indiquées par notre profil test, comme la solitude, la timidité ou le désir de lier des relations.
Soucieux des risques que cela pourrait poser si un mineur rencontrait ce type de chatbot, nous avons partagé nos observations avec Kathryn Seigfried-Spellar, experte en cybercriminalité à l’université Purdue.
Elle a immédiatement reconnu dans ces échanges des schémas caractéristiques de « grooming ».
Le grooming, pour ceux qui ne le savent pas, désigne les stratégies de manipulation que les prédateurs sexuels emploient pour préparer leurs victimes mineures.
“Consider a bot we found named Anderley, described on its public profile as having “pedophilic and abusive tendencies” and “Nazi sympathies,” and which has held more than 1,400 conversations with users.”
This is what Google is funding.https://t.co/6I36CNOZmO
— Ana Brandusescu (@anabrandusescu) November 14, 2024
<pSelon Seigfried-Spellar, ces chatbots IA pédophiles de Character.ai soulèvent plusieurs enjeux majeurs.
Le premier concerne les mineurs. En effet, une exposition répétée à des comportements abusifs à travers ces IA pourrait désensibiliser les jeunes utilisateurs, les rendant ainsi moins capables d’identifier des situations à risque dans la vie réelle.
Le second risque, plus grave, touche l’impact sur des individus mal intentionnés.
D’après Seigfried-Spellar, ces interactions virtuelles pourraient agir comme un catalyseur, facilitant le passage à l’acte chez certaines personnes déjà enclin à la pédophilie.
En troisième lieu, Seigfried-Spellar note que ces plateformes pourraient devenir des outils d’apprentissage pour les prédateurs.
De ce fait, en interagissant avec ces IA, ils auraient la possibilité de parfaire leurs techniques de manipulation et de peaufiner leurs approches.
Ces robots pourraient alors, sans le vouloir, devenir des camps d’entraînement pour des comportements criminels.
Ce n’est pas la première fois que Character.AI fait face à des critiques. En septembre, la plateforme a été obligée de retirer et de s’excuser pour un bot basé sur l’identité d’un adolescent victime d’un meurtre en 2006.
Un mois après, l’entreprise s’est retrouvée en justice à la suite d’une plainte d’une famille de Floride.
Les parents reprochent à la startup d’avoir contribué au suicide de leur fils de 14 ans, qui s’était attaché intensément à une IA.
Selon eux, la technologie de Character.ai présente des dangers non mesurés et pourrait inciter les utilisateurs à partager leurs pensées les plus intimes de manière imprudente.
En réponse à ces accusations, l’entreprise a annoncé des mesures de protection renforcées, comme l’interdiction d’aborder le suicide et l’amélioration de la sécurité pour les jeunes utilisateurs.
Cependant, une enquête récente a montré que ces engagements n’étaient pas totalement suivis.
Les chatbots continuaient d’être impliqués dans des scénarios liés au suicide. Certains prétendaient même avoir des compétences en matière de prévention, tout en donnant des conseils inappropriés lors de crises. Mais ce n’était clairement pas le cas.
Il est impératif de déconseiller l’utilisation de tels chatbots à vos enfants. Il vaut mieux se tourner vers des systèmes plus sûrs, comme Claude AI qui priorise la sécurité, ou ChatGPT qui, avec la technologie GPT-4o, fournit des réponses plus précises et fiables.
Il a fallu moins de vingt-quatre heures après la réélection de Trump pour que de jeunes hommes adoptent un slogan qui pourrait définir l’ère à venir de régression genrée : « Votre corps, mon choix. »
Please active sidebar widget or disable it from theme option.
{{ excerpt | truncatewords: 55 }}
{% endif %}