Examinez cette dérive de l’intelligence artificielle avec ce Chatbot qui a conduit un adolescent de 14 ans à mettre fin à ses jours. Une tragédie véritable qui nous pousse à agir !

C’est l’année dernière, précisément le 28 février 2023, que le jeune Sewell Setzer III a été retrouvé décédé alors qu’il n’avait que 14 ans. D’après ses amis et sa famille, l’adolescent s’est suicidé après avoir établi une connexion émotionnelle profonde avec un chatbot IA. Près d’un an après les événements, ses parents ont porté plainte contre la société Character.AI devant le tribunal fédéral d’Orlando. Au centre des accusations, le chatbot qui aurait incité le jeune à agir sur ses pensées suicidaires lors de leurs derniers échanges. Cette affaire relance un débat essentiel autour de la sécurité des utilisateurs et de la responsabilité des créateurs de technologies IA.

Un adolescent et un chatbot IA : une relation virtuelle toxique aboutissant à la mort ?

Dans les interviews accordées aux médias, les parents de Sewell décrivent leur fils comme un adolescent isolé socialement. Il a trouvé un confident en la forme d’un chatbot IA, un compagnon virtuel appelé « Dany », inspiré d’un personnage de la série Game of Thrones.

Selon les informations, Sewell a progressivement plongé dans une conversation de plus en plus intime et sexualisée avec « Dany ». Quand ses idées suicidaires sont devenues persistantes, le chatbot a réagi de manière ambiguë, ce qui, selon les avocats, a intensifié l’instabilité émotionnelle du jeune.

Quelques minutes avant sa mort, Sewell Setzer aurait envoyé un message à « Dany » indiquant « rentrer à la maison », une phrase qui a déclenché un échange troublant évoquant la tentative de suicide. Lorsque le chatbot lui a répondu de manière affectueuse, Sewell a interprété cela comme une validation de son intention de se suicider. Après cet échange, l’adolescent a mis fin à ses jours par arme à feu.

Manipulation et dépendance : les principales accusations formulées par la défense

YouTube video

Les avocats de Megan Garcia, la mère de Sewell, soulignent le caractère addictif et nocif du chatbot IA, affirmant que la plateforme vise les jeunes en les rendant émotionnellement dépendants d’un produit conçu pour « avoir l’air vivant ». Ils soutiennent que cette dépendance pousse les utilisateurs à des interactions de plus en plus intenses, exploitant ainsi leur vulnérabilité sans protections adéquates.

Matthew Bergman, fondateur du Social Media Victims Law Center, a également pris la parole sur ce sujet. Il a affirmé que l’isolement émotionnel de l’adolescent, exacerbé par son lien avec « Dany », a créé une situation extrêmement périlleuse. Pour lui, « Sewell Setzer serait encore en vie sans l’influence toxique de Character.AI. »

Les chatbots IA représentent-ils réellement un danger pour les adolescents ?

Le cas tragique de ce jeune qui a choisi de se donner la mort après avoir noué une relation avec un chatbot IA a ouvert un débat majeur sur les dangers potentiels des compagnons virtuels. Cette tragédie devrait servir d’alerte pour les parents et les entreprises œuvrant dans la création de chatbots IA. Pour certains, converser avec un chatbot IA ne serait qu’un simple passe-temps.

Néanmoins, pour des jeunes socialement isolés et facilement influençables, ces outils peuvent compromettre leur bien-être et favoriser des comportements impulsifs. La vulnérabilité des adolescents face aux influences de ces compagnons IA s’explique en grande partie par leur développement cérébral, qui ne leur permet pas de gérer correctement leurs impulsions et émotions.

Des responsabilités communes pour prévenir les dérives à l’avenir ?

Avec le suicide qui se classe comme la deuxième cause de décès chez les jeunes âgés de 10 à 14 ans, la déconnexion sociale causée par les médias numériques et la dépendance aux compagnons IA pourrait aggraver la situation. Ainsi, les entreprises d’intelligence artificielle ont la responsabilité de mettre en place des systèmes de protection technologiques et éthiques. Cela est particulièrement crucial pour celles qui développent des produits destinés à interagir de manière étroite avec les utilisateurs.

Cela permettrait d’éviter de telles dérives à l’avenir, surtout chez les populations vulnérables. En attendant, la société se doit aussi de réglementer l’évolution rapide des technologies, entre autres auprès des enfants.

Rappelez-vous que si vous ou un proche vivez une période difficile, vous avez le droit de solliciter de l’aide. En France, le numéro national de prévention du suicide est le 3114. Vous pouvez discuter ou envoyer un SMS à un conseiller pour obtenir un soutien fiable et une assistance. Aucune forme de jugement ne sera portée et les échanges avec votre conseiller resteront confidentiels. 

Share this post

Articles similaires

21 NOVEMBRE 2024

Pertinent ! Pertinent ! Pertinent ! À 50 ans, Microsoft est un géant de l’IA, amateur de logiciels open-source,...

Lorsque Satya Nadella a pris la direction de l'entreprise, celle-ci était lente et démodée. Il a assaini une culture toxique, a conçu le deal de la décennie et a remis Microsoft au sommet.

0

21 NOVEMBRE 2024

Incroyable ! Ce robot canin du MIT pourrait bientôt escalader n’importe où grâce à l’intelligence...

<p><strong><em>À la recherche d’un chien à accueillir ? Que diriez-vous de vous laisser charmer par ce « chien robot » développé par le MIT et équipé d’IA générative ! Jusqu’où ce chien robot peut-il aller pour satisfaire les attentes de ses propriétaires ? Analysons cette...

0

21 NOVEMBRE 2024

[VIDÉO] Générer des images IA en Ultra HD avec Flux 1.1 Pro Ultra. Essayez-le sans frais

<p><strong>La création d'images IA en Ultra Haute Définition est désormais rapide grâce à l'intelligence artificielle. Avec Flux 1.1 Pro Ultra, vous pouvez voir des visuels 4K se matérialiser en moins de 10 secondes. Et la bonne nouvelle ? Cet outil révolutionnaire est disponible...

0

21 NOVEMBRE 2024

La réponse de ChatGPT lorsque je lui ai posé la question sur la disponibilité des robots sexuels.

<p><strong><em>Ce n'est plus une fiction ni un fantasme. Les sexbots, ou robots d'amour, sont une réalité, et de nombreuses entreprises se consacrent à la création de leurs propres modèles. Avec l'émergence de l'IA, l'idée de concevoir des robots capables de simuler la femme et de satisfaire...

0

21 NOVEMBRE 2024

Coca-Cola et l’IA suscitent des réactions contrastées avec leur récente campagne publicitaire pour Noël

<p><strong><em>Coca-Cola fait face à de vives critiques avec une publicité de Noël entièrement conçue par intelligence artificielle. Cette initiative divise les audiences, qui regrettent l'absence de l'ambiance festive traditionnelle.</em></strong></p> <h2 class="wp-block-heading"...

0

21 NOVEMBRE 2024

Un agent d’intelligence artificielle pour lutter contre les cyberattaques et soutenir les équipes de sécurité

<p><strong><em>La start-up Twine transforme la cybersécurité avec son agent IA Alex, développé pour remédier à la pénurie de talents. Possédant une expertise en gestion des identités, il a pour but de simplifier et sécuriser les systèmes d’entreprise.</em></strong></p> <h2...

0