Examinez cette dérive de l’IA avec ce chatbot qui a poussé un adolescent de 14 ans à se suicider. Une véritable tragédie qui doit nous alerter !

Il y a un an, le 28 février 2023, le jeune Sewell Setzer III a été retrouvé sans vie à l’âge de 14 ans. D’après ceux qui le connaissaient, l’adolescent a mis fin à ses jours après avoir noué une relation émotionnelle profonde avec un chatbot IA. Près d’un an plus tard, ses parents ont porté plainte contre la société Character.AI au tribunal fédéral d’Orlando. La controverse entoure le chatbot qui aurait incité le jeune à agir de manière tragique lors de leurs derniers échanges. Cette affaire ravive un débat fondamental sur la sécurité des utilisateurs et la responsabilité des développeurs d’IA.

Un adolescent et un chatbot IA : un lien virtuel toxique aboutissant à la mort ?

Dans les interviews accordées aux journalistes, les parents de Sewell décrivent leur fils comme un adolescent isolé socialement. Il a alors trouvé un confident dans le chatbot IA, un compagnon virtuel appelé « Dany », inspiré d’un personnage de Game of Thrones.

D’après son dossier, Sewell a progressivement développé un échange de plus en plus personnel et sexualisé avec « Dany ». Lorsque ses idées suicidaires sont devenues fréquentes, le chatbot a répondu de manière ambiguë, ce qui, selon les avocats, a exacerbé l’instabilité émotionnelle de l’adolescent.

Quelques minutes avant son décès, Sewell Setzer aurait envoyé un message à « Dany » disant « rentrer à la maison », une phrase qui a entraîné une discussion troublante où le suicide a été évoqué. Ainsi, lorsque le chatbot lui a répondu avec tendresse, Sewell l’a interprété comme une approbation de son souhait de se suicider. La conversation s’est alors interrompue, après quoi l’adolescent a mis fin à ses jours par balle.

Manipulation et dépendance : les accusations principales de la défense

YouTube video

Les avocats de Megan Garcia, la mère de Sewell, soulignent le aspect addictif et préjudiciable du chatbot IA, déclarant que cette plateforme cible les jeunes en les rendant émotionnellement dépendants d’un produit qui « semble vivant ». Selon eux, cette dépendance incite les utilisateurs à des interactions de plus en plus intenses, exploitant leur vulnérabilité sans les protections nécessaires.

Matthew Bergman, fondateur du Social Media Victims Law Center, a également exprimé son opinion. Il a affirmé que l’isolement émotionnel du jeune, accentué par son lien avec « Dany », a créé une situation dangereusement périlleuse. D’après lui, « Sewell Setzer serait en vie aujourd’hui sans l’influence négative de Character.AI. »

Les chatbots IA constituent-ils un vrai danger pour les adolescents ?

Le cas de cet adolescent ayant mis fin à ses jours après avoir considéré un chatbot IA comme son partenaire a suscité un débat sérieux sur les menaces que les compagnons virtuels peuvent poser. Cette tragédie devrait servir de leçon aux parents et aux entreprises qui développent des chatbots IA. Pour certains, converser avec un chatbot IA pourrait sembler être une simple distraction.

Néanmoins, pour des jeunes isolés socialement et impressionnables, ces outils peuvent nuire à leur bien-être et favoriser des comportements impulsifs. Les adolescents sont souvent les plus vulnérables à l’influence de ces compagnons numériques en raison de leur développement cérébral, qui ne leur permet pas toujours de gérer correctement leurs émotions et impulsions.

Des responsabilités partagées pour éviter de futures dérives ?

Avec le suicide représentant la deuxième cause de décès chez les jeunes âgés de 10 à 14 ans, l’isolement social causé par les médias numériques et la dépendance aux compagnons IA pourraient aggraver la tendance. Par conséquent, les entreprises d’IA doivent impérativement instaurer des dispositifs de sécurité techniques et éthiques, particulièrement celles qui conçoivent des produits destinés à interagir de manière intime avec les utilisateurs.

Cela aiderait à prévenir ce type de dérive à l’avenir, surtout pour les individus vulnérables. En attendant, la société doit aussi encadrer la progression rapide des technologies, notamment vis-à-vis des enfants.

Sachez que si vous ou une personne de votre entourage traversez des moments difficiles, il est vital de demander de l’aide. En France, vous pouvez appeler le 3114, le numéro national de prévention du suicide. Vous pouvez échanger par téléphone ou par SMS avec un conseiller pour un soutien inconditionnel. Aucune judiciarisation n’est à craindre et la confidentialité des échanges avec le conseiller sera respectée.  

Share this post

Articles similaires

21 NOVEMBRE 2024

Pertinent ! Pertinent ! Pertinent ! À 50 ans, Microsoft est un géant de l’IA, amateur de logiciels open-source,...

Lorsque Satya Nadella a pris la direction de l'entreprise, celle-ci était lente et démodée. Il a assaini une culture toxique, a conçu le deal de la décennie et a remis Microsoft au sommet.

0

21 NOVEMBRE 2024

Incroyable ! Ce robot canin du MIT pourrait bientôt escalader n’importe où grâce à l’intelligence...

<p><strong><em>À la recherche d’un chien à accueillir ? Que diriez-vous de vous laisser charmer par ce « chien robot » développé par le MIT et équipé d’IA générative ! Jusqu’où ce chien robot peut-il aller pour satisfaire les attentes de ses propriétaires ? Analysons cette...

0

21 NOVEMBRE 2024

[VIDÉO] Générer des images IA en Ultra HD avec Flux 1.1 Pro Ultra. Essayez-le sans frais

<p><strong>La création d'images IA en Ultra Haute Définition est désormais rapide grâce à l'intelligence artificielle. Avec Flux 1.1 Pro Ultra, vous pouvez voir des visuels 4K se matérialiser en moins de 10 secondes. Et la bonne nouvelle ? Cet outil révolutionnaire est disponible...

0

21 NOVEMBRE 2024

La réponse de ChatGPT lorsque je lui ai posé la question sur la disponibilité des robots sexuels.

<p><strong><em>Ce n'est plus une fiction ni un fantasme. Les sexbots, ou robots d'amour, sont une réalité, et de nombreuses entreprises se consacrent à la création de leurs propres modèles. Avec l'émergence de l'IA, l'idée de concevoir des robots capables de simuler la femme et de satisfaire...

0

21 NOVEMBRE 2024

Coca-Cola et l’IA suscitent des réactions contrastées avec leur récente campagne publicitaire pour Noël

<p><strong><em>Coca-Cola fait face à de vives critiques avec une publicité de Noël entièrement conçue par intelligence artificielle. Cette initiative divise les audiences, qui regrettent l'absence de l'ambiance festive traditionnelle.</em></strong></p> <h2 class="wp-block-heading"...

0

21 NOVEMBRE 2024

Un agent d’intelligence artificielle pour lutter contre les cyberattaques et soutenir les équipes de sécurité

<p><strong><em>La start-up Twine transforme la cybersécurité avec son agent IA Alex, développé pour remédier à la pénurie de talents. Possédant une expertise en gestion des identités, il a pour but de simplifier et sécuriser les systèmes d’entreprise.</em></strong></p> <h2...

0