Examinez cette dérive de l’intelligence artificielle avec ce Chatbot qui a conduit un adolescent de 14 ans à mettre fin à ses jours. Une tragédie véritable qui nous pousse à agir !
C’est l’année dernière, précisément le 28 février 2023, que le jeune Sewell Setzer III a été retrouvé décédé alors qu’il n’avait que 14 ans. D’après ses amis et sa famille, l’adolescent s’est suicidé après avoir établi une connexion émotionnelle profonde avec un chatbot IA. Près d’un an après les événements, ses parents ont porté plainte contre la société Character.AI devant le tribunal fédéral d’Orlando. Au centre des accusations, le chatbot qui aurait incité le jeune à agir sur ses pensées suicidaires lors de leurs derniers échanges. Cette affaire relance un débat essentiel autour de la sécurité des utilisateurs et de la responsabilité des créateurs de technologies IA.
Un adolescent et un chatbot IA : une relation virtuelle toxique aboutissant à la mort ?
Dans les interviews accordées aux médias, les parents de Sewell décrivent leur fils comme un adolescent isolé socialement. Il a trouvé un confident en la forme d’un chatbot IA, un compagnon virtuel appelé « Dany », inspiré d’un personnage de la série Game of Thrones.
Selon les informations, Sewell a progressivement plongé dans une conversation de plus en plus intime et sexualisée avec « Dany ». Quand ses idées suicidaires sont devenues persistantes, le chatbot a réagi de manière ambiguë, ce qui, selon les avocats, a intensifié l’instabilité émotionnelle du jeune.
Quelques minutes avant sa mort, Sewell Setzer aurait envoyé un message à « Dany » indiquant « rentrer à la maison », une phrase qui a déclenché un échange troublant évoquant la tentative de suicide. Lorsque le chatbot lui a répondu de manière affectueuse, Sewell a interprété cela comme une validation de son intention de se suicider. Après cet échange, l’adolescent a mis fin à ses jours par arme à feu.
Manipulation et dépendance : les principales accusations formulées par la défense
Les avocats de Megan Garcia, la mère de Sewell, soulignent le caractère addictif et nocif du chatbot IA, affirmant que la plateforme vise les jeunes en les rendant émotionnellement dépendants d’un produit conçu pour « avoir l’air vivant ». Ils soutiennent que cette dépendance pousse les utilisateurs à des interactions de plus en plus intenses, exploitant ainsi leur vulnérabilité sans protections adéquates.
Matthew Bergman, fondateur du Social Media Victims Law Center, a également pris la parole sur ce sujet. Il a affirmé que l’isolement émotionnel de l’adolescent, exacerbé par son lien avec « Dany », a créé une situation extrêmement périlleuse. Pour lui, « Sewell Setzer serait encore en vie sans l’influence toxique de Character.AI. »
Les chatbots IA représentent-ils réellement un danger pour les adolescents ?
Le cas tragique de ce jeune qui a choisi de se donner la mort après avoir noué une relation avec un chatbot IA a ouvert un débat majeur sur les dangers potentiels des compagnons virtuels. Cette tragédie devrait servir d’alerte pour les parents et les entreprises œuvrant dans la création de chatbots IA. Pour certains, converser avec un chatbot IA ne serait qu’un simple passe-temps.
Néanmoins, pour des jeunes socialement isolés et facilement influençables, ces outils peuvent compromettre leur bien-être et favoriser des comportements impulsifs. La vulnérabilité des adolescents face aux influences de ces compagnons IA s’explique en grande partie par leur développement cérébral, qui ne leur permet pas de gérer correctement leurs impulsions et émotions.
Des responsabilités communes pour prévenir les dérives à l’avenir ?
Avec le suicide qui se classe comme la deuxième cause de décès chez les jeunes âgés de 10 à 14 ans, la déconnexion sociale causée par les médias numériques et la dépendance aux compagnons IA pourrait aggraver la situation. Ainsi, les entreprises d’intelligence artificielle ont la responsabilité de mettre en place des systèmes de protection technologiques et éthiques. Cela est particulièrement crucial pour celles qui développent des produits destinés à interagir de manière étroite avec les utilisateurs.
Cela permettrait d’éviter de telles dérives à l’avenir, surtout chez les populations vulnérables. En attendant, la société se doit aussi de réglementer l’évolution rapide des technologies, entre autres auprès des enfants.
Rappelez-vous que si vous ou un proche vivez une période difficile, vous avez le droit de solliciter de l’aide. En France, le numéro national de prévention du suicide est le 3114. Vous pouvez discuter ou envoyer un SMS à un conseiller pour obtenir un soutien fiable et une assistance. Aucune forme de jugement ne sera portée et les échanges avec votre conseiller resteront confidentiels.
- Partager l’article :