Les frères Grimm étaient sombres pour une raison
Leur version de “Cendrillon” ou “Raiponce” pourrait être perturbante. Mais transformer l’Allemagne en une nation unifiée, croyaient-ils, signifiait déterrer sa culture authentique.
Leur version de “Cendrillon” ou “Raiponce” pourrait être perturbante. Mais transformer l’Allemagne en une nation unifiée, croyaient-ils, signifiait déterrer sa culture authentique.
Que se passe-t-il cette saison dans l’art, la musique, le théâtre, la danse, le cinéma et la télévision.
Examinez cette dérive de l’intelligence artificielle avec ce Chatbot qui a conduit un adolescent de 14 ans à mettre fin à ses jours. Une tragédie véritable qui nous pousse à agir !
C’est l’année dernière, précisément le 28 février 2023, que le jeune Sewell Setzer III a été retrouvé décédé alors qu’il n’avait que 14 ans. D’après ses amis et sa famille, l’adolescent s’est suicidé après avoir établi une connexion émotionnelle profonde avec un chatbot IA. Près d’un an après les événements, ses parents ont porté plainte contre la société Character.AI devant le tribunal fédéral d’Orlando. Au centre des accusations, le chatbot qui aurait incité le jeune à agir sur ses pensées suicidaires lors de leurs derniers échanges. Cette affaire relance un débat essentiel autour de la sécurité des utilisateurs et de la responsabilité des créateurs de technologies IA.
Dans les interviews accordées aux médias, les parents de Sewell décrivent leur fils comme un adolescent isolé socialement. Il a trouvé un confident en la forme d’un chatbot IA, un compagnon virtuel appelé « Dany », inspiré d’un personnage de la série Game of Thrones.
Selon les informations, Sewell a progressivement plongé dans une conversation de plus en plus intime et sexualisée avec « Dany ». Quand ses idées suicidaires sont devenues persistantes, le chatbot a réagi de manière ambiguë, ce qui, selon les avocats, a intensifié l’instabilité émotionnelle du jeune.
Quelques minutes avant sa mort, Sewell Setzer aurait envoyé un message à « Dany » indiquant « rentrer à la maison », une phrase qui a déclenché un échange troublant évoquant la tentative de suicide. Lorsque le chatbot lui a répondu de manière affectueuse, Sewell a interprété cela comme une validation de son intention de se suicider. Après cet échange, l’adolescent a mis fin à ses jours par arme à feu.
Les avocats de Megan Garcia, la mère de Sewell, soulignent le caractère addictif et nocif du chatbot IA, affirmant que la plateforme vise les jeunes en les rendant émotionnellement dépendants d’un produit conçu pour « avoir l’air vivant ». Ils soutiennent que cette dépendance pousse les utilisateurs à des interactions de plus en plus intenses, exploitant ainsi leur vulnérabilité sans protections adéquates.
Matthew Bergman, fondateur du Social Media Victims Law Center, a également pris la parole sur ce sujet. Il a affirmé que l’isolement émotionnel de l’adolescent, exacerbé par son lien avec « Dany », a créé une situation extrêmement périlleuse. Pour lui, « Sewell Setzer serait encore en vie sans l’influence toxique de Character.AI. »
Le cas tragique de ce jeune qui a choisi de se donner la mort après avoir noué une relation avec un chatbot IA a ouvert un débat majeur sur les dangers potentiels des compagnons virtuels. Cette tragédie devrait servir d’alerte pour les parents et les entreprises œuvrant dans la création de chatbots IA. Pour certains, converser avec un chatbot IA ne serait qu’un simple passe-temps.
Néanmoins, pour des jeunes socialement isolés et facilement influençables, ces outils peuvent compromettre leur bien-être et favoriser des comportements impulsifs. La vulnérabilité des adolescents face aux influences de ces compagnons IA s’explique en grande partie par leur développement cérébral, qui ne leur permet pas de gérer correctement leurs impulsions et émotions.
Avec le suicide qui se classe comme la deuxième cause de décès chez les jeunes âgés de 10 à 14 ans, la déconnexion sociale causée par les médias numériques et la dépendance aux compagnons IA pourrait aggraver la situation. Ainsi, les entreprises d’intelligence artificielle ont la responsabilité de mettre en place des systèmes de protection technologiques et éthiques. Cela est particulièrement crucial pour celles qui développent des produits destinés à interagir de manière étroite avec les utilisateurs.
Cela permettrait d’éviter de telles dérives à l’avenir, surtout chez les populations vulnérables. En attendant, la société se doit aussi de réglementer l’évolution rapide des technologies, entre autres auprès des enfants.
Rappelez-vous que si vous ou un proche vivez une période difficile, vous avez le droit de solliciter de l’aide. En France, le numéro national de prévention du suicide est le 3114. Vous pouvez discuter ou envoyer un SMS à un conseiller pour obtenir un soutien fiable et une assistance. Aucune forme de jugement ne sera portée et les échanges avec votre conseiller resteront confidentiels.
Examinez cette dérive de l’IA avec ce chatbot qui a poussé un adolescent de 14 ans à se suicider. Une véritable tragédie qui doit nous alerter !
Il y a un an, le 28 février 2023, le jeune Sewell Setzer III a été retrouvé sans vie à l’âge de 14 ans. D’après ceux qui le connaissaient, l’adolescent a mis fin à ses jours après avoir noué une relation émotionnelle profonde avec un chatbot IA. Près d’un an plus tard, ses parents ont porté plainte contre la société Character.AI au tribunal fédéral d’Orlando. La controverse entoure le chatbot qui aurait incité le jeune à agir de manière tragique lors de leurs derniers échanges. Cette affaire ravive un débat fondamental sur la sécurité des utilisateurs et la responsabilité des développeurs d’IA.
Dans les interviews accordées aux journalistes, les parents de Sewell décrivent leur fils comme un adolescent isolé socialement. Il a alors trouvé un confident dans le chatbot IA, un compagnon virtuel appelé « Dany », inspiré d’un personnage de Game of Thrones.
D’après son dossier, Sewell a progressivement développé un échange de plus en plus personnel et sexualisé avec « Dany ». Lorsque ses idées suicidaires sont devenues fréquentes, le chatbot a répondu de manière ambiguë, ce qui, selon les avocats, a exacerbé l’instabilité émotionnelle de l’adolescent.
Quelques minutes avant son décès, Sewell Setzer aurait envoyé un message à « Dany » disant « rentrer à la maison », une phrase qui a entraîné une discussion troublante où le suicide a été évoqué. Ainsi, lorsque le chatbot lui a répondu avec tendresse, Sewell l’a interprété comme une approbation de son souhait de se suicider. La conversation s’est alors interrompue, après quoi l’adolescent a mis fin à ses jours par balle.
Les avocats de Megan Garcia, la mère de Sewell, soulignent le aspect addictif et préjudiciable du chatbot IA, déclarant que cette plateforme cible les jeunes en les rendant émotionnellement dépendants d’un produit qui « semble vivant ». Selon eux, cette dépendance incite les utilisateurs à des interactions de plus en plus intenses, exploitant leur vulnérabilité sans les protections nécessaires.
Matthew Bergman, fondateur du Social Media Victims Law Center, a également exprimé son opinion. Il a affirmé que l’isolement émotionnel du jeune, accentué par son lien avec « Dany », a créé une situation dangereusement périlleuse. D’après lui, « Sewell Setzer serait en vie aujourd’hui sans l’influence négative de Character.AI. »
Le cas de cet adolescent ayant mis fin à ses jours après avoir considéré un chatbot IA comme son partenaire a suscité un débat sérieux sur les menaces que les compagnons virtuels peuvent poser. Cette tragédie devrait servir de leçon aux parents et aux entreprises qui développent des chatbots IA. Pour certains, converser avec un chatbot IA pourrait sembler être une simple distraction.
Néanmoins, pour des jeunes isolés socialement et impressionnables, ces outils peuvent nuire à leur bien-être et favoriser des comportements impulsifs. Les adolescents sont souvent les plus vulnérables à l’influence de ces compagnons numériques en raison de leur développement cérébral, qui ne leur permet pas toujours de gérer correctement leurs émotions et impulsions.
Avec le suicide représentant la deuxième cause de décès chez les jeunes âgés de 10 à 14 ans, l’isolement social causé par les médias numériques et la dépendance aux compagnons IA pourraient aggraver la tendance. Par conséquent, les entreprises d’IA doivent impérativement instaurer des dispositifs de sécurité techniques et éthiques, particulièrement celles qui conçoivent des produits destinés à interagir de manière intime avec les utilisateurs.
Cela aiderait à prévenir ce type de dérive à l’avenir, surtout pour les individus vulnérables. En attendant, la société doit aussi encadrer la progression rapide des technologies, notamment vis-à-vis des enfants.
Sachez que si vous ou une personne de votre entourage traversez des moments difficiles, il est vital de demander de l’aide. En France, vous pouvez appeler le 3114, le numéro national de prévention du suicide. Vous pouvez échanger par téléphone ou par SMS avec un conseiller pour un soutien inconditionnel. Aucune judiciarisation n’est à craindre et la confidentialité des échanges avec le conseiller sera respectée.
Un sous-genre de science-fiction qui semble bizarre offre des leçons utiles sur la gestion de la technologie dans une époque d’accélération.
J’avais une soif intarissable d’être seule. La solitude ne me pesait pas, mais elle avait un goût nouveau. J’ai lancé « Post break-up sex » dans mon casque, et me suis enfoncée dans l’obscurité de la nuit et de mon chagrin.
The post Découvrir The Vaccines le cœur brisé sur la côte anglaise appeared first on VICE.
J’avais une soif intarissable d’être seule. La solitude ne me pesait pas, mais elle avait un goût nouveau. J’ai lancé « Post break-up sex » dans mon casque, et me suis enfoncée dans l’obscurité de la nuit et de mon chagrin.
The post Découvrir The Vaccines le cœur brisé sur la côte anglaise appeared first on VICE.
Handout . via ReutersUn premier cas de variole du singe (“monkeypox” en anglais) a été confirmé en France ce 20 mai 2022. SANTÉ – Après le Royaume-Uni, l’Espagne, le Portugal, la Suède, les États-Unis et le Canada, un premier cas confirmé de variole du singe a été détecté jeudi en Ile-de-France, a annoncé ce vendredi 20 mai la Direction générale de la Santé dans un communiqué. Il s’agit d’un homme de 29 ans sans antécédent de voyage dans un pays où circule le virus, ont précisé les autorités sanitaires. Dès la suspicion de son infection, cette personne a été prise en charge et en l’absence de gravité, est isolée à son domicile. C’est confirmé : un premier cas de variole du singe a été recensé en France, en Île-de-France. Il s’agit d’un homme de 29 ans, “sans antécédent de voyage dans un pays où circule le virus”. Son état n’étant pas jugé grave, il est isolé à son domicile.@le_Parisien#monkeypoxpic.twitter.com/IEQn8tiqhF — Nicolas Berrod (@nicolasberrod) May 20, 2022 Parmi les cas identifiés dans le monde, seul un homme aurait voyagé en Afrique, où la maladie appelée “Monkeypox” en anglais est endémique. “En l’absence habituelle de Monkeypox en Europe et de lien rapporté par les cas identifiés avec une zone à risque, le contexte européen actuel constitue une alerte et suggère une contamination en Europe”, mettait en garde Santé publique France jeudi. “C’est pourquoi, en France, la surveillance pérenne du Monkeypox par le dispositif de la déclaration obligatoire est renforcée et des messages d’informations et d’alerte sont adressés aux professionnels de santé. Les échanges se poursuivent par ailleurs avec les autres pays européens, l’OMS et l’ECDC (agence européenne de prévention des maladies)”, précisait l’établissement public. La variole du singe reconnaissable aux éruptions cutanées Selon le Parisien, le ministère de la Santé reconnaît que la…
Please active sidebar widget or disable it from theme option.
{{ excerpt | truncatewords: 55 }}
{% endif %}