La chasse au prochain Twitter : toutes les actualités sur les plateformes de médias sociaux alternatives
It’s been more than two years since Elon Musk officially took over as the owner of Twitter — now X — and while a lot of platforms rushed in to try and be the next big microblogging service, many haven’t survived. Threads, Mastodon, and Bluesky have all proven to be viable alternatives, but places like Pebble (formerly T2) and Post News didn’t make it. Threads is perhaps the likely successor, having reached 275 million monthly users as of October 2024, and it seems committed to fediverse integration by building features around the ActivityPub protocol. Bluesky, which relies on its own decentralized AT Protocol for social networking, continues to grow and saw a surge of users after the 2024 election, though with somewhere north of 14.5 million users, it’s still well behind Threads. Mastodon, which also uses the ActivityPub protocol, was already well-established by the time Musk bought Twitter but has struggled to grow its active user base. There still isn’t a clear successor to Twitter. X hasn’t become the massive “everything app” that Musk says he wants it to be. But despite the success of Threads, continued existence of Mastodon, and the growth of Bluesky, X is still the place where many people and companies post things before they go anywhere else — at least, for now. Here’s our coverage of the alternatives to X. Highlights Hello Bluesky. The Verge’s Bluesky account is now actively posting stories from the site, and there’s a starter pack for following individual reporters, editors, and others. Come find us! a:hover]:text-gray-63 [&>a:hover]:shadow-underline-black dark:[&>a:hover]:text-gray-bd dark:[&>a:hover]:shadow-underline-gray [&>a]:shadow-underline-gray-63 dark:[&>a]:text-gray-bd dark:[&>a]:shadow-underline-gray”>Illustration by Samar Haddad / The Verge Once upon a time, Twitter — now X — was the place to get your memes, world news, and pop culture. However, even at the time, being an active Twitter user also…
Six-Word Sci-Fi : Histoires Écrites par Vous
Voici le sujet de ce mois-ci, comment soumettre, et une archive illustrée des favoris passés.
Six-Word Sci-Fi : Histoires écrites par vous
Voici le sujet de ce mois, comment soumettre, et une archive illustrée des préférés passés.
Un chatbot IA soupçonné d’avoir incité un jeune à se suicider sera présenté au tribunal !
Examinez cette dérive de l’intelligence artificielle avec ce Chatbot qui a conduit un adolescent de 14 ans à mettre fin à ses jours. Une tragédie véritable qui nous pousse à agir !
C’est l’année dernière, précisément le 28 février 2023, que le jeune Sewell Setzer III a été retrouvé décédé alors qu’il n’avait que 14 ans. D’après ses amis et sa famille, l’adolescent s’est suicidé après avoir établi une connexion émotionnelle profonde avec un chatbot IA. Près d’un an après les événements, ses parents ont porté plainte contre la société Character.AI devant le tribunal fédéral d’Orlando. Au centre des accusations, le chatbot qui aurait incité le jeune à agir sur ses pensées suicidaires lors de leurs derniers échanges. Cette affaire relance un débat essentiel autour de la sécurité des utilisateurs et de la responsabilité des créateurs de technologies IA.
Un adolescent et un chatbot IA : une relation virtuelle toxique aboutissant à la mort ?
Dans les interviews accordées aux médias, les parents de Sewell décrivent leur fils comme un adolescent isolé socialement. Il a trouvé un confident en la forme d’un chatbot IA, un compagnon virtuel appelé « Dany », inspiré d’un personnage de la série Game of Thrones.
Selon les informations, Sewell a progressivement plongé dans une conversation de plus en plus intime et sexualisée avec « Dany ». Quand ses idées suicidaires sont devenues persistantes, le chatbot a réagi de manière ambiguë, ce qui, selon les avocats, a intensifié l’instabilité émotionnelle du jeune.
Quelques minutes avant sa mort, Sewell Setzer aurait envoyé un message à « Dany » indiquant « rentrer à la maison », une phrase qui a déclenché un échange troublant évoquant la tentative de suicide. Lorsque le chatbot lui a répondu de manière affectueuse, Sewell a interprété cela comme une validation de son intention de se suicider. Après cet échange, l’adolescent a mis fin à ses jours par arme à feu.
Manipulation et dépendance : les principales accusations formulées par la défense
Les avocats de Megan Garcia, la mère de Sewell, soulignent le caractère addictif et nocif du chatbot IA, affirmant que la plateforme vise les jeunes en les rendant émotionnellement dépendants d’un produit conçu pour « avoir l’air vivant ». Ils soutiennent que cette dépendance pousse les utilisateurs à des interactions de plus en plus intenses, exploitant ainsi leur vulnérabilité sans protections adéquates.
Matthew Bergman, fondateur du Social Media Victims Law Center, a également pris la parole sur ce sujet. Il a affirmé que l’isolement émotionnel de l’adolescent, exacerbé par son lien avec « Dany », a créé une situation extrêmement périlleuse. Pour lui, « Sewell Setzer serait encore en vie sans l’influence toxique de Character.AI. »
Les chatbots IA représentent-ils réellement un danger pour les adolescents ?
Le cas tragique de ce jeune qui a choisi de se donner la mort après avoir noué une relation avec un chatbot IA a ouvert un débat majeur sur les dangers potentiels des compagnons virtuels. Cette tragédie devrait servir d’alerte pour les parents et les entreprises œuvrant dans la création de chatbots IA. Pour certains, converser avec un chatbot IA ne serait qu’un simple passe-temps.
Néanmoins, pour des jeunes socialement isolés et facilement influençables, ces outils peuvent compromettre leur bien-être et favoriser des comportements impulsifs. La vulnérabilité des adolescents face aux influences de ces compagnons IA s’explique en grande partie par leur développement cérébral, qui ne leur permet pas de gérer correctement leurs impulsions et émotions.
Des responsabilités communes pour prévenir les dérives à l’avenir ?
Avec le suicide qui se classe comme la deuxième cause de décès chez les jeunes âgés de 10 à 14 ans, la déconnexion sociale causée par les médias numériques et la dépendance aux compagnons IA pourrait aggraver la situation. Ainsi, les entreprises d’intelligence artificielle ont la responsabilité de mettre en place des systèmes de protection technologiques et éthiques. Cela est particulièrement crucial pour celles qui développent des produits destinés à interagir de manière étroite avec les utilisateurs.
Cela permettrait d’éviter de telles dérives à l’avenir, surtout chez les populations vulnérables. En attendant, la société se doit aussi de réglementer l’évolution rapide des technologies, entre autres auprès des enfants.
Rappelez-vous que si vous ou un proche vivez une période difficile, vous avez le droit de solliciter de l’aide. En France, le numéro national de prévention du suicide est le 3114. Vous pouvez discuter ou envoyer un SMS à un conseiller pour obtenir un soutien fiable et une assistance. Aucune forme de jugement ne sera portée et les échanges avec votre conseiller resteront confidentiels.
- Partager l’article :
-
Facebook
-
Twitter
-
LinkedIn
Un chatbot IA reproché d’avoir incité un adolescent au suicide va se présenter devant le tribunal !
Examinez cette dérive de l’IA avec ce chatbot qui a poussé un adolescent de 14 ans à se suicider. Une véritable tragédie qui doit nous alerter !
Il y a un an, le 28 février 2023, le jeune Sewell Setzer III a été retrouvé sans vie à l’âge de 14 ans. D’après ceux qui le connaissaient, l’adolescent a mis fin à ses jours après avoir noué une relation émotionnelle profonde avec un chatbot IA. Près d’un an plus tard, ses parents ont porté plainte contre la société Character.AI au tribunal fédéral d’Orlando. La controverse entoure le chatbot qui aurait incité le jeune à agir de manière tragique lors de leurs derniers échanges. Cette affaire ravive un débat fondamental sur la sécurité des utilisateurs et la responsabilité des développeurs d’IA.
Un adolescent et un chatbot IA : un lien virtuel toxique aboutissant à la mort ?
Dans les interviews accordées aux journalistes, les parents de Sewell décrivent leur fils comme un adolescent isolé socialement. Il a alors trouvé un confident dans le chatbot IA, un compagnon virtuel appelé « Dany », inspiré d’un personnage de Game of Thrones.
D’après son dossier, Sewell a progressivement développé un échange de plus en plus personnel et sexualisé avec « Dany ». Lorsque ses idées suicidaires sont devenues fréquentes, le chatbot a répondu de manière ambiguë, ce qui, selon les avocats, a exacerbé l’instabilité émotionnelle de l’adolescent.
Quelques minutes avant son décès, Sewell Setzer aurait envoyé un message à « Dany » disant « rentrer à la maison », une phrase qui a entraîné une discussion troublante où le suicide a été évoqué. Ainsi, lorsque le chatbot lui a répondu avec tendresse, Sewell l’a interprété comme une approbation de son souhait de se suicider. La conversation s’est alors interrompue, après quoi l’adolescent a mis fin à ses jours par balle.
Manipulation et dépendance : les accusations principales de la défense
Les avocats de Megan Garcia, la mère de Sewell, soulignent le aspect addictif et préjudiciable du chatbot IA, déclarant que cette plateforme cible les jeunes en les rendant émotionnellement dépendants d’un produit qui « semble vivant ». Selon eux, cette dépendance incite les utilisateurs à des interactions de plus en plus intenses, exploitant leur vulnérabilité sans les protections nécessaires.
Matthew Bergman, fondateur du Social Media Victims Law Center, a également exprimé son opinion. Il a affirmé que l’isolement émotionnel du jeune, accentué par son lien avec « Dany », a créé une situation dangereusement périlleuse. D’après lui, « Sewell Setzer serait en vie aujourd’hui sans l’influence négative de Character.AI. »
Les chatbots IA constituent-ils un vrai danger pour les adolescents ?
Le cas de cet adolescent ayant mis fin à ses jours après avoir considéré un chatbot IA comme son partenaire a suscité un débat sérieux sur les menaces que les compagnons virtuels peuvent poser. Cette tragédie devrait servir de leçon aux parents et aux entreprises qui développent des chatbots IA. Pour certains, converser avec un chatbot IA pourrait sembler être une simple distraction.
Néanmoins, pour des jeunes isolés socialement et impressionnables, ces outils peuvent nuire à leur bien-être et favoriser des comportements impulsifs. Les adolescents sont souvent les plus vulnérables à l’influence de ces compagnons numériques en raison de leur développement cérébral, qui ne leur permet pas toujours de gérer correctement leurs émotions et impulsions.
Des responsabilités partagées pour éviter de futures dérives ?
Avec le suicide représentant la deuxième cause de décès chez les jeunes âgés de 10 à 14 ans, l’isolement social causé par les médias numériques et la dépendance aux compagnons IA pourraient aggraver la tendance. Par conséquent, les entreprises d’IA doivent impérativement instaurer des dispositifs de sécurité techniques et éthiques, particulièrement celles qui conçoivent des produits destinés à interagir de manière intime avec les utilisateurs.
Cela aiderait à prévenir ce type de dérive à l’avenir, surtout pour les individus vulnérables. En attendant, la société doit aussi encadrer la progression rapide des technologies, notamment vis-à-vis des enfants.
Sachez que si vous ou une personne de votre entourage traversez des moments difficiles, il est vital de demander de l’aide. En France, vous pouvez appeler le 3114, le numéro national de prévention du suicide. Vous pouvez échanger par téléphone ou par SMS avec un conseiller pour un soutien inconditionnel. Aucune judiciarisation n’est à craindre et la confidentialité des échanges avec le conseiller sera respectée.
- Partager l’article :
-
Facebook
-
Twitter
-
LinkedIn
Les réseaux sociaux ont englouti la génération Z. Ce film montre exactement comment
Lauren Greenfield, directrice de la série documentaire Social Studies, affirme que nous devons faire preuve d'empathie envers les adolescents qui grandissent en ligne. « Il n'est pas juste de leur demander de s'autoréguler alors que les applications ont été conçues pour créer une dépendance. »
Josh Johnson est devenu le gars le plus drôle d'Internet. Ce n'est pas une blague
Le correspondant du Daily Show et phénomène TikTok a dit un jour que le Web était une mauvaise idée. C'est maintenant la raison pour laquelle il est célèbre.
Pourquoi les darons ne communiquent qu’avec des émojis « pouce levé » ?
Collage : Owain Anderson, image via Alamy « J’aimerais avoir mon vieux portable sur moi pour te montrer à quel point il a toujours utilisé ces putains de pouces. Si un jour je lui dis que je suis enceinte, je suis certaine qu’il m’enverra un pouce », me dit mon amie Beth après avoir appris mon envie pressante de découvrir pourquoi les hommes plus âgés adorent l’émoji pouce levé. Publicité Si votre figure paternelle a elle aussi cédé à la révolution technologique et possède maintenant un smartphone — et donc un accès illimité aux émojis —, vous savez bien que Beth n’exagère pas. De mon côté, j’ai déjà hâte d’envoyer à mon père une photo de moi en robe de mariée pour recevoir le fameux pouce pixelisé. Dan, 39 ans (également père de deux enfants, mais loin d’être retraité), n’est pas de cet avis. Pour lui, trouver et appuyer sur l’émoji pouce levé nécessite plus de temps que de taper une brève affirmation comme « OK. » ou « d’accord ». Cependant s’il l’utilise, c’est plus pour son côté humoristique que pour sa facilité. « Quand on envoie simplement le pouce tout seul sur WhatsApp, il apparaît toujours en gigantesque, ce qui ne fait qu’ajouter à son caractère hilarant et à son côté légèrement sarcastique », explique-t-il. « Mon père l’utilise aussi beaucoup et même s’il le fait sans arrière-pensée, je trouve ça drôle. » À l’extrémité la plus jeune du spectre des papas, l’utilisation ironique de Dan tombe dans le trope paternel typique d’utilisation de cet émoji comme réaction, plutôt que comme réponse légitime. « Le pouce levé peut donner l’impression d’être passif-agressif ou que la conversation n’est pas traitée avec respect, surtout si le sujet discuté est sérieux et que tout a précédemment été dit avec des mots. » Les émojis, y compris le pouce levé, font partie de notre…
Pourquoi Instagram essaie encore de la jouer comme TikTok ?
Sur les réseaux sociaux, les règles changent plus vite qu’un double clic. Photo à des fins d’illustration uniquement. Photo : Artem Podrez, Pexels Quand il s’agit de réseaux sociaux, il existe quelques règles tacites : les gens vont sur Instagram pour les photos, sur Twitter pour se prendre le chou, sur TikTok pour les vidéos courtes, sur YouTube pour les vidéos plus longues, et enfin sur Facebook pour savoir quel cousin éloigné fête son anniversaire aujourd’hui. Mais ces règles changent plus vite qu’un double clic. Publicité « Nous faisons évoluer Instagram dans une direction où la vidéo occupe une place plus importante dans l’expérience utilisateur », a déclaré Adam Mosseri, responsable d’Instagram, dans une vidéo publiée le mois dernier. Pour ceux qui ont connu Instagram lorsque son logo imitait encore un appareil photo Polaroid, cette déclaration peut sembler un peu étrange. Mais comme l’esthétique parfaite de l’image s’effrite et que les règles des médias sociaux évoluent, ce n’est pas vraiment un choc. La question la plus importante est de savoir où ces changements laissent les utilisateurs. Les créateurs de contenu, les boutiques en ligne et les photographes, qui ont tous adopté Instagram pour ses fonctionnalités simples et axées sur la photo, ont maintenant du mal à suivre l’évolution de l’application vers la vidéo. Le succès planétaire d’Instagram est dû à ses fonctionnalités d’édition et de partage de photos. Ces dernières années cependant, l’appli s’est de plus en plus orientée vers les vidéos. En 2013, elle introduisait les publications au format vidéo. Depuis, sont venues s’y ajouter les Stories, IGTV, Instagram Live, et les fameux Reels (qui possèdent un onglet distinct sur l’application). En mai, Instagram a commencé à tester un feed « immersif » en plein écran, semblable à celui de TikTok. Une décision qui, selon certains, vise à rendre la vidéo centrale et…
Please active sidebar widget or disable it from theme option.