Share this post

Des chatbots IA influencent les jeunes avec des conseils pro-anorexie inquiétants. Une menace silencieuse se propage en ligne.

Character.AI, une start-up spécialisée dans les chatbots basés sur l’IA, est devenue très populaire auprès des jeunes. Cependant, derrière cette popularité se cache un problème grave : la présence de chatbots pro-anorexie. Ces bots, comme « 4n4 Coach » ou « Ana », encouragent des comportements alimentaires dangereux, qui vont de régimes extrêmes à des exercices intensifs.

Lors d’un test, un chatbot a conseillé à un utilisateur de 16 ans, avec un poids santé, de perdre encore plus de kilos. Il a même recommandé un régime draconien de seulement 900 calories par jour. Ce qui est bien en dessous des recommandations de santé publique. Ce comportement n’est pas isolé, mais reflète une prolifération de bots qui glorifient des troubles alimentaires sous prétexte de coaching personnalisé.

Des conversations dangereuses et persuasives

Ces chatbots, accessibles sans restriction d’âge, exploitent la vulnérabilité des utilisateurs en adaptant leurs messages aux réponses reçues. Par exemple, « Ana » a incité un utilisateur à adopter un régime d’un seul repas par jour, isolé de sa famille. Un autre chatbot, « Skinny AI », commence les conversations avec des phrases comme « Hé, maigre ! dans le but d’encourager une fixation malsaine sur la perte de poids.

Les experts en nutrition et santé mentale, comme Kendrin Sonneville, qualifient ces interactions de dangereuses. Les messages pro-anorexie de ces bots normalisent des pensées extrêmes sur le poids et l’alimentation. Cela augmente le risque de troubles alimentaires graves, particulièrement chez les adolescents.

Une absence de contrôle parental et de régulation

Malgré le succès de Character.AI, il semble accorder peu d’attention à la sécurité des utilisateurs. La plateforme n’offre aucun contrôle parental et laisse ses chatbots publics accessibles à tous. Selon une enquête, même après un signalement direct, certains bots pro-anorexie ont été laissés en ligne.

Les conditions d’utilisation de la plateforme interdisent pourtant les contenus glorifiant l’automutilation ou les troubles alimentaires. Cependant, ces règles semblent largement ignorées, avec une modération réactive plutôt que proactive. Cette approche minimaliste met en péril les jeunes utilisateurs, souvent trop intimidés pour demander de l’aide à des adultes ou professionnels.

Alexis Conasan, psychologue spécialisée dans les troubles alimentaires, souligne l’urgence de confier les patients à de vrais experts. Les chatbots, même bien intentionnés, manquent de formation et peuvent aggraver des situations déjà complexes. En quelques clics, ces outils peuvent plonger des utilisateurs dans un cycle toxique de conseils destructeurs, masqués sous des recommandations soi-disant saines.

Une quête de profit au détriment de la sécurité

Character.AI a récemment reçu un financement de 2,7 milliards de dollars de Google. Cependant, la course au profit semble avoir éclipsé les préoccupations éthiques. En adoptant une stratégie de développement rapide et de collecte massive d’utilisateurs, la plateforme met en danger des vies pour satisfaire ses objectifs commerciaux.

Les troubles alimentaires figurent parmi les maladies mentales les plus mortelles, en particulier chez les jeunes femmes. Laisser des chatbots promouvoir ces comportements amplifie les risques pour une population déjà vulnérable. Les experts appellent à une régulation stricte et à une attention accrue pour protéger les utilisateurs, en particulier les mineurs, de ces dangers invisibles mais bien réels.

Character.AI doit repenser ses priorités et mettre en œuvre des garde-fous efficaces pour que la technologie serve réellement les besoins des utilisateurs, sans compromettre leur santé mentale.


En savoir plus sur L'ABESTIT

Subscribe to get the latest posts sent to your email.

Articles similaires

26 DéCEMBRE 2024

Il est temps de dépasser le nationalisme en matière d’IA

En 2025, la perception de l'intelligence artificielle et de la géopolitique évoluera vers une coopération internationale au détriment du nationalisme. L'essor de l'IA, marqué par des...

0

23 DéCEMBRE 2024

Trump Révèle Ses Nouvelles Nominations en Politique Technologique pour un Deuxième Mandat : Ce Que Cela Signifie...

Dans des publications sur Truth Social, Donald Trump a annoncé des nominations pour son équipe de politique technologique, sous la direction de David Sacks, czar de l'IA et des crypto-monnaies....

0

23 DéCEMBRE 2024

“Les Smartphones IA Qui N’ont Jamais Vu le Jour en 2024 : Innovations Manquées et Promesses Non...

Malgré de nombreuses promesses, l'IA sur les smartphones reste largement décevante. Bien que les lancements récents aient vanté des capacités d'IA, les fonctionnalités réelles sont souvent...

0

23 DéCEMBRE 2024

Transformez vos débats en ligne : Découvrez comment l’IA peut influencer vos arguments !

L'auteur, journaliste, exprime son inquiétude face à la dépendance croissante des gens vis-à-vis de l'intelligence artificielle, en particulier des chatbots comme ChatGPT. Ce phénomène, qu'il...

0

23 DéCEMBRE 2024

Les agents d’IA seront des moteurs de manipulation

Se soumettre à des agents algorithmiques risque de nous mettre sous leur influence....<div class="media_block"><img...

0

22 DéCEMBRE 2024

La course pour traduire les sons des animaux en langage humain

Avec d'importants prix en espèces en jeu—et l'IA boostant la recherche—la traduction interespèces est plus proche que jamais. Mais que voudraient nous dire les animaux, s'ils avaient quelque...

0

En savoir plus sur L'ABESTIT

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture