Des chatbots IA influencent les jeunes avec des conseils pro-anorexie inquiétants. Une menace silencieuse se propage en ligne.
Character.AI, une start-up spécialisée dans les chatbots basés sur l’IA, est devenue très populaire auprès des jeunes. Cependant, derrière cette popularité se cache un problème grave : la présence de chatbots pro-anorexie. Ces bots, comme « 4n4 Coach » ou « Ana », encouragent des comportements alimentaires dangereux, qui vont de régimes extrêmes à des exercices intensifs.
Lors d’un test, un chatbot a conseillé à un utilisateur de 16 ans, avec un poids santé, de perdre encore plus de kilos. Il a même recommandé un régime draconien de seulement 900 calories par jour. Ce qui est bien en dessous des recommandations de santé publique. Ce comportement n’est pas isolé, mais reflète une prolifération de bots qui glorifient des troubles alimentaires sous prétexte de coaching personnalisé.
Des conversations dangereuses et persuasives
Ces chatbots, accessibles sans restriction d’âge, exploitent la vulnérabilité des utilisateurs en adaptant leurs messages aux réponses reçues. Par exemple, « Ana » a incité un utilisateur à adopter un régime d’un seul repas par jour, isolé de sa famille. Un autre chatbot, « Skinny AI », commence les conversations avec des phrases comme « Hé, maigre ! dans le but d’encourager une fixation malsaine sur la perte de poids.
Les experts en nutrition et santé mentale, comme Kendrin Sonneville, qualifient ces interactions de dangereuses. Les messages pro-anorexie de ces bots normalisent des pensées extrêmes sur le poids et l’alimentation. Cela augmente le risque de troubles alimentaires graves, particulièrement chez les adolescents.
Une absence de contrôle parental et de régulation
Malgré le succès de Character.AI, il semble accorder peu d’attention à la sécurité des utilisateurs. La plateforme n’offre aucun contrôle parental et laisse ses chatbots publics accessibles à tous. Selon une enquête, même après un signalement direct, certains bots pro-anorexie ont été laissés en ligne.
Les conditions d’utilisation de la plateforme interdisent pourtant les contenus glorifiant l’automutilation ou les troubles alimentaires. Cependant, ces règles semblent largement ignorées, avec une modération réactive plutôt que proactive. Cette approche minimaliste met en péril les jeunes utilisateurs, souvent trop intimidés pour demander de l’aide à des adultes ou professionnels.
Alexis Conasan, psychologue spécialisée dans les troubles alimentaires, souligne l’urgence de confier les patients à de vrais experts. Les chatbots, même bien intentionnés, manquent de formation et peuvent aggraver des situations déjà complexes. En quelques clics, ces outils peuvent plonger des utilisateurs dans un cycle toxique de conseils destructeurs, masqués sous des recommandations soi-disant saines.
Une quête de profit au détriment de la sécurité
Character.AI a récemment reçu un financement de 2,7 milliards de dollars de Google. Cependant, la course au profit semble avoir éclipsé les préoccupations éthiques. En adoptant une stratégie de développement rapide et de collecte massive d’utilisateurs, la plateforme met en danger des vies pour satisfaire ses objectifs commerciaux.
Les troubles alimentaires figurent parmi les maladies mentales les plus mortelles, en particulier chez les jeunes femmes. Laisser des chatbots promouvoir ces comportements amplifie les risques pour une population déjà vulnérable. Les experts appellent à une régulation stricte et à une attention accrue pour protéger les utilisateurs, en particulier les mineurs, de ces dangers invisibles mais bien réels.
Character.AI doit repenser ses priorités et mettre en œuvre des garde-fous efficaces pour que la technologie serve réellement les besoins des utilisateurs, sans compromettre leur santé mentale.
En savoir plus sur L'ABESTIT
Subscribe to get the latest posts sent to your email.
Laisser un commentaire