Meta dit qu’elle modère par erreur trop de contenu
Meta, selon Nick Clegg, fait face à des taux d’erreur trop élevés dans la modération de contenu sur ses plateformes, entraînant la suppression injustifiée d’un contenu inoffensif. Clegg a admis que l’entreprise avait été trop agressive dans la suppression de publications liées à COVID-19, influencée par des pressions externes. Malgré des dépenses de modération en hausse, les systèmes automatisés semblent manquer de précision. Les erreurs de modération continuent de poser problème, comme le montre un récent incident impliquant des photos de Donald Trump. Les règles de contenu de Meta pourraient bientôt subir des changements, mais rien de concret n’a encore été annoncé.