Réseaux sociaux : vers un devoir de vigilance ?
Le 7 janvier, après l’invasion du Capitole par ses sympathisants, le compte du président américain sortant Donald Trump a été bloqué par Facebook, au motif qu’il incitait à la violence. Alors que les réseaux sociaux se font les chantres de la liberté d’expression, cette suspension a suscité de vives polémiques. Etait-il légitime de priver un président en exercice de son moyen d’expression favori ? Etait-ce au contraire trop tardif ? Pour en juger, Facebook s’est dotée d’une « cour suprême ». Cette cour, constituée de personnalités qualifiées de différents pays, sera bientôt appelée à évaluer la validité des mesures prises par Facebook.
Désormais, tout utilisateur relève donc de la justice de Facebook
Désormais, tout utilisateur relève donc de la justice de Facebook. On souscrit, en s’inscrivant, aux conditions générales d’utilisation (« CGU ») qui définissent ce qui est autorisé ou non sur la plate-forme, ainsi que les conditions dans lesquelles celle-ci pourra limiter la liberté d’expression. Mais on peut aussi faire appel et même déposer un pourvoi auprès de cette « cour suprême ». Comme le souligne dans Le Figaro l’avocat Adrien Basdevant, les plates-formes seraient devenues en quelque sorte des « délégataires de la loi » pour chasser les contenus illicites. Avec son projet de Digital Services Act, la Commission européenne souscrit aussi à cette logique en appelant les plates-formes à expliciter les règles dont elles se dotent pour gérer les contenus illicites et à les appliquer « in a diligent, objective and proportionate manner ».
Au risque des algorithmes
Mais un tel système de justice épuise-t-il la responsabilité d’une plate-forme ? Au-delà des contenus déposés qui engagent les utilisateurs, il y a les algorithmes de gestion et de diffusion des données. Or, c’est manifestement là que les risques majeurs se situent. Pour l’économiste Joëlle Toledano (Reprenons le pouvoir !, Odile Jacob, 2019), les contenus les plus sujets à conflits seraient mis en avant par les plates-formes parce qu’en renforçant la mobilisation des utilisateurs, ils favorisent les rentrées publicitaires. L’Institut First Amendment, à Columbia University, invite ainsi la « cour suprême » de Facebook à ne pas se prononcer sur la suspension du compte de Donald Trump mais à instruire la manière dont Facebook trie, hiérarchise, relaie, avec une certaine viralité, les propos de différentes personnalités politiques, dont ceux de Donald Trump lui-même. L’invasion du Capitole n’est-elle pas le résultat logique de toutes ces années où l’algorithme de Facebook a favorisé les thèses extrémistes ?
Les plates-formes orientent, par leurs algorithmes de gestion, l’attention, l’information et le jugement de milliards d’individus
Il faut donc bien distinguer deux types de responsabilité des plates-formes : celles-ci doivent identifier et traiter avec diligence les contenus illicites, donc faire la police chez elles. Mais les plates-formes orientent aussi, par leurs algorithmes de gestion, l’attention, l’information et le jugement de milliards d’individus. Il faut donc envisager et définir une responsabilité éthique et civilisationnelle inhérente aux procédés des plates-formes et non à leurs utilisateurs.
Des pistes de régulation
Joëlle Toledano propose plusieurs pistes : favoriser la concurrence, introduire des taxes pour modifier le modèle économique des plates-formes et le recours à la publicité ciblée, etc. Mais elle demande aussi aux Etats d’augmenter radicalement leurs capacités d’évaluation des algorithmes et d’analyser des liens entre la viralité de certains messages et les publicités ciblées. Et, de fait, des recherches seront nécessaires car il n’existe pas à ce jour de norme validée pour évaluer la « loyauté » des algorithmes. Leurs effets réels restent largement inconnus.
Le projet de Digital Services Act européen oblige les « très grandes plates-formes » à étudier les risques d’impacts systémiques liés à leur activité et à les atténuer
Ne faut-il pas sur ce point responsabiliser directement les plates-formes ? N’est-ce pas à elles d’apporter la preuve que les objectifs qui guident la conception de leurs procédés techniques sont conformes à ce qu’elles déclarent ? Par exemple, ne faut-il pas qu’elles démontrent qu’elles évitent toute logique d’incitation à la haine et à la violence ? Et en cela, les plates-formes ne sont-elles pas tenues d’étudier les effets qu’elles produisent ?
Le projet de Digital Services Act européen oblige d’ailleurs les « très grandes plates-formes » à étudier les risques d’impacts systémiques liés à leur activité et à les atténuer. Cette mesure est particulièrement novatrice et intéressante. Car cela revient à formuler un devoir de vigilance des plates-formes sur toute atteinte aux droits fondamentaux et aux valeurs universelles qui résulterait de leurs algorithmes. Un devoir qui leur imposerait, non pas un code de déontologie dont on ne connaîtrait pas l’efficacité, mais un plan de recherche, permanent, massif, partagé et scientifiquement évalué, sur les phénomènes qu’elles génèrent.
Laisser un commentaire