Pour lutter contre les fake news, Facebook noterait la crédibilité de ses membres en fonction des informations partagées, sur une échelle de 0 à 1.
À voir aussi sur Konbini
Si vous deviez le noter entre 0 et 1, à combien évalueriez-vous la fiabilité du contenu que vous postez sur Facebook ? Ne vous embêtez pas à réfléchir à la réponse, le réseau social l’a déjà fait pour vous. Selon des informations du Washington Post, publiées le 21 août, la firme de Mark Zuckerberg a mis en place un système de notation de ses utilisateurs qui évaluerait leur “crédibilité” afin de mieux lutter contre la diffusion de fausses informations.
Pour le moment, voilà ce que l’on sait de ce “score de réputation”, puisqu’il n’y a pas d’autre manière de le décrire : selon Tessa Lyons, responsable de produit chez Facebook chargée de lutter contre la désinformation, le système est implémenté depuis l’année dernière, et cette note n’est pas le seul indicateur de la fiabilité d’un utilisateur – elle serait plutôt, selon le Washington Post, un indicateur parmi “des milliers de nouveaux indices comportementaux” mis en place par le réseau social pour affiner l’évaluation de ses utilisateurs.
Toujours selon Tessa Lyons, le réseau social surveillerait les utilisateurs ayant une certaine propension à signaler des contenus comme problématiques : ceux qui signalent des fausses informations à raison voient leur note de confiance augmenter, ceux qui signalent des articles vérifiés voient leur score baisser.
Liberté, égalité, labellisés
Ce que l’on ignore en revanche, c’est quels autres critères de mesure, particulièrement ceux liés aux interactions des utilisateurs avec le contenu posté – commentaires, likes, partages — sont utilisés par Facebook pour déterminer le “score” de chaque utilisateur. On ne sait d’ailleurs pas non plus si tous les utilisateurs sont visés par la mesure, ou uniquement ceux dont le comportement sort de la “normale” définie par les critères – inconnus – du réseau social. Enfin, on ignore encore de quelle manière Facebook utilise ces scores, particulièrement lorsque ceux-ci sont mauvais.
Existe-t-il un système souterrain de récompense et de pénalité qui déterminerait la visibilité des posts de chaque utilisateur en fonction de sa note ? Facebook “isole”-t-il ses utilisateurs les plus complotistes ? Comment les systèmes de notation définissent-ils un comportement qui sort de la normale, et à partir de quels “indices” comportementaux (pages aimées, amitiés, lexique utilisé pour commenter, etc.) les utilisateurs sont-ils labellisés ?
Les révélations (volontaires) de Tessa Lyons, probablement bien intentionnées, charrient dans leur sillage une cohorte de questions dérangeantes sur les notions de liberté et d’égalité d’usage de la plateforme. D’autant plus qu’encore une fois, Facebook n’a pas jugé bon d’informer sa communauté d’utilisateurs de ses expérimentations, partant du principe que nous avons tous signé les conditions d’utilisation lors de notre inscription.
Un mal nécessaire, un secret évitable
Cette culture du secret risque d’offrir une nouvelle fois à l’entreprise une polémique qu’elle aurait pu éviter avec une stratégie de relations publiques plus transparente. Car, après tout, l’idée d’une note de crédibilité des utilisateurs n’est pas si absurde ou dystopique que ça, dans le contexte actuel d’instrumentalisation des algorithmes des réseaux sociaux. Depuis 2015, Facebook se débat dans tous les sens contre l’ingérence des bots, qu’ils viennent de Russie, de l’alt-right américaine ou d’ailleurs, et transforment la plateforme en organe de propagande planétaire.
Son système de signalement volontaire des contenus, construit avec les meilleures intentions, est devenu un champ de bataille idéologique, dans lequel des armées d’utilisateurs signalent les posts de l’autre camp à la volée, rendant la tâche de ses vérificateurs humains quasi-impossible, d’autant que ceux-ci ne comprenaient à peu près rien aux critères de modérations du réseau.
Seule solution, selon Lyons : évaluer en amont ceux qui signalent les articles, afin de désengorger la file d’attente des fact-checkers humains. Une recalibration de sa politique de lutte anti fake news, qui ambitionnait jusque-là de laisser des algorithmes faire tout le boulot de tri et de suppression.
Le 20 juillet dernier, Mark Zuckerberg, dont la vision très américaine de la liberté d’expression passait pour du laxisme dans le reste de l’opinion publique, annonçait ainsi un durcissement dans la modération des fausses informations, qui seraient désormais supprimées plutôt que simplement étouffées, comme c’était jusqu’alors le cas.
Le 21 août, Tessa Lyons nous offre donc un début de réponse de la part du réseau social, qui semble désormais vouloir s’attaquer aux utilisateurs jugés problématiques. Une approche extrêmement risquée, qui fera sans doute bondir les associations de défense des libertés individuelles comme l’américaine ACLU, et encore une fois enveloppée de secret – une désagréable habitude dont Facebook ferait bien de se débarrasser.