Facebook entend en faire (un peu) plus sur les fake news

©AFP

À l'aide d'algorithmes, Facebook trie une partie des contenus jugés tendancieux. Ceux-ci sont ensuite soumis à réseau de vérification. Mais est-ce assez? Après tout, les exemples de propagation d'infos bidons sont légion ces derniers temps.

Vrai ou faux, telle est la question existentielle pour Facebook et les milliards de posts qui circulent chaque jour sur sa plateforme.

Si le géant américain a annoncé jeudi avoir désormais officiellement recours au machine learning, soit des algorithmes capables d'apprendre par eux-mêmes, dans le cadre de sa quête de véracité autour des contenus diffusés à ses plus de deux milliards d'utilisateurs, le problème n'en demeure pas moins de taille.

En effet, il n'existe pour l'heure pas de consensus sur ce que recouvre le terme "fake news", ni même de moyen communément accepté de mesure permettant de quantifier le phénomène, élément important en vue d'y apporter des remèdes.

Les challenges du fil d'actualité sont complexes. C'est pourquoi il est critique que les gens extérieurs à Facebook comprennent ce que nous faisons et pourquoi nous le faisons
John Hegeman
VP en charge du News Feed chez Facebook

Afin de changer cette donne, le célèbre réseau social a décidé de s'allier en avril au monde académique car "les challenges que rencontre notre équipe en charge du fil d'actualité sont complexes. C'est pourquoi il est critique que les gens qui en sont extérieurs comprennent ce que nous faisons et pourquoi nous le faisons", explique John Hegeman, en charge du news feed. L'idée est de définir un agenda de recherche autour de la prolifération de fausses nouvelles dans le cas de campagnes politiques par exemple.

Un effort dans la bonne direction, semble-t-il, mais qui n'empêche que la propagation des "fake news" soit particulièrement palpable depuis plusieurs mois maintenant, et ce bien que Facebook en soit conscient de longue date. Pour s'en convaincre, il suffit de voir les nombreux exemples récents où des faits bidons ont été amenés à obtenir une visibilité démesurée, de par l'engouement ou les vives critiques qu'ils ont suscités. C'est le cas notamment d'une série d'articles comme quoi Netflix aurait contacté un utilisateur pour s'enquérir de sa santé après le visionnage de quelque 188 épisodes de série en moins d'une semaine ou, plus grave là, d'une série d'autres indiquant que piquer à l'aide d'une aiguille le bout des doigts d'une personne atteinte d'un AVC pourrait sauver la victime. Bien qu'entièrement faux, ces contenus ont pourtant massivement circulé. Librement.

Une réalité d'autant plus grave en période d'élection, comme un aperçu en a été donné lors du dernier grand scrutin américain en 2016. Et qui pourrait d'ailleurs aussi concerner les Belges d'ici peu, d'une manière ou d'une autre, à l'approche des élections communales et provinciales de fin d'année.

Allô Facebook?

Qui sont les diseurs de vrai de Facebook?

Selon l'entreprise, ils sont au nombre de 25 à faire partie du "réseau indépendant de fact-checkers externes certifiés via un réseau international non-partisan de fact-checking" (sic). Actifs dans 14 pays après des débuts aux Etats-Unis, puis en France et en Allemagne notamment, l'on retrouve parmi eux les noms d'acteurs bien connus comme Associated Press, l'AFP, Le Monde, Libération ou encore 20 Minutes. Des organisations diverses qui partagent pourtant un point commun: le fait qu'elles ne travaillent nullement bénévolement, pour la majeure partie, entend-on. Un sujet sensible. Du reste, une expansion géographique est-elle prévue? C'est à l'étude, confirme Tessa Lyons, responsable de l'intégrité du fil d'actualité, sans préciser quels seront les pays concernés. Quid de la Belgique? "Certains pays ont plus la culture du fact-checking que d'autres", aura-t-on pour seule réponse.

 

Que fait donc Facebook aujourd'hui pour se prémunir du poison qui se propage sur sa toile? À l'aide de l'intelligence artificielle, le réseau social trie déjà les nombreux liens, photos et vidéos qui sont diffusés chaque jour sur la plateforme. L'objectif? Détecter les cas problématiques à l'aide d'algorithmes. Dès que c'est fait, ils sont soumis à un réseau de "fact-checkers" (littéralement, "vérificateurs de faits") chargés d'avaliser ou non la décision de la machine. Dans le cas où un contenu serait tout de même jugé douteux, il sera inséré relativement bas dans le fil d'actualité des utilisateurs, avec pour conséquence une chute du taux d'engagement qu'il rencontre, et donc sa diffusion, précise-t-on chez Facebook.

Mais pourquoi ne pas juste le supprimer? Parce qu'une "fake news" ne viole pas les standards définis par l'entreprise, à la différence de discours haineux ou de contenus terroristes par exemple. Tout simplement. Eux, sont effacés illico presto, et ce, bien souvent avant même d'avoir vu la lumière du jour (grâce à l'intelligence artificielle, de nouveau). En effet, ces standards n'imposent pas aux contenus d'être vrais. Seule échappatoire, dès lors, pour le réseau social, est de réduire la distribution de ces contenus situés en zone grise, de même que de supprimer, pour leurs auteurs, l'accès à ses canaux publicitaires, l'incitant économique étant souvent le moteur premier derrière ce type de contenus, indique Tessa Lyons, responsable de l'intégrité du fil d'actualité, rencontrée à Bruxelles. D'ailleurs, le phénomène serait plus important dans les pays où l'industrie publicitaire est particulièrement développée.

Lire également

Publicité
Publicité

Echo Connect