analyse

Propagande terroriste, le double visage de Facebook

©BELGA

Accusé ces derniers jours d’être un canal essentiel pour le recrutement et la propagande djihadiste, Facebook a tenté de répondre présent lors des attentats parisiens. Mais avec 4,7 milliards de contenus publiés chaque jour à travers le monde, aucune réponse n’est évidente.

Vendredi soir, alors que les premières fusillades éclatent à Paris, les notifications Facebook s’affichent en cascade sur les écrans des smartphones: "Votre ami Untel est signalé en sécurité". Apparaît alors une autre page affichant une synthèse inquiétante: "47 amis se trouvent dans la zone affectée" (la région parisienne, NDLR).

Il s’agit du dispositif "Safety check", utilisé habituellement par Facebook lors de catastrophes naturelles ou sur des zones de conflit. Il permet à toute personne potentiellement présente à proximité d’une "zone de danger" de rassurer ses proches en cliquant sur un bouton.

©doc

Au lendemain des attaques, le réseau social ne s’arrête pas là et propose à ses utilisateurs de superposer un drapeau français sur leur photo de profil afin de "montrer un soutien à la France et aux Parisiens". Les drapeaux tricolores fleurissent alors dans les fils d’actualité.

©doc

Ces "services" sauraient-ils pour autant faire oublier les manquements de la plateforme face à la propagande et aux contenus violents diffusés par les djihadistes?

©doc

Rien n’est moins sûr, et ce malgré les nombreuses tentatives de clarification de Facebook. En 2014 déjà, Monika Bickert, responsable mondiale pour la modération des contenus, se justifiait: "Les membres de l’Etat islamique ne peuvent pas utiliser notre site, nous avons une politique antiterroriste très ferme. Si l’on reçoit un signalement et que l’on détecte une personne qui fait l’apologie d’un groupe terroriste, nous allons utiliser nos outils automatisés pour détecter d’autres comptes associés".

Les conditions générales d’utilisation demandent aux utilisateurs de ne pas publier "de contenus incitant à la haine ou à la violence, menaçants, à caractère pornographique ou contenant de la nudité ou de la violence gratuite". Une modération est effectuée a posteriori et dans un délai maximum annoncé de 72 heures, après un signalement. Un règlement qui n’empêche évidemment pas de faire de Facebook un lieu privilégié de recrutement et de propagande djihadiste.

 

Une pression efficace des Etats

Dans le cadre des attentats de Paris, le réseau social a tenté de faire preuve d’une grande réactivité en supprimant une vidéo publiée par deux djihadistes belges appelant à perpétrer des attentats sur le sol européen. Mais en réalité, cette décision est intervenue très tard puisque cette séquence était en ligne depuis longtemps et avait déjà été visionnée près de 15 millions de fois, sans que Facebook n’intervienne et malgré les protestations insistantes des utilisateurs.

©doc

Exception confirmant la règle, une photo montrant l’intérieur du Bataclan, jonché de cadavres et maculé de traînées de sang, a, elle, bénéficié d’une suppression instantanée de la plateforme.

Mais, comme pour la vidéo, cette soudaine réactivité n’a pas été le résultat d’une mobilisation des internautes, mais d’une réquisition judiciaire du ministère français de l’Intérieur. La présence de cette photo sur le réseau social a été jugée comme une "atteinte grave à la dignité humaine et au secret de l’enquête" par les autorités.

L’impossible réponse technique

Paradoxe d’un internet globalisé et de décisions se cantonnant à l’échelon national, tant la vidéo djihadiste que la photo du Bataclan resteront accessibles sur les pages Facebook consultées en dehors de la France, et donc en Belgique ou tout simplement sur des sites tiers.

Dans son discours à la Chambre jeudi, Charles Michel a appelé à "lutter contre les appels à la haine sur internet". "Il faut une loi pour fermer ces sites", a-t-il insisté. Mais ni une loi ni des représailles techniques ne sauraient faire taire les discours de haine sur un réseau mondial dont les contenus sont multipliables à l’infini. Chaque jour, 4,7 milliards de contenus sont publiés par une partie des 1,3 milliard d’utilisateurs de Facebook.

"Les règles de Facebook doivent s’appliquer à 1,3 milliard de personnes dans le monde, avec des cultures d’expression variées. C’est très compliqué."
Monika Bickert
Responsable de la modération des contenus chez Facebook

Ménager les susceptibilités nationales

En tant qu’entreprise, Facebook tente de respecter les particularismes culturels, religieux et culturels des pays où elle est présente, comme l’explique Monika Bickert dans un entretien au journal "Les Echos": "Une même photo peut être prise dans des contextes très différents. Certains mettront en ligne une photo d’un groupe terroriste pour soutenir son action, d’autres pour la condamner. Dans le premier cas, la photo sera supprimée, dans le second cas, il n’y a pas de raison de l’enlever." Des propos conformes aux positions exprimées en 2014.

Compliqué, certes, mais pas impossible. La coopération avec les autorités nationales semble être la solution la plus efficace pour agir rapidement, mais elle n’est viable qu’avec des Etats démocratiques qui n’outrepassent pas leurs droits.

Si Facebook souhaite jouer un rôle social et utile, comme il le prétend, il devra prendre ses responsabilités et trancher des questions "éthiques" qui entreront certainement en conflit avec son développement commercial.

Lire également

Publicité
Publicité

Echo Connect