chronique

Sommes-nous suffisamment intolérants face à l'intolérance?

Digital & Social Media Advisor

Les "erreurs opérationenelles" de Mark Zuckerberg font réagir notre chroniqueur Eugenio Maddalena.

"C'était en grande partie une erreur opérationnelle". Ce sont les mots que Mark Zuckerberg, PDG de Facebook, a dit à ses employés à propos du non-retrait de la page Facebook et de l'appel aux armes des miliciens (blancs) de Kenosha, une ville du Wisconsin. Ils s'étaient opposés à la protestation des Afro-Américains suite à la tentative d'assassinat de Jacob Blake par la police. Une "erreur opérationnelle". La milice baptisée "Kenosha Guard" a fait deux morts et son appel aux armes sur Facebook n'est pas passé inaperçu.

Facebook a supprimé la page de Kenosha Guard immédiatement après les événements dramatiques, mais il y a eu de nombreuses critiques sur le manque de rapidité de la plateforme. The Verge, dans un article très sévère, fait valoir que plusieurs preuves suggèrent que Facebook avait déjà reçu de nombreux avertissements sur le danger de la page Kenosha Guard. Soit bien avant que la fusillade ne porte le groupe à l'attention des médias internationaux et, surtout, bien avant la fusillade qui a fini par un double meurtre.

Un problème similaire s'est produit le 5 septembre avec une autre organisation d’extrême-droite appelée "Patriot Prayer". Kenosha n'était pas un épisode isolé. Comme le rapporte l'Independent, le groupe "Patriot Prayer" existait sur Facebook depuis 2017, comptait 45 000 abonnés et ces dernières années, quatre de leurs membres se sont régulièrement affrontés avec des manifestants dans la ville de l'Oregon. Facebook ne les a bloqués que maintenant.

Quant aux Kenosha Guard, au moins deux personnes avaient dénoncé la page sur Facebook qui contenait (selon les témoignages recueillis) plusieurs commentaires incitant à la violence, les exhortaient à se procurer des munitions et leur donnait des conseils sur les armes à utiliser. Et malgré les rapports, Facebook n'a pas supprimé la page. Comment est-ce possible?

Le problème persiste et nous ne parlons pas de quelques chiffres: comme le rapporte le Guardian, une collecte de fonds en faveur de Kyle Rittenhouse, 17 ans, accusé d'être l'auteur matériel du double meurtre à Kenosha lors des manifestations, a été partagée à plus de 17.700 fois sur Facebook, à travers 291 groupes publics et pages avec plus de 3,9 millions d'abonnés; une deuxième levée de fonds a obtenu 1 698 actions sur la plateforme, à travers 17 pages supplémentaires et des groupes avec près de 400 000 abonnés. Ce sont des chiffres importants qui ne peuvent pas passer inaperçus. Tout comme les quatre années pendant lesquelles le groupe "Patriot Prayer" a opéré dans l'Oregon avec 45 000 adeptes sur sa page.

La question que beaucoup se posent est: compte tenu de ces chiffres, des différentes années d'activité et des contenus publiés (théoriciens du complot, no-vax, fascistes, violents et plus) était-il possible de prédire le danger de ces groupes? En d'autres termes, était-il possible de prédire l'escalade de la violence à Kenosha et en Oregon dans laquelle plusieurs personnes ont perdu la vie? Et si tel est le cas, pourquoi les plateformes (Facebook dans ce cas) ont-elles du mal à supprimer ou à suivre les contenus dangereux qui nourrissent la haine et le racisme?

Liberté d'expression ou paradoxe de la tolérance?

Beaucoup font appel à la liberté d'expression pour justifier le laxisme de Facebook (mais pas seulement) dans la suppression des groupes et des pages dangereuses. Mais ne vaut-il pas mieux s'appuyer sur le «paradoxe de la tolérance» formulé par Karl Propper dès 1945? Une communauté caractérisée par une tolérance aveugle est inévitablement destinée à être renversée et ensuite dominée par les franges intolérantes présentes en son sein (comme, par exemple, les suprémacistes blancs). La conclusion apparemment paradoxale formulée par Popper consiste à constater que l'intolérance à l'intolérance elle-même est une condition nécessaire à la préservation du caractère tolérant d'une société ouverte.

Il n'est jamais trop tard pour être totalement intolérant face à l'intolérance et peut-être que Zuckerberg, avant de tomber dans des «erreurs opérationnelles», devrait y réfléchir.

Lire également

Messages sponsorisés

Messages sponsorisés