Facebook ne censurera pas les messages niant l’existence de l’Holocauste

Le patron fondateur de Facebook Mark Zuckerberg se trouvait jeudi au centre d’une polémique après avoir annoncé que le réseau social n’allait pas censurer les messages niant l’existence de l’Holocauste.

Dans un entretien accordé mercredi au site spécialisé Recode, il a indiqué que Facebook allait supprimer certaines «fausses nouvelles» (fake news) susceptibles de déboucher sur des actes violents, tout en soulignant qu’il ne comptait pas censurer des propos qui auraient été tenus, selon lui, «sincèrement».

«Je suis juif et il y a des personnes qui nient l’existence de l’Holocauste. Je trouve cela très choquant. Mais au bout du compte, je ne crois pas que notre plateforme doive supprimer ce genre de propos parce que je pense qu’il y a des choses sur lesquelles certaines personnes se trompent».

Face à la vague de critiques, Mark Zuckerberg a ensuite fait parvenir un courriel à Recode pour clarifier ses déclarations.

«Bien sûr, si un message franchissait la ligne rouge prônant la violence ou la haine à l’encontre d’un groupe en particulier, il serait retiré», a-t-il écrit.

Des violences au Myanmar et au Sri Lanka

Depuis plusieurs semaines, Facebook est fortement critiqué pour laisser se propager des articles, des images ou des vidéos qui, sans contenir d’appel direct à la haine, peuvent être perçus comme un encouragement aux actions violentes.

Le réseau social avait été accusé de laisser se propager des rumeurs à l’origine de heurts, tout particulièrement au Myanmar et au Sri Lanka.

Au Sri Lanka, les autorités avaient même bloqué l’accès au site en avril, estimant que celui-ci encourageait les violences interreligieuses.

Peu avant la polémique, Facebook avait annoncé qu’il retirerait les fausses informations publiées sur le réseau et susceptibles de créer des violences de façon imminente.

« Nous commençons à mettre en œuvre cette nouvelle politique dans des pays où nous voyons des exemples où la désinformation a […] entraîné des violences », avait indiqué Tessa Lyons, de Facebook, citant le cas du Sri Lanka.

Par exemple, le réseau social pourra retirer des contenus inexacts ou trompeurs, comme des photos truquées, créées ou partagées pour contribuer à la violence physique ou l’exacerber.

Facebook s’appuiera sur des organisations locales ou des agences spécialisées pour déterminer si ces publications sont susceptibles d’entraîner des violences de façon imminente et qu’elles doivent donc être retirées.