La révolution de la modération : Facebook et Instagram se tournent vers un système de modération collaboratif, mais quels sont les risques
Dans un monde où les réseaux sociaux sont devenus des_reference for millions de personnes dans le monde, la modération est devenue un défi majeur. Aujourd’hui, Facebook et Instagram, deux des plateformes les plus visitées de la planète, ont choisi de se lancer dans une nouvelle direction pour lutter contre la désinformation et la propagation de fausses informations. Et sans doute que cela a-t-il créé quelques papillons aux(coeffateurs.
Mardi dernier, Mark Zuckerberg, PDG de Meta, a dévoilé un plan pour remplacer les fact-checkers, spécialisés dans la vérification des informations sur les réseaux sociaux, par un système de modération collaborative. Celui-ci, baptisé "community notes" ou "notes de communauté", est déjà inspiré de ce qui existe sur Pinterest, anciennelement connue sous le nom de X.
Ce système, conçu en collaboration avec des contributeurs du public, vise à créer un environnement où les utilisateurs peuvent partager des informations et des liens vers des sources de confiance. Les notes de communauté sanitaires sont disponibles pour chaque contenu partagé sur les réseaux sociaux, et permettent ainsi aux utilisateurs de vérifier l’exactitude des informations publiées.
Mais, si ce système peut sembler attrayant en premier lieu, il cache également quelques risques de biais. En effet, les informations partagées par les utilisateurs peuvent être partialisées ou partisanis, ce qui peut entraîner une propagation de fausses informations. De plus, les biais de BASE peuvent également être un problème sérieux, car les contribution les plus éminents sont souvent les plus visibles, ce qui peut inciter les utiliser à abandonner.
Pour les analystes, ce système pose également question sur la légitimité des informations révélées par les notes de communauté. Si les utilisateurs peuvent partager n’importe quoi, cela peut vieillir la base de données des informations et compromettre ainsi la crédibilité des plateformes.
"Ce système dépend de la bonne foi des utilisateurs, qui peuvent partager des informations vraies ou fausses sans aucune vérification", explique Frédéric Martiny, chercheur en science des données à l’Université de Californie. "Cela peut être un problème sérieux pour maintenir la crédibilité des informations sur les réseaux sociaux."
Cependant, Mark Zuckerberg défend ce choix en soulignant l’importance de la collaboration et de la trasparence dans l’information. "Nous croyons que les utilisateurs sont mieux à même de juger de la véracité des informations que des algorithmes", a-t-il déclaré. "Nous sommes convaincus que ce système de modération collective est plus efficace pour lutter contre la désinformation et la propogation de fausses informations."
Cependant, il est trop tôt pour évaluer l’efficacité de ce système. Mais l’un chose est certain, les réseaux sociaux doivent continuer à innover pour rester leader dans le jeu du web.
En attendant, les utilisateurs des réseaux sociaux et les analystes en sciences de l’information observe la situation avec intérêt. Le nouveau système de modération collaborative de Facebook et d’Instagram est-elle la solution idéale pour lutter contre la désinformation, ou bien est-elle un nouveau défi à surmonter ? Il faudra attendre pour le savoir.