
Des associations (SOS Homophobie, SOS Racisme...) veulent comprendre comment fonctionne la modération et optimiser la régulation des contenus de haine sur les réseaux sociaux. En l'absence d'accord définitif au tribunal de grande instance de Paris, les deux parties – les associations d'un côté, Facebook, Twitter et YouTube de l'autre – refusent d'en commenter le contenu, mais se félicitent du renvoi de l'audience au 18 octobre. Cette décision du juge fait suite « au rapprochement entre Facebook et les associations impliquées, pour trouver un accord qui se finalise actuellement », affirme Facebook France au Point.fr. L'affaire n'est pas sans rappeler le procès intenté par Twitter à l'UEJF (Union des étudiants juifs de France), qui s'était soldé par une victoire judiciaire de l'association.
Durant six mois, trois associations (SOS Racisme, SOS Homophobie, UEJF) ont lancé le premier testing de masse, étude destinée à déceler une situation de discrimination, sur les dispositifs internes de signalement des réseaux sociaux Facebook, Twitter et YouTube. Leur but : « faire évoluer les politiques de signalement des différentes plateformes souvent opaques dans la gestion des signalements et apportant des réponses insuffisantes face aux menaces qu'elles hébergent ». Les résultats sont sans appel : près de 89 % des contenus haineux signalés ont été maintenus. Facebook fait figure de moins mauvais élève avec 34 % des signalements supprimés, tandis que Twitter n'en retire que 4 % et YouTube 7 %.
Les trois associations avaient annoncé avoir porté plainte contre les trois géants américains lors des Assises de la lutte contre la haine sur le Net le 15 mai, pour non-respect de leurs obligations de modération au regard du droit français. Elles se réfèrent notamment à l'article 6 de la loi pour la confiance dans l'économie numérique qui impose aux hébergeurs de supprimer, dans un délai raisonnable, les contenus manifestement illicites et de les signaler au parquet.
Comprendre les méthodes des modérateurs
SOS Homophobie affirme au Point.fr que l'objectif principal de cette plainte est d'obtenir un bilan global des activités et des méthodes des modérateurs. Les associations souhaitent aussi vérifier que les plateformes se conforment au droit français, très précis sur la définition d'un contenu de haine. Le négationnisme (qui consiste à nier le génocide des juifs), par exemple, est interdit en France, mais pas aux États-Unis.
Les attentes des associations ne s'arrêtent pas là. À long terme, elles souhaitent responsabiliser les réseaux sociaux en améliorant l'efficacité et la rapidité des systèmes de modération des propos haineux.
Aujourd'hui, chaque internaute peut signaler des contenus au service interne de la plateforme, selon un processus qui dure plusieurs mois en moyenne. En revanche, certaines associations comme SOS Homophobie ou SOS Racisme, grâce à leur partenariat avec les réseaux sociaux, obtiennent la suppression des contenus dans un délai de 8 à 15 jours. Ces associations ne veulent plus servir de relais et ainsi faire office de service de modération pour les plateformes.
Pas de réponse technologique adaptée, selon Facebook
Mais comment optimiser cette régulation ? Là où les hashtags sont privilégiés sur Twitter pour traquer les contenus illicites, des mots-clés pourraient aiguiller les modérateurs sur Facebook ou YouTube, selon SOS Homophobie. Mais Facebook France exclut toute modération via des mots-clés pour plusieurs raisons : non seulement il n'y a pas de réponse technologique adaptée mais la plateforme souhaite aussi « préserver la vie privée » des internautes. La plateforme, qui met en avant ses campagnes de sensibilisation contre le racisme, souligne qu'un utilisateur de Facebook a la possibilité de faire un signalement à n'importe quel moment.
Partage