SOS Racisme, SOS Homophobie et l’UEJF étrillent la modération de Twitter, YouTube et Facebook

Messages racistes, vidéos négationnistes ou commentaires homophobes : pendant une semaine, à la fin de mars, les associations SOS Racisme, SOS Homophobie et l’Union des étudiants juifs de France (UEJF) ont procédé à un premier « testing » commun des pratiques de modération sur Twitter, YouTube et Facebook. Les résultats sont sans appel : seule une toute petite minorité des contenus haineux est supprimée, mais avec des différences significatives d’une plate-forme à l’autre.

Article de Le Monde

Moins mauvais élève des trois, Facebook a supprimé 53 des 156 contenus qui lui avaient été signalés, soit un tiers. La modération du premier réseau social au monde a été plus efficace pour les signalements concernant des messages homophobes (15 suppressions sur 26 signalements) que sur l’antisémitisme (4 suppressions pour 16 signalements) ou le négationnisme (zéro suppression pour 3 signalements).

Loin derrière, YouTube n’a supprimé que 16 des 225 contenus qui lui avaient été signalés (7 %). Sur 115 commentaires racistes, seuls 9 ont été supprimés par la plate-forme. Et aucun des 10 contenus (vidéos et commentaires) négationnistes relevés par les associations n’ont été mis hors ligne. Pour Twitter, les résultats sont catastrophiques : seuls huit messages ont été supprimés sur les 205 signalés. Sur 109 messages homophobes dénoncés, deux ont été enlevés – et des textes appelant à « brûler les homos » ou demandant « la mort pour les juifs et les bougnoules » ont été laissés en ligne.

Des chiffres particulièrement embarrassants pour Twitter, qui inaugurait mardi 11 mai son nouveau siège français à Paris, en présence d’invités de marque, dont le premier ministre, Manuel Valls. Ce dernier a, à plusieurs reprises ces dernières années, critiqué la diffusion de messages haineux sur Internet. En avril 2015, il fustigeait notamment « les propos antisémites, racistes, les propos de haine, qui se répandent [sur les réseaux sociaux], souvent sans être inquiétés. C’est inacceptable. Internet est un espace de liberté mais Internet, ce n’est pas une zone de non-droit », affirmait le premier ministre, annonçant la création future d’une nouvelle « unité nationale de lutte contre les contenus illicites » au ministère de l’intérieur.

Manque de volonté criant

Aucun de ces services n’examine, en effet, l’ensemble des millions de messages qui y sont publiés. Comme les y autorise la loi française, seuls sont lus par les équipes de modération les messages qui sont signalés par les internautes comme étant illégaux. Facebook, Twitter ou YouTube doivent en revanche supprimer dans un délai raisonnable les contenus qui sont contraires à la loi et qui leur sont signalés. En Europe, les centres de modération de Twitter, Google (propriétaire de YouTube) et Facebook sont principalement situés à Dublin, où ces entreprises ont leurs sièges.Plus généralement, selon les trois associations, le rapport montre « un manque de volonté criant des principales plates-formes Internet à lutter contre la haine en leur sein, en totale contradiction avec la législation française et souvent leurs propres conditions générales d’utilisation ». Ces dernières prohibent en effet les appels à la violence et à la haine, le racisme ou l’homophobie – mais en pratique, ces conditions d’utilisation sont loin d’être appliquées de manière systématique.

SOS Racisme, SOS Homophobie et l’UEJF comptent discuter des résultats de ce premier « testing en ligne » avec les représentants des trois résaux sociaux dès dimanche 15 mai, à l’occasion des Assises contre la haine sur Internet, qui se dérouleront à Paris, avec une quinzaine d’autres associations. Devraient notamment y être évoquées diverses idées de mesures proposées en conclusion du rapport de testing. Parmi celles-ci, la mise en place d’outils de suivi des signalements, l’obligation de prouver son identité lors de l’inscription sur un réseau social, ou encore l’utilisation de technologies actuellement en place pour la lutte contre les vidéos piratées pour bloquer la republication de vidéos appelant à la haine.

Empêcher l’enfermement algorithmique

Outre ces mesures « techniques », les trois associations souhaitent aussi que les réseaux sociaux inscrivent dans les conditions d’utilisation l’interdiction des contenus négationnistes — une interdiction qui n’existe pas en droit américain. Enfin, une proposition, dont la mise en œuvre serait particulièrement délicate, demande que les grandes plates-formes « éditorialisent leurs contenus pour empêcher l’enfermement algorithmique des contenus haineux ». En clair, elles demandent que Facebook, Twitter et YouTube agissent manuellement sur leurs algorithmes de recommandation pour discriminer les articles ou vidéos haineuses… Une demande qui figure quasi mot pour mot dans la liste des 80 propositions pour lutter contre le terrorisme présentées cette semaine par… Manuel Valls.

Mais les plates-formes américaines refusent fermement, depuis des années, de modifier la manière dont elles recommandent des contenus à la demande des gouvernements, citant à la fois les risques d’importantes dérives et de censure politique, mais aussi la protection du secret industriel entourant le fonctionnement de leurs algorithmes.

Par le passé, des associations sont cependant parvenues à contraindre les géants américains à changer leur manière de fonctionner : en 2013, après une victoire judiciaire de l’UEJF face à Twitter au tribunal de Paris, le réseau social avait dû mettre en place un module de signalement des contenus accessible sur son site.