Haine en ligne : le bilan en demi-teinte de l’Arcom

Analyse 

L’Arcom (ex-CSA) a publié, lundi 24 juillet, un bilan sur la lutte contre la diffusion de contenus haineux en ligne. Si les très grandes plateformes semblent avoir anticipé certaines des nouvelles obligations auxquelles elles seront soumises d’ici à un mois sur le sol européen, leur politique de modération manque toujours de transparence.

  • Mélinée Le Priol, 
Haine en ligne : le bilan en demi-teinte de l’Arcom
 
L’Arcom attire notamment l’attention sur TikTok, qui est depuis des mois dans le viseur des autorités.SOMMERSBY/STOCK ADOBE

C’est « souvent avec un certain succès » que les réseaux sociaux ont conçu, ces derniers mois, des solutions pour « modérer et atténuer les usages abusifs les plus manifestement préjudiciables de leurs services ». Telle est l’une des conclusions, en forme d’encouragement, du dernier bilan de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom, ex-CSA) sur les moyens mis en œuvre par ces opérateurs pour lutter contre la haine en ligne.

Rédigé à partir d’observations de l’Arcom et des déclarations de treize plateformes (Twitter, YouTube, Dailymotion, TikTok, ou encore Instagram et Facebook, du groupe Meta), ce bilan a été rendu public lundi 24 juillet, à un mois de l’entrée en vigueur du Règlement sur les services numériques (RSN, ou DSA en anglais). Cela sera le 25 août prochain pour les plus grandes plateformes, et en février 2024 pour celles de moins de 45 millions d’utilisateurs européens.

Fin août, « l’heure de vérité »

En présentant ce rapport à la presse, le président de l’Arcom, Roch-Olivier Maistre, a insisté sur le fait qu’il paraît « dans une période de transition » : « Nous sommes en train de passer d’une réglementation nationale à une réglementation européenne. » Jusqu’ici, en effet, les réseaux sociaux s’autorégulaient, éventuellement encadrés par de premiers textes législatifs dans certains États membres. En France, la loi confortant le respect des principes républicains (adoptée à l’été 2021) réglementait la lutte contre la haine en ligne. Elle disparaîtra en février 2024, au profit du RSN.

En présentant leur bilan, les porte-parole de l’Arcom ont fait état d’une « certaine fébrilité » des plateformes, apparemment soucieuses de se mettre en conformité avec le texte européen déjà « plusieurs mois » avant son application. Les sanctions seront, de fait, autrement plus dissuasives qu’aujourd’hui : si ces entreprises ne respectent pas leurs obligations en matière de désinformation, de piratage en ligne et de discours de haine, elles pourront écoper d’amendes allant jusqu’à 6 % de leur chiffre d’affaires mondial. En tout dernier recours, une suspension temporaire de leurs services est possible.

En attendant « l’heure de vérité » du 25 août, selon le mot de Roch-Olivier Maistre, que font déjà ces opérateurs contre la haine en ligne ? Le nerf de la guerre reste la modération des contenus. Si les réseaux sociaux ne sont pas tenus de surveiller les contenus publiés sur leurs services (car ils ne sont pas considérés comme des éditeurs, mais de simples « hébergeurs »), ils doivent néanmoins retirer ceux d’entre eux qui sont manifestement illicites dès lors qu’ils leur ont été signalés.

Combien de modérateurs ?

Pour cela, des outils de signalement existent, mais y accéder est trop souvent conditionné « au clic sur un bouton dont l’intitulé est peu explicite », déplore l’Arcom. Sur YouTube, il faut se rendre sur une page intitulée « À propos » : pas très intuitif. Quant à Snapchat, l’utilisateur souhaitant signaler un compte auquel il est abonné en raison d’un comportement illicite doit d’abord cliquer sur l’intitulé « Gérer l’amitié » !

Autre mauvais signal : la plupart des plateformes continuent de refuser de divulguer publiquement leur nombre de modérateurs francophones. Autorités et associations soupçonnent ces « nettoyeurs du Web » employés par des sous-traitants d’être trop peu nombreux pour faire face à la masse de contenus en circulation. Les seuls à avoir autorisés l’Arcom à publier leurs chiffres sont Dailymotion, Linkedin, Wikipédia et Twitter. Ce dernier, rebaptisé « X » le 24 juillet, déclare disposer de 149 modérateurs, « dont des francophones ».

L’Arcom attire aussi l’attention sur TikTok, qui est depuis des mois dans le viseur des autorités. Quand un utilisateur conteste une décision de modération, le réseau social finit par infirmer le choix initial du modérateur dans 40 % des cas. « Est-ce le signe d’une surmodération, de modérateurs insuffisamment formés, ou d’un manque de clarté dans les règles de TikTok ? » s’interroge Benoît Loutrel, membre du collège de l’Arcom.

Le rapport souligne en tout cas la « bonne coopération » des plateformes avec les autorités judiciaires et administratives : dans près de 85 % des cas, ces entreprises répondent aux demandes d’information des autorités françaises afin d’identifier l’auteur potentiel d’un contenu haineux en ligne.