Les plus grandes plateformes internet ont promis d’endiguer le partage d’images violentes et autres contenus inappropriés par le biais de systèmes automatisés et d’un contrôle humain. Mais cela ne fonctionne pas, selon des observateurs.
« Il n’y a aucune excuse au fait que le contenu de cette transmission en direct soit encore en train de circuler sur les réseaux sociaux en ce moment », juge Lucinda Creighton, ancienne ministre irlandaise aujourd’hui conseillère au Counter Extremism Project, qui fait campagne pour retirer les contenus violents des plateformes internet. Ces dernières « disent avoir leurs propres technologies mais nous ne savons pas lesquelles. Il n’y a pas de transparence et ça ne marche clairement pas », poursuit-elle.
Les grandes plateformes ont collaboré pour développer une technologie détectant la pornographie infantile, sans aller jusqu’à unir leurs efforts contre les contenus violents.
Facebook explique ainsi utiliser des outils technologiques en plus de ses propres modérateurs et de signalements de la part d’utilisateurs pour retirer le contenu inapproprié.
Et le géant a embauché quelque 20 000 modérateurs mais ces derniers, selon plusieurs médias, sont soumis à un grand stress en raison des vidéos violentes et peinent à gérer les séquences diffusées en direct.
> Facebook, une « plateforme sans modérateurs » ?
« Nous œuvrons à faire retirer tout enregistrement » des tueries, avait ajouté la police.
Twitter et YouTube ont dit travailler à retirer les vidéos en question et tout contenu leur étant lié.
Twitter affirme avoir « une procédure rigoureuse et une équipe dédiée pour gérer les situations délicates et d’urgence comme celle-ci ». « Nous coopérons également avec la police pour faciliter ses enquêtes », a le réseau social.
Quant à YouTube, la plateforme a indiqué dans un tweet avoir « le cœur brisé » par « la terrible tragédie en Nouvelle-Zélande », et a tenu à faire savoir qu’elle « œuvrait activement à retirer toute vidéo violente » de ses pages.
Facebook a assuré dans un communiqué avoir interrompu la transmission en direct de cette vidéo et l’avoir retirée à la suite d’une requête de la police, et avoir bloqué les comptes Facebook et Instagram du tireur.
« Nous retirons également tout soutien ou apologie du crime et du ou des tireurs dès que nous en voyons », a précisé Facebook.
Il est devenu courant, selon Mme Grygiel, pour les auteurs de crimes d’utiliser les réseaux sociaux pour diffuser leurs actes, et ces derniers sont ensuite réenregistrés puis partagés, encore et encore.
Selon elle, des plateformes comme YouTube ont la capacité de trouver et de retirer ces vidéos violentes avec des recherches par mots-clés, mais il faudrait davantage de personnes pour le travail de modération et de surveillance.
Les outils d’intelligence artificielle peuvent aider, poursuit-elle, mais « aucun algorithme ne peut être conçu pour cela, parce qu’on ne peut pas prévoir l’avenir ».
> Le nom d’un célèbre YouTubeur associé à la tuerie
« Je suis absolument dégoûté d’entendre mon nom dans la bouche de cette personne. Mon cœur et mes pensées vont aux victimes, aux familles, à tous ceux qui souffrent de cette tragédie », a réagi PewDiePie sur son compte Twitter.
Just heard news of the devastating reports from New Zealand Christchurch.
I feel absolutely sickened having my name uttered by this person.
My heart and thoughts go out to the victims, families and everyone affected by this tragedy.— ƿ૯ωძɿ૯ƿɿ૯ (@pewdiepie) March 15, 2019
Sa chaîne YouTube compte près de 90 millions d’abonnés, ce qui en fait la plus populaire de la plateforme devant la chaîne indienne T-series, spécialisée dans les clips musicaux de Bollywood.
La vidéo du tueur de Christchurch, un « extrémiste de droite » équipé d’armes semi-automatiques, et la réaction de PewDiePie ont suscité de nombreux articles sur les sites de médias généralistes ou de magazines spécialisés dans l’actualité du net.
Ils rappellent que le YouTubeur s’est fait étriller à plusieurs reprises après avoir proféré des propos racistes, pour lesquels il s’est depuis excusé.
En septembre 2017, on pouvait l’entendre dire dans une vidéo « Quel p****n de ‘nègre' ». En février la même année, il avait perdu des contrats avec YouTube et un studio du groupe Disney après plusieurs vidéos contenant des insultes antisémites ou des références nazies.
« J’essayais de montrer à quel point le monde moderne est dingue, en particulier certains des services disponibles en ligne », avait justifié le YouTubeur sur son blog.
En septembre 2016, il avait été bloqué temporairement par Twitter après une blague sur le groupe État islamique.
Sur son compte Twitter, ses fans lui ont apporté leur soutien vendredi. « Tu n’as rien à voir avec la tragédie, et tu n’as pas demandé que ton nom soit prononcé par une personne démente et violente », a écrit l’un d’eux. Un autre a défendu « un Suédois qui fait des vidéos de divertissement. (…) Ne laissons pas triompher la construction narrative des tueurs de masse ».
Rédaction web avec AFP