>>> Lire aussi : Faille Facebook : 29 millions de comptes récupérés par les pirates
« Notre job est de détecter (…) quiconque essaie de manipuler le débat public », résume Nathaniel Gleicher, à la tête de la cybersécurité de Facebook et ancien du Conseil national de sécurité à la Maison Blanche. Et surtout, d’agir vite. C’est le but de la War Room, lancée en septembre et qui a fait son baptême du feu avec le premier tour de la présidentielle brésilienne le 7 octobre. « Le jour de l’élection, nous avons observé une hausse de messages (trompeurs) disant que l’élection était reportée à cause de manifestations », explique Samidh Chakrabarti, l’un des responsables élections et engagement civique au sein du réseau social. « Nous avons été capables de les retirer avant que l’histoire ne devienne virale », assure-t-il. Cela s’est fait en « une heure ou deux » alors que « cela aurait pu prendre plusieurs jours » sans la « War Room » et ses employés dédiés.
Depuis que Facebook a reconnu avoir totalement sous-estimé la manipulation de l’élection présidentielle américaine de 2016 via les réseaux sociaux, le groupe américain a mis les bouchées doubles sur le sujet et n’en finit plus de détailler tout ce qu’il met en œuvre pour détecter les activités malveillantes destinées à attiser les fractures idéologiques ou à tromper les électeurs.
>>> Voir aussi : Vidéo – Facebook veut mieux combattre le harcèlement en ligne
Cette fois, Facebook a décidé de créer un centre de commandement physique, avec des analystes de données, ingénieurs informatiques, juristes, ou experts en menaces … réunis au même endroit pour être plus rapides et efficaces. Contrairement aux machines, « les humains peuvent s’adapter très vite aux nouvelles menaces », note Gleicher.
> 20 000 personnes en charge de la sécurité chez Facebook
« Au moment des élections, nous avons besoin que les gens détectent et suppriment (des contenus) le plus vite possible (…). Il faut que les décisions soient prises de façon rapide », poursuit-il, rappelant que 20 000 personnes sont désormais chargées de la sécurité des contenus dans l’ensemble du groupe.
« Si une anomalie est détectée (par les systèmes informatiques), un analyste de données va investiguer, voir s’il semble y avoir vraiment un problème », explique encore Samidh Chakrabarti.
Si les contenus enfreignent de façon claire les règles de Facebook (discours de haine, informations trompeuses sur le déroulement du vote…), il est ôté directement.
Si ce contenu demande des vérifications factuelles, il peut être envoyé à des « partenaires » extérieurs : médias (dont l’AFP), universitaires…
Les salariés de la « War Room » s’entraînent aussi à des scénarios catastrophe, avec des afflux massifs de messages trompeurs le jour d’un scrutin majeur.
« Nous devons garder une longueur d’avance sur les acteurs malveillants (…) Nous réduisons continuellement la taille de la porte d’entrée, ils essayent en permanence d’entrer », résume Gleicher.
Rédaction web avec AFP