MONDE

Facebook dévoile sa "War Room" pour lutter en temps réel contre les manipulations


Vendredi 19 Octobre 2018 à 15:32 | Lu 864 fois

RÉSEAUX SOCIAUX - C'est le centre névralgique de la lutte contre la manipulation des élections chez Facebook. Au sein de la "War Room" décorée de drapeaux américains et brésiliens, une vingtaine d'analystes et d'informaticiens chevronnés sont concentrés sur leurs écrans, à l'affût de tout signe suspect, prêt à riposter.


Crédit photo : NOAH BERGER / AFP
Crédit photo : NOAH BERGER / AFP
De l'extérieur, peu de choses distinguent cette "salle de crise" des autres salles de réunion situées dans les dizaines de bâtiments du tentaculaire siège du réseau social en Californie. Si ce n'est sa porte vitrée teintée, où est scotché un petit panneau "WAR ROOM" en grosses lettres rouges au style rétro. À l'intérieur, des horloges sur plusieurs fuseaux horaires, des écrans branchés sur CNN, Fox News ou Twitter, des dizaines d'ordinateurs, des cartes des États-Unis et du Brésil. Fixés au mur, d'autres écrans montrent des graphiques qui suivent l'activité sur le réseau en temps réel, prêts à donner l'alerte en cas d'anomalie.

>>> Lire aussi : Faille Facebook : 29 millions de comptes récupérés par les pirates

"Notre job est de détecter (...) quiconque essaie de manipuler le débat public", résume Nathaniel Gleicher, à la tête de la cybersécurité de Facebook et ancien du Conseil national de sécurité à la Maison Blanche. Et surtout, d'agir vite. C'est le but de la War Room, lancée en septembre et qui a fait son baptême du feu avec le premier tour de la présidentielle brésilienne le 7 octobre. "Le jour de l'élection, nous avons observé une hausse de messages (trompeurs) disant que l'élection était reportée à cause de manifestations", explique Samidh Chakrabarti, l'un des responsables élections et engagement civique au sein du réseau social. "Nous avons été capables de les retirer avant que l'histoire ne devienne virale", assure-t-il. Cela s'est fait en "une heure ou deux" alors que "cela aurait pu prendre plusieurs jours" sans la "War Room" et ses employés dédiés.

Crédit photo : NOAH BERGER / AFP
Crédit photo : NOAH BERGER / AFP
Derrière un écran où est fixé un petit drapeau du Brésil, un jeune homme à chapeau gris est l'un d'eux. Interdiction aux journalistes de l'interroger mais sa mission est évidente : surveiller le deuxième tour de la présidentielle, le 28 octobre.
Depuis que Facebook a reconnu avoir totalement sous-estimé la manipulation de l'élection présidentielle américaine de 2016 via les réseaux sociaux, le groupe américain a mis les bouchées doubles sur le sujet et n'en finit plus de détailler tout ce qu'il met en œuvre pour détecter les activités malveillantes destinées à attiser les fractures idéologiques ou à tromper les électeurs.

>>> Voir aussi : Vidéo - Facebook veut mieux combattre le harcèlement en ligne

  Cette fois, Facebook a décidé de créer un centre de commandement physique, avec des analystes de données, ingénieurs informatiques, juristes, ou experts en menaces ... réunis au même endroit pour être plus rapides et efficaces. Contrairement aux machines, "les humains peuvent s'adapter très vite aux nouvelles menaces", note Gleicher.

> 20 000 personnes en charge de la sécurité chez Facebook


Même si le groupe prospère depuis près de 15 ans sur les interactions virtuelles entre "amis" parfois situés à des milliers de kilomètres les uns des autres, "rien ne vaut la communication en face-à-face", reconnaît Chakrabarti à moins de trois semaines des élections législatives américaines de mi-mandat, sur lesquelles planent des menaces d'interférences venues de l'étranger, notamment depuis la Russie.

"Au moment des élections, nous avons besoin que les gens détectent et suppriment (des contenus) le plus vite possible (...). Il faut que les décisions soient prises de façon rapide", poursuit-il, rappelant que 20 000 personnes sont désormais chargées de la sécurité des contenus dans l'ensemble du groupe. "Si une anomalie est détectée (par les systèmes informatiques), un analyste de données va investiguer, voir s'il semble y avoir vraiment un problème", explique encore Samidh Chakrabarti.

Si les contenus enfreignent de façon claire les règles de Facebook (discours de haine, informations trompeuses sur le déroulement du vote...), il est ôté directement.  Si ce contenu demande des vérifications factuelles, il peut être envoyé à des "partenaires" extérieurs : médias (dont l'AFP), universitaires...
Les salariés de la "War Room" s'entraînent aussi à des scénarios catastrophe, avec des afflux massifs de messages trompeurs le jour d'un scrutin majeur. "Nous devons garder une longueur d'avance sur les acteurs malveillants (...) Nous réduisons continuellement la taille de la porte d'entrée, ils essayent en permanence d'entrer", résume Gleicher.
 

Rédaction web avec AFP








Dans la même rubrique :
< >

Samedi 15 Décembre 2018 - 09:51 La mobilisation des "gilets jaunes" s'essouffle

SOCIÉTÉ | Miss France 2019 | Hura tapairu 2018 | FAITS DIVERS | CULTURE | BUZZ | MONDE | SPORT | POLITIQUE | HEIVA 2018 | Hawaiki Nui | Beach soccer | Tahiti Pro Teahupoo | Digital Festival Tahiti | Mister Tahiti | Festival des îles | RECORD DU MONDE UKULELE | FenuaHeroes | Pharmacies et Médecins de Garde | L'IMAGE DE LA SEMAINE | EMISSION WEB | VA'A PORTRAITS | TAHITI VA'A 2018