Entretien de Lucie Spindler avec Raphael Grably, rédacteur en chef adjoint à BFM Business, en charge de Tech and Co et de la tech sur BFMTV.
AprĆØs lāexplosion Ć lāhĆ“pital Al-Ahli de Gaza, vous avez Ć©crit sur X (anciennement Twitter) que cet Ć©vĆ©nement est āun dĆ©fi inĆ©dit en matiĆØre de vĆ©rification de lāinfoā. Pourquoi?
Il y a eu un mĆ©lange assez inĆ©dit. Dāune part, on a vu une profusion dāinformations qui peut ĆŖtre assez positive. De nombreuses vidĆ©os ont Ć©tĆ© mises en ligne trĆØs rapidement sur X et diffusĆ©es partout. Ces vidĆ©os, aprĆØs vĆ©rification, sont des outils indispensables pour mener une enquĆŖte en sources ouvertes. Les enquĆŖtes en sources ouvertes utilisent les ressources librement accessibles en ligne pour essayer dāenquĆŖter sur un sujet. Cāest ce que font beaucoup de journalistes. Ils peuvent voir une vidĆ©o, regarder lāhorodatage de cette vidĆ©o, ensuite aller comparer sur Google Maps pour voir si les bĆ¢timents ont la mĆŖme forme,pour confirmer que cāest au bon endroit. Ces techniques dāenquĆŖte en sources ouvertes sāappuient sur la diffusion massive dāinformations.
Mais il faut aussi souligner le cĆ“tĆ© nĆ©gatif de cette profusion dāinformations : la nouvelle politique de X permet Ć nāimporte qui dāacheter un badge de certification et donc il est trĆØs compliquĆ© de savoir qui est sĆ©rieux ou pas. Auparavant, les badges de certification Ć©taient donnĆ©s par Twitter avec un processus sĆ©lectif, que ce soit pour des personnalitĆ©s militantes ou journalistiques. Il y avait une sorte de gage de sĆ©rieux. LĆ , tout le monde peut acheter son badge. Donc mĆŖme les journalistes sĆ©rieux se font intoxiquer. Cela provoque une rĆ©action en chaĆ®ne. Et une fois quāil y a un journaliste sĆ©rieux qui est intoxiquĆ©, il intoxique tous les autres, puisquāil est rĆ©putĆ© sĆ©rieux.
Donc on a assistĆ© Ć une crise de confiance totale dans les comptes, mais aussi une profusion dāinformations, qui māont fait dire Ć ce momentāālĆ quāon Ć©tait dans un Ć©vĆ©nement particulier et quāil Ć©tait impossible dāĆ©mettre le moindre jugement. Par contre, plusieurs mĆ©dias dont Le Monde, LibĆ©ration, le Guardian ont rĆ©ussi Ć faire des enquĆŖtes en sources ouvertes. Sans dresser dāanalyse totalement dĆ©finitive, ils ont rĆ©ussi Ć montrer que les informations circulant initialement Ć©taient probablement fausses.
Ces mĆ©canismes sont amplifiĆ©s par des biais de confirmation. On est enfermĆ©s de faƧon algorithmique dans des bulles de filtres. On voit ce qui va dans notre sens et donc on est persuadĆ©s dāavoir raison tout de suite. Cāest pour cela quāon a vu des tweets de politiques qui ont tout de suite repris une version en Ć©tant persuadĆ©s que cāĆ©tait la bonne. Une fois que vous avez des dĆ©putĆ©s qui reprennent lāinformation, beaucoup de personnes se disent quāelle est forcĆ©ment vraie.
Selon vous, pourquoi les plateformes ne jouent-elles pas leur rÓle de modération dans cette guerre informationnelle? Est-ce un problème de moyens humains ou une volonté politique?
Les deux existent et parfois de maniĆØre cumulĆ©e. Je pense que du cĆ“tĆ© de Facebook, Youtube, TikTok, ce sont essentiellement des questions financiĆØres. Youtube et Facebook font tout de mĆŖme des efforts. Mais il faut se rendre Ć lāĆ©vidence : sur un rĆ©seau social avec un ou deux milliards dāutilisateurs, mĆŖme avec beaucoup de modĆ©rateurs humains, ce nāest pas possible de modĆ©rer et donc ils se reposent sur des algorithmes. Or ces algorithmes sont extrĆŖmement imparfaits et laissent passer beaucoup de choses. Si vous avez 10 milliards de contenus publiĆ©s dans une journĆ©e et que vous en laissez passer 1%, cela fait quand mĆŖme beaucoup de contenus. Cāest valable pour les fausses informations, mais surtout pour les images violentes quāon a vu aprĆØs lāattaque du Hamas et qui sont toujours en ligne.
Twitter cāest un cas particulier, parce que cāest Ć la fois un manque de moyens humains (Elon Musk a licenciĆ© quasiment toutes les Ć©quipes de modĆ©ration) et Ć la fois une volontĆ© de ne pas modĆ©rer. Cela les arrange bien financiĆØrement, leur permettant de justifier leur absence de modĆ©ration. Mais eux, ils assument. Ils laissent volontairement des vidĆ©os qui sont illicites (avec parfois des corps sans vie)⦠Ils ne veulent pas modĆ©rer et cāest pour cela quāil y a un conflit avec lāUnion EuropĆ©enne. Il y a une enquĆŖte en cours qui concerne Twitter (mais aussi Meta et Tik Tok). Twitter est particuliĆØrement ciblĆ© par Bruxelles.
Comment se dƩploie la guerre informationnelle sur les rƩseaux sociaux? Quels moyens numƩriques sont utilisƩs par le Hamas et par Israƫl?
Des deux cĆ“tĆ©s, il y a des outils qui sont utilisĆ©s. Le Hamas utilise la terreur puisque cāest un mouvement terroriste qui cherche Ć terroriser. Comment on terrorise ? En montrant des vidĆ©os de gens qui se font massacrer et des cadavres. Cela passe dāabord par Telegram, car sur Telegram il y a peu de modĆ©ration. Elles sont ensuite rediffusĆ©es par des soutiens du Hamas mais aussi paradoxalement par des soutiens dāIsraĆ«l, et notamment par une partie de lāextrĆŖme-droite franƧaise. Ils les prĆ©sentent comme des vidĆ©os quāil faudrait voir pour comprendre ce dont le Hamas est capable mais Ć©videmment sans traitement journalistique, sans prĆ©cautions qui consisteraient Ć prĆ©venir, Ć flouter, Ć prĆ©server la dignitĆ© des victimes et Ć ne pas simplement servir la propagande du Hamas. On retrouve ces vidĆ©os de propagande soit par des islamistes, soit par lāextrĆŖme-droite. Cela part de Telegram, puis est repris sur X.
Du cĆ“tĆ© du gouvernement israĆ©lien, cāest assez diffĆ©rent. On a plutĆ“t observĆ© des techniques de publicitĆ©. Il y a la volontĆ© de montrer ce qui se passe. Le gouvernement israĆ©lien a notamment publiĆ© des photos de bĆ©bĆ©s calcinĆ©s avec des messages dāavertissement. Ils ont aussi investi dans des moyens mis Ć disposition par les plateformes : des annonces publicitaires sur Twitter, Facebook, Youtube, des jeux vidĆ©os (par exemple Candy Crush). En fait, ils ont investi la publicitĆ© pour raconter ce quāil sāest passĆ©, revenir sur les attaques du 7 octobre. On a observĆ© des publicitĆ©s venant directement du gouvernement israĆ©lien, du ministĆØre des Affaires Ć©trangĆØres qui a achetĆ© des espaces publicitaires sur les plateformes en ligne et sur des jeux vidĆ©o.
Quels conseils donnez-vous aux utilisateurs des rĆ©seaux sociaux pour se protĆ©ger des fake news dans la pĆ©riode actuelle (et pour sāinformer correctement)?
Malheureusement, cela est de plus en plus compliquĆ© car ces fake news sont reprises par des comptes quāon pouvait penser sĆ©rieux. Il y a quelques annĆ©es, sur Twitter, un compte qui Ć©tait certifiĆ© Ć©tait gage de sĆ©rieux. Un dĆ©putĆ© faisait attention Ć ce quāil publiait. Aujourdāhui, on est dans un tel besoin de rĆ©activitĆ© que les politiques veulent rĆ©agir tout de suite. Il y a une coāāintoxication entre les comptes non sĆ©rieux qui se font passer pour des comptes sĆ©rieux, les politiques qui veulent absolument satisfaire un Ć©lectorat. Ce nāest pas parce quāon a une information qui est largement diffusĆ©e quāelle est vraie, ce nāest pas parce quāon a une information qui vient dāun compte avec un badge bleu quāelle est vraie, ce nāest pas parce quāon a une information mise en ligne par un politique quāelle est vraie ā¦
Il faut essayer de recouper les sources Ć sa faƧon. Si on se dit quāun mĆ©dia est potentiellement engagĆ©, ou a une volontĆ© militante, alors il faut multiplier les mĆ©dias. Il faut lire des mĆ©dias qui ont des Ć©quipes sur le terrain, des mĆ©dias internationaux, des mĆ©dias britanniques. Il faut essayer dāavoir le plus de sources possibles pour essayer dāy voir clair. Dans un conflit comme celuiāālĆ , cāest extrĆŖmement difficile. HonnĆŖtement, pour le citoyen, on est Ć une pĆ©riode trĆØs compliquĆ©e. Je crois quāil faut un retour aux fondamentaux.