Le militantisme afro-américain instrumentalisé : l’Internet Research Agency revient à la charge

Par Danny Gagné

Pour lire la version pdf

L’élection présidentielle de 2016 a été entachée par la campagne d’ingérence russe menée par l’Internet Research Agency. Durant cette campagne électorale, la communauté afro-américaine a été la cible de prédilection de l’IRA, qu’en est-il en cette année électorale ponctuée par des tensions raciales accrues ?

Dans son enquête sur l’ingérence étrangère dans l’élection présidentielle américaine de 2016, le procureur spécial Robert Mueller révélait l’étendue des efforts de désinformation d’une usine à trolls[1] à la solde de l’État russe, l’Internet Research Agency (IRA). Le rapport issu de l’enquête nous apprenait notamment que celle-ci était parvenue à rejoindre plusieurs millions d’internautes sur Facebook, Instagram et Twitter. Fait majeur et passé presque inaperçu : les publications disséminées par ces agents provocateurs étaient majoritairement formulées pour rejoindre la communauté afro-américaine.

En effet, selon Zach Dorfman, chercheur à l’Aspen Institute, plus de 66 % du contenu affiché sur Facebook par l’agence russe faisait mention de questions raciales et avait pour cible les Afro-Américains habitant les grandes zones métropolitaines. Des comptes Facebook comme Black Matters et Blacktivist, simulacres de Black Lives Matter, avaient attiré plus de 11 millions de sympathisants. Une tendance lourde reliait ces publications : la volonté d’attiser les tensions raciales aux États-Unis. Plusieurs de ces messages affichaient des liens vers des vidéos YouTube dont le contenu, dans 96 % des cas, portait sur la brutalité policière.

Alors que l’année 2020 aura été particulièrement chargée en ce qui a trait aux tensions raciales aux États-Unis, et à l’approche d’un scrutin présidentiel hautement disputé, les controverses entourant la mort de George Floyd et le mouvement Black Lives Matter apparaissent comme un fruit mûr pour des acteurs extérieurs qui souhaiteraient semer la discorde aux États-Unis. Toutefois, exposés au grand jour après l’élection de 2016, ceux-ci ont depuis dû s’adapter pour poursuivre leur travail de sape pendant le scrutin présidentiel de 2020. Que sait-on des récents efforts de l’IRA, et comment cette agence a-t-elle modifié ses stratagèmes ?

La désinformation sous-traitée

En mars dernier, on apprenait que Facebook avait désactivé 49 comptes, 69 pages et 85 comptes Instagram (propriété de Facebook) opérés depuis le Ghana et le Nigeria par des trolls locaux. Le contenu mis en ligne ciblait principalement les États-Unis. Cette nébuleuse de comptes se dotait de noms comme Black Facts Untold, et avait pour mission de partager des histoires d’oppression et d’injustice. Les utilisateurs africains de ces comptes se faisaient passer pour des citoyens américains vivant en Floride, Californie ou encore en Louisiane. Ils ne savaient cependant pas une information essentielle, révélée ultérieurement par une enquête de CNN : l’organisation avait vraisemblablement reçu son mandat de l’IRA.

Le cas démontre une des grandes innovations tactiques des campagnes de désinformation russes depuis 2016, à savoir le recours à la « sous-traitance », en employant des entités dans d’autres pays pour attaquer leurs cibles. Dans le cas du Ghana et du Nigeria, les trolls en question étaient, sur papier, employés par l’organisation non gouvernementale Eliminating Barriers for the Liberation of Africa (EBLA), se prétendant spécialisée en droits humains. Le procédé, baptisé double deceit (ou « double duperie ») par la firme d’analyse de données Graphika, permet notamment de brouiller les pistes, réduisant ainsi les chances que les autorités puissent établir le lien entre les exécutants et les mandataires des campagnes de désinformation.

Désinformer pour mieux diviser

Au lendemain de la mort de George Floyd, Bret Schaefer, expert en désinformation auprès de l’organisme Alliance for Securing Democracy, disait observer une hausse majeure dans la diffusion de messages à caractères raciaux par des agences de presse en langue anglaise reliés à l’État russe, notamment Redfish Media. Or, alors que les messages rapportés avant cet évènement tragique avaient pour objectif de créer la méfiance entre les communautés ethniques américaines, on remarque que le décès de George Floyd a également consacré les efforts russes pour créer la zizanie à l’intérieur de la communauté afro-américaine elle-même.

À titre d’exemple, au mois d’août, Twitter désactivait plusieurs comptes propageant un témoignage d’un supposé adepte du mouvement Black Lives Matter. L’auteur du gazouillis factice affirmait qu’il avait en quelque sorte subi un lavage de cerveau et était devenu marxiste sans même s’en apercevoir, ajoutant qu’il avait depuis décidé de se ranger derrière le Parti républicain pour les élections à venir. Signe que le message était inauthentique : de très nombreux comptes (frauduleux) le publiaient mot pour mot en faisant croire qu’il s’agissait de la propre expérience des propriétaires de ces comptes. Au total, le message a été partagé plus de 11 000 fois et a reçu la mention « j’aime » plus de 37 000 fois. Il a ensuite été repris par différents médias sociaux, notamment « 4chan », reconnu pour être un lieu de rencontre des amateurs de théories du complot.

De 2016 à 2020, des stratégies de désinformation en mutation

Si ces différents épisodes livrent déjà un aperçu des innovations déployées par les usines à trolls dans les récentes années, ils n’en constituent pas pour autant une liste exhaustive. En mars dernier, une analyse du New York Times révélait plusieurs autres adaptations observables dans les contenus produits par l’Internet Research Agency en vue de l’élection présidentielle américaine.

Premièrement, la forme des messages a changé. Alors qu’auparavant, les publications étaient parsemées d’erreurs de syntaxe et de grammaire, les trolls copient maintenant des pans entiers de textes provenant d’autres pages pour ne pas semer le doute quant à la légitimité de la publication. À titre d’exemple, Ben Nimmo, expert de la firme d’analyse de données Graphika, cite une cinquantaine de publications de l’IRA retirées par Facebook fin 2019, dont la majorité du contenu était copié de pages Wikipédia ou d’autre revues comme The Atlantic.

Deuxièmement, les publications antérieures des trolls étatiques étaient longues et contenaient une multitude de mots-clics ou hashtags. Or, les programmes informatiques d’analyse de textes utilisés pour débusquer ces fausses publications ont évolué depuis 2016. Plus il y a de mots, plus ces programmes ont du matériel pour identifier et établir des liens entre des publications frauduleuses. En conséquence, les trolls ont maintenant surtout recours à des images ou à des captures d’écran, que ces logiciels ne peuvent analyser aussi facilement. C’est un virage vers la « culture du meme » qui vise à provoquer une réaction instantanée sans un trop grand effort cognitif. 

Troisièmement, plutôt que d’essayer d’accumuler de nombreux abonnés, les trolls à la solde de la Russie veulent éviter d’attirer l’attention. Alors que la page Facebook Blacktivist créée par l’IRA comptait plus de 10 millions d’abonnés en 2016, la tactique est maintenant d’utiliser les médias sociaux pour mener des opérations de « guérilla » ponctuelles, temporaires et de moindre envergure. Finalement, alors que les images partagées dans les fausses publications contenaient auparavant des logos pour bâtir une « image de marque » (par exemple « Gun Owners for Trump » ou « Truckers for Trump »), ceux-ci ont été complètement retirés des publications afin de minimiser les pistes de recherche à disposition des vérificateurs de faits.

L’importance de prendre du recul

Il est encore tôt pour tenter d’évaluer le volume de messages frauduleux ayant circulé sur les médias sociaux américains cette année, notamment au sujet du mouvement Black Lives Matter. Rappelons toutefois qu’en 2016, les chiffres étaient alarmants : au total, l’IRA aurait rejoint 126 millions d’utilisateurs sur Facebook, 20 millions sur Instagram et 1,4 million sur Twitter. Qui plus est, il est encore plus ardu d’en estimer l’impact électoral, tant la base partisane des deux grands partis politiques apparaît présentement figée : désinformation massive ou non, il y aura eu au final très peu de mouvement dans les intentions de vote au fil de cette saison électorale.

Une chose est néanmoins certaine, ces campagnes de désinformation exploitent des clivages réels qui minent la cohésion de nos sociétés. Si aux États-Unis, la présidence Trump a indubitablement contribué à accentuer ces fractures, il serait naïf de croire qu’elles disparaitront si Trump doit quitter la Maison-Blanche après le 3 novembre. Les campagnes de désinformation sur les tensions raciales continueront tant que ces tensions demeureront aussi profondes. La solution au problème passe donc aussi par des efforts visant à rapiécer le tissu social aux États-Unis.

Danny Gagné est chercheur à l’Observatoire des conflits multidimensionnels de la Chaire Raoul-Dandurand.

[1]  Un troll est un intervenant qui initie volontairement des polémiques sur un forum de discussion. L’usine à troll est une entreprise ou une entité organisée visant à produire un « trollage » à grande échelle et coordonné.

Version PDF ici

27 octobre 2020
En savoir plus