Le ransomfake, de la sextorsion au chantage politique

Par Gabrielle Gendron
Chroniques des nouvelles conflictualités - Chaire Raoul-Dandurand
Phénomène répandu, les deepfakes font appel à l’intelligence artificielle pour créer des vidéos truquées hyperréalistes. Ceux-ci commencent toutefois à être jumelés au concept de rançongiciel, à des fins d’extorsion, de chantage, voire de pression politique.
Pour contraindre ou faire chanter quelqu’un, on peut tenter d’obtenir des images compromettantes... ou on peut en fabriquer de toutes pièces. Alors que les technologies liées à l’intelligence artificielle (IA) ne cessent de progresser, celles-ci contribuent désormais à élargir la boîte à outils des cybercriminels et autres acteurs malveillants. Les deepfakes (ou « hyper trucages »), particulièrement, viennent brouiller de plus en plus la frontière entre faits et fiction, et donnent lieu à d’inquiétantes nouvelles techniques de manipulation et d’ingénierie sociale.
Alors que la pandémie a généré une forte augmentation de l’utilisation des réseaux sociaux, mais aussi une croissance de l’empreinte numérique des individus, un domaine en particulier est le théâtre d’actes de plus en plus insidieux : celui de la sextorsion. On voit ainsi apparaître un nouveau type de cyberattaques, les ransomfakes, qui jumèlent le potentiel des deepfakes à caractère pornographique avec les techniques d’extorsion en ligne.
Deepfakes et ransomwares
Depuis 2017, le phénomène des deepfakes s’est répandu de façon exponentielle en ligne. Ce procédé consiste à introduire des séquences vidéo de deux personnes dans un algorithme d’apprentissage profond (deep learning) pour l’entraîner à échanger les visages. Les deepfakes sont générés grâce à l’algorithme Generative Adversarial Network, ou GAN, qui utilise des méthodes d’apprentissage profond non supervisées.
Créer des deepfakes est un processus non dispendieux et relativement facile à exécuter. Les données d’entrée peuvent être des photos et des vidéos provenant des réseaux sociaux. Il existe plusieurs sites et applications offerts en ligne qui permettent désormais de créer des vidéos truquées, dont des hypertrucages à caractère pornographique. C’est notamment le cas de la plateforme DeepNude, dont l’essor en 2019 a été remarqué. Cette facilité d’utilisation et le matériel mis à disposition – bien involontairement – par les internautes font donc des deepfakes une arme puissante pour quiconque a accès à Internet et dispose d’outils de création adéquats.
Les ransomwares, quant à eux, sont des logiciels malveillants qui prennent en otage les fichiers sur le système d’une victime, soit en cryptant des données importantes, soit en bloquant l’accès de la victime à certaines fonctions de l’ordinateur pour l’empêcher d’effectuer des mesures correctives, et ce, jusqu’au paiement d’une rançon. Le terme de ransomfake, contraction de ce procédé et de celui des deepfakes, désigne un nouveau type d’acte malveillant.
Une sextorsion 2.0
Notamment conceptualisées par le chercheur Paul Bricman, les attaques dites ransomfakes s’appuient sur les prouesses techniques des deepfakes : les algorithmes de détection du visage apprennent à étudier les caractéristiques clés de la physionomie en analysant des images afin de pouvoir les manipuler. Le matériel de la victime est récupéré à partir des profils de médias sociaux, et des GAN sont alors utilisés pour produire une séquence vidéo extrêmement réaliste, dans laquelle la personne ciblée dit ou fait des choses embarrassantes (bien souvent de nature sexuelle) qui ne se sont jamais réellement produites. L’étape suivante consiste à envoyer le trucage à la victime, en la menaçant de diffuser la vidéo compromettante si une rançon n’est pas payée. À l’instar de nombreux autres cybercriminels, les auteurs de ces attaques exigent d’être payés en cryptomonnaie, ce qui diminue grandement leur traçabilité financière.
Certains ransomfakes poussent même l’extorsion plus loin : l’acteur malveillant envoie à sa cible une capture d’écran d’un hypertrucage incriminant de nature pornographique, accompagnée d’un lien vers la vidéo pour que la victime, évidemment inquiétée, visionne elle-même le contenu. Or, alors que le lien la redirige vers un deepfake, un ransomwareest subrepticement téléchargé pendant ce temps sur son système. Le logiciel installé sert alors soit à crypter les données de l’utilisateur pour lui extorquer une rançon, soit à extraire clandestinement des fichiers multimédias personnels, qui sont par la suite utilisés pour créer d’autres deepfakes optimisés.
Selon la firme HelpNet Security, le trafic en ligne autour des attaques à l’aide de deepfakes a augmenté de 43 % depuis 2019. Plus inquiétant encore, il existe désormais des bots[1] programmés pour explorer constamment le web à la recherche d’images et de vidéos d’internautes, postés sur leurs propres comptes de réseaux sociaux ; les fichiers récupérés servent à créer automatiquement des deepfakes pornographiques et éventuellement permettre des attaques de type ransomfake.
Une potentielle arme politique
L’utilisation des ransomfakes pour de la sextorsion peut donc causer des préjudices importants, notamment aux femmes, majoritairement visées par les deepfakes à caractère pornographique. Or, en marge des utilisations purement criminelles de ces attaques, le procédé menace également d’être déployé à des fins de chantage politique ou pour ternir la réputation de personnalités en position de pouvoir. En 2018, la journaliste d’investigation indienne Rana Ayyub, notamment connue pour avoir révélé différents scandales entachant le Baharatiya Janata Party, le parti du premier ministre indien Narendra Modi, a fait l’objet d’une campagne massive de dénigrement et d’intimidation en ligne, qui a inclu la publication d’undeepfake à caractère sexuel la mettant en scène. La mise en ligne de celui-ci s’est accompagnée de doxing[2] : les harceleurs d’Ayyub ont publié son numéro de téléphone, ce qui lui valut de nombreux messages demandant ses tarifs pour des relations sexuelles[3].
Le cas n’est pas unique en son genre. En 2016, aux Philippines, le conseiller juridique du président Rodrigo Duterte a utilisé une vidéo sexuelle truquée de la sénatrice Leila De Lima pour justifier l’emprisonnement de cette femme politique, visiblement en représailles à ses critiques du régime[4]. En Indonésie, à l’approche des élections locales de 2019, Grace Natalie, cheffe du Parti de la solidarité indonésienne (PSI), a été la cible d’une attaque similaire : un compte Twitter anonyme nommé « Hulk » a accusé la politicienne d’entretenir une relation extraconjugale avec Pak Ahok, l’ancien gouverneur de Jakarta. L’accusateur menaçait de rendre publique une vidéo pornographique des deux individus. Bien que Grace Natalie n’ait pas cédé au maitre chanteur et l’ait défié de publier le prétendu film (ce qu’il ne fit pas), plusieurs observateurs notèrent qu’un deepfake aurait potentiellement suffi à la discréditer[5].
Les capacités décuplées en matière d’hypertrucages sont donc loin de se résumer aux seuls enjeux d’extorsion ou de contrainte. Le procédé pourrait par exemple être utilisé à l’avenir dans des campagnes de désinformation en contexte électoral, afin de ternir l’image de personnalités politiques. Qu’une vidéo soit réelle ou trafiquée n’a, hélas, plus vraiment d’importance : avec la multiplication des sources sur Internet et la rapidité des flux d’information, il y a une forte tendance à croire ce qui est vu. L’utilisation de plus en plus marquée de deepfakes à caractère sexuel, sujet tabou par excellence, en accroît d’autant plus le potentiel de retombées symboliques auprès des opinions publiques.
[1] Un agent logiciel automatique ou semi-automatique qui interagit avec des serveurs informatiques.
[2] « Publication intentionnelle sur internet d’informations personnelles sur un individu par un tiers, souvent dans le but d’humilier, menacer, intimider ou punir l’individu en question » (Douglas, 2016).
[3] Paris, B. et Donovan, J. (2019). «Deepfakes and cheap fakes». Rapport publié par Data & Society.
[4]«De Lima on Sex Video: It Is Not Me» philstar.com, https://www.philstar.com/headlines/2016/10/06/1630927/de-lima-sex-video-it-not-me
[5] Davis, M. J. et Fors, P. (2020). «Towards a Typology of Intentionally Inaccurate Representations of Reality in Media Content». Springer International Publishing, 291-304
29 mars 2022
En savoir plus