ChatGPT & Co : le côté obscur de l’intelligence artificielle

Par Danny Gagné
Chronique des nouvelles conflictualités | Chaire Raoul-Dandurand en études stratégiques et diplomatiques

Pour lire la version PDF

Ayant défrayé la chronique fin 2022, le chatbot ChatGPT est un avant-goût de la démocratisation de l’intelligence artificielle, et de ses impacts possibles. Parmi ceux-ci figure un potentiel perturbateur sur le plan géopolitique, puisqu’il agit comme un multiplicateur de force pour les acteurs malveillants.  

Le 30 novembre 2022, ChatGPT, un robot conversationnel (chatbot) propulsé par l’intelligence artificielle, faisait son apparition dans le paysage numérique. Mis en ligne gratuitement par l’entreprise OpenAI, le programme a, en quelques semaines, abondamment fait parler de lui : dans le monde entier, des millions d’internautes ont entrepris de converser avec le chatbot, tester les limites de son « intelligence », mais aussi et surtout, ses nombreux potentiels. Il s’écoula peu de temps avant qu’on découvre que parmi eux pouvaient figurer toutes sortes d’activités peu louables : désinformation optimisée ou codage automatisé de logiciels malveillants, pour ne citer que celles-là.

Qu’il s’agisse de ChatGPT ou d’autres innovations similaires, la démocratisation de l’intelligence artificielle réduit désormais grandement les coûts pour différents acteurs animés d’intentions malveillantes, États inclus. Entre avancées technologiques époustouflantes et promesses de révolutions socio-économiques, l’IA possède donc aussi un fort potentiel déstabilisateur sur le plan géopolitique.

Le pouvoir égalisateur de l’IA

Sur le plan informationnel, l’intelligence artificielle pourrait bien mettre les usines à trolls sur la paille. Jusqu’ici, une intervention humaine était nécessaire pour créer des contenus à des fins de désinformation sur les médias sociaux — contenus d’une efficacité très inégale. Aujourd’hui, des programmes comme ChatGPT peuvent en produire de manière automatisée, en étant de surcroît capable d’ajuster très rapidement un message à un environnement changeant. Les chatbots aident notamment les désinformateurs à contourner facilement un obstacle de taille : la langue. Capables d’effectuer des traductions, mais aussi d’apprendre de leurs erreurs, ces programmes évitent et anticipent les fautes et maladresses de langage, couramment commises par les agents d’influence visant des pays dont ils ne connaissent pas la langue.

Les progrès de l’IA pourraient également redoubler le potentiel de nuisance d’un autre outil de désinformation : les deepfakes (ou « hyper-trucages »). On se souvient notamment, en mars 2022, de la vidéo trafiquée du président ukrainien Volodymyr Zelensky appelant son peuple à déposer les armes. Des doutes s’étaient rapidement immiscés quant à son authenticité, en bonne partie à cause de l’accent peu crédible du chef d’État ukrainien. Or, l’IA, elle, va s’imprégner de contenus, corrigeant constamment sa propre imitation en vue de l’optimiser : elle pourrait s’inspirer des enregistrements de discours, ou de l’audio de la série télévisée mettant en vedette Zelensky, pour imiter la façon de s’exprimer du président ukrainien à la perfection.

Des capacités malveillantes décuplées

ChatGPT et ses semblables peuvent aussi être des fauteurs de troubles sur le plan cybernétique. Des chatbots utilisant l’IA peuvent générer, de manière autonome, du code propre à mener des attaques au rançongiciel. Fini le temps où ce type d’entreprise était réservé aux génies de l’informatique : les équipes de recherche de la firme de cybersécurité israélienne Check Point ont démontré que des cybercriminels avec peu ou pas d’expérience étaient en mesure d’utiliser ChatGPT pour encoder des courriels d’hameçonnage contenant des logiciels espions. Récupérant des informations dans les forums relatifs à la piraterie numérique, et sans intervention humaine dans le codage, le programme crée une macro permettant d’infecter des fichiers Excel, en plus de composer lui-même le courriel servant d’appât pour piéger des cibles potentielles.

Si, pour certains, l’hameçonnage par courriel ne représente pas une menace, rappelons que plus de 90 % des intrusions menant à des cyberattaques débutent précisément de cette manière. À nouveau, l’IA simplifie grandement le processus de création de ce type de fraude : des programmes comme Unbounce Smart Copy peuvent composer des courriels sans intervention humaine. Ces programmes changent donc la donne en matière d’hameçonnage. Une équipe de l’agence de cybersécurité publique de Singapour, GovTech, a d’ailleurs récemment fait un test sur 200 sujets à qui ils ont envoyé des courriels d’hameçonnage factices, certains écrits par des humains et d’autres par un programme faisant appel à l’IA. Avec une marge significative, les employés étaient plus susceptibles d’ouvrir les courriels composés par l’IA ainsi que de cliquer sur les liens attachés.

Une image vaut mille mots

Les programmes permettant de créer des images libres de droits figurent parmi les récentes avancées dans le domaine de l’IA. Appelés text to image[1], ils créent des clichés en fonction des mots clés fournis par l’utilisateur. Sans réellement « dessiner » lui-même, le programme s’inspire de millions d’images en ligne, qu’il mélange ou superpose en quelques secondes pour obtenir le résultat souhaité. Le problème : là où un deepfake est construit sur des images existantes modifiées, le text to image en crée de nouvelles.

Alors qu’il est possible de retrouver l’image d’origine qui a été utilisée pour créer un deepfake, et ainsi démasquer la supercherie, les clichés produits par un text to image sont fondamentalement nouveaux. Qui plus est, comme les images sont uniques, les incongruités que l’on peut observer dans les images produites de toutes pièces par des opérateurs humains, notamment les contrastes qui jurent avec l’image originale, sont éliminées. Ne demandant que peu ou pas de connaissances informatiques pour les utiliser, ces programmes peuvent donc contribuer à des campagnes de désinformation beaucoup plus convaincantes, en les dotant de « preuves » visuelles qui exigent, pour les démasquer, beaucoup plus de temps, d’efforts et de savoir-faire.

Des législateurs à la traîne

Faute de pouvoir arrêter les fulgurants progrès de l’IA, il faudrait au moins tenter de les réguler. Depuis 2019, plus d’une quarantaine de pays ont annoncé qu’ils allaient introduire des lois pour encadrer les usages de l’intelligence artificielle. Pour l’instant, le Canada paraît en retard à ce chapitre. En juin 2022, le gouvernement fédéral a présenté le projet de loi C-27 aussi appelé charte canadienne du numérique. Or, plusieurs estiment que ce projet ne va pas assez loin. Au sujet de la désinformation, par exemple, il se limite à une déclaration sur la surveillance accrue des tentatives de perturbations électorales. Des spécialistes, consultés par Pablo Rodriguez, ministre responsable de la mise en œuvre d’un futur projet de loi, ont enjoint ce dernier d’inclure des clauses spécifiques au sujet des deepfakes, de l’utilisation d’automates ou bots en soulignant comment l’IA agit comme un multiplicateur de force pour désinformer massivement.

Les acteurs malveillants ne sont heureusement pas les seuls à tirer profit des progrès de l’intelligence artificielle. Un groupe de chercheurs de l’université d’Oxford prévoit que, d’ici 2025, près de 50 % des emplois seront facilités par le recours à ses différentes formes. L’IA présente également différentes utilités pour les chercheurs et organismes actifs dans la cyberdéfense ou la lutte contre la désinformation. En matière de vérification de faits par exemple, l’intelligence artificielle offre aux opérateurs, une fois une fausse information débusquée, de traquer celle-ci dans tous les recoins du web à une vitesse fulgurante, pour en éviter la propagation. L’enjeu de la croisade législative débutée face à l’IA sera donc de concevoir des lois qui ne contraignent pas plus les acteurs bienveillants du cyberespace qu’elles n’entravent ses fauteurs de troubles.

[1] La plateforme Stockimg en est un exemple.

Pour lire la version PDF

 

 

 

 

31 janvier 2023
En savoir plus