Un message téléphonique automatique, appelé « robocall », imite la voix du président Joe Biden et demande aux électeurs du New Hampshire de ne pas se rendre aux urnes pour les primaires de l’élection présidentielle de novembre. En Indonésie, une vidéo générée par l’intelligence artificielle (IA) devient virale : l’image et la voix de Suharto, le dictateur indonésien décédé, sont utilisées pour appeler les électeurs à voter pour le parti Golkar.
Deux exemples parmi tant d’autres de l’exploitation de l’intelligence artificielle pour manipuler l’opinion publique.
« L’intelligence artificielle renforce le pouvoir de la désinformation, a déclaré Olivier Lechien, expert Citoyens et institutions à l'AFD, lors de la conférence sur l’IA organisée à Paris par l’AFD en janvier. Les images semblent très crédibles, le son imite parfaitement la voix du président américain appelant les électeurs à ne pas voter aux primaires. Plus ces productions sont plausibles, plus les gens peuvent être tentés de croire des choses tout à fait fausses. »
Une tromperie de masse, produite à grande échelle
La désinformation et les deepfakes (contenus vidéo ou audio réalisés ou modifiés grâce à l'IA) qui ont influencé les élections ces dernières années sont de plus en plus puissants. Sur les réseaux sociaux, des individus créent et diffusent de fausses informations depuis un certain temps déjà mais, avec la nouvelle technologie d’IA générative, ces messages peuvent être produits en quelques minutes et se propager comme une traînée de poudre.
Lire aussi : L’intelligence artificielle se met au service des Objectifs de développement durable
L'écran dans l’auditorium de la conférence diffuse des images spectaculaires : le candidat à la présidence américaine Donald Trump en train de fuir la police, le président français Emmanuel Macron manifestant contre la réforme des retraites portée par son propre gouvernement, et le pape François vêtu d'une grande doudoune dans le style de celles que portent les rappeurs. Toutes ces images sont fausses, elles ont été générées par un logiciel d’IA.
« Nous avons constaté un développement rapide de l’IA, déclare Peter Addo, lead data scientist à l'AFD et responsable de l’Emerging Tech Lab. En 2024, je m’attends à de nombreux scandales électoraux liés aux deepfakes. C’est déjà le cas. Aujourd’hui, les outils qui ont été créés sont bien établis : tout le monde peut se procurer un outil d’IA et commencer à l’utiliser. »
Regarder la vidéo replay de la conférence ici :
Réguler le Far West
En décembre 2023, le Parlement européen et le Conseil européen se sont mis d’accord sur un projet de loi relative à l’intelligence artificielle qui vise à protéger les populations de la manipulation et du profilage social.
En vertu de ce projet de loi pionnier, les systèmes d’IA devront se conformer à des exigences de transparence. De plus, un système de notation classera les systèmes d’IA en fonction des risques qu’ils présentent pour les droits humains. Par exemple, les systèmes d’IA utilisés pour influencer des résultats d’élections et les comportements des électeurs seront classés comme présentant un risque élevé ou « inacceptable ».
Tout comme le Règlement général sur la protection des données (RGPD) de l’UE relatif à la confidentialité des données a servi de modèle réglementaire à d’autres pays, cette nouvelle loi sur l’IA pourrait également ouvrir une voie.
« Avec la loi sur l’IA et le règlement sur les services numériques, il existe un cadre complet qui permet de gérer les risques systémiques qui pèsent sur l’espace public numérique », explique Anastasia Stasenko, maître de conférences en stratégie numérique et en analyse de données à l’université Sorbonne-Nouvelle et fondatrice de la start-up Pleias.
Ces réglementations, qui font partie des premières législations sur l’IA dans le monde, pourraient servir de modèle de gouvernance aux pays qui éprouvent des difficultés à suivre le rythme effréné du développement de l’IA.
« Les réglementations sur l’intelligence artificielle [sont nées] d’une vision claire et partagée par les pays européens », a déclaré Élisabeth Barsacq, cheffe du service des affaires européennes et internationales de la CNIL, la Commission nationale française de l’informatique et des libertés. « Avec le RGPD, je pense qu’il s’agit d’une base solide sur laquelle les entreprises, les ONG et les institutions peuvent s’appuyer, dans tous les pays du Sud. »
Rendre l’IA accessible aux pays du Sud
« La question est de savoir comment elle sera mise en œuvre, explique Anastasia Stasenko. Mais avant de pouvoir commencer à rédiger de telles législations, il faut que les pays en développement aient la possibilité d'accéder à de meilleures infrastructures et capacités pour développer l’IA. Sans ces infrastructures, ils connaîtront une grande fracture numérique. »
La plupart des pays manquent des ressources informatiques nécessaires à la conduite de leurs propres initiatives d’IA, ainsi que des capacités à détecter les faux générés par l’IA. « Ils ont besoin d’une IA diversifiée et adaptée à leur culture, mais aussi de capacités qui permettent aux communautés de construire leurs propres écosystèmes d’IA », précise Anastasia Stasenko.
Cela signifie qu’il faudra partager des outils d’apprentissage du langage de l’IA et des ensembles de données sur des plateformes open source afin que les communautés des pays du Sud puissent perfectionner leurs propres systèmes.
Lire aussi : Prospecteur ODD : l’intelligence artificielle au service de l’Agenda 2030
Sensibilisation à l’IA
« L’IA est à la fois une menace et une partie de la solution, explique Olivier Lechien. La bonne nouvelle, c’est que l’IA aide également les fact-checkers (qui vérifient les informations) à déterminer si une image, un texte ou un son est faux. »
Toujours selon l'expert de l'AFD, les dirigeants politiques pourraient éviter les ingérences en consultant plus souvent leurs électeurs. L’organisation d’élections tous les quatre ou cinq ans laisse le temps aux pirates informatiques et aux manipulateurs de se préparer. À l’inverse, la multiplication des consultations politiques, en particulier au niveau local, leur rend la tâche plus difficile. « Ils ne peuvent pas être partout, tout le temps », ajoute-t-il.
Le groupe AFD soutient plusieurs projets en faveur de l’accès à l’information, de la gouvernance numérique et de la participation citoyenne. Les initiatives sont diverses, comme le projet MediaSahel qui aide les jeunes à s’impliquer dans les médias en Afrique de l’Ouest et centrale, ou le projet Qarib, qui soutient les médias dont l’objectif est de réduire les tensions et d’améliorer les relations entre les communautés et les autorités publiques au Moyen-Orient.
« Nous devons repenser les systèmes éducatifs à tous les niveaux, des programmes pédagogiques à la formation des enseignants, explique Peter Addo. Nous devons renforcer les capacités relatives aux données et à l’IA ainsi que les compétences de pensée critique afin de pouvoir remettre en question tout ce que nous voyons en ligne. »
Rejoignez-nous pour la prochaine conférence le 26 mars : IA pour un avenir durable et inclusif, une journée de sessions plénières et d'ateliers