Les deepfake deviennent-ils une nouvelle arme pour les opérations psychologiques ? Nous allons tout d'abord définir ce qu’est un deepfake puis expliquer en quoi ils sont une menace pour la défense.
La forme des guerres modernes évolue beaucoup par rapport à ce qu’il a été historiquement connu. Une des dernières guerres en date illustre parfaitement la situation : la guerre de 2020 au Haut-Karabagh. Opposant l’Azerbaïdjan et l’Arménie, l’affrontement a été marqué par l’utilisation massive de drones. Ainsi, la place centrale des drones dans les futurs conflits semble se confirmer par cet affrontement. Cependant, d’autres formes ou terrains d’affrontements pourraient aussi apparaître dans les guerres modernes. Les opérations psychologiques (PSYOP) pourraient bien devenir un nouveau point central dans les conflits. Ces opérations militaires visent à transmettre des informations à des publics afin d'influencer leurs émotions, leurs motivations et leur raisonnement objectif. In fine, le but est d’influencer les individus pour arriver à impacter le comportement des organisations ou des gouvernements. Il s’agit de batailles où la parole et les images sont les principales armes.
Ce type d’opération peut prendre diverses formes, telles que des opérations d’intoxication (fakes news), opérations de propagande ou encore par des actions concrètes comme l’approvisionnement en nourriture d’une population locale accompagné de prospectus afin de gagner leur confiance (cf. l’action américaine en Somalie (5)).
Avec le progrès technologique arrivent de nouvelles menaces et de nouveaux moyens d’action. Une tendance nouvelle consiste à utiliser l'intelligence artificielle pour créer de fausses videos connues sous le nom de "deepfakes". Étymologiquement le terme “deepfake” est le produit du croisement entre les mots "deep learning" et "fake". Il s’agit d’une technique de synthèse d'images et de vidéo basée sur l'intelligence artificielle. Elles sont souvent utilisées pour usurper l'identité d’un individu pour lui faire tenir un discours au choix du créateur. Pour plus de réalisme, ces vidéos sont combinées et superposées à des images et des vidéos existantes. Pour cela les concepteurs s’appuient sur une technique d'apprentissage automatique utilisant des "réseaux adversariaux génératifs" (GAN). Au bilan la combinaison des vidéos existantes et des vidéos ainsi produites permet d'obtenir une fausse vidéo montrant une ou plusieurs personnes dans le contexte d'un événement qui ne s'est en fait jamais produit. Les effets de telles vidéos peuvent être dévastateurs car ils peuvent rapidement abuser de la crédulité des gens. La caisse de résonance des réseaux sociaux multipliant la diffusion de cette “fake news”, celle-ci peut avoir un impact bien plus grand que les tentatives pour la démentir.
Experts ou simples passionnés peuvent aujourd’hui accéder pour un coût dérisoire à cette technologie. Avec assez peu de moyens et de compétences il est possible de manipuler des images, des vidéos, du son ou du texte. La différence de moyens entre les acteurs se ressent sur la difficulté à détecter la manipulation. Mais l’écart entre les professionnels et les amateurs se ressert, il est possible que bientôt même les spectateurs les plus attentifs puissent être trompés lors de leur visionnage. En tout cas, le nombre de deepfakes augmente. Selon les chercheurs de la société Deeptrace, le nombre de vidéos deepfakes trouvées en ligne en 2019 étaient d’environ 15000, contre un peu moins de 8000 vidéos recensées un an auparavant (2).
Les deepfakes pourraient être utilisées pour interférer dans une élection, semer le chaos politique ou entraver des opérations militaires au travers de PSYOPS, ce qui en fait pour les états une question de sécurité nationale.
Nous l’avons compris, les deepfakes sont une menace, puisque même des acteurs non étatiques pourraient utiliser l'intelligence artificielle comme outil pour semer la discorde à de grandes ampleurs au sein des opinions publiques. L’armée, notamment américaine, prend la menace au sérieux et travaille sur la détection d’images et vidéos deepfakes. Cependant le réalisme toujours plus abouti des deepfakes rend leur détection de plus en plus complexe. Démêler le vrai du faux est devenu un challenge, si bien que nous assistons à une course entre l’épée et la cuirasse. "Théoriquement, si vous donnez à un GAN toutes les techniques que nous connaissons pour le détecter, il pourrait passer toutes ces techniques", déclare David Gunning, le responsable du programme DARPA en charge du projet. "Nous ne savons pas s'il y a une limite. Ce n'est pas clair. " (1).
Même si les géants du web (Facebook, Microsoft et Google) travaillent actuellement sur le développement d’outils visant à reconnaître un deepfake, ces derniers ne sont pas encore assez performants. On estime leur taux de détection correct, pour les meilleurs systèmes, à 66% sur des vidéos inédites, pour lesquelles il n’avait pas été entraîné au préalable (3). L’épée pour l’instant a le dessus sur la cuirasse mais pour combien de temps ?
Retrouvez tous nos articles sur : https://numalis.com/publications.php
Sources :