Enderi

Accueil
Envoyer à un ami
Version imprimable


Le phénomène des "deepfakes" et leurs applications en intelligence économique: une nouvelle menace fantôme ?




Publié par L. Labat & R. Lebrun le 22 Avril 2020

La question de la reconnaissance faciale et des progrès de l’IA rebat les cartes des méthodes de déstabilisation de concurrents et leur détection est aujourd’hui un fort enjeu stratégique. Ces technologies pourraient amener le renseignement économique à révolutionner ses pratiques en ayant recours à la désinformation par la déformation de voix et de visages.



Il s’agit sans doute d’un des premiers cas concrets d’utilisation du deepfake à des fins malveillantes. En mars 2019, le dirigeant d’une filiale anglaise reçoit un appel téléphonique de celui qu’il pense être le directeur général (allemand) de la société mère. En réalité, il a affaire à un escroc dont la voix est modifiée en direct par un algorithme pour épouser au mieux celle de son directeur général. Ignorant tout de cette nouvelle arnaque, le dirigeant ne se doute de rien lorsqu’il lui est demandé de transférer 220 000 euros sur le compte d’un fournisseur hongrois, et s’exécute. Il racontera plus tard que le piège était indécelable : la « mélodie » de la voix était parfaitement identique à celle du directeur, tout comme l’accent allemand subtil dans sa façon de parler. À l’heure actuelle, les suspects n’ont toujours pas été identifiés. L’algorithme utilisé est lui aussi inconnu.

Bien qu’il s’agisse du premier cas de fraude par deepfake connu à ce jour, cette méthode représente déjà une menace depuis plusieurs années. Sa puissance avait été révélée au monde entier en avril 2018 après qu’une vidéo de Barack Obama est devenue virale. Impressionnante et effrayante de réalisme, on y voit l’ex-Président des États-Unis prendre la parole à son bureau : « Nous entrons dans une ère où nos ennemis peuvent faire croire que n'importe qui dit n'importe quoi à n'importe quel moment. Ainsi, ils pourraient me faire dire des choses comme, je ne sais pas, [...] le président Trump est un idiot total et absolu ! ». Il s’agissait en fait d’un montage d’images réalisé pour nous inciter à faire preuve de méfiance.
 
L’origine de cette nouvelle tendance réside dans la démocratisation de l’intelligence artificielle et des algorithmes de deep learning. Là où la puissance de calcul de logiciels de services de déstabilisation devait être conséquente pour truquer une vidéo de façon authentique — une mémoire RAM de 16Go minimum est nécessaire pour animer rapidement une photo en 3D — du matériel grand public et quelques logiciels adaptés suffisent désormais à un développeur averti pour coder son propre réseau de neurones en quelques heures. Les deepfakes sont en effet créées à partir de deux réseaux neuronaux qui s'entraînent mutuellement. Les deux partent avec le même jeu de données d’apprentissage constitué de photos de la cible à déstabiliser. Par des translations de formes et des détections d’expressions, ils parviennent à simuler un jeu de test contenant de nouvelles expressions de visages qu’ils soumettent à leur adversaire virtuel. Si celui-ci ne classifie pas la nouvelle expression comme fausse, elle est stockée et va servir directement pour le montage de la vidéo. Cette technique est appelée GAN — Generative Adversarial Networks — et a été introduite par Goodfellow dès 2014. Si des réseaux de neurones de convolution sont souvent utilisés, l’enjeu de tels algorithmes repose sur la qualité des images en inputs et sur leur vitesse d'entraînement.
 
Pour faire face à cette menace grandissante, des outils ont été développés pour analyser les vidéos et juger leur authenticité. Facebook a déjà implémenté certains de ces algorithmes sur sa plateforme. Récemment, la firme de Menlo Park a également organisé un concours pour encourager les chercheurs à trouver des solutions toujours plus poussées et robustes. Car le progrès se poursuit des deux côtés : il y a quelques jours, une équipe de chercheurs de l'université de San Diego dit être parvenue à tromper, de manière relativement simple, les systèmes de détection des deepfakes en superposant des perturbations à leurs vidéos, comme du bruit gaussien.
 
Une telle méthode constitue évidemment un réel pouvoir de nuisance, d’autant que son existence est toujours ignorée d’une grande partie de la population. Ses applications sont multiples et variées.
 
Recueillir de l’information

Récolter des informations en se faisant passer pour quelqu’un d’autre ne relève plus du roman d’espionnage. C’est une nouvelle façon d’attaquer une personne en particulier, une entreprise, un gouvernement et d’accéder à des données confidentielles, par un simple appel téléphonique ou une vidéoconférence trafiquée par deepfake. Pour des services de renseignement avertis, un hack de ligne téléphonique ou de compte Skype suivi d’une telle manipulation pourrait conduire à des visioconférences truquées en direct. Des chercheurs du spécialiste des cartes graphiques Nvidia ont par exemple affirmé en octobre 2017 avoir réussi à générer des deepfakes en quelques minutes à partir de photos de stars du cinéma.
 
Attaquer et afficher quelqu’un

Deux phénomènes particulièrement connus des jeunes générations ont rongé Internet ces dernières années : le cyber-bullying (harcèlement en ligne) et le revenge porn (publication de vidéos pornographiques contre la volonté d’une personne, généralement pour se venger). Si l’affaire Griveaux a fait grand bruit ces dernières semaines — et démontre la puissance de telles méthodes — nul doute que nous nous dirigeons vers une multiplication de publications similaires à l’avenir. Néanmoins, il faudra démêler le vrai du faux. En la matière, la vidéo fake virale d’un homme confessant avoir eu des relations sexuelles avec le chef de cabinet d’un ministre malais a provoqué une levée de bouclier contre le gouvernement qui préparait une réforme économique importante.
 
La manipulation de masse

L’affaire du Qatar de mai 2017 est un exemple qui risque de se reproduire à l’avenir. À l’époque, un hackeur était parvenu à pénétrer l’organe de presse qatari, alléguant un soutien de l’Iran et du Hamas par l’Émir et affirmant qu’il critiquait ouvertement les États-Unis et Trump. Le pays s’est alors retrouvé isolé sur la scène internationale, accusé par ses partenaires de soutenir le terrorisme. Dans une autre optique moins déstabilisatrice, The Economist émet l’hypothèse que cette technologie pourrait servir à manipuler la consommation par les marketers en changeant rapidement les visages des publicités selon les idéaux de beauté de chacun des téléspectateurs. Enfin, un des meilleurs exemples de renseignement économique pouvant déstabiliser économiquement un pays reste sans conteste la tentative ratée de coup d’État fin 2018 au Gabon. Le président Ali Bongo avait en effet effectué peu d’apparitions publiques, raffermissant la thèse d’une maladie ; la vidéo le présentant dans un état grave aura été l’étincelle provoquant le coup d’État raté de l’armée soutenue par une partie de la population.
 
Quel que soit l’objectif de la manœuvre, les cabinets de renseignement prennent cette menace très au sérieux. En témoigne un récent rapport du spécialiste Kroll qui affirme s’être réorganisé pour contrer cette menace, prenant pour exemple une entreprise ayant fait face à une chute brutale de sa capitalisation de près de 71% après que fausses vidéos et documents ont été diffusés à des analystes via WhatsApp. Selon ces derniers, le contrôle étroit des photos publiques de cadres ou de contenus les affichant ainsi que la prévention sont des clés pour contrer cette menace fantôme.
 



Nouveau commentaire :

ENDERI promeut la liberté d'expression, dans le respect des personnes et des opinions. La rédaction d'ENDERI se réserve le droit de supprimer, sans préavis, tout commentaire à caractère insultant, diffamatoire, péremptoire, ou commercial.