Des illusions et des hommes. Deepfake, de quoi parle-t-on ?

Boussad Addad, Ph.D
Des illusions et des hommes. Deepfake, de quoi parle-t-on ?

Sommaire

Crédits
Note de la rédaction :

Initialement, Boussad prévoyait d'écrire un article sur l'application du deepfake au recrutement.
Pour y parvenir, il a d'abord opté pour un article introductif retraçant l'historique de cette technologie. Selon lui, avant d'explorer son impact spécifique sur le recrutement, il est essentiel d'avoir une vue d'ensemble et le recul nécessaire pour en saisir pleinement les enjeux.

Bonne lecture.

D’abord une désillusion d’un père …

Une fois n’est pas coutume, je vais commencer mon article par un message très personnel reçu durant une importante réunion de travail, rappelant à tout un chacun ces passages difficiles que nous réserve parfois la vie :

= = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 

Papa,

Je ne sais pas comment te dire ça... mais je crois que j'ai échoué. J'ai eu les résultats du BAC, et je n'ai pas réussi. J'ai échoué… J'ai honte de t'écrire ça. J'aurais tellement voulu te rendre fière, te montrer que tous tes sacrifices pour moi n'ont pas été vains… mais là, j'ai tout raté.

Je suis désolée... tellement désolée. Je sais que tu comptais sur moi, que tu croyais en moi, et ça me fait mal de te décevoir comme ça. J'ai l'impression d'avoir tout gâché. Tu m'avais pourtant prévenue de rester concentrée, de ne pas baisser les bras… mais malgré tous les efforts que j'ai faits, ce n'était pas suffisant.

Je me sens nulle, inutile. J'ai l'impression d'avoir échoué à plus qu'un examen, comme si j'avais échoué à être la personne que tu mérites.

Je comprends si tu es en colère contre moi, ou déçu. Je le suis aussi. Mais je veux que tu saches que je vais me relever, je vais tout faire pour me rattraper. Je ne sais pas encore comment, mais je vais y arriver.

Pardon, papa … vraiment pardon.

Je t’aime.

Ta fille Shana

= = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 

À peine sorti à ma hâte de la salle de réunion pour passer le coup de fil qui devrait rassurer un peu la fille en détresse – en lui rappelant qu’elle avait une bonne raison d’échouer puisqu’elle était très malade lors des examens –, un bip retentit sur le téléphone. Un enregistrement vidéo est arrivé. Ouvert sans attendre, le cœur battant la chamade.

Deux minutes à visionner cette vidéo et c’est déjà un véritable calvaire. Voir son enfant en pleurs, vous suppliant de le pardonner d’avoir échoué, vous transperce le cœur. Une boule au ventre qui vous empêche de respirer, vous envahit et paralyse littéralement. 

Soudain, la vidéo s’interrompt et un texte s’affiche sur l’écran :

= = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 

Désolée papa, j’ai bien eu mon BAC. Avec mention “très bien” en plus. Prépare du Champagne et du Gazouz - oui, ta fille aime plutôt le Gazouz, va savoir pourquoi ! 😉

Désolée papa, la vidéo que tu viens de regarder est un deepfake que j’ai généré en utilisant une IA. Tu es un champion en IA, mais tu as surtout bien assuré la relève. 😊

Au passage, le SMS que je t’ai envoyé avant l’enregistrement vidéo est aussi un message complètement généré par IA. Pas un seul mot n’est de moi. Zéro coquille pour un message écrit dans un moment de détresse, pas probable que ça soit humain, n’est-ce pas ? 

Aussi, mon dossier pour l’école d’ingé est accepté 😉

Je t’aime mon papounet.

= = = = = = = = = = = = = = = = = = = = = =  = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 

Dans quelques années, les deepfakes seront partout et des histoires comme celles-ci, autrement plus tragiques malheureusement, seront aussi banales que l’envoi d’un email aujourd’hui. Imaginez ce que deviendra la société quand chaque image ou vidéo véhiculera plus de doute que d’information ! Quel avenir pour une société sans confiance dans les moyens et supports de communication ? Mark Zuckerberg promettait de connecter le monde avec le réseau Facebook. Avec l’explosion des deepfakes, chaque connexion sera si fragile que la rupture de cette Toile globale, voire son effondrement total, deviendra quasi certaine. Car si la tromperie existe depuis la nuit des temps, instinct de survie parfois oblige, la propagation de l’information n’a jamais été aussi rapide. Cela change tout. Une fausse nouvelle peut désormais se répandre à la vitesse de la lumière et provoquer des réactions de masse, bien plus que ce que l’humanité a connu tout au long de son histoire.

Retour sur le premier deepfake de l’histoire…

En 1898, le cinéma projeté n’était répandu aux États-Unis que depuis deux ans lorsque la guerre hispano-américaine éclata. Cuba cherchait à se libérer de la domination espagnole, et les tensions étaient à leur comble. Le naufrage de l’USS Maine à La Havane déclencha une avalanche médiatique, poussant les États-Unis à déclarer la guerre à l’Espagne. À cette occasion, la politique de propagande américaine s’était appuyée sur un film intitulé "Shooting Captured Insurgents" pour justifier les hostilités. La vidéo est visible sur YouTube.

Alors que la crise politique à Cuba s’aggravait, la société cinématographique Edison vit une opportunité. Sous le nom d’Edison War-Graph, elle contribua à l’effort de propagande. Son caméraman embarqué avec les troupes américaines prit des images de l’épave du Maine et du lever du drapeau américain, mais regagna la Floride aussitôt, avant le début des combats. La suite du film fut tournée dans le New Jersey, aux États-Unis donc. On y voyait des insurgés cubains fusillés par des soldats espagnols. La vidéo de propagande montée par Edison était donc pour sa partie la plus sensible purement et simplement un fake. Un mélange de vrai et de faux qui rend naturellement la manipulation plus crédible.

On était donc encore loin de l’ère du tout numérique quand la manipulation de la vidéo à des fins plus ou moins avouables a commencé. L’arrivée de l’IA et sa démocratisation ont naturellement rebattu les cartes.

Et puis l’IA entra en scène…

On est au mois d’avril 2018, le site d’information américain Buzzfeed met en ligne une vidéo de Barack Obama dans laquelle il tient un discours peu ordinaire. Il y prononce les mots suivants : « Nous sommes entrés dans une ère où nos ennemis ont la possibilité de faire dire n’importe quoi à n’importe qui à n’importe quel moment, même si ceux-là n’ont rien dit de la sorte. Par exemple, ils peuvent me faire dire : “Killmonger, dans le film Black Panther, avait raison” ou simplement “Trump est définitivement une sous merde”. Voyez-vous, je n’aurais jamais prononcé ce genre de choses, du moins pas publiquement. Mais quelqu’un d’autre le peut. Comme par exemple l’acteur Jordan Peele. » La vidéo se scinde alors en deux et l’acteur Peele apparaît à l’écran et commence à parler en même temps que l’ex-Président américain : « Ceci est une époque dangereuse. Nous devons être vigilants vis-à-vis des contenus auxquels on se fie sur Internet. Il est temps de nous fier qu’aux seules sources d’information fiables. Ça peut avoir l’air basique, mais comment aller de l’avant ? L’ère de l’information sera la différence entre allons-nous survivre ou allons-nous devenir une sorte de Dystopie paumée. Je vous remercie et restez éveillés (...). » 

Cette vidéo n’est ni une plaisanterie ni une mise en scène impliquant une personne portant un masque à l’effigie de Barack Obama. Bien que l’acteur qui parle soit effectivement Jordan Peele, la vidéo du Président n’est évidemment pas authentique, mais le résultat d’une fabrication sophistiquée. Pourtant, pour un œil non averti, il est extrêmement difficile de détecter la moindre anomalie dans cette séquence. Si la retouche d’images à l’aide de logiciels comme Photoshop est courante depuis des années – remplacer une partie d’une image par une autre est presque un jeu d’enfant –, la manipulation vidéo représente un défi bien plus complexe. En effet, pour obtenir un résultat réaliste, ce sont des milliers, voire des millions d’images qu’il faut retoucher de manière cohérente, et ce pour une séquence de quelques minutes seulement. 

Le secret de cette vidéo truquée d’Obama réside dans ce que l’on appelle le Deepfake, un terme anglais composé de "Deep" (en référence aux modèles d’intelligence artificielle profonds ou les réseaux de neurones) et de "Fake" (faux). Un Deepfake désigne une vidéo, une image ou un enregistrement audio manipulé ou généré à l’aide d’algorithmes d’IA. 

La toute première version de cette technologie a été développée par une équipe de chercheurs de l’Université de Washington. Ces derniers ont réussi à produire des vidéos réalistes à partir d’extraits audio. Le principe est simple : prendre une vidéo existante d’une personne, par exemple Nicolas Hulot déclarant « La nature est un bien précieux qu’il faut savoir préserver », et la transformer pour qu’il dise « Le réchauffement climatique n’est qu’une excuse pour nous taxer encore plus ». Le but n’est pas de superposer la voix d’un imitateur, comme dans les parodies classiques, mais de faire en sorte que le corps, et surtout le visage, reflètent parfaitement les paroles prononcées. La zone la plus critique se situe au niveau des lèvres, qui doivent être parfaitement synchronisées avec le son. C’est cette prouesse technique qui a été rendue possible grâce à l’IA. Il suffit donc de disposer d’un extrait audio imitant une personne ou d’un avatar vocal pour l’intégrer de manière réaliste dans une vidéo.

L’IA progresse vite, les deepfakes aussi…

Ce qu’on redoutait avec l’émergence des deepfakes allait bien sûr arriver.

En mai 2018, une vidéo diffusée en ligne montrait Donald Trump conseillant aux Belges de ne pas être « hypocrites » et affirmant qu’il avait le courage pour se retirer de l’Accord de Paris sur le climat, en ajoutant : « pourquoi pas vous ? ». Cette vidéo, partagée sur Facebook et Twitter, s’est révélée être un deepfake. Elle avait été commandée par le parti politique Socialistische Partij Anders à un studio spécialisé dans l’utilisation de l’intelligence artificielle.

La diffusion de cette vidéo a suscité des centaines de commentaires, souvent indignés, de personnes outrées par ce qu’elles percevaient comme une ingérence dans la politique climatique belge. On est en 2025, rien n’a changé de ce côté-là 😊 

La supercherie a fini par être dévoilée. Malgré une qualité de réalisation inférieure à ce que les IA actuelles permettent d’atteindre, de nombreuses personnes ont cru à cette fausse information.

Si cette « blague belge » n’a eu que peu de conséquences, il en va tout autrement pour une affaire survenue à la même époque en Angleterre. Une entreprise du secteur de l’énergie a été victime d’une fraude au président, également connue sous le nom de FOVI (Faux ordre de virement). Dans ce cas, un malfaiteur avait utilisé une IA pour imiter la voix du dirigeant de l’entreprise et demander à un employé de transférer la somme de 240 000 livres sterling sur un compte bancaire hongrois. Bien que le salarié ait trouvé cette demande « étrange », il s’est exécuté, convaincu par le réalisme de la voix.

Avec l’arrivée de ChatGPT, les choses se sont encore accélérées. De nombreuses IA dites « génératives », permettant de générer des données réalistes de type vidéo, image, son …, sont sorties. Des contenus synthétiques, surtout l’image, ont littéralement envahi Internet ! Il n’y a pas un fil d’actualité sur les réseaux sociaux qui échappe à cette invasion. Ces outils à base d’IA se sont plus que jamais démocratisés et ils sont à la portée de tout le monde. Les risques d’utilisation malveillantes ont naturellement augmenté avec cette tendance.

En ce début de l’année 2025, une femme française de 53 ans, a été victime d'une arnaque sentimentale élaborée, au cours de laquelle elle a été escroquée de 830 000 euros par un individu se faisant passer pour l'acteur Brad Pitt. Cette supercherie a été rendue particulièrement convaincante par l'utilisation des deepfakes. 

Le stratagème a débuté en février 2023, lorsque la victime a été contactée sur Instagram par une personne prétendant être la mère de Brad Pitt. Après avoir établi une relation de confiance, un individu se faisant passer pour Brad Pitt a entamé une correspondance avec elle. Pour renforcer l'illusion, l'escroc a envoyé des photos et des vidéos truquées, créées à l'aide de l'IA, représentant l'acteur dans diverses situations, y compris des images le montrant prétendument hospitalisé. 

Ces contenus générés artificiellement ont joué un rôle crucial dans la manipulation de cette femme, rendant la fraude plus crédible et exploitant sa vulnérabilité émotionnelle. Convaincue de la véracité de cette relation virtuelle, la femme a effectué des transferts d'argent substantiels pour aider le faux Brad Pitt, notamment pour des frais médicaux fictifs. 

Cette affaire illustre clairement les dangers croissants des arnaques en ligne utilisant des technologies telles que les deepfakes.

Ne pas voir du noir partout …

Il est vrai que les deepfakes représentent un danger mais ils offrent de nombreuses opportunités, notamment dans le domaine du divertissement et de l’éducation. En cinéma, ils permettent par exemple de recréer la voix ou l’apparence d’acteurs atteints de maladies qui les empêchent de tourner, comme Val Kilmer dans Top Gun : Maverick. Les deepfakes pourraient aussi être utilisés pour faire revivre des légendes du passé, telles que Marlon Brando, Marilyn Monroe ou encore Belmondo. Dans la publicité, ils rendent possible l’utilisation d’images d’icônes comme ça a déjà été fait avec par exemple Bruce Lee ou Catherine Deneuve.  

Au-delà du divertissement, cette technologie révolutionne aussi la traduction en synchronisant les lèvres et les voix des acteurs dans différentes langues, facilitant ainsi la diffusion mondiale des films. Les jeux vidéo bénéficieront également des deepfakes en permettant aux joueurs d’intégrer leur propre apparence dans un jeu. L’immersion atteindra des niveaux redoutables, l’addiction aussi malheureusement…  

Aussi, l’impact des deepfakes sur l’éducation est prometteur : des figures historiques comme Abraham Lincoln, Einstein ou Eisenhower pourraient transmettre leurs connaissances à travers des vidéos hyperréalistes, rendant l’apprentissage plus immersif et engageant. J’aurais été personnellement tellement plus motivé à mieux suivre les cours de chimie si j’avais comme professeure Marie-Curie, même en visioconférence. 😊

Cliquez sur l'image pour voir la vidéo complète et découvrir d'autres figures historiques.

Les deepfakes peuvent aussi transformer le domaine de l’information. Grâce à cette technologie, il devient possible de créer des présentateurs virtuels capables de diffuser des actualités en plusieurs langues, avec une synchronisation parfaite des mouvements et de la voix. De plus, les archives historiques peuvent être enrichies par des vidéos réalistes où des figures marquantes expliquent des événements clés, rendant l’histoire plus accessible. 

Enfin, les deepfakes trouvent également des applications prometteuses dans le domaine médical. En psychothérapie, ils peuvent être utilisés pour aider des patients à surmonter des phobies en leur permettant de voir leur propre avatar accomplir des actions qu’ils redoutent, comme prendre l’avion ou parler en public. Cette immersion progressive peut faciliter la désensibilisation et renforcer la confiance en soi. De plus, en rééducation, les deepfakes peuvent aider les patients à visualiser leurs progrès ou à interagir avec un double numérique pour améliorer leur récupération motrice.

Dans un futur proche, les deepfakes feront probablement leur entrée dans le processus de recrutement, pour le meilleur et pour le pire, mais ce sujet sera traité dans le prochain article. Le sujet de la prévention pour minimiser les risques y sera également abordé. Soyez donc au rendez-vous !

Conclusion…

L’IA sera ce qu’on en fera. Elle est comme tout outil à double tranchant, et seul un esprit critique bien aiguisé fera pencher la balance du bon côté de la force. 

Et un petit jeu pour finir : dans les images ci-dessous, laquelle est réelle et laquelle est fausse ?

Image 1
Image 2

Si vous souhaitez découvrir comment les deepfakes bouleverseront et changeront de façon radicale la vie des hommes, je vous invite à lire mon dernier livre (à découvrir ici).

Regardez bien.

Et la réponse est ...

Les deux sont fakes.

Image 1

Image 2
Ne manquez rien !

Chaque mois, recevez un récap des derniers articles publiés directement dans votre boîte mail. 

À propos de l'auteur·e
Boussad Addad, Ph.D
Linkedin

Chercheur dans un laboratoire privé spécialisé en intelligence artificielle. Docteur diplômé de l'École Normale Supérieure de Paris-Saclay, il a reçu en 2013 à Strasbourg le prix de la meilleure thèse de doctorat en France.