Le mot "deepfake" est entré dans le vocabulaire courant autour de 2018, mais il reste souvent confondu avec d'autres types de manipulations visuelles. Une image générée par Midjourney, c'est un deepfake ? Et une vidéo où un politique semble tenir des propos qu'il n'a jamais tenus ? Mettons les choses au clair.
En 2026, la distinction est plus importante que jamais : les outils de manipulation visuelle se sont démultipliés, les cas d'usage malveillants se sont diversifiés, et la capacité à distinguer ces différentes formes de manipulation est devenue une compétence civique de base.
Deepfake vs image IA : quelle différence ?
La confusion est fréquente, mais les deux concepts sont distincts.
Une image IA (ou image générative) est créée de toutes pièces par un algorithme à partir d'une description textuelle. Elle ne représente aucune personne ou scène réelle — c'est une invention complète. Midjourney, DALL-E ou Stable Diffusion produisent ce type d'images.
Un deepfake, en revanche, part d'un matériau existant — une photo ou une vidéo d'une vraie personne — et le manipule pour lui faire dire ou faire quelque chose qu'elle n'a jamais dit ou fait. L'IA sert ici à transposer les traits d'une personne réelle sur un autre corps, ou à modifier ses expressions et sa voix de façon convaincante.
| Image IA générative | Deepfake | |
|---|---|---|
| Point de départ | Texte (prompt) | Photo/vidéo réelle d'une personne |
| Personne représentée | Inventée ou composite | Réelle, manipulée |
| Risque principal | Désinformation générale | Atteinte à la réputation, arnaque |
| Exemples d'outils | Midjourney, DALL-E, Stable Diffusion | DeepFaceLab, FaceSwap, outils vidéo IA |
En pratique, les deux catégories se chevauchent de plus en plus. Il est désormais possible de générer une image entièrement IA représentant de façon très réaliste une célébrité existante — techniquement de la génération IA, mais avec les effets sociaux d'un deepfake.
Comment fonctionne un deepfake ?
Les premiers deepfakes s'appuyaient sur les GAN (Generative Adversarial Networks) : deux réseaux de neurones s'affrontent en boucle, l'un générant des faux, l'autre tentant de les détecter. Cette confrontation permanente améliore progressivement la qualité du résultat.
Aujourd'hui, les modèles de diffusion — la même architecture qui propulse Midjourney ou Stable Diffusion — sont de plus en plus utilisés pour le face-swap et la manipulation vidéo. Ils produisent des résultats plus stables et plus cohérents que les anciens GAN.
Concrètement, un deepfake facial ("face-swap") nécessite :
- Un corpus d'images du sujet cible (quelques dizaines à quelques centaines suffisent aujourd'hui)
- Une vidéo source sur laquelle superposer le visage
- Un modèle entraîné à cartographier les expressions et les mouvements d'un visage à l'autre
Les deepfakes vocaux suivent une logique similaire : un modèle apprend le timbre et les intonations d'une voix à partir d'enregistrements, puis génère de nouveaux mots dans cette voix.
Les signes qui trahissent un deepfake
Détecter un deepfake vidéo est différent de détecter une image IA statique. Voici les indices spécifiques à surveiller :
Le clignement des yeux
Les premiers modèles de deepfake avaient du mal à reproduire le clignement naturel des yeux. Bien que les modèles récents aient comblé cette lacune, un clignement trop rare, trop fréquent ou visuellement saccadé reste un signal d'alerte.
Les contours du visage
La ligne de transition entre le visage manipulé et le cou ou les cheveux de la personne source est souvent la zone la plus difficile à rendre naturelle. Un halo subtil, un effet de "masque" ou une texture différente en bordure de visage est l'un des signes les plus fiables.
Les incohérences lumineuses
La lumière sur le visage superposé ne correspond pas toujours à la lumière de la scène. Si le visage semble éclairé différemment du reste du corps, ou si les ombres portées ne respectent pas la source lumineuse visible, c'est suspect.
Les mouvements mécaniques ou les micro-expressions
Les vraies expressions humaines impliquent des dizaines de muscles. Un deepfake peut rater les micro-expressions — ces frémissements fugaces autour des yeux ou de la bouche qui durent moins d'une demi-seconde et qui donnent sa crédibilité à une expression.
Les deepfakes en 2026 : de plus en plus réalistes
En 2018, un deepfake amateur se repérait en quelques secondes. En 2026, les meilleurs deepfakes passent inaperçus auprès du grand public et nécessitent des outils d'analyse forensique pour être détectés avec certitude.
Plusieurs facteurs expliquent cette évolution rapide : la démocratisation des outils (certains sont accessibles en ligne gratuitement), l'augmentation de la puissance de calcul disponible, et la disponibilité de grandes bases de données d'images et de vidéos pour l'entraînement des modèles.
Les enjeux sont réels : deepfakes à visée pornographique non consentis, manipulation politique, arnaques financières (faux PDG en visioconférence), ou simple désinformation à grande échelle. La France a renforcé son arsenal législatif sur le sujet, mais la détection reste principalement l'affaire des plateformes et des individus avertis.
Comment tester votre capacité à détecter les deepfakes ?
La théorie aide, mais rien ne remplace la pratique. Fake or Real propose des images qui couvrent tout le spectre : des générations IA "classiques" aux manipulations les plus poussées des modèles 2025-2026. Chaque partie est aussi une session d'entraînement.
Saurez-vous faire la différence entre une vraie photo et une image manipulée par IA ? Testez-vous maintenant.
Jouer à Fake or Real →Avec de la pratique régulière, vous développerez une forme d'intuition visuelle qui va au-delà des indices conscients listés dans cet article. C'est cette compétence — reconnaître qu'une image "ne sonne pas juste" — qui fait la différence face aux deepfakes les plus sophistiqués.
En résumé
Un deepfake manipule l'image d'une personne réelle, tandis qu'une image IA crée quelque chose de toutes pièces. Les deux posent des problèmes de confiance dans les médias visuels, mais avec des mécanismes et des risques différents. Les signes à surveiller sur un deepfake : les contours du visage, la cohérence lumineuse, le clignement des yeux et les micro-expressions. Et dans tous les cas : s'entraîner reste la meilleure défense.