Le mot "deepfake" est entré dans le vocabulaire courant autour de 2018, mais il reste souvent confondu avec d'autres types de manipulations visuelles. Une image générée par Midjourney, c'est un deepfake ? Et une vidéo où un politique semble tenir des propos qu'il n'a jamais tenus ? Mettons les choses au clair.

En 2026, la distinction est plus importante que jamais : les outils de manipulation visuelle se sont démultipliés, les cas d'usage malveillants se sont diversifiés, et la capacité à distinguer ces différentes formes de manipulation est devenue une compétence civique de base.

Deepfake vs image IA : quelle différence ?

La confusion est fréquente, mais les deux concepts sont distincts.

Une image IA (ou image générative) est créée de toutes pièces par un algorithme à partir d'une description textuelle. Elle ne représente aucune personne ou scène réelle — c'est une invention complète. Midjourney, DALL-E ou Stable Diffusion produisent ce type d'images.

Un deepfake, en revanche, part d'un matériau existant — une photo ou une vidéo d'une vraie personne — et le manipule pour lui faire dire ou faire quelque chose qu'elle n'a jamais dit ou fait. L'IA sert ici à transposer les traits d'une personne réelle sur un autre corps, ou à modifier ses expressions et sa voix de façon convaincante.

Image IA générative Deepfake
Point de départ Texte (prompt) Photo/vidéo réelle d'une personne
Personne représentée Inventée ou composite Réelle, manipulée
Risque principal Désinformation générale Atteinte à la réputation, arnaque
Exemples d'outils Midjourney, DALL-E, Stable Diffusion DeepFaceLab, FaceSwap, outils vidéo IA

En pratique, les deux catégories se chevauchent de plus en plus. Il est désormais possible de générer une image entièrement IA représentant de façon très réaliste une célébrité existante — techniquement de la génération IA, mais avec les effets sociaux d'un deepfake.

Comment fonctionne un deepfake ?

Les premiers deepfakes s'appuyaient sur les GAN (Generative Adversarial Networks) : deux réseaux de neurones s'affrontent en boucle, l'un générant des faux, l'autre tentant de les détecter. Cette confrontation permanente améliore progressivement la qualité du résultat.

Aujourd'hui, les modèles de diffusion — la même architecture qui propulse Midjourney ou Stable Diffusion — sont de plus en plus utilisés pour le face-swap et la manipulation vidéo. Ils produisent des résultats plus stables et plus cohérents que les anciens GAN.

Concrètement, un deepfake facial ("face-swap") nécessite :

  • Un corpus d'images du sujet cible (quelques dizaines à quelques centaines suffisent aujourd'hui)
  • Une vidéo source sur laquelle superposer le visage
  • Un modèle entraîné à cartographier les expressions et les mouvements d'un visage à l'autre

Les deepfakes vocaux suivent une logique similaire : un modèle apprend le timbre et les intonations d'une voix à partir d'enregistrements, puis génère de nouveaux mots dans cette voix.

Les signes qui trahissent un deepfake

Détecter un deepfake vidéo est différent de détecter une image IA statique. Voici les indices spécifiques à surveiller :

Le clignement des yeux

Les premiers modèles de deepfake avaient du mal à reproduire le clignement naturel des yeux. Bien que les modèles récents aient comblé cette lacune, un clignement trop rare, trop fréquent ou visuellement saccadé reste un signal d'alerte.

Les contours du visage

La ligne de transition entre le visage manipulé et le cou ou les cheveux de la personne source est souvent la zone la plus difficile à rendre naturelle. Un halo subtil, un effet de "masque" ou une texture différente en bordure de visage est l'un des signes les plus fiables.

Les incohérences lumineuses

La lumière sur le visage superposé ne correspond pas toujours à la lumière de la scène. Si le visage semble éclairé différemment du reste du corps, ou si les ombres portées ne respectent pas la source lumineuse visible, c'est suspect.

Les mouvements mécaniques ou les micro-expressions

Les vraies expressions humaines impliquent des dizaines de muscles. Un deepfake peut rater les micro-expressions — ces frémissements fugaces autour des yeux ou de la bouche qui durent moins d'une demi-seconde et qui donnent sa crédibilité à une expression.

Pour les photos statiques présentées comme des deepfakes, les mêmes indices qu'une image IA s'appliquent : contours, cohérence lumineuse, et zones de transition entre le sujet et l'arrière-plan.

Les deepfakes en 2026 : de plus en plus réalistes

En 2018, un deepfake amateur se repérait en quelques secondes. En 2026, les meilleurs deepfakes passent inaperçus auprès du grand public et nécessitent des outils d'analyse forensique pour être détectés avec certitude.

Plusieurs facteurs expliquent cette évolution rapide : la démocratisation des outils (certains sont accessibles en ligne gratuitement), l'augmentation de la puissance de calcul disponible, et la disponibilité de grandes bases de données d'images et de vidéos pour l'entraînement des modèles.

Les enjeux sont réels : deepfakes à visée pornographique non consentis, manipulation politique, arnaques financières (faux PDG en visioconférence), ou simple désinformation à grande échelle. La France a renforcé son arsenal législatif sur le sujet, mais la détection reste principalement l'affaire des plateformes et des individus avertis.

Comment tester votre capacité à détecter les deepfakes ?

La théorie aide, mais rien ne remplace la pratique. Fake or Real propose des images qui couvrent tout le spectre : des générations IA "classiques" aux manipulations les plus poussées des modèles 2025-2026. Chaque partie est aussi une session d'entraînement.

Saurez-vous faire la différence entre une vraie photo et une image manipulée par IA ? Testez-vous maintenant.

Jouer à Fake or Real →

Avec de la pratique régulière, vous développerez une forme d'intuition visuelle qui va au-delà des indices conscients listés dans cet article. C'est cette compétence — reconnaître qu'une image "ne sonne pas juste" — qui fait la différence face aux deepfakes les plus sophistiqués.

En résumé

Un deepfake manipule l'image d'une personne réelle, tandis qu'une image IA crée quelque chose de toutes pièces. Les deux posent des problèmes de confiance dans les médias visuels, mais avec des mécanismes et des risques différents. Les signes à surveiller sur un deepfake : les contours du visage, la cohérence lumineuse, le clignement des yeux et les micro-expressions. Et dans tous les cas : s'entraîner reste la meilleure défense.