La palabra "deepfake" entró en el vocabulario cotidiano alrededor de 2018, pero todavía se confunde con frecuencia con otros tipos de manipulación visual. ¿Una imagen generada por Midjourney es un deepfake? ¿Y un vídeo en el que un político parece decir cosas que nunca dijo? Aclaremos las cosas.

En 2026, la distinción importa más que nunca: las herramientas de manipulación visual se han multiplicado, los usos maliciosos se han diversificado y la capacidad de distinguir estas diferentes formas de manipulación se ha convertido en una competencia cívica fundamental.

Deepfake vs imagen IA: ¿cuál es la diferencia?

La confusión es habitual, pero se trata de dos conceptos distintos.

Una imagen IA (o imagen generativa) se crea desde cero mediante un algoritmo a partir de una descripción textual. No representa a ninguna persona ni escena real: es una invención completa. Midjourney, DALL-E o Stable Diffusion producen este tipo de imágenes.

Un deepfake, en cambio, parte de un material existente — una foto o un vídeo de una persona real — y lo manipula para hacerle decir o hacer algo que nunca dijo ni hizo. La IA se utiliza aquí para transponer los rasgos de una persona real sobre otro cuerpo, o para modificar sus expresiones y su voz de forma convincente.

Imagen IA generativa Deepfake
Punto de partida Texto (prompt) Foto/vídeo real de una persona
Persona representada Ficticia o compuesta Real, manipulada
Riesgo principal Desinformación general Daño reputacional, fraude
Herramientas de ejemplo Midjourney, DALL-E, Stable Diffusion DeepFaceLab, FaceSwap, herramientas de vídeo IA

En la práctica, ambas categorías se solapan cada vez más. Ahora es posible generar una imagen completamente sintética que represente de forma muy realista a una celebridad existente: técnicamente es generación IA, pero con los efectos sociales de un deepfake.

¿Cómo funciona un deepfake?

Los primeros deepfakes se basaban en las GAN (Redes Generativas Antagónicas): dos redes neuronales compiten en bucle, una generando falsificaciones y la otra intentando detectarlas. Esta confrontación permanente mejora progresivamente la calidad del resultado.

Hoy en día, los modelos de difusión — la misma arquitectura que impulsa Midjourney o Stable Diffusion — se utilizan cada vez más para el intercambio de rostros y la manipulación de vídeo. Producen resultados más estables y coherentes que las antiguas GAN.

En concreto, un deepfake facial ("face-swap") requiere:

  • Un conjunto de imágenes del sujeto objetivo (unas pocas decenas o centenas son suficientes hoy en día)
  • Un vídeo fuente sobre el que superponer el rostro
  • Un modelo entrenado para mapear las expresiones y los movimientos de un rostro a otro

Los deepfakes de voz siguen una lógica similar: un modelo aprende el timbre y las entonaciones de una voz a partir de grabaciones, y luego genera nuevas palabras con esa voz.

Las señales que delatan un deepfake

Detectar un deepfake en vídeo es diferente a detectar una imagen IA estática. Estos son los indicios específicos a los que prestar atención:

El parpadeo

Los primeros modelos de deepfake tenían dificultades para reproducir el parpadeo natural. Aunque los modelos recientes han mejorado mucho en este aspecto, un parpadeo demasiado infrecuente, demasiado frecuente o visualmente entrecortado sigue siendo una señal de alarma.

Los contornos del rostro

La línea de transición entre el rostro manipulado y el cuello o el cabello de la persona fuente es a menudo la zona más difícil de renderizar de forma natural. Un halo sutil, un efecto de "máscara" o una textura diferente en el borde del rostro es uno de los indicadores más fiables.

Las incoherencias de iluminación

La iluminación del rostro superpuesto no siempre coincide con la de la escena. Si el rostro parece iluminado de forma diferente al resto del cuerpo, o si las sombras proyectadas no corresponden a la fuente de luz visible, algo no cuadra.

Los movimientos mecánicos y las micro-expresiones

Las expresiones humanas reales implican decenas de músculos. Un deepfake puede fallar en las micro-expresiones, esos temblores fugaces alrededor de los ojos o la boca que duran menos de medio segundo y que dan credibilidad a una expresión.

Para las fotos estáticas presentadas como deepfakes, se aplican los mismos indicadores que para las imágenes IA: contornos, coherencia lumínica y zonas de transición entre el sujeto y el fondo.

Los deepfakes en 2026: cada vez más realistas

En 2018, un deepfake amateur se identificaba en cuestión de segundos. En 2026, los mejores deepfakes pasan desapercibidos para el público general y requieren herramientas de análisis forense para ser detectados con certeza.

Varios factores explican esta rápida evolución: la democratización de las herramientas (algunas están disponibles en línea de forma gratuita), el aumento de la potencia de cálculo disponible y la disponibilidad de grandes bases de datos de imágenes y vídeos para el entrenamiento de los modelos.

Los riesgos son reales: deepfakes pornográficos no consentidos, manipulación política, estafas financieras (un falso CEO en una videoconferencia) o simple desinformación a gran escala. Francia ha reforzado su arsenal legislativo en la materia, pero la detección sigue siendo principalmente responsabilidad de las plataformas y de los usuarios informados.

¿Cómo poner a prueba tu capacidad para detectar deepfakes?

La teoría ayuda, pero nada sustituye a la práctica. Fake or Real ofrece imágenes que cubren todo el espectro: desde generaciones IA "clásicas" hasta las manipulaciones más avanzadas de los modelos 2025-2026. Cada partida es también una sesión de entrenamiento.

¿Puedes distinguir una foto real de una imagen manipulada por IA? Ponete a prueba ahora.

Jugar a Fake or Real →

Con práctica regular, desarrollarás una especie de intuición visual que va más allá de los indicios conscientes enumerados en este artículo. Es esa competencia — reconocer que una imagen "no suena bien" — la que marca la diferencia frente a los deepfakes más sofisticados.

En resumen

Un deepfake manipula la imagen de una persona real, mientras que una imagen IA crea algo completamente desde cero. Ambos plantean problemas de confianza en los medios visuales, pero con mecanismos y riesgos diferentes. Las señales a vigilar en un deepfake: los contornos del rostro, la coherencia lumínica, el parpadeo y las micro-expresiones. Y en todos los casos, practicar sigue siendo la mejor defensa.