Das Wort "Deepfake" ist um 2018 in den allgemeinen Sprachgebrauch eingegangen, wird aber nach wie vor häufig mit anderen Formen der visuellen Manipulation verwechselt. Ist ein von Midjourney erzeugtes Bild ein Deepfake? Und was ist mit einem Video, in dem ein Politiker Dinge zu sagen scheint, die er nie gesagt hat? Klären wir die Begriffe.
2026 ist die Unterscheidung wichtiger denn je: Die Werkzeuge zur visuellen Manipulation haben sich vervielfacht, die böswilligen Einsatzmöglichkeiten sind vielfältiger geworden, und die Fähigkeit, diese verschiedenen Formen der Manipulation voneinander zu unterscheiden, ist zu einer grundlegenden Bürgerkompetenz geworden.
Deepfake vs. KI-Bild: Was ist der Unterschied?
Die Verwechslung ist verbreitet, aber es handelt sich um zwei unterschiedliche Konzepte.
Ein KI-Bild (oder generatives Bild) wird von einem Algorithmus auf Grundlage einer Textbeschreibung von Grund auf neu erzeugt. Es stellt keine reale Person und keine reale Szene dar — es ist eine vollständige Erfindung. Midjourney, DALL-E oder Stable Diffusion erzeugen diese Art von Bildern.
Ein Deepfake hingegen geht von bestehendem Material aus — einem Foto oder Video einer realen Person — und manipuliert es so, dass die Person etwas zu sagen oder zu tun scheint, was sie nie gesagt oder getan hat. Die KI dient hier dazu, die Gesichtszüge einer realen Person auf einen anderen Körper zu übertragen oder ihre Mimik und Stimme überzeugend zu verändern.
| Generatives KI-Bild | Deepfake | |
|---|---|---|
| Ausgangspunkt | Text (Prompt) | Echtes Foto/Video einer Person |
| Dargestellte Person | Fiktiv oder zusammengesetzt | Real, manipuliert |
| Hauptrisiko | Allgemeine Desinformation | Rufschädigung, Betrug |
| Beispiel-Tools | Midjourney, DALL-E, Stable Diffusion | DeepFaceLab, FaceSwap, KI-Video-Tools |
In der Praxis überschneiden sich beide Kategorien zunehmend. Es ist inzwischen möglich, ein vollständig KI-generiertes Bild zu erzeugen, das eine existierende Berühmtheit sehr realistisch darstellt — technisch gesehen KI-Generierung, aber mit den gesellschaftlichen Auswirkungen eines Deepfakes.
Wie funktioniert ein Deepfake?
Die ersten Deepfakes basierten auf GANs (Generative Adversarial Networks): Zwei neuronale Netze treten in einer Schleife gegeneinander an — eines erzeugt Fälschungen, das andere versucht, sie zu erkennen. Dieser ständige Wettstreit verbessert schrittweise die Qualität des Ergebnisses.
Heute werden zunehmend Diffusionsmodelle eingesetzt — dieselbe Architektur, die hinter Midjourney und Stable Diffusion steht — für Face-Swapping und Videomanipulation. Sie liefern stabilere und konsistentere Ergebnisse als die älteren GANs.
Konkret benötigt ein Gesichts-Deepfake ("Face-Swap"):
- Einen Satz von Bildern der Zielperson (heute reichen einige Dutzend bis einige Hundert)
- Ein Quellvideo, auf das das Gesicht projiziert wird
- Ein Modell, das trainiert wurde, Mimik und Bewegungen von einem Gesicht auf ein anderes zu übertragen
Stimmen-Deepfakes folgen einer ähnlichen Logik: Ein Modell lernt Klangfarbe und Intonation einer Stimme aus Aufnahmen und erzeugt dann neue Worte in dieser Stimme.
Die verräterischen Anzeichen eines Deepfakes
Einen Video-Deepfake zu erkennen unterscheidet sich von der Erkennung eines statischen KI-Bildes. Hier sind die spezifischen Hinweise, auf die man achten sollte:
Das Blinzeln
Frühe Deepfake-Modelle hatten Schwierigkeiten, natürliches Blinzeln zu reproduzieren. Obwohl neuere Modelle diese Schwäche weitgehend behoben haben, bleibt ein zu seltenes, zu häufiges oder visuell ruckartiges Blinzeln ein Warnsignal.
Die Gesichtskonturen
Die Übergangslinie zwischen dem manipulierten Gesicht und dem Hals oder den Haaren der Quellperson ist oft die am schwierigsten natürlich zu gestaltende Zone. Ein subtiler Halo, ein "Masken"-Effekt oder eine abweichende Textur am Gesichtsrand gehört zu den zuverlässigsten Indikatoren.
Lichtwidersprüche
Die Beleuchtung des überlagerten Gesichts stimmt nicht immer mit der Beleuchtung der Szene überein. Wenn das Gesicht anders beleuchtet erscheint als der restliche Körper oder die Schlagschatten nicht zur sichtbaren Lichtquelle passen, ist Vorsicht geboten.
Mechanische Bewegungen und Mikro-Expressionen
Echte menschliche Ausdrücke involvieren Dutzende von Muskeln. Ein Deepfake kann Mikro-Expressionen verfehlen — jene flüchtigen Zuckungen um die Augen oder den Mund, die weniger als eine halbe Sekunde dauern und einem Ausdruck seine Glaubwürdigkeit verleihen.
Deepfakes 2026: immer realistischer
2018 konnte man einen Amateur-Deepfake innerhalb von Sekunden erkennen. 2026 bleiben die besten Deepfakes vom breiten Publikum unbemerkt und erfordern forensische Analysewerkzeuge, um mit Sicherheit erkannt zu werden.
Mehrere Faktoren erklären diese rasante Entwicklung: die Demokratisierung der Werkzeuge (einige sind kostenlos online verfügbar), die gestiegene verfügbare Rechenleistung und die Verfügbarkeit großer Bild- und Videodatenbanken für das Training der Modelle.
Die Risiken sind real: nicht einvernehmliche pornografische Deepfakes, politische Manipulation, Finanzbetrug (ein gefälschter CEO in einer Videokonferenz) oder schlicht Desinformation im großen Maßstab. Frankreich hat seinen Rechtsrahmen zu diesem Thema gestärkt, doch die Erkennung bleibt hauptsächlich Aufgabe der Plattformen und aufgeklärter Nutzer.
Wie können Sie Ihre Fähigkeit testen, Deepfakes zu erkennen?
Theorie hilft, doch nichts ersetzt die Praxis. Fake or Real bietet Bilder, die das gesamte Spektrum abdecken: von "klassischen" KI-Generierungen bis hin zu den fortschrittlichsten Manipulationen der Modelle von 2025-2026. Jede Runde ist zugleich eine Trainingseinheit.
Können Sie ein echtes Foto von einem KI-manipulierten Bild unterscheiden? Testen Sie sich jetzt.
Fake or Real spielen →Mit regelmäßiger Übung entwickeln Sie eine Art visuelle Intuition, die über die in diesem Artikel aufgelisteten bewussten Hinweise hinausgeht. Genau diese Fähigkeit — zu erkennen, dass ein Bild "nicht richtig aussieht" — macht den Unterschied gegenüber den raffiniertesten Deepfakes.
Zusammenfassung
Ein Deepfake manipuliert das Bild einer realen Person, während ein KI-Bild etwas völlig Neues erschafft. Beide untergraben das Vertrauen in visuelle Medien, jedoch mit unterschiedlichen Mechanismen und Risiken. Die Anzeichen, auf die man bei einem Deepfake achten sollte: Gesichtskonturen, Lichtkonsistenz, Blinzeln und Mikro-Expressionen. Und in jedem Fall gilt: Übung bleibt die beste Verteidigung.