Deepfakes sind in den letzten Jahren zu einer großen Herausforderung in der digitalen Welt geworden. Bild- und Videomanipulationen sind nichts Neues – schließlich ist der Begriff „Photoshop“ längst in den Volksmund eingegangen. Die Einfachheit und Geschwindigkeit, mit der sich Deepfakes erstellen lassen, hebt diese Technologie jedoch auf ein neues Niveau. Während Bildbearbeitungssoftware oft manuelles Geschick und viel Zeit erfordert, ermöglichen Deepfake-Tools auch Laien, täuschend echte Manipulationen zu erstellen. Ermöglicht wird dies durch die Demokratisierung der Technologie: Was früher Experten mit teurer Hardware vorbehalten war, ist dank Open-Source-Software und Tutorials heute der breiten Öffentlichkeit zugänglich.
Aber beginnen wir von vorne
Die Geschichte der Deepfake-Technologie begann Anfang der 2010er Jahre mit der Weiterentwicklung neuronaler Netzwerke, insbesondere Generative Adversarial Networks (GANs). Ihren Namen verdanken Deepfakes jedoch einem Reddit-Nutzer, der 2017 die ersten Videos veröffentlichte, in denen er Gesichter von Prominenten in andere Inhalte einfügte. Seitdem hat sich die Technologie rasant weiterentwickelt und steht mittlerweile auch Hobbyisten durch frei verfügbare Software zur Verfügung. Mit dem rasanten Fortschritt der künstlichen Intelligenz (der mit immer leistungsstärkerer Hardware einhergeht) stellt sich zwangsläufig die Frage:
Können wir Deepfakes in Zukunft noch erkennen?
Diese Frage ist keineswegs neu und viele Menschen haben sie bereits gestellt. Im Jahr 2019 Hao Li – Technologiepionier und Professor an der University of Southern California – behauptete, dass wir in sechs bis zwölf Monaten nicht mehr in der Lage sein würden, Deepfakes zuverlässig zu erkennen. Im Jahr 2024 wissen wir, dass diese Vorhersage nicht eingetreten ist. Dennoch ist diese Frage durchaus berechtigt.
Während die Technologie zur Erstellung von Deepfakes immer ausgefeilter wird, hinken die Methoden zu ihrer Erkennung oft hinterher. Der Grund dafür liegt in der Natur der Technologie selbst: Deepfakes basieren auf generativen Modellen, die anhand großer Datenmengen lernen, immer realistischere Inhalte zu erstellen. Erkennungsalgorithmen wiederum müssen sich diesen Fortschritten kontinuierlich anpassen. Ein technologisches Wettrüsten, bei dem eine Seite versucht, möglichst glaubwürdige Manipulationen zu erstellen, während die andere Seite nach Möglichkeiten sucht, diese zu entlarven. Das Prinzip ähnelt dem Kampf zwischen Computerviren und Antivirensoftware. Abwehrsoftware ist immer reaktiv.
Um Deepfakes zu erkennen, ist ein Training mit den zu erkennenden Deepfakes erforderlich.
Welche Methoden gibt es aktuell, um Deepfakes zu erkennen?
Maschinelle Lernmethoden zur Deepfake-Erkennung
Zur Erkennung von Deepfakes werden derzeit KI-gestützte Verfahren eingesetzt. Diese Systeme analysieren visuelle und auditive Merkmale, um Unstimmigkeiten zu erkennen. So können etwa unnatürliche Bewegungsmuster oder uneinheitliche Lichtreflexionen auf manipuliertes Material hinweisen. Diese Analysen gehen mittlerweile sehr ins Detail, bis hin zur Blutflussanalyse. Wie bereits erwähnt, befinden sich diese Methoden jedoch in einem ständigen Wettlauf mit den immer ausgefeilteren Techniken zur Erstellung von Deepfakes.

Heatmap eines mit DeepDetectAI analysierten Videokonferenzbildes
Kryptografische Ansätze als Lösung?
Der Ansatz, kryptografische Methoden zur Deepfake-Erkennung einzusetzen, ist vielversprechend und wird in Forschung und Entwicklung zunehmend diskutiert.
Dies ist ähnlich wie bei Zertifikaten für Websites
Kameras oder andere Aufnahmegeräte könnten bei der Erstellung von Bildern oder Videos eine digitale Signatur einfügen. Diese würde die Herkunft des Inhalts bestätigen und eine nachträgliche Manipulation unmöglich machen, da jede Veränderung die Signatur ungültig machen würde.
Dies könnte insbesondere für den Journalismus, die Strafverfolgung oder Social-Media-Plattformen hilfreich sein. So könnten Reporter etwa beweisen, dass ein Video tatsächlich vor Ort aufgenommen wurde. In Gerichtsverfahren könnten signierte Videos als verlässliches Beweismittel dienen. Und Plattformen wie X (früher Twitter) oder YouTube könnten signierten Inhalten den Vorzug geben und sie entsprechend kennzeichnen.
Derzeit gibt es allerdings noch keine etablierten und international anerkannten Zertifizierungsstellen (Certificate Authorities, CAs), die speziell für die Authentifizierung von Medieninhalten entwickelt wurden. Dennoch zeichnen sich vielversprechende Ansätze, Technologien und Standards ab, die sich potenziell zu einer Art „Zertifizierungsstelle für digitale Inhalte“ entwickeln könnten.
Bestehende Ansätze und Initiativen
Einige Initiativen und Technologien zielen bereits darauf ab, die Authentizität und Integrität digitaler Medien sicherzustellen:
- Koalition für Inhaltsherkunft und Authentizität (C2PA):
Das von Adobe, Microsoft, X(Twitter) und der BBC unterstützte C2PA entwickelt Standards zur Authentifizierung digitaler Inhalte. Ziel ist es, Medieninhalte mit Metadaten zu versehen, die Informationen über Herkunft und Bearbeitungen enthalten. Diese Metadaten sind direkt in die Datei eingebettet und können während der Aufnahme generiert werden. - Adobe Content Authenticity Initiative (CAI):
Mit CAI will Adobe die Authentizität digitaler Inhalte garantieren. Kameras und Bildbearbeitungssoftware sollen Metadaten hinzufügen, aus denen hervorgeht, wer ein Bild oder Video erstellt und bearbeitet hat. - Truepic:
Dieses Unternehmen konzentriert sich auf die Überprüfung visueller Inhalte. Truepic bietet eine Plattform, die Bilder und Videos direkt an der Quelle überprüft und kryptografische Signaturen hinzufügt, um ihre Authentizität zu garantieren. - Projektursprung:
Diese von der BBC und Microsoft unterstützte Initiative zielt darauf ab, Desinformation durch die Authentifizierung von Nachrichteninhalten zu bekämpfen. Ähnlich wie beim C2PA werden auch hier Mechanismen eingesetzt, um die Herkunft und Bearbeitung von Inhalten nachvollziehbar zu machen. - Blockchain-basierte Verifizierungsdienste:
Derzeit wird auch an Blockchain-Lösungen gearbeitet, die Metadaten zur Authentifizierung digitaler Inhalte speichern und verifizieren. Die Blockchain dient dabei als dezentrales Register, das Manipulationen nahezu unmöglich macht.
Trotz dieses Potenzials müssen jedoch auch einige Herausforderungen bewältigt werden, bevor kryptografische Verfahren weit verbreitet eingesetzt werden können:
- Standardisierung und Akzeptanz: Damit digitale Signaturen für Medieninhalte wirksam sind, müssen Gerätehersteller, Plattformen und Regierungen weltweit zusammenarbeiten. Ohne internationale Standardisierung bleibt der Nutzen begrenzt.
- Hardwareanforderungen: Die Integration sicherer Chips, wie etwa eines Trusted Platform Module (TPM), in Aufzeichnungsgeräte könnte die Herstellungskosten erhöhen. Ältere Geräte ohne Signaturfunktion würden nicht mehr als vertrauenswürdig gelten.
- Manipulation von Signaturmechanismen: Die Sicherheit solcher Systeme hängt stark von der Integrität der privaten Schlüssel ab. Sind diese kompromittiert, könnten Angreifer gefälschte Signaturen erstellen.
- Dezentralisierung der Kontrolle: Kritisch ist die Frage, wer die Zertifizierungsstellen (CAs) kontrolliert und die Signaturen verwaltet. Ein zentralisiertes System könnte monopolistische Strukturen schaffen und damit selbst angreifbar werden.
- Umgang mit nicht signierten Inhalten: Bereits vorhandene Medieninhalte oder Inhalte von älteren Geräten enthalten keine Signaturen. Eine automatische Einstufung als potenziell manipuliert birgt die Gefahr von Fehleinschätzungen.
Obwohl kryptographische Ansätze vielversprechend sind, mangelt es derzeit an standardisierten Lösungen und einer breiten Akzeptanz.
Abschluss:
Die Technologie – sowohl künstliche Intelligenz als auch Hardware – wird sich in rasantem Tempo weiterentwickeln. Wir sind an einem Punkt angelangt, an dem Algorithmen zunehmend selbstständig lernen und sich selbst optimieren. Dies stellt uns vor große Herausforderungen, von denen Deepfakes und Desinformation nur einige Beispiele sind.
Können wir Deepfakes also auch in Zukunft noch erkennen?
Die Antwort ist zweigeteilt: Ja, aber es wird immer schwieriger. Fortschritte in der Deepfake-Technologie, insbesondere durch den Einsatz generativer KI, könnten dazu führen, dass manche Fälschungen kaum noch als solche erkennbar sind. Dennoch gibt es Hoffnung. Fortschritte in der Deepfake-Erkennung, etwa die Kombination von Bild, Audio und anderen Parametern, werden die Möglichkeiten zur Verifizierung ebenfalls verbessern. Kryptografische Ansätze und digitale Signaturen bieten zudem das Potenzial, Deepfakes frühzeitig zu erkennen bzw. ihre Erstellung zu erschweren. Langfristig wird allerdings eine Kombination aus Technologie, Regulierung und menschlichem Urteilsvermögen nötig sein, um Deepfakes zuverlässig zu erkennen.
Die wahrscheinlichste Methode wird eine Hybridlösung sein: automatisierte Erkennungssysteme, wie sie bei DeepDetectAI entwickelt werden, unterstützt durch kryptografische Technologien und menschliches Fachwissen.