Deepfakes: Wenn Realität verhandelbar wird
2024 endete die 150-jährige Gewissheit, dass Kameras nicht lügen. Was passiert mit einer Gesellschaft, die nicht mehr weiß, was real ist?
Das Ende visueller Gewissheit
2024 markiert das Ende einer 150-jährigen Gewissheit: dass Kameras nicht lügen. Deepfakes haben diese Illusion beendet. Nicht als Zukunftsszenario, sondern als Gegenwart. Sora 2, Runway Gen-3.5 und ähnliche KI-Systeme erzeugen täuschend echte Sequenzen von Menschen, die nie existierten oder Dinge sagten, die sie nie sagten. Was früher Millionen kostete, ist heute Massenware. Die Frage ist nicht mehr, ob Deepfakes Wahlen beeinflussen können. Die Frage ist, was mit einer Gesellschaft passiert, die nicht mehr weiß, was real ist.
Die neue Logik der Täuschung
Der Übergang von Bildmanipulation zu realistischer Video-Simulation ist vollzogen. Moderne Modelle reproduzieren Bewegungsmuster, Licht, Schatten, Atem, Mikrogestik. Die Täuschung wurde demokratisiert. Was 2018 noch als geopolitische High-Tech-Waffe galt, ist 2025 ein Massenphänomen. Die Kosten fallen, die Qualität steigt.
Kurz vor der US-Wahl 2024 ging ein Video viral, das Joe Biden im Rollstuhl zeigte. Es erreichte 47 Millionen Views, bevor erste Faktenchecks erschienen. Facebook löschte es nach sechs Stunden. Die Wahl fand nach drei statt. Das Video war falsch. Die Wirkung war real. Die entscheidende Verschiebung lautet nicht mehr: Ist das echt? Sondern: Kann ich das widerlegen?
Der Zerfall der visuellen Wahrheit
Deepfakes unterminieren nicht nur einzelne Videos, sondern die Idee von visueller Evidenz selbst. Justiz basiert auf Beweisen. Journalismus auf Verifikation. Politik auf gemeinsamen Grundlagen. Wenn jede Aufnahme anzweifelbar wird, verliert selbst das authentischste Video seine Wirkung.
Juristinnen und Juristen sprechen vom Liar’s Dividend: Wer ertappt wird, kann alles entwerten mit einem einzigen Satz. Das ist ein Deepfake. 2024 veröffentlichte die Washington Post ein echtes Video, das einen Gouverneur bei rassistischen Aussagen zeigte. Seine Antwort: Es ist ein Deepfake. Drei Tage lang funktionierte die Strategie. Die Wahrheit wurde zwar nachgewiesen, aber zu spät. Vertrauen lässt sich nicht reparieren, wenn Zweifel billiger ist als Gewissheit.
Hier wird Baudrillard konkret. Er nannte es Hyperrealität: den Zustand, in dem Simulation nicht mehr vom Original unterscheidbar ist, weil sie kein Original mehr braucht. Deepfakes sind keine Fälschungen im klassischen Sinn. Sie sind Simulakren dritter Ordnung, Bilder, die nur noch auf sich selbst verweisen. Die Wüste des Realen, von der Baudrillard sprach, ist kein theoretisches Konzept mehr. Sie ist ein Videoformat.
Wenn alles fälschbar ist, wird nichts mehr widerlegbar.
Die politische Waffe
Deepfakes greifen demokratische Prozesse strukturell an. Sie machen unklar, wer spricht, wenn politische Aussagen fälschbar sind. Sie verschieben die öffentliche Agenda, wenn falsche Skandale reale Probleme verdrängen. Und sie destabilisieren Wahlentscheidungen, wenn die Informationsbasis instabil wird. 2024 war ein globales Testfeld: Indien, Argentinien, USA, mehrere EU-Staaten. Nicht jedes Fake wurde geglaubt. Aber jedes Fake beschädigte Vertrauen.
Plattformen machen Macht unsichtbar. Deepfakes machen Wahrheit unsichtbar. Eine Demokratie ohne gemeinsame Fakten ist keine Demokratie.
Das scheiternde Wettrüsten
Moderne Detektoren stoßen an strukturelle Grenzen. Face-Swap-Erkennungen lassen sich austricksen. Audio-Deepfakes simulieren Atempausen und Stimmdruck. Adversarial Angriffe verändern Videos minimal, aber gezielt. Angreifer brauchen nur einen Treffer. Verteidiger müssen jeden erkennen. Selbst die modernsten Systeme erreichen rund 85 Prozent Genauigkeit. Nicht genug, wenn die Grundlage des Vertrauens im Zentrum steht.
Wer von der Unsicherheit profitiert
Nicht die Fälscher profitieren, sondern jene, die Verantwortung leugnen wollen. Autoritäre Akteure können echte Missstände als Fake abtun. Populisten können belastende Videos delegitimieren. Konzerne können Skandale relativieren. Justiz verliert an Wirksamkeit, wenn Beweise instabil werden.
Jenseits der Politik wächst ein weiterer Bereich rasant: digitale Gewalt. 96 Prozent aller Deepfakes sind nicht-konsensual pornografisch, 99 Prozent der Betroffenen sind Frauen. In Südkorea kam es zu Erpressungen und Suiziden. In Indien wurden Journalistinnen mit Deepfakes eingeschüchtert. In Europa verursachen CEO-Deepfakes millionenschwere Überweisungsbetrüge. Deepfakes ermöglichen nicht nur Täuschung. Sie ermöglichen Straflosigkeit.
Die existenzielle Frage
150 Jahre lang vertraute man darauf, dass Sehen gleich Glauben sei. Diese Epoche ist vorbei. Nicht wegen bösartiger Technologie, sondern weil eine Illusion zerbricht: dass visuelle Wirklichkeit stabil ist. Eine Gesellschaft, die visuelle Evidenz verliert, verliert Orientierung. Entweder entstehen neue Formen von Wahrheit oder der Rückzug in Zynismus beginnt.
Vielleicht liegt darin die eigentliche Ironie. Wir haben Maschinen geschaffen, die uns imitieren. Jetzt müssen wir lernen, wie man Menschsein überprüft. Das ist keine technische Frage. Das ist eine existenzielle.
Marjan Milosavljević, 2.12.2025
Interne Verlinkungen:
- KI-Halluzinationen: Warum Maschinen irren müssen
- Transparenz als Falle: Die Gefahr der denkenden KI
- Dark Tech: Digitale Monopole als neue Architektur der Macht
Unterstützen Sie unabhängige Analysen