Deepfakes: Kann ich überhaupt noch glauben, was ich sehe? (2024)

Texte, Bilder, Audiodateien, Videos: Alles kann beliebig gefälscht werden. Sogenannte «Deepfakes» machen es inzwischen sogar möglich, Gesichter oder Wortschnipsel in Videos unbemerkt auszutauschen. Was ist dran an dieser Bedrohung?

Reto Stauffacher (Text) und David Hess (Video)

Drucken

Deepfakes: Kann ich überhaupt noch glauben, was ich sehe? (1)

Welche Informationen sind echt? Was ist Fake? Es ist die Debatte unserer Zeit.

Texte konnten schon immer gefälscht werden. Man verändere den Titel, spitze auf unzulässige Weise zu oder erfinde schlicht Begebenheiten – und schon sind Fake-News Realität. Gibt es dann noch eine gewisse Anzahl Menschen, die den gefälschten Text verbreiten, ist die Spirale in Gang gesetzt – und kaum mehr zu bremsen. «Fake-News gab es schon im Mittelalter», schrieb der Geschichtsprofessor Volker Reinhardt kürzlich in der NZZ. «Jeder, der schreibt, und zwar nicht nur über sich, inszeniert sich, und zwar oft so geschickt, dass er selbst daran glaubt.»

Dasselbe gilt für Bilder und Videos: Die Gefahr besteht hier, dass sie aus dem Kontext gerissen oder verkürzt wiedergegeben werden. Es sei kurz an zwei Beispiele aus den letzten Monaten erinnert: In Chemnitz entwickelte sich im vergangenen Herbst ein Streit über angebliche Hetzjagden von Deutschen auf Ausländer, und zwar nur, weil ein einziges verwackeltes Video dies zu belegen schien. Und in den USA soll eine Videoaufnahme belegt haben, dass Abtreibungsgegner und Trump-Fans bei einer Demonstration in Washington gegen Indigene vorgegangen sind.

Der Clou dabei: Die Videos waren nicht gefälscht. Sie zeigten einfach nur einen bestimmten Ausschnitt und liessen damit gleichzeitig entscheidende Informationen unberücksichtigt. Ja, in Chemnitz gab es offenbar eine zu verurteilende Aktion gegen Minderheiten. In Washington ebenso. Doch zahlreiche Berichte bzw. ein längeres Video zeigten dann, dass sich die ganze Situation anders abgespielt hatte als zunächst angenommen.

«Donald Trump ist ein Trottel»

Eine Stufe dreister ist der Vorgang bei Deepfakes – denn hier kommt eine Fälschung von Videoaufnahmen mittels künstlicher Intelligenz hinzu. Deepfakes bezeichnen Videos, in denen dank maschinellem Lernen Gesichter oder sonstige Elemente ausgetauscht und beispielsweise auch Stimmen imitiert oder übernommen werden können – ohne dass der Zuschauer dies bemerkt.

Man nehme also ein Video von Person A, vermische es mit einer Aufnahme von Person B, unterlege es mit einer authentischen Tonspur, und schon ist die perfide Fälschung erstellt – in der Theorie zumindest. Wird diese Technologie massentauglich, dann ist es plötzlich möglich, einem Menschen Worte in den Mund zu legen, die er nie gesagt hat. Welche abartigen Spiele damit getrieben werden können, lässt sich höchstens erahnen.

Deepfakes: So erkennt man manipulierte Videos

Das bekannteste Beispiel für einen Deepfake ist ein Video von Barack Obama, in dem er Donald Trump als Vollidiot bezeichnet (siehe Videobeitrag). Obamas Stimme, Mimik, Gestik – alles sehr authentisch. Doch das Video ist ein Fake. Der Schauspieler Jordan Peele wollte mit seinem Werk für Deepfakes sensibilisieren. Und darauf hinweisen, dass wir alle die Augen immer offenhalten und nichts glauben sollten. Es ist nichts weiter als ein Plädoyer für die älteste und wichtigste journalistische Grundregel, das Zwei-Quellen-Prinzip. Auch ein Video mit den beiden Satirikern John Oliver und Jimmy Fallon zeigte eindrücklich, wie täuschend echt Deepfakes daherkommen können.

Wie gefährlich aber sind Deepfakes wirklich? Bedrohen sie gar unsere Demokratie und die offene Gesellschaft? «Geht eine Fälschung im falschen Moment viral, könnten Deepfakes den Ausgang von demokratischen Wahlen gewichtig beeinflussen», schrieb der «Tages-Anzeiger» vor einigen Wochen dystopisch. Ähnliches musste man aber auch schon über soziale Netzwerke oder – viel früher – über den Aufstieg des Boulevardjournalismus lesen.

Technischer Mangel...

«Mit den aktuellen technischen Möglichkeiten ist es ausgesprochen schwierig, einen wirklich guten Deepfake zu erstellen», sagt Marc Ruef, Mitinhaber der Sicherheitsfirma Scip in Zürich. Das Unternehmen betreibt eine Forschungsabteilung, die sich mit aktuellen und zukünftigen Themen und Risiken im digitalen Raum auseinandersetzt. In einer breit angelegten Studie haben Ruef und sein Team versucht, den perfekten Deepfake zu erstellen – bisher ohne Erfolg.

Video Deepfakes – so erkennt man manipulierte Videos Dank künstlicher Intelligenz wird es immer einfacher, Videos zu manipulieren. Auch für Laien. Sogenannte Deepfakes haben damit das Zeug zum Massenphänomen. Es wird deshalb immer wichtiger, die Echtheit von Videos zu hinterfragen. Worauf dabei zu achten ist, erfahren Sie in diesem Video.

David Hess 2 min

«Erstellt sind Deepfakes sehr schnell, die Anleitung findet sich kinderleicht im Internet. Ob das Ergebnis dann aber auch gut ist, ist eine andere Frage», erklärt Ruef. Der Arbeitsprozess umfasse viele Schritte, bei denen man Fehler machen könne. Doch selbst wenn alles reibungslos verlaufe, könne das Ergebnis enttäuschend sein. Auch der Videoredaktor der NZZ ist beim Versuch, einen authentischen Deepfake zu erstellen, an technischen Hürden gescheitert.

...und mangelnde Beleuchtung

«Wir haben mehr als fünfzig Deepfakes zu Testzwecken generiert und haben es noch nicht geschafft, auch nur einen wirklich sauber hinzubekommen», erklärt Ruef. Ein grosses Problem sei die optimale Beleuchtung und ideale Umsetzung: «Original- wie Fake-Video müssen mit dem gleichen Licht, mit demselben Kamerawinkel und in derselben Umgebung aufgezeichnet werden, damit es perfekt funktioniert», so Ruef. «In einem Studio sind Ausleuchtung oder Kamerawinkel völlig anders als auf einer Bühne.» Grundsätzlich reichten schon Sequenzen von 200 Bildern, um einen Deepfake zu erstellen – allerdings müsse die Qualität des Ursprungsvideos gut und reproduzierbar sein.

Die ursprüngliche Quelle kann eine beliebige Rede eines Politikers oder ein TV-Interview sein. Die Begebenheiten dieser Sequenz gilt es dann im Studio nachzustellen – am besten mit einer Person, die dem Protagonisten ähnlich sieht. «Trägt jemand eine Brille oder einen Bart, wird es schon fast unmöglich», sagt Ruef. «Man beachte zum Beispiel das Video mit John Oliver und Jimmy Fallon. Die Brille ist nicht sauber übertragen worden.»

Auch die Rechenleistung führe derzeit noch bei vielen Versuchen zu Problemen, sagt Ruef. Zudem seien die Frameworks noch umständlich und wenig benutzerfreundlich. Beide Hürden dürften in den kommenden Jahren allerdings kleiner werden.

Hilft ein digitales Gütesiegel?

Welche Möglichkeiten gibt es überhaupt, Deepfakes zu bekämpfen? «Sinnvoll wäre ein digitales Gütesiegel für Videos», sagt Ruef. «Diese Signatur könnten offizielle Stellen erhalten oder auch Qualitätsmedien.» Im Umkehrschluss führte dies dann allerdings zu einer noch grösseren Skepsis: Alle Videos, die kein Gütesiegel haben, wären somit potenziell gefälscht.

Auch Technologie könnte mithelfen, Deepfakes zu erkennen: «Schon jetzt gibt es Programme, die ein Video abspielen und auf mögliche gefälschte Stellen hinweisen. Anhaltspunkte für Fälschungen können ein leichtes Flackern im Gesicht oder gewisse Unschärfen sein.» Auch diese Technologie wird sich verbessern, davon ist Ruef überzeugt, so dass künstliche Intelligenz mit künstlicher Intelligenz bekämpft werden kann – «fast so wie bei ‹Terminator›», ergänzt er lachend.

Bis es so weit ist, werden Ruef und sein Team weiterhin versuchen, den perfekten Deepfake herzustellen, um Möglichkeiten und Risiken bestimmen zu können. Und wir alle müssen achtsam bleiben bei allem, was wir im Internet sehen und lesen. Insbesondere, wenn das Material aus unbekannter oder dubioser Quelle stammt.

Deepfake: Auch was falsch ist, ist irgendwie wahr. Nur anders Natürlich wissen wir, dass wir nicht glauben können, was wir sehen. Aber wir tun es trotzdem. Weil wir glauben wollen, was wir gern sehen würden.

Sarah Pines

Exklusiv für Abonnenten «Global Risk»-Briefing: Trübe Aussichten für das bevölkerungsreichste Land Afrikas Was kommt nach den Präsidentschaftswahlen in Nigeria? Bringt das neue Freihandelsabkommen zwischen der EU und Japan neuen Schwung in den Welthandel? Wie gefährlich ist die Deepfake-Technologie? Mit diesen Themen beschäftigt sich die neue Ausgabe des «Global Risk»-Briefings.

David Signer / Matthias Kamp / Gerald Hosp

In den digitalen Medien regiert der #Dadaismus des #everydaylife. Doch wer lesen kann, ist auch in Zukunft im Vorteil Wenn alles aufgezeichnet werden kann, triumphiert dann das Audiovisuelle und Emotionale über das Geschriebene und Reflektierte? Das liegt nahe, ist aber falsch. Wer der Filterblase entkommen will, muss auch in Zukunft genau lesen können.

Anna-Verena Nosthoff und Felix Maschewski

Fake-News gab es schon im Mittelalter. Und das zeigt: Erkenntnis gibt es nur, wo der Zweifel am Anfang steht Wer Nachrichten verbreitet, will etwas erreichen. Hinter jedem Text, jedem Bild lauert ein Versuch, Menschen zu beeinflussen. Dagegen gibt es nur ein Mittel: Erst einmal gar nichts glauben.

Volker Reinhardt

Deepfakes: Kann ich überhaupt noch glauben, was ich sehe? (2024)
Top Articles
Latest Posts
Article information

Author: Jerrold Considine

Last Updated:

Views: 6056

Rating: 4.8 / 5 (78 voted)

Reviews: 85% of readers found this page helpful

Author information

Name: Jerrold Considine

Birthday: 1993-11-03

Address: Suite 447 3463 Marybelle Circles, New Marlin, AL 20765

Phone: +5816749283868

Job: Sales Executive

Hobby: Air sports, Sand art, Electronics, LARPing, Baseball, Book restoration, Puzzles

Introduction: My name is Jerrold Considine, I am a combative, cheerful, encouraging, happy, enthusiastic, funny, kind person who loves writing and wants to share my knowledge and understanding with you.