Nichts ist so wie es scheint – die Gefahr von Deepfakes (2024)

Es existieren Videos von Barack Obama und Angela Merkel mit Aussagen, die sie so nie getroffen haben. Den Prozess, sie zu erzeugen, nennt man Deepfake. Das geschieht mit Hilfe von Künstlicher Intelligenz (KI) – und es wird immer schwieriger, diese Deepfakes zu erkennen. Das Fraunhofer Institut Aisec (Angewandte und Integrierte Sicherheit) forscht dazu seit Jahren und gibt Tipps.

Was ist ein Deepfake?

Das Fraunhofer-Institut definiert Deepfakes als täuschend echt wirkende, manipulierte Bild-, Audio- oder auch Videoaufnahmen. Dabei gibt es laut dem Bundesamt für Sicherheit und Informationstechnik (BSI) verschiedene Arten von Deepfakes. Zum einen das „Face Swapping“. Dabei wird aus dem Gesicht einer Person, ein Gesichtsbild einer anderen Person mit derselben Mimik, Gesichtsbeleuchtung und Blickrichtung zu erzeugt.

Eine weitere Art des Deepfakes ist das „Face Reenactment“, also die Nachstellung eines Gesichtes. Hier werden Kopfbewegung, Mimik oder Lippenbewegung einer Person manipuliert. Dazu werden am Computer 3D-Modelle des Gesichts erstellt. So können täuschend echte Videos entstehen. Auch Stimmen können gefälscht werden.

Wie erstellt man einen Deepfake?

Einen Deepfake zu erstellen, ist gar nicht so schwer. Man sammelt Bildmaterial von der Person, die man fälschen möchte und lädt sich eine spezielle Software herunter. Diese ist in den meisten Fällen kostenlos. Die KI isoliert das Gesicht der Person und setzt es in ein anderes Bild oder Video. Die Hauptarbeit erledigt die Software. Je besser und echter das Video am Ende aussehen soll, desto größer ist die benötigte Rechenleistung des PCs.

Illegal ist das übrigens nicht, es gibt bisher kein Gesetz dazu. Unter Umständen können aber Persönlichkeits- und Urheberrechte verletzt werden, beispielsweise wenn das Bildmaterial ohne Einverständnis verwendet wurde.

Woran erkennt man einen Deepfake?

Dr. Nicolas Müller vom Fraunhofer Institut Aisec forscht seit Jahren zu Künstlicher Intelligenz und Deepfakes und erklärt, worauf man achten sollte.

1. Ungewöhnliche Bewegungen. Wenn sich die Gesichtsbewegungen der Person unnatürlich oder untypisch anfühlen, sollte man genauer hinschauen.

2. Keine Übereinstimmung zwischen Audio und Video. Die Tonspur stimmt nicht mit den Lippenbewegungen der Person übereinstimmt.

3. Bild-Störungen. Pixelfehler, unnatürliche Übergänge, geisterhafte Kanten und Schatten deuten auf Fälschungen hin. Im Ton können unnatürliches Knacken, Rauschen oder hochfrequente Töne Hinweise sein.

4. Roboterartige Sprechweise. Audio-Deepfakes werden mit großen Trainingsdatensätzen trainiert. Wenn darin Tonstörungen vorkommen bzw. die Annotationen nicht perfekt sind, schlägt sich das auf den Sprachfluss nieder.

Der SÜDKURIER hat als Test einen Deepfake erstellt, über diesen Link kommen Sie zum Video.

Reichen auch die Bilder aus den sozialen Medien, um einen Deepfake zu erstellen?

Nicolas Müller sagt: „Wenn Sie Fotos von sich in sozialen Medien hochgeladen haben, können diese benutzt werden, um Deepfakes zu erstellen. Besonders problematisch sind lange Videos mit Stimme, wie beispielsweise öffentliche Reden, Vorträge, Podcasts oder Vorlesungen. Je mehr Material öffentlich verfügbar ist, desto bessere Deepfakes können von Ihnen erstellt werden.“

Welche Gefahren gehen von Deepfakes aus?

Die Künstliche Intelligenz hinter den Deepfakes wird nicht nur besser, sondern immer einfacher auch für Laien zu verwenden. Das Bundesamt für Sicherheit und Informationstechnik (BSI) nennt als mögliche Gefahren:

Imitation – zum Verwechseln ähnliche Stimmen und Gesichter birgen die Gefahr, diesen zu vertrauen. Beim sogenannten „Spear-Phishing“ werden gezielt Personen kontaktiert, um Informationen wie beispielsweise Kontodaten preiszugeben. Die Stimme klingt wie der Chef, ist aber ein Deepfake.

Verbreiten von Fake-News – einflussreichen Persönlichkeiten werden Sätze in den Mund gelegt. Gerade bei Politikern droht so eine große Gefahr, viele Menschen zu manipulieren.

Fälschen von Beweismittel – Fotos und Videos spielen eine wichtige Rolle in Gerichtsverhandlungen. Mit Deepfakes lässt sich Beweismaterial fälschen und so die Wahrheit verschleiern und Unschuldige beschuldigen.

Wie kann man sich dagegen schützen?

Ganz grundsätzlich empfiehlt das Aisec, dass man sorgsam persönliche Daten im Internet veröffentlicht. Audio-Deepfakes kann man erschweren, indem man beispielsweise Hintergrundgeräusche in die Audiospur seiner Videos einfügt.

Darüber hinaus kann man sich schützen, auf Deepfakes hereinzufallen, indem man bei fragwürdigen Inhalten die Quelle überprüft. Bei Inhalten im Internet sollte man zum Beispiel nachsehen, ob die entsprechende Mediendatei auch von seriösen Quellen rezipiert wird. Bei verdächtigen Anrufen sollte man auflegen und die Person zurückrufen.

Das Fraunhofer Institut arbeitet bereits seit einiger Zeit daran, Deepfakes mit seinen eigenen Waffen zu schlagen. Aisec und die Forschungsabteilung Cognitive Security Technologies (CST) entwickeln Programme, die Deepfakes sicher und automatisch enttarnen. Eines davon ist „Deepfake-Total“. Das ist eine Webseite, die zeigt, wie weit die aktuelle Forschung im Bereich „Audio Deepfake Erkennung“ fortgeschritten ist. Audio-Deepfake-Erkennung nutzt Künstliche Intelligenz, um Deepfakes zu entlarven. Das System kann eine beliebige Audio-Datei analysieren und einen Deepfake-Score zwischen 0 und 100 ausgeben, wobei 0 für echt und 100 für gefälscht steht.

Wenn ich Deepfakes erkenne, an wen kann ich mich wenden?

Man kann sich an den Betreiber der Webseite wenden, etwa an YouTube, Instagram, TikTok oder Facebook. Die meisten Webseiten verfügen über eine Funktion, mit der man Inhalte melden kann. Wenn der Inhalt rechtlich strafbar ist, beispielsweise bei Volksverhetzung, sollte man sich an die Polizei wenden.

Nichts ist so wie es scheint – die Gefahr von Deepfakes (2024)
Top Articles
Latest Posts
Article information

Author: Tuan Roob DDS

Last Updated:

Views: 6064

Rating: 4.1 / 5 (42 voted)

Reviews: 89% of readers found this page helpful

Author information

Name: Tuan Roob DDS

Birthday: 1999-11-20

Address: Suite 592 642 Pfannerstill Island, South Keila, LA 74970-3076

Phone: +9617721773649

Job: Marketing Producer

Hobby: Skydiving, Flag Football, Knitting, Running, Lego building, Hunting, Juggling

Introduction: My name is Tuan Roob DDS, I am a friendly, good, energetic, faithful, fantastic, gentle, enchanting person who loves writing and wants to share my knowledge and understanding with you.