Alles, was man fälschen kann, wird auch zum Ziel von Kriminellen. Mittlerweile gilt das nicht nur für Bilder, sondern ebenso für Audio- und Videomaterial. Solche Fälschungen tragen den Namen Deepfakes, da die Verfahren, mit denen sie konfiguriert werden, auf den tiefen neuronalen Netzen basieren. Problematisch sind sie vor allem, weil wir Menschen anfällig dafür sind, bewegten Bildern und Stimmen zu vertrauen. Umso wichtiger ist es, skeptisch zu bleiben und genau hinzusehen.
Face Swapping und Face Reenactment – so werden Videos manipuliert
Die technischen Möglichkeiten sind mittlerweile so weit, dass sich selbst Audio- und Videoaufzeichnungen fälschen lassen. Die täuschend echten Deepfakes erstellt man mithilfe von künstlicher Intelligenz (KI). Bei einem ersten Hinsehen lassen sie sich weder vom Bild noch von den Stimmaufnahmen von Originalen unterscheiden. Darum warnt das Bundesamt für Sicherheit und Informationstechnik (BSI) vor der Technologie und ihren Anwendungsmöglichkeiten. Egal, ob man mit Audio- oder Videoaufnahmen konfrontiert ist, Menschen sollten das Erlebte insbesondere bei weitreichenden Aussagen kritisch hinterfragen. Die Tatsache, dass es sich um Bild- und Videomaterial handelt, genügt nicht, um eine wirkliche Echtheit der Aufnahmen zu verifizieren.
Häufige Manipulationen von Gesichtern in Videos stellen das sogenannte „Face Swapping“ sowie das „Face Reenactment“ dar. Face Swapping zielt darauf ab, Gesichter innerhalb eines Videos auszutauschen. Mithilfe von KI-basierten Verfahren kann man so jedes beliebige Gesicht, von dem man ausreichend Material besitzt, mit einem Gesicht innerhalb der Aufnahme tauschen. Ehe man sich versieht, kann das eigene Gesicht an gänzlich unerwarteten Stellen auftauchen. Vor allem Frauen sind hier häufig von sexualisierten Fake-Videos betroffen, die das Opfer beschämen oder öffentlich diskreditieren sollen.
Face Reenactment hingegen zielt darauf ab, die Kopfbewegungen sowie Mimik einer Person innerhalb eines Videos zu manipulieren. So lassen sich etwa Aufnahmen, die in einem völlig anderen Kontext entstanden sind, verfälschen und als Basis für gänzlich andere Botschaften verwenden. Wann immer du somit eine Aufnahme vor dir hast, die allen bisherigen Informationen widerspricht, solltest du sie kritisch hinterfragen. Es könnte sich um eine Fälschung handelt, wie in dem folgenden Werbevideo:
Deepfakes – diese Anzeichen verraten eine Fälschung
Eine völlige Imitation eines echten Menschen ist bisher jedoch nicht möglich. Auch wenn tiefe neuronale Netzwerke (deep neural networks) einiges darstellen und berechnen können, so sind die Variationen eines echten Menschen vielfältiger. Ebendiese Variationen sind es, die eine Fälschung von einem Original erheblich unterscheiden. So kann ein Deepfake-Video zwar die Gesichtszüge einer Person abbilden und einige Gesichtsausdrücke nachahmen. Das gesamte Videomaterial wird im Vergleich zu einem echten Video jedoch über wenig einzelne Ausdrücke verfügen. Wie viele genau simuliert werden können, hängt nämlich immer von dem vorhandenen Ausgangsmaterial ab.
Zudem sind Deepfakes auch handwerklich keineswegs perfekt. Dem BSI zufolge zeigen sich häufig Artefakte bei Gesichtsübergängen, sehr eingeschränkte Mimik oder verwaschene Konturen. Auch eine unstimmige Belichtung innerhalb der Videos kann ein Hinweis auf eine Fälschung sein. Bei Stimmfälschungen solltest du auf metallischen oder monotonen Klang, eine falsche Aussprache oder unnatürliche Sprechweise achten. Auch Verzögerungen während des Sprechens sind Hinweise auf eine mögliche Fälschung. Solltest du auf ein Video stoßen, dessen Echtheit für dich nicht auf den ersten Blick erkennbar ist, kannst du dich an diesen Punkten orientieren. Ebenso ist es möglich, bei wichtigen Statements nach weiteren Aufnahmen zu suchen. Wichtige Aussagen filmt man häufig mit mehreren Presseteams aus verschiedenen Blickwinkeln. Gibt es keinerlei andere Aufnahme der vermeintlich wichtigen Mitteilung, solltest du diese kritisch hinterfragen.