Deepfakes sind durch künstliche Intelligenz geschaffene Täuschungen, die sich schwer von echten Menschen unterscheiden lassen. Sie können sowohl in der Form von Bildern, Videos als auch Sprachaufnahmen auftreten. Jetzt geraten immer mehr Politiker ins Fadenkreuz von Deepfake-Kriminellen. Zur neusten Masche gehören täuschend echte Anrufe, die im ersten Moment von Kiews Bürgermeister Vitali Klitschko zu stammen scheinen.
Politiker im Fadenkreuz von Deepfake-Kriminellen: Gefälschte Videoanrufe
Erst kürzlich wurde Berlins Regierende Bürgermeisterin Ziel eines gefälschten Videoanrufs, der mit künstlicher Intelligenz produziert wurde. Die Unterredung mit dem vermeintlichen Oberbürgermeister von Kiew, Vitali Klitschko, nahm einen ungewöhnlichen Verlauf. Daraufhin brach Giffey das Telefonat ab. Ihr Gefühl hatte Berlins Regierende Bürgermeisterin nicht getrogen, denn obwohl der Mann täuschend echt aussah, hatte sie nicht mit dem echten Klitschko gesprochen. Es handelte sich somit um eine Videofälschung, geschaffen von künstlicher Intelligenz. Solches Material wird als Deepfake bezeichnet, ein Begriff, der sich aus dem Wort für Fälschungen „Fake“ und dem „Deep“ von „Deep Learning“ zusammensetzt.
Anscheinend war Giffey dabei nicht das einzige Opfer des falschen Klitschko. In den vergangenen Wochen fanden weitere Videoschaltungen mit anderen europäischen Bürgermeistern statt. Unter anderem mit José Luis Martinez-Almeida, dem Bürgermeister von Madrid. Auch er soll die Fälschung wohl erkannt haben und beendete das Gespräch daraufhin. Weniger misstrauisch erwies sich Wiens Bürgermeister Michael Ludwig, der rund eine Stunde mit der Person gesprochen haben soll, die er für Vitali Klitschko hielt. Dieses Beispiel zeigt, wie schwer es sein kann, einen solchen Deepfake zu erkennen. Infolge des Anrufes bei Giffey schaltete die Berliner Senatsverwaltung umgehend die Polizei ein, sodass der Staatsschutz des Landeskriminalamtes (LKA) nun wegen des Vorfalls ermittelt. Noch ist unklar, wer hinter diesem gefälschten Telefonanruf steckt.
Darum bietet sich Klitschko an
Theoretisch könnte jede Person, die im öffentlichen Leben steht, Ziel eines Deepfake-Angriffes werden. Um eine täuschend echte Kopie herzustellen, benötigt künstliche Intelligenz hauptsächlich eines: Möglichst viel Quellmaterial, um das Original zu simulieren. Personen wie Vitali Klitschko sind häufig im Fernsehen vertreten. Es gibt unzählige Fotos, Videos und Tonaufnahmen, auf die Kriminelle öffentlich zugreifen können, um ihre KI damit zu füttern. Dadurch ist es verhältnismäßig einfach, einen Videoanruf zu generieren, der eine gewisse Übereinstimmung mit der tatsächlichen Person erreicht. Ähnliche Schicksale könnten in Zukunft auch vielen weiteren Politikern oder anderen Prominenten blühen. Sie alle gelten als besonders gefährdet, da ausreichend zugängliches Material über sie vorliegt. Dadurch haben Täter ein leichtes Spiel in der Generierung von Deepfakes.
Deepfakes zu erkennen kann besonders schwierig sein, da sich mithilfe der künstlichen Intelligenz überzeugende Nachbildungen schaffen lassen. Es ist daher entscheidend, kritisch mit der vorliegenden Quelle umzugehen und auf verräterische Hinweise zu achten. Darunter können etwa seltsame Ausleuchtungen von Personen oder Szenen in dem gezeigten Video zählen, die nicht recht zusammenpassen. Ebenso lassen eine starre Mimik mit wenigen Gesichtsausdrücken oder ein sehr begrenzter Wortschatz auf mögliche Deepfakes schließen. Auch die Betonung, die der vermeintlich Sprechende wählt, kann ein Warnhinweis auf eine Fälschung sein. Sollten begründete Zweifel an der Echtheit eines Videos, eines Anrufes oder eines Bildes vorliegen, lohnt sich eine konkrete Recherche.
Klitschko nicht erster Deepfake-Versuch im Ukraine-Konflikt
Bei den falschen Anrufen von Vitali Klitschko handelt es sich nicht um den ersten Deepfake-Versuch, der eine Verbindung zum Ukraine-Konflikt besitzt. Mitte März wurde auf YouTube und anschließend ebenso über Twitter ein Video verbreitet, das für Aufsehen sorgte. Dieses zeigte angeblich den ukrainischen Präsidenten Wolodymyr Selenskyj, der eine Kapitulation gegenüber Russland verkündete. Die Aufnahme erwies sich jedoch als schlechte Reproduktion, sodass sie schnell als Fälschung enttarnt werden konnte. Es ist jedoch davon auszugehen, dass diese beiden Vorfälle nicht die letzten Deepfake-Versuche bleiben, die Politiker ins Fadenkreuz nehmen. Insbesondere Entscheidungsträger oder Menschen mit Wissen, das nicht für die breite Masse zugänglich ist, bieten sich als Ziele für Deepfake-Angriffe an. Welche Absichten die Täter verfolgen, lässt sich dabei nicht immer eindeutig klären.
Politiker sind jedoch nicht die einzigen, die im Fadenkreuz von Deepfake-Kriminellen stehen. Schon im Jahr 2019 wurde ein britisches Energieunternehmen das Opfer eines solchen Deepfake-Angriffes. Aufgrund eines Anrufes, den der Geschäftsführer der Firma von einem angeblichen Vorstandsvorsitzenden der deutschen Muttergesellschaft erhielt, sollten 225.000 Euro überwiesen werden. Spätere Ermittlungen wiesen nach, dass die Stimme des Anrufers mithilfe von künstlicher Intelligenz von Kriminellen nachgeahmt worden war.