Deepfakes sind manipulierte Bild- und Tonmedien und mittlerweile keine Seltenheit mehr im Internet. Wie du Deepfakes erkennen kannst und warum sie gefährlich sein können, erfährst du hier.
Laut der Bundesregierung sind Deepfakes „täuschend echt wirkende, manipulierte Bild-, Audio- oder auch Videoaufnahmen“, die mithilfe künstlicher Intelligenz erzeugt werden. Mit gewissen Apps kannst du solche Aufnahmen zu Unterhaltungszwecken erstellen, indem du beispielsweise dein Gesicht auf das einer prominenten Person legst.
Immer häufiger setzen Profis die Technik jedoch auch zu illegalen Zwecken ein, um Falschinformationen zu verbreiten, gezielt Personen zu diskreditieren oder allgemein zu täuschen. Wir erklären, wie du Deepfakes erkennen kannst.
Deepfakes erkennen: Diese Formen gibt es
Methoden der Künstlichen Intelligenz (KI) erlauben es heutzutage, mit vergleichsweise wenig Aufwand und Expertise Deepfakes zu erstellen. Laut dem Bundesamt für Sicherheit in der Informationstechnik (BSI) finden dafür tiefe neuronale Netze (auf Englisch „deep neural networks“) Verwendung, woher auch der umgangssprachliche Begriff Deepfakes stammt.
Grob lassen sich drei Formen von Deepfakes unterscheiden:
1. Manipulation von Gesichtern
- Face Swapping: Hierbei tauscht die KI das Gesicht einer Person mit dem Gesicht einer anderen Person aus. Ein einfaches Face Swap fügt also meist Augen, Nase und Mund einer Person in das Gesicht einer anderen Person ein und kann dabei eine identische Mimik, Blickrichtung und Gesichtsbeleuchtung erzeugen. Mittlerweile können kommerzielle Grafikkarten mit hochauflösendem Videomaterial trainiert werden, um Deepfakes auch in Echtzeit zu erstellen.
- Face Reenactment: Beim Face Reenactment geht es darum, die Mimik, Lippenbewegungen und Kopfbewegungen einer Person nachzuahmen und zu manipulieren. Eine KI kann mittels Videostreams täuschend echte 3D-Videos einer Person erstellen, die die Deepfake-Betrüger:innen kontrollieren können. So können sie die Person im Video beispielsweise bestimmte Dinge sagen oder tun lassen.
- (Pseudo-)Identitäten: Eine KI kann auch komplett neue Personen erzeugen, die in Realität nicht existieren.
2. Manipulation von Stimmen
Auch Stimmen kann eine KI täuschend echt fälschen. Hierbei wandelt diese mithilfe eines sogenannten „Text-to-Speech“-Verfahren einen Text in ein Audio-Signal um. Beim „Voice-Conversion“-Verfahren dagegen kann die KI ein Audio-Signal direkt in ein anderes Audio-Signal umwandeln. Um ein System darauf zu trainieren, braucht es Audiodaten von der zu imitierenden Person.
3. Manipulation von Text
Mittlerweile kann eine KI auch lange, zusammenhängende Texte schreiben. Diese basieren auf großen Textdatenbanken und einer hohen Rechenleistung. Mit zunehmendem technischen Fortschritt werden KIs in der Lage sein, als fiktive Gesprächspartner zu agieren. Viele Unternehmen setzten solche Chatbots bereits unter anderem im Kundenservice ein.
Gefahren von Deepfakes
Deepfakes bergen viele Gefahren, wenn sie zu illegalen Zwecken eingesetzt werden. Laut dem BSI haben 25 Prozent der deutschen Unternehmen existenzbedrohende Schäden durch Cyberangriffe erlitten. Eine schnelle und einfache Verbreitung über die sozialen Medien machen sie umso gefährlicher.
Deepfakes können kriminell eingesetzt werden für:
- Überwindung biometrischer Systeme: Die immer besser werdende Technologie von Deepfakes stellt eine Bedrohung für biometrische Systeme dar. Vor allem bei Fernidentifikationsverfahren können sie leicht täuschen.
- Social Engineering: Beim Social Engineering werden gezielt menschliche Eigenschaften ausgenutzt, um beispielsweise mit sogenannten Phishing-Angriffen vertrauliche Informationen zu erhalten. 2019 wurde beispielsweise ein britisches Energieunternehmen durch ein Deepfake des Vorstandsvorsitzenden getäuscht. Die Deepfake-Betrüger:innen ließen das künstlich erzeugte Imitat des Vorsitzenden den Geschäftsführer der Firma dazu auffordern, 225.000 Euro auf ein Konto zu überweisen. Nachträgliche Ermittlungen fanden heraus, dass eine Stimmmanipulation stattgefunden hatte.
- Desinformation: Deepfakes können gezielt Falschinformationen, beispielsweise zu Zwecken politischer Propaganda, verbreiten.
- Verleumdung: Deepfakes erlauben es, Personen in einem falschen Licht darzustellen und so ihren Ruf nachhaltig zu schädigen.
Tipps, um Deepfakes zu erkennen
Diese Tipps können dir als Hilfe dienen, um Deepfakes erkennen:
- Sorge für eine hohe Bildqualität: Je höher die Auflösung des Fotos oder Videos, desto besser erkennst du Unstimmigkeiten. Achte hier besonders auf verwaschene Konturen oder sichtbare Übergänge. Verwende einen möglichst großen Bildschirm. Dein Smartphone-Display ist nicht geeignet, da es zu klein ist. Auch gute Farbeinstellungen sind von Bedeutung, da sie beispielsweise Unebenheiten im Hautbild zeigen können.
- Achte auf die Mimik: Ein Deepfake kann gewisse menschliche Reaktionen wie Blinzeln oder Stirnrunzeln noch nicht so gut imitieren. Achte deshalb genau auf die Stirn oder die Augen und spiele das Video gegebenenfalls langsamer ab.
- Überprüfe die Quelle: Wie in allen Bereichen des Internets solltest du die Quellen prüfen. Bei einer Videokonferenz kannst du um Rückruf bitten, um das Video zu überprüfen und zu verifizieren. Wenn du unsicher bist, kannst du die Person auch bitten, sich an die Wange oder die Nase zu tippen. Dazu ist die KI meist noch nicht in der Lage und du würdest bei einem Deepfake Verzerrungen sehen.
Sei im Zweifel lieber übervorsichtig und gib vertrauliche Informationen nur an seriöse Kontakte weiter. Deepfakes werden mit dem technischen Fortschritt zunehmen, weshalb die Bundesregierung auf eine Förderung der digitalen Medienkompetenz setzt.
Falls du Opfer eines Deepfake-Betruges geworden bist oder einen Verdacht hast, kannst du dich an deine örtliche Polizeistelle wenden. Das Bundesamt für Sicherheit in der Informationstechnik besitzt außerdem eine Website, auf der du dich über alle Themen rund um den digitalen Verbraucherschutz informieren kannst.
Weiterlesen auf Utopia.de:
- Von Corona bis Ukrainekrise: Wie du Fake News erkennst
- Faktenchecker: Welche es gibt und wie du sie nutzt
- Von Querdenken bis Putin-Propaganda: „Im Gespräch mit radikalen Menschen gelten andere Regeln“
War dieser Artikel interessant?