Den Enkeltrick nutzen Betrüger:innen schon länger als eine Masche, um insbesondere älteren Menschen Geld zu entwenden. Nun haben sie diese und andere Methoden mit Hilfe von KI weiterentwickelt.
Betrüger:innen missbrauchen künstliche Intelligenz (KI), um ihre Betrugsmaschen weiter zu entwickeln. Mit sogenannten Audio Deepfakes können sie die Stimme einer gewünschten Person täuschend echt imitieren, berichtet der NDR.
Hierfür spielen sie mehrere Stimmproben einer Person in ein KI-Programm ein. Das erstellt darauf hin eine sehr ähnlich klingende Stimme. Nun kann diese Stimme gewünschte Texte einsprechen.
KI wird für den Enkeltrick genutzt
Die Technik kann in vielen Bereichen genutzt werden: für Hörbücher oder zum Vorlesen von Zeitungsartikeln. Doch auch Betrüger:innen machen sie sich zu Nutze:
Ein Beispiel ist der sogenannten Enkeltrick. Hier täuschen Betrüger:innen Familienangehörigen vor, ein:e Verwandte:r zu sein und sich in einer schwierigen Lage zu befinden. Sie fordern Geld und Vermögenswerte. Erste Fälle dieser Masche gibt es laut NDR bereits in den USA.
Beim CEO-Betrug geht es um hohe Summen
Beim CEO-Betrug geben sich die Betrüger:innen mittels Audio-Deepfake als hochrangige:r Mitarbeiter:in (z.B. CEO) oder als andere Schlüsselperson aus. Dabei fordern sie Mitarbeiter:innen auf, Gelder freizugeben oder vertrauliche Informationen zu enthüllen.
In Deutschland konnten Betrüger:innen so einem Energieversorger 220.000 Euro entwenden. Ganze 35 Millionen US-Dollar waren es in einem anderen Fall, bei dem vermutlich KI genutzt wurde, so der NDR.
Deepfakes beschäftigen auch die Politik und die Polizei
Audio-Deepfakes werden auch zu politischen Zwecken genutzt. Betrüger:innen erstellen falsche Aussagen von Politiker:innen und bringen sie anschließend in Umlauf, um Wähler:innen zu beeinflussen und die Stimmung aufzuheizen. Bisher wurden sie jedoch meist schnell enttarnt und konnten so keine Schäden anrichten, berichtet der NDR.
Auch für die Polizei können die neuen Möglichkeiten der KI Schwierigkeiten darstellen. Das europäische Polizeiamt Europol sieht eine Gefahr darin, dass Geständnisse oder die Aussagen von Zeug:innen als nicht mehr authentisch eingestuft werden könnten.
Wie funktionieren Audio-Deepfakes?
Bereits jetzt gibt es online viele Programme, die eine gewünschte Stimme imitieren können. Manche sind kostenpflichtig, andere gratis. Um eine möglichst ähnliche Stimme zu kreieren bedarf es qualitativ hochwertiger Aufnahmen der Person, die imitiert werden soll. Je besser die Qualität, desto ähnlicher wird die synthetische Stimme.
Die KI trainiert sich die Original-Stimme mithilfe von maschinellem Lernen an. Ist die synthetische Stimme erstellt, können Texte ins Programm eingegeben werden, die die Stimme dann vorliest.
Wie sollte ich mich verhalten?
Sind die Audio-Deepfakes gut gemacht, können sie nur schwer als falsch erkannt werden. Deswegen empfiehlt der NDR bei entsprechenden Anrufen ruhig zu bleiben. Idealerweise kann auch eine zweite Person dabei helfen, herauszufinden ob der Anruf echt ist oder es sich um einen Betrug handelt.
In jedem Fall sollte man versuchen, die Person, um die es geht, über die bekannte Nummer zu erreichen, rät die Verbraucherzentrale. Oft würde der Schwindel dadurch schon auffallen.
Und während Betrüger:innen KI nutzen, um ihre Betrugsmethoden weiterzuentwickeln, wird KI auch verwendet, um eben diese Maschen schneller zu enttarnen. Forscher:innen und Entwickler:innen arbeiten an Technologien, um gefälschte Audiodateien besser zu erkennen und zu verifizieren.
Verwendete Quellen: NDR, Verbraucherzentrale
Weiterlesen auf Utopia.de:
- „Könnte Beleg dafür sein, dass wir Stille tatsächlich hören“
- Sachsens Gender-Verbot: So handhaben es andere Bundesländer
- „Sie machen Sklaven aus uns“: Der bittere Geschmack brasilianischen Kaffees
War dieser Artikel interessant?
- "Mit Ecken und Kanten": Online-Shop für faire Produkte mit Fehlern
- Fairphone 4 im Praxistest: das Smartphone zum Selbst-Reparieren
- Handy reinigen: So geht es richtig
- Dematerialisierung: Kann sie zu mehr Nachhaltigkeit beitragen?
- Das Fairphone 4 bietet Android 11, 5G, 5 Jahre Garantie, Dual-SIM & mehr
- Der Utopia-Podcast: Digital Detox – so gelingt das Offline-Leben
- Handynacken: Diese 5 Tipps helfen
- WhatsApp-Alternativen: Sichere Messenger im Überblick
- Klingelt der Wecker, wenn das Handy aus ist?