Betrugsmaschen: Wie Kriminelle Künstliche Intelligenz missbrauchen Von Gina Haubner Kategorien: Wissen & Technik Stand: 25. Juli 2023, 10:40 Uhr Foto: CC0 / Unsplash / Towfiqu barbhuiya Den Enkeltrick nutzen Betrüger:innen schon länger als eine Masche, um insbesondere älteren Menschen Geld zu entwenden. Nun haben sie diese und andere Methoden mit Hilfe von KI weiterentwickelt. Betrüger:innen missbrauchen künstliche Intelligenz (KI), um ihre Betrugsmaschen weiter zu entwickeln. Mit sogenannten Audio Deepfakes können sie die Stimme einer gewünschten Person täuschend echt imitieren, berichtet der NDR. Hierfür spielen sie mehrere Stimmproben einer Person in ein KI-Programm ein. Das erstellt darauf hin eine sehr ähnlich klingende Stimme. Nun kann diese Stimme gewünschte Texte einsprechen. KI wird für den Enkeltrick genutzt Die Technik kann in vielen Bereichen genutzt werden: für Hörbücher oder zum Vorlesen von Zeitungsartikeln. Doch auch Betrüger:innen machen sie sich zu Nutze: Ein Beispiel ist der sogenannten Enkeltrick. Hier täuschen Betrüger:innen Familienangehörigen vor, ein:e Verwandte:r zu sein und sich in einer schwierigen Lage zu befinden. Sie fordern Geld und Vermögenswerte. Erste Fälle dieser Masche gibt es laut NDR bereits in den USA. Beim CEO-Betrug geht es um hohe Summen Beim CEO-Betrug geben sich die Betrüger:innen mittels Audio-Deepfake als hochrangige:r Mitarbeiter:in (z.B. CEO) oder als andere Schlüsselperson aus. Dabei fordern sie Mitarbeiter:innen auf, Gelder freizugeben oder vertrauliche Informationen zu enthüllen. In Deutschland konnten Betrüger:innen so einem Energieversorger 220.000 Euro entwenden. Ganze 35 Millionen US-Dollar waren es in einem anderen Fall, bei dem vermutlich KI genutzt wurde, so der NDR. Deepfakes beschäftigen auch die Politik und die Polizei Audio-Deepfakes werden auch zu politischen Zwecken genutzt. Betrüger:innen erstellen falsche Aussagen von Politiker:innen und bringen sie anschließend in Umlauf, um Wähler:innen zu beeinflussen und die Stimmung aufzuheizen. Bisher wurden sie jedoch meist schnell enttarnt und konnten so keine Schäden anrichten, berichtet der NDR. Auch für die Polizei können die neuen Möglichkeiten der KI Schwierigkeiten darstellen. Das europäische Polizeiamt Europol sieht eine Gefahr darin, dass Geständnisse oder die Aussagen von Zeug:innen als nicht mehr authentisch eingestuft werden könnten. Wie funktionieren Audio-Deepfakes? Bereits jetzt gibt es online viele Programme, die eine gewünschte Stimme imitieren können. Manche sind kostenpflichtig, andere gratis. Um eine möglichst ähnliche Stimme zu kreieren bedarf es qualitativ hochwertiger Aufnahmen der Person, die imitiert werden soll. Je besser die Qualität, desto ähnlicher wird die synthetische Stimme. Die KI trainiert sich die Original-Stimme mithilfe von maschinellem Lernen an. Ist die synthetische Stimme erstellt, können Texte ins Programm eingegeben werden, die die Stimme dann vorliest. Wie sollte ich mich verhalten? Sind die Audio-Deepfakes gut gemacht, können sie nur schwer als falsch erkannt werden. Deswegen empfiehlt der NDR bei entsprechenden Anrufen ruhig zu bleiben. Idealerweise kann auch eine zweite Person dabei helfen, herauszufinden ob der Anruf echt ist oder es sich um einen Betrug handelt. In jedem Fall sollte man versuchen, die Person, um die es geht, über die bekannte Nummer zu erreichen, rät die Verbraucherzentrale. Oft würde der Schwindel dadurch schon auffallen. Und während Betrüger:innen KI nutzen, um ihre Betrugsmethoden weiterzuentwickeln, wird KI auch verwendet, um eben diese Maschen schneller zu enttarnen. Forscher:innen und Entwickler:innen arbeiten an Technologien, um gefälschte Audiodateien besser zu erkennen und zu verifizieren. Verwendete Quellen: NDR, Verbraucherzentrale Weiterlesen auf Utopia.de: „Könnte Beleg dafür sein, dass wir Stille tatsächlich hören“ Sachsens Gender-Verbot: So handhaben es andere Bundesländer „Sie machen Sklaven aus uns“: Der bittere Geschmack brasilianischen Kaffees ** mit ** markierte oder orange unterstrichene Links zu Bezugsquellen sind teilweise Partner-Links: Wenn ihr hier kauft, unterstützt ihr aktiv Utopia.de, denn wir erhalten dann einen kleinen Teil vom Verkaufserlös. Mehr Infos. War dieser Artikel interessant? 16 1 Vielen Dank für deine Stimme! Diese Artikel könnten dich auch interessieren TCO-Siegel: Das strenge IT-Label aus Schweden Netflix-Alternativen: Mit Filmfriends und Co. kostenlos streamen Digital Wellbeing: Mit diesen Apps schaffst du das digitale Wohlgefühl Batterien: Warum sie ein Problem sind Handytasche nähen: Kreative Anleitung zum Selbermachen Handy abkühlen: 15 Tipps und was du unbedingt beachten solltest Framework-Laptop im Test: Ist er wirklich nachhaltig? Dematerialisierung: Kann sie zu mehr Nachhaltigkeit beitragen? PC reinigen: So werden dreckige Computer wieder sauber HOL DIR DEN UTOPIA NEWSLETTER Leave this field empty if you're human: