Direkt zum Inhalt wechseln
logo Das Magazin für digitalen Lifestyle und Entertainment
Zahlreiche Fälle in den USA

Neue Telefon-Betrugsmasche ködert mit KI-Stimme

Frau am Telefon
Betrüger können jetzt mithilfe von KI Stimmen imitieren – und nutzen dies zur Abzocke am Telefon Foto: Getty Images
Freie Redakteurin

19. März 2023, 16:29 Uhr | Lesezeit: 3 Minuten

Künstliche Intelligenz (KI) kann unser Leben in vielerlei Hinsicht erleichtern. Doch der technische Fortschritt bringt auch Risiken mit sich. Eine neue Betrugsmasche per Telefon setzt nun auf KI-generierte Stimmen, die denen echter Personen zum Verwechseln ähneln. So konnten Kriminelle in den USA – getarnt als angebliche Verwandte in Not – bereits zahlreiche ahnungslose Opfer täuschen.

Artikel teilen

Dass Betrugsmaschen via SMS oder Whatsapp so häufig erfolgreich sind, liegt auch daran, dass hinter Textnachrichten quasi jeder stecken könnte. So läuft es auch beim sogenannten Enkeltrick, wo sich Betrüger schriftlich als nahe Angehörige ausgeben. Gerade ältere Menschen, deren Gedächtnis nicht mehr ganz fit ist und die womöglich mit Technik so ihre Probleme haben, sind relativ leicht zu verunsichern. Bekommt eine Person also eine Mitteilung vom scheinbaren Enkelsohn, der sich angeblich in einer Notsituation befindet, ist der Geldbeutel schnell gezückt. Der telefonische Betrug dagegen kann etwa daran scheitern, dass das Opfer die Stimme des angeblichen Verwandten als fremd wahrnimmt. Doch genau diese Hürde können Kriminelle jetzt nehmen – mithilfe von KI-generierten Stimmen.

Stimmimitation mit KI – wie geht das?

KI steht für die Imitation der menschlichen Intelligenz. Mithilfe von Trainingsdaten, welche in die Programme eingespeist und von ihnen verarbeitet wurden, kann KI Fragen beantworten und selbst weiter denken. Verbreitete Anwendungsgebiete sind etwa die Empfehlungssysteme von Netflix und Co., die auf dem Streaming-Verhalten von Nutzern basieren, oder auch die Gesichts- und Stimmerkennungsfunktion des Smartphones. Kürzlich erst verlas ein kolumbianischer Richter einen Urteilsspruch, den er vom KI-Bot ChatGPT hat schreiben lassen.

Die Fähigkeiten von KI reichen weiterhin aus, um anhand von kurzen Sound-Proben die Stimmen von Personen zu verinnerlichen und originalgetreu zu imitieren. Hierfür entwickelte Softwares analysieren, was eine Stimme einzigartig macht, heißt es dazu in einem aktuellen Beitrag der Tageszeitung „Washington Post“. Sie berücksichtige dabei auch das geschätzte Alter und Geschlecht der Person sowie etwaige Besonderheiten (z. B. Sprachfehler, Akzente). Auf dieser Basis sucht die KI aus einer enormen Datenbank von Stimmen eine heraus, die der Vorlage am ähnlichsten ist.

Zahlreiche Betrugsfälle in den USA

Wie das Blatt weiter berichtet, mehren sich aktuell betrügerische Anrufe mit KI-generierten Stimmen innerhalb der USA. Es wird der Fall der Eheleute Card vorgestellt, sie 73 und er 75 Jahre alt. Sie seien von ihrem vermeintlichen Enkelsohn Brandon aus dem Gefängnis angerufen worden, mit der dringenden Bitte um Geld für die Kaution. Daraufhin wollen die beängstigten Großeltern mehrere Geldinstitute abgefahren und jeweils den höchstmöglichen Betrag von ihrem Konto abgehoben haben. In diesem Fall konnte der Manager einer der Banken noch Schlimmeres verhindern. Er hatte die Räuberpistole bereits von anderen Kunden gehört und somit als Betrug enttarnt. Ein anderes älteres Paar dagegen habe die vom Betrüger (dem angeblichen Sohn) geforderten rund 15.000 Dollar ohne Zögern überwiesen.

Derartige Einzelfälle ergeben ein beachtliches, großes Ganzes: Im vergangenen Jahr sollen Betrugsanrufe in den USA einen finanziellen Schaden von insgesamt rund 11 Millionen US-Dollar verursacht haben.

Auch interessant: Spoofing – so schützt man sich vor der Betrugsmasche

Mehr zum Thema

Schützen Sie Ihre Stimme vor Imitationsversuchen

Entsprechende Fälle aus Deutschland sind noch nicht bekannt. Doch es ist wohl nur eine Frage der Zeit, bis die Betrugsmasche mit KI-generierten Stimmen auch hier Einzug hält. Wer also nicht unabsichtlich zum Komplizen werden will, sollte achtsam sein, etwa wenn er einen Anruf von einer unbekannten oder unterdrücken Nummer bekommt. Denn eine Software zur Stimmimitation benötigt nur sehr kurze Vorlagen (z. B. ein „hallo, wer ist dran?“), um einen realistischen Nachahmer zu generieren. Nutzer von TikTok und Co., die ihre Stimme in Reels oder Videos verlauten lassen, sind für Betrüger ein gefundenes Fressen.

Technik-Angebote entdecken bei kaufDA
Logo KaufDA
Anzeige
Deine Datensicherheit bei der Nutzung der Teilen-Funktion
Um diesen Artikel oder andere Inhalte über Soziale- Netzwerke zu teilen, brauchen wir deine Zustimmung für diesen .
Sie haben erfolgreich Ihre Einwilligung in die Nutzung dieser Webseite mit Tracking und Cookies widerrufen. Sie können sich jetzt erneut zwischen dem Pur-Abo und der Nutzung mit personalisierter Werbung, Cookies und Tracking entscheiden.