19. März 2023, 16:29 Uhr | Lesezeit: 3 Minuten
Künstliche Intelligenz (KI) kann unser Leben in vielerlei Hinsicht erleichtern. Doch der technische Fortschritt bringt auch Risiken mit sich. Eine neue Betrugsmasche per Telefon setzt nun auf KI-generierte Stimmen, die denen echter Personen zum Verwechseln ähneln. So konnten Kriminelle in den USA – getarnt als angebliche Verwandte in Not – bereits zahlreiche ahnungslose Opfer täuschen.
Dass Betrugsmaschen via SMS oder Whatsapp so häufig erfolgreich sind, liegt auch daran, dass hinter Textnachrichten quasi jeder stecken könnte. So läuft es auch beim sogenannten Enkeltrick, wo sich Betrüger schriftlich als nahe Angehörige ausgeben. Gerade ältere Menschen, deren Gedächtnis nicht mehr ganz fit ist und die womöglich mit Technik so ihre Probleme haben, sind relativ leicht zu verunsichern. Bekommt eine Person also eine Mitteilung vom scheinbaren Enkelsohn, der sich angeblich in einer Notsituation befindet, ist der Geldbeutel schnell gezückt. Der telefonische Betrug dagegen kann etwa daran scheitern, dass das Opfer die Stimme des angeblichen Verwandten als fremd wahrnimmt. Doch genau diese Hürde können Kriminelle jetzt nehmen – mithilfe von KI-generierten Stimmen.
Übersicht
Stimmimitation mit KI – wie geht das?
KI steht für die Imitation der menschlichen Intelligenz. Mithilfe von Trainingsdaten, welche in die Programme eingespeist und von ihnen verarbeitet wurden, kann KI Fragen beantworten und selbst weiter denken. Verbreitete Anwendungsgebiete sind etwa die Empfehlungssysteme von Netflix und Co., die auf dem Streaming-Verhalten von Nutzern basieren, oder auch die Gesichts- und Stimmerkennungsfunktion des Smartphones. Kürzlich erst verlas ein kolumbianischer Richter einen Urteilsspruch, den er vom KI-Bot ChatGPT hat schreiben lassen.
Die Fähigkeiten von KI reichen weiterhin aus, um anhand von kurzen Sound-Proben die Stimmen von Personen zu verinnerlichen und originalgetreu zu imitieren. Hierfür entwickelte Softwares analysieren, was eine Stimme einzigartig macht, heißt es dazu in einem aktuellen Beitrag der Tageszeitung „Washington Post“. Sie berücksichtige dabei auch das geschätzte Alter und Geschlecht der Person sowie etwaige Besonderheiten (z. B. Sprachfehler, Akzente). Auf dieser Basis sucht die KI aus einer enormen Datenbank von Stimmen eine heraus, die der Vorlage am ähnlichsten ist.
Zahlreiche Betrugsfälle in den USA
Wie das Blatt weiter berichtet, mehren sich aktuell betrügerische Anrufe mit KI-generierten Stimmen innerhalb der USA. Es wird der Fall der Eheleute Card vorgestellt, sie 73 und er 75 Jahre alt. Sie seien von ihrem vermeintlichen Enkelsohn Brandon aus dem Gefängnis angerufen worden, mit der dringenden Bitte um Geld für die Kaution. Daraufhin wollen die beängstigten Großeltern mehrere Geldinstitute abgefahren und jeweils den höchstmöglichen Betrag von ihrem Konto abgehoben haben. In diesem Fall konnte der Manager einer der Banken noch Schlimmeres verhindern. Er hatte die Räuberpistole bereits von anderen Kunden gehört und somit als Betrug enttarnt. Ein anderes älteres Paar dagegen habe die vom Betrüger (dem angeblichen Sohn) geforderten rund 15.000 Dollar ohne Zögern überwiesen.
Derartige Einzelfälle ergeben ein beachtliches, großes Ganzes: Im vergangenen Jahr sollen Betrugsanrufe in den USA einen finanziellen Schaden von insgesamt rund 11 Millionen US-Dollar verursacht haben.
Auch interessant: Spoofing – so schützt man sich vor der Betrugsmasche
KI imitiert Angehörige Mit diesem Tipp enttarnen Sie Betrüger am Telefon sofort
„Chef-Masche“ Betrüger erbeuten mehr als 20 Millionen Euro mit gefakter Videokonferenz
Aktuelle Warnungen „Enkeltrick“ kursiert erneut auf WhatsApp
Schützen Sie Ihre Stimme vor Imitationsversuchen
Entsprechende Fälle aus Deutschland sind noch nicht bekannt. Doch es ist wohl nur eine Frage der Zeit, bis die Betrugsmasche mit KI-generierten Stimmen auch hier Einzug hält. Wer also nicht unabsichtlich zum Komplizen werden will, sollte achtsam sein, etwa wenn er einen Anruf von einer unbekannten oder unterdrücken Nummer bekommt. Denn eine Software zur Stimmimitation benötigt nur sehr kurze Vorlagen (z. B. ein „hallo, wer ist dran?“), um einen realistischen Nachahmer zu generieren. Nutzer von TikTok und Co., die ihre Stimme in Reels oder Videos verlauten lassen, sind für Betrüger ein gefundenes Fressen.