Gefälschte Stimmen – Betrugsmasche schockiert Betroffene

2 Min. Lesezeit in Pocket speichern
Das KI-Sprachmodell ChatGPT ist seit einigen Monaten in aller Munde. Bereits kurze Zeit nach der Einführung erleichterte das Tool den Alltag unzähliger Menschen. Doch auch Cyberkriminelle können von künstlicher Intelligenz profitieren. Das beweist nun eine schockierende Masche.
KI, Betrug, Telefon, Handy, Smartphone

Gefälschte Stimmen – Betrugsmasche schockiert Betroffene

Sogenannte Schockanrufe gehören zu den bekanntesten Vishing-Maschen. Dabei werden die Angerufenen mit einer schockierenden Nachricht konfrontiert, wie etwa einem tödlichen Verkehrsunfall, dass der Nachwuchs verursacht haben soll. Oder beispielsweise einer Entführung. Die Betrugsmasche ist zwar grundsätzlich nach wie vor erfolgreich, mittlerweile durchschauen viele Angerufene jedoch die Täuschung und beenden das Telefonat noch bevor die Kriminellen finanziell profitieren können. So war das zumindest bisher. Denn jüngst können Kriminelle den Betrug mittels KI auf eine gänzlich neue Ebene befördern.

Plötzlich ruft der Nachwuchs selbst an

Was der oben aufgeführten Masche fehlt, ist ein Vertrauensvorschuss. Diesen erzeugen Kriminelle nun, indem sie mittels KI und der sogenannten Deep Fake-Technologie die Stimme des Nachwuchses fälschen. Nach Auffassung von Thomas Wrobel, Spam-Schutz-Experte von Clever Dialer, seien die synthetischen Nachahmungen mittlerweile nahezu perfekt. Für Betroffene bedeutet dies, dass sie etwa die Stimme ihrer Tochter hören, die über einen Verkehrsunfall berichtet. Anschließend löst eine andere Person wie ein Polizist oder ein Staatsanwalt diese jedoch vergleichsweise schnell ab.

Im Rahmen eines Falls um eine 54-jährige Frau aus dem Saarland sollen die Kriminellen im weiteren Verlauf eine Kautionszahlung in Höhe von 80.000 Euro gefordert haben. Lediglich das besonnene Eingreifen eines Bankangestellten konnte das Schlimmste verhindern. In den USA sollen derweil allein 2022 etwa 5.000 Menschen mit dieser Methode um ihr Erspartes gebracht worden sein. Der finanzielle Schaden belief sich dabei schätzungsweise auf etwa 11 Millionen US-Dollar.

So erkennst du einen Schockanruf mit KI-Unterstützung

Bevor die synthetische Stimme generiert werden kann, muss die künstliche Intelligenz das echte Stimmmuster einer Person analysieren. Diese Tatsache stellt jedoch angesichts diverser Social-Media-Kanäle ein eher überschaubares Hindernis dar. Bereits ein einziges TikTok-Video kann ausreichen, um eine Stimme überzeugend simulieren zu können. Allerdings nur für kurze Zeit. Denn laut Wrobel sei die Technologie nicht so ausgereift, dass längere Dialoge ohne Auffälligkeiten in der Aussprache durchgeführt werden können. Darauf sollten Angerufene achten. Wird das Telefon etwa zügig an einen Dritten weitergereicht, sollte man innerlich aufhorchen. Auch soll KI Eigennamen und Dialekte nach wie vor nur schlecht imitieren können.

Ferner könnte ein vorab vereinbartes Kennwort in einer Notsituation für Aufklärung sorgen. Und als letzten Ausweg könnte man das Telefonat kurzerhand beenden und den Nachwuchs eigenständig anwählen – bestenfalls von einem anderen Telefon aus, um Call-ID-Spoofing zu vermeiden.

Keine Kommentare

[-AMP Version-]