„Audio-Deepfakes“ – Täuschend echte Schockanrufe mit KI-Stimme möglich

„Audio-Deepfakes“ – täuschend echte Schockanrufe mit KI-Stimme möglich

Um ihren Opfern das Geld aus der Tasche zu ziehen, lassen sich Betrüger immer wieder neue Vorgehensweisen einfallen. Jetzt werden die sogenannten Schockanrufe auf ein neues Level gehoben. Denn mit dem Einsatz von Künstlicher Intelligenz lassen sich Anrufe fälschen, die kaum von der Realität zu unterscheiden sind.

Was steckt hinter dem Telefonbetrug „Audio-Deepfakes“?

Schockanrufe sind schon seit langer Zeit bekannt und daher nichts Neues. Immer wieder wird beispielsweise mit dem sogenannten „Enkeltrick“ versucht, an das Geld von arglosen Personen zu gelangen. Relativ neu ist allerdings, dass zur Fälschung der Stimme jetzt auch Künstliche Intelligenz eingesetzt wird. Die KI ermöglicht es den Tätern, die Stimmen von Freunden, Familie und Bekannten ganz einfach und vor allem sehr realistisch zu imitieren. Für die Audio-Deepfakes wird dabei nicht viel benötigt. Denn lediglich eine kurze Stimmprobe sowie ein Programm sind notwendig. Mittlerweile finden sich zahlreiche entsprechende Computerprogramme, die für jeden frei zugänglich sind. Durch den Einsatz der KI ist die Stimme der vorgetäuschten Person kaum als Fälschung zu enttarnen.

„Stellen Sie sich vor, eine ihnen bestens bekannte Stimme ruft sie an. Nicht etwa eine weinende Person, die im Entferntesten eine Ähnlichkeit mit jemandem haben könnte. Eine Stimme, die sie nicht von der `echten Person´ unterscheiden können“, warnt der stellvertretende Bundesvorsitzende der Polizeigewerkschaft, Ralf Kusterer.

Die Täter machen sich die technische Möglichkeit zu nutzen, um etwa Fake-Sprachnachrichten zu verschicken. Obwohl die vorgetäuschten Szenarien immer unterschiedlich sein können, geht es immer um eine vermeintliche Notsituation, in der Hilfe benötigt wird. Immer wird viel Geld benötigt, um sich aus der vermeintlich hilflosen Lage zu befreien. Denkbar sind sowohl angebliche ärztliche Behandlungen als auch Kautionssummen, um aus dem Gefängnis entlassen zu werden.

Wie funktioniert die Betrugsmasche?

Um Audio-Deepfakes zu erschaffen, ist es bereits ausreichend, über wenige Sprachaufnahmen zu verfügen. Mittels der speziellen Programme lassen sich dann überzeugende Stimmimitationen herstellen. Denn da die Aufnahmen durch das Telefon abgespielt werden, klingen sie besonders echt.

„Es gibt inzwischen Ansätze, für die man sehr wenige Dateien braucht, um Stimmen zu klonen. Man würde normalerweise hören, dass dieser Stimmklon relativ blechern oder monoton klingt. Am Telefon geht so etwas aber dann verloren“, erklärt die Informatikerin mit Spezialisierung auf IT-Sicherheit Anne Kunstmann.

Die Täter können mit den potenziellen Opfern sogar richtige Unterhaltungen am Telefon führen. Denn per Texteingabe spukt das Computerprogramm die gewünschten Sätze und Wörter aus. Über Social-Media, Homepages oder Videoportale, die im Internet zugänglich sind, haben die Betrüger oftmals leichtes Spiel an die Stimmen zu gelangen. Denn zahlreiche Menschen laden kurze Videos oder Sprachaufnahmen im Netz hoch – vermutlich ohne sich darüber bewusst zu sein, dass diese für KI-Deepfakes missbraucht werden können. Ebenso denkbar sei ein illegaler Zugriff auf Sprach-Assistenten oder Cloud-Speicher, um an die benötigten Stimmproben zu gelangen. Die Polizei geht davon aus, dass die Verbindung zwischen der vorgetäuschten Person und dem angerufenen Opfer ebenfalls über Soziale-Medien erfolgt. Die Schockanrufe könnten außerdem wiederum dafür verwendet werden, bei einem erneuten Betrug die Stimme des Angerufenen zu verwenden.

Weitere Betrugsmasche mit KI aufgetaucht

Dass Künstliche Intelligenz nicht nur für Positives eingesetzt werden kann, zeigt sich auch bei einer weiteren alarmierenden Betrugsmasche: Cyber-Kidnapping. Obwohl es aktuell noch keine Fälle in Deutschland gibt, ist davon auszugehen, dass sie auch hierzulande auftreten wird. Arglose Eltern werden von einer ihnen unbekannten Telefonnummer angerufen. Dann hören sie vermeintlich ihr eigenes Kind um Hilfe schreien. Anschließend fordert ein Entführer ein Lösegeld und setzt die Betroffenen unter Druck. Es wird vorgegeben, dass dem Kind Gefahr droht, wenn nicht bezahlt wird. Auch in diesem Fall handelt es sich jedoch nicht um das echte Kind, das seine Eltern anruft, sondern um eine mit Künstlicher Intelligenz erzeugte Stimmimitation.

Wie kann man sich vor dem Betrug schützen?

Um sich vor der KI-Betrugsmasche besser schützen zu können, sollten Internetnutzer allgemein darauf achten, welche Daten und persönliche Informationen sie im Netz preisgeben. Hierfür ist es wichtig, auch die Privatsphäre-Einstellungen verschiedener Apps, Anwendungen und Plattformen genau im Blick zu haben. Um sich besser abzusichern, sollte eine Zwei-Faktor-Authentifizierung für Onlinekonten verwendet werden. Ebenso kann es hilfreich sein, keine Freundschaftsanfragen von Personen zu akzeptieren, die man nicht persönlich kennt. Betroffene, die einen Schockanruf erhalten, sollten, wenn möglich, einen kühlen Kopf bewahren und versuchen, die vorgegebene Person auf einem anderen Weg zu kontaktieren. Keinesfalls sollte man sich unter Druck setzen und zu unüberlegten Handlungen hinreißen lassen. Wer bereits Opfer eines Audio-Deepfakes wurde, sollte sich umgehend an die Polizei wenden und Anzeige erstatten.

1 Kommentar

  1. da ist es ja an der Zeit daß diese cyberverbrecherische ki (künstliche Intelligenz) als das angesehen und bewertet wird, was die ist. ein Cyberverbrecher, der alle Internet-Daten fälscht, verfälscht, menschliche Personen verleumdet, falsch beschuldigt, Straftaten begangen zu haben, ki-generierte gefälschte angebliche Gerichtsverhandlungen und angebliche Gerichtsurteile, die die menschlichen unbescholtenen Personen zu Kriminellen abstempeln, ohne daß ein Straftatbestand vorliegt (vorlag). ein Rechtsanwalt in den USA hatte in mehreren Verhandlungen das Cyberverbrecherniveau der ki – AI (künstlichen Intelligenz) am eigenen Leibe erlebt und wurde von der ki belogen und der Rechtsanwalt stand als Trottel da. der Rechtsanwalt ließ sich das nicht gefallen und verklagte AI. darauf forderte der aktuelle US-Präsident AI auf, die Algorithmen offenzulegen. deshalb wurde AI als Unternehmen von der US-Regierung (Präsident) als unseriös gebrandmarkt. deshalb wanderten viele AI-Angestellte zu Mirosoft ab, weil die Cyber-Lügen der ki (AI) aufgeflogen waren und riesigen Schaden anrichteten.

    es ist wohl an der Zeit, die ki-Tools wie einen meistgesuchten Verbrecher zu jagen und die Cyberstraftaten der ki-Tools anzuzeigen, wenn schon nicht mal die deutsche BRegierung so viel Grips in der Birne hat, um die menschliche Intelligenz als einzig Wahre anzusehen, anstatt eine verlogene cyber-ki in den Internet-Olymp zu befördern als angeblich fehlerfrei.
    die ki macht auch keinen Halt davor, die Webseiten der deutschen Parteien zu fälschen, und die ki macht auch keinen Halt davor, Spam-Nachrichten von den deutschen Video-Nachrichtensendern zu verbreiten. es ist so einfach, sich vor diesem ki-Müll zu schützen. die ki-Apps deinstallieren, aus den Speichern löschen, und sich mit menschlicher Intelligenz zu befassen.

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.


*


Die aktuellsten telespiegel Nachrichten
Verbraucherschutz – Shein wird wegen Verstoßes gegen EU-Recht abgemahnt

Verbraucherschutz

Shein wird wegen Verstoßes gegen EU-Recht abgemahnt

Chinesische Online-Shops, die Billigprodukte anbieten, sind bei vielen sehr beliebt. Neben den niedrigen Preisen lockt auch das breit gefächerte Angebot. Jetzt haben Verbraucherschützer den Online-Marktplatz abgemahnt. Shein steht im Verdacht, gegen mehrere EU-Regeln zu verstoßen. […]

Nachhaltige Optionen – Google-Maps zeigt Alternativen zum Autofahren

Nachhaltige Optionen

Google-Maps zeigt Alternativen zum Autofahren

Der Tech-Riese Google will die Nutzer seiner Maps-App zur Nutzung von nachhaltigen Verkehrsmitteln animieren. Hierzu werden zahlreiche Änderungen im Routenplaner vorgenommen. Mit dem neuen Feature sollen leichter umweltbewusste Entscheidungen getroffen werden können. […]

Achtung, Betrug – so können KI-Fake-Anrufe enttarnt werden

Achtung, Betrug

So können KI-Fake-Anrufe enttarnt werden

Betrügerische Anrufe und Nachrichten sind aufgrund des Einsatzes von Künstlicher Intelligenz immer schwieriger zu erkennen. Um sich dennoch vor den betrügerischen Absichten zu schützen, hilft eine Frage, die bei einem vermeintlichen Hilfeanruf gestellt werden kann. […]