„Audio-Deepfakes“ – Täuschend echte Schockanrufe mit KI-Stimme möglich

„Audio-Deepfakes“ – täuschend echte Schockanrufe mit KI-Stimme möglich

Um ihren Opfern das Geld aus der Tasche zu ziehen, lassen sich Betrüger immer wieder neue Vorgehensweisen einfallen. Jetzt werden die sogenannten Schockanrufe auf ein neues Level gehoben. Denn mit dem Einsatz von Künstlicher Intelligenz lassen sich Anrufe fälschen, die kaum von der Realität zu unterscheiden sind.

Was steckt hinter dem Telefonbetrug „Audio-Deepfakes“?

Schockanrufe sind schon seit langer Zeit bekannt und daher nichts Neues. Immer wieder wird beispielsweise mit dem sogenannten „Enkeltrick“ versucht, an das Geld von arglosen Personen zu gelangen. Relativ neu ist allerdings, dass zur Fälschung der Stimme jetzt auch Künstliche Intelligenz eingesetzt wird. Die KI ermöglicht es den Tätern, die Stimmen von Freunden, Familie und Bekannten ganz einfach und vor allem sehr realistisch zu imitieren. Für die Audio-Deepfakes wird dabei nicht viel benötigt. Denn lediglich eine kurze Stimmprobe sowie ein Programm sind notwendig. Mittlerweile finden sich zahlreiche entsprechende Computerprogramme, die für jeden frei zugänglich sind. Durch den Einsatz der KI ist die Stimme der vorgetäuschten Person kaum als Fälschung zu enttarnen.

„Stellen Sie sich vor, eine ihnen bestens bekannte Stimme ruft sie an. Nicht etwa eine weinende Person, die im Entferntesten eine Ähnlichkeit mit jemandem haben könnte. Eine Stimme, die sie nicht von der `echten Person´ unterscheiden können“, warnt der stellvertretende Bundesvorsitzende der Polizeigewerkschaft, Ralf Kusterer.

Die Täter machen sich die technische Möglichkeit zu nutzen, um etwa Fake-Sprachnachrichten zu verschicken. Obwohl die vorgetäuschten Szenarien immer unterschiedlich sein können, geht es immer um eine vermeintliche Notsituation, in der Hilfe benötigt wird. Immer wird viel Geld benötigt, um sich aus der vermeintlich hilflosen Lage zu befreien. Denkbar sind sowohl angebliche ärztliche Behandlungen als auch Kautionssummen, um aus dem Gefängnis entlassen zu werden.

Wie funktioniert die Betrugsmasche?

Um Audio-Deepfakes zu erschaffen, ist es bereits ausreichend, über wenige Sprachaufnahmen zu verfügen. Mittels der speziellen Programme lassen sich dann überzeugende Stimmimitationen herstellen. Denn da die Aufnahmen durch das Telefon abgespielt werden, klingen sie besonders echt.

„Es gibt inzwischen Ansätze, für die man sehr wenige Dateien braucht, um Stimmen zu klonen. Man würde normalerweise hören, dass dieser Stimmklon relativ blechern oder monoton klingt. Am Telefon geht so etwas aber dann verloren“, erklärt die Informatikerin mit Spezialisierung auf IT-Sicherheit Anne Kunstmann.

Die Täter können mit den potenziellen Opfern sogar richtige Unterhaltungen am Telefon führen. Denn per Texteingabe spukt das Computerprogramm die gewünschten Sätze und Wörter aus. Über Social-Media, Homepages oder Videoportale, die im Internet zugänglich sind, haben die Betrüger oftmals leichtes Spiel an die Stimmen zu gelangen. Denn zahlreiche Menschen laden kurze Videos oder Sprachaufnahmen im Netz hoch – vermutlich ohne sich darüber bewusst zu sein, dass diese für KI-Deepfakes missbraucht werden können. Ebenso denkbar sei ein illegaler Zugriff auf Sprach-Assistenten oder Cloud-Speicher, um an die benötigten Stimmproben zu gelangen. Die Polizei geht davon aus, dass die Verbindung zwischen der vorgetäuschten Person und dem angerufenen Opfer ebenfalls über Soziale-Medien erfolgt. Die Schockanrufe könnten außerdem wiederum dafür verwendet werden, bei einem erneuten Betrug die Stimme des Angerufenen zu verwenden.

Weitere Betrugsmasche mit KI aufgetaucht

Dass Künstliche Intelligenz nicht nur für Positives eingesetzt werden kann, zeigt sich auch bei einer weiteren alarmierenden Betrugsmasche: Cyber-Kidnapping. Obwohl es aktuell noch keine Fälle in Deutschland gibt, ist davon auszugehen, dass sie auch hierzulande auftreten wird. Arglose Eltern werden von einer ihnen unbekannten Telefonnummer angerufen. Dann hören sie vermeintlich ihr eigenes Kind um Hilfe schreien. Anschließend fordert ein Entführer ein Lösegeld und setzt die Betroffenen unter Druck. Es wird vorgegeben, dass dem Kind Gefahr droht, wenn nicht bezahlt wird. Auch in diesem Fall handelt es sich jedoch nicht um das echte Kind, das seine Eltern anruft, sondern um eine mit Künstlicher Intelligenz erzeugte Stimmimitation.

Wie kann man sich vor dem Betrug schützen?

Um sich vor der KI-Betrugsmasche besser schützen zu können, sollten Internetnutzer allgemein darauf achten, welche Daten und persönliche Informationen sie im Netz preisgeben. Hierfür ist es wichtig, auch die Privatsphäre-Einstellungen verschiedener Apps, Anwendungen und Plattformen genau im Blick zu haben. Um sich besser abzusichern, sollte eine Zwei-Faktor-Authentifizierung für Onlinekonten verwendet werden. Ebenso kann es hilfreich sein, keine Freundschaftsanfragen von Personen zu akzeptieren, die man nicht persönlich kennt. Betroffene, die einen Schockanruf erhalten, sollten, wenn möglich, einen kühlen Kopf bewahren und versuchen, die vorgegebene Person auf einem anderen Weg zu kontaktieren. Keinesfalls sollte man sich unter Druck setzen und zu unüberlegten Handlungen hinreißen lassen. Wer bereits Opfer eines Audio-Deepfakes wurde, sollte sich umgehend an die Polizei wenden und Anzeige erstatten.

1 Kommentar

  1. da ist es ja an der Zeit daß diese cyberverbrecherische ki (künstliche Intelligenz) als das angesehen und bewertet wird, was die ist. ein Cyberverbrecher, der alle Internet-Daten fälscht, verfälscht, menschliche Personen verleumdet, falsch beschuldigt, Straftaten begangen zu haben, ki-generierte gefälschte angebliche Gerichtsverhandlungen und angebliche Gerichtsurteile, die die menschlichen unbescholtenen Personen zu Kriminellen abstempeln, ohne daß ein Straftatbestand vorliegt (vorlag). ein Rechtsanwalt in den USA hatte in mehreren Verhandlungen das Cyberverbrecherniveau der ki – AI (künstlichen Intelligenz) am eigenen Leibe erlebt und wurde von der ki belogen und der Rechtsanwalt stand als Trottel da. der Rechtsanwalt ließ sich das nicht gefallen und verklagte AI. darauf forderte der aktuelle US-Präsident AI auf, die Algorithmen offenzulegen. deshalb wurde AI als Unternehmen von der US-Regierung (Präsident) als unseriös gebrandmarkt. deshalb wanderten viele AI-Angestellte zu Mirosoft ab, weil die Cyber-Lügen der ki (AI) aufgeflogen waren und riesigen Schaden anrichteten.

    es ist wohl an der Zeit, die ki-Tools wie einen meistgesuchten Verbrecher zu jagen und die Cyberstraftaten der ki-Tools anzuzeigen, wenn schon nicht mal die deutsche BRegierung so viel Grips in der Birne hat, um die menschliche Intelligenz als einzig Wahre anzusehen, anstatt eine verlogene cyber-ki in den Internet-Olymp zu befördern als angeblich fehlerfrei.
    die ki macht auch keinen Halt davor, die Webseiten der deutschen Parteien zu fälschen, und die ki macht auch keinen Halt davor, Spam-Nachrichten von den deutschen Video-Nachrichtensendern zu verbreiten. es ist so einfach, sich vor diesem ki-Müll zu schützen. die ki-Apps deinstallieren, aus den Speichern löschen, und sich mit menschlicher Intelligenz zu befassen.

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.


*


Die aktuellsten telespiegel Nachrichten
Risiko durch „EvilVideo“ – schwerwiegende Sicherheitslücke bei Telegram

Risiko durch „EvilVideo“

Schwerwiegende Sicherheitslücke bei Telegram

Wer die Telegram-App auf seinem Android-Gerät verwendet, muss aufpassen. Aktuell gibt es eine schwerwiegende Sicherheitslücke, die von Cyberkriminellen ausgenutzt wird. In der neusten Version wurde diese bereits geschlossen, weshalb User ihre Anwendung so schnell wie möglich aktualisieren sollten. […]

Das neue Xiaomi Mix Flip – Foldable stellt Samsung-Geräte in den Schatten

Das neue Xiaomi Mix Flip

Foldable stellt Samsung-Geräte in den Schatten

Xiaomi hat sein erstes faltbares Smartphone auf den Markt gebracht. Dank einiger spektakulärer Features ist das neue Xiaomi Mix Flip ein echter Konkurrent für die neuen faltbaren Modelle von Samsung. Wann das Xiaomi-Foldable hierzulande auf den Markt kommt, ist allerdings bisher nicht bekannt. […]

Globale Computerstörung – weltweite IT-Panne mit „historischem Ausmaß“

Globale Computerstörung

Weltweite IT-Panne mit „historischem Ausmaß“

Ein Fehler in einem Software-Update hat heute zu Chaos an Flughäfen, der Schließung von Supermärkten sowie massiven Problemen in Krankenhäusern geführt. Die heutige globale IT-Panne hat weltweite Auswirkungen, deren Ausmaß sich erst noch zeigen wird. Ein Cyberangriff wird ausgeschlossen. […]

Glasfaserausbau – Hamburg übernimmt Hälfte des Netzbetreibers willy.tel

Glasfaserausbau

Hamburg übernimmt Hälfte des Netzbetreibers willy.tel

Die Stadt Hamburg will den Ausbau des Glasfasernetzes schneller vorantreiben. Hierzu ist sie jetzt eine Kooperation mit dem privaten Netzbetreiber willy.tel eingegangen. Durch die Übernahme von 49,9 Prozent des Unternehmens sollen in den nächsten Jahren zahlreiche weitere Haushalte versorgt werden. […]

Zahlungsaufforderung per SMS – Urteil: Forderungen können zulässig sein

Zahlungsaufforderung per SMS

Urteil: Forderungen können zulässig sein

Nicht jede Zahlungsaufforderung per SMS ist Spam. Das OLG Hamm hat entschieden, dass Mahnungen per SMS zulässig sein können. Dies ist dann der Fall, wenn die Forderung berechtigt ist und die Nachricht tagsüber beim Empfänger eingeht. Geklagt hatte der vzbv gegen ein Inkassounternehmen. […]