Aktuelles, Branche - geschrieben von dp am Montag, Juni 3, 2024 22:11 - noch keine Kommentare
Voice Cloning: KI-basierter Telefonbetrug
Mittels Audio-Deepfakes per KI ahmen Cyber-Kriminelle Stimmen von Familienmitgliedern, Kollegen oder Freunden nach
[datensicherheit.de, 03.06.2024] Betrugsversuche per Telefon sind schon geradezu klassische Methoden – neu indes ist laut einer aktuellen Stellungnahme der PSW GROUP der zusätzliche Einsatz Künstlicher Intelligenz (KI), um mittels sogenanntem Voice Cloning täuschend echte Fake-Anrufe zu initiieren. Mithilfe von Audio-Deepfakes ahmten Cyber-Kriminelle die Stimmen von Familienmitgliedern, Kollegen oder Freunden nach und täuschten ihre Opfer mit gefälschten Sprachnachrichten – „in denen sie um Hilfe bitten“. Dabei forderten sie oft große Geldbeträge, vorgeblich etwa für dringend benötigte medizinische Behandlungen oder als Kaution zur Haftentlassung.
Patrycja Schrenk: Fake-Anrufe stellen eine zunehmende Bedrohung dar, die nicht nur lästig, sondern auch gefährlich sein kann!
Gut vorbereitete Cyber-Kriminelle nutzen KI für täuschend echt scheinende Telefonate mit gefälschter Stimme
„Fake-Anrufe, insbesondere durch Techniken wie Call-ID-Spoofing und ,Voice Cloning’, stellen eine zunehmende Bedrohung dar, die nicht nur lästig, sondern auch gefährlich sein kann“, warnt Patrycja Schrenk, Geschäftsführerin der PSW GROUP, und führt weiter aus: „Die Bandbreite der Risiken reicht von Identitätsdiebstahl über Phishing bis hin zu Erpressung und Störung von Diensten.“ Cyber-Kriminelle nutzten mittlerweile auch Audio-Deepfakes für hochentwickelte Social-Engineering-Angriffe gegen Unternehmen.
Schrenk erläutert hierzu: „Heutzutage können Kriminelle recht leicht an die Stimme einer Person gelangen. Soziale Medienplattformen wie ,TikTok’, ,YouTube’, ,facebook’ und ,Instagram’ bieten ihnen zahlreiche Quellen. Programme zum Fälschen oder Klonen von Stimmen sind leicht zugänglich und erfordern nur wenige Sprachaufnahmen, um eine halbwegs überzeugende Imitation zu erstellen.“
Im sogenannten Darknet beschafften sich Angreifer zudem Informationen wie Telefonnummern und persönliche Daten ihrer Opfer, um authentisch zu wirken. Anschließend müssten die Betrüger lediglich die gewünschten Wörter oder Sätze eingeben und könnten so am Telefon eine gefälschte Unterhaltung führen.
Erkennung KI-generierter Stimmen eine technische Herausforderung
Die Erkennung einer KI-generierten Stimme stelle technisch eine Herausforderung dar. Dennoch gebe es einige Anzeichen, die darauf hinweisen könnten, dass der Anruf nicht authentisch ist:
Lücken in der Konversation oder Unnatürlichkeiten im Dialog könnten Hinweise darauf geben, dass die Stimme künstlich erstellt worden ist.
„Wer Zweifel an der Identität des Anrufers hat, sollte unbedingt nach zusätzlichen Informationen fragen, um die Identität zu überprüfen. Ein geheimes Codewort oder eine spezifische Frage, die nur die echte Person beantworten kann, kann helfen, den Anruf zu verifizieren“, empfiehlt Schrenk.
KI erlaubt emotionale Adressierung: Misstrauisch gegenüber Anrufen insbesondere bei Geldforderungen geboten
Misstrauisch gegenüber Anrufen sollte jeder werden, wenn plötzlich Geldbeträge gefordert werden, insbesondere für unerwartete Situationen wie medizinische oder soziale Notfälle: „Die einfachste Reaktion auf einen verdächtigen Anruf ist tatsächlich, einfach aufzulegen oder den Anruf unbeantwortet zu lassen. Das gilt auch, wenn persönliche Informationen gefordert werden oder bei Werbeanrufen“, so Schrenk.
Apropos Werbeanrufe: Das Wort „ja“ sollte unbedingt vermieden werden, da es von Kriminellen aufgezeichnet und später für betrügerische Zwecke – zum Beispiel zur Zustimmung eines Vertrags – verwendet werden könnte. „Gerade bei unbekannten Anrufen neigen wir im privaten Umfeld dazu, uns mit ,ja’ statt mit unserem Namen zu melden. Aber schon dieses ,Ja’ kann von Betrügern als Zustimmung missbraucht werden.“ Schrenk rät, sich besser mit einem „Hallo“ zu melden und bei unerwünschten Werbeanrufen klar und bestimmt die Ablehnung zum Ausdruck zu bringen und aufzulegen. „Wer doch in die Falle getappt ist und einen Vertrag am Telefon abgeschlossen hat, sollte mit einer Frist von 14 Tagen widerrufen – am besten aber unverzüglich.“ Flattern dennoch plötzlich Zahlungsaufforderungen ins Haus, halte die Verbraucherzentrale Musterbriefe gegen diese unberechtigten Forderungen bereit.
Betrügerische Anrufe könnten zudem an die Bundesnetzagentur gemeldet werden, um andere vor ähnlichen Aktivitäten zu schützen. Dabei helfe es, so viele Informationen wie möglich über den Anruf mitzuteilen: Datum, Telefonnummer, Namen der Firma – und idealerweise den des Anrufers. „Wer mit betrügerischen Anrufen konfrontiert wird, kann auch seinen Mobilfunkanbieter oder Telefonunternehmen kontaktieren. Sie können dabei helfen, eine Liste von blockierten Nummern zu führen oder bieten Apps oder Dienste an, die betrügerische Anrufe erkennen und blockieren.“ Darüber hinaus böten einige Unternehmen auch zusätzliche Sicherheitsfunktionen wie Anrufüberprüfung oder Identitätsbestätigung an.
Weitere Informationen zum Thema:
PSW GROUP, Juliane Groß, 26.04.2024
Bedrohungslage / Fake-Anruf: Was tun bei einem unerwünschten Anruf?
Aktuelles, Experten - Nov 21, 2024 20:50 - noch keine Kommentare
ePA für alle: Daten für die Forschung und das Risiko trägt der Patient
weitere Beiträge in Experten
- CRA endgültig in Kraft getreten: Digitale Produkte in der EU kommen auf den Prüfstand
- Datenleck bei Öko-Stromanbieter: 50.000 Datensätze deutscher Tibber-Kunden im Darknet
- HmbBfDI unternahm branchenweite Schwerpunktprüfung im Forderungsmanagement
- Repräsentative Studie von Civey und QBE: Über 24 Prozent deutscher Unternehmen kürzlich von Cyber-Attacke betroffen
- Datenschutz-Sandbox: Forschungsprojekt soll sicherer Technologieentwicklung Raum geben
Aktuelles, Branche - Nov 21, 2024 20:58 - noch keine Kommentare
Gelsemium-Hacker: ESET warnt vor neuen Linux-Backdoors
weitere Beiträge in Branche
- Laut 2025 Identity Fraud Report alle fünf Minuten ein Deepfake-Angriff
- Unternehmen sollten NIS-2 ernst nehmen und schnell konforme Lösungen etablieren
- Betrug im Digital-Zeitalter: Moderne IT definiert -Bedrohungen und -Schutzmaßnahmen neu
- TOPqw Webportal: G DATA deckte fünf Sicherheitslücken auf
- Proofpoint gibt Tipps gegen Online-Betrug – Hochsaison der Online-Einkäufe startet
Branche, Umfragen - Dez 21, 2020 21:46 - noch keine Kommentare
Threat Hunting: Bedeutung und Wertschätzung steigt
weitere Beiträge in Service
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
- Cybersicherheit: SANS-Studie zu Frauen in Führungspositionen
Kommentieren