Aktuelles, Branche, Studien - geschrieben von am Sonntag, April 6, 2025 21:00 - noch keine Kommentare

KI ermöglicht Cyber-Betrug 2.0: TEHRTIS-Studie zu Deepfake-as-a-Service

Industrialisierung von Deepfakes und KI im Dienste der Cyber-Kriminalität – neue Welle automatisierter und ausgeklügelter Bedrohungen befürchtet

[datensicherheit.de, 06.04.2025] TEHTRIS hat Anfang April 2025 seinen neuen „Threat Intelligence“-Bericht veröffentlicht: Darin wird demnach die Entwicklung der Cyber-Bedrohungslandschaft im Jahr 2025 detailliert beschrieben. Diese Studie soll den besorgniserregenden Zuwachs im Bereich „Deepfake-as-a-Service“ (DfaaS) beleuchten, bei dem Künstliche Intelligenz (KI) eingesetzt wird, um Online-Betrug in großem Maßstab zu automatisieren und zu industrialisieren. „Der Zugang zu DfaaS-Plattformen, die Dienste wie KI-Gesichts-Austausch (Face Swapping), Stimm-Imitation, Sprachsynthese und KI-Animation anbieten, erleichtert die Erstellung realistischer Deepfake-Inhalte und ebnet den Weg für potenziellen Missbrauch.“

tehtris-deepfake-as-a-service-threat-intelligence-report

Abbildung: TEHTRIS

„< Deepfake-as-a-Service >“ – „THREAT INTELLIGENCE REPORT“ von TEHTRIS

Die wichtigsten Ergebnisse des Berichts über „Deepfake-as-a-Service“:

  • KI – eine für alle zugängliche Cybercrime-Waffe
    Der vereinfachte Zugang zu KI-Tools, kombiniert mit der Verfügbarkeit vortrainierter Modelle und APIs sowie dem Aufkommen von DfaaS-Plattformen, ermögliche es selbst ungeschickten Akteuren, ausgeklügelte Cyber-Angriffe zu starten.
  • Glaubwürdigere und profitablere Betrugsmaschen
    Deepfakes, Stimm-Imitationen und Bots, mit denen man sich unterhalten kann und die über DfaaS-Plattformen zugänglich sind, machten Angriffe überzeugender und schwerer zu erkennen, wodurch ihre Erfolgsrate steige. Der Bericht nennt Beispiele für Identitätsdiebstahl in Videokonferenzen, Romance-Scams („Pig Butchering“) und die Umgehung von KYC-Verfahren („Know Your Customer“).
  • Automatisierung in großem Maßstab
    KI-Bots könnten Hunderte von Gesprächen gleichzeitig und rund um die Uhr simulieren, wodurch Betrugsmaschen umfangreicher und profitabler würden. DfaaS-Plattformen beschleunigten dieses Phänomen, indem sie sofort einsatzbereite Automatisierungstools bereitstellten.

„Haotian AI“ – die Verkörperung des „Deepfake-as-a-Service“

Innerhalb dieses „kriminellen Ökosystems“ hat TEHTRIS „Haotian AI“ identifiziert – eine eine in Asien ansässige Organisation, welchee die Professionalisierung von „Deepfake-as-a-Service“ veranschauliche. „Haotian AI“ biete eine einsatzbereite, für DfaaS-Plattformen typische Lösung mit Dienstleistungen an:

  • Echtzeit-Gesichtsaustausch, um während Videoanrufen eine Identität vorzutäuschen
  • Ultrarealistische Sprachsynthese, um Stimmen präzise zu imitieren
  • Automatisierte Chatbots, um wochenlang glaubwürdige Gespräche zu führen
  • Bilderzeugung, um gefälschte Profile in Sozialen Netzwerken zu erstellen

Die OSINT-Recherche von TEHTRIS deutet offenbar darauf hin, dass „Haotian AI“ nicht nur IT-Tools verkauft, sondern deren Nutzung durch Cyber-Kriminelle aktiv fördert und damit die Industrialisierung von Deepfakes im Dienste von Betrug geradezu verkörpert. „Der Bericht beschreibt detailliert die Architektur der Bots, Geldwäschetechniken über ,Krypto-Währungen’ und Methoden der Opferbindung, die von dieser Organisation verwendet werden.“

Empfehlungen für IT-Security-Verantwortliche (CISOs und SOC/MDR) im Kontext von „Deepfake-as-a-Service“:

  • Einführung eines hyperautomatisierten XDR-Ansatzes
    Die Security-Teams sollten proaktive Lösungen integrieren, die in der Lage sind, aufkommende Bedrohungen im Zusammenhang mit DfaaS-Plattformen zu antizipieren und zu neutralisieren, wie z.B. die „TEHTRIS XDR AI PLATFORM“.
  • Fokus auf Verhaltenserkennung
    Subtile Anomalien in der Kommunikation (Latenzzeiten, stimmliche Inkonsistenzen, dringende Anfragen) müssten identifiziert werden, um Deepfakes und Bots zu erkennen.
  • Überwachung von Finanzströmen und Nutzung von OSINT Blockchain
    Security-Verantwortliche sollten verdächtige, mit kriminellen Aktivitäten in Verbindung stehende Transaktionen und Krypto-Adressen verfolgen – insbesondere solche, die DfaaS-Dienste nutzen.
  • Sensibilisierung und Schulung der Mitarbeiter
    Simulationen von Deepfakes und Voice-Phishing seien für Organisationen essenziell, um Teams auf neue Formen der Manipulation vorzubereiten, die durch DfaaS-Plattformen ermöglicht werden.

„2025 könnte das Jahr sein, in dem die Cyber-Kriminalität endgültig in eine neue Ära eintritt – die des automatisierten, skalierbaren und nicht nachweisbaren Verbrechens, insbesondere dank der Verbreitung von Deepfake-as-a-Service-Plattformen“, kommentiert Eric Bregand, „Chief Product Officer“ bei TEHTRIS. Die zunehmende Zugänglichkeit dieser Technologien mache es für Unternehmen unerlässlich, eine proaktive Sicherheitsstrategie zu verfolgen und ihre Abwehr gegen diese aufkommenden Bedrohungen zu stärken.

Weitere Informationen zum Thema:

TEHTRIS
< Deepfake-as-a-Service > I THREAT INTELLIGENCE REPORT

TEHTRIS
GET YOUR REPORT: „Dial D for Deepfake“ – Will Cybercrime be almost perfect in 2025?

datensicherheit.de, 11.02.2025
Fake-Romance: Scams mit KI-gestützten Deepfake-Promis fordern Opfer / KI-Deepfakes gaukeln Opfern prominente Persönlichkeiten vor, welche angeblich in einer Notlage stecken und finanzielle Unterstützung benötigen

datensicherheit.de, 27.01.2025
Deepfakes: Wie Internet-Nutzer täuschend echte Fälschungen erkennen können / Immer häufiger tauchen aktuell sogenannte Deepfakes auf, d.h. mit Künstlicher Intelligenz manipulierte Fotos und Videos

datensicherheit.de, 05.12.2024
KI-basierte Deepfakes zur effektiven Täuschung als Angriffsvektor etabliert / Deepfakes werden in Audio- und Video-Formaten vermehrt für Betrugsmanöver eingesetzt

datensicherheit.de, 08.10.2024
Zunehmende Bedrohung in der digitalen Welt durch Deepfake-Angriffe / BlackBerry erörtert das Gefahrenpotenzial KI-gestützter Deepfake-Angriffe auf Unternehmen und stellt Abwehrmaßnahmen vor

datensicherheit.de, 29.08.2024
Drei präventive Schutzmaßnahmen gegen CEO-Fraud und Deepfake-Angriffe / Detlev Riecke gibt Unternehmen Empfehlungen, um Chance eines erfolgreichen KI-gestützten Deepfake-Angriffs erheblich zu mindern



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung