Aktuelles, Branche - geschrieben von am Donnerstag, Dezember 5, 2024 12:43 - noch keine Kommentare

KI-basierte Deepfakes zur effektiven Täuschung als Angriffsvektor etabliert

Deepfakes werden in Audio- und Video-Formaten vermehrt für Betrugsmanöver eingesetzt

[datensicherheit.de, 05.12.2024] „KI-basierte Deepfakes haben sich im letzten Jahr als effektives Täuschungsinstrument etabliert. Vom rudimentären E-Mail-Spoofing wurden sie zu einer hochentwickelten Phishing-Technik weiterentwickelt, die manipulierte Audio- und Videodaten einsetzt.“ James Tucker, „Head of CISO International“ bei Zscaler, geht in seiner aktuellen Stellungnahme auf die Ursprünge sogenannter Deepfakes ein – diese ließen sich dabei auf die inhärenten Schwachstellen der E-Mail-Technologie zurückführen, welcher es an robusten Mechanismen zur Überprüfung der Absenderidentität fehle. Dieses seit Langem bestehende Problem habe Angreifern den Weg geebnet, KI für immer gefährlichere Angriffe in Kombination mit dem Dauerbrenner „Social Engineering“ zu nutzen.

zscaler-james-tucker

Foto: Zscaler

James Tucker: „Demokratisierung“ der Deepfake-Technologie mittels KI macht sie zur ernsthaften Bedrohung!

Deepfake-Erzeugung per KI auch für Personen mit geringem Know-how leicht machbar

Tucker erläutert: „Deepfakes werden in den zwei Formaten Audio und Video für Betrugsmanöver eingesetzt. Während Audiomanipulationen seit über einem Jahrzehnt bekannt sind und sich in jüngster Zeit zu Telefonanrufen weiterentwickelt haben, sind gefälschte Videos auf Basis von öffentlich zugänglichen Videoschnipseln, die mit Hilfe von KI manipuliert werden, erst in jüngster Zeit prominenter aufgetreten.“

Die Erzeugung künstlicher Nachrichten für Personen mit unterschiedlichem technischen Know-how sei leicht machbar, denn die KI-Tools übernähmen die Arbeit.

Diese „Demokratisierung“ der Deepfake-Technologie mache sie zur ernsthaften Bedrohung. Die Werkzeuge zur Erstellung überzeugender Fälschungen befänden sich damit in den Händen eines Personenkreises, welcher „die ethischen Implikationen des Einsatzes missachtet.

Deepfake-Schadenspotenzial geht weit über bloße Falschinformationen und Zahlungsanweisungen hinaus

Die Folgen von Deepfakes gingen weit über bloße Falschinformationen und Zahlungsanweisungen an Malware-Akteure hinaus: „Die neuen Deepfakes untergraben das Vertrauen in jegliche Interaktion grundlegend, sei es im persönlichen oder beruflichen Umfeld!“

Damit wackele das Vertrauen in den Eckpfeilern der menschlichen Kommunikation. Wenn Menschen nicht mehr zwischen Realität und Fiktion unterscheiden könnten, beginne das soziale Gefüge zu bröckeln.

Ein hypothetisches Szenario laut Tucker: „Ein Manager setzt KI ein, um einen Videobericht auf der Grundlage tatsächlicher Daten zu erstellen. Die Informationen mögen zwar korrekt sein, aber die Erstellung einer synthetischen Darstellung untergräbt die Authentizität der Kommunikation und hinterlässt bei den Team-Mitgliedern ein unbehagliches Gefühl.“

Deepfakes können als Waffe eingesetzt werden

Dieser Vertrauensverlust in die neuen Möglichkeiten der Inhaltserstellung sei nicht auf harmlose Szenarien beschränkt: „Deepfakes können als Waffe eingesetzt werden, um das Vertrauen absichtlich zu unterminieren und damit zu ernsthaften Rufschädigungen oder genereller Verunsicherung beitragen!“

Fälle manipulierter, aus dem ursprünglichen Kontext gerissener Bilder hätten bereits zu Rechtsstreitigkeiten und einem Aufschrei in Sozialen Medien geführt.

Die Möglichkeit, solche Inhalte schnell und mit hoher Reichweite viral gehen zu lassen, verstärke deren Wirkung und schaffe eine „Kultur der Zweifelhaftigkeit“. Damit würden Deepfakes zu einer ernsthaften Bedrohung, welche weit über finanziellen Schaden hinausgehe.

Weitreichende psychologische Deepfake-Auswirkungen

Die psychologischen Folgen von Deepfakes könnten sowohl für die Gesellschaft als auch für den Einzelnen enorm sein. Die Verbreitung gefälschter pornographischer Inhalte ziele beispielsweise auf die Würde und Privatsphäre der Menschen ab und hinterlasse lang anhaltende emotionale Narben.

Darüber hinaus könnten manipulierte politische Inhalte zu Misstrauen gegenüber öffentlichen Personen und Institutionen führen und die demokratischen Prozesse untergraben. „Wenn die Worte eines Politikers in einem gefälschten Kontext verwendet werden, löst dies eine gesellschaftliche Vertrauenskrise aus. Denn wenn selbst Aussagen von öffentlich agierenden Personen gefälscht werden können, wem kann man dann noch vertrauen und wie kann der Einzelne einen Deepfake erkennen oder nachweisen?“

Die jüngere Generation sei besonders gefährdet: Ihr Leben werde zunehmend von Bildschirmen und ihrer Interaktion über die Sozialen Medien bestimmt. Diese Zielgruppe muss demnach besonders angeleitet werden, welche Inhalte authentisch sind und welchen Vertrauen geschenkt werden darf. Sie bewegten sich am Rande einer Welt, „in der die Realität verzerrt erscheinen und mit dem Risiko sozialer Isolation und psychischer Probleme einhergehen kann“. Angesichts dieser wachsenden Probleme bestehe Handlungsbedarf.

Maßnahmenkatalog gegen Deepfakes

Als Reaktion auf das zunehmende Aufkommen sogenannter Deepfakes sei es erforderlich, KI nicht nur für die Erstellung, sondern auch für die Erkennung von künstlich erstellten Inhalten einzusetzen. In den kommenden Jahren werde die Zahl derjenigen Unternehmen steigen, „die KI-Technologien speziell zum Aufspüren von Deepfakes entwickeln“. Darüber hinaus seien insbesondere in der Europäischen Union (EU) regulatorische Maßnahmen zu erwarten, welche „Standards und Schutzmaßnahmen gegen die böswillige Nutzung dieser Technologie festlegen“.

Digitale Wasserzeichen sein eine Möglichkeit, welche zur Authentifizierung von Inhalten beitragen könne. „Das ist immerhin ein Anfang, wobei für höhere Sicherheit ein mehrschichtiger Ansatz erforderlich ist, der neben der KI-Verifizierung auch persönliche Identifikatoren wie eindeutige Schlüsselwörter umfasst.“ Ein solcher Schutz funktioniere ähnlich wie die Zwei-Faktor-Authentifizierung (2FA), „die derzeit bereits als Passwortschutz verwendet wird“.

„Bis diese Technologien jedoch ausgereift sind, spielt Aufklärung die entscheidende Rolle im Kampf gegen die negativen Auswirkungen von Deepfakes“, so Tucker. Die Schulung in der Erkennung gefälschter audiovisueller Inhalte sollte fester Bestandteil der beruflichen und akademischen Lehrpläne werden, „damit sich die Gesellschaft in diesem tückischen Umfeld gegen negative Auswirkungen wappnet“.

Ab 2025 werden Deepfakes zu noch mehr Verwirrung und Misstrauen führen

Im kommenden Jahr – 2025 – werden Deepfakes laut Tucker „zu noch mehr Verwirrung und Misstrauen führen“. Die Gesellschaft werde sich mit diesen Herausforderungen auseinandersetzen müssen. Diskussionen über Regulierung und Schutz würden dementsprechend an Bedeutung gewinnen.

Langfristig müssten Nutzer auf KI-Tools zur Erkennung von Deepfakes auf persönlichen Geräten setzen. Dadurch könne einer „Kultur der Umsicht“ Vorschub gewährt werden, „bevor gefälschte Inhalte über Soziale Kanäle verbreitet werden“. Letztendlich müsse die Gesellschaft mit der Entwicklung neuer Technologien Schritt halten und mit einer Antwort auf deren negative Aspekte reagieren. Der Kampf gegen Deepfakes erfordere persönliche Aufmerksamkeit und technologische Innovation, da die Folgen von Untätigkeit schwerwiegend sein könnten.

Tucker gibt abschließend zu bedenken: „Einmal verlorenes Vertrauen in technische Kommunikationskanäle und Inhalte lässt sich nur schwer zurückgewinnen. Das ,Zero Trust’-Prinzip hat gezeigt, wie Organisationen es schaffen können, das Vertrauen in digitale Interaktionen wiederherzustellen.“

Weitere Informationen zum Thema:

datensicherheit.de, 20.11.2024
Laut 2025 Identity Fraud Report alle fünf Minuten ein Deepfake-Angriff / Aktueller Bericht thematisiert globale Trends und Techniken des Identitätsbetrugs, welche Unternehmen im Jahr 2025 bedrohen werden

datensicherheit.de, 08.10.2024
Zunehmende Bedrohung in der digitalen Welt durch Deepfake-Angriffe / BlackBerry erörtert das Gefahrenpotenzial KI-gestützter Deepfake-Angriffe auf Unternehmen und stellt Abwehrmaßnahmen vor

datensicherheit.de, 29.08.2024
Drei präventive Schutzmaßnahmen gegen CEO-Fraud und Deepfake-Angriffe / Detlev Riecke gibt Unternehmen Empfehlungen, um Chance eines erfolgreichen KI-gestützten Deepfake-Angriffs erheblich zu mindern

datensicherheit.de, 21.05.2024
Deepfakes: Paragraf zum Persönlichkeitsschutz soll im Strafgesetzbuch Aufnahme finden / Noch können Deepfakes erkannt werden – aber Optimierung schreitet voran

datensicherheit.de, 18.05.2024
Cyber-Angriff mittels Deepfake-Phishing: Mitarbeiter sensibilisieren, CEO-Imitationen zu erkennen! / Anrufe und Textnachrichten sowie mindestens eine Sprachnachricht mit einer per Deepfake-Technologie gefälschten Stimme des CEO



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung