Aktuelles, Branche - geschrieben von am Dienstag, Oktober 8, 2024 18:39 - noch keine Kommentare

Zunehmende Bedrohung in der digitalen Welt durch Deepfake-Angriffe

BlackBerry erörtert das Gefahrenpotenzial KI-gestützter Deepfake-Angriffe auf Unternehmen und stellt Abwehrmaßnahmen vor

[datensicherheit.de, 08.10.2024] Technologien auf Basis sogenannter Künstlicher Intelligenz (KI) machen in jüngerer Zeit offenkundig rasante Fortschritte. Im Zuge dessen gewinnt laut einer aktuellen Stellungnahme von BlackBerry eine besondere Form digitaler Täuschung zunehmend an Bedeutung: „Deepfakes“ – diese mithilfe von KI erstellten hochrealistischen, synthetischen Nachahmungen bereiteten Unternehmen und öffentlichen Organisationen in Fragen der Cyber-Sicherheit große Schwierigkeiten. Ulf Baltin, „Managing Director“ bei BlackBerry (DACH | Central Europe), erläutert Risiken und mögliche Maßnahmen gegen diese zunehmende Bedrohung.

Deepfakes – KI-generierte Video-, Bild- oder Audiodateien

Sogenannte Deepfakes sind demnach KI-generierte Videos, Bilder oder Audiodateien, die so überzeugend manipuliert sind, dass sie von echten Aufnahmen kaum zu unterscheiden sind.

Zwar finde diese KI-Technologie durchaus kreative und künstlerische Anwendungen, doch berge sie auch ein erhebliches Potenzial für Missbrauch.

Die Anwendungsmöglichkeiten von Deepfakes seien vielfältig. In der Unterhaltungsindustrie würden sie beispielsweise genutzt, um historische Figuren wiederzubeleben oder Schauspieler digital zu verjüngen. Auch im privaten Bereich fänden Deepfakes Anwendung, etwa um alte Familienfotos zu animieren.

Betrug: Die dunkle Deepfake-Seite

Baltin gibt zu bedenken: „Die Bedrohung durch Deepfakes nimmt stetig zu. Cyber-Kriminelle nutzen die Technologie zunehmend für ausgeklügelte Betrugsmaschen, die erheblichen finanziellen Schaden anrichten und das Image eines Unternehmens oder einzelner Personen massiv schädigen können.“

Ein besonders alarmierendes Beispiel habe sich im Februar 2024 ereignet, als ein Finanzangestellter eines multinationalen Unternehmens durch ein Deepfake-Video getäuscht worden sei: „In einer manipulierten Videokonferenz, in der vermeintliche Kollegen und der ,Chief Financial Officer’ (CFO) zu sehen waren, wurde er dazu verleitet, 25 Millionen Dollar an die cyber-kriminellen Urheber des Videos zu überweisen.“

Auch Sprachimitationen mittels KI würden für Betrügereien eingesetzt. „So erhielt kürzlich ein Ferrari-Manager betrügerische ,WhatsApp’-Nachrichten, die angeblich vom ,Chief Executive Officer’ (CEO) stammten und zu einer geheimen Währungstransaktion aufforderten.“ Nur durch kritisches Hinterfragen habe dieser versuchte Betrug aufgedeckt werden können – „bevor ein Schaden entstehen konnte“.

Erkennung von Deepfakes zunehmend schwierig

Die Erkennung von Deepfakes gestalte sich zunehmend schwierig, denn es gebe keine Universallösung dafür. Stattdessen sei ein mehrschichtiger Ansatz erforderlich, „der verschiedene Techniken und Methoden kombiniert“.

Zu den vielversprechenden Ansätzen gehörten Digitale Wasserzeichen, kryptographische Signaturen und „Blockchain“-basierte Verifizierungsmethoden. Die US-Regierung erwäge sogar, Tech-Unternehmen zur Kennzeichnung KI-generierter Inhalte zu verpflichten.

Baltin unterstreicht: „Entscheidend ist jedoch vor allem die Sensibilisierung und Schulung von Mitarbeitern. Unternehmen sollten robuste Trainingsprogramme implementieren, um Mitarbeiter über die Gefahren von Deepfakes aufzuklären und sie in der Erkennung zu schulen.“

Meldung von Deepfake-Angriffen

Bei bösartigen Deepfake-Angriffen sei es wichtig, diese den zuständigen Behörden zu melden. „In den USA sind dies beispielsweise das ,NSA Cybersecurity Collaboration Center’, das FBI und die Cybersecurity and Infrastructure Security Agency (CISA).“

Derweil gebe es in Deutschland für Deepfakes keine speziellen rechtlichen Regelungen. „Umso wichtiger ist es für Unternehmen hierzulande, sich um wirksame Prävention zu kümmern!“

In Deutschland könnten sich angegriffene Parteien über ihren Sicherheitsanbieter beim Bundesamt für Sicherheit in der Informationstechnik (BSI) oder einem der Dienstleister im Cyber-Sicherheitsnetzwerk (CSN) des BSI melden.

Weiterentwicklung der KI-Technologie wird Deepfake-Raffinesse befördern

Mit der rasanten Weiterentwicklung der KI-Technologie werde auch die Raffinesse von Deepfakes zunehmen. Allerdings hinke die Technologie zur Erkennung von Deepfakes der Produktionsgeschwindigkeit neuer KI-Software und -Systeme zurzeit noch weit hinterher.

Es sei unerlässlich, dass Produktdesigner, Ingenieure und Führungskräfte eng zusammenarbeiten, um kryptographisch sichere Standards für die Authentizitätsvalidierung digitaler Inhalte zu definieren.

„Bis dahin bleibt Unternehmen nur, die verfügbaren Strategien zur Risikominimierung konsequent umzusetzen und wachsam zu bleiben“, so Baltin abschließend – denn in der digitalen Welt von heute könnte der nächste Angriff bereits ein täuschend echtes Gesicht tragen.

Weitere Informationen zum Thema:

Bundesamt für Sicherheit in der Informationstechnik
IT-Sicherheitsdienstleister im CSN / Unterstützungsangebot durch ein Team von Vorfall-Experten

CONGRESS.GOV, 27.07.2023
S.2691 – AI Labeling Act of 2023 118th Congress (2023-2024)

datensicherheit.de, 29.08.2024
Drei präventive Schutzmaßnahmen gegen CEO-Fraud und Deepfake-Angriffe / Detlev Riecke gibt Unternehmen Empfehlungen, um Chance eines erfolgreichen KI-gestützten Deepfake-Angriffs erheblich zu mindern

datensicherheit.de, 21.05.2024
Deepfakes: Paragraf zum Persönlichkeitsschutz soll im Strafgesetzbuch Aufnahme finden / Noch können Deepfakes erkannt werden – aber Optimierung schreitet voran

datensicherheit.de, 20.02.2024
Deepfakes: Vielfältige Betrugsversuche / Es gibt aber auch konstruktive Anwendungen für Deepfake-Prinzipien



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung