Aktuelles, Branche - geschrieben von dp am Dienstag, Mai 21, 2024 17:00 - noch keine Kommentare
Deepfakes: Paragraf zum Persönlichkeitsschutz soll im Strafgesetzbuch Aufnahme finden
Noch können Deepfakes erkannt werden – aber Optimierung schreitet voran
[datensicherheit.de, 21.05.2024] Die Bayerische Staatsregierung hat nach eigenen Angaben Mitte Mai 2024 gefordert, dass die Persönlichkeitsrechte besser vor sogenannten Deepfakes geschützt werden sollten, und schlägt daher einen Paragrafen zum Persönlichkeitsschutz im Strafgesetzbuch (StGB) vor: Dieser solle sich speziell mit Deepfakes auseinandersetzen. „Eine vom Ministerrat beschlossene Gesetzesinitiative wurde am 17. Mai in den Bundesrat eingebracht“, berichtet Dr. Martin J. Krämer, „Security Awareness Advocate“ bei KnowBe4, in seiner Stellungnahme.
Dr. Martin J. Krämer warnt: Cyber-Kriminelle verfolgen mit Deepfakes handfeste kommerzielle Interessen!
Cyber-Kriminelle nutzen Deepfakes für Desinformationen und Betrug
Dr. Krämer erläutert: „Diese Entwicklung wurde vor allem aufgrund einer Welle von Deepfakes ins Leben gerufen, die Persönlichkeitsrechte von Frauen und Mädchen im Internet verletzt.“ Deepfakes hätten jedoch auch eine politische Komponente – „wenn Desinformationen verbreitet werden“. Doch nicht nur in diesen Fällen, sondern auch bei Betrug werde auf dieses Mittel zurückgegriffen: Cyber-Kriminelle verfolgten handfeste kommerzielle Interessen, um Menschen und Unternehmen mit Deepfakes zu erpressen, in eine Investmentfalle zu locken oder aber zu einer Notfallspende ähnlich dem „Enkeltrick“ zu verleiten.
Bevor entsprechende Gesetze wie das der Bayerischen Staatsregierung angestoßene, beschlossen und umgesetzt würden, gehe es für Verbraucher vor allem darum, Deepfakes selbst zu erkennen. „Auch wenn die Fälschungen immer besser werden und es bald unmöglich sein wird, ein gefälschtes von einem echten Video zu unterscheiden, gibt es doch einige Anhaltspunkte.“ Wichtig sei die Unterscheidung zwischen Gesichtsumwandlungen (welche das Gesicht einer Person auf das Gesicht einer anderen Person legten) und vollständig synthetisch erzeugten Videosequenzen, wobei letztere inzwischen kommerziell erhältlich seien und sich in den letzten sechs Monaten erheblich verbessert hätten.
Deepfakes haben manchmal noch Probleme damit, die natürliche Physik einer Szene nachzubilden
„Gesichtsumwandlungen sind manchmal leichter zu erkennen. Vor allem an den Rändern eines Gesichts“, erläutert Dr. Krämer. Ein Hinweis sei, dass das Alter des Gesichtes anders erscheine als das des restlichen Kopfes. Auch die Schatten der Augenbrauen könnten falsch sein. Deepfakes hätten manchmal Probleme damit, die natürliche Physik einer Szene nachzubilden. Ähnliches gelte für Lichtverhältnisse – „beispielsweise lässt sich erkennen, ob die Überblendung natürlich wirkt“. Diese Indikatoren seien jedoch bei den häufiger zum Einsatz kommenden vollsynthetisierten Videos weniger zuverlässig.
Verbraucher könnten trotzdem auf die richtige Körpersprache achten. Augenbewegungen sollten beispielsweise Aussagen und Argumente unterstützen. „Wiederholen sie sich oft, anstatt das gesprochene Wort zu unterstützen? Es ist sehr unwahrscheinlich, dass in einer echten Kommunikation gleichbleibende und sich wiederholende Augen- oder Augenbrauen-Bewegungen auftreten.“ Ein weiteres Beispiel seien die Lippenbewegungen: „Die Lippen werden normalerweise mit dem gesprochenen Wort synchronisiert.“ In beiden Fällen könnten Abweichungen Rückschlüsse auf die Echtheit eines Videos zulassen.
Weitere Erforschung wirksamer und zuverlässiger Instrumente zur Erkennung von Deepfakes unerlässlich
Ein weiterer wichtiger Indikator sei die Stimme selbst, insbesondere bei Stimmen von bekannten Persönlichkeiten des öffentlichen Lebens. Anomalien in deren Stimmen seien am leichtesten zu erkennen: „Plötzliche Veränderungen in der Tonhöhe, im Rhythmus und in der Aussprache sind ebenfalls Anzeichen für eine computergenerierte Stimme.“ Bei Audiodateien sei das weniger leicht herauszuhören und weniger häufig. Dr. Krämer gibt noch einen weiteren Rat: „Ein Hinweis, dass es sich um eine Fälschung handelt, ist auch eine übermäßig präzise Aussprache. Niemand spricht konsequent wie ein Nachrichtensprecher, d.h. übermäßig geschliffen und akribisch.“
Aktuell schienen diese Tipps und Hinweise, auf Unregelmäßigkeiten oder zu viel Regelmäßigkeit zu achten, noch zu funktionieren. Es sei allerdings dazu zu raten, sich in nächster Zeit nicht allein darauf zu verlassen. Dr. Krämer betont abschließend: „Am wichtigsten bleibt, kritisches Denken und ein emotionales Bewusstsein zu entwickeln, um Manipulationsversuche abzuwehren.“ Die weitere Erforschung wirksamer und zuverlässiger Instrumente zur Erkennung von Deepfakes bleibe unerlässlich. Schlussendlich sei es ein Wettrüsten, das man zum Nutzen von Wirtschaft und Gesellschaft genau verfolgen müsse.
Weitere Informationen zum Thema:
Bayerische Staatsregierung, 16.05.2024
Strafrechtlicher Schutz von Persönlichkeitsrechten vor Deepfakes / Bayern fordert neuen Paragrafen im Strafgesetzbuch / Bayern bringt Initiative in den Bundesrat ein…
datensicherheit.de, 18.05.2024
Cyber-Angriff mittels Deepfake-Phishing: Mitarbeiter sensibilisieren, CEO-Imitationen zu erkennen! / Anrufe und Textnachrichten sowie mindestens eine Sprachnachricht mit einer per Deepfake-Technologie gefälschten Stimme des CEO
datensicherheit.de, 20.02.2024
Deepfakes: Vielfältige Betrugsversuche / Es gibt aber auch konstruktive Anwendungen für Deepfake-Prinzipien
datensicherheit.de, 19.09.2023
Gefahren für Politik und Demokratie: Optimierung von Deepfakes mittels KI / Deepfake-Wahlwerbespots könnten mit computergenerierten Bildern von Kandidaten erstellt werden
datensicherheit.de, 22.06.2022
Deepfakes bald Standardrepertoire Cyber-Krimineller / Vor allem Soziale Plattformen als neue Spielwiese zur Verbreitung von Deepfake-Material genutzt
Aktuelles, Experten - Nov 20, 2024 21:07 - noch keine Kommentare
CRA endgültig in Kraft getreten: Digitale Produkte in der EU kommen auf den Prüfstand
weitere Beiträge in Experten
- Datenleck bei Öko-Stromanbieter: 50.000 Datensätze deutscher Tibber-Kunden im Darknet
- HmbBfDI unternahm branchenweite Schwerpunktprüfung im Forderungsmanagement
- Repräsentative Studie von Civey und QBE: Über 24 Prozent deutscher Unternehmen kürzlich von Cyber-Attacke betroffen
- Datenschutz-Sandbox: Forschungsprojekt soll sicherer Technologieentwicklung Raum geben
- it’s.BB e.V. lädt ein: Web-Seminar zu Risiken und Nebenwirkungen der Cyber Sicherheit im Unternehmen
Aktuelles, Branche, Studien - Nov 20, 2024 20:59 - noch keine Kommentare
Laut 2025 Identity Fraud Report alle fünf Minuten ein Deepfake-Angriff
weitere Beiträge in Branche
- Unternehmen sollten NIS-2 ernst nehmen und schnell konforme Lösungen etablieren
- Betrug im Digital-Zeitalter: Moderne IT definiert -Bedrohungen und -Schutzmaßnahmen neu
- TOPqw Webportal: G DATA deckte fünf Sicherheitslücken auf
- Proofpoint gibt Tipps gegen Online-Betrug – Hochsaison der Online-Einkäufe startet
- NIS-2-Richtlinie: G DATA sieht Fehleinschätzung bei Mehrheit der Angestellten in Deutschland
Branche, Umfragen - Dez 21, 2020 21:46 - noch keine Kommentare
Threat Hunting: Bedeutung und Wertschätzung steigt
weitere Beiträge in Service
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
- Cybersicherheit: SANS-Studie zu Frauen in Führungspositionen
Kommentieren