Aktuelles, Branche - geschrieben von dp am Dienstag, September 19, 2023 22:37 - noch keine Kommentare
Gefahren für Politik und Demokratie: Optimierung von Deepfakes mittels KI
Deepfake-Wahlwerbespots könnten mit computergenerierten Bildern von Kandidaten erstellt werden
[datensicherheit.de, 19.09.2023] Sogenannte Deepfakes – d.h. verblüffend authentisch wirkende Videos (und andere Medien), welche Menschen oder Szenen mittels Technologie imitieren – existieren bereits seit Jahren und werden zunehmend für diverse Anwendungszwecke eingesetzt. „So können z.B. mithilfe der Technik bereits verstorbene Künstler wie Salvador Dalí als Teil von interaktiven Ausstellungen wieder zum Leben erweckt werden“, berichtet Morgan Wright, „Chief Security Advisor“ bei SentinelOne. Eine proaktive Zusammenarbeit zwischen Technologieunternehmen, Regulierungsbehörden und der Gesellschaft sei unabdingbar, um dem Anstieg betrügerischer „Deepfakes“ begegnen zu können.
Morgan Wright: Gesellschaft muss digitaler Bildung Vorrang einräumen!
Deepfake-Möglichkeiten der Bedrohungsakteure massiv zugenommen
„In der heutigen Zeit, wo viele Nationen mit globalen Unwägbarkeiten und politischer Instabilität zu kämpfen haben, geht es für Regierungen aber nicht um den Einsatz von KI zur Erzeugung von Spezialeffekten, futuristischer Kulissen oder dystopischen Zukunftsszenarien“, führt Wright aus.
Vielmehr bedeuteten die außergewöhnlichen Fortschritte in der Künstlichen Intelligenz (KI), dass die Möglichkeiten und Werkzeuge der Bedrohungsakteure nun massiv gewachsen seien.
Sie könnten beispielsweise Wahlwerbespots mit computergenerierten Fake-Bildern von Kandidaten produzieren, „die lebensecht erscheinen, um inkriminierende Fehldarstellungen dieser Kandidaten darzustellen“.
Auswirkungen von Deepfakes auf politische Prozesse
Eine Erzählung brauche ein fesselndes Element, um sie im Gedächtnis der Zielgruppe zu verankern. Bei Filmen gehe es um Unterhaltung und die Flucht vor der Realität – oft sei das in der Politik nicht viel anders.
Das fesselnde Element könne ein Bild, ein Audio-Clip oder ein Video sein. Die Fortschritte im Bereich KI hätten sowohl in der Unterhaltungsbranche als auch als Werkzeug für Täuschung ganz neue Möglichkeiten eröffnet. KI benötige große Datenmengen, um effektiv trainiert werden zu können und verlässliche sowie hochwertige Antworten zu liefern.
Wright erläutert: „Je mehr Inhalt, desto besser kann KI die angestrebten Ergebnisse erzielen. Für Bedrohungsakteure deren Ziel die Manipulation menschlichen Verhaltens und die Veränderung zuvor gesicherter Überzeugungen ist, stellt die Fülle von Audio-, Video- und Bilddateien in der politischen Sphäre einen erstklassigen Trainingsplatz dar.“
Falschinformationen: Deepfakes als sehr gefährliche und wirksame politische Waffe
„Die Geschichte hat uns gelehrt, dass Lügen oftmals leichter verbreitet werden als die Wahrheit und sehr schwer zu korrigieren sind“, warnt Wright. In unseren Köpfen gebe es eine direkte Verbindung der eigenen Wahrnehmung hin zu unserem Verständnis von Realität, und es falle uns sehr schwer, dieses anfänglich erzeugte Bild der Realität kritisch zu hinterfragen.
Dieses Phänomen habe ein erhebliches rechtliches und technisches Dilemma geschaffen: „Wie können wir sicher sein, dass ein Video kein ,Deepfake’ ist? Wie beweist man, dass etwas nicht passiert ist?“ Und die größere Frage, welche sich uns stelle: „Wie können wir definitiv beweisen, dass etwas gefälscht ist?“
Im Jahr 2023 habe KI sich in vielen Bereichen bereits weit über die grundlegende menschliche Fähigkeit hinaus entwickelt: Sie ermögliche es, täuschend echte Aufnahmen – ein Bild, ein Video oder eine Stimme – sehr schnell und unkompliziert zu fälschen. Es würden Situationen geschaffen, in denen die Wahrnehmung in den Köpfen der Menschen beeinflusst werden könne – durch gezielte Falschinformationen, „was eine sehr gefährliche und wirksame politische Waffe darstellt“.
Täuschung der Massen mit Deepfakes
„Deepfakes“ seien dadurch eine neue Art der „Weapons of Mass Deception“, also Waffen der Massentäuschung, geworden. Die größte Auswirkung von „Deepfake“-Videos sei nicht die Tatsache, „dass sie gefälscht sind“. Es seien die Nachwirkungen der Täuschung, welche auch lange nach der Entdeckung der Wahrheit in den Köpfen der Menschen bestehen blieben – ein äußerst mächtiges Werkzeug in den Händen von Bedrohungsakteuren.
Diese Art von Szenario und seine potenziellen Folgen habe bereits 1710 Jonathan Swift, der Autor von „Gullivers Reisen“, beleuchtet. In einem Artikel für „The Examiner“ bemerkte er demnach: „Wenn eine Lüge nur eine Stunde lang geglaubt wird, hat sie ihre Arbeit getan, und es besteht keine weitere Notwendigkeit dafür. Die Falschheit fliegt, und die Wahrheit kommt hinkend nach, so dass, wenn die Menschen wieder aufgeklärt werden, es zu spät ist; der Witz ist vorbei, und die Geschichte hat ihre Wirkung entfaltet.“
Eine große Chance für Sicherheitsteams in der Bekämpfung von durch KI optimierten „Deepfakes“, bestehe nun darin, selbst KI einzusetzen, „die darauf trainiert wurde, ,Deepfakes’ zu erkennen“. Aber auch andere Prozesse seien vonnöten: „Angesichts der Bedrohung durch ,Deepfakes’ muss die Gesellschaft der digitalen Bildung Vorrang einräumen, den Einzelnen in die Lage versetzen, zwischen echten und manipulierten Medien zu unterscheiden, in Technologien zur Erkennung von ,Deepfakes’ investieren und rechtliche Rahmenbedingungen schaffen, um böswillige Nutzung zu verhindern.“
Weitere Informationen zum Thema:
The Dalí Museum, 08.05.2019
Behind the Scenes: Dalí Lives
Aktuelles, Experten - Nov 21, 2024 20:50 - noch keine Kommentare
ePA für alle: Daten für die Forschung und das Risiko trägt der Patient
weitere Beiträge in Experten
- CRA endgültig in Kraft getreten: Digitale Produkte in der EU kommen auf den Prüfstand
- Datenleck bei Öko-Stromanbieter: 50.000 Datensätze deutscher Tibber-Kunden im Darknet
- HmbBfDI unternahm branchenweite Schwerpunktprüfung im Forderungsmanagement
- Repräsentative Studie von Civey und QBE: Über 24 Prozent deutscher Unternehmen kürzlich von Cyber-Attacke betroffen
- Datenschutz-Sandbox: Forschungsprojekt soll sicherer Technologieentwicklung Raum geben
Aktuelles, Branche - Nov 21, 2024 20:58 - noch keine Kommentare
Gelsemium-Hacker: ESET warnt vor neuen Linux-Backdoors
weitere Beiträge in Branche
- Laut 2025 Identity Fraud Report alle fünf Minuten ein Deepfake-Angriff
- Unternehmen sollten NIS-2 ernst nehmen und schnell konforme Lösungen etablieren
- Betrug im Digital-Zeitalter: Moderne IT definiert -Bedrohungen und -Schutzmaßnahmen neu
- TOPqw Webportal: G DATA deckte fünf Sicherheitslücken auf
- Proofpoint gibt Tipps gegen Online-Betrug – Hochsaison der Online-Einkäufe startet
Branche, Umfragen - Dez 21, 2020 21:46 - noch keine Kommentare
Threat Hunting: Bedeutung und Wertschätzung steigt
weitere Beiträge in Service
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
- Cybersicherheit: SANS-Studie zu Frauen in Führungspositionen
Kommentieren