Aktuelles, Branche - geschrieben von dp am Freitag, Februar 17, 2023 19:12 - noch keine Kommentare
Betrug mittels KI: Chatbots und Text-to-Speech bergen neben Vorteilen auch potenzielle Gefahren
Auf dem Gebiet der KI hat sich in den letzten Monaten viel getan – so sorgt derzeit vor allem ChatGPT für Aufsehen
[datensicherheit.de, 17.02.2023] Auf dem Gebiet der Künstlichen Intelligenz (KI) hat sich in den letzten Monaten offensichtlich viel getan – so sorgt derzeit vor allem der seit November 2022 verfügbare sogenannte Chatbot „ChatGPT“ von OpenAI für Aufsehen. Dieses textbasierte Dialogsystem, basierend auf Maschinellem Lernen, soll Fragen in natürlicher Sprache beantworten. „ChatGPT“ verspricht demnach in vielen Bereichen Vorteile – etwa für automatisierte Kunden-Unterstützung, um Fragen von Endnutzern schnell und effizient zu beantworten, schnelle Informationen sowie die vereinfachte Weiterentwicklung von Prototypen zu Konversationsanwendungen.
Wiebe Fokma warnt: Cyber-Kriminelle könnten KI für Phishing- und Social-Engineering-Kampagnen ausnutzen!
KI-Entwickler sind sich bewusst, dass ihre Modelle nicht nur Vorteile bieten…
Im Januar 2023 hat Microsoft nun auch mit „Vall-E“ seine neue KI vorgestellt: Dieses Sprach-Synthesemodell soll menschliche Stimmen imitieren können. „Dafür reicht eine Aufnahme der Originalstimme von nur drei Sekunden“, berichtet Wiebe Fokma, „Director Global Advisory“ bei BioCatch, in seiner aktuellen Stellungnahme. Die KI simuliere die menschliche Stimme sehr genau und könne sogar emotionale Betonungen des Sprechers nachahmen.
Die Entwickler beider Systeme seien sich allerdings bewusst, „dass ihre KI-Modelle nicht nur Vorteile bieten“. Mit der zunehmenden Beliebtheit solcher Programme steige auch das Betrugspotenzial: So könnten insbesondere Chatbots dazu missbraucht werden, Malware-Angriffe zu starten, Phishing-Versuche weiter zu perfektionieren oder Identitäten zu stehlen. „Die Möglichkeiten sind vielfältig“, warnt Fokma.
KI als Booster für Attacken per Phishing und Social Engineering
Er führt aus: „Welche Betrugsszenarien durch den Einsatz von KI-Modellen zukünftig möglich sind, hat BioCatch analysiert.“ „ChatGPT“ z.B. nutze die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP). „Das könnten Cyber-Kriminelle für Phishing- und Social-Engineering-Kampagnen ausnutzen.“ Es ließen sich beispielsweise E-Mail-Konversationen authentisch nachstellen, ohne dass Grammatik- oder Rechtschreibfehler erkennbar seien. Dabei sorge ein natürlicher Sprachfluss für Vertrauen bei den potenziellen Opfern: „Der vermeintliche Bankmitarbeiter, der den Kunden per E-Mail auffordert, seine Kontodaten zur Verifizierung anzugeben, wirkt durch die natürliche Sprache authentisch.“ Auf diese Weise könnten Betrüger problemlos Daten abgreifen oder komplette Konten übernehmen.
Für Banken seien solche Betrugsformen schwer zu erkennen, weil es sich bei den geschilderten Fällen um „echte“ Kunden handele, welche dann die Überweisung auslösen. Aber nicht nur die vielfältigen Betrugsszenarien würden durch den Einsatz von KI für Banken und Finanzinstitute zunehmend zum Problem. Um sich vor solchen Risiken zu schützen, müssten Unternehmen über solide Sicherheitsmaßnahmen verfügen. Fokma erläutert: „Dazu gehören vor allem regelmäßige Security-Updates sowie eine Multi-Faktor-Authentifizierung.“ Darüber hinaus sollten sie zusätzliche Maßnahmen ergreifen, um ihre Chatbots vor böswilligen Akteuren zu schützen.
Weitere Herausforderung: Mithilfe KI-gestützter Chatbots können Geldwäscher Gespräche generieren
Auch die Bekämpfung der Geldwäsche stelle eine Herausforderung dar und sei oft mit hohen Kosten verbunden. „Hier bleibt die erste Überweisung meist unentdeckt. Entweder wird sie vom Überwachungssystem übersehen, oder der ,Kunde’ beziehungsweise der AML-Analyst (Anti-Money Laundering) bestätigt die Transaktion als unverdächtig.“ Denn mithilfe von KI-gestützten Chatbots wie „ChatGPT“ könnten Geldwäscher Gespräche generieren, die scheinbar legitime Geschäftsaktivitäten zum Gegenstand hätten. „In Wirklichkeit dienen sie jedoch dazu, Geldtransfers zu verschleiern“, so Fokma. Dadurch werde es für Finanzinstitute immer schwieriger, die gängigen Muster von Geldwäscheaktivitäten zu erkennen.
Ein weiteres Problem sei die Rekrutierung ahnungsloser Personen zur Geldwäsche. „Viele der Konten werden von arglosen Personen eröffnet, die glauben, einen ertragreichen Nebenjob gefunden zu haben. Dabei wissen die Betroffenen oft nicht, dass sie als Geldwäscher agieren und ihr Konto für kriminelle Aktivitäten nutzen, oder es dafür zur Verfügung stellen.“ Denn die Betrüger gäben sich als legitime Unternehmen aus und versprächen schnelles Geld. Fokma betont: „Und mit ,ChatGPT’ lässt sich die vermeintliche Stellenanzeige und der nachfolgende Rekrutierungsprozess noch überzeugender gestalten.“
Verhaltensbiometrie soll Abhilfe gegen KI-gestützten Betrug bieten
Verhaltensbiometrie könne eine wichtige Rolle beim Aufdecken von Betrugsversuchen und Geldwäsche spielen. Fokma erklärt: „Durch die Analyse des Benutzerverhaltens, etwa der Tippgeschwindigkeit, den Tastenanschlägen und Mausbewegungen kann das normale Verhalten eines Benutzers festgelegt werden.“
Anhand davon könne die Software erkennen, ob es sich tatsächlich um den angemeldeten Benutzer handelt, oder um einen Betrüger. Auch viele andere Betrugsversuche ließen sich so erkennen. Auf diese Weise könnten auch Konten ausfindig gemacht werden, die zu einem späteren Zeitpunkt für Geldwäsche genutzt werden sollen.
Weitere Informationen zum Thema:
datensicherheit.de, 09.02.2023
Am Valentinstag mit KI auf Partnersuche: International würde jeder dritte Mann Liebesbriefe mit ChatGPT erstellen / In Deutschland im Durchschnitt potenziell jeder fünfte Mann ein KI-Nutzer für das Verfassen von Liebesbriefen
datensicherheit.de, 08.02.2023
Zum SAFER INTERNET DAY 2023: LfDI Rheinland-Pfalz nimmt Stellung zu KI und ChatGPT / ChatGPT nur ein Beispiel, wie KI-Systeme sich mehr und mehr in digitalen Anwendungen unseres Alltags finden
datensicherheit.de, 13.02.2023
Liebesbetrug am Valentinstag: Auch ein Festtag für Cyber-Kriminelle / Gerade am Valentinstag viele alleinstehende Menschen im Internet auf der Suche nach Kontakt
Aktuelles, Experten - Nov 22, 2024 18:30 - noch keine Kommentare
Mal wieder IP-Datenspeicherung angestrebt: DAV fordert nachdrücklich, Überwachungsphantasien abzustellen
weitere Beiträge in Experten
- ePA für alle: Daten für die Forschung und das Risiko trägt der Patient
- CRA endgültig in Kraft getreten: Digitale Produkte in der EU kommen auf den Prüfstand
- Datenleck bei Öko-Stromanbieter: 50.000 Datensätze deutscher Tibber-Kunden im Darknet
- HmbBfDI unternahm branchenweite Schwerpunktprüfung im Forderungsmanagement
- Repräsentative Studie von Civey und QBE: Über 24 Prozent deutscher Unternehmen kürzlich von Cyber-Attacke betroffen
Aktuelles, Branche - Nov 23, 2024 11:35 - noch keine Kommentare
Black Friday: 89 Prozent mehr ominöse Shopping-Websites als 2023
weitere Beiträge in Branche
- PyPI-Lieferkette im Visier: Kaspersky deckte Cyber-Angriff auf
- Im Kontext der CRA-Umsetzung droht Herstellern Open-Source-Falle
- Gelsemium-Hacker: ESET warnt vor neuen Linux-Backdoors
- Laut 2025 Identity Fraud Report alle fünf Minuten ein Deepfake-Angriff
- Unternehmen sollten NIS-2 ernst nehmen und schnell konforme Lösungen etablieren
Branche, Umfragen - Dez 21, 2020 21:46 - noch keine Kommentare
Threat Hunting: Bedeutung und Wertschätzung steigt
weitere Beiträge in Service
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
- Cybersicherheit: SANS-Studie zu Frauen in Führungspositionen
Kommentieren