Aktuelles, Branche - geschrieben von dp am Donnerstag, Februar 23, 2023 22:12 - noch keine Kommentare
ChatGPT: Hacker nutzen Fake-Apps zur Verbreitung von Malware
Bedrohungsakteure versprechen uneingeschränkten, kostenlosen Zugang zum Premium-ChatGPT
[datensicherheit.de, 23.02.2023] „ChatGPT“ genießt offensichtlich derzeit eine enorme Popularität – nun soll OpenAI laut einer aktuellen Meldung von Arctic Wolf ein kostenpflichtiges Angebot („ChatGPT Plus“) eingeführt haben, „das es Nutzern ermöglicht, den ,Chatbot’ ohne Verfügbarkeitsbeschränkungen zu verwenden“. Bedrohungsakteure machten sich dies indes zunutze – „und versprechen uneingeschränkten, kostenlosen Zugang zum ,Premium-ChatGPT’“. Tatsächlich seien diese Angebote aber „betrügerisch“: Diese zielten darauf ab, Nutzer zur Installation von Malware oder zur Angabe von Zugangsdaten zu verleiten.
Ian McShane: Cyber-Kriminelle nutzen Fake-Versionen von ChatGPT, um Malware für Android und Windows zu verbreiten!
Hype um ChatGPT gigantisch – das lockt auch Cyber-Kriminelle an
„Der Hype um ,ChatGPT’ ist gigantisch, und die Online-App erlebt einen rasanten Anstieg der Nutzerzahlen. Da ist es keine große Überraschung, dass auch Hacker diesen Hype für ihre bösartigen Aktionen nutzen“, kommentiert Ian McShane, „Vice President of Strategy“ bei Arctic Wolf, die gegenwärtige Situation.
Wie schon bei dem Hype-Phänomen „Pokémon Go“ nutzten Cyber-Kriminelle nun auch Fake-Versionen von „ChatGPT“, um Malware für „Android“ und „Windows“ zu verbreiten. Daher sollten Verbraucher sehr vorsichtig sein und jedes Angebot meiden, das zu gut klingt, um wahr zu sein.
„,ChatGPT’ ist ein reines Online-Tool und nur unter, chat.openai.com’ verfügbar“, betont McShane. Derzeit gebe es keine mobilen oder Desktop-Apps für irgendein Betriebssystem. Er stellt klar: „Apps oder Websites, die sich als ,ChatGPT’ ausgeben und versuchen, Nutzer zum Herunterladen von Apps zu verleiten, sind Fakes.“ Diese zielten darauf ab, Geräte und Systeme mit Malware zu infizieren und sollten daher dringend gemieden werden.
ChatGPT ändert nichts an Grundlagen der Cyber-Sicherheit – Cyber-Hygiene in Unternehmen gefragt
Ihn überrascht es nicht, „dass Kriminelle nicht nur den Hype für sich nutzen, sondern auch das Tool selbst, um bösartige Codes zu schreiben“. Es sei ein weiteres Werkzeug, welches die Einstiegshürde für potenziell bösartige Aktivitäten senke. Er führt aus: „In der Vergangenheit erforderte die Erstellung einer sich ständig verändernden Malware ein hohes Maß an Programmierkenntnissen. Jetzt kann fast jeder, der ein Grundverständnis für gegnerische TTPs hat, ,ChatGPT’ in eine potenzielle Waffe verwandeln.“
„ChatGPT“ ändere jedoch nichts an den Grundlagen der Cyber-Sicherheit – und die beste Möglichkeit für Unternehmen, sich gegen diese (und andere) neue Bedrohungen zu schützen, bestehe darin, weiterhin eine gute „Cyber-Hygiene“ zu praktizieren. Sie sollten mit externen Experten zusammenarbeiten, um ihre Cyber-Sicherheit zu verbessern, regelmäßige Systemprüfungen durchführen, neue Technologien einsetzen und ihre Mitarbeiter weiterbilden, „damit sie diese richtig nutzen können“.
Außerdem sollte nicht vergessen werden, dass es in der Welt der Cybersecurity auch positive Anwendungen für „ChatGPT“ gibt. McShane erläutert: „So könnte es beispielsweise zur Automatisierung der Analyse von Protokolldateien oder zur Erstellung von Berichten verwendet werden. Sicherheitsteams können ,ChatGPT’ auch nutzen, um Phishing-E-Mails oder Social-Media-Nachrichten zu generieren, um ihre Verteidigungsmaßnahmen zu testen.“ Zum Abschluss unterstreicht McShane, dass all dies zur Verbesserung der Effektivität der Cyber-Sicherheit in Unternehmen beitrage.
Weitere Informationen zum Thema:
datensicherheit.de, 22.02.2023
ChatGPT: Malware-Kampagne missbraucht Hype / Malware ermöglicht Diebstahl von Login-Daten und persönlichen Informationen
datensicherheit.de, 09.02.2023
ChatGPT: Gefahren und Grenzen der KI / Verteidiger müssen auf dem Stand der Technik und des Wissens sein
datensicherheit.de, 08.02.2023
Zum SAFER INTERNET DAY 2023: LfDI Rheinland-Pfalz nimmt Stellung zu KI und ChatGPT / ChatGPT nur ein Beispiel, wie KI-Systeme sich mehr und mehr in digitalen Anwendungen unseres Alltags finden
datensicherheit.de, 17.02.2023
Betrug mittels KI: Chatbots und Text-to-Speech bergen neben Vorteilen auch potenzielle Gefahren / Auf dem Gebiet der KI hat sich in den letzten Monaten viel getan – so sorgt derzeit vor allem ChatGPT für Aufsehen
Aktuelles, Experten - Nov 22, 2024 18:30 - noch keine Kommentare
Mal wieder IP-Datenspeicherung angestrebt: DAV fordert nachdrücklich, Überwachungsphantasien abzustellen
weitere Beiträge in Experten
- ePA für alle: Daten für die Forschung und das Risiko trägt der Patient
- CRA endgültig in Kraft getreten: Digitale Produkte in der EU kommen auf den Prüfstand
- Datenleck bei Öko-Stromanbieter: 50.000 Datensätze deutscher Tibber-Kunden im Darknet
- HmbBfDI unternahm branchenweite Schwerpunktprüfung im Forderungsmanagement
- Repräsentative Studie von Civey und QBE: Über 24 Prozent deutscher Unternehmen kürzlich von Cyber-Attacke betroffen
Aktuelles, Branche - Nov 23, 2024 11:35 - noch keine Kommentare
Black Friday: 89 Prozent mehr ominöse Shopping-Websites als 2023
weitere Beiträge in Branche
- PyPI-Lieferkette im Visier: Kaspersky deckte Cyber-Angriff auf
- Im Kontext der CRA-Umsetzung droht Herstellern Open-Source-Falle
- Gelsemium-Hacker: ESET warnt vor neuen Linux-Backdoors
- Laut 2025 Identity Fraud Report alle fünf Minuten ein Deepfake-Angriff
- Unternehmen sollten NIS-2 ernst nehmen und schnell konforme Lösungen etablieren
Branche, Umfragen - Dez 21, 2020 21:46 - noch keine Kommentare
Threat Hunting: Bedeutung und Wertschätzung steigt
weitere Beiträge in Service
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
- Cybersicherheit: SANS-Studie zu Frauen in Führungspositionen
Kommentieren