Aktuelles, Branche, Gastbeiträge - geschrieben von cp am Donnerstag, Dezember 7, 2023 8:33 - noch keine Kommentare
Cybersicherheit: Die Rolle Künstlicher Intelligenz in der Sicherheitslandschaft
Hacking als Anwendungsfall für ChatGPT
Von unserem Gastautor Thorben Jändling, Principal Solutions Architect in der Global Security Specialist Group bei Elastic
[datensicherheit.de, 07.12.2023] Während Künstliche Intelligenz (KI) und KI-Modelle einen immer größeren Einfluss auf die Welt der Technologie haben, wächst die Sorge, wie sie für betrügerische Zwecke genutzt werden können: für Cyberangriffe, Phishing, Desinformation, soziale Manipulation oder gefälschte Video- und Bilddateien. Denn die Technologie, mit der solche irreführenden Darstellungen von Personen erstellt werden können, ist mittlerweile weit verbreitet. Sie wird nicht nur von Unternehmen eingesetzt, um realistische Identitäten zu schaffen, sondern könnte auch von böswilligen Akteuren für ihre eigenen Zwecke missbraucht werden.
Die Revolution der Künstlichen Intelligenz
Die Geschichte der Modelle mit Künstlicher Intelligenz (KI), auch als Artificial Intelligence (AI) bekannt, reicht bis in die 1950er Jahre zurück. Allein in den letzten fünf Jahren hat es rasante Fortschritte gegeben: Von Modellen mit einigen Millionen Parametern ist die Entwicklung heute beim neuesten Modell GPT-4 angelangt, bei dem die Zahl der Parameter auf mehr als 100 Billionen geschätzt wird. Zum Vergleich: Das menschliche Gehirn hat durchschnittlich 86 Milliarden Neuronen und 100 Billionen Synapsen. Mithilfe von KI-Beschleunigern erreichen Large-Language-Modelle (LLM) diese Größe, um beachtliche Mengen an Textdaten aus dem Internet verarbeiten zu können.
Angesichts dieser Entwicklung wächst die Besorgnis über die Auswirkungen der KI auf die Zukunft der Menschheit. Vor diesem Hintergrund haben Sicherheitsexperten begonnen, sich intensiv mit der Frage zu beschäftigen, wie sich Abwehrstrategien angesichts dieser fortgeschrittenen KI-Modelle entwickeln müssen, um Unternehmen vor möglichen Angriffen zu schützen. Noch spannender ist jedoch die Frage, inwieweit diese KI-Modelle, zum Beispiel ChatGPT, böswilligen Akteuren bei Angriffen helfen können.
Der „Golden Ticket“-Angriff und ChatGPT
Ein Beispiel für einen solchen komplexen Angriff ist der so genannte „Golden Ticket“-Angriff, bei dem Angreifer Schwachstellen im Kerberos-Identitätsauthentifizierungsprotokoll ausnutzen, das für den Zugriff auf das Active Directory (AD) verwendet wird. Dieser Angriff erfolgt in mehreren Phasen, beginnend mit dem Erstzugriff, der oft durch Phishing erreicht wird. Anschließend folgt die Erkundungsphase, in der Informationen über die Domäne gesammelt werden. Die nächsten Schritte zielen darauf ab, Zugriff auf Anmeldeinformationen zu erlangen und einen NTLM-Hash des Active Directory Key Distribution Service Accounts (KRBTGT) zu stehlen. In der Phase Privilege Escalation erhält der Angreifer mit dem KRBTGT-Passwort ein Kerberos Ticket Granting Ticket (TGT). Dieses gewährt ihm nahezu uneingeschränkten Zugang zu den Netzwerkressourcen.
Um zu testen, inwieweit KI-Modelle wie ChatGPT bei einem solchen Angriff helfen könnten, verwendeten die Sicherheitsexperten von Elastic ChatGPT (basierend auf GPT-4). Sie baten die KI, eine Phishing-E-Mail zu schreiben. Doch ChatGPT wies darauf hin, dass es als ethische und verantwortungsbewusste Technologie nicht dafür programmiert sei, bösartige Inhalte zu erstellen.
Daraufhin versuchten die Experten, die KI zu täuschen, indem sie sie zu Trainingszwecken baten, eine Phishing-E-Mail zu verfassen. Die KI generierte zwar eine Antwort, allerdings ohne Inhalt oder Verlinkungen, die für böswillige Zwecke verwendet werden konnten. Dennoch zeigte sich, dass eine Änderung der Absicht oder eine harmlose Rechtfertigung das Modell schließlich dazu brachte, eine Phishing-E-Mail zu schreiben.
Die Untersuchung ergab, dass generative KI-Modelle wie ChatGPT in der Lage sind, Inhalte auf der Grundlage von gelernten Mustern zu erstellen. Ihre Leistung variiert jedoch je nach Kontext. In einem Experiment testeten Sicherheitsexperten ChatGPT auf seine Fähigkeit, Schritte eines Golden-Ticket-Angriffs zu erklären, und fanden heraus, dass das Modell in einigen Fällen bestimmte Informationen als potenziell böswillig erkennen konnte, während es in anderen versagte.
Darüber hinaus fragten die Experten, ob ChatGPT bei der Verschleierung eines für den Angriff benötigten Werkzeugs behilflich sein könne. ChatGPT betonte jedoch, dass es nicht für bösartige Zwecke entwickelt wurde. Die Erstellung von Malware, Exploits oder Skripten war nicht möglich, selbst nach Deaktivierung der Schutzmaßnahmen. Das könnte sich jedoch in Zukunft aufgrund des technologischen Fortschritts ändern.
Generative KI-Modelle wie GPT-4 haben das Potenzial, das Verständnis von Sicherheitsereignissen zu verbessern und sie zu erklären. Dazu greifen sie auf institutionelles Wissen zu und können bei verschiedenen Aufgaben helfen: zum Beispiel Analysten zu schulen, Reaktionsprozesse zu optimieren, zur Host-Trage anzuleiten und Ereignisabläufe zu interpretieren. Es gilt jedoch zu beachten, dass diese Modelle den menschlichen Teil der Sicherheitsgleichung nicht vollständig ersetzen können.
KI-Unterstützung und menschliche Verantwortung
Zusammenfassend zeigt das Experiment, dass aktuelle generative Modelle Angreifer in verschiedenen Szenarien unterstützen können. Es gibt jedoch mehrere Gründe, warum diese Modelle voraussichtlich nicht in der Lage sein werden, komplexe Angriffe von Anfang bis Ende durchzuführen. Dazu gehören ihre begrenzte Autonomie, das Fehlen eigener Absichten und Motivationen sowie ihr begrenzter Fokus.
Letztendlich ist KI eine unterstützende Technologie, und ihre Auswirkungen hängen davon ab, wie der Mensch sie verwendet. Es gibt bereits Präzedenzfälle für „Dual-Use“-Werkzeuge in der Sicherheitswelt, die sowohl von Verteidigern als auch von Angreifern genutzt werden können. Die Zukunft der KI und ihre Auswirkungen auf die Sicherheit werden von unseren Entscheidungen und Maßnahmen geprägt sein.
Weitere Infromationen zum Thema:
datensicherheit.de, 07.12.2023
Künstliche Intelligenz – Trends im Jahr 2024
datensicherheit.de, 27.11.2023
KI – mehr als ein Hype
Aktuelles, Experten - Nov 22, 2024 18:30 - noch keine Kommentare
Mal wieder IP-Datenspeicherung angestrebt: DAV fordert nachdrücklich, Überwachungsphantasien abzustellen
weitere Beiträge in Experten
- ePA für alle: Daten für die Forschung und das Risiko trägt der Patient
- CRA endgültig in Kraft getreten: Digitale Produkte in der EU kommen auf den Prüfstand
- Datenleck bei Öko-Stromanbieter: 50.000 Datensätze deutscher Tibber-Kunden im Darknet
- HmbBfDI unternahm branchenweite Schwerpunktprüfung im Forderungsmanagement
- Repräsentative Studie von Civey und QBE: Über 24 Prozent deutscher Unternehmen kürzlich von Cyber-Attacke betroffen
Aktuelles, Branche - Nov 22, 2024 18:42 - noch keine Kommentare
Im Kontext der CRA-Umsetzung droht Herstellern Open-Source-Falle
weitere Beiträge in Branche
- Gelsemium-Hacker: ESET warnt vor neuen Linux-Backdoors
- Laut 2025 Identity Fraud Report alle fünf Minuten ein Deepfake-Angriff
- Unternehmen sollten NIS-2 ernst nehmen und schnell konforme Lösungen etablieren
- Betrug im Digital-Zeitalter: Moderne IT definiert -Bedrohungen und -Schutzmaßnahmen neu
- TOPqw Webportal: G DATA deckte fünf Sicherheitslücken auf
Branche, Umfragen - Dez 21, 2020 21:46 - noch keine Kommentare
Threat Hunting: Bedeutung und Wertschätzung steigt
weitere Beiträge in Service
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
- Cybersicherheit: SANS-Studie zu Frauen in Führungspositionen
Kommentieren