Aktuelles, Branche, Studien - geschrieben von dp am Montag, November 11, 2024 11:24 - noch keine Kommentare
JFrog-Analyse zur Gefährdung Maschinellen Lernens: Kritische Schwachstellen in ML-Frameworks entdeckt
Analyse soll verdeutlichen, wie wichtig robuste Sicherheitsmaßnahmen beim Entwickeln und Betreiben von ML-Anwendungen sind
[datensicherheit.de, 11.11.2024] Sogenanntes Maschinelles Lernen (ML) wird heute in der Software-Entwicklung als unverzichtbar angesehen, ermöglicht dieses doch schnellere Erkennung, verbesserte Automatisierung und datenbasierte Anwendungen. Indes soll es laut einer aktuellen JFrog-Untersuchung eine Reihe von Schwachstellen in verbreiteten ML-Frameworks geben, welche demnach Unternehmen potenziellen Angriffen aussetzen. Die zugrundeliegende Analyse soll verdeutlichen, wie wichtig robuste Sicherheitsmaßnahmen beim Entwickeln und Betreiben von ML-Anwendungen sind. Die dokumentierten Schwachstellen beträfen die wichtigsten ML-Plattformen und machten deutlich, wie böswillige Akteure durch gezielte Angriffstechniken die Vertraulichkeit, Integrität und Verfügbarkeit produktiver ML-Systeme gefährden könnten.
Kritische Schwachstellen in „PyTorch“ und „TensorFlow“: Potenzielle Einstiegspunkte, um ML-Umgebungen zu kompromittieren
Die Open-Source-Bibliothek „PyTorch“ enthalte Schwachstellen wie „CVE-2022-41978“ und „CVE-2023-43645“, welche es Angreifern ermöglichten, schädliche Daten einzuschleusen, Sicherheitsmaßnahmen zu umgehen und unbefugt auf Ressourcen zuzugreifen. „Konkret ermöglicht ,CVE-2022-41978‘ Angreifern die Ausführung von Befehlen durch manipulierte Deserialisierung, indem während des Ladens des Modells schädlicher Code eingebracht wird, der die Integrität gefährdet.“ „CVE-2023-43645“ betreffe eine Path-Traversal-Schwachstelle im „TorchServe“-Server von „PyTorch“, durch die Dateien überschrieben oder beliebige Skripte auf dem Host-System ausgeführt werden könnten.
Auch „TensorFlow“ weise kritische Sicherheitslücken auf, darunter „CVE-2023-32457“, welche einen potenziellen Angriffsvektor für Modell-Deserialisierungs-Angriffe darstelle. Diese Schwachstelle erlaube bösartig gestalteten „TensorFlow“-Modellen, eine Speicherbeschädigung herbeizuführen, was Systemabstürze oder die Ausführung nicht autorisierten Codes zur Folge haben könne. „Das Risiko bei der Modell-Deserialisierung wird hier besonders deutlich: Unsachgemäß behandelte Daten in diesem essenziellen Prozess können als Einstiegspunkte dienen, um ML-Umgebungen zu kompromittieren.“
Schwachstellen in ONNX: Angriffe könnten gesamte ML-Workflows beeinträchtigen
Darüber hinaus weisen JFrog-Sicherheitsforscher auf Schwachstellen in ONNX-Modellen (Open Neural Network Exchange) hin. Durch uneingeschränkte Datei-Operationen beim Laden des Modells könnte das System manipuliert werden, wodurch Angreifer auf Systemdateien zugreifen oder diese verändern könnten. „Solche Schwachstellen bergen das Risiko unbefugter Datenzugriffe oder sogar einer vollständigen Kompromittierung des Systems.“
Die Forscher beschreiben außerdem die Methoden, mit denen Angreifer die Sicherheitslücken ausnutzen könnten, und fokussierten dabei Bedrohungen für die Lieferkette von ML-Diensten. „Durch Angriffe auf den Deserialisierungsprozess – ein wesentlicher Schritt beim Laden und Initialisieren von Modellen – kann bösartiger Code eingeschleust werden, der bei der Bereitstellung des Modells ausgeführt wird.“ Solche Angriffe hätten das Potenzial, gesamte ML-Workflows zu beeinträchtigen und Schwachstellen entlang des Software-Entwicklungszyklus zu schaffen.
Sicherheitsmaßnahmen für ML-Einsatz unverzichtbar
„Die Analyse macht deutlich, dass Organisationen beim Einsatz von ML-Diensten auf signifikante Sicherheitsrisiken achten müssen.“ Die aufgedeckten Schwachstellen betonten die Notwendigkeit eines besonderen Fokus auf Modell-Deserialisierung und die Absicherung der Lieferkette.
„Da ML weiterhin viele Sektoren durchdringt, wird das Schließen dieser Sicherheitslücken entscheidend, um sensible Daten zu schützen und robuste, sichere ML-Umgebungen aufrechtzuerhalten.“ Unternehmen sollten deshalb konsequent auf „DevSecOps“-Praktiken setzen und sicherstellen, „dass Sicherheitsmaßnahmen integraler Bestandteil der Bereitstellung und Verwaltung von ML-Modellen bleiben, um potenzielle Angriffsmöglichkeiten wirksam einzudämmen“.
Weitere Informationen zum Thema:
JFrog, Shachar Menashe & Or Peles & Natan Nehorai & Ori Hollander & Uriya Yavnieli, 04.11.2024
BLOG HOME / Machine Learning Bug Bonanza – Exploiting ML Services
Aktuelles, Experten, Studien - Apr. 1, 2025 13:23 - noch keine Kommentare
14. Deutscher Seniorentag 2025: DsiN-Forderung nach Stärkung Digitaler Teilhabe
weitere Beiträge in Experten
- Nur 1 von 10 Unternehmen wähnt sich in KI-Fragen als Vorreiter
- Dringender Branchenappell zum Glasfaser- und Mobilfunkausbau an Digitalministerkonferenz
- Wahrung der Grundrechte im Fokus: 109. DSK beschließt Forderungen an künftige Bundesregierung
- BGH-Urteil zu Meta-Datenschutzverstoß: Verbraucherzentrale Bundesverband gewinnt Verfahren
- World Backup Day 2025: Regelmäßige Datensicherung laut BSI unverzichtbar
Aktuelles, Branche, Studien - Apr. 1, 2025 13:39 - noch keine Kommentare
Nur 4 Länder verbesserten sich 2024: Europas Datenschutz weiter im Krisenmodus
weitere Beiträge in Branche
- Cyberresilienz: Empfehlungen für die Entscheiderebene
- PCI DSS 4.0: Datensicherheit stärken mit Phishing-resistenter MFA
- World Backup Day 2025 als Anlass für Überlegungen zu einer resilienten Datenschutzstrategie
- ICS/OT Cybersecurity Budget Report 2025: Über 50 Prozent der Befragten fühlen sich bedroht
- Threat to water supply from cyber attacks still underestimated
Branche, Umfragen - Dez. 21, 2020 21:46 - noch keine Kommentare
Threat Hunting: Bedeutung und Wertschätzung steigt
weitere Beiträge in Service
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
- Cybersicherheit: SANS-Studie zu Frauen in Führungspositionen
Kommentieren