Aktuelles, Branche, Studien - geschrieben von dp am Montag, November 11, 2024 11:24 - noch keine Kommentare
JFrog-Analyse zur Gefährdung Maschinellen Lernens: Kritische Schwachstellen in ML-Frameworks entdeckt
Analyse soll verdeutlichen, wie wichtig robuste Sicherheitsmaßnahmen beim Entwickeln und Betreiben von ML-Anwendungen sind
[datensicherheit.de, 11.11.2024] Sogenanntes Maschinelles Lernen (ML) wird heute in der Software-Entwicklung als unverzichtbar angesehen, ermöglicht dieses doch schnellere Erkennung, verbesserte Automatisierung und datenbasierte Anwendungen. Indes soll es laut einer aktuellen JFrog-Untersuchung eine Reihe von Schwachstellen in verbreiteten ML-Frameworks geben, welche demnach Unternehmen potenziellen Angriffen aussetzen. Die zugrundeliegende Analyse soll verdeutlichen, wie wichtig robuste Sicherheitsmaßnahmen beim Entwickeln und Betreiben von ML-Anwendungen sind. Die dokumentierten Schwachstellen beträfen die wichtigsten ML-Plattformen und machten deutlich, wie böswillige Akteure durch gezielte Angriffstechniken die Vertraulichkeit, Integrität und Verfügbarkeit produktiver ML-Systeme gefährden könnten.
Kritische Schwachstellen in „PyTorch“ und „TensorFlow“: Potenzielle Einstiegspunkte, um ML-Umgebungen zu kompromittieren
Die Open-Source-Bibliothek „PyTorch“ enthalte Schwachstellen wie „CVE-2022-41978“ und „CVE-2023-43645“, welche es Angreifern ermöglichten, schädliche Daten einzuschleusen, Sicherheitsmaßnahmen zu umgehen und unbefugt auf Ressourcen zuzugreifen. „Konkret ermöglicht ,CVE-2022-41978‘ Angreifern die Ausführung von Befehlen durch manipulierte Deserialisierung, indem während des Ladens des Modells schädlicher Code eingebracht wird, der die Integrität gefährdet.“ „CVE-2023-43645“ betreffe eine Path-Traversal-Schwachstelle im „TorchServe“-Server von „PyTorch“, durch die Dateien überschrieben oder beliebige Skripte auf dem Host-System ausgeführt werden könnten.
Auch „TensorFlow“ weise kritische Sicherheitslücken auf, darunter „CVE-2023-32457“, welche einen potenziellen Angriffsvektor für Modell-Deserialisierungs-Angriffe darstelle. Diese Schwachstelle erlaube bösartig gestalteten „TensorFlow“-Modellen, eine Speicherbeschädigung herbeizuführen, was Systemabstürze oder die Ausführung nicht autorisierten Codes zur Folge haben könne. „Das Risiko bei der Modell-Deserialisierung wird hier besonders deutlich: Unsachgemäß behandelte Daten in diesem essenziellen Prozess können als Einstiegspunkte dienen, um ML-Umgebungen zu kompromittieren.“
Schwachstellen in ONNX: Angriffe könnten gesamte ML-Workflows beeinträchtigen
Darüber hinaus weisen JFrog-Sicherheitsforscher auf Schwachstellen in ONNX-Modellen (Open Neural Network Exchange) hin. Durch uneingeschränkte Datei-Operationen beim Laden des Modells könnte das System manipuliert werden, wodurch Angreifer auf Systemdateien zugreifen oder diese verändern könnten. „Solche Schwachstellen bergen das Risiko unbefugter Datenzugriffe oder sogar einer vollständigen Kompromittierung des Systems.“
Die Forscher beschreiben außerdem die Methoden, mit denen Angreifer die Sicherheitslücken ausnutzen könnten, und fokussierten dabei Bedrohungen für die Lieferkette von ML-Diensten. „Durch Angriffe auf den Deserialisierungsprozess – ein wesentlicher Schritt beim Laden und Initialisieren von Modellen – kann bösartiger Code eingeschleust werden, der bei der Bereitstellung des Modells ausgeführt wird.“ Solche Angriffe hätten das Potenzial, gesamte ML-Workflows zu beeinträchtigen und Schwachstellen entlang des Software-Entwicklungszyklus zu schaffen.
Sicherheitsmaßnahmen für ML-Einsatz unverzichtbar
„Die Analyse macht deutlich, dass Organisationen beim Einsatz von ML-Diensten auf signifikante Sicherheitsrisiken achten müssen.“ Die aufgedeckten Schwachstellen betonten die Notwendigkeit eines besonderen Fokus auf Modell-Deserialisierung und die Absicherung der Lieferkette.
„Da ML weiterhin viele Sektoren durchdringt, wird das Schließen dieser Sicherheitslücken entscheidend, um sensible Daten zu schützen und robuste, sichere ML-Umgebungen aufrechtzuerhalten.“ Unternehmen sollten deshalb konsequent auf „DevSecOps“-Praktiken setzen und sicherstellen, „dass Sicherheitsmaßnahmen integraler Bestandteil der Bereitstellung und Verwaltung von ML-Modellen bleiben, um potenzielle Angriffsmöglichkeiten wirksam einzudämmen“.
Weitere Informationen zum Thema:
JFrog, Shachar Menashe & Or Peles & Natan Nehorai & Ori Hollander & Uriya Yavnieli, 04.11.2024
BLOG HOME / Machine Learning Bug Bonanza – Exploiting ML Services
Aktuelles, Experten - Nov 22, 2024 18:30 - noch keine Kommentare
Mal wieder IP-Datenspeicherung angestrebt: DAV fordert nachdrücklich, Überwachungsphantasien abzustellen
weitere Beiträge in Experten
- ePA für alle: Daten für die Forschung und das Risiko trägt der Patient
- CRA endgültig in Kraft getreten: Digitale Produkte in der EU kommen auf den Prüfstand
- Datenleck bei Öko-Stromanbieter: 50.000 Datensätze deutscher Tibber-Kunden im Darknet
- HmbBfDI unternahm branchenweite Schwerpunktprüfung im Forderungsmanagement
- Repräsentative Studie von Civey und QBE: Über 24 Prozent deutscher Unternehmen kürzlich von Cyber-Attacke betroffen
Aktuelles, Branche - Nov 22, 2024 18:42 - noch keine Kommentare
Im Kontext der CRA-Umsetzung droht Herstellern Open-Source-Falle
weitere Beiträge in Branche
- Gelsemium-Hacker: ESET warnt vor neuen Linux-Backdoors
- Laut 2025 Identity Fraud Report alle fünf Minuten ein Deepfake-Angriff
- Unternehmen sollten NIS-2 ernst nehmen und schnell konforme Lösungen etablieren
- Betrug im Digital-Zeitalter: Moderne IT definiert -Bedrohungen und -Schutzmaßnahmen neu
- TOPqw Webportal: G DATA deckte fünf Sicherheitslücken auf
Branche, Umfragen - Dez 21, 2020 21:46 - noch keine Kommentare
Threat Hunting: Bedeutung und Wertschätzung steigt
weitere Beiträge in Service
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
- Cybersicherheit: SANS-Studie zu Frauen in Führungspositionen
Kommentieren