Aktuelles, Branche, Studien - geschrieben von am Montag, November 11, 2024 11:24 - noch keine Kommentare

JFrog-Analyse zur Gefährdung Maschinellen Lernens: Kritische Schwachstellen in ML-Frameworks entdeckt

Analyse soll verdeutlichen, wie wichtig robuste Sicherheitsmaßnahmen beim Entwickeln und Betreiben von ML-Anwendungen sind

[datensicherheit.de, 11.11.2024] Sogenanntes Maschinelles Lernen (ML) wird heute in der Software-Entwicklung als unverzichtbar angesehen, ermöglicht dieses doch schnellere Erkennung, verbesserte Automatisierung und datenbasierte Anwendungen. Indes soll es laut einer aktuellen JFrog-Untersuchung eine Reihe von Schwachstellen in verbreiteten ML-Frameworks geben, welche demnach Unternehmen potenziellen Angriffen aussetzen. Die zugrundeliegende Analyse soll verdeutlichen, wie wichtig robuste Sicherheitsmaßnahmen beim Entwickeln und Betreiben von ML-Anwendungen sind. Die dokumentierten Schwachstellen beträfen die wichtigsten ML-Plattformen und machten deutlich, wie böswillige Akteure durch gezielte Angriffstechniken die Vertraulichkeit, Integrität und Verfügbarkeit produktiver ML-Systeme gefährden könnten.

Kritische Schwachstellen in „PyTorch“ und „TensorFlow“: Potenzielle Einstiegspunkte, um ML-Umgebungen zu kompromittieren

Die Open-Source-Bibliothek „PyTorch“ enthalte Schwachstellen wie „CVE-2022-41978“ und „CVE-2023-43645“, welche es Angreifern ermöglichten, schädliche Daten einzuschleusen, Sicherheitsmaßnahmen zu umgehen und unbefugt auf Ressourcen zuzugreifen. „Konkret ermöglicht ,CVE-2022-41978‘ Angreifern die Ausführung von Befehlen durch manipulierte Deserialisierung, indem während des Ladens des Modells schädlicher Code eingebracht wird, der die Integrität gefährdet.“ „CVE-2023-43645“ betreffe eine Path-Traversal-Schwachstelle im „TorchServe“-Server von „PyTorch“, durch die Dateien überschrieben oder beliebige Skripte auf dem Host-System ausgeführt werden könnten.

Auch „TensorFlow“ weise kritische Sicherheitslücken auf, darunter „CVE-2023-32457“, welche einen potenziellen Angriffsvektor für Modell-Deserialisierungs-Angriffe darstelle. Diese Schwachstelle erlaube bösartig gestalteten „TensorFlow“-Modellen, eine Speicherbeschädigung herbeizuführen, was Systemabstürze oder die Ausführung nicht autorisierten Codes zur Folge haben könne. „Das Risiko bei der Modell-Deserialisierung wird hier besonders deutlich: Unsachgemäß behandelte Daten in diesem essenziellen Prozess können als Einstiegspunkte dienen, um ML-Umgebungen zu kompromittieren.“

Schwachstellen in ONNX: Angriffe könnten gesamte ML-Workflows beeinträchtigen

Darüber hinaus weisen JFrog-Sicherheitsforscher auf Schwachstellen in ONNX-Modellen (Open Neural Network Exchange) hin. Durch uneingeschränkte Datei-Operationen beim Laden des Modells könnte das System manipuliert werden, wodurch Angreifer auf Systemdateien zugreifen oder diese verändern könnten. „Solche Schwachstellen bergen das Risiko unbefugter Datenzugriffe oder sogar einer vollständigen Kompromittierung des Systems.“

Die Forscher beschreiben außerdem die Methoden, mit denen Angreifer die Sicherheitslücken ausnutzen könnten, und fokussierten dabei Bedrohungen für die Lieferkette von ML-Diensten. „Durch Angriffe auf den Deserialisierungsprozess – ein wesentlicher Schritt beim Laden und Initialisieren von Modellen – kann bösartiger Code eingeschleust werden, der bei der Bereitstellung des Modells ausgeführt wird.“ Solche Angriffe hätten das Potenzial, gesamte ML-Workflows zu beeinträchtigen und Schwachstellen entlang des Software-Entwicklungszyklus zu schaffen.

Sicherheitsmaßnahmen für ML-Einsatz unverzichtbar

„Die Analyse macht deutlich, dass Organisationen beim Einsatz von ML-Diensten auf signifikante Sicherheitsrisiken achten müssen.“ Die aufgedeckten Schwachstellen betonten die Notwendigkeit eines besonderen Fokus auf Modell-Deserialisierung und die Absicherung der Lieferkette.

„Da ML weiterhin viele Sektoren durchdringt, wird das Schließen dieser Sicherheitslücken entscheidend, um sensible Daten zu schützen und robuste, sichere ML-Umgebungen aufrechtzuerhalten.“ Unternehmen sollten deshalb konsequent auf „DevSecOps“-Praktiken setzen und sicherstellen, „dass Sicherheitsmaßnahmen integraler Bestandteil der Bereitstellung und Verwaltung von ML-Modellen bleiben, um potenzielle Angriffsmöglichkeiten wirksam einzudämmen“.

Weitere Informationen zum Thema:

JFrog, Shachar Menashe & Or Peles & Natan Nehorai & Ori Hollander & Uriya Yavnieli, 04.11.2024
BLOG HOME / Machine Learning Bug Bonanza – Exploiting ML Services



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung