Aktuelles, Branche - geschrieben von dp am Mittwoch, Oktober 11, 2023 16:14 - noch keine Kommentare
Predictive-Text-Technologien: Veritas gibt CISOs Tipps zu Sicherheit und Datenschutz
Veritas-Stellungnahme soll mit fünf gängigen Missverständnissen aufräumen
[datensicherheit.de, 11.10.2023] Weltweit sind offensichtlich sogenannte Generative Pre-trained Transformers (GPT) und Künstliche Intelligenz (KI) auf dem Vormarsch und werden derzeit intensiv diskutiert. Sie haben das Potenzial, die Art und Weise, wie Menschen kommunizieren und wie Unternehmen arbeiten, dauerhaft zu verändern. Veritas kritisiert in einer aktuellen Stellungnahme indes: „Allerdings kursieren im Zusammenhang mit GPT-Modellen immer wieder falsche Vorstellungen über Sicherheit und Datenschutz.“ In dieser vorliegenden Stellungnahme soll mit fünf gängigen Missverständnissen aufgeräumt werden – zudem gebe es Tipps, um KI-Technologie datenschutzkonform einzusetzen. „Predictive-Text-Technologien haben großes Potenzial für die Art und Weise, wie wir arbeiten. Dennoch ist es wichtig, KI-basierte Technologien verantwortungsvoll einzusetzen. Die Einhaltung der Datenschutzgesetze muss dabei immer an erster Stelle stehen“, betont Ralf Baumann, „Country Manager“ bei Veritas Technologies.

Foto: Veritas Technologies
Ralf Baumann: Im Zusammenhang mit GPT-Modellen immer wieder falsche Vorstellungen über Sicherheit und Datenschutz
Veritas rät Unternehmen, Sicherheit und Datenschutz nicht zu vergessen
Bei GPT-Modellen analysiere die Textvorhersage den Kontext einer bestimmten Eingabe und generiere eine Folge von Wörtern oder Text basierend auf aus umfangreichen Trainingsdaten erlernten Mustern. „Für Unternehmen bedeuten die neuen Technologien, dass sie noch agiler, flexibler und effizienter agieren können“, so Ralf Baumann, „Country Manager“ bei Veritas Technologies, gibt aber zu bedenken:
„Dabei dürfen Unternehmen aber nicht die Sicherheit und den Datenschutz vergessen.“ Die folgenden fünf Punkte sollen demnach häufig anzutreffende Annahmen hinterfragen und Anwendern einen praktikablen Leitfaden liefern.
1. Veritas-Klarstellung zur Annahme, dass GPT die Integrität des Datenschutzes durch das Training mit sensiblen Informationen gefährden kann
„GPT-Modelle werden mithilfe großer Datensätze trainiert, die öffentlich verfügbare Texte aus dem Internet einschließen.“ Die Modelle selbst speicherten jedoch keine spezifischen Details der Trainingsdaten.
Die Organisation trage die Verantwortung dafür, angemessene Maßnahmen zur Anonymisierung von Daten und zum Schutz der Privatsphäre während des Trainings und der Bereitstellung von GPT-Modellen zu gewährleisten.
2. Veritas-Klarstellung zur Annahme, dass GPT erhebliche Sicherheitsrisiken birgt und leicht von Cyber-Kriminellen ausgenutzt werden kann
Zwar könnten GPT-basierte Modelle für böswillige Zwecke wie Phishing-E-Mails oder automatisierte Cyber-Angriffe missbraucht werden, doch ließen sich die Risiken durch geeignete Sicherheitsmaßnahmen und -kontrollen minimieren.
„CISOs“ könnten Strategien wie Datenbereinigung, Zugangskontrollen und kontinuierliche Überwachung implementieren, um Sicherheitsrisiken zu reduzieren.
3. Veritas-Klarstellung zur Annahme, dass Predictive-Text-Modelle Nutzerdaten unbegrenzt speichern können
Die Modelle speicherten in der Regel keine spezifischen Benutzerdaten über den unmittelbaren Kontext der Antwortgenerierung hinaus. Stattdessen liege der Fokus auf der Architektur und den Parametern des Modells.
Entscheidend sei jedoch, „dass die Datenschutzbeauftragten die Datenschutz- und Löschrichtlinien der eingesetzten spezifischen Modelle und Plattformen sorgfältig prüfen und validieren“. Ziel müsse es sein, sicherzustellen, „dass die Datenschutzbestimmungen eingehalten und ,Best Practices’ berücksichtigt werden“.
4. Veritas-Klarstellung zur Annahme, dass Predictive-Text-Modelle sensible oder vertrauliche Informationen gefährden können
GPT-Modelle erzeugten Text auf der Grundlage von Mustern und Beispielen in den Trainingsdaten. „Wenn diese Daten sensible oder vertrauliche Informationen enthalten, besteht die Gefahr, dass das Modell diese Informationen durch seine Ausgaben offenlegt.“
„CISOs“ müssten die Trainingsdaten sorgfältig prüfen und geeignete Daten-Anonymisierungstechniken implementieren, um die Offenlegung sensibler Informationen zu verhindern.
5. Veritas-Klarstellung zur Annahme, dass Predictive-Text-Modelle ein potenzielles Ziel für Datenlecks sind
Die Modelle selbst speicherten in der Regel keine sensiblen Daten. „CISOs“ sollten jedoch mögliche Schwachstellen in jener Infrastruktur im Auge behalten, welche die Modelle unterstützt. Dazu zählten zum Beispiel Speichersysteme oder APIs (application programming interfaces), die für die Inferenz (Schlussfolgerung) verwendet werden.
Empfehlenswert sei es, angemessene Sicherheitskontrollen wie Verschlüsselung, Netzwerksegmentierung und „Intrusion Detection“ zu implementieren und dadurch zu verhindern, dass Daten aus der zugrundeliegenden Infrastruktur entwendet werden.
Aktuelles, Experten - Juli 14, 2025 13:27 - noch keine Kommentare
Windows 10: BSI warnt vor zunehmender Unsicherheit und rät zum Wechsel
weitere Beiträge in Experten
- Stärkung der Cybersicherheit in Bund und Ländern: BSI und Baden-Württemberg kooperieren
- Leibniz-Center for Industrial Security: CISPA fokussiert auf Zukunft der Cybersicherheit
- KI-Modelle: BfDI hat öffentliches Konsultationsverfahren gestartet
- Bitkom-Transparenzbericht 2025 veröffentlicht
- Urlaubsfotos in Sozialen Medien: Nur fünf Prozent machen Kindergesichter unkenntlich
Aktuelles, Branche, Studien - Juli 14, 2025 14:13 - noch keine Kommentare
KI-Waffe Deepfake: Betrug, Identitätsdiebstahl und Angriffe auf Unternehmen
weitere Beiträge in Branche
- Ameos Kliniken: Seit 7. Juli 2025 erhebliche IT-Ausfälle an allen deutschen Standorten
- Fragmentierte Cybersicherheit verursacht deren Schwächung
- Urlaub mit Social Media: Öffentliches WLAN nur geschützt nutzen
- Ambivalente Ransomware-Bedrohung: Sophos meldet weniger Attacken aber mehr Lösegeldzahlungen
- Check Point deckt neue Phishing-Domains von Scattered Spider auf
Aktuelles, Branche, Umfragen - Juli 9, 2025 19:03 - noch keine Kommentare
DigiCert-Umfrage: Manuelle Zertifikatsprozesse führen zu Ausfällen, Compliance-Fehlern und hohen Verlusten im Unternehmen
weitere Beiträge in Service
- Threat Hunting: Bedeutung und Wertschätzung steigt
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
Kommentieren