Aktuelles, Experten - geschrieben von dp am Mittwoch, Februar 8, 2023 11:41 - noch keine Kommentare
Zum SAFER INTERNET DAY 2023: LfDI Rheinland-Pfalz nimmt Stellung zu KI und ChatGPT
ChatGPT nur ein Beispiel, wie KI-Systeme sich mehr und mehr in digitalen Anwendungen unseres Alltags finden
[datensicherheit.de, 08.02.2023] „Chat-Roboter, Bildgeneratoren und andere KI-Systeme werden seit einigen Wochen aus den IT-Forschungslaboren auf die Internetnutzer losgelassen“, so der Landesbeauftragte für den Datenschutz und die Informationsfreiheit Rheinland-Pfalz (LfDI RLP) in seiner aktuellen Stellungnahme. Aus diesem gegebenen Anlass wirft er „einen genaueren Blick auf Datenschutz“ bei Künstlicher Intelligenz (KI).
Datenschützer begleiteten KI-Entwicklungen seit einigen Jahren und weisen insbesondere auch auf die Gefahren hin
„Den Aufsatz über Vincent van Gogh mit ein paar Klicks schreiben lassen, statt mühsam verschiedene Quellen zusammenzutragen und schöne Sätze zu konstruieren, das verspricht eine Software, die sich derzeit bei Schülern und Studenten großer Beliebtheit erfreut“, berichtet der LfDI RLP anlässlich des diesjährigen „Safer Internet Day“ (SID) am 7. Februar 2023. Seit einigen Wochen sei in Schulen der Sprach-Roboter „ChatGPT“ angekommen, welcher demnach in Sekunden scheinbar von Schülerhand geschriebene Texte über alle möglichen Unterrichtsthemen erstellen kann.
Dies sei nur ein Beispiel, „wie KI-Systeme sich mehr und mehr in digitalen Anwendungen unseres Alltags finden“. Datenschützer begleiteten die Entwicklungen im Bereich KI seit einigen Jahren und wiesen insbesondere auch auf die Gefahren hin, welche diese Systeme bergen könnten: „KI-Systeme, sei es im Sprachassistenten, der Forschung oder bei Sicherheitsbehörden, können menschliche Aufgaben in einem Bruchteil der Zeit erledigen und werden daher als Unterstützung immer verbreiteter. Problematisch ist, dass bei vielen der Systeme der Algorithmus, der die Entscheidungen trifft, eine Black-Box ist“, sagt der Landesdatenschutzbeauftragte Prof. Dr. Dieter Kugelmann und führt weiter aus: „Wer den Algorithmus entwickelt und kontrolliert, der bestimmt die Ergebnisse. Hier kann es schnell zu tendenziösen oder falschen Ergebnissen, politischen Beeinflussungen oder rassistischen Diskriminierungen kommen. Transparenz der Algorithmen und die Möglichkeit, die Systeme durch unabhängige Dritte überprüfen zu lassen, sind daher das A und O, bevor man entsprechende KI-Systeme beispielsweise im Bereich des staatlichen Handelns einführt.“
Die „Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder“ (DSK) habe bereits 2019 in der „Hambacher Erklärung“ zur Künstlichen Intelligenz sieben Anforderungen an KI-Systeme definiert, welche helfen sollten, missbräuchlichen Einsatz zu verhindern.
Datensammlung: Seit Herbst 2022 bei einigen KI-Systemen Login für alle möglich
Dass die „Intelligenz“ der Systeme noch Grenzen habe, zeige sich bei genauerer Betrachtung der Ergebnisse dieser Chat-Roboter oder Bildgeneratoren. Oftmals seien die Texte zwar sprachlich perfekt geschrieben, „inhaltlich gehen sie aber nicht zu sehr in die Detailtiefe oder sind schlichtweg falsch“.
Auch die Bildgeneratoren versagten beim Erstellen der – ansonsten fotorealistischen – Bilder noch bei Details wie Augen, Fingern oder Gegenständen wie Brillen. Um hierfür wirkliche Perfektion zu liefern, fehlten den Systemen schlicht noch mehr menschliche Daten. Das ist eine Triebfeder, warum seit Herbst 2022 bei einigen Systemen der „Login für Jederfrau und Jedermann“ geöffnet worden sei. Millionen Nutzer seien in den ersten Wochen auf diese Plattformen geströmt, welche sich zum Teil nur angemeldet mit einem Account nutzen ließen, und fütterten den Algorithmus mit jeder ihrer Eingaben mit Daten, einschließlich ihrer Mobilfunknummer. Eine immense, valide Testgruppe, welche die Betreiberfirmen und Geldgeber hinter den Programmen mit eigenen Mitteln nie hätten einkaufen können. „Und das trotz beispielsweise angekündigten Investitionen von 10 Milliarden US-Dollar des US-Konzerns Microsoft in ,ChatGPT’. Erst die vermeintlich spielerische Chat-Tätigkeit vieler Millionen Nutzerinnen und Nutzer mit dem Roboter schafft den rasant wachsender Datenbestand, der sich zur Verbesserung der Systeme ausschlachten lässt.“
Professor Kugelmann betont abschließend: „Die Diskussion um KI nimmt zu Beginn des Jahres somit gerade an Fahrt auf. Für Lehrkräfte ist es jetzt eine gute Gelegenheit, in das Thema einzusteigen und sich mit den Schülerinnen und Schülern konstruktiv-kritisch mit den Programmen auseinanderzusetzen.“ Er möchte mit dem neuen Themenbereich zu KI daher gerade Schulen ansprechen und der LfDI RLP werde hierzu in den kommenden Monaten weitere Informationen bereitstellen, „die Schülerinnen und Schülern den Einblick in die Welt der KI und den Schutz ihrer persönlichen Daten erfahrbarer machen sollen“.
Weitere Informationen zum Thema:
YOUNG DATA
Künstliche Intelligenz
SID23, 07.02.2023
SAFER INTERNET DAY
heise online, Stefan Krempl, 05.02.2023
„Virtueller Freund“: Datenschützer stoppen Chatbot Replika in Italien / Die italienische Datenschutzbehörde hat es dem Replika-Entwickler untersagt, Informationen von Nutzern des Landes zu verarbeiten. Die Risiken seien zu hoch.
datensicherheit.de, 04.10.2022
KI: Bitkom kommentiert EU-Haftungsrichtlinie / EU-Kommission hat Entwurf zur Haftungsrichtlinie zu Künstlicher Intelligenz (AI Liability Directive) veröffentlicht
DSK DATENSCHUTZKONFERENZ, 03.04.2019
Hambacher Erklärung zur Künstlichen Intelligenz / Sieben datenschutzrechtliche Anforderungen
Aktuelles, Experten - Nov 20, 2024 21:07 - noch keine Kommentare
CRA endgültig in Kraft getreten: Digitale Produkte in der EU kommen auf den Prüfstand
weitere Beiträge in Experten
- Datenleck bei Öko-Stromanbieter: 50.000 Datensätze deutscher Tibber-Kunden im Darknet
- HmbBfDI unternahm branchenweite Schwerpunktprüfung im Forderungsmanagement
- Repräsentative Studie von Civey und QBE: Über 24 Prozent deutscher Unternehmen kürzlich von Cyber-Attacke betroffen
- Datenschutz-Sandbox: Forschungsprojekt soll sicherer Technologieentwicklung Raum geben
- it’s.BB e.V. lädt ein: Web-Seminar zu Risiken und Nebenwirkungen der Cyber Sicherheit im Unternehmen
Aktuelles, Branche, Studien - Nov 20, 2024 20:59 - noch keine Kommentare
Laut 2025 Identity Fraud Report alle fünf Minuten ein Deepfake-Angriff
weitere Beiträge in Branche
- Unternehmen sollten NIS-2 ernst nehmen und schnell konforme Lösungen etablieren
- Betrug im Digital-Zeitalter: Moderne IT definiert -Bedrohungen und -Schutzmaßnahmen neu
- TOPqw Webportal: G DATA deckte fünf Sicherheitslücken auf
- Proofpoint gibt Tipps gegen Online-Betrug – Hochsaison der Online-Einkäufe startet
- NIS-2-Richtlinie: G DATA sieht Fehleinschätzung bei Mehrheit der Angestellten in Deutschland
Branche, Umfragen - Dez 21, 2020 21:46 - noch keine Kommentare
Threat Hunting: Bedeutung und Wertschätzung steigt
weitere Beiträge in Service
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
- Cybersicherheit: SANS-Studie zu Frauen in Führungspositionen
Kommentieren