Künstliche Intelligenz – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Wed, 28 Feb 2024 19:50:21 +0000 de hourly 1 https://wordpress.org/?v=5.6.14 KI trifft in Deutschland auf verunsicherte Bürger https://www.datensicherheit.de/ki-deutschland-verunsicherung-buerger https://www.datensicherheit.de/ki-deutschland-verunsicherung-buerger#respond Wed, 28 Feb 2024 19:50:21 +0000 https://www.datensicherheit.de/?p=44199 KI-Modelle benötigen Vielzahl von Daten zum Training

[datensicherheit.de, 28.02.2024] Laut einer aktuellen Stellungnahme des eco – Verband der Internetwirtschaft e.V. lehnen zwei Drittel der Deutschen die Nutzung ihrer anonymisierten Daten für Künstliche Intelligenz (KI) ab. Zwei Drittel der Deutschen (66,3%) möchten demnach ihre Daten selbst in anonymisierter Form nicht für das KI-Training zur Verfügung stellen. Rund jeder Fünfte würde Daten zur eigenen Technologienutzung sowie Transport- und Verkehrsdaten freigeben. Der eco-Vorstandsvorsitzende, Oliver Süme, fordert daher, dass Bundesregierung und Wirtschaft ein vertrauenswürdiges „Daten-Ökosystem“ schaffen müssen, um die Zukunftsfähigkeit des Digitalstandorts Deutschland zu erhalten. Das Meinungsforschungsunternehmen Civey habe im eco-Auftrag rund 2.518 volljährige Bundesbürger zwischen dem 12. und 13. Februar 2024 befragt – diese Ergebnisse seien repräsentativ (der statistische Fehler der Gesamtergebnisse liege bei 3,2 Prozent).

Oliver Süme, Vorstandsvorsitzender des eco – Verbands der Internetwirtschaft e. V.

Bild: eco

Oliver Süme: KI-Vorteile müssen stärker herausgestellt werden!

KI-Einsatz für optimierte Produktionsprozesse, Stau-Vorhersagen und Krebs-Früherkennung

KI könne Produktionsprozesse in Wirtschaft und Industrie optimieren, Stau vermeiden und in der Krebs-Früherkennung sogar Leben retten. Damit das zukünftig immer besser gelingt, müssten KI-Modelle mit einer Vielzahl von Daten trainiert werden. Doch die Menschen in Deutschland sind laut eco nur begrenzt dazu bereit, ihre Daten anonymisiert für das KI-Training zur Verfügung zu stellen.

Immerhin 18,3 Prozent der Deutschen würden Daten zu ihrer Technologienutzung zur Verfügung stellen, 18,1 Prozent Transport- und Verkehrsdaten. Daten zum Reiseverhalten würden 15,7 Prozent der Deutschen teilen und Gesundheitsdaten 15,6 Prozent.

Vertrauenswürdiges Daten-Ökosystem nötig, welches Bürgern nötige Transparenz und Sicherheit beim KI-Training bietet

Süme kommentiert: „Der visionäre Einsatz von Technologien und Anwendungen auf Basis von Künstlicher Intelligenz bietet nicht nur enormes Wirtschaftspotenzial, sondern kann auch dazu beitragen, unser aller Lebensverhältnisse in vielen Bereichen zu verbessern. Diese Vorteile müssen stärker herausgestellt werden!“ Um diese Potenziale zu heben, brauche es neben digitalen Infrastrukturen, Diensten und Plattformen eben auch Datenpools.

Die Verfügbarkeit hochwertiger Daten sowie ein einheitlicher und rechtssicherer Umgang mit Daten sei essenziell für alle datenbasierten Geschäftsmodelle. Es werde ein vertrauenswürdiges „Daten-Ökosystem“ benötigt, welches Bürgern auch die nötige Transparenz und Sicherheit gewährleistet, „damit sie der Nutzung ihrer Daten für das Training von KI-Anwendungen zustimmen”. Die Bundesregierung sei hierzu jetzt dringend in der Pflicht. „Die Datenstrategie der Bundesregierung bietet dafür eine gute Grundlage. Auch wenn einige Projekte aus der Strategie, wie das Dateninstitut, das Bundesdatenschutz-Gesetz oder das Mobilitätsdatengesetz, zumindest bereits angestoßen wurden, brauchen wir jetzt allerdings dringend mehr Tempo bei der Datenpolitik”, betont Süme abschließend.

Weitere Informationen zum Thema:

eco & Civey, 13.02.2024
Welche Ihrer Daten würden Sie in anonymisierter Form für das Training von künstlichen Intelligenzen zur Verfügung stellen?

]]>
https://www.datensicherheit.de/ki-deutschland-verunsicherung-buerger/feed 0
Cybersicherheit: Die Rolle Künstlicher Intelligenz in der Sicherheitslandschaft https://www.datensicherheit.de/rolle-kuenstliche-intelligenz-sicherheit https://www.datensicherheit.de/rolle-kuenstliche-intelligenz-sicherheit#respond Thu, 07 Dec 2023 07:33:37 +0000 https://www.datensicherheit.de/?p=43847 Hacking als Anwendungsfall für ChatGPT

Von unserem Gastautor Thorben Jändling, Principal Solutions Architect in der Global Security Specialist Group bei Elastic

[datensicherheit.de, 07.12.2023] Während Künstliche Intelligenz (KI) und KI-Modelle einen immer größeren Einfluss auf die Welt der Technologie haben, wächst die Sorge, wie sie für betrügerische Zwecke genutzt werden können: für Cyberangriffe, Phishing, Desinformation, soziale Manipulation oder gefälschte Video- und Bilddateien. Denn die Technologie, mit der solche irreführenden Darstellungen von Personen erstellt werden können, ist mittlerweile weit verbreitet. Sie wird nicht nur von Unternehmen eingesetzt, um realistische Identitäten zu schaffen, sondern könnte auch von böswilligen Akteuren für ihre eigenen Zwecke missbraucht werden.

Thorben Jändling, Principal Solutions Architect in der Global Security Specialist Group bei Elastic

Thorben Jändling, Principal Solutions Architect in der Global Security Specialist Group bei Elastic, Bild: Elastic

Die Revolution der Künstlichen Intelligenz

Die Geschichte der Modelle mit Künstlicher Intelligenz (KI), auch als Artificial Intelligence (AI) bekannt, reicht bis in die 1950er Jahre zurück. Allein in den letzten fünf Jahren hat es rasante Fortschritte gegeben: Von Modellen mit einigen Millionen Parametern ist die Entwicklung heute beim neuesten Modell GPT-4 angelangt, bei dem die Zahl der Parameter auf mehr als 100 Billionen geschätzt wird. Zum Vergleich: Das menschliche Gehirn hat durchschnittlich 86 Milliarden Neuronen und 100 Billionen Synapsen. Mithilfe von KI-Beschleunigern erreichen Large-Language-Modelle (LLM) diese Größe, um beachtliche Mengen an Textdaten aus dem Internet verarbeiten zu können.

Angesichts dieser Entwicklung wächst die Besorgnis über die Auswirkungen der KI auf die Zukunft der Menschheit. Vor diesem Hintergrund haben Sicherheitsexperten begonnen, sich intensiv mit der Frage zu beschäftigen, wie sich Abwehrstrategien angesichts dieser fortgeschrittenen KI-Modelle entwickeln müssen, um Unternehmen vor möglichen Angriffen zu schützen. Noch spannender ist jedoch die Frage, inwieweit diese KI-Modelle, zum Beispiel ChatGPT, böswilligen Akteuren bei Angriffen helfen können.

Der „Golden Ticket“-Angriff und ChatGPT

Ein Beispiel für einen solchen komplexen Angriff ist der so genannte „Golden Ticket“-Angriff, bei dem Angreifer Schwachstellen im Kerberos-Identitätsauthentifizierungsprotokoll ausnutzen, das für den Zugriff auf das Active Directory (AD) verwendet wird. Dieser Angriff erfolgt in mehreren Phasen, beginnend mit dem Erstzugriff, der oft durch Phishing erreicht wird. Anschließend folgt die Erkundungsphase, in der Informationen über die Domäne gesammelt werden. Die nächsten Schritte zielen darauf ab, Zugriff auf Anmeldeinformationen zu erlangen und einen NTLM-Hash des Active Directory Key Distribution Service Accounts (KRBTGT) zu stehlen. In der Phase Privilege Escalation erhält der Angreifer mit dem KRBTGT-Passwort ein Kerberos Ticket Granting Ticket (TGT). Dieses gewährt ihm nahezu uneingeschränkten Zugang zu den Netzwerkressourcen.

Um zu testen, inwieweit KI-Modelle wie ChatGPT bei einem solchen Angriff helfen könnten, verwendeten die Sicherheitsexperten von Elastic ChatGPT (basierend auf GPT-4). Sie baten die KI, eine Phishing-E-Mail zu schreiben. Doch ChatGPT wies darauf hin, dass es als ethische und verantwortungsbewusste Technologie nicht dafür programmiert sei, bösartige Inhalte zu erstellen.

ChatGPT | Phshing-E-Mail 1

Bild: Elastic

Daraufhin versuchten die Experten, die KI zu täuschen, indem sie sie zu Trainingszwecken baten, eine Phishing-E-Mail zu verfassen. Die KI generierte zwar eine Antwort, allerdings ohne Inhalt oder Verlinkungen, die für böswillige Zwecke verwendet werden konnten. Dennoch zeigte sich, dass eine Änderung der Absicht oder eine harmlose Rechtfertigung das Modell schließlich dazu brachte, eine Phishing-E-Mail zu schreiben.

ChatGPT | Phshing-E-Mail 2

Bild: Elastic

Die Untersuchung ergab, dass generative KI-Modelle wie ChatGPT in der Lage sind, Inhalte auf der Grundlage von gelernten Mustern zu erstellen. Ihre Leistung variiert jedoch je nach Kontext. In einem Experiment testeten Sicherheitsexperten ChatGPT auf seine Fähigkeit, Schritte eines Golden-Ticket-Angriffs zu erklären, und fanden heraus, dass das Modell in einigen Fällen bestimmte Informationen als potenziell böswillig erkennen konnte, während es in anderen versagte.

Darüber hinaus fragten die Experten, ob ChatGPT bei der Verschleierung eines für den Angriff benötigten Werkzeugs behilflich sein könne. ChatGPT betonte jedoch, dass es nicht für bösartige Zwecke entwickelt wurde. Die Erstellung von Malware, Exploits oder Skripten war nicht möglich, selbst nach Deaktivierung der Schutzmaßnahmen. Das könnte sich jedoch in Zukunft aufgrund des technologischen Fortschritts ändern.

ChatGPT | Erstellung eines Wrappers

Bild: Elastic

Generative KI-Modelle wie GPT-4 haben das Potenzial, das Verständnis von Sicherheitsereignissen zu verbessern und sie zu erklären. Dazu greifen sie auf institutionelles Wissen zu und können bei verschiedenen Aufgaben helfen: zum Beispiel Analysten zu schulen, Reaktionsprozesse zu optimieren, zur Host-Trage anzuleiten und Ereignisabläufe zu interpretieren. Es gilt jedoch zu beachten, dass diese Modelle den menschlichen Teil der Sicherheitsgleichung nicht vollständig ersetzen können.

KI-Unterstützung und menschliche Verantwortung

Zusammenfassend zeigt das Experiment, dass aktuelle generative Modelle Angreifer in verschiedenen Szenarien unterstützen können. Es gibt jedoch mehrere Gründe, warum diese Modelle voraussichtlich nicht in der Lage sein werden, komplexe Angriffe von Anfang bis Ende durchzuführen. Dazu gehören ihre begrenzte Autonomie, das Fehlen eigener Absichten und Motivationen sowie ihr begrenzter Fokus.

Letztendlich ist KI eine unterstützende Technologie, und ihre Auswirkungen hängen davon ab, wie der Mensch sie verwendet. Es gibt bereits Präzedenzfälle für „Dual-Use“-Werkzeuge in der Sicherheitswelt, die sowohl von Verteidigern als auch von Angreifern genutzt werden können. Die Zukunft der KI und ihre Auswirkungen auf die Sicherheit werden von unseren Entscheidungen und Maßnahmen geprägt sein.

Weitere Infromationen zum Thema:

datensicherheit.de, 07.12.2023
Künstliche Intelligenz – Trends im Jahr 2024

datensicherheit.de, 27.11.2023
KI – mehr als ein Hype

]]>
https://www.datensicherheit.de/rolle-kuenstliche-intelligenz-sicherheit/feed 0
Künstliche Intelligenz – Trends im Jahr 2024 https://www.datensicherheit.de/kuenstliche-intelligenz-trends-2024 https://www.datensicherheit.de/kuenstliche-intelligenz-trends-2024#respond Thu, 07 Dec 2023 07:14:51 +0000 https://www.datensicherheit.de/?p=43874 Warum Embedded-KI in der Industrie noch wichtiger wird

[datensicherheit.de, 07.12.2023] Die Industrie steht vor einer Revolution, die durch die Integration von Künstlicher Intelligenz (KI) in eingebetteten Systemen vorangetrieben wird. Diese Technologie, die als Embedded-KI bekannt ist, hat das Potenzial, die Art und Weise, wie Unternehmen in der Fertigungs- und Produktionsbranche arbeiten, nachhaltig zu verändern. Dabei werden die Sensoren, also die Augen, Ohren, Nase und Haut – der Industrieanwendungen intelligenter, können tiefere Zusammenhänge, Schieflagen erkennen oder gar vorhersagen. Viacheslav Gromov, Gründer und CEO vom Embedded-KI-Anbieter AITAD, nennt acht Bereiche, in denen Embedded-KI in 2024 eine entscheidende Rolle spielt.

  1. Effizienzsteigerung und Kosteneinsparungen
    In der modernen Industrie sind die Steigerung der Effizienz und die Senkung der Betriebskosten von entscheidender Bedeutung. Embedded-KI ermöglicht die Optimierung von Produktionsprozessen in Echtzeit. Maschinen und Anlagen können mithilfe von Sensoren und Algorithmen kontinuierlich nach Zuständen und Anomalien überwacht werden, um Engpässe zu erkennen, Abläufe zu optimieren und Ressourcen effizienter einzusetzen. Dies führt zu erheblichen Kosteneinsparungen und einer Steigerung der Wettbewerbsfähigkeit.
  2. Predictive Maintenance (Vorbeugende Wartung)
    Ein herausragender Anwendungsfall von Embedded-KI in der Industrie ist die oft genannte, aber immer noch wenig angewandte vorbeugende Wartung. Durch die Integration von Sensoren und Datenanalyse innerhalb der Produktionsanlagen können Unternehmen den Zustand von Maschinen in Echtzeit ohne Datenleaks nach außen überwachen. Wenn Anomalien oder Abnutzungserscheinungen auftreten, kann die Wartung im Voraus geplant werden, um ungeplante Ausfallzeiten zu minimieren. Dies erhöht die Lebensdauer der Anlagen und senkt die Instandhaltungskosten durch Planbarkeit und neue Geschäftsmodell-Entwicklungen erheblich.
  3. Qualitätskontrolle und Ausschussminimierung
    Embedded-KI ermöglicht eine präzise Qualitätskontrolle während des Fertigungsprozesses. Kameras und Sensoren wie Lidare, Radare oder solche für Spektrografie und Ultraschall können Produkte in Echtzeit überwachen und Mängel oder Abweichungen von den Standards erkennen. Fehlerhafte Produkte können frühzeitig identifiziert und aus dem Produktionsprozess ausgeschleust werden, was die Qualität erhöht und den Ausschuss minimiert. Zudem ist direktes Feedback für die Ausschussminimierung in Echtzeit ein bedeutender Vorteil, da so Fehleinstellungen und Fehlbedienung oder Lieferantenmängel mehr Transparenz bekommen und folglich weniger Schaden anrichten.
  4. Autonome Roboter und Automatisierung
    In der industriellen Fertigung spielen autonome Roboter eine wichtige Rolle. Embedded-KI ermöglicht es diesen Robotern, Aufgaben wie Materialtransport, Inspektion und Montage autonom auszuführen. Sie können sich in Echtzeit an veränderte Bedingungen anpassen, da lokale KI mit Varianz robust umgehen und komplexe Aufgaben ohne menschliche Intervention bewältigen kann. Dies steigert die Produktivität und Präzision.
  5. Energieeffizienz und Nachhaltigkeit
    Die Überwachung und Steuerung des Energieverbrauchs ist ein weiterer Bereich, in dem Embedded-KI einen großen Einfluss hat. Industrieanlagen können mithilfe von KI-Algorithmen den Energieverbrauch optimieren, indem sie den Bedarf an Heizung, Kühlung und Beleuchtung dynamisch je nach Situation anpassen. Gerade die Metering-Branche ist direkt betroffen, während Maschinen- und Anlagenbauer dies indirekt in ihren Prozessen für sich nutzen können. Dies trägt nicht nur zur Senkung der Betriebskosten bei, sondern auch zur Reduzierung des ökologischen Fußabdrucks der Industrie.
  6. Sicherheit am Arbeitsplatz
    Embedded-KI kann auch dazu beitragen, die Sicherheit am Arbeitsplatz zu verbessern. Durch die kontinuierliche Überwachung von Gefahren und unerwünschten Ereignissen können frühzeitig Warnungen ausgelöst und präventive Maßnahmen ergriffen werden, um Unfälle zu verhindern und die Gesundheit der Mitarbeiter zu schützen. Zudem ist intelligente User Interaction durch Gesten-, Personen- und Spracherkennung ein Feature, welches die Interaktion effizienter gestaltet und dem Fachkräftemangel entgegenwirkt.
  7. Anpassungsfähigkeit und Skalierbarkeit
    Ein weiterer Vorteil von Embedded-KI ist die Anpassungsfähigkeit und Skalierbarkeit. Unternehmen können die Integration von KI in ihren Produktionsprozessen schrittweise vorantreiben und die Technologie nach Bedarf dezentral und ohne Cloud-Systeme und Folgekosten erweitern. Dies ermöglicht trotz benötigter Hardware eine flexible Implementierung, die den individuellen Anforderungen jedes Unternehmens gerecht wird.
  8. Wettbewerbsvorteil und Innovation
    Unternehmen, die Embedded-KI frühzeitig übernehmen, können einen erheblichen Wettbewerbsvorteil erlangen. Die Fähigkeit, Daten in Echtzeit zu verarbeiten und fundierte Entscheidungen zu treffen, ermöglicht Innovationen in Produkten und Dienstleistungen ohne Abhängigkeiten von Netzwerken, Lieferanten und Infrastrukturanbietern. Dies öffnet neue Geschäftsmöglichkeiten, verstärkt die Resilienz und stärkt die Marktposition.

Fazit

Embedded-KI hat das Potenzial, die Industrie in vielerlei Hinsicht zu transformieren. Von der Effizienzsteigerung über die Qualitätssicherung bis hin zur Energieeffizienz und Innovation bietet diese Technologie zahlreiche Vorteile. Unternehmen, die sich nicht mit Embedded-KI beschäftigen, könnten Gefahr laufen, den Anschluss zu verlieren und in einer zunehmend digitalisierten Welt ins Hintertreffen zu geraten. Denn reine Cloud-Strategien führen zu Abhängigkeiten, Chaos und Kostenexplosionen. Noch schlimmer: Manche Use Cases mit Echtzeitanforderungen werden durch Cloud und die maximal übertragbare Datenmenge von vornherein ausgeschlossen. Daher wird Embedded-KI in der Industrie immer wichtiger. Sie gestaltet die Zukunft der Fertigung und Produktion maßgeblich mit.

Viacheslav Gromov ist Gründer und Geschäftsführer von AITAD

Viacheslav Gromov ist Gründer und Geschäftsführer von AITAD, Bild: AITAD

Viacheslav Gromov ist Gründer und Geschäftsführer von AITAD. Das Unternehmen entwickelt elektronikbezogene künstliche Intelligenz (Embedded-KI), die in Geräten und Maschinen lokal und in Echtzeit definierte Aufgaben übernimmt. Er ist Verfasser zahlreicher Beiträge sowie diverser Lehrbücher im Halbleiterbereich. Gromov ist als Experte in verschiedenen KI- und Digitalisierungs-Gremien tätig, unter anderem von DIN und DKE sowie der Bundesregierung (DIT, BMBF). AITAD ist KI-Champion Baden-Württemberg 2023, einer der Top100-Innovatoren 2023 sowie Gewinner des embedded award 2023 in der Kategorie KI. Weitere Informationen www.aitad.de

Weitere Informationen zum Thema:

datensicherheit.de, 27.11.2023
KI – mehr als ein Hype

]]>
https://www.datensicherheit.de/kuenstliche-intelligenz-trends-2024/feed 0
Fünf Schritte für eine verantwortungsbewusstere Künstliche Intelligenz https://www.datensicherheit.de/verantwortung-kuenstliche-intelligenz https://www.datensicherheit.de/verantwortung-kuenstliche-intelligenz#respond Thu, 17 Nov 2022 14:15:25 +0000 https://www.datensicherheit.de/?p=42644 Ethisches Machine Learning zur Vermeidung von Schäden

Von unserem Gastautor Eric Winston, EVP, General Counsel and Chief Ethics & Compliance Officer, Mphasis

[datensicherheit.de, 16.11.2022] Künstliche Intelligenz (KI) unterstützt bereits heute viele Unternehmen bei ihren alltäglichen Aufgaben. Der Einsatz kann jedoch auch kritisch betrachtet werden, denn mit neuen Technologien kommen unweigerlich nicht beabsichtigte Folgen, sobald die Möglichkeiten dieser Technologie erforscht und getestet werden. Vorurteile der Hersteller bzw. Programmierer können dabei in die KI mit einfließen. Dem können die Unternehmen entgegenwirken, indem sie auch in Bezug auf KI ethisch handeln und transparent mit Kunden und Partnern kommunizieren.

Eric Winston, EVP, General Counsel and Chief Ethics & Compliance Officer, Mphasis

Eric Winston, Mphasis | Bild: Mphasis

Verständnis für potenzielle Schäden durch KI nötig

Machine Learning (ML) Modelle erkennen Muster und Datenbestände. Das befähigt sie dazu, zu lernen und eigenständig Lösungen zu finden. Die Bandbreite reicht von Nachfragevorhersagen bis hin zu Betrugserkennung. Wichtig ist, dass vor der Einführung eine Einschätzung der Risiken des KI-Einsatzes durchgeführt wird. Sie beginnt mit dem Verständnis der potenziellen Schäden, die KI verursachen kann.

Beispielsweise könnte dies die Diskriminierung von Geschlechtern betreffen, wie es etwa 2019 bei Apple passiert ist. Bei der Prüfung auf Kreditwürdigkeit wurden deutlich mehr Frauen bei ähnlichen Anträgen auf die Kreditkarte abgelehnt als Männer – teilweise war der Unterschied zehnfach so groß. Ebenfalls wurden Frauen beim Bewerbungsverfahren des Online-Händlers Amazon als weniger geeignet von der KI bewertet als Männer, sodass deren Lebensläufe der HR-Abteilung nicht angezeigt wurden. Kein Einzelfall: Viele Beispiele für negative, ethische Folgen finden sich in den letzten Jahren in einer Vielzahl aufsehenerregender Zeitungsartikel – von rassistischer Voreingenommenheit in Algorithmen im Gesundheitswesen über Rechenmaschinen zur Rückfallkriminalität bis hin zu hasserfüllten Chatbots.

Problemkind KI-Bias

Das Problem des KI-Bias, also der Voreingenommenheit, liegt darin, dass die Gründe für die KI-Modell-Ergebnisse nicht recherchiert und die richtigen Fragen nicht gestellt werden: Wie funktioniert das Modell, was sind die wichtigsten Daten-Inputs, welche Eingaben haben zu diesem Ergebnis geführt oder auch wie würde das Modell reagieren, wenn eine bestimmte Eingabe verändert wird? Diese Fragen müssen geklärt und transparent sowohl Mitarbeitern als auch Kunden gegenüber kommuniziert werden, um zuverlässige Ergebnisse zu erhalten und glaubwürdig zu bleiben. Da bei der Weiterverarbeitung der Analyse-Ergebnisse oft kein Mensch mehr eingreift, wirkt sich jede Unregelmäßigkeit im Ergebnis direkt auf öffentliches Erscheinungsbild, als auch auf die daraus resultierenden Handlungen im Geschäft aus.

Vorhersagen, Fragen zur Vertrauenswürdigkeit, Verzerrungen und Wahrhaftigkeit können nicht beantwortet werden, ohne zu verstehen, wie ein ML-Modell funktioniert. Ohne dieses Verständnis ist es schwer, ein System richtig zu bewerten und zu diagnostizieren. Grundsätzlich gilt: Wenn das KI-System für den menschlichen Konsum oder die menschliche Interaktion konzipiert ist oder sich auf Daten stützt, die von oder über Menschen gesammelt wurden, dann ist eine ethische Analyse wahrscheinlich gerechtfertigt. Über folgende fünf Best Practices lässt sich das Vertrauen zwischen Verbraucher und Unternehmen festigen

  1. Bedeutung von ethischer KI definieren: Im ersten Schritt müssen Unternehmen für sich definieren, was ethische KI für sie bedeutet und diese ihren Stakeholdern kommunizieren. Diese Definition sollte Kernwerte wie Kundenzufriedenheit und Mitarbeiterengagement widerspiegeln.
  2. KI-Ethikbeauftragten engagieren: KI-Ethikbeauftragte (Chief AI Ethics Officer) sorgen im nächsten Schritt dafür, dass die Anwendung nach den zuvor festgelegten Vorgaben erfolgt. Sie überwachen und bewerten die Einbindung von KI in ein System und schränken die Rechte gegebenenfalls ein, sodass KI nicht für umstrittene Funktionen wie beispielsweise die Gesichtserkennung eingesetzt wird. Dazu führten das MIT und die Stanford University mit den Variablen Hauttyp und Geschlecht Studien durch. So weisen Anwendungen für die Gesichtserkennung bei dunkelhäutigen Frauen eine Fehlerquote von mehr als 34 Prozent auf.
  3. KI-Ethik- und Qualitätssicherungsprüfung: Es braucht eine KI-Ethik- und Qualitätssicherungsprüfung als integralen Bestandteil der Produktentwicklung sowie bei Freigabezyklen. Dabei sollten sich Unternehmen auf verschiedene Anwendungsszenarien und daraus resultierende Ergebnisse konzentrieren – und sicherstellen, dass die verwendeten Datensätze angemessen repräsentativ und vorurteilsfrei sind.
  4. Kunden adressieren: Indem sich Unternehmen direkt an den Kunden wenden, lässt sich der ethische Einsatz von KI ebenfalls sicherstellen. Hier gilt es, zu erklären und zu beschreiben, welche Daten zu welchem Zweck gesammelt und genutzt werden. Darüber hinaus kann das Unternehmen einen sachverständigen Aufsichtsausschuss als Experten einsetzen, um neu entwickelte, KI-gestützte Tools zu testen. Diese Offenheit kann die möglichen Bedenken hinsichtlich des ethischen Einsatzes von KI zur Bereitstellung von Produkten oder Dienstleistungen bei den Kunden erfolgreich zerstreuen.
  5. Daten transparent machen: Da komplexe Algorithmen undurchsichtig erscheinen können, ist es wichtig, die Datenverwendung transparent zu machen. Auch wenn Unternehmen ihr geistiges Eigentum beschützen wollen, sollten sie sich überlegen, ihren Kunden zu erklären, welche Daten zu welchem Zweck gesammelt und genutzt werden. Dabei sollte die Erklärbarkeit nicht nur bei den Modellvorhersagen, sondern auch bei den technischen Prozessen und Designentscheidungen im Vordergrund stehen.

Wie KI die Cyber-Security unterstützt

Gerade mit Blick auf die rasant ansteigende Zahl an Cyberattacken sollten Unternehmen sich der Relevanz des ethischen Umgangs mit KI bewusst sein. Denn es braucht diese Art von Lösungen in der Cyber-Security, um mit der schnellen Entwicklung von neuen Hacking-Methoden mithalten zu können. Datensicherheitsrelevante Vorgänge – etwa Entdecken, Klassifizieren und Wiederherstellen – lassen sich automatisieren. Data Loss Prevention (DLP), Tokenisierung oder Verschlüsselung sind hier mögliche Einsatzgebiete.

Transparente Kommunikation baut Vertrauen auf

Wichtig ist, dass sich Unternehmen ihrer Verantwortung gegenüber ihren Kunden und Partnern bewusst sind. Nur über transparente Kommunikation zu den verwendeten KI-Lösungen sowie zu den definierten Kernwerten baut sich Vertrauen auf. Dazu gehört unter anderem zu erklären, was die KI vertrauenswürdig und vorurteilsfrei macht. Dies ermöglicht allen Beteiligten zu verstehen, wie sich die Modellvorhersagen mit unterschiedlichen Eingaben ändern.

Bei der Datentransparenz gilt es, die Rückverfolgbarkeit von der Datenerfassung und -kennzeichnung bis hin zu den eingesetzten Algorithmen zu gewährleisten. Entscheidungsträger können so das volle Potenzial von KI nutzen und gleichzeitig die Risiken für das Geschäft minimieren. Hier können sich Unternehmen auch an dem Bericht „Ethics Guidelines for Trustworthy AI“ der von der Europäischen Kommission eingesetzten Expertengruppe für Künstliche Intelligenz orientieren.

Weitere Informationen zum Thema:

datensicherheit.de, 15.08.2020
KI-Training: Künstliche Intelligenz benötigt Daten

]]>
https://www.datensicherheit.de/verantwortung-kuenstliche-intelligenz/feed 0
Verteidigung gegen Ransomware-as-a-Service-Angriffe https://www.datensicherheit.de/verteidigung-ransomware-as-a-service-angriffe https://www.datensicherheit.de/verteidigung-ransomware-as-a-service-angriffe#respond Fri, 14 Oct 2022 08:13:05 +0000 https://www.datensicherheit.de/?p=42490 Ein Zero-Trust-Framework ist für eine robuste Sicherheit unverzichtbar

Von unserer Gastautorin Camellia Chan, CEO und Gründerin von X-PHY, einer Marke von Flexxon

[datensicherheit.de, 14.10.2022] Der jüngst verzeichnete Anstieg bei der Nutzung des Ransomware-as-a-Service (RaaS)-Angebots von BlackCat löst zunehmend Besorgnis aus. Forscher von Microsoft haben in einem Fachartikel die ausgefeilten Möglichkeiten der Software bereits ausführlich dargelegt. Daraus ergibt sich ein erhebliches Risiko für Unternehmen, weil es zu immer komplexeren Angriffen kommt, die vor allem Organisationen ohne robuste Cybersicherheitsstrategie gefährden. Im Folgenden werden Gründe für die Zunahme der Risiken eines Angriffes, die Vorgehensweise der Ransomware-Emtwickler und Gegenmaßnahmen diskutiert.

Gründe für den drastischen Anstieg des RaaS-Risikos

Einer der Hauptgründe für die immer häufigeren Angriffe mit RaaS-Tools wie BlackCat ist deren Vielseitigkeit in Bezug auf die Angriffsmethoden. Wo früher vor allem Remote-Desktop-Anwendungen und gestohlene Anmeldedaten genutzt wurden, geraten laut Microsoft jetzt verstärkt Schwachstellen bei Exchange-Servern ins Fadenkreuz. Die BlackCat-Variante ist wegen ihrer Verwendung der unkonventionellen Programmiersprache Rust und der zahlreichen unterstützten Angriffsvektoren ein bedeutendes Beispiel.

Camellia Chan, CEO und Gründerin von X-PHY

Camellia Chan, CEO und Gründerin von X-PHY, Bild: Flexxon

Je nach Angreifer können RaaS-Attacken zudem deutliche Unterschiede aufweisen, was ihre Erkennung und Abwehr für das anvisierte Unternehmen zusätzlich erschwert. Die Tatsache, dass jede BlackCat-Bereitstellung anders ist, lässt erkennen, wie viele unterschiedliche Strategien und Verfahren bei der Entwicklung zum Einsatz kommen. Darüber hinaus werden RaaS-Varianten allgemein ständig weiterentwickelt und in ihrer Effizienz optimiert, weshalb sie sich immer besser verkaufen.

Vorgehensweise der Ransomware-Entwickler

An der Entwicklung von Ransomware und der Verbreitung von RaaS-Angriffen sind verschiedene Interessengruppen beteiligt. RaaS-Betreiber arbeiten an der Entwicklung der erforderlichen Tools, während sogenannte „Access Broker“ sich auf das Eindringen in die Netzwerke der Opfer konzentrieren. Dem RaaS-Kunden selbst obliegt das Abgreifen der zu verschlüsselnden Daten und die eigentliche Bereitstellung der Ransomware.

Der Schadcode wird in der Regel gegen eine feste Gebühr oder gegen einen Anteil am erzielten Lösegeld über Schwarzmärkte, wie etwa das Dark Web, angeboten. Bei Angriffen wird das Opfer häufig auf eine Website gelenkt, auf der die Ransomware gehostet ist, oder der Schadcode wird in einem Anhang gesendet, um den Zielrechner zu infizieren. Bei der Koordination der Angriffe und den Verhandlungen mit den Opfern spielen die Entwickler häufig eine wichtige Rolle, sodass seitens der Kunden kaum entsprechendes Know-how und auch keine Erfahrung mit Cyberangriffen erforderlich ist.

Eingesetzte Strategien

Ein prominentes Beispiel dafür, wie folgenschwer und gut durchdacht RaaS-Strategien sein können, ist die Ransomware-Variante Cerber aus dem Jahr 2021. Ihre Entwickler lizenzierten die Ransomware gegen einen Anteil des Erlöses aus Angriffen an andere Cyberkriminelle, was sich als lukratives Geschäftsmodell erwies. Dieses Beispiel wird häufig als der bisher größte RaaS-Ring bezeichnet, der zu Spitzenzeiten für acht neue Angriffe pro Tag verantwortlich war.

In einigen Fällen sind RaaS-Kits mit Support rund um die Uhr erhältlich oder auch als Bestandteil von Paketangeboten. Nicht selten gibt es Rezensionen und Benutzerforen, ähnlich wie dies bei seriösen SaaS-Anbietern der Fall ist. Auch die Umsatzmodelle unterscheiden sich: Möglich sind monatliche Abonnements, Einmalzahlungen, Partnerprogramme und Gewinnbeteiligungen. Preise können von 40 € bis zu mehreren tausend Euro variieren.

Dies belegt einmal mehr, wie sehr sich dieser Markt industrialisiert hat und in manchen Punkten schon als „Gig Economy“ gelten kann. Für potenzielle Opfer bedeutet dies, dass immer ausgefeiltere Attacken von mehr Angreifern als je zuvor zu erwarten sind – und sie dringend Maßnahmen zum Schutz vor dieser wachsenden Bedrohung ergreifen müssen.

Die Lösung: Zero Trust und künstliche Intelligenz

Angesichts der zunehmenden Anzahl, Professionalität und Komplexität von RaaS-Angriffen müssen heute mehr Unternehmen denn je davon ausgehen, dass böswillige Akteure schon längst in ihre Netzwerke eingedrungen sind. Deshalb ist ein Zero-Trust-Framework für eine robuste Sicherheit unverzichtbar, wobei sowohl interne wie auch externe Benutzer und Aktivitäten kontinuierlich authentifiziert und validiert werden müssen. Die Einstufung sämtlicher Benutzer, Geräte, Anwendungen, Datenflüsse und Workloads als zunächst nicht vertrauenswürdig ist eine effektive Maßnahme zum Schutz vor Datenschutzverletzungen, und zwar unabhängig vom verwendeten Angriffsvektor.

Dieser Ansatz kann mithilfe von Künstlicher Intelligenz (KI) noch untermauert werden. Dabei lernen IT-Systeme selbstständig, bekannte und unbekannte Bedrohungen schnell zu identifizieren und abzuwehren. KI trägt zudem durch die Automatisierung der Überprüfung sämtlicher Benutzer und Aktivitäten dazu bei, die Reaktionen auf Bedrohungsszenarien zu beschleunigen. Dadurch wird nicht nur das Risiko durch menschliches Versagen und böswillige interne Manipulationen deutlich verringert, sondern Firmen werden auch in die Lage versetzt, den enormen Datenverkehr in ihrem Netzwerk zu analysieren und zu validieren. Durch die Kombination von Zero Trust und KI in einer einzigen Lösung kann ein Unternehmen über sämtliche Kontaktpunkte hinweg in Echtzeit Abweichungen erkennen und Datenzugriffsmuster überprüfen. So entsteht ein wirksames Verteidigungssystem, das von menschlichen Eingriffen unabhängig ist – und letztendlich auch gegen RaaS-Angriffe hilft.

Weitere Informationen zum Thema:

datensicherheit.de, 10.08.2022
Ransomware-as-a-Service missbraucht Windows Defender

]]>
https://www.datensicherheit.de/verteidigung-ransomware-as-a-service-angriffe/feed 0
Black Friday und Cyber Monday 2021: Daten und KI beeinflussen Kundenengagement https://www.datensicherheit.de/black-friday-cyber-monday-2021-daten-ki-beeinflussung-kundenengagement https://www.datensicherheit.de/black-friday-cyber-monday-2021-daten-ki-beeinflussung-kundenengagement#respond Fri, 26 Nov 2021 15:59:14 +0000 https://www.datensicherheit.de/?p=41147 Black Friday auch in Deutschland für Einzelhändler Einstieg in die Weihnachts-Einkaufssaison

[datensicherheit.de, 26.11.2021] Eine aktuelle Studie des Handelsverband Deutschland (HDE) prognostiziere, dass der diesjährige „Black Friday“ und „Cyber Monday“ in Deutschland zu einem Umsatz von 4,9 Milliarden Euro führen würden. Dies entspreche einer Wachstumsrate von 27 Prozent im Vergleich zum letzten Jahr, 2020. Die Bedeutung dieser beiden Tage habe in der Wahrnehmung der Verbraucher enorm zugenommen, „zumal sie für alle Einzelhändler als Einstieg in die Weihnachts-Einkaufssaison gelten“.

databricks-rob-saker

Foto: Databricks

Rob Saker: Nutzung neuer Datenströme, um tiefere Einblicke in das Kundenverhalten zu gewinnen und dann künftiges Verhalten vorherzusagen, heute für Unternehmen jeder Größe leichter zugänglich…

Vorziehen der Einkaufssaison auf den Black Friday setzt Einzelhändler unter erhöhten Druck

Dieser Trend habe die Einkaufssaison auf Ende November ausgedehnt, was die Einzelhändler unter erhöhten Druck setze, sich noch vor dem traditionellen „Advents-Einkaufsmarathon“ vorzubereiten. Sie müssten in „Predictive Analytics“ investieren, um mit der sich wandelnden Nachfrage und den Erwartungen der Kunden Schritt zu halten.
Dies erfordere eine Konzentration auf die Verbesserung der Effizienz, die Kundenbindung, die Verringerung von Retouren und eine bessere Personalisierung. Künstliche Intelligenz (KI) spiele bereits bei vielen Einzelhandelsunternehmen eine wichtige Rolle, „ganz gleich, ob sie Elektronik, Mode, Lebensmittel oder Kosmetik verkaufen“.

Bei der Suche nach Schnäppchen am Black Friday dahinterstehende Marke nicht unbedingt wichtig…

Viele Kunden seien eher preis- als markenbewusst und vor allem bei der Suche nach „Schnäppchen“ sei ihnen die dahinterstehende Marke nicht unbedingt wichtig. Loyale Kunden zu behalten, auch nach Weihnachten, sei eine große Herausforderung für alle Einzelhändler. „Vor allem Maschinelles Lernen und Künstliche Intelligenz bieten enorme Möglichkeiten, das Verbraucherverhalten zu analysieren“, so Rob Saker, „VP of Retail“ beim Daten- und KI-Unternehmen Databricks.
Die Nutzung neuer Datenströme, um tiefere Einblicke in das Kundenverhalten zu gewinnen und dann künftiges Verhalten vorherzusagen, sei heute für Unternehmen jeder Größe leichter zugänglich. Die Analyse von Daten werde Einzelhändlern dabei helfen, herauszufinden, „welche Produkte ihre Kunden am ehesten nachfragen und kaufen werden – nicht nur während der geschäftigen Einkaufszeit am ,Black Friday‘, sondern auch in den kommenden Monaten“.

Weitere Informationen zum Thema:

datensicherheit.de, 24.11.2021
Black Friday: 3 Tipps von Imperva zum Schutz persönlicher Daten / Auch in Deutschland zählt der Black Friday zu den umsatzstärksten Tagen im Jahr – Sicherheits-Tipps können helfen, Gefahren auszuweichen

]]>
https://www.datensicherheit.de/black-friday-cyber-monday-2021-daten-ki-beeinflussung-kundenengagement/feed 0
DAV gegen anlassloses Scannen von Online-Kommunikation https://www.datensicherheit.de/dav-anlassloses-scannen-online-kommunikation https://www.datensicherheit.de/dav-anlassloses-scannen-online-kommunikation#respond Thu, 11 Mar 2021 20:28:42 +0000 https://www.datensicherheit.de/?p=39264 Kinderschutz und Mandatsgeheimnis dürfen laut DAV nicht gegeneinander ausgespielt werden

[datensicherheit.de, 11.03.2021] EU-Parlament, Rat und Kommission verhandeln laut Meldung des Deutscher Anwaltvereins (DAV) über eine Regelung, die Online-Kommunikationsdiensten erlauben würde, „Inhalte flächendeckend und verdachtsunabhängig mithilfe von Künstlicher Intelligenz zu scannen“. Besonders besorgniserregend sei hierbei, dass dies auch die vertrauliche Kommunikation von Berufsgeheimnisträgern umfassen solle. „Dienen soll dies der besseren Bekämpfung von Kindesmissbrauch im Internet“ – der DAV lehnt nach eigenen Angaben das verdachtsunabhängige Scannen von Online-Kommunikation als „unverhältnismäßig“ ab. Das Berufsgeheimnis müsse in jedem Fall geschützt sein.

DAV sieht verdachts- und anlassloses Scannen von Online-Kommunikation als bedenklich an

In einem informellen Trilog verhandelten EU-Parlament, Rat und Kommission gegenwärtig den Entwurf einer Übergangsverordnung mit dem Ziel der Bekämpfung sexuellen Kindesmissbrauchs im Internet. Dieses Ziel solle mithilfe flächendeckender automatisierter Durchleuchtung von Online-Kommunikation erreicht werden. „So begrüßenswert das Ziel ist, rechtfertigt es nicht jedes Mittel. Bedenklich ist das verdachts- und anlasslose Scannen von Online-Kommunikation.“
Dies solle sogar bei der vertraulichen Kommunikation zwischen Anwälten und Mandanten sowie zwischen anderen Berufsgeheimnisträgern geschehen. „Das Mandatsgeheimnis würde dadurch im Bereich des Web-Mailings, Messagings und der Internettelefonie außer Kraft gesetzt. Das wäre rechtsstaatlich inakzeptabel“, so Rechtsanwalt Dr. David Albrecht, Mitglied des Ausschusses „Gefahrenabwehrrecht“ des DAV.

DAV: Mandatsgeheimnis und Vertrauen darauf ist Grundvoraussetzung für Zugang zum Recht

Der Kampf gegen sexuellen Kindesmissbrauch im Internet und eine europäische Harmonisierung in diesem Zusammenhang seien „zweifellos wichtige und unterstützenswerte Ziele“. Dennoch dürften rechtsstaatliche Werte auf dem Weg dorthin nicht auf breiter Front geopfert werden: „Das Mandatsgeheimnis und das Vertrauen der Rechtsuchenden darauf ist Grundvoraussetzung für den Zugang zum Recht“, betont Dr. Albrecht. Gerade in Zeiten wachsender anwaltlicher Online-Kommunikation wäre es ein fatales Zeichen, die Vertraulichkeit und damit den Zugang zum Recht hier auszuklammern.
Internetbasierte Kommunikation, etwa über Mailing- oder Messenger-Dienste, gehöre mittlerweile zum anwaltlichen Alltag. Mandanten nutzten diese Wege zur Kontaktaufnahme, und gerade in Eilfällen sei eine Umleitung der Rechtsuchenden auf andere, besonders gesicherte Kontaktwege nicht praktikabel. Dies dürfe aber die Vertraulichkeit anwaltlicher Beratung nicht aushebeln, so der DAV. Namentlich in Fällen, in denen Anwälte Opfer von Kindermissbrauch vertreten oder solcher Taten Beschuldigte verteidigen, würde die geplante Verordnung unweigerlich zu Eingriffen in die Vertraulichkeit von Mandatsbeziehungen führen. „Das Gesetzesvorhaben ist daher insgesamt abzulehnen“, fordert der DAV.

Übergangsverordnung: DAV fordert Sicherungsklausel zum Schutz des Mandatsgeheimnisses

Sollte die Übergangsverordnung dennoch angenommen werden, sei zwingend eine Sicherungsklausel zum Schutz des Mandatsgeheimnisses aufzunehmen. Der Änderungsantrag 28 des Parlamentsberichts liefere hier eine gute Formulierung:
„Es gibt keine Beeinträchtigung der durch das Berufsgeheimnis geschützten Kommunikation, etwa zwischen Ärzten und ihren Patienten, Journalisten und ihren Quellen oder Anwälten und ihren Mandanten.“

Weitere Informationen zum Thema:

datensicherheit.de, 12.02.2021
Bundespolizeigesetz: DAV sieht Licht und Schatten

Deutscher Anwaltverein, Stellungnahmen, 09.03.2021
SN 25/21: Anlassloses Inhalte-Scannen ist unverhältnismäßig / Der DAV lehnt das verdachtsunabhängige Scannen von Inhaltsdaten als unverhältnismäßig ab. Das Berufsgeheimnis muss geschützt sein

]]>
https://www.datensicherheit.de/dav-anlassloses-scannen-online-kommunikation/feed 0
KI-Training: Künstliche Intelligenz benötigt Daten https://www.datensicherheit.de/ki-training-kuenstliche-intelligenz-notwendigkeit-daten https://www.datensicherheit.de/ki-training-kuenstliche-intelligenz-notwendigkeit-daten#respond Sat, 15 Aug 2020 10:01:49 +0000 https://www.datensicherheit.de/?p=37494 Unternehmen erwarten steigenden Bedarf an Trainingsdaten für KI – zwei Drittel benötigen dafür auch personenbezogene Daten

[datensicherheit.de, 15.08.2020] Ob für die Routenplanung, die Qualitätskontrolle in der Produktion oder die Analyse von Röntgenbildern: Künstliche Intelligenz (KI) hält offensichtlich in immer mehr Bereichen Einzug. Zwar geben laut einer Umfrage des Digitalverbands bitkom unter 503 Unternehmen ab 50 Mitarbeitern 34 Prozent an, aktuell KI einzusetzen, den Einsatz zu planen oder zumindest darüber zu diskutieren – für fast zwei Drittel aber ist das demnach noch immer kein Thema. Grundlage dieser Angaben sei eine für die Gesamtwirtschaft repräsentative Umfrage, die Bitkom Research im Auftrag des Digitalverbands bitkom unter 503 Unternehmen aller Branchen ab 50 Mitarbeitern in Deutschland telefonisch durchgeführt habe.

bitkom-achim-berg

Foto: bitkom

Achim Berg: Datensouveränität und -sorgfalt müssten Datensparsamkeit als Leitmotiv ablösen!

Maschinelles Lernen: KI-Systeme werden mit geeigneten Daten trainiert

Eine zunehmende Bedeutung gewinne vor allem das sogenannte Maschinelle Lernen (ML): Dabei würden KI-Systeme nicht lediglich programmiert, sondern auch mit geeigneten Daten trainiert. Die in den Trainingsdaten erkannten Muster und Informationen könnten die Systeme nach Abschluss des Trainingsprozesses auf bisher unbekannte Datenbestände übertragen.
Der Bedarf an solchen Trainingsdaten werde in den kommenden Jahren stark zunehmen. Fast alle Unternehmen (94 Prozent), die sich mit KI auseinandersetzen, gingen davon aus, dass der Bedarf an Trainingsdaten steigen werde. Zwei Drittel (66 Prozent) sagten zudem, dass personenbezogene Daten genutzt werden müssten, damit die KI verwertbare Analyseergebnisse liefert. „Daten sind der Treibstoff für Künstliche Intelligenz“, betont bitkom-Präsident Achim Berg und erläutert: „Unternehmen, die KI entwickeln oder einsetzen, kommen daher schnell an den Punkt, dass sie auch auf Datensätze zurückgreifen müssen, die personenbezogene Daten enthalten.“

Großer Bereich von Rechtsunsicherheit und rechtliche Risiken bei der Nutzung von Daten für KI-Entwicklung

Die Unternehmen betrieben einen hohen Aufwand, um die rechtlichen Vorgaben beim Training von Systemen des Maschinellen Lernens mit personenbezogenen Daten einzuhalten.
Die meisten von ihnen (69 Prozent) erfüllten die datenschutzrechtlichen Vorgaben, indem sie die Einwilligung der Betroffenen einholten. Für 63 Prozent der Unternehmen führe kein Weg an der Anonymisierung der Daten vorbei, obwohl der für viele KI-Analysen besonders wertvolle Personenbezug dadurch entfernt werde. Jedes Fünfte (20 Prozent) nutze die Pseudonymisierung, bei der Personenbezüge ersetzt würden. 42 Prozent verarbeiteten die Daten auf Grundlage einer datenschutzrechtlichen Interessenabwägung und 16 Prozent griffen auf einen Dienstleister zurück, der den Datenschutz sicherstellen solle. Zugleich gebe jedes zehnte Unternehmen (10 Prozent) an, von vornherein auf die Nutzung personenbezogener Daten zu verzichten.
„Es gibt einen großen Bereich von Rechtsunsicherheit und rechtliche Risiken bei der Nutzung von Daten. Viele Unternehmen entscheiden sich im Zweifel gegen die Nutzung von Daten und gegen die Entwicklung von KI-Modellen“, berichtet Berg. Datensouveränität und Datensorgfalt müssten Datensparsamkeit als Leitmotiv ablösen, „wenn wir die großen Zukunftsherausforderungen erfolgreich angehen wollen“.

Repräsentative Umfrage zu KI-Anwendungen in der Gesamtwirtschaft

Grundlage obiger Angaben sei eine Umfrage, die Bitkom Research im Auftrag des Digitalverbands bitkom durchgeführt habe. Dabei seien 503 Unternehmen aller Branchen ab 50 Mitarbeitern in Deutschland telefonisch befragt worden. Diese Umfrage sei repräsentativ für die Gesamtwirtschaft.

Die Fragestellungen lauteten laut bitkom:

  • „Inwieweit setzt Ihr Unternehmen bereits Künstliche Intelligenz ein bzw. plant oder diskutiert Künstliche Intelligenz zukünftig zu nutzen?“
  • „Ist nach Ihrer Ansicht bzw. Erfahrung die Analyse von personenbezogenen Daten erforderlich, damit KI-Anwendungen verwertbare Analyseergebnisse liefern können?“
  • „Welche Maßnahmen haben Sie vorgesehen, um beim Training von KI-Systemen mit personenbezogenen Daten den Datenschutz zu gewährleisten?“
  • „Wie wird sich der Bedarf an Trainingsdaten für Künstliche Intelligenz in den kommenden fünf Jahren in Ihrem Unternehmen entwickeln?“

Weitere Informationen zum Thema:

datensicherheit.de, 05.04.2019
Hambacher Erklärung: Beschluss der Datenschützer zur Künstlichen Intelligenz / Schwerpunkt der „97. Konferenz der Datenschutzbeauftragten des Bundes und der Länder“

datensicherheit.de, 26.09.2018
eco: Künstliche Intelligenz „Made in Germany“ braucht Leitlinien / KI muss zur Kernkompetenz der deutschen Wirtschaft werden

datensicherheit.de, 06.02.2018
DsiN fordert Verbraucher über Künstliche Intelligenz im Alltag aufzuklären / Stellungnahme von Deutschland sicher im Netz zum „Safer Internet Day 2018“

]]>
https://www.datensicherheit.de/ki-training-kuenstliche-intelligenz-notwendigkeit-daten/feed 0
KI: Datenethik als Top-Priorität und Wettbewerbsvorteil https://www.datensicherheit.de/ki-datenethik-als-top-prioritaet-und-wettbewerbsvorteil https://www.datensicherheit.de/ki-datenethik-als-top-prioritaet-und-wettbewerbsvorteil#respond Tue, 21 Jan 2020 19:57:15 +0000 https://www.datensicherheit.de/?p=35497 Egon Kando warnt vor unkontrollierten Einsätzen sogenannter Künstlicher Intelligenz

[datensicherheit.de, 21.01.2020] Sogenannte Künstliche Intelligenz (KI) ist offenbar „in aller Munde“ – obwohl es echte KI derzeit noch gar nicht gibt, wird das bereits nutzbare Maschinelle Lernen fleißig als „KI“ verkauft. „Branding ist nunmal alles.“ Aber egal wie man es nennt: Die Algorithmen sind schon in viele Bereiche des Alltags vorgedrungen und bestimmen damit bewusst oder unbewusst das reale Leben der Menschen.

Egon Kando

Foto: Exabeam

Egon Kando: KI und Maschinelles Lernen werden derzeit in vielen Bereichen im Rekordtempo eingeführt…

Folgen unkontrollierter KI-Einsätze bereits in vielen Fällen sichtbar geworden

Dass Technologie nach vorne prescht, ohne sich groß um die Folgen zu scheren, ist in der Geschichte der Menschheit beileibe nichts Neues. Doch die Folgen unkontrollierter Einsätze von KI sind bereits in vielen Fällen sichtbar und hinterlassen sichtbare Schäden – facebook und „Cambridge Analytica“ lassen grüßen.
Um den Wildwuchs und die Gefahren der KI einzudämmen, machen sich viele Organisationen bereits Gedanken, wie der ethische Einsatz von Daten und KI gelingen kann. Den Stand der Dinge beschreibt Egon Kando von Exabeam in seiner aktuellen Stellungnahme:

Daten sind zu einem der wertvollsten Güter geworden

Die „CIOs“ müssten die ethische Nutzung von Daten zu einer Top-Priorität machen, um mit der sich schnell entwickelnden Regulierungslandschaft Schritt zu halten, fordert Kando:
„Wir befinden uns inmitten der vierten Industriellen Revolution. Daten sind zu einem der wertvollsten Güter geworden, nicht zuletzt deshalb, weil Künstliche Intelligenz stark von ihnen abhängt. KI und Maschinelles Lernen werden derzeit in vielen Bereichen im Rekordtempo eingeführt, bei Regierungen, dem Gesundheitswesen, der Landwirtschaft, Polizei und Finanzinstituten.“ Damit machten sich diese Bereiche in Teilen von den Daten abhängig, mit denen ihre Entscheidungsfindung automatisiert werde.

Bedenken über potenziellen Missbrauch könnten nicht einfach ignoriert werden

Die Folgen über den Schaden, den missgeleitete KI-Lösungen anrichten können, zeigten sich beispielsweise im öffentlichen Misstrauen gegenüber Social-Networking-Plattformen. Der Skandal um „Cambridge Analytica“ habe gezeigt, wie u.a. facebook persönliche Informationen nutzten und welche soziale Dimension die Algorithmen der Plattformen bereits einnähmen.
KI-gestützte Werkzeuge könnten also, absichtlich – oder versehentlich, in die Privatsphäre eindringen oder Schaden, Ungerechtigkeit bzw. moralisches Unrecht verursachen. Bedenken über den potenziellen Missbrauch könnten folglich nicht einfach ignoriert werden.

Meilenstein: Weltweit erste Ethikrat für KI aktiv

Der kürzlich von der britischen Regierung gegründete weltweit erste nationale Ethikbeirats für KI sei in diesem Zusammenhang ein wahrer Meilenstein. In Zusammenarbeit mit der Regierung, den Regulierungsbehörden und der Industrie bestehe die Aufgabe des neuen Beirats darin, die Grundlagen für KI zu schaffen, Lücken in der Governance-Landschaft zu antizipieren, sich auf bewährte Praktiken zu einigen und diese zu erläutern.
So könne er dabei helfen, eine ethische und innovative Nutzung der Daten zu lenken und die Regierung hinsichtlich der Notwendigkeit spezifischer politischer oder regulatorischer Maßnahmen zu beraten.

KI wird viele Unternehmen innerhalb der nächsten drei Jahre substanziell transformieren

Für Organisationen, die KI-gestützte Systeme entwickeln oder nutzen, sei dies eine wichtige Entwicklung. Laut einer kürzlich durchgeführten Deloitte-Umfrage gäben 76 Prozent der Führungskräfte an, dass sie erwarteten, dass Künstliche Intelligenz ihre Unternehmen innerhalb der nächsten drei Jahre „substanziell transformieren“ werde.
Gleichzeitig habe ein Drittel der Befragten zugegeben, dass Fragen zur ethischen Nutzung von Daten eine ihrer größten Sorgen seien. Ganz offenbar gebe es in dem Bereich noch viel zu tun.

Zusammensetzung der Datensätze kann Ergebnisse beeinflussen und verzerren

KI-Systeme lernten aus den Datensätzen, mit denen sie trainiert werden. Die Zusammensetzung der Datensätze könne damit die Ergebnisse nicht nur beeinflussen, sondern diese auch verzerren. Ein Beispiel aus der Arbeitswelt habe jüngst gezeigt, wie Datensätze, die aus einem männlich dominierten Bereich stammten, unbeabsichtigt zu einem geschlechtsverzerrten Rekrutierungsinstrument geführt hätten.
In ähnlicher Weise könne ein Mangel an Transparenz über die zur Steuerung von KI-Systemen verwendeten Datenmodelle zu Problemen mit dem ethischen Design, der Entwicklung und dem Einsatz von KI führen.

Ethische Nutzung von Daten ein Wettbewerbsvorteil

Das Vereinigte Königreich habe das Problem wie erwähnt bereits erkannt und gehe mit der Gründung des Ethikbeirats mit gutem Beispiel voran. Insgesamt investiere die britische Regierung neuen Millionen Pfund in diese Initiative.
Der Vorstoß sei nicht ganz selbstlos – die Investition solle ganz offen die Führungsrolle Großbritanniens in diesem Bereich auf der globalen Bühne vorantreiben. Man verspreche sich so Innovationen, „die nicht nur Nutzen versprechen, sondern auch sicher und ethisch unangreifbar sind“. Ein Bericht des Sonderausschusses des britischen Oberhauses über die Auswirkungen der künstlichen Intelligenz auf die Wirtschaft und Gesellschaft Großbritanniens schätzt laut Kando, dass KI den Wert der britischen Wirtschaft bis 2035 um 630 Milliarden Pfund steigern könnte. Die ethische Nutzung von Daten scheine somit ein Wettbewerbsvorteil zu sein.

KI-Datenethik dringend auf die Prioritätenliste setzen!

Durch diesen Vorstoß habe sich die Nation Großbritannien sicherlich einen kleinen Vorsprung gegenüber anderen Regionen geschaffen. Doch auch andere Organisationen hätten bereits eingesehen, dass ethische Urteile darüber getroffen werden müssten, wie wir Daten nutzen und anwenden. Im vergangenen Jahr hätten bereits eine Reihe technologischer Schwergewichte, darunter Google und IBM, ethische Richtlinien für KI veröffentlicht.
Auch die Europäische Kommission habe kürzlich ihre Ethikrichtlinien für vertrauenswürdige KI veröffentlicht. Diese Schritte signalisierten deutlich, dass es für Organisationen jeder Art an der Zeit sei, die Datenethik im Bereich KI auf die Prioritätenliste zu setzen. Der Ruf und Erfolg von Unternehmen werde zukünftig auch davon abhängen, „ob sie ihre Daten nach ethischen Standards verarbeiten“. Um mit der sich schnell weiterentwickelnden Regulierung der ethischen Nutzung von Daten Schritt zu halten, müssten „CIOs“ KI-Ethik zu einer der Prioritäten ihrer Organisation machen.

Weitere Informationen zum Thema:

datensicherheit.de, 11.02.2019
Webbrowser als Sicherheitsrisiko: Verbraucher und Unternehmen im Visier

 

]]>
https://www.datensicherheit.de/ki-datenethik-als-top-prioritaet-und-wettbewerbsvorteil/feed 0
14. Europäischer Datenschutztag am 28. Januar 2020 https://www.datensicherheit.de/14-europaeischer-datenschutztag-am-28-januar-2020 https://www.datensicherheit.de/14-europaeischer-datenschutztag-am-28-januar-2020#respond Fri, 20 Dec 2019 19:45:18 +0000 https://www.datensicherheit.de/?p=35363 Künstliche Intelligenz zwischen Förderung und Bändigung im Fokus

[datensicherheit.de, 20.12.2019] Der Landesbeauftragte für den Datenschutz und die Informationsfreiheit Rheinland-Pfalz lädt ein zum „14. Europäischen Datenschutztag 2020“. Systeme der Künstlichen Intelligenz (KI) stellten eine substanzielle Herausforderung für Freiheit und Demokratie dar. Entwicklungen und Anwendungen von KI müssten in demokratisch-rechtsstaatlicher Weise den Grundrechten entsprechen. Dies gelte in der Bundesrepublik Deutschland, aber selbstverständlich darüber hinaus in Europa. Diesen Fragen und dem Versuch, politische, wirtschaftliche und rechtliche Antworten zu finden, soll sich der „14. Europäische Datenschutztag“ widmen.

Grundrechts- und Datenschutz müssen mit Prozess der Digitalisierung Schritt halten

„Nicht alles, was technisch möglich und ökonomisch erwünscht ist, darf in der Realität umgesetzt werden.“ Dies gelte in besonderem Maße für den Einsatz selbstlernender Systeme, die massenhaft Daten verarbeiteten und durch automatisierte Einzelentscheidungen in Rechte und Freiheiten Betroffener eingriffen.
Die Wahrung der Grundrechte sei Aufgabe aller staatlichen Instanzen. Wesentliche Rahmenbedingungen für den Einsatz von KI seien vom Gesetzgeber vorzugeben und durch die Aufsichtsbehörden zu vollziehen. „Nur wenn der Grundrechtsschutz und der Datenschutz mit dem Prozess der Digitalisierung Schritt halten, ist eine Zukunft möglich, in der am Ende Menschen und nicht Maschinen über Menschen entscheiden.“

Zur Bedeutung von KI-Lösungen und Algorithmen in Wirtschaft und Technik

Als Abschluss seines Vorsitzes der Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder im Jahr 2019 richtet der Landesbeauftragte für den Datenschutz und die Informationsfreiheit Rheinland-Pfalz den „14. Europäischen Datenschutztag“ in den Räumlichkeiten der Vertretung der Europäischen Kommission in Berlin aus.
Die Veranstaltung stehe unter dem Titel „Künstliche Intelligenz – Zwischen Förderung und Bändigung“. Zur Bedeutung von KI-Lösungen und Algorithmen in Wirtschaft und Technik und den damit verbundenen Herausforderungen referierten Vertreter aus Politik, Wissenschaft, Justiz und Praxis. Damit werde das Schwerpunktthema des Vorsitzjahres 2019 weiter geführt, das auch künftig auf der Agenda der deutschen Datenschutzaufsichtsbehörden stehe.

Weitere Informationen zum Thema:

14. EUROPÄISCHER DATENSCHUTZTAG 2020
„Künstliche Intelligenz – Zwischen Förderung und Bändigung“
Dienstag, 28. Januar 2020, 12.30 bis 17.00 Uhr
Vertretung der Europäischen Kommission in Deutschland,
Unter den Linden 78, 10117 Berlin
Die Teilnahme ist kostenlos. Anmeldungen sind online bis spätestens 17. Januar 2020 möglich.

Der Landesbeauftragte für den DATENSCHUTZ und die INFORMATIONSFREIHEIT Rheinland-Pfalz
Anmeldeformular zum Europäischen Datenschutztag 2020 am 28. Januar 2020

datensicherheit.de, 27.01.2019
13. Europäischer Datenschutztag: DSGVO gilt es besser zu machen

]]>
https://www.datensicherheit.de/14-europaeischer-datenschutztag-am-28-januar-2020/feed 0