Algorithmen – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Thu, 17 Nov 2022 14:15:25 +0000 de hourly 1 https://wordpress.org/?v=5.6.14 Fünf Schritte für eine verantwortungsbewusstere Künstliche Intelligenz https://www.datensicherheit.de/verantwortung-kuenstliche-intelligenz https://www.datensicherheit.de/verantwortung-kuenstliche-intelligenz#respond Thu, 17 Nov 2022 14:15:25 +0000 https://www.datensicherheit.de/?p=42644 Ethisches Machine Learning zur Vermeidung von Schäden

Von unserem Gastautor Eric Winston, EVP, General Counsel and Chief Ethics & Compliance Officer, Mphasis

[datensicherheit.de, 16.11.2022] Künstliche Intelligenz (KI) unterstützt bereits heute viele Unternehmen bei ihren alltäglichen Aufgaben. Der Einsatz kann jedoch auch kritisch betrachtet werden, denn mit neuen Technologien kommen unweigerlich nicht beabsichtigte Folgen, sobald die Möglichkeiten dieser Technologie erforscht und getestet werden. Vorurteile der Hersteller bzw. Programmierer können dabei in die KI mit einfließen. Dem können die Unternehmen entgegenwirken, indem sie auch in Bezug auf KI ethisch handeln und transparent mit Kunden und Partnern kommunizieren.

Eric Winston, EVP, General Counsel and Chief Ethics & Compliance Officer, Mphasis

Eric Winston, Mphasis | Bild: Mphasis

Verständnis für potenzielle Schäden durch KI nötig

Machine Learning (ML) Modelle erkennen Muster und Datenbestände. Das befähigt sie dazu, zu lernen und eigenständig Lösungen zu finden. Die Bandbreite reicht von Nachfragevorhersagen bis hin zu Betrugserkennung. Wichtig ist, dass vor der Einführung eine Einschätzung der Risiken des KI-Einsatzes durchgeführt wird. Sie beginnt mit dem Verständnis der potenziellen Schäden, die KI verursachen kann.

Beispielsweise könnte dies die Diskriminierung von Geschlechtern betreffen, wie es etwa 2019 bei Apple passiert ist. Bei der Prüfung auf Kreditwürdigkeit wurden deutlich mehr Frauen bei ähnlichen Anträgen auf die Kreditkarte abgelehnt als Männer – teilweise war der Unterschied zehnfach so groß. Ebenfalls wurden Frauen beim Bewerbungsverfahren des Online-Händlers Amazon als weniger geeignet von der KI bewertet als Männer, sodass deren Lebensläufe der HR-Abteilung nicht angezeigt wurden. Kein Einzelfall: Viele Beispiele für negative, ethische Folgen finden sich in den letzten Jahren in einer Vielzahl aufsehenerregender Zeitungsartikel – von rassistischer Voreingenommenheit in Algorithmen im Gesundheitswesen über Rechenmaschinen zur Rückfallkriminalität bis hin zu hasserfüllten Chatbots.

Problemkind KI-Bias

Das Problem des KI-Bias, also der Voreingenommenheit, liegt darin, dass die Gründe für die KI-Modell-Ergebnisse nicht recherchiert und die richtigen Fragen nicht gestellt werden: Wie funktioniert das Modell, was sind die wichtigsten Daten-Inputs, welche Eingaben haben zu diesem Ergebnis geführt oder auch wie würde das Modell reagieren, wenn eine bestimmte Eingabe verändert wird? Diese Fragen müssen geklärt und transparent sowohl Mitarbeitern als auch Kunden gegenüber kommuniziert werden, um zuverlässige Ergebnisse zu erhalten und glaubwürdig zu bleiben. Da bei der Weiterverarbeitung der Analyse-Ergebnisse oft kein Mensch mehr eingreift, wirkt sich jede Unregelmäßigkeit im Ergebnis direkt auf öffentliches Erscheinungsbild, als auch auf die daraus resultierenden Handlungen im Geschäft aus.

Vorhersagen, Fragen zur Vertrauenswürdigkeit, Verzerrungen und Wahrhaftigkeit können nicht beantwortet werden, ohne zu verstehen, wie ein ML-Modell funktioniert. Ohne dieses Verständnis ist es schwer, ein System richtig zu bewerten und zu diagnostizieren. Grundsätzlich gilt: Wenn das KI-System für den menschlichen Konsum oder die menschliche Interaktion konzipiert ist oder sich auf Daten stützt, die von oder über Menschen gesammelt wurden, dann ist eine ethische Analyse wahrscheinlich gerechtfertigt. Über folgende fünf Best Practices lässt sich das Vertrauen zwischen Verbraucher und Unternehmen festigen

  1. Bedeutung von ethischer KI definieren: Im ersten Schritt müssen Unternehmen für sich definieren, was ethische KI für sie bedeutet und diese ihren Stakeholdern kommunizieren. Diese Definition sollte Kernwerte wie Kundenzufriedenheit und Mitarbeiterengagement widerspiegeln.
  2. KI-Ethikbeauftragten engagieren: KI-Ethikbeauftragte (Chief AI Ethics Officer) sorgen im nächsten Schritt dafür, dass die Anwendung nach den zuvor festgelegten Vorgaben erfolgt. Sie überwachen und bewerten die Einbindung von KI in ein System und schränken die Rechte gegebenenfalls ein, sodass KI nicht für umstrittene Funktionen wie beispielsweise die Gesichtserkennung eingesetzt wird. Dazu führten das MIT und die Stanford University mit den Variablen Hauttyp und Geschlecht Studien durch. So weisen Anwendungen für die Gesichtserkennung bei dunkelhäutigen Frauen eine Fehlerquote von mehr als 34 Prozent auf.
  3. KI-Ethik- und Qualitätssicherungsprüfung: Es braucht eine KI-Ethik- und Qualitätssicherungsprüfung als integralen Bestandteil der Produktentwicklung sowie bei Freigabezyklen. Dabei sollten sich Unternehmen auf verschiedene Anwendungsszenarien und daraus resultierende Ergebnisse konzentrieren – und sicherstellen, dass die verwendeten Datensätze angemessen repräsentativ und vorurteilsfrei sind.
  4. Kunden adressieren: Indem sich Unternehmen direkt an den Kunden wenden, lässt sich der ethische Einsatz von KI ebenfalls sicherstellen. Hier gilt es, zu erklären und zu beschreiben, welche Daten zu welchem Zweck gesammelt und genutzt werden. Darüber hinaus kann das Unternehmen einen sachverständigen Aufsichtsausschuss als Experten einsetzen, um neu entwickelte, KI-gestützte Tools zu testen. Diese Offenheit kann die möglichen Bedenken hinsichtlich des ethischen Einsatzes von KI zur Bereitstellung von Produkten oder Dienstleistungen bei den Kunden erfolgreich zerstreuen.
  5. Daten transparent machen: Da komplexe Algorithmen undurchsichtig erscheinen können, ist es wichtig, die Datenverwendung transparent zu machen. Auch wenn Unternehmen ihr geistiges Eigentum beschützen wollen, sollten sie sich überlegen, ihren Kunden zu erklären, welche Daten zu welchem Zweck gesammelt und genutzt werden. Dabei sollte die Erklärbarkeit nicht nur bei den Modellvorhersagen, sondern auch bei den technischen Prozessen und Designentscheidungen im Vordergrund stehen.

Wie KI die Cyber-Security unterstützt

Gerade mit Blick auf die rasant ansteigende Zahl an Cyberattacken sollten Unternehmen sich der Relevanz des ethischen Umgangs mit KI bewusst sein. Denn es braucht diese Art von Lösungen in der Cyber-Security, um mit der schnellen Entwicklung von neuen Hacking-Methoden mithalten zu können. Datensicherheitsrelevante Vorgänge – etwa Entdecken, Klassifizieren und Wiederherstellen – lassen sich automatisieren. Data Loss Prevention (DLP), Tokenisierung oder Verschlüsselung sind hier mögliche Einsatzgebiete.

Transparente Kommunikation baut Vertrauen auf

Wichtig ist, dass sich Unternehmen ihrer Verantwortung gegenüber ihren Kunden und Partnern bewusst sind. Nur über transparente Kommunikation zu den verwendeten KI-Lösungen sowie zu den definierten Kernwerten baut sich Vertrauen auf. Dazu gehört unter anderem zu erklären, was die KI vertrauenswürdig und vorurteilsfrei macht. Dies ermöglicht allen Beteiligten zu verstehen, wie sich die Modellvorhersagen mit unterschiedlichen Eingaben ändern.

Bei der Datentransparenz gilt es, die Rückverfolgbarkeit von der Datenerfassung und -kennzeichnung bis hin zu den eingesetzten Algorithmen zu gewährleisten. Entscheidungsträger können so das volle Potenzial von KI nutzen und gleichzeitig die Risiken für das Geschäft minimieren. Hier können sich Unternehmen auch an dem Bericht „Ethics Guidelines for Trustworthy AI“ der von der Europäischen Kommission eingesetzten Expertengruppe für Künstliche Intelligenz orientieren.

Weitere Informationen zum Thema:

datensicherheit.de, 15.08.2020
KI-Training: Künstliche Intelligenz benötigt Daten

]]>
https://www.datensicherheit.de/verantwortung-kuenstliche-intelligenz/feed 0
Wenn Quantencomputer praxistauglich werden, ist Post-Quantenkryptographie erforderlich https://www.datensicherheit.de/quantencomputer-praxistauglichkeit-post-quantenkryptographie-erforderlichkeit https://www.datensicherheit.de/quantencomputer-praxistauglichkeit-post-quantenkryptographie-erforderlichkeit#respond Thu, 15 Sep 2022 10:29:30 +0000 https://www.datensicherheit.de/?p=42390 Bereits jetzt sollten Algorithmen und Hardware entwickelt werden, die diesen leistungsfähigen Quanten-Superrechnern standhalten

[datensicherheit.de, 15.09.2022] Utimaco warnt in einer aktuellen Stellungnahme davor, dass die heute zur Verschlüsselung benutzten Algorithmen sich bald als zu schwach erweisen könnten – sobald nämlich sogenannte Quantencomputer praxistauglich werden. „Daher kommt es jetzt darauf an, Algorithmen und Hardware zu entwickeln, die auch diesen leistungsfähigen Superrechnern standhalten“, lautet die entsprechende Empfehlung.

NIST-Empfehlung für vier quantensichere Algorithmen

Die US-Bundesbehörde National Institute of Standards and Technology (NIST) habe bereits vor einigen Jahren einen Prozess zur Definition bzw. Bewertung von quanten-resistenten Algorithmen eingeleitet. Die potenziellen Kandidaten seien in verschiedenen Runden ausgewählt worden. „Insgesamt wurden mehr als 80 Algorithmen vorgeschlagen, wovon einige bereits recht früh ausschieden.“

Grund dafür war demnach, dass mathematisch Angriffe für Quantencomputer entwickelt wurden, welche die Algorithmen brechen oder stark schwächen konnten. Aktuell habe das NIST die dritte Runde des Evaluationsprozesses abgeschlossen. Ergebnis dessen sei die Empfehlung von vier Algorithmen, welche als „quantensicher“ angesehen werden könnten.

Zeit drängt: Quantencomputer könnten schon bald Realität werden

Der Begriff „Quantencomputer“ klinge zunächst etwas nach Science Fiction oder ganz ferner Zukunft. Doch sie könnten schon sehr bald Realität werden. In einer ad hoc Utimaco-Umfrage unter Kunden hätten 64 Prozent der Teilnehmer angegeben, dass sie reale Bedrohungen durch Quantencomputer innerhalb der nächsten fünf bis neun Jahre erwarteten.

35 Prozent dieser Umfrageteilnehmer hätten daher bereits damit begonnen, Post-Quanten-Kryptographie in ihrem Unternehmen einzuführen. Tatsächlich werde es dafür höchste Zeit: „Werden heute beispielsweise selbstfahrende Autos entwickelt, die zehn und mehr Jahre im Verkehr bleiben sollen, müssen diese über Verschlüsselungen verfügen, die auch in einer Zukunft mit Quantencomputern sicher bleiben.“

Weitreichende Konsequenzen des Brechens nicht- quantensicherer Algorithmen

Werde es versäumt, die Kommunikation eines Fahrzeugs adäquat abzusichern, drohe die Gefahr, dass Kriminelle sich Zugang verschaffen und die Kontrolle über die Autos übernehmen könnten. „Was das für die Insassen bedeuten könnte, möchte man sich nicht vorstellen.“ Doch auch an anderer Stelle könnte es zu weitreichenden Problemen kommen.

Immer mehr Dokumente und Verträge würden heute elektronisch signiert, statt auf Papier unterschrieben. Hinter der elektronischen Signatur stehe allerdings auch ein kryptographischer Prozess, welcher auf die Integrität der verwendeten Algorithmen angewiesen sei. „Falls ein Algorithmus gebrochen wird, hätten alle damit getätigten Signaturen schlagartig keine Beweiskraft mehr.“ Um das zu verhindern, sollten Unternehmen und Institutionen frühzeitig damit beginnen, wichtige digitale Dokumente zu re-signieren. Durch diese erneute Signatur mit einem quantensicheren Algorithmus werde der Beweiserhalt für die Zukunft sichergestellt.

Welt, in der Quantencomputer existieren, aber keine dafür ausgelegten Algorithmen, als beunruhigende Vorstellung

Neben den digitalen Signaturen seien auch Identifikations- und Authentifikationsprozesse im Netz auf sichere Algorithmen angewiesen, um Zugangsdaten zu verschlüsseln. „Kriminelle, die diese Verschlüsselung brechen könnten, hätte ganz neue Möglichkeiten des Identitätsdiebstahls.“ Eine Welt, in der zwar Quantencomputer existierten, aber keine dafür ausgelegten Algorithmen, wäre also eine beunruhigende Vorstellung.

Utimaco rät abschließend: „Unternehmen sollten sich bereits heute so aufstellen, dass sie für den Wechsel zu quantensicheren Algorithmen bereit sind, wenn dies nötig wird.“ Dazu gehöre unter anderem, auf der Hardware-Seite aufzurüsten und Hardware-Sicherheitsmodule anzuschaffen, „die mit den neuen Algorithmen und komplexeren Schlüsseln umgehen können“. Diese Investition sei das ideale Risikomanagement: „Sobald der Fall eintritt, dass Quantencomputer öffentlich verfügbar sind, können Unternehmen ihre Systeme schnell upgraden.“ Müssen sie allerdings dann erst von null anfangen, könne es eventuell zu spät sein – die Migrationszeit sollte man keinesfalls unterschätzen.

Weitere Informationen zum Thema:

datensicherheit.de, 19.07.2022
Quanten-Kryptographie könnte Ende der Lauschangriffe bedeuten / Abhör- sowie Manipulationsversuche beeinflussen Daten auf Quantenebene

datensicherheit.de, 03.11.2019
Schutz gegen Quantencomputer: Wettrüsten gestartet / Unternehmen sollten sich bereits heute mit dem Thema auseinandersetzen und quantensichere Datenverschlüsselung einleiten

datensicherheit.de, 28.10.2019
Quantencomputer bedrohen Absicherung vernetzter Systeme / Google hat Start für neues Computerzeitalter gesetzt

datensicherheit.de, 02.07.2019
utimaco: Standardsetzung für quantensichere Kryptographie / Vernetzte Geräte, Daten und Kritische Infrastrukturen langfristig vor möglichem Quantencomputer-Angriff schützen

]]>
https://www.datensicherheit.de/quantencomputer-praxistauglichkeit-post-quantenkryptographie-erforderlichkeit/feed 0
Digitalisierungs-Bremse: eco warnt vor Regulierungsphantasien https://www.datensicherheit.de/digitalisierungs-bremse-eco-warnt-vor-regulierungsphantasien https://www.datensicherheit.de/digitalisierungs-bremse-eco-warnt-vor-regulierungsphantasien#respond Thu, 24 Oct 2019 08:06:01 +0000 https://www.datensicherheit.de/?p=35022 Stellungnahme zum Abschlussbericht der Datenethikkommission

[datensicherheit.de, 24.10.2019] Der eco – Verband der Internetwirtschaft e.V. warnt vor einer Algorithmen-Verordnung, welche die Digitalisierung ausbremsen könnte. Der Verband forciert nach eigenen Angaben einen „diskursiven Ansatz zu Fragen digitaler Ethik“.

Warnung vor tiefen Eingriffen in die digitale Welt

Im Juli 2018 habe die vom Innen- und dem Justizministerium eingesetzte Datenethikkommission ihre Arbeit aufgenommen, um Leitfragen zum ethischen Umgang mit Algorithmen, künstlicher Intelligenz (KI) und digitalen Innovationen zu beantworten.
Am 23. Oktober 2019 hätten nun die Experten ihren Abschlussbericht präsentiert: „Mit dem rund 250 Seiten starken Bericht fordert die Kommission tiefe Eingriffe in die digitale Welt.“

Regulierungsphantasien als Digitalisierungs-Bremse

„Mit einigen Forderungen ist die Kommission deutlich übers Ziel hinausgeschossen. Regulierungsphantasien wie eine neue allgemeine europäische Algorithmen-Verordnung (EUVAS) könnten zur echten Digitalisierungs-Bremse werden, denn Algorithmen sind die Basis digitaler Transformation, kommentiert eco-Vorstand Oliver J. Süme.
Bei einer Verpflichtung zur Interoperabilität für Messenger müsse sogar hinterfragt werden, „inwieweit dadurch die Souveränität von Anwenderinnen und Nutzern eingeschränkt wird“.

Diskursiver Ansatz zu Fragen digitaler Ethik angestrebt

Die Digitalisierung schreite unaufhaltsam voran, dabei stellten sich auch ethische und rechtliche Fragen. Süme: „Wir nehmen diese Fragen zu ethischen Normen und Handlungsleitlinien sehr ernst. Der Einsatz von Algorithmen und künstlicher Intelligenz birgt große Potenziale, doch es ist nachvollziehbar, dass beim Einsatz dieser Technologien auch mitgedacht werden muss, welche Daten Dienstebetreibern zur Verfügung gestellt werden.“ Zur Durchsetzung ethischer Standards brauche es nicht zwingend neue Vorgaben und Kennzeichnungspflichten für digitale Dienste wie Chatbots.
Der eco warnt vor „Unmengen neuer Gesetze und Regeln“ und fordert nach eigenen Angaben „ethische Leitkonzepte an die Verhältnisse der digitalen Welt anzupassen und einen diskursiven Ansatz zu verfolgen“: Eine blinde Überregulierung würde die Entwicklung und den KI-Einsatz als Schlüsseltechnologie massiv beeinträchtigen und die Digitalisierung in Deutschland nur noch weiter verzögern.

Internetunternehmen bereits in der Verantwortung

Der eco unterstreicht in diesem Zusammenhang außerdem, „dass zahlreiche Unternehmen bereits Verantwortung für ethische Herausforderungen im Zusammenhang mit der Digitalen Transformation übernehmen und beispielsweise im Rahmen von Selbstverpflichtungsinitiativen erfolgreich zur Einhaltung ethischer Normen beitragen.“
Ein prominentes Beispiel sei hier die „eco Beschwerdestelle“ zur Bekämpfung unerwünschter und illegaler Internetinhalte.

Weitere Informationen zum Thema:

eco – Verband der Internetwirtschaft e.V.
eco Beschwerdestelle

eco – Verband der Internetwirtschaft e.V. , 2019
Kompendium: Digitale Ethik / Vertrauen in die digitale Welt

eco – Verband der Internetwirtschaft e.V., 13.05.2019
Stellungnahme für die Konsultation des Bundesministeriums für Justiz und Verbraucherschutz zu Interoperabilität und Datenportabilität bei Sozialen Netzwerken

eco – Verband der Internetwirtschaft e.V., 17.09.2018
Leitlinien zum Umgang mit Künstlicher Intelligenz

Bundesministerium der Justiz und für Verbraucherschutz
Datenethikkommission

Hochschule Bonn-Rhein-Sieg
Anmeldung zur Veranstaltung: „Abschlussbericht der Datenethikkommission“ 4. November 2019, 18-20 Uhr – Campus Sankt Augustin – Grantham-Allee 20 – 53757 Sankt Augustin – Audimax (Hörsaal1)

datensicherheit.de, 24.10.2019
VdTÜV begrüßt Abschlussbericht der Datenethikkommission

datensicherheit.de, 23.10.2019
Datenethikkommission: Bitkom kritisiert Abschlussbericht

]]>
https://www.datensicherheit.de/digitalisierungs-bremse-eco-warnt-vor-regulierungsphantasien/feed 0
eco Verband: Mitarbeiter mit Qualifizierungen ins digitale Zeitalter mitnehmen https://www.datensicherheit.de/eco-verband-mitarbeiter-qualifizierungen-digitales-zeitalter https://www.datensicherheit.de/eco-verband-mitarbeiter-qualifizierungen-digitales-zeitalter#comments Wed, 01 May 2019 15:52:30 +0000 https://www.datensicherheit.de/?p=31966 Digitalisierung leistet einen wesentlichen Beitrag zur Verbesserung von Arbeitsbedingungen

[datensicherheit.de, 01.05.2019] Der 1. Mai steht für das Ziel, Arbeitsbedingungen zu verbessern. Einen wesentlichen Anteil an dieser Entwicklung leistet zurzeit die Digitalisierung. Diese hilft Mitarbeitern dabei, ihre Fähigkeiten optimal zu entfalten und kontinuierlich weiter zu entwickeln, ist Lucia Falkenberg vom eco – Verband der Internetwirtschaft e. V. überzeugt. „Karrieren verlaufen immer seltener linear, sondern verlangen ständige Weiterqualifikation. Wenn Führungskräfte und Mitarbeiter die Notwendigkeit des lebenslangen Lernens erkennen, dann schaffen sie eine lernende Organisation – also ein Unternehmen, das Mitarbeitern persönliche Weiterentwicklung ermöglicht“, sagt Falkenberg.

So lassen sich beispielsweise immer mehr Routinearbeiten an Algorithmen auslagern, selbst im Büro. Es ist möglicherweise bald üblich, Routine-Mails von digitalen Assistenten sortieren und beantworten zu lassen. „Früher haben wir vor allem körperlich anstrengende Arbeiten an Maschinen ausgelagert, heute lassen wir den Kollegen Roboter teilweise mitdenken. Aber auch die Algorithmen haben Grenzen. Die Beschäftigten übernehmen vermehrt komplexe und schwer automatisierbare Aufgaben, beispielsweise mit kommunikativen Schwerpunkten“, sagt Falkenberg.

Lucia Falkenberg, eco

Bild: eco

Lucia Falkenberg, eco

Digitalisierung bietet mehr Chancen für Selbstverwirklichung

Diese Entwicklung können Betriebe unterstützen, indem sie Mitarbeitern mehr Freiräume fürs Lernen und die eigene Weiterqualifikation geben. „Wenn Menschen, Maschinen, Anlagen, Logistik und Produkte miteinander kommunizieren und kooperieren, dann verlangt die Dynamik der Veränderungsprozesse immer stärker nach betrieblichen Fortbildungen. Unternehmen sind daher gut beraten, die Kompetenzen ihrer Mitarbeiter weiter zu entwickeln und sie so zu Gewinnern der Digitalisierung zu machen“, sagt Falkenberg.

Trend: E-Learning

Die neuen digitalen Möglichkeiten helfen zudem dabei, neue Qualifikationen aufzubauen. E-Learning-Angebote ergänzen die bisherigen Formen der betrieblichen Weiterbildung um attraktive neue Möglichkeiten, mit denen sich immer besser orts- und zeitunabhängig lernen lässt. Damit passen sie gut zu der weiteren Entwicklung unserer digitalen Arbeitswelten mit ihren Möglichkeiten, orts- und zeitunabhängig produktiv zu sein.

„Eine erfolgreiche digitale Transformation im Unternehmen steigert dessen Wettbewerbsfähigkeit. Das gelingt, wenn alle Beteiligten ihr Silodenken überwinden und gemeinsam die Herausforderungen angehen“, sagt Falkenberg. Praktische Hilfe bei den ethischen Herausforderungen eines digitalen Wandels der Arbeitswelt liefert beispielsweise das 40-seitige Thesenpapier „Digital. Konzertiert. Aktiv. Die Transformation der Arbeitswelt gemeinsam gestalten“. Mitgewirkt haben Vertreter der Hochschule Aschaffenburg, des eco Verbands, der Katholischen Arbeitnehmerbewegung (KAB) sowie der Industriegewerkschaft Metall (IG Metall). Die Publikation entstand im Rahmen des Projektes „mainproject digital“, einer Maßnahme des Europäischen Sozialfonds in Bayern. Zu einem Experten-Roundtable zum Thema Future Work lädt die eco Akademie am 22. Mai nach Düsseldorf ein.

 Weitere Informationen zum Thema:

mainproject digital
New Work

datensicherheit.de, 20.04.2019
eco Verband: Onlinesuche zukünftig von Smarten Assistenten geprägt

datensicherheit.de, 10.04.2019
Europawahl 2019: eco benennt drei Kernaufgaben

datensicherheit.de, 12.03.2019
Jahresbericht 2018 der eco Beschwerdestelle: „Prinzip Löschen statt Sperren funktioniert“

datensicherheit.de, 28.02.2019
eco Verband: Veröffntlichung zu möglichen Regeln für Crypto-Mining

 

]]>
https://www.datensicherheit.de/eco-verband-mitarbeiter-qualifizierungen-digitales-zeitalter/feed 1
Kryptographie: Vorbereitung auf das Aufkommen des Quantum Computings https://www.datensicherheit.de/kryptographie-vorbereitung-quantum-computing https://www.datensicherheit.de/kryptographie-vorbereitung-quantum-computing#respond Thu, 20 Sep 2018 10:40:28 +0000 https://www.datensicherheit.de/?p=28872 Geheimnisse bewahren / Grenzen der Datenverarbeitungsleistung werden neu definiert

Ein Beitrag von unserer Gastautorin Aline Gouget, technische Beraterin und Sicherheitsforscherin bei Gemalto

[datensicherheit.de, 20.09.2018] Der Begriff Quantencomputer klingt zweifellos beeindruckend. Und in diesem Fall ist es tatsächlich eine Technologie, die dem Namen alle Ehre macht. Einfach ausgedrückt wird Quantencomputing eingesetzt, um die Grenzen der Datenverarbeitungsleistung neu zu definieren. Auf diese Weise wird ein enormes Potenzial geboten, um eine Reihe kritischer wissenschaftlicher Herausforderungen zu bewältigen.

Herausforderung für kryptographische Codes

Die Geschichte lehrt uns jedoch, dass ein solcher bahnbrechender Fortschritt auch von Menschen mit weniger guten Absichten genutzt wird. Das bedeutet, dass wir uns darauf einstellen müssen, dass Quantencomputer früher oder später als Möglichkeit genutzt werden, kryptographische Codes zu knacken, die bisher als unknackbar galten. Dazu gehören vor allem die Public-Key-Infrastrukturen, auf denen derzeit der Großteil unserer sicheren Kommunikation aufgebaut ist.

Aline Gouget, technische Beraterin und Sicherheitsforscherin bei Gemalto

Bild: Gemalto

Aline Gouget, technische Beraterin und Sicherheitsforscherin bei Gemalto

Und das ist eine ernste Sache. Die gute Nachricht ist aber, dass führende Branchenakteure diese potenzielle Gefahr frühzeitig erkannt haben und bereits Maßnahmen ergreifen, um sie einzudämmen. Doch nun stellen sich die Fragen, was dabei auf dem Spiel steht, wie schnell bestehende kryptographische Techniken untergraben werden könnten und welche Maßnahmen in Betracht gezogen und ergriffen werden müssen, um sicherzustellen, dass die Ankunft des Quantencomputings eher willkommen als gefürchtet ist.

Quantencomputing schreibt das Regelwerk neu

Die Stärke des Quantencomputings liegt in der komplett neuen Art der Datenberechnung. Seit den 1960er Jahren verlässt sich das Computing auf Siliziumtransistoren, um Daten, die als eine Reihe von Nullen und Einsen codiert sind, zu speichern und zu manipulieren. Quantencomputer hingegen nutzen die Fähigkeit subatomarer Partikel, um in mehr als einem Zustand gleichzeitig zu existieren. Folglich werden Daten unterschiedlich codiert – in Quantenbits oder „qubits“, die mit der Form einer Kugel verglichen werden können. Analog dazu kann sich ein traditionelles Bit nur an einem der beiden Pole der Kugel befinden – also einer Null oder einem Eins. Ein Qubit kann sich jedoch in einer Überlagerung von Zuständen befinden: An jeder beliebigen Position auf der Kugel kann eine Kombination von Nullen und Einsen gleichzeitig dargestellt werden. In der Praxis bedeutet das, dass viel mehr Daten gespeichert werden können. Allerdings kann sie auch viel schneller manipuliert werden. Probleme können dadurch über die Reichweite des traditionellen Computers hinausgehen und werden deshalb wesentlich schwieriger zu lösen sein.

Das Unzerbrechliche brechen

In der Welt der Kryptografie besteht weitgehend Einigkeit darüber, welche Algorithmen durch Quantencomputer leicht infrage gestellt werden können. Kryptografische Algorithmen werden in verschiedene Kategorien nach unterschiedlichen Merkmalen eingeteilt, wie:

  • der Art der zugrunde liegenden mathematischen Funktionen, auf denen sie basieren
  • der Art der Nutzung, für die sie bestimmt sind (z.B. Schutz des Datenaustauschs oder der Erstellung eines Secrets)
  • oder der Art des erforderlichen Secret Management (z. B. ein Secret Key oder ein Public und Private Key Paar).

Algorithmenfamilien, die durch den Einsatz von Quantencomputing geschwächt werden können, wurden bereits identifiziert. Sie beinhalten hauptsächlich Public-Key-basierte Methoden wie RSA und elliptische Kurvenkryptografie für PKI-Anwendungen sowie Schlüsselaustauschanwendungen wie Diffie-Hellman.

Die Zukunft ist näher, als man denkt

In Bezug darauf, wie schnell all dies Realität wird, herrscht hingegen eher weniger Konsens. Einige Experten prognostizieren, dass Quantencomputing innerhalb von zehn Jahren für die fortschrittlichsten Forscher und Großinvestoren verfügbar sein wird. Michele Mosca, vom Institute for Quantum Computing, hat kürzlich erklärt, dass es „eine knapp 15-prozentige Chance gibt, dass bis 2026 ein grundlegender Krypto mit öffentlichem Schlüssel von Quantum gebrochen wird, und eine 50-prozentige Chance diesbezüglich bis 2031 besteht.“ Natürlich ändern sich solche Prognosen regelmäßig, aber es ist anzumerken, dass einige bereits erfolgreiche Grundlagen für die Entwicklung des Quantencomputings verfügbar sind. Es muss also die Frage gestellt werden, wann und nicht ob, diese revolutionäre Technologie Wirkung zeigen wird.

Die Vorhersage der Experten ist sehr beruhigend. Selbst die optimistischsten Prophezeiungen über die Geschwindigkeit, mit der Quantencomputing Teil der Praxis wird, bedeuten zunächst, dass die Lebensdauer der Produkte weniger als zehn Jahren beträgt. Für Produkte, die länger im Angebot sein sollen, werden bereits Strategien zum Schutz über den gesamten Lebenszyklus eingeführt. Bei Gemalto werden beispielsweise Produkte entwickelt, in denen die sogenannte Krypto-Agilität eingebettet ist. Auf diese Weise kann Software geladen werden, die Schlüssel und Algorithmen ersetzen könnte, sobald diese veraltet sind. Dieser leistungsstarke Mechanismus ermöglicht es, eine Flotte von resistenten Produkten zu warten, auch wenn Algorithmen als anfällig erachtet werden.

Eine weitere Verteidigungsmöglichkeit liegt in der Wahl der Algorithmenfamilie. Generell gibt es drei Hauptansätze, um widerstandsfähige Produkte zu gewährleisten:

  • Implementierung symmetrischer Schlüsselalgorithmen mit größeren Schlüsseln (was etwa einer Verdoppelung der aktuellen durchschnittlichen Schlüsselgröße entspricht), die dafür bekannt sind, sich dem Quantencomputer zu widersetzen,
  • die Implementierung bewährter quantensicherer Algorithmen, die ihre Robustheit bereits unter Beweis gestellt haben, wie z.B. Hash-basierte Signaturen,
  • oder die Implementierung einer subtilen Kombination von Prä- und Post-Quantum-Algorithmen.

Diese letzte Option hat die Besonderheit, einen Schritt voraus zu sein und gleichzeitig die bestehende effektive Krypto beizubehalten, die die Sicherheitsindustrie gut und wahrhaftig beherrscht.

Eine Frage der Teamarbeit

Eine Vielzahl von Akteuren ist inzwischen aktiv an der Suche nach Antworten beteiligt. Vor allem aber setzt der Schutz der Zukunft der Public-Key-Verschlüsselung voraus, Algorithmen zu finden, die der Leistungsfähigkeit des Quantencomputing standhalten und dennoch sicher bleiben, wenn sie mit einem „klassischen“ Computer verwendet werden. Das ist es, was der Sektor als „quantensicher“oder „post-quantum“-Krypto bezeichnet.

Neue kryptografische Systeme mit öffentlichem Schlüssel, die die Kriterien erfüllen, werden derzeit entwickelt und bewertet. NIST (das US National Institute for Standards and Technology) hat sich als Anlaufstelle für diese Aktivitäten etabliert und erhielt kürzlich über 80 Einreichungen als Reaktion auf seinen jüngsten Aufruf an die Forschungsteams. Nach Prüfung dieser Vorschläge werden die Normungsarbeiten eingeleitet. Solide Ergebnisse werden rechtzeitig für die zweite Konferenz der NIST zur Standardisierung der Kryptografie nach der Quantisierung im Jahr 2019 erwartet.

Auf dem Laufenden bleiben

Im Zweiten Weltkrieg gelang es einer bemerkenswerten internationalen Gruppe von alliierten Codebrechern mit Sitz im Bletchley Park in England, die „unzerbrechlichen“ Enigma-Maschinenchiffren freizuschalten, mit denen ein Großteil der Kommunikation ihres Feindes gesichert war. Um ihnen dabei zu helfen, schufen sie ein wegweisendes elektromechanisches Gerät, die „Bombe“. Über 70 Jahre später steht eine weitere neue Generation von Technologien kurz davor, vermeintlich unfehlbare kryptografische Techniken zu untergraben. Die Kernbotschaft hier ist jedoch nicht nur die Bereitschaft der breiteren Industrie, neue Formen des Schutzes vor dieser jüngsten Bedrohung zu erforschen und umzusetzen. Auch das Quantencomputing – oder zumindest die ihm zugrunde liegende Quantenphysik – wird völlig neue Ansätze zur Datensicherheit ermöglichen. Natürlich ist es noch sehr früh, aber für alle, die an verschlüsselter Kommunikation interessiert sind, sind dies spannende Zeiten. Es lohnt sich, auf dem Laufenden zu bleiben.

Weitere Informationen zum Thema:

datensicherheit.de, 30.04.2018
Leistungsfähige Computer: Ein Quäntchen Hoffnung

datensicherheit.de, 21.02.2014
Quanten-Informationsverarbeitung: Wichtiger Schritt bei der Grundlagenforschung gelungen

datensicherheit.de, 28.01.2013
Berühmte Enigma-Nachricht geknackt!

datensicherheit.de, 06.10.2012
Abhörsicherer Datenaustausch per Quantenkommunikation angestrebt

]]>
https://www.datensicherheit.de/kryptographie-vorbereitung-quantum-computing/feed 0
Leistungsfähige Computer: Ein Quäntchen Hoffnung https://www.datensicherheit.de/leistungsfaehige-computer-ein-quaentchen-hoffnung https://www.datensicherheit.de/leistungsfaehige-computer-ein-quaentchen-hoffnung#respond Mon, 30 Apr 2018 15:32:51 +0000 https://www.datensicherheit.de/?p=27505 Auswirkungen von Quantencomputern auf Kryptographie

Ein Gastbeitrag von Tim Schneider, Kryptologie-Experte bei der Telekom Security

[datensicherheit.de, 30.04.2018] In naher Zukunft rechnen Wissenschaftler mit leistungsfähigen Quantencomputern. Auf der einen Seite ein Segen – mit Blick auf medizinische Anwendungen – auf der anderen Seite wird es möglich sein grundlegende Verschlüsselungsverfahren, beispielsweise für das Internetbanking, effizient zu brechen. Dadurch ist sensibler Datenverkehr bereits heute gefährdet. Hacker könnten sensible Informationen – jetzt – verschlüsselt abfangen und speichern, um sie dann in zehn Jahren – oder früher – nachträglich durch einen Quantencomputer knacken zu lassen.

Dramatische Beschleunigung von Computern

Im Silicon Valley, wo sich unzählige Unternehmen aus der IT- und Hightech-Branche tummeln, ist man der „restlichen Welt“ nicht selten einen Schritt voraus. Südlich von San Francisco tüftelt etwa Suchmaschinen-Gigant Google an dem Megarechner. Dieser soll in wenigen Augenblicken Probleme lösen, wozu herkömmliche Computer heute noch Milliarden Jahre Rechenzeit benötigen. Medizinische Forschungen ließen sich forcieren, chemische Reaktionen optimieren, Suchalgorithmen beschleunigen und große Datenbestände schnell durchforsten. Google hat bereits einen Quantenchip mit 72 Qubits vorgestellt [1], Intel einen Chip mit 49 Qubits [2]. Und auch der Technologieriese IBM hat verlauten lassen, „in den nächsten Jahren“ einen universellen Quantenrechner als Cloud-Dienst auf den Markt zu bringen. [3]

Heutige Verschlüsslung wird unbrauchbar

An anderer Stelle werden diese Vorhaben durchaus mit Sorge betrachtet. Denn die heutige Kryptographie würde durch den Quantencomputer „auf den Kopf gestellt“ werden: Viele etablierte und weitverbreitete Algorithmen wie RSA, ECC, DH und ECDH lassen sich mit einem leistungsfähigen Quantencomputer im Handumdrehen knacken. Klassische Supercomputer sind damit überfordert. Die Übertragung von Passwörtern und anderen sensiblen Daten im Internet über das Protokoll TLS, besser bekannt unter der Vorgängerbezeichnung SSL, würde dann zum Risiko. Das gleiche gilt für IPsec, SSH, S/MIME oder OpenVPN – all diese Protokolle verwenden die genannten asymmetrischen Verschlüsselungsverfahren und könnten ohne große Anstrengung gebrochen werden.

Und im Hintergrund wird daran offenbar schon kräftig gearbeitet: Gerade die NSA baut anscheinend an einem Megacomputer, der die Quantenmechanik nutzt und Spähangriffe selbst auf Regierungen oder Behörden ermöglichen würde. Das berichtete die „Washington Post“ schon 2014 unter Berufung auf den ehemaligen Angestellten der NSA, Edward Snowden. Eine Warnung der NSA klingt in diesem Zusammenhang schon fast paradox: Vor einigen Jahren riet der Nachrichtendienst noch, möglichst bald auf neue Verschlüsselungsverfahren der Post-Quantum-Kryptographie umzusatteln.

Post-Quantum-Kryptographie: Suche nach dem Gegenmittel

Andererseits haben die USA ein Interesse daran, die vertraulichen Daten ihrer eigenen Behörden zu schützen; denn, was die NSA kann, können andere Geheimdienste auch. Den Ratschlag der NSA sollten Unternehmen daher beherzigen und als Gegenmittel Post-Quantum-Algorithmen einsetzen. Das Problem: Die Standardisierung zieht sich hin. Um die tägliche Sicherheit zu gewährleisten, ist das kaum ein Problem. Doch wenn es darum geht, Informationen mit einer Geheimhaltungsdauer oder Produkte mit einer Lebensdauer von mehr als 10 Jahren zu schützen, wird die Zeit knapp – je nachdem, wann der erste leistungsfähige und verwendbare Quantencomputer tatsächlich auftaucht.

Tim Schneider, Telekom

Bild: Telelkom

Tim Schneider, Telelkom

Aber auch bei der Anwendung in der täglichen Sicherheit gilt es sich Gedanken zu machen. Hacker könnten sensible Informationen jetzt verschlüsselt abfangen und speichern, um sie dann in zehn Jahren – oder früher – nachträglich durch einen Quantencomputer knacken zu lassen. Könnte unsere heutige Kommunikation in 10 Jahren noch jemanden interessieren? In der Regel wohl eher nicht, aber ausgeschlossen ist das nicht. Alles nur ein Hirngespinst? Wohl kaum. So ist zum Beispiel weitläufig bekannt, dass der US-Geheimdienst NSA verschlüsselte Daten so lange aufbewahren darf, bis er sie knacken kann. Entsprechend große Rechenzentren sind mittlerweile gut dokumentiert.

EU-Forschungsprojekt zu Post-Quantum-Kryptographie

Die Fortschritte in der Wissenschaft machen allerdings Hoffnung. Die EU unterstützt die Forschung auf dem Gebiet der Post-Quantum-Kryptographie, das 2015 gestartete Projekt PQCRYPTO (Post-Quantum Cryptography) fördert die EU-Kommission mit 3,9 Millionen Euro. Beteiligt sind Universitäten und Unternehmen aus elf Ländern, darunter die Ruhr-Universität Bochum und die TU Darmstadt. Die Forscher prüfen bekannte Post-Quantum-Algorithmen auf ihre Sicherheit und Anwendbarkeit, und optimieren sie zum Beispiel für das TLS-Protokoll.

Mit finalen Ergebnissen wird Ende 2018 gerechnet. Das Projekt hat aber auch schon zu Beginn [4] Empfehlungen veröffentlicht, die dem Stand der Forschung 2015 entsprechen. Die Forscher versuchen der technischen Realisierung von Quantencomputern einen Schritt voraus zu sein. Dies ist vergleichbar mit der Entwicklung von klassischen Computern zu Beginn des vergangenen Jahrhunderts. Bereits damals wurden theoretisch hocheffiziente Algorithmen entwickelt, bevor man diese Computer überhaupt praktisch realisieren konnte.

Wie Unternehmen sich auf das Quantenzeitalter vorbereiten

Damit der Übergang ins Quantenzeitalter nicht zum Security Alptraum wird, sollten sich Unternehmen schon jetzt schleunigst darauf vorbereiten, appelliert Enrico Thomae, Post-Quantum-Experte der operational services GmbH, einem Joint Venture zwischen Fraport und T-Systems. „Unternehmen sollten kritische Assets identifizieren und die Anforderung der Langzeitsicherheit in ihre Risikoanalyse mitaufnehmen, um Informationen und Produkte mit einer Geheimhaltungs- bzw. Lebensdauer von fünf bis 15 Jahren zu schützen.“ Thomae empfiehlt, für symmetrische Algorithmen wie etwa AES eine Schlüssellänge von 256 Bit zu wählen.

Unternehmen sind gut beraten, sich mit dem Thema Krypto-Agilität auseinanderzusetzen. Krypto-Agilität bedeutet, dass Algorithmen so eingesetzt werden, dass sie bei Bedarf schnell ausgetauscht werden können. Zusammen mit geeigneten Prozessen für die Um-Schlüsselung kann so auf neue Angriffsverfahren schnell reagiert oder im Falle der noch andauernden Standardisierung von Post-Quanten-Algorithmen der Weg für einen zukünftigen Austausch geebnet werden.

Eine abwartende Haltung könnte für Unternehmen auch an anderer Stelle teuer werden. „Im Bereich Internet of Things oder Vernetzte Fahrzeuge spielt Post-Quantum-Kryptographie heute schon eine wichtige Rolle“, sagt Thomae. Wenn Smart Home-Geräte oder Autos heute mit Standardalgorithmen geplant, die nächsten fünf Jahre produziert und dann weitere 15 Jahre genutzt werden, dann haben wir heute schon ein Problem, wenn in den nächsten 20 Jahren entsprechend große Quantencomputer auf den Markt kommen. „Remote Updates auf neue Algorithmen sind heute oft noch nicht Post-Quantum sicher realisiert“, erklärt Thomae. Ein Rückruf dieser Produkte bleibt als letzte Möglichkeit nach dem Quantum Break und müsse über die nächsten 20 Jahre daher eigentlich schon fest eingeplant werden – mit einem Schaden in Millionenhöhe. Die Umrüstung der Software in großen Unternehmen und Organisationen dauert Jahre, denn der Prozess von der Entscheidung bis zur Umsetzung kann äußerst langwierig sein. KRITIS-Unternehmen sind davon in hohem Maße betroffen.

Zeitlicher Puffer durch größere Schlüssellängen

Größere Schlüssellängen für asymmetrische Algorithmen verschaffen dem Kryptographie-Experten zufolge einen zeitlichen Puffer. Denkbar ist laut einigen Spezialisten eine Renaissance des Verschlüsselungsverfahrens RSA mit sehr großen Schlüssellängen. Denn um diese zu knacken, müssten wiederum entsprechend größere Quantencomputer entwickelt werden. Unternehmen könnten künftig aber auch hybride Verfahren einsetzen, also eine aktuelle Verschlüsselungsmethode mit einem neuen Post-Quanten-Algorithmus kombinieren. Unternehmen sollten sich bald für die für sie optimale Strategie entscheiden, denn sicher ist nur, dass Nichtstun die denkbar schlechteste Strategie ist. Die Zeit drängt, denn die Forscher sind sich weitgehend einig, dass es in absehbarer Zeit Quantencomputer geben wird. Und im Silicon Valley mahlen die Mühlen bekanntlich etwas schneller.

[1] https://research.googleblog.com/2018/03/a-preview-of-bristlecone-googles-new.html
[2] https://newsroom.intel.com/news/intel-advances-quantum-neuromorphic-computing-research/
[3] https://www.heise.de/newsticker/meldung/IBM-kuendigt-Quantencomputer-mit-20-Qubits-als-Web-Dienst-an-3888211.html
[4] https://pqcrypto.eu.org/docs/initial-recommendations.pdf

Weitere Informationen zum Thema:

datensicherheit.de, 21.02.2014
Quanten-Informationsverarbeitung: Wichtiger Schritt bei der Grundlagenforschung gelungen

datensicherheit.de, 06.10.2012
Abhörsicherer Datenaustausch per Quantenkommunikation angestrebt

]]>
https://www.datensicherheit.de/leistungsfaehige-computer-ein-quaentchen-hoffnung/feed 0
Verschlüsselung: Unsichere Algorithmen bei 50 % der schutzwürdigen Internetkommunikation https://www.datensicherheit.de/verschluesselung-unsicher-internet-kommunikation-algorithmen https://www.datensicherheit.de/verschluesselung-unsicher-internet-kommunikation-algorithmen#respond Fri, 06 Sep 2013 13:24:13 +0000 http://www.datensicherheit.de/?p=22313 TeleTrusT warnt vor Einfallstoren für Entschlüsselung / Anwender sollten sichere Verfahren wählen

[datensicherheit.de, 06.09.2013] TeleTrusT fordert Anwender auf, Server so zu konfigurieren, dass nur anerkannt sichere Verschlüsselungsalgorithmen zur Anwendung kommen. Nach Erkenntnissen des TeleTrusT – Bundesverband IT-Sicherheit e.V. wird bei 2% der gesamten Internetkommunikation SSL genutzt, bei 0,5 % IPsec. Diese Angaben beruhen auf Erhebungen des Institutes für Internetsicherheit if(is). Prozentual erscheint dies wenig, ist aber bezogen auf das gesamte Internet eine beachtliche Größe, zumal man annehmen kann, dass es sich bei diesen 2% um besonders schutzwürdige Datenübermittlung handelt.

Prof. Dr. Pohlmann, TeleTrusT-Vorsitzender und if(is)-Direktor: „Bei SSL-Kommunikation wird serverseitig automatisiert ein Profil ausgewählt, das Verschlüsselungsalgorithmen nutzt, z.B. RC4 oder DES-Varianten, von denen man annehmen kann, dass z.B. die NSA in der Lage ist, sie zu entschlüsseln.“

Alternativ ist beispielsweise „AES 256 Bit“ in Gebrauch, was nach derzeitigem Kenntnisstand nicht entschlüsselt werden kann.

Man muss vor diesem Hintergrund fragen, warum bei der Hälfte der schutzwürdigen Internetkommunikation möglicherweise unsichere Algorithmen verwendet werden. Ebenso muss man konstatieren, dass öffentlich verfügbare SSL-Technologie Schwachstellen aufweist, die z.B. von der NSA für Angriffe genutzt werden könnte.

TeleTrusT fordert Anwender in Deutschland in ihrem eigenen Interesse auf, Server so zu konfigurieren, dass nur anerkannt sichere Verschlüsselungsalgorithmen zur Anwendung kommen und stets die aktuellsten verfügbaren Software-Updates implementiert werden.

]]>
https://www.datensicherheit.de/verschluesselung-unsicher-internet-kommunikation-algorithmen/feed 0