Gastbeiträge – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Thu, 12 Mar 2026 07:06:12 +0000 de hourly 1 Zero Trust: Absicherung mobiler IoT- und OT-Systeme https://www.datensicherheit.de/zero-trust-absicherung-mobil-iot-ot-systeme https://www.datensicherheit.de/zero-trust-absicherung-mobil-iot-ot-systeme#respond Thu, 12 Mar 2026 07:03:02 +0000 https://www.datensicherheit.de/?p=53226 Gerade in diesen Bereichen ist der Datenverkehr bislang nur schwer oder nur mit großem Aufwand zu kontrollieren. Zudem spielt die Mobilität in vielen Einsatzbereichen eine Rolle.

Von unserem Gastautor Christoph Schuhwerk, CISO in Residence bei Zscaler

[datensicherheit.de, 12.03.2026] Zero Trust hat sich als Prinzip einer Sicherheitsarchitektur in vielen Unternehmen etabliert: Vertrauen wird nicht vorausgesetzt, sondern fortlaufend überprüft mit dem Ziel, Zugriffe und Datenflüsse konsequent nach dem „Least-Privilege“-Prinzip abzusichern. In klassischen IT-Umgebungen ist dieser Sicherheitsansatz angekommen, aber in Produktionsumgebungen oder Systemen mit mobilem IoT-Datenverkehr besteht noch Nachholbedarf.

In diesen Bereichen ist der Datenverkehr bislang nur schwer oder mit großem Aufwand zu kontrollieren. Dazu zählen insbesondere OT- und IoT-Systeme, bei denen Mobilität in vielen Einsatzbereichen eine Rolle spielt. Gerade hier wächst die Anzahl der Anwendungsfälle rasant und mit ihr die Notwendigkeit, Zero Trust so zu erweitern, dass auch diese Umgebungen zuverlässig und praktikabel abgedeckt werden.

Christoph Schuhwerk, CISO in Residence bei Zscaler

Christoph Schuhwerk, CISO in Residence bei Zscaler, Foto: Zscaler

Achillesferse der Datensicherheit

Im Zuge der Digitalisierung von großen Teilen der Industrie wird Flexibilität für Systeme und Mitarbeiter zunehmend zur Grundanforderung. Ein Beispiel sind Scanner im Warehouse-Management: Oft laufen diese Geräte nicht mit einem vollständigen Android-System, sondern mit einem stark reduzierten, geschlossenen System. Häufig kommen SIM-Karten zum Einsatz, über die das Gerät mit einem Gateway kommuniziert.

In der Praxis entstehen dadurch komplexe Kommunikationswege: Der Datenverkehr läuft beispielsweise beim Drucken von Labels über das Mobilfunknetz zu den Gateways der Mobilfunkbetreiber, von dort weiter zum Firmennetzwerk, dann zu einem Druckserver an einem anderen Standort und anschließend zum Drucker. Genau die Kommunikationskette kann zur Angriffsfläche werden. Nicht unbedingt weil einzelne Komponenten per se unsicher sind, sondern weil die Kette nur so stark ist wie ihr schwächstes Glied.

Ein weiteres typisches Szenario betrifft Maschinen, die nach der Inbetriebnahme weiterhin vom Hersteller überwacht und gewartet werden. Dafür werden beispielsweise Telemetriedaten oder Firmware-Updates übertragen. In der Vergangenheit wurden Zugriffsanforderungen oft mit eher improvisierten Methoden gelöst wie beispielsweise mit separaten Wartungs-Ports, die physisch verplombt wurden, oder über Fernwartungs-Zugänge, die zwar nur temporär geöffnet wurden, aber nicht durchgehend Ende-zu-Ende abgesichert waren. Denn irgendwo muss es immer eine Instanz geben, die den Traffic passieren lässt. Und genau dort ist die Achillesferse: eine kleine, aber entscheidende Schwachstelle, die immer wieder aufs Neue gefunden und geschlossen werden muss, wenn sichere Kommunikation gewährleistet sein soll.

Die SIM-Karte als Ausgangspunkt für Sicherheit

Viele der beschriebenen Use Cases entstehen dort, wo Geräte oder Dinge beweglich eingesetzt werden und über Mobilfunk kommunizieren müssen. In solchen Szenarien rückt die SIM-Karte als technischer Ankerpunkt in den Fokus: Genau hier findet der relevante und potenziell angreifbare Datenverkehr statt, den Angreifer als Einfallstor in weitere Netzbereiche nutzen könnten. Der Ansatz von Zero Trust Everywhere setzt deshalb möglichst nah am Gerät an und verschiebt den Beginn der Absicherung bis an den Kommunikationsursprung.

Konkret bedeutet das: Die SIM-Karte wird Bestandteil des Sicherheitskonzepts und der Datenverkehr wird direkt dort zu einem Microtunnel gebündelt und anschließend verschlüsselt Ende-zu-Ende übertragen. Auch der Mobilfunkanbieter kann den Traffic in diesem Modell nur verschlüsselt sehen, nicht jedoch die Inhalte. Geht ein Gerät verloren oder wird ein Gerät entwendet, kann es einzeln gesperrt werden. Dank Überprüfung des Gerätekontexts wird auch der Zugriff durch unautorisierte Parteien unterbunden. Umgekehrt fällt auch der Versuch der Manipulation der SIM-Karte auf und kann zur Sperrung des Geräts führen. Über einen Zero Trust-Ansatz z.B. mit Zscaler Cellular wird die Absicherung der Identität und des Datenflusses auch für mobile Endgeräte oder mobile und fahrbare Gegenstände einfach möglich.

Policies bleiben zentral, Netze werden austauschbar

Ein zentrales Ziel moderner Produktion ist eine weitgehend automatisierte Fertigung (Stichwort: „Dark Factory“). Teil- oder voll-autonome Roboter, Komponenten und Geräte müssen dabei kontinuierlich überwacht und kontrolliert werden, ohne die betriebliche Flexibilität zu verlieren. Genau hier stoßen klassische Netzwerkmodelle häufig an ihre Grenzen: Wenn ein Gerät den Standort wechselt, ist es oft zu aufwändig, Netzwerk-Policies immer wieder neu anzupassen und am alten Ort sauber zurück zu bauen.

Das Zero Trust Everywhere-Prinzip eliminiert diesen Aufwand, indem es die Security vom darunterliegenden Transportnetz entkoppelt: Die Policy wird Cloud-basiert vorgehalten und überwacht, während das Netzwerk selbst nur als Transportmedium fungiert. Damit spielt es für die Durchsetzung der Sicherheitsregeln keine entscheidende Rolle, ob ein Gerät über WLAN, 5G oder eine andere Technologie kommuniziert, wo es sich befindet oder wie schnell die Anbindung ist – solange eine Internetverbindung besteht.

Entscheidend dabei ist es, die starke Sicherheitskette möglichst früh zu beginnen und möglichst spät – also so nah wie möglich am anfragenden Gerät und am Datensatz – zu beenden und zwischen den Punkten eine durchgehende Verschlüsselung aufrechtzuerhalten. Auf diese Weise wird Zero Trust auf Teile des Ökosystems ausgedehnt, die bisher nur eingeschränkt erreichbar waren.

In solchen Anwendungsbereichen erkennen Unternehmen, dass Cybersicherheit nicht bei klassischen IT-Endpunkten enden darf. Eine stärker automatisierte und mobilere Industrie muss den Schutz konsequent auf Geräte ausweiten, die in OT-/IoT-Umgebungen betrieben werden und über SIM-Karten kommunizieren. Wird die SIM-Karte als Beginn der Verschlüsselung und Policy-Durchsetzung verstanden, lassen sich auch bislang schwer greifbare Datenflüsse kontrolliert gestalten. Ein solches Umdenken geht mit einem weiteren Schritt in Richtung allumfassender Cyber-Resilienz einher.

Zero Trust – Executive Overview

  • Zero Trust muss über klassische IT hinaus gedacht werden, weil mobile OT- und IoT-Systeme zunehmend kritische Datenflüsse erzeugen.
  • In verteilten Kommunikationsketten entsteht ein Risiko dort, wo Datenverkehr durchgelassen oder nur teilweise abgesichert wird.
  • Zero Trust Everywhere setzt möglichst nahe am Gerät an und nutzt die SIM-Karte als technischen Anker, damit Verschlüsselung frühestmöglich beginnt.
  • Der gesamte Traffic wird über einen Microtunnel Ende-zu-Ende verschlüsselt übertragen, sodass auch Netzbetreiber nur verschlüsselte Daten sehen.
  • Cloud-basiert werden Policies über einen Sicherheitsbroker umgesetzt, während das Transportnetz austauschbar wird.

Weitere Informationen zum Thema:

datensicherheit.de, 27.01.2026
Post-Quantum-Readiness: Akuter Anspruch für die Datensicherheit der Zukunft

datensicherheit.de, 11.02.2025
OT-Sicherheit: Klassischer AirGap-Ansatz ist Illusion

]]>
https://www.datensicherheit.de/zero-trust-absicherung-mobil-iot-ot-systeme/feed 0
Angriff auf die digitale Lebensader: Telekommunikation ist die Königsklasse für die Cyberkriminalität https://www.datensicherheit.de/angriff-digital-lebensader-telekommunikation https://www.datensicherheit.de/angriff-digital-lebensader-telekommunikation#respond Wed, 11 Mar 2026 16:15:30 +0000 https://www.datensicherheit.de/?p=53216 Telekommunikationsunternehmen sind für Cyberkriminelle und staatlich gesteuerte Angreifer besonders attraktiv, da diese nicht nur große Mengen an sensiblen Kundendaten speichern, sondern auch als Einfallstor für weiterführende Angriffe auf andere kritische Infrastrukturen und Organisationen dienen.

Ein Kommentar von unserem Gastautor Michael Veit, Cybersicherheitsexperte bei Sophos

[datensicherheit.de, 11.03.2026] Cyberattacken auf Telekommunikationsinfrastrukturen treffen nicht nur einzelne Anbieter, sondern eine wichtige Lebensader für Wirtschaft, Gesellschaft und Politik. Die dramatischen Auswirkungen wurden kürzlich wieder deutlich, als Cyberkriminelle im Februar 2026 in die Systeme von Odido, dem größten Mobilfunkanbieter der Niederlande, eindrangen und Daten von 6,2 Millionen Kunden stahlen. Die Angreifer erbeuteten Namen, Adressen, Bankverbindungen sowie teilweise sogar Passinformationen, drohten mit der Veröffentlichung der Daten und forderten ein Lösegeld. Odido lehnte die Erpressung ab, informierte umgehend die niederländische Datenschutzbehörde (AP) und startete die Kommunikation mit ihren Kunden. Der Vorfall zeigt die Verwundbarkeit kritischer Infrastrukturen trotz Vorgaben wie NIS2, und welche systemischen Risiken von solchen Angriffen ausgehen.

Michael Veit, Cybersicherheitsexperte bei Sophos

Michael Veit, Cybersicherheitsexperte bei Sophos, Bild: Sophos

Die Experten des Sophos X-Ops Research-Teams warnen: Gestohlene Daten dieser Art sind eine Goldgrube für Kriminelle und können für Identitätsdiebstahl, Betrug, gezielte Spionage oder gesellschaftliche Einflussnahme genutzt werden. Der Odido-Fall zeigt deutlich, dass derartige Cyberangriffe nicht nur auf Daten und Erpressung abzielen, sondern auch auf die Destabilisierung kritischer Infrastrukturen und Gesellschaften.

Sprungbrett Telekommunikation

Telekommunikationsunternehmen sind für Cyberkriminelle und staatlich gesteuerte Angreifer besonders attraktiv, da diese nicht nur große Mengen an sensiblen Kundendaten speichern, sondern auch als Einfallstor für weiterführende Angriffe auf andere kritische Infrastrukturen und Organisationen dienen. Der Zugriff auf Kommunikationsdaten ermöglicht es Angreifern, persönliche Netzwerke zu analysieren, etwa von Politikern, Militärs oder Geschäftsleuten, und gezielt Spionage oder Erpressung zu betreiben. Ein kompromittierter Telekommunikationsanbieter ist zudem der Türöffner für Angriffe auf Banken, Krankenhäuser oder Regierungsnetzwerke, was sie zu einem „Single Point of Failure“ mit systemischen Risiken für alle Industriesektoren macht. Fällt ein solches Netzwerk aus, sind die Adern der Wirtschaft und Gesellschaft betroffen – von Finanztransaktionen bis zu Notfalldiensten.

Gezielte Angriffe auf Telekommunikation

In Krisenzeiten können Angreifer Telekommunikationsnetzwerke gezielt lahmlegen oder manipulieren, um Chaos zu stiften. Beispiele wie der Angriff auf Viasat KA-SAT (Februar 2022), der während der russischen Invasion die Satellitenkommunikation in der Ukraine und Europa unterbrach und sogar die Fernwartung von 5.800 deutschen Windkraftanlagen lahmlegte. Diese Vorfälle verdeutlichen die Kaskadeneffekte, die von Angriffen auf Telekommunikationsnetzwerke ausgehen können. Doch längst nicht alle Angriffe zielen auf sofortige Zerstörung oder Erpressung ab. Gruppen wie Bronze Tiger (China) infiltrieren Telekommunikationsinfrastrukturen, um langfristig Daten zu sammeln – etwa für politische oder wirtschaftliche Spionage. Solche Angriffe bleiben oft jahrelang unentdeckt, untergraben aber das Vertrauen in digitale Kommunikation und können strategische Vorteile für die Angreifer schaffen. Die Bedrohung ist dabei nicht nur technischer Natur, sondern betrifft auch die Glaubwürdigkeit ganzer Gesellschaftssysteme, etwa wenn Bankdaten oder Regierungsinformationen kompromittiert werden.

Überwachung, Erkennung und frühe Reaktion

Angesichts dieser Bedrohungen müssen Telekommunikationsunternehmen und andere Betreiber Kritischer Infrastrukturen proaktiv handeln. Ein zentraler Schritt ist eine risikobasierte Sicherheitsstrategie, die mit einer vollständigen Bestandsaufnahme aller IT-Assets beginnt. Nur wer weiß, welche Daten und Systeme geschützt werden müssen, kann gezielt handeln. Entscheidend aber ist eine umfassende Überwachung, um Angriffe mit Hilfe von KI und menschlichen Security-Experten frühzeitig zu erkennen. Wer mit kontinuierlicher Überwachung eine Bedrohung im Anfangsstadium erkennt, ist in der Lage, einen Angriff und gravierende Schäden für den KRITIS-Anbieter und die gesamte Kommunikationskette abzuwenden.

Weitere Informationen zum Thema:

datensicherheit.de, 18.02.2026
Dragos’ Cybersecurity Report 2026 zur OT-Bedrohung: Ransomware-Angreifer erhöhen operativen Druck auf industrielle Infrastrukturen und KRITIS

datensicherheit.de, 20.04.2025
Kritische Infrastrukturen: Jede zweite Organisation unzureichend vor Cyber-Attacken in der Lieferkette geschützt

]]>
https://www.datensicherheit.de/angriff-digital-lebensader-telekommunikation/feed 0
OpenClaw: Abwägen zwischen Produktivität und Sicherheitsrisiko   https://www.datensicherheit.de/openclaw-produktivitaet-sicherheitsrisiko https://www.datensicherheit.de/openclaw-produktivitaet-sicherheitsrisiko#respond Mon, 09 Mar 2026 14:57:57 +0000 https://www.datensicherheit.de/?p=53131 Die Installation eines solchen KI-Tools auf einem persönlichen Gerät bedeutet die Übergabe von Administratorrechten für Unix-ähnliche Systeme oder vollständige Administratorberechtigungen unter Windows.

Ein Kommentar von unserem Gastautor Sam Curry, VP und CISO in Residence bei Zscaler

[datensicherheit.de, 09.03.2026] OpenClaw ist eines dieser Tools, das wie ein Produktivitäts-Hack aussieht und sich wie ein Betriebsmodell verhält. Sobald es installiert ist, klinkt es sich übergreifend in Anwendungen und Kernfunktionen des Betriebssystems ein, sodass es im Namen eines Users agieren kann. Es ermöglicht dem Benutzer ein Umdenken von der Bedienung von Menüs und einer Abfolge von Arbeitsschritten hin zu gewünschten Absichten. Ein Sprachbefehl, eine Abstraktionsschicht, und plötzlich fühlt sich der Computer weniger wie eine Maschine an, sondern eher wie eine Erweiterung des Menschen. Alle Macht wird an einem Ort gebündelt und die Komplexität verschwindet. Der User erhält eine neue Dimension für die Umsetzung seiner Ziele und Absichten, die zuvor nicht denkbar war. Der Funktionsumfang und die versprochene Produktivitätssteigerung durch OpenClaw haben etwas Magisches an bisher nicht denkbarer Automatisierung an sich.

Sam Curry, VP und CISO in Residence bei Zscaler

Sam Curry, VP und CISO in Residence bei Zscaler, Bild: Zscaler

Openclaw – Die Sicherheit bleibt auf der Strecke

Das Problem dabei: die gleiche Konsolidierung der Fähigkeiten konsolidiert auch die Risiken. Die Installation eines solchen Tools auf einem persönlichen Gerät bedeutet die Übergabe von Administratorrechten für Unix-ähnliche Systeme oder vollständige Administratorberechtigungen unter Windows. Ausgestattet mit diesen Rechten kann OpenClaw umsetzen, was normalerweise Aufwand beim User verursacht: Prompts, Passwörter, Genehmigungen.

Einfach ausgedrückt: Die Sicherheitsvorkehrungen, die den Menschen zum Innehalten zwingen, werden damit unterlaufen. Das Tool ist so konzipiert, dass es für den User entscheiden und in seinem Namen handeln kann.

Dieses Ausmaß an gewährten Berechtigungen auf einem System kann jedoch katastrophale Folgen haben, wenn ein Malware-Akteur sich Zugang zum Tool verschaffen kann. Cyberkriminelle profitieren auf diese Weise von den gleichen Berechtigungen. Sie müssen sich nicht mehr durch verschiedene Kontrollen und Tools kämpfen, ihnen fällt der unbegrenzte Zugriff auf die Abstraktionsebenen gewissermaßen in den Schoß.

Für Unternehmen läuten Alarmglocken

Es wundert nicht, dass die erste Reaktion von Unternehmen zu einem Verbot eines solch leistungsfähigen, aber gefährlichen Tool führt. OpenClaw macht das User-Gerät  zum ultimativen Perimeter. Und die meisten Unternehmen haben bereits Schwierigkeiten, den eigentlichen Perimeter um das Unternehmensnetzwerk sicher zu gestalten. OpenClaw führt zum genauen Gegenteil der Kontrollfunktion auf Basis der geringstmöglichen Zugriffsberechtigungen innerhalb des Computers: maximales Vertrauen, maximaler Zugriff, verpackt auf einer userfreundlichen Oberfläche.

Ein erfahrener Angreifer könnte sich zwar auf herkömmliche Weise Zugang zu einem System verschaffen. Ein solcher Prozess geht in aller Regel jedoch mit einem zeitaufwändigen Durchforsten des Systems voller Hindernisse und potenzieller Fehlerquellen einher, die zur Entdeckung führen können. Ein Toolkit wie OpenClaw verwandelt jedes User-Gerät in eine Tür – durchschreitet sie ein Angreifer, ist die Privatsphäre dahin. Das Tool hat die Macht eines Tors zur  IT-Umgebung, und genau das ist es, was Unternehmen zu Recht fürchten.

Die agentenbasierte KI-Zukunft geht mit Gefahren einher

Darüber hinaus gibt es ein weiteres potenzielles Risiko bei der Verwendung des Tools. Heutzutage führen KI-Agenten nicht nur Aktionen aus, sondern erwerben auch Fähigkeiten. Wenn das Tool dazu gebracht werden kann, Pakete herunterzuladen, auf Repositories zuzugreifen und Abhängigkeiten zu installieren, könnte auf der Ebene jeder einzelnen Maschine eine Lieferketten-Angriffsfläche entstehen. Laut der aktuellen Zscaler Resilienz-Umfrage rechnen fast zwei Drittel (62 Prozent) der deutschen IT-Führungskräfte damit, dass es innerhalb der nächsten zwölf Monate zu einer größeren Störung durch einen Lieferanten oder Drittanbieter kommen wird. OpenClaw hat das Potenzial, diese Störung innerhalb eines Lieferanten-Ökosystems in großem Maßstab zu beschleunigen und damit die Widerstandsfähigkeit eines Unternehmens zu untergraben. Es hat die Fähigkeiten, mehr als nur den einzelnen User zu phishen. Es versetzt den KI-Agenten in die Lage, die Arbeit des Angreifers von der Installation eines Trojaners im Gebäude bis hin zu Administratorrechten zu erledigen und dies über eine userfreundliche Oberfläche.

Unternehmen sollten nicht in Panik geraten, sondern Maßnahmen ergreifen. Diese Tools versprechen ein beispielloses Produktivitätsniveau und IT-Teams müssen sich langfristig betrachtet damit arrangieren. Für die Unternehmens-IT gilt es, der Bedrohung einen Schritt voraus zu sein und Agenten als neue Arbeitskräfte mit eigener Identität zu behandeln, die gegen unberechtigten Zugang abgesichert werden. Dazu ist eine Verschärfung der Installations- und Berechtigungsgrenzen notwendig. Mit einer Zero Trust-basierten Sicherheitsplattform können IT-Teams Verteidigungsmaßnahmen ergreifen, die nicht zu Produktivitätsverlusten für die User führen. Auf diese Weise erhält die IT die Möglichkeit, die Authentifizierung zu modernisieren und nachzuweisen, wer Aktionen durchführt – selbst wenn es sich um KI-Agenten handelt, die anstelle von Menschen agieren.

Weitere Informationen zum Thema:

datensicherheit.de, 25.11.2019
Zero Trust: Warum die Zeit gerade jetzt dafür reif ist

]]>
https://www.datensicherheit.de/openclaw-produktivitaet-sicherheitsrisiko/feed 0
Monitoring von Cloud-Datenbanken: Transparenz und Kontrolle in dynamischen IT-Umgebungen https://www.datensicherheit.de/monitoring-cloud-datenbanken-transparenz https://www.datensicherheit.de/monitoring-cloud-datenbanken-transparenz#respond Sat, 07 Mar 2026 16:41:38 +0000 https://www.datensicherheit.de/?p=53068 Die Datenspeicherung hat sich in den letzten Jahren erheblich verändert. Im Fokus der aktuellen digitalen Infrastruktur stehen neben der Migration in die Cloud insbesondere auch der Betrieb und das Management von Cloud-Datenbanken. Unternehmen verarbeiten Arbeitslasten in einem bislang unbekannten Umfang – Cloud-Datenbank-Management macht das möglich, indem es den Wartungsaufwand reduziert und zudem Flexibilität und Effizienz erhöht. 

Ein Kommentar von unserer Gastautorin Theresa Lettenmeier, Sales Manager New Business bei Paessler

[datensicherheit.de, 07.03.2026] Die Datenspeicherung hat sich in den letzten Jahren erheblich verändert. In klassischen IT-Umgebungen waren Rechenzentren voller physischer Server in Racks, die viel Platz in klimatisierten Räumen beanspruchten und rund um die Uhr von Teams aus Datenbankadministratoren überwacht wurden.
Im Fokus der aktuellen digitalen Infrastruktur steht jedoch das Management von Cloud-Datenbanken. Unternehmen verarbeiten Arbeitslasten in einem bislang unbekannten Umfang – Cloud-Datenbank-Management macht das möglich, indem es den Wartungsaufwand reduziert und zudem Flexibilität und Effizienz erhöht.

Theresa Lettenmeier, Sales Manager New Business bei Paessler

Theresa Lettenmeier, Sales Manager New Business bei Paessler, Bild: Paessler

Gleichzeitig ist auch das Monitoring ein wichtiger Bestandteil beim Management von Cloud-Datenbanken und hilft dabei, Probleme, Engpässe und Anomalien frühzeitig zu erkennen.Cloud-Datenbanken unterscheiden sich grundlegend von herkömmlichen Datenbanken. Schließlich sind sie nicht einfach lokale (On-Premises-)Datenbanken, die in die Cloud verlagert wurden. Cloud-Datenbanken laufen in virtualisierten Umgebungen, die auf der Infrastruktur und den Services von Cloud-Anbietern wie AWS, Google Cloud oder Azure basieren. Zwar erfüllen Cloud-Datenbanken weiterhin die Kernfunktionen eines Datenbankmanagementsystems (DBMS), also das Speichern, Organisieren und Abrufen von strukturierten und unstrukturierten Daten. Gleichzeitig sind sie jedoch speziell für den Betrieb in Cloud-Umgebungen konzipiert. Der administrative Aufwand für Hardware, Serverwartung sowie für Updates von Datenbank- und Infrastruktursoftware liegt in der Verantwortung der Cloud-Anbieter. Interne Teams können sich dadurch stärker auf die Anwendungsentwicklung, das Schreiben von Code und die Geschäftslogik konzentrieren. Cloud-Datenbanken ermöglichen zudem eine automatische Skalierung der Ressourcen innerhalb weniger Minuten, exakt angepasst an den tatsächlichen Bedarf.

Vorteile und Herausforderungen von Cloud-Datenbanken

Ganzheitliches Cloud-Datenbank-Management bietet zahlreiche klare Vorteile im Vergleich zu klassischen Modellen. Dazu gehören unter anderem flexible Skalierbarkeit, kosteneffizienter Betrieb, hohe Verfügbarkeit, Disaster Recovery sowie verbesserte Sicherheit und Compliance.

Gleichzeitig bringt Cloud-Datenbank-Management auch Herausforderungen mit sich, auf die Unternehmen vorbereitet sein müssen. So wird beispielsweise die Anbindung von Netzwerken häufig unterschätzt, stellt jedoch eine kritische Abhängigkeit dar. Schließlich erfolgt der Zugriff auf Cloud-Datenbanken im Gegensatz zu On-Premises-Datenbanken über das Internet. Wenn die Netzwerkverbindung abbricht, können Cloud-Datenbanken unter Umständen nicht mehr erreicht werden. Daher sollten Unternehmen redundante Internetanbindungen einrichten und hybride Architekturen in Betracht ziehen.

Migration von On-Premises-Datenbankservern in die Cloud wird oft unterschätzt

Häufig unterschätzt wird auch die Migration von On-Premises-Datenbankservern in die Cloud, weil dies viel Zeit in Anspruch nehmen kann. Die Umstellungen von Datenbankschemata, der Datentransfer, die Anpassung von Anwendungen sowie umfangreiche Tests erfordern sorgfältige Planung und kontinuierliches Monitoring. Zudem müssen Kosten genau im Blick behalten und optimiert werden. Unternehmen sollten den Ressourcenverbrauch genau beobachten und die Abfrage-Performance kontinuierlich optimieren, um die benötigte Rechenzeit zu reduzieren.

Best Practices für das Monitoring von Cloud-Datenbanken

Ein wichtiger Bestandteil des Managements von Cloud-Datenbanken ist auch das Monitoring der Datenbanken. So lassen sich Performance, Sicherheit und Zuverlässigkeit sicherstellen. Ohne ein geeignetes Monitoring können sich Performance-Probleme lange unbemerkt entwickeln, bevor sie schließlich zu Ausfällen mit schwerwiegenden Folgen führen. Als Grundlage für einen stabilen und zuverlässigen Betrieb macht Datenbank-Monitoring IT-Teams frühzeitig auf potenzielle Probleme und Anomalien aufmerksam. So können entsprechende Maßnahmen zur Behebung ergriffen werden, bevor sich die Probleme ausbreiten. Außerdem lassen sich Ressourcen effizient steuern und kostspielige Ausfallzeiten vermeiden.

Für ein ganzheitliches und zuverlässiges Monitoring von Cloud-Datenbanken sollten Sie Folgendes im Blick haben:

  • Umfassende Sichtbarkeit implementieren: Beim Monitoring sollten zentrale Kennzahlen wie Abfrage-Performance, Anzahl der Verbindungen, Speicherauslastung oder Replikationsverzögerungen kontinuierlich überwacht werden. So lassen sich Probleme erkennen, bevor sie sich auf Anwender auswirken.
  • Datenbankschemata optimieren: Schemata sollten konsequent an die jeweiligen Datenzugriffsmuster angepasst werden. Saubere Indizierung, Partitionierung und Normalisierung verbessern die Abfrage-Performance erheblich.
  • Automatisierung nutzen: Infrastructure-as-Code-Tools ermöglichen die automatisierte Bereitstellung, Konfiguration und Skalierung von Datenbanken und reduzieren so manuelle Fehlerquellen.
  • Disaster Recovery einplanen: Backup- und Wiederherstellungsprozesse sollten regelmäßig getestet werden. Für geschäftskritische Datenbanken empfiehlt sich zudem eine Replikation über mehrere Regionen hinweg.
  • Zugriffe konsequent absichern: Das Prinzip der minimalen Rechtevergabe (Least Privilege) sollte konsequent umgesetzt werden. Regelmäßige Credential-Rotationen sowie Netzwerkisolation tragen zusätzlich zum Schutz sensibler Daten bei.

Fazit

Angesichts von exponentiell wachsenden Datenmengen und der Erwartungen an immer geringere Antwortzeiten von Anwendungen wird sich das Cloud-Datenbank-Management weiter rasant entwickeln. Um sicherzustellen, dass die Cloud-Datenbank jederzeit zuverlässig funktioniert, und um Probleme frühzeitig zu erkennen, sollten IT-Teams auch das Monitoring von Cloud-Datenbanken berücksichtigen. Monitoring-Tools ermöglichen die Überwachung von Performance, Konnektivität und Ressourcen-Nutzung von Cloud-Datenbanken zentral und in Echtzeit. Dies hilft dabei, Cloud-Datenbank-Infrastrukturen zu optimieren und Kosten zu senken.

Weitere Information zum Thema:

datensicherheit.de, 12.09.2025
OT-Monitoring: Die fünf größten Herausforderungen und Lösungsansätze

]]>
https://www.datensicherheit.de/monitoring-cloud-datenbanken-transparenz/feed 0
Vier Säulen der Cyber-Resilienz https://www.datensicherheit.de/vier-saeulen-der-cyber-resilienz https://www.datensicherheit.de/vier-saeulen-der-cyber-resilienz#respond Tue, 03 Mar 2026 14:04:34 +0000 https://www.datensicherheit.de/?p=52965 In einer Erhebung von Absolute Security gaben 83 Prozent der befragten CISOs an, dass Cyber-Resilienz wichtiger sei als traditionelle Cybersicherheitsmaßnahmen, und 90 Prozent hätten bereits eine Resilienzstrategie in ihrem Unternehmen umgesetzt.

Von unserem Gastautor Harold Rivas, Chief Information Security Officer (CISO), Absolute Security

[datensicherheit.de, 03.03.2026] Trotz langjähriger Investitionen in Abwehrmaßnahmen nehmen Cyberangriffe und kostspielige Ausfallzeiten weiter zu. Traditionelle Sicherheitsmethoden zur Bedrohungsprävention und -erkennung bleiben zwar nach wie vor relevant, doch unter CISOs zeigt sich eine Veränderung in der Herangehensweise. Viele erweitern ihr Aufgabengebiet, um zusätzlich die Leitung von Wiederherstellungsmaßnahmen nach Sicherheitsvorfällen zu übernehmen, damit ihr Unternehmen rasch wieder betriebsbereit ist. Dieser Trend spiegelt sich in einer aktuellen Erhebung von Absolute Security wider: 83 Prozent der befragten CISOs gaben an, dass Cyber-Resilienz wichtiger sei als traditionelle Cybersicherheitsmaßnahmen, und 90 Prozent haben bereits eine Resilienzstrategie in ihrem Unternehmen umgesetzt.

Harold Rivas, Chief Information Security Officer (CISO), Absolute Security

Harold Rivas, Chief Information Security Officer (CISO), Absolute Security, Bild: Absolute Security

Der Begriff der Cyber-Resilienz ist in der Security-Branche heute allgegenwärtig. Damit das Konzept echte Wirkung entfalten kann, muss es als strategische Notwendigkeit begriffen werden, bei denen Unternehmen nicht nur die Fähigkeit erwerben, Angriffen standzuhalten, sondern auch besser auf sie vorbereitet zu sein und gestärkt aus ihnen hervorzugehen.

Definition von Cyber-Resilienz

Ein guter Ausgangspunkt ist die Definition des National Institute of Standards and Technology (NIST), das Cyber-Resilienz als die Fähigkeit beschreibt widrige Umstände, Belastungen, Angriffe oder Kompromittierungen zu antizipieren, ihnen standzuhalten, sich von ihnen zu erholen und sich an sie anzupassen. Für CISOs, die diesen Ansatz verfolgen, bedeutet dies eine Verlagerung des Fokus von rein defensiven Strategien hin zu einem integrierteren und proaktiveren Ansatz. Es reicht nicht mehr aus, nur zu versuchen, das Unvermeidliche zu verhindern. Sicherheitsverantwortliche müssen ihre Unternehmen darauf vorbereiten, Cyberangriffe und ihre Auswirkungen zu bewältigen sowie Geschäftsbetrieb und -kontinuität vollständig und so schnell wie möglich wiederherzustellen.

Von der Prävention zur Resilienz

Bei der Cyber-Resilienz geht es nicht darum, alle Risiken zu beseitigen, sondern vielmehr darum, Systeme und Prozesse zu schaffen, die Angriffen standhalten, ohne dass es zu massiven Störungen oder Ausfallzeiten kommt. Der Übergang von präventionsorientierten Strategien zu resilienzorientierten Frameworks ist für den langfristigen Schutz entscheidend. Um dies zu unterstützen, sind vier wichtige Säulen unerlässlich, damit Cyber-Resilienz als zentrale organisatorische Fähigkeit und nicht als eine reaktive Maßnahme verankert wird.

Säule 1: Maximale Sichtbarkeit und Kontrolle der Endpunkte

Cyber-Resilienz beginnt mit einer vollständigen Sichtbarkeit und Kontrolle über jeden Endpunkt. CISOs müssen sicherstellen, dass Geräte auch dann geschützt und verwaltbar bleiben, wenn der primäre Agent ausfällt. Bei der Transparenz geht es nicht nur darum zu wissen, was sich im Netzwerk befindet, sondern auch um das Verständnis, wie sich diese Ressourcen verhalten, wie sie konfiguriert sind und unter Druck reagieren.

Säule 2: Aufrechterhaltung der Kontrollhygiene

Die Zuverlässigkeit der bestehenden Sicherheitskontrollen ist ebenfalls unverzichtbar. Konfigurationsabweichungen sind eine ständige Herausforderung, da Sicherheitstools im Laufe der Zeit deaktiviert oder falsch konfiguriert werden. Untersuchungen von Absolute Security zeigen, dass bis zu 25 Prozent der Sicherheitskontrollen zu einem bestimmten Zeitpunkt eventuell nicht im gewünschten Zustand sind. Die Sicherstellung der vollen Funktionsfähigkeit kritischer Anwendungen trägt dazu bei, dass diese auch unter Druck effektiv arbeiten. Eine starke Kontrollhygiene erfordert eine kontinuierliche Validierung, und CISOs müssen automatisierte Prüfungen und Korrekturmaßnahmen implementieren, damit die Kontrollen über den gesamten Lebenszyklus jedes Geräts hinweg intakt bleiben.

Säule 3: Implementierung einer Zero-Trust-Architektur (ZTNA)

Hierbei spielt der Zero-Trust-Ansatz eine entscheidende Rolle, bei dem jede Geräte- und Benutzeranfrage überprüft wird. Zero Trust Network Access (ZTNA) ist kein einzelnes Tool, sondern ein strategischer Ansatz, der die Sicherheit von einem netzwerkzentrierten zu einem ressourcenorientierten Modell verlagert. ZTNA bietet eine granulare Kontrolle über Zugriffe und spezifische Aktionen und stellt sicher, dass nur autorisierte Benutzer und Geräte mit bestimmten Ressourcen interagieren können.

Säule 4: Schnelle Wiederherstellung und Anpassung

Zudem ist es wichtig, sich auf die Fähigkeit zu einer schnellen Wiederherstellung nach Sicherheitsvorfällen konzentrieren. Dies umfasst mehr als nur Technologie, es bedeutet auch eine enge Zusammenarbeit mit DevOps- und SRE-Teams, um zu verstehen, was den operativen Betrieb des Unternehmens aufrechterhält. Durch die proaktive Simulation von Ausfällen und Angriffen wird die erforderliche Routine für eine schnelle, effektive Wiederherstellung aufgebaut. Cyber-Resilienz geht über den Schutz hinaus und konzentriert sich auf eine rasche Recovery sowie die kontinuierliche Anpassung von Maßnahmen. Durch die Analyse nach einem Vorfall können bestehende Kontrollen optimiert und die zukünftige Verteidigung gestärkt werden. Diese Entwicklung von Systemen, die Ausfällen standhalten, verwandelt Vorfälle in Lernmöglichkeiten und ermöglicht es Unternehmen, sich nach jeder Störung schneller zu erholen und gestärkt daraus hervorzugehen.

Resilienz als Kernstrategie verankern

Cyber-Resilienz ist eine Teamleistung. Um erfolgreich zu sein, muss sie gemeinsames Ziel der gesamten Organisation sein und bei der Unternehmensleitung beginnen. Bei der Strategieentwicklung von CISOs mit der Führungsebene sollten im Gespräch der Schutz des Geschäftsbetriebs durch eine Minimierung der Ausfallzeiten im Fokus stehen. Zugleich versetzt die Abstimmung proaktiver Maßnahmen mit der Führungsebene Sicherheitsteams in die Lage, im Ernstfall zielgerichtet und rasch zu handeln. Durch die Vorbereitung auf Ausfälle und die Schaffung einer einheitlichen Linie vom Vorstand bis hinunter zu den Mitarbeitern können CISOs eine Kernstrategie verankern, durch die Cyberattacken beherrschbare Zwischenfälle statt massiver Krisen sind.

Weitere Informationen zum Thema:

datensicherheit.de, 09.04.2025
Cyber-Resilienz statt bloße Cyber-Resistenz: 5 Tipps für mehr Widerstandsfähigkeit gegenüber -angriffen

]]>
https://www.datensicherheit.de/vier-saeulen-der-cyber-resilienz/feed 0
ISO/IEC 42001: Verantwortungsvolle KI – ein neuer Standard für Cybersicherheit https://www.datensicherheit.de/iso-iec-42001-ki-standard-cybersicherheit https://www.datensicherheit.de/iso-iec-42001-ki-standard-cybersicherheit#respond Thu, 26 Feb 2026 13:33:09 +0000 https://www.datensicherheit.de/?p=52871 Bis zur Einführung der Norm existierte kein global einheitlicher Standard, der Governance, Risikomanagement und Verantwortlichkeiten für KI-Systeme systematisch definiert. Die Norm schließt diese Lücke und bietet Organisationen einen strukturierten Rahmen, um KI sicher, nachvollziehbar und regulatorisch konform zu betreiben.

Von unserem Gastautor Max Heinemeyer, Global Field CISO, Darktrace

[datensicherheit.de, 26.02.2026] Die Einführung der ISO/IEC 42001 markiert einen wichtigen Meilenstein für die sichere und verantwortungsvolle Nutzung von Künstlicher Intelligenz (KI). Als weltweit erste Managementsystem-Norm für KI schafft sie einen strukturierten Rahmen – insbesondere für sicherheitskritische Bereiche wie die Cybersicherheit.

Max Heinemeyer, Global Field CISO, Darktrace

Max Heinemeyer, Global Field CISO, Darktrace, Bild: Darktrace

In einer Zeit, in der KI nicht nur Prozesse automatisiert, sondern zunehmend eigenständig Entscheidungen vorbereitet oder trifft, ist ein klar definiertes Governance-Modell unerlässlich. Gerade in sensiblen Umfeldern wie der Datenverarbeitung und IT-Sicherheit bietet ISO/IEC 42001 eine dringend benötigte Orientierung.

Warum ein KI-Standard notwendig ist

KI-Systeme sind heute weit mehr als unterstützende Werkzeuge. Sie priorisieren Sicherheitsvorfälle, analysieren große Datenmengen in Echtzeit und reagieren automatisiert auf Bedrohungen. Diese Fähigkeiten erhöhen die Geschwindigkeit und Effektivität der Cyberabwehr erheblich. Gleichzeitig entstehen neue Risiken: mangelnde Transparenz, algorithmische Verzerrungen, unklare Entscheidungslogiken oder zusätzliche Angriffsflächen für Manipulation.

Bis zur Einführung der ISO/IEC 42001 existierte kein global einheitlicher Standard, der Governance, Risikomanagement und Verantwortlichkeiten für KI-Systeme systematisch definiert. Die Norm schließt diese Lücke und bietet Organisationen einen strukturierten Rahmen, um KI sicher, nachvollziehbar und regulatorisch konform zu betreiben.

Die Struktur der ISO/IEC 42001

Im Kern definiert die Norm Anforderungen an ein „Artificial Intelligence Management System“ (AIMS). Die Struktur orientiert sich an etablierten ISO-Managementsystemen wie ISO/IEC 27001 und umfasst sieben zentrale Elemente:

Kontext der Organisation: Unternehmen müssen interne und externe Faktoren identifizieren, die Einfluss auf ihr KI-Managementsystem haben.

  • Führung: Die Unternehmensleitung trägt Verantwortung für Governance-Strukturen und stellt sicher, dass KI-Strategien klar definiert und umgesetzt werden.
  • Planung: Risiken und Chancen im Zusammenhang mit KI-Systemen müssen systematisch identifiziert, bewertet und dokumentiert werden.
  • Unterstützung: Ressourcen, Kompetenzen, Schulungen und Kommunikationsstrukturen sind bereitzustellen, um eine wirksame Steuerung des KI-Managementsystems zu gewährleisten.
  • Betrieb: Organisationen müssen Prozesse etablieren, die Entwicklung, Einsatz und Nutzung von KI-Systemen gemäß den definierten Richtlinien sicherstellen.
    Leistungsbewertung: Regelmäßige Überprüfung und Bewertung der Wirksamkeit des KI-Managementsystems sind verpflichtend.
  • Verbesserung: Das System muss kontinuierlich weiterentwickelt und an neue Risiken oder regulatorische Anforderungen angepasst werden.

Darüber hinaus enthält Annex A konkrete Kontrollziele, unter anderem zur Datennutzung, zum Lebenszyklus von KI-Systemen, zur Bewertung gesellschaftlicher Auswirkungen sowie zum Management von Drittanbieterrisiken.

Ein zentraler Aspekt der Norm ist die Kompatibilität mit bestehenden Standards wie ISO/IEC 27001 (Informationssicherheit) und ISO/IEC 27018 (Schutz personenbezogener Daten in Cloud-Umgebungen). Dadurch lässt sich KI-Governance in bestehende Compliance-Strukturen integrieren.

ISO/IEC 42001-Zertifizierung in der Praxis

Nach rund elf Monaten Implementierungsphase und erfolgreichen Stage-1- und Stage-2-Audits durch das British Standards Institute (BSI) gehört Darktrace zu den ersten Cybersicherheitsunternehmen weltweit mit ISO/IEC 42001-Zertifizierung.

Im Rahmen der Auditierung wurden Menschen, Prozesse und Technologien umfassend geprüft. Die Zertifizierung umfasst ein breites Spektrum an KI-Technologien – von maschinellen Lernverfahren über Bayes’sche Modelle und neuronale Netze bis hin zu graphentheoretischen Analysen und spezialisierten Large-Language-Models.

Diese Technologien kommen unter anderem bei Anomalieerkennung, autonomer Reaktion, Bedrohungsanalyse und forensischen Untersuchungen zum Einsatz.

Ein wesentlicher Unterschied liegt dabei im Ansatz der selbstlernenden KI: Systeme lernen das individuelle Normalverhalten jeder Kundenumgebung – von der Cloud über das Netzwerk bis zum E-Mail-Verkehr – ohne auf statische Regeln oder bekannte Angriffssignaturen angewiesen zu sein. Dadurch lassen sich auch bislang unbekannte Angriffe in Echtzeit identifizieren.

Bedeutung für Verantwortliche in der Datensicherheit

Für Fachkräfte im Bereich Datenschutz und Informationssicherheit bietet ISO/IEC 42001 konkrete Vorteile:

  • Strukturierte Dokumentation und Auditfähigkeit: Die Norm stellt ein prüfbares Rahmenwerk zur Bewertung von KI-Systemen bereit.
  • Regulatorische Vorbereitung: Mit zunehmender Regulierung – etwa durch den EU AI Act – gewinnt nachweisbare Governance an strategischer Bedeutung.
  • Vertrauensbildung: Eine Zertifizierung signalisiert Kunden, Partnern und Aufsichtsbehörden, dass KI nicht nur leistungsfähig, sondern auch verantwortungsvoll eingesetzt wird.

Damit fungiert ISO/IEC 42001 als internes Steuerungsinstrument und externes Vertrauenssignal zugleich.

Fazit: Ein notwendiger Schritt in die Zukunft

KI wird in der Cybersicherheit künftig eine noch zentralere Rolle einnehmen. Doch technologische Leistungsfähigkeit allein reicht nicht aus. Entscheidend ist ein Governance-Rahmen, der Transparenz, Kontrolle und kontinuierliche Verbesserung sicherstellt.

ISO/IEC 42001 ist kein rein regulatorisches Konstrukt, sondern ein praxisnahes Instrument für Organisationen, die KI verantwortungsvoll einsetzen möchten. Für Unternehmen im Bereich Datenschutz und Informationssicherheit empfiehlt es sich, die Norm frühzeitig in bestehende Managementsysteme zu integrieren – als Grundlage für eine nachhaltige und vertrauenswürdige KI-Strategie.

Über den Autor:

Max Heinemeyer ist ein Cyber-Sicherheitsexperte mit mehr als zehn Jahren Erfahrung in diesem Bereich. Sein Fokus liegt auf einer Vielzahl von Bereichen wie Penetrationstests, Red-Teaming, SIEM- und SOC-Beratung und die Jagd auf Advanced Persistent Threat (APT)-Gruppen. Bei Darktrace ist Heinemeyer eng mit den strategischen Kunden und Interessenten verbunden. Er arbeitet mit dem F&E-Team von Darktrace zusammen und gestaltet die Forschung zu neuen KI-Innovationen sowie deren verschiedenen defensiven und offensiven Anwendungen. Seine Erkenntnisse werden regelmäßig in internationalen Medien wie der BBC, Forbes und WIRED veröffentlicht. Er hat seinen Master of Science an der Universität Duisburg-Essen und seinen Bachelor of Science an der Dualen Hochschule Stuttgart in internationaler Wirtschaftsinformatik absolviert.

Weitere Informationen zum Thema:

datensicherheit.de, 21.01.2026
DAX-40-Unternehmen: Cybersicherheit von einer Randnotiz zum strategischen Kernthema

datensicherheit.de, 05.07.2016
KRITIS: TÜV Rheinland beschreibt fünf Vorteile der ISO 27001 für Betreiber

]]>
https://www.datensicherheit.de/iso-iec-42001-ki-standard-cybersicherheit/feed 0
Cyberrisiko Vibe Coding https://www.datensicherheit.de/cyberrisiko-ki-vibe-coding https://www.datensicherheit.de/cyberrisiko-ki-vibe-coding#respond Wed, 25 Feb 2026 16:31:23 +0000 https://www.datensicherheit.de/?p=52864 Zunehmend generiert KI Programmcode und nimmt Entwicklern Arbeit ab. Doch bei Vibe Coding ist Vorsicht geboten: der Code ist oft fehlerhaft und für die OT-Sicherheit mit Risiken behaftet. Es ist aufwändig, Anlagen gegen Angriffe von außen und Störungen durch Coding-Fehler zu schützen. Doch der Aufwand lohnt sich.

Ein Kommentar von unserem Gastautor Eduardo Moreno, Executive Industry Consultant bei Hexagon

[datensicherheit.de, 25.02.2026] 2025 hat KI Schätzungen zufolge rund 40 Prozent des Codes auf der ganzen Welt geschrieben. Dieses sogenannte „Vibe Coding“, das viele Unternehmen als Produktivitätssprung feiern, kann auf Kosten der Cybersicherheit gehen.

Eduardo Moreno, Executive Industry Consultant bei Hexagon

Eduardo Moreno, Executive Industry Consultant bei Hexagon, Bild: Hexagon

So zeigt eine aktuelle Studie von Apiiro: Mit ChatGPT-5 oder Claude schreiben Entwickler drei- bis viermal mehr Code als Kollegen ohne KI-Unterstützung. Gleichzeitig schleusen sie die zehnfache Menge an Risiken ein: durch ungeprüfte Open-Source-Abhängigkeiten, falsch gesetzte Cloud-Berechtigungen oder versehentlich veröffentlichte Zugangsdaten.

Slopsquatting: Wenn die KI Pakete erfindet

Neuerdings machen sich Hacker DIE Achillesferse der KI zunutze: Halluzinationen. Beim sogenannten „Slopsquatting“ nutzen Angreifer aus, dass Chatbots in Codebeispielen manchmal Bibliotheken oder Pakete, also wiederverwendbare Code-Bausteine, empfehlen, die plausibel klingen, aber nicht existieren. Sie sammeln die Namen solcher erfundenen Pakete, registrieren sie in den üblichen Paket-Ökosystemen und füllen sie mit Schadcode. Wer den KI-Vorschlag unkritisch übernimmt, hat eine Hintertür für Hacker installiert.

Fast 20 Prozent der von Chatbots empfohlenen Pakete existierten nicht, zeigte eine Untersuchung von über 500.000 Code-Samples. Das testete der Sicherheitsforscher Bar Lanyado anhand des am häufigsten halluzinierten Paketnamens. Innerhalb von drei Monaten luden 30.000 User Lanyados „Trojaner“ herunter.

Fachkräftemangel als Brandbeschleuniger

Dass solche Kniffe funktionieren, liegt nicht nur an der KI. Viele Unternehmen können den Output schlicht nicht zuverlässig prüfen. Es fehlt an Routine im Security-Audit von Code und Abhängigkeiten, an sauberem Berechtigungsmanagement und an Prozessen, die Fehlkonfigurationen früh abfangen. Durch den Fachkräftemangel wird auch Grundwissen, etwa über Zugriffskontrollen, Malware-Erkennung und einem verlässlichen Patch-Management, zum raren Gut.

Neben Attacken von außen können auch schlechte Softwarequalität und alltägliche Codierungsfehler verheerend wirken: ein Update zur falschen Zeit, eine fehlerhafte Policy, eine Konfiguration, die im IT-Netz harmlos wirkt und in der Operational Technology (OT) alles kippt. Wie schnell aus einem Fehler ein Flächenbrand wird, zeigte sich im Juli 2024: Ein fehlerhaftes Update von Crowdstrike führte weltweit zu Ausfällen bei Fluggesellschaften, Banken und Krankenhäusern.

Gefahrenquelle OT

Am heikelsten wird es an der Schnittstelle zwischen der digitalen und physischen Welt: in der Operational Technology. Das Institute for Homeland Security an der Sam Houston State University dokumentierte Vorfälle wie einen Cybersecurity-Patch an einer Gasturbine, der das kontrollierte Herunterfahren über das Leitsystem verhinderte. In einem anderen Fall legte ein Netzwerk-Scan mehrere kritische Umspannwerke lahm, weil Steuergeräte den Scan als Denial-of-Service-Angriff interpretierten.

Neben knappen Ressourcen, zusätzlich verschärft durch den Fachkräftemangel, ist ein häufiger Auslöser für Angriffe auf OT-Umgebungen banal: Unternehmen exponieren industrielle Steuerungssysteme im Internet.

Resilienz ist die neue Prävention

Ressourcenknappheit, unsaubere Prozesse rund um den Betrieb von Anlagen, fehlende OT-Governance und schlicht Unachtsamkeit zählen zu den größten Quellen für Ausfälle, Fehlfunktionen und Angriffe von außen. Angesichts dieser komplexen Gemengelage muss Cybersicherheit weiter gedacht werden als „Hackerabwehr“.

Die Maßnahmen für Cyberresilienz sind in der Theorie bekannt, in der Praxis oft lückenhaft: saubere Backups, dokumentierte Konfigurationsstände, Change Detection, mehrere verlässliche Wiederherstellungspunkte.

Solche Prozesse aufzusetzen ist mühsam und zeitintensiv, weil sie eine hochkomplexe Welt abbilden, Unmengen an Daten benötigen und ständig aktualisiert werden müssen. Dafür entsteht am Ende ein digitaler Zwilling sämtlicher Assets im Unternehmen. Mit diesem lässt sich planen, was, wann, wo wie aktualisiert werden muss, es lassen sich Angriffsszenarien simulieren und auch ein KI-generierter Code kann in einer virtuellen Umgebung sicher getestet werden.

Fehler, Angriffe und Ausfälle lassen sich nicht zu 100 Prozent verhindern. Aber das Risiko für gravierende Schäden sinkt, wenn alle Assets über ihren Lebenszyklus digital abgebildet sind. Dann lassen sich potenzielle Einfallstore identifizieren, Systeme wieder herstellen und sicherheitsrelevante Policies überprüfen. Der initiale Aufwand lohnt sich immer.

Weitere Informationenzum Thema:

datensicherheit.de, 20.01.2026
OT-Sicherheit: Mittels KI Verunsicherung überwinden und Vertrauen begründen

]]>
https://www.datensicherheit.de/cyberrisiko-ki-vibe-coding/feed 0
Olympische Winterspiele – Angriffe auf digitale Identitäten als größtes Cyberrisiko https://www.datensicherheit.de/olympia-2026-winter-digitale-identitaeten https://www.datensicherheit.de/olympia-2026-winter-digitale-identitaeten#respond Fri, 20 Feb 2026 17:28:07 +0000 https://www.datensicherheit.de/?p=52758

Die größte Herausforderung für die Cybersicherheit der Olympischen Winterspiele 2026 sind nicht Schadprogramme oder fehlende Sicherheitspatches, sondern Angriffe auf digitale Identitäten.

Von unserem Gastautor Mohamed Ibbich, Senior Director Solutions Engineering bei BeyondTrust

[datensicherheit.de, 20.02.2026] Reibungslose Abläufe bei den Olympischen Winterspielen in Mailand und Cortina basieren auf einer zuverlässigen IT-Infrastruktur. Akkreditierungssysteme, Live-Übertragungen und die Zeitmessung an den Wettkampfstätten erfordern ein effizientes Zusammenspiel der eingesetzten Dienste und Technologien. Grundlage für den sicheren Datenaustausch zwischen Applikationen und Softwaresystemen ist, dass Personen, Maschinen und Services verifiziert werden — insbesondere bei automatisierten Kommunikationsprozessen.

Mohamed Ibbich, Senior Director Solutions Engineering bei BeyondTrust

Mohamed Ibbich, Senior Director Solutions Engineering bei BeyondTrust, Bild: BeyondTrust

Herausforderung Cybersicherheit – Komplexe IT-Infrastruktur

Eine besondere Herausforderung besteht darin, dass alle Sportstätten miteinander vernetzt sind und erstmals zwei Städte als offizielle Gastgeber fungieren. Insgesamt verteilen sich die Wettbewerbe auf sechs verschiedene Orte, die mit digitaler Infrastruktur verbunden und synchronisiert werden. Für die Veranstalter in Mailand und Cortina rückt das Thema Cybersicherheit mehr denn je in den Fokus. Allein die geografische Ausdehnung über den italienischen Teil der Ostalpen erweitert die Angriffsfläche durch unterschiedliche Netzwerke, Mobilfunknetze, Cloud- und Administrationsprozesse.

Servicekonten, APIs, IoT-Sensoren…

Ein besonderes Augenmerk muss auf digitaler Identitätssicherheit liegen. Die Zahl maschineller und menschlicher Zugangskonten wächst exponentiell. Jede maschinelle Identität und jedes Personenkonto erhöht die Gefahr, dass Unbefugte sie für Seitwärtsbewegungen im Netzwerk nutzen. Für die Olympischen Winterspiele werden Millionen menschlicher und nicht-menschlicher Identitäten für einen kurzen Zeitraum bereitgestellt, modifiziert und wieder außer Betrieb genommen.

IT-Administratoren benötigen beispielsweise privilegierte Nutzerrechte, um Infrastruktur, Betrieb, Echtzeitübertragung und mehr unterstützen zu können. Und natürlich sind die Athleten, Trainer, Offiziellen, Freiwilligen, Medienvertreter, Dienstleister, Sponsoren, Einsatzkräfte und Zeitarbeiter in irgendeiner Form auf digitale gesteuerte Zugangsmöglichkeiten angewiesen.

Mehr maschinelle als personenbezogene Indentitäten 

Der Bedarf an maschinellen Identitäten übertrifft sogar die Summe menschlicher Konten um ein Vielfaches. Maschinenkonten verteilen sich oft über mehrere Systeme, Standorte und nicht verwaltete Geräte hinweg. Servicekonten, APIs, IoT-Sensoren, OT-Systeme und KI-Agenten benötigen allesamt eigene Zugangsdaten und Privilegien.

Viele Passwörter, Secrets und Einwahldaten werden für den vergleichsweise kurzen Zeitraum nicht aktualisiert. Übermäßig dimensionierte Nutzerrechte bleiben dauerhaft und können womöglich nicht ausreichend nachverfolgt werden. Die größte Herausforderung für die Cybersicherheit der Olympischen Winterspiele 2026 sind daher nicht Schadprogramme oder fehlende Sicherheitspatches, sondern Angriffe auf digitale Identitäten.

Goldphantasien für Hacker

Bei sicherheitstechnisch lückenhaften IT-Vorkehrungen kommen Bedrohungsakteure in Rekordzeit über die Ziellinie. Gestohlene Zugangsdaten ermöglichen ihnen unbemerkten Zugriff und Passwortwechsel sowie Datendiebstahl. Ohne die technischen Möglichkeiten, unbefugte Zugriffe zu unterbinden und Zugangskonten selektiv zu widerrufen, könnte ein einfacher Datenschutzverstoß zu einem massiven Sicherheitsvorfall werden. Cybersicherheitsexperten warnen, dass privilegierte Identitäten digitale Raubzüge vereinfachen und nicht-menschlichen Identitäten eine dauerhafte und unbemerkte Präsenz verschaffen.

Kontrolle von Identitäten und Privilegien essentiell

Die Voraussetzung für sicherheitstechnisch erfolgreiche Winterspiele ist, dass sich digitale Identitäten und Privilegien in großem Maßstab bei allen Teilnehmern vor Ort sowie bei Drittanbietern kontrollieren lassen. Jede Zugriffsanfrage, ob menschlich oder maschinell, muss authentifiziert, autorisiert und kontinuierlich überprüft werden, um bösartige Aktivitäten zu verhindern. Das bedeutet, dass Best Practices für Multi-Faktor-Authentifizierung (MFA) und privilegierte Zugriffe implementiert, gemeinsame Zugangsdaten abgeschafft sowie Netzwerksegmentierung und Just-in-Time-Zugriff durchgesetzt werden. Bei nicht-menschlichen Identitäten muss anhand von „Secure by Design“-Identitätsprinzipien verfahren werden. Denn IT-Resilienz und IT-Prävention sind gleichermaßen wichtig.

Weitere Informationen zum Thema:

datensicherheit.de, 17.07.2025
EUDI-Wallet: Breites Bündnis fordert mehr Einsatz der Bundesregierung für Digitale Identitäten

]]>
https://www.datensicherheit.de/olympia-2026-winter-digitale-identitaeten/feed 0
Cybersicherheit – Wenn eine verzerrte Selbstwahrnehmung zum Sicherheitsrisiko wird https://www.datensicherheit.de/cybersicherheit-wahrnehmung-risiko-2026 https://www.datensicherheit.de/cybersicherheit-wahrnehmung-risiko-2026#respond Tue, 17 Feb 2026 16:47:51 +0000 https://www.datensicherheit.de/?p=52630 Ergebnisse einer aktuellen Studie zur Cybersicherheit zeigen: Zwischen der wahrgenommenen und der tatsächlichen Sicherheitslage klafft eine gefährliche Lücke. Und diese lässt sich nur mithilfe von Sichtbarkeit schließen.

Von unserem Gastautor Tiho Saric, Senior Sales Director bei Gigamon

[datensicherheit.de, 17.02.2026] Sind wir gegen Cyberangriffen bestmöglich aufgestellt? Eine Frage, die sich viele deutsche Sicherheits- und IT-Experten heute stellen – und mit Überzeugung mit „Ja!“ beantworten würden. Doch die Ergebnisse einer aktuellen Studie zeigen: Zwischen der wahrgenommenen und der tatsächlichen Sicherheitslage klafft eine gefährliche Lücke. Und diese lässt sich nur mithilfe von Sichtbarkeit schließen.

Tiho Saric, Senior Sales Director bei Gigamon

Tiho Saric, Senior Sales Director bei Gigamon, Bild: Gigamon

Wie kommt es, dass sich die meisten Sicherheits- und IT-Teams sicher sind, vor sämtlichen Cybergefahren gewappnet zu sein, während gleichzeitig knapp zwei Drittel der Unternehmen (63 Prozent) mindestens einmal Opfer eines erfolgreichen Angriffs wurden? Und warum ließ sich in 31 Prozent der Angriffsfälle die jeweilige Ursache nicht eindeutig identifizieren? Das deuten die Ergebnisse einer aktuellen Hybrid-Cloud-Security-Studie von Gigamon an. Demnach liegt die Antwort auf diese Fragen vermutlich weniger in der bewussten Selbstüberschätzung, sondern vielmehr in einem Mangel an Sichtbarkeit – also an der Fähigkeit, die eigene IT-Landschaft vollständig zu überblicken und bis ins kleinste Detail nachzuvollziehen, was tatsächlich im eigenen Netzwerk vor sich geht.

Cybersicherheit – Die Illusion der Kontrolle

Das Selbstvertrauen deutscher IT-Abteilungen reicht tief. So sind 85 Prozent der Sicherheits- und IT-Experten überzeugt, Malware auch in verschlüsseltem Datenverkehr erkennen zu können. 79 Prozent glauben, dass sie Datendiebstahl bemerken würden, selbst wenn er hinter einer Verschlüsselung stattfindet. Die Mehrheit der Experten (83 Prozent) hält ihre Tools für leistungsfähig genug, um mit der wachsenden Datenmenge und der sich weiterentwickelnden Bedrohungslage Schritt zu halten.

Doch diese Zuversicht steht auf wackeligen Beinen. Auch wenn Sicherheits- und IT-Experten von ihrem Team und ihrer technischen Ausstattung überzeugt sind, geben 56 Prozent zu, dass ihre Tools unter besseren Sichtbarkeitsbedingungen deutlich effektiver arbeiten könnten. Einer der Gründe für diese Einsicht liegt unter anderem in der Kompromissbereitschaft der Verantwortlichen. 95 Prozent sagen, dass sie sicherheitstechnisch Abstriche machen müssen, damit ihr Team überhaupt auf Sicherheitsvorfälle reagieren kann. So verzichtet ein Teil zum Beispiel auf vollständige Einsicht in die Infrastruktur oder auf hohe Datenqualität. Pragmatische Entscheidungen wie diese mögen kurzfristig helfen, schwächen aber langfristig die Verteidigungsfähigkeit.

Großes Selbstvertrauen trotz Blind Spots

Die größte Diskrepanz zwischen Anspruch, Einschätzung und Status quo zeigt sich vor allem beim Thema verschlüsselter Datenverkehr. 84 Prozent der Befragten geben an, Transparenz innerhalb dieses Traffics habe für sie höchste Priorität. Allerdings verzichten 37 Prozent aus Kostengründen auf dessen Entschlüsselung. Weitere 51 Prozent halten den Prozess für unpraktikabel, weil das Datenvolumen zu hoch sei. 73 Prozent vertrauen der Verschlüsselung bedingungslos.

Ein gefährlicher Widerspruch, denn genau in diesem vermeintlich sicheren Traffic verstecken Cyberangreifer immer häufiger gefährliche Malware. Laut einer Untersuchung von WatchGuard wird 94 Prozent solcher Schadsoftware über verschlüsselte Verbindungen eingeschleust. Darüber hinaus verschärfen neue Technologien wie KI den Wettlauf zwischen Angreifern und Unternehmen – zum Beispiel durch automatisierte Phishing-Kampagnen, geschickt getarnte Ransomware oder immer überzeugendere Deepfakes.

Eine weitere Herausforderung stellt die wachsende Komplexität moderner IT-Umgebungen dar. Mit jeder neuen Anwendung, jeder Cloud-Integration und jedem neuen Anwender – vor allem außerhalb des eigentlichen Netzwerks – wachsen Datenmenge und Angriffsfläche. Rund 30 Prozent der deutschen Sicherheits- und IT-Experten berichten, dass sich das Netzwerkvolumen nahezu verdoppelt hat. Trotzdem setzen viele Unternehmen auf eine Vielzahl spezialisierter Sicherheitslösungen. Anstatt Bedrohungen effektiv zu bekämpfen, erschweren sie sich dadurch allerdings nur ungewollt die Arbeit. Je mehr Tools im Einsatz sind, desto größer ist das Risiko, dass sicherheitsrelevante Informationen verloren gehen oder übersehen werden.

Zudem führt dieses Overtooling-Problem zu einem massiven Datenrauschen, in dem es Teams schwerfällt, echte Bedrohungen von harmlosen Ereignissen zu unterscheiden. Kurzum: Bei so viel Tech-Wildwuchs verwundert es kaum, dass immer mehr Sicherheits- und IT-Teams den Überblick verlieren. Folglich halten Teams und deren Sicherheitsarchitekturen häufig an statischen, reaktiven Ansätzen fest, statt zu einer proaktiven Strategie aufzusteigen.

Sehen heißt verstehen

Vor diesem Hintergrund lässt sich ohne ausreichende Transparenz kaum nachvollziehen, wo sich Schwachstellen bilden, wie sich Angreifer lateral im Netzwerk bewegen oder welche Aktivitäten tatsächlich legitim sind. Vollständige Sichtbarkeit, Datentiefe, Integration und verwertbare Insights sind hier mehr wert als die regelmäßige Einführung neuester Innovationen.

Um bestehende Lücken zu schließen, müssen IT-Teams ihr Augenmerk somit verstärkt auf Sichtbarkeit bis hinunter auf Netzwerkebene (Deep Observability) richten. Denn dort spielt sich ein Großteil der unentdeckten Aktivitäten ab. Sie müssen sämtliche Datenströme in Echtzeit beobachten, analysieren und verstehen können. Diese Fähigkeit umfasst ebenfalls verschlüsselten und auch lateralen Datenverkehr. Dafür werden alle relevanten Daten – sowohl klassische MELT- (Metrics, Events, Logs, Traces) als auch Netzwerk-Telemetriedaten – zentral gebündelt, kombiniert und ausgewertet.

Das Ergebnis: IT-Teams erhalten einen vollständigen Überblick über ihr Systemverhalten – von Anwendungen über Identitäten bis hin zu verdächtigen Aktivitäten und Verhaltensweisen.

Anomalien lassen sich schneller erkennen, Ursachen von Sicherheitsvorfällen präziser bestimmen, Schwachstellen schließen und Angriffe rechtzeitig stoppen. Diese Form der Echtzeit-Transparenz sorgt für Klarheit inmitten der Komplexität, unabhängig davon, wie viele Datenquellen, Identitäten oder Anwendungen sich im Netzwerk befinden. So bleiben Übersicht und Kontrolle bei den verantwortlichen Sicherheits- und IT-Teams, und Ressourcen lassen sich effizienter nutzen.

Fazit: Realismus ist die beste Verteidigung

Die deutsche IT-Sicherheitslandschaft leidet weniger an Inkompetenz als an Blind Spots. Viele Entscheider glauben, die Lage im Griff zu haben. Allerdings fehlt ihnen oft schlicht der Einblick in das, was tatsächlich passiert. Echte Cyberresilienz beginnt deshalb nicht mit weiteren Tools oder noch mehr Sicherheitsrichtlinien, sondern mit ehrlicher Selbsteinschätzung und vollständiger Transparenz. Wer seine Umgebung lückenlos versteht, kann Risiken realistisch bewerten, Angriffe frühzeitig erkennen und fundierte Entscheidungen treffen.

Denn am Ende gilt: Nur wer wirklich sieht, kann auch sicher handeln.

Weitere Informationen zum Thema:

datensicherheit.de, 20.01.2026
Vertrauen, Ethik und Resilienz im Fokus: Der CISO der Zukunft übernimmt Führungsrolle

]]>
https://www.datensicherheit.de/cybersicherheit-wahrnehmung-risiko-2026/feed 0
Datenschutz in Echtzeit: Wie Daten-Streaming die Kunden in einer KI-gesteuerten Welt schützt https://www.datensicherheit.de/datenschutz-ki-daten-streaming-echtzeit https://www.datensicherheit.de/datenschutz-ki-daten-streaming-echtzeit#respond Thu, 12 Feb 2026 12:27:30 +0000 https://www.datensicherheit.de/?p=52504 Die rasante Entwicklung der Künstlichen Intelligenz und die zunehmende Nutzung in Unternehmen wirft verstärkt auch Fragen zum Datenschutz auf. Weltweit beschäftigen sich Unternehmen in diesem Zusammenhang mit der Datensicherheit, der Transparenz und mit den Auswirkungen offener sowie geschlossener KI-Modelle.

Von unserem Gastautor Kai Waehner, Field CTO bei Confluent

[datensicherheit.de, 12.02.2026] Mit der rasanten Entwicklung der Künstlichen Intelligenz wächst auch die Sorge um den Datenschutz. Weltweit beschäftigen sich Unternehmen mit Fragen der Datensicherheit, der Transparenz und mit den Auswirkungen offener sowie geschlossener KI-Modelle. Gleichzeitig stellen sich immer mehr Verbraucher die Frage, ob der technologische Fortschritt auf Kosten ihrer persönlichen Daten erfolgt.

Kai Waehner, Field CTO bei Confluent

Kai Waehner, Field CTO bei Confluent, Bild: Confluent

Viele Technologien nicht auf den Schutz der Privatsphäre ausgelegt

Die eigentliche Herausforderung liegt nicht nur in der Art und Weise, wie Daten genutzt oder möglicherweise missbraucht werden. Vielmehr zeigt sich das Problem darin, dass viele Technologien von Grund auf nicht auf den Schutz der Privatsphäre ausgelegt sind. Veraltete Infrastrukturen, fragmentierte Sicherheitskonzepte und uneinheitliche Zugriffskontrollen erhöhen das Risiko für Datenmissbrauch und Angriffe.

Reduktion des Risikos durch Daten-Streaming

Eine wirksame Antwort auf diese Herausforderungen bietet der Einsatz von Daten-Streaming. Wenn Datenschutzmechanismen direkt in die Datenerfassung integriert und Informationen in Echtzeit verarbeitet werden, lassen sich Risiken gezielt reduzieren. Gleichzeitig können Unternehmen gesetzliche Vorgaben zuverlässig einhalten und eine vertrauenswürdige Datenbasis schaffen, die den verantwortungsvollen Umgang mit KI-Anwendungen unterstützt.

Die Risiken veralteter Infrastrukturen

Der rasante Aufstieg von KI-Technologien und die zunehmende öffentliche Debatte über ihre Auswirkungen auf die individuelle und gesellschaftliche Sicherheit haben in den vergangenen Monaten die Bedenken hinsichtlich des Datenschutzes deutlich verstärkt. Neue politische Initiativen verfolgen das Ziel, verbindliche Leitlinien für die Entwicklung von KI zu etablieren. Regierungen schlagen strengere Datenschutzgesetze, mehr Transparenzpflichten und ethische Prinzipien für den Umgang mit künstlicher Intelligenz vor.

Trotzdem kann Regulierung allein das Problem nicht vollständig lösen. Gesetzgebungsprozesse benötigen Zeit, reagieren häufig verzögert auf technologische Entwicklungen und konzentrieren sich meist auf die Einhaltung von Vorschriften anstatt auf proaktive Sicherheitsmechanismen. Das zentrale Problem liegt darin, dass selbst die strengsten Gesetze kaum Wirkung entfalten, wenn die zugrunde liegende Technologie nicht von vornherein so konzipiert ist, dass sie Datenschutz automatisch mitdenkt.

Viele Unternehmen verlassen sich weiterhin auf historisch gewachsene IT-Strukturen, die zwar grundsätzlich funktional sind, aber kein einheitliches Sicherheitsniveau über alle Systeme hinweg gewährleisten können. Diese Systeme bestehen aus einer Vielzahl einzelner Komponenten, die oft isoliert voneinander arbeiten. Eine der größten Schwächen ist dabei die Fragmentierung der Daten. Wenn verschiedene Abteilungen jeweils eigene Kopien sensibler Informationen in getrennten Datensilos speichern, führt das zu unnötiger Redundanz, mangelnder Konsistenz und erhöhtem Risiko.

Diese verteilte Datenhaltung erschwert die Umsetzung einheitlicher Sicherheitsrichtlinien sowie die Durchsetzung von Zugriffskontrollen und eine schnelle Reaktion auf Bedrohungen. Besonders problematisch wird es, wenn die Rechteverwaltung inkonsistent ist. Nicht mehr benötigte oder zu weit gefasste Zugriffsrechte erhöhen die Wahrscheinlichkeit unbeabsichtigter Datenpannen erheblich.

Auch die technologische Abhängigkeit von veralteten Systemen, die auf Batch-Verarbeitung basieren, wirkt sich negativ aus. Regulierungen wie die DSGVO oder HIPAA verlangen, dass Unternehmen bei Datenlöschanfragen oder Sicherheitsvorfällen unverzüglich reagieren. Infrastrukturen, die auf langsame Batch-Prozesse angewiesen sind, behindern jedoch schnelle Prüfungen und verlangsamen die Einhaltung dieser Vorgaben erheblich.

Stärkung des Datenschutzes durch Streaming

Datenschutz darf kein nachgelagerter Aspekt sein, sondern muss von Beginn an integraler Bestandteil der Datenerfassung, der Verarbeitung und der Zugriffskontrolle sein. Systeme sollten nahtlos miteinander kommunizieren, um einen sicheren Zugriff auf relevante Informationen zu ermöglichen und redundante Datenspeicherung zu vermeiden.

Daten-Streaming schafft eine datenschutzfreundliche Grundlage. Da die Daten sofort bei ihrem Eintreffen verarbeitet werden, entfällt die Notwendigkeit, große Datenmengen langfristig zu speichern. Dieser sogenannte „Privacy-by-Design“-Ansatz reduziert Risiken, stärkt die Sicherheit und erleichtert die Einhaltung internationaler Datenschutzvorgaben – und das ohne die Innovationsfähigkeit zu beeinträchtigen.

Mit einer Daten-Streaming-Plattform (DSP) lässt sich der Datenschutz noch gezielter verbessern, da viele erweiterte Sicherheitsfunktionen bereits systemseitig integriert sind. So schützt beispielsweise eine Ende-zu-Ende-Verschlüsselung die Daten während der gesamten Übertragung. Gleichzeitig sorgt Tokenisierung dafür, dass sensible Informationen schon vor der Systemverarbeitung durch bedeutungslose Platzhalter ersetzt werden. Darüber hinaus ermöglicht differenzieller Datenschutz die Anreicherung von Datensätzen mit mathematischem Rauschen, sodass Unternehmen wertvolle Erkenntnisse gewinnen können, ohne dabei Rückschlüsse auf einzelne Personen zuzulassen.

Die Vorteile eines DSP für den Datenschutz

Laut dem Data Streaming Report von Confluent geben 86 % der deutschen IT-Führungskräfte an, dass Daten-Streaming die Cybersicherheit und das digitale Risikomanagement in ihren Unternehmen verbessert hat. Der Grund dafür liegt in der zentralen Rolle, die Daten-Streaming-Plattformen einnehmen. Sie halten verschiedene Systeme im Unternehmen synchron und sorgen dafür, dass Mitarbeiter jederzeit in Echtzeit auf relevante Daten zugreifen können. Diese Fähigkeit ermöglicht es Unternehmen, schneller zu innovieren und gleichzeitig ein hohes Maß an Datensicherheit für ihre Kunden zu gewährleisten.

Auch wenn die Zukunft unvorhersehbar bleibt, steht eines fest: Wer im globalen Wettbewerb um die technologische Führungsrolle in der KI mitspielen will, muss dem Datenschutz bei jeder Entscheidung und in jedem Schritt höchste Priorität einräumen.

Über den Autor:

Kai Wähner ist Field CTO bei Confluent. Seine Schwerpunkte sind Daten-Streaming mit Kafka und Flink, Big Data Analytics, AI/Machine Learning, Messaging, Integration, Microservices, IoT, Stream Processing und Blockchain.

Weitere Informationen zum Thema:

datensicherheit.de, 05.02.2026
KI-basierte Disruption der Arbeitswelt: 80 Prozent der Menschen werden ihren Job verlieren

]]>
https://www.datensicherheit.de/datenschutz-ki-daten-streaming-echtzeit/feed 0