Automatisierung – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Fri, 31 Mar 2023 14:10:28 +0000 de hourly 1 https://wordpress.org/?v=5.6.14 Cybersicherheit: Prävention vor nachträglicher Erkennung https://www.datensicherheit.de/cybersicherheit-praevention-erkennung https://www.datensicherheit.de/cybersicherheit-praevention-erkennung#respond Thu, 30 Mar 2023 14:11:00 +0000 https://www.datensicherheit.de/?p=43092 Wicjtigste Trends werden in diesem Jahr sind die API-Security und die Automatisierung von Cybersicherheitsprozessen

[datensicherheit.de, 30.03.2023] Im Rahmen der Veranstaltung CPX 360 vom 14. bis 16. März des Herstellers und Firewall-Pioniers Check Point Software Technologies in München kamen Mitarbeiter, Kunden und Partner des Anbieters zusammen. Anlässlich des 30-jährigen Jubiläums konnte Herausgeber und Chefredakteur von datensicherheit.de (ds), Carsten J. Pinnow, mit dem Gründer und CEO Gil Shwed über Aspekte der Cybersicherheit sprechen. In seiner Eröffnungsrede hatte er zuvor das Jahr der KI ausgerufen.

Gil Shwed, CEO von Check Poin

Gil Shwed, CEO von Check Point, © Martin Hangen/Check Point

ds: Können Sie uns die wichtigsten Punkte Ihrer Keynote noch einmal für unsere Leser im Hinblick auf Ihre Aussage zu Künsctlicher Intelligenz (KI) zusammenfassen?

Gil Shwed: Alle paar Jahre erlebt die Branche einen großen Wandel und wir befinden uns gerade mitten in der KI-Revolution. Seit einem Jahrzehnt investieren wir bei Check Point konsequent in diese Technologie und bauen sie in unsere Systeme ein. Zusätzlich nutzt mehr als die Hälfte unserer Threat Engines eine KI, um sicherzustellen, dass komplexe IT-Infrastrukturen geschützt bleiben. Für mich ist das Jahr 2023 der Wendepunkt für KI, da wir im täglichen Leben immer abhängiger von ihr werden und sie sich als integraler Bestandteil der Verteidigung unserer sich ständig entwickelnden Netzwerke etabliert hat.

ds: Welche Herausforderung bringt der „Working from Anywhere“-Trend für die Cybersicherheit?

Gil Shwed: Das anhaltende Engagement von Unternehmen und Mitarbeitern für hybrides Arbeiten hat zu einem Anstieg der verwendeten digitalen Geräte pro Person um durchschnittlich mehr als 50 Prozent geführt. Wir bei Check Point haben im letzten Jahr weltweit einen Anstieg der Cyberattacken von 38 Prozent festgestellt, der mit der Zunahme dieser Geräte korreliert. Für viele Unternehmen besteht das Problem darin, dass ihre Produkte nicht zusammenarbeiten – die Koordinierung ist einfach zu komplex. Wir müssen sicherstellen, dass alle Systeme kommunizieren, um das Risiko eines Angriffs einzudämmen. Dies ist derzeit nicht gängige Praxis und im Jahr 2023 wird dieses Defizit Unternehmen verwundbar machen.

ds: Welchen technologischen Trend sehen Sie in diesem Jahr abseits von KI im Vordergrund stehen?

Gil Shwed: Zwei der wichtigsten Trends werden in diesem Jahr die API-Security und die Automatisierung von Cybersicherheitsprozessen sein. APIs sind ein wachsender Teil der Angriffsfläche vieler Unternehmen im Internet, und ihre Eigenschaften machen sie zu einem idealen Ziel für automatisierte Angriffe. Es ist von entscheidender Bedeutung, dass Unternehmen API-Sicherheitslösungen in ihre Application Security-Strategie integrieren, um Missbrauchsversuche ihrer Web-APIs zu erkennen und zu verhindern. Die Automatisierung von IT-Sicherheitsprozessen bietet zahlreiche Vorteile für Sicherheitsteam, um die wachsenden Workloads trotz Personalmangel und vielfältiger Aufgaben zu bewältigen.

Carsten J. Pinnow im Interview mit Gil Shwed

Carsten J. Pinnow im Interview mit Gil Shwed, © Martin Hangen/Check Point

ds: Sie propagieren seit Jahren den Ansatz, dass Präventionsmaßnamen besser sind als die nachträgliche Erkennung. Warum?

Gil Shwed: Der präventive Ansatz zur IT-Sicherheit beruht auf drei Grundprinzipien des höchstmöglichen Schutzes: Umfassend, konsolidiert und kooperativ. Unternehmen benötigen eine Lösung, die alle Vektoren abdeckt (um einen Vorfall von vornherein zu verhindern), eine konsolidierte Cybersicherheitsarchitektur, um die Sicherheitskoordination und -effektivität zu verbessern, und die Integration in Systemen von Drittanbietern, um möglichst genaue Echtzeitdaten zu liefern.

ds: Sie gelten als Förderer der IT-Security Start-Up-Szene in Israel. Wie unterstützt Check Point hier junge Unternehmen?

Gil Shwed: Zunächst einmal empfinde ich es als große Freude, dass wir eine so aktive Start-Up Szene in Israel speziell im Bereich Cybersicherheit haben. Sie führen mit innovativen Ideen und Konzepten dazu, dass auch wir immer wieder herausgefordert werden, uns und unsere Lösungen zu erneuern. Aktuell fördern wir unter anderem über unser CyberUp Accelerator Programm zahlreiche Start-Ups. Bislang profitierten 43 junge Unternehmen von unseren Erfahrungen. Viele dieser Unternehmen werden außerdem von ehemaligen Check Point-Mitarbeitern gegründet, die dann auch ab und zu wieder zu uns stoßen, indem wir sie und ihre Technologien in unsere Lösungen integrieren. Dadurch entstehen steter Austausch und Erneuerungsprozesse, die letztlich allen zugutekommt.

ds: Wir danken für das Gespräch.

Ankündigung von Infinity Global Services

Während der Veranstaltung stellten weitere Mitarbeiter die fortschreitende Entwicklung des Produkt- und Lösungsportfolios vor, darunter Eyal Manor, Vice President of Product Management, der auf die Produktverbesserungen einging, die zum Schutz gegen aktuelle IT-Bedrohungen entwickelt wurden. Hierbei handelt es sich um die Einführung von Check Point Infinity Global Services, einem End-to-End-Sicherheitsservice, der Unternehmen dabei helfen wird, fortschrittliche Cyber-Bedrohungen abzuwehren, auf weit verbreitete Angriffe zu reagieren und jeden Aspekt ihrer Widerstandskraft zu verbessern. Manor hob hervor, dass diese Einführung auf die wachsende Komplexität der IT-Sicherheit und den Mangel an qualifizierten Mitarbeitern zurückzuführen ist, die diese Aufgabe bewältigen sollen, denn in der Branche gibt es derzeit eine Qualifikationslücke von 3,4 Millionen Fachkräften.

Maya Horowitz, Vice President of Research, gab den Zuhörern in einer virtuellen Präsentation eine kurze Zusammenfassung der Unternehmensgeschichte. Sie reflektierte die Fähigkeit von Check Point, Bedrohungsinformationen zu entschlüsseln, zu analysieren und zu interpretieren, um neue Malware, Hackermethoden und -techniken zu identifizieren und daraufhin Wege zu finden, diese schnell abzuwehren. Sie verwies auf die Komplexität von Hacker-Gruppen, wie Conti, veranschaulichte die zunehmenden geopolitischen Spannungen, die nun auch in die Cyber-Dimension vorgedrungen sind, und sprach die besorgniserregende Verlagerung von Angriffen auf Einzelpersonen sowie auf Kritische Infrastrukturen (KRITIS) an.

Kunden, Mitarbeiter und Partner hörten zudem Redebeiträge von mehreren anderen Check Point-Führungskräften, darunter Ofir Israel, Vice President of Threat Prevention, der die Diskussion über die Auswirkungen von KI fortsetzte, indem er auf die Cyber-Kriegsführung einging und darlegte, wie diese Technologie die Welt der IT-Sicherheit verändert hat.

Die Veranstaltung bot den Teilnehmern einen Zugang zu den bewährten Methoden und Erkenntnissen zur Verwaltung der Cybersicherheitslandschaft. Mitarbeiter, Partner und Kunden hatten außerdem die Möglichkeit, an ausführlichen Podiumsdiskussionen teilzunehmen, die einen Vorgeschmack auf die neuen Produktankündigungen von Check Point und die Expertenprognosen für die IT-Sicherheitsplanung im Jahr 2023.

Weitere Informationen zum Thema.

datensicherheit.de, 03.02.2023
Hacker-Angriffe: Check Point meldet Zunahme der Nutzung von Code-Paketen

datensicherheit.de, 29.06.2020
Cybersicherheit: Vision einer mutigen neuen Welt während und nach der Pandemie

]]>
https://www.datensicherheit.de/cybersicherheit-praevention-erkennung/feed 0
Qualys empfiehlt Automatisierung: Kriminellen Hackern auch an Feiertagen und Wochenenden erfolgreich begegnen https://www.datensicherheit.de/qualys-empfehlung-automatisierung-kriminelle-hacker-feiertage-wochenenden-erfolg-begegnung https://www.datensicherheit.de/qualys-empfehlung-automatisierung-kriminelle-hacker-feiertage-wochenenden-erfolg-begegnung#respond Mon, 29 Nov 2021 12:16:00 +0000 https://www.datensicherheit.de/?p=41154 Für kriminelle Akteure Zeiten außerhalb der Werktage attraktive Gelegenheit für Ransomware-Angriffe, warnt Qualys

[datensicherheit.de, 29.11.2021] Kriminelle Akteure betrachten Feiertage und Wochenenden offensichtlich als attraktive Zeiträume für Ransomware-Angriffe. Außerhalb der Bürozeiten sei erwartungsgemäß weniger IT-Personal in Unternehmen vorhanden, das Angriffe erkennen und entsprechende Gegenmaßnahmen einleiten könnte. Die Hacker bereiteten sich auf diese Zeiträume gezielt vor, da sie sicher davon ausgehen könnten, dass sie bei Angriffen ein leichtes Spiel hätten und ihnen der Erfolg gesichert sei. Qualys geht in einer aktuellen Stellungnahme auf diese Problematik ein.

Automatisierte Lösung laut Qualys zuverlässiger bei Erkennung und Behebung von Schwachstellen in Echtzeit

Die Anzahl an „Assets“ in Unternehmen steige stetig – gleichzeitig werde das Fachpersonal im Bereich der IT-Security den damit einhergehenden Sicherheitsanforderungen nicht mehr gerecht. Um den Mangel an geschultem Personal auszugleichen, sollten Unternehmen daher verstärkt auf Automatisierung setzen. „So bewahren sie rund um die Uhr den Überblick über sämtliche ihrer ,Assets‘ und können diese durchgehend überwachen und auf mögliche Schwachstellen überprüfen, um mit der Ergreifung geeigneter Maßnahmen auf diese zu reagieren.“
Nicht zuletzt sei eine automatisierte Lösung zuverlässiger bei der Erkennung und Behebung von Schwachstellen in Echtzeit, denn beim Patch-Management sei die Zeit von der Erkennung bis zur Behebung einer Schwachstelle entscheidend für eine lückenlose Gerätesicherheit. So könne selbst bei einer zeitweisen Unterbesetzung in IT-Teams die IT-Sicherheit aufrechterhalten werden.

Anbieter wie Qualys erweitern klassische Incident Response um Prävention, Erkennung und Reaktion bei Sicherheitsbedrohungen auf Endpunkten

Automatisierte Plattformen zur kontinuierlichen Überwachung von Endpunkten, also generelle Services aus der Kategorie „Detection and Response“, ermöglichten es IT-Verantwortlichen, ihre „Assets“ auf mögliche Bedrohungen hin zu untersuchen. So könne ein Diebstahl sensibler Daten von diesen Geräten verhindert werden, „sobald es erste Anzeichen für einen solchen gibt“. Für ein schnelles Reagieren auf Vorfälle sei es essenziell, dass nicht allein dann agiert werde, „wenn es bereits zu einem Sicherheitsvorfall kommt“.
Es seien vielmehr präventive Maßnahmen erforderlich, denn diese entlasteten unterbesetzte Teams bei ihrer Reaktion auf solche Vorfälle, welche sich als falscher Alarm herausstellen. Es gebe Anbieter wie z.B. Qualys, die hierfür die klassische „Incident Response“ erweiterten, und Prävention, Erkennung und Reaktion bei Sicherheitsbedrohungen auf Endpunkten böten. Auf diese Weise könne mit einem proaktiven Ansatz die gesamte Angriffskette überwacht werden, statt lediglich reaktiv bereits bestehende Bedrohungen anzugehen. Mit den richtigen Tools könne also eine Kompromittierung der Unternehmenssysteme zu jeder Zeit im Jahr verhindert werden.

Weitere Informationen zum Thema:

datensicherheit.de, 11.11.2021
Aus aktuellem Anlass: 7 Tipps zu Ransomware-Angriffen für Unternehmen / Michael Scheffler gibt Betrieben Tipps, wie ein Ransomware-Angriff abgewehrt bzw. dessen Auswirkungen reduziert werden können

datensicherheit.de, 28.09.2021
Ransomware: 5 Tipps für Unternehmen, um sich zu schützen / Tanja Hofmann gibt fünf aktuelle Tipps, wie Organisationen ihre IT-Sicherheit verbessern können

]]>
https://www.datensicherheit.de/qualys-empfehlung-automatisierung-kriminelle-hacker-feiertage-wochenenden-erfolg-begegnung/feed 0
Hybrid-Clouds: Zu viele Schwachstellen und zu wenig Zeit https://www.datensicherheit.de/hybrid-cloud-automatisierung-schwachstellen-patches https://www.datensicherheit.de/hybrid-cloud-automatisierung-schwachstellen-patches#respond Tue, 27 Oct 2020 12:49:27 +0000 https://www.datensicherheit.de/?p=38118 Warum Automatisierung jetzt nötig ist

[datensicherheit.de, 27.10.2020] IT-Sicherheits- und Betriebsteams sehen sich heute immer mehr Bedrohungen und Schwachstellen gegenüber. Gleichzeitig fehlen ihnen oft die Zeit und die Ressourcen, um sich rechtzeitig um alle zu kümmern. Die automatisierte Bereitstellung von Patches und die Korrektur falsch konfigurierter IaaS- und PaaS-Ressourcen in Hybrid-Clouds ist mittlerweile zu einer Notwendigkeit geworden, wie Roger Hellman, Director Solutions Marketing BMC, darlegt.

Für moderne Unternehmen von heute sind die Security-Anforderungen klar: Wenn Unternehmen von Security-Verletzungen und fehlgeschlagenen Compliance-Audits betroffen sind, sind die Schäden weitreichend. Außerdem verändert sich praktisch alles, mit dem Sicherheits- und Operations-Teams zu tun haben, stetig und entwickelt sich weiter. Aktuell sind diese Teams mit diversen beunruhigenden Entwicklungen konfrontiert, die ihre Arbeit erschweren: raffiniertere und hartnäckigere Angriffe, sich ausbreitende Schwachstellen, sich ausdehnende Angriffsflächen und falsch konfigurierte Ressourcen in der Public Cloud.

Der Stressfaktor steigt

Doch es bleibt nicht bei der sich verschärfenden Bedrohungslagen, in der Praxis stehen viele Sicherheitsteams noch etlichen weiteren Problemen gegenüber. Die meisten Unternehmen verfügen über zu wenig sicherheitsbewusstes Personal. Security-Experten sind schwer zu finden, schwer einzustellen und noch schwerer zu halten. Trotz der äußerst kostbaren Zeit arbeiten die Teams aber weiterhin mit manuellen, arbeitsintensiven Methoden und Werkzeugen für das Vulnerability Management. Von der Durchführung von Vulnerability Scans über die Zuordnung von Schwachstellen zu Assets und Patches, der Priorisierung von Maßnahmen sowie der Bereitstellung der erforderlichen Fixes und der Implementierung der erforderlichen Änderungen – alle diese Aufgaben werden häufig manuell durchgeführt.

Die Teams arbeiten daher weitgehend reaktiv, das heißt sie müssen sich ständig mit der Ineffizienz und dem Stress auseinandersetzen, die mit solchen Ad-Hoc-Maßnahmen verbunden sind. Angesichts dieser Herausforderungen haben die Sicherheits- und Operations-Teams Mühe und scheitern allzu oft daran, Schritt zu halten. Es gibt zu viele Schwachstellen und nicht genug Zeit, um sie alle zu beseitigen. Täglicher manueller Aufwand kann auch zu Fehlern führen und Unternehmen Ineffizienz, Rollbacks und Ausfallzeiten aussetzen. Darüber hinaus führen manuelle Prozesse in der Cloud dazu, dass die Gefahr für ein Datenleck in der Cloud steigt. Um den Geschäftsbetrieb weiterhin zu unterstützen, müssen IT-Abteilungen ihre Prozesse durch Automatisierung neu definieren.

Automatisieren, aber richtig

Unternehmen haben viel zu gewinnen, wenn sie ihr Vulnerability Management automatisieren. Bis heute haben es jedoch viele versäumt, diese Vorteile zu nutzen. Um das Beste daraus zu gewinnen, sollten die IT-Teams Lösungen einsetzen, die folgende Schlüsselanforderungen erfüllen:

Wahl des Deployment-Modells:

Traditionelle Methoden zum Patchen und Beheben von Sicherheitsschwachstellen basieren weitgehend auf On-Premise-Systemen und Softwarelösungen. Zu den Vorteilen dieses Ansatzes gehören die Kontrolle, da die Konfiguration, Upgrades und Systemänderungen vor Ort durchgeführt werden, sowie der Zugang, da die Software nicht über eine Internetverbindung erreicht werden muss.

Umfassende Automatisierungsmöglichkeiten:

Teams benötigen auch Lösungen, die Automatisierung nutzen, um Sicherheitslücken in hybriden Cloud-Umgebungen zu finden und zu beheben. Sie müssen fehlende Patches und falsch konfigurierte Ressourcen entdecken und dann automatisierte, korrigierende Maßnahmen ergreifen. Dazu sollten die Identifizierung der exponierten Ressourcen und Unternehmensdienste, die Schwere und Dauer der Schwachstelle, die Bereitstellung von Patches auf der Grundlage von Richtlinien und vieles mehr gehören.

Wichtig ist auch der Einsatz von Lösungen, mit denen falsch konfigurierte Cloud-Dienste, einschließlich IaaS- und PaaS-Ressourcen, automatisch identifiziert und korrigiert werden können. Darüber hinaus sollten Lösungen die Einhaltung von Sicherheitsrichtlinien und gesetzlichen Vorschriften wie der Datenschutz-Grundverordnung DSGVO und des Center for Internet Security (CIS) automatisieren.

Flexible Integration:

Lösungen sollten eine flexible Integration mit anderen Tools bieten. Beispielsweise sollten sie die Integration mit Incident und Change Management unterstützen, um die Geschwindigkeit und Effizienz zu erhöhen sowie die Verfügbarkeit und den reibungslosen Betrieb zu gewährleisten. Die Lösungen sollten auch eine Integration mit robusten Discovery-Angeboten bieten. Durch integrierte Erkennung und automatisierte Behebung können Lösungen blinde Flecken, die dazu führen können, dass Schwachstellen unentdeckt bleiben, wirksam beseitigen.

Einheitliche Unterstützung für hybride Umgebungen:

IT-Teams benötigen einen einheitlichen Ansatz zur Verwaltung der Automatisierung von Security und Compliance über die gesamte Hybrid-Cloud-Struktur ihres Unternehmens hinweg, einschließlich der Server vor Ort, Netzwerke und Public-Cloud-Umgebungen. Die Lösungen sollten Unterstützung für eine Reihe von Umgebungen und Technologien bieten, darunter AWS, Azure, Google Cloud Platform, Docker und Kubernetes. Um eine effektive Anpassung an die heutigen hybriden Realitäten zu gewährleisten, benötigen Teams darüber hinaus Lösungen, die Cloud-basierte Implementierung bieten und gleichzeitig die automatisierte Verwaltung von eigenen Rechenzentren und Multi-Clouds ermöglichen. Lösungen sollten containerbasierte Bereitstellung bieten, die eine einfache Installation, Konfiguration und Upgrades ermöglicht.

Auswertungen und Analytik:

Analytik und Auswertungen sind erforderlich, um Schwachstellen den jeweils bedrohten Ressourcen und den erforderlichen Korrekturmaßnahmen (Patch oder Konfigurationsänderung) zuzuordnen, bei der Festlegung von Prioritäten zu helfen und Schwachstellen im Kontext von SLAs zu verfolgen. Bei der Analyse von Schwachstellen sollten die Teams auch in der Lage sein, sich sofort einen Überblick darüber zu verschaffen, welche Anwendungen und Dienste gefährdet sind. Die Analytik muss auch Erkennungsdaten nutzen, um Schwachstellen, die von Sicherheitsscannern übersehen wurden, zu identifizieren und deren Behebung zu unterstützen.

Fazit

Durch die Erfüllung dieser Anforderungen können die Teams das automatisierte Vulnerability Management über das Einsatzmodell ihrer Wahl – entweder SaaS oder on Premise – maximieren. Mit diesen Funktionen können Teams ihre Infrastrukturen konsistent und effizient stärken und gleichzeitig die Security und Compliance steigern. Gestresste und unterbesetzte Sicherheits- und Operations-Teams profitieren ebenfalls von den Vorteilen. Durch die Auslagerung manueller, sich wiederholender Aufgaben können Teams mehr Zeit für Innovationen aufwenden und gleichzeitig Produktivität, Effizienz, Moral und Mitarbeiterbindung verbessern – alles, damit ihre Organisationen zu autonomen digitalen Unternehmen werden. Kurz gesagt, eine automatisierte Schwachstellenbehebung ist ein Muss.

Weitere Informationen zum Thema:

datensicherheit.de, 26.06.2020
Mit Automatisierung gegen Datenlecks

datensicherheit.de, 22.09.2017
IT-Security: Die Zukunft liegt in der Automatisierung

]]>
https://www.datensicherheit.de/hybrid-cloud-automatisierung-schwachstellen-patches/feed 0
Mit Automatisierung gegen Datenlecks https://www.datensicherheit.de/automatisierung-datenlecks-vermeidung https://www.datensicherheit.de/automatisierung-datenlecks-vermeidung#respond Fri, 26 Jun 2020 10:34:30 +0000 https://www.datensicherheit.de/?p=36720 Compliance-Vorgaben: Fluch oder Segen? Es kommt auf den richtigen Umgang mit den Richtlinien an.

Ein Kommentar von Elmar Albinger, Regional Sales Director bei AlgoSec

[datensicherheit.de, 26.06.2020] In Zeiten zunehmender Verunsicherung – sowohl im Alltag als auch in der IT – ist es überaus wichtig, sich auf bestimmte Stützpfeiler verlassen zu können. In Europa stellt die Datenschutz-Grundverordnung (DSGVO) eine solche Säule dar. Die Vorgaben der EU sind am 25. Mai 2018 in Kraft getreten und feiern ihr zweijähriges Bestehen. Viele Menschen fragen sich aber, ob sie in der DSGVO nun Fluch oder Segen sehen sollen.

Manuelle Richtlinienverwaltung ist kompliziert und fehleranfällig

Tatsache ist, dass Compliance-Richtlinien, wie die DSGVO oder der IT-Grundschutz des BSI, unzählige Herausforderungen darstellen und für alle betroffenen Vor- und Nachteil zugleich sind. In Zeiten des digitalen und personenbezogenen Marketings ist es ein ‚Segen‘, dass Anwender im Rahmen dieser Datenschutzregeln mehr Kontrolle über ihre personenbezogenen Daten erhalten – und Transparenz in Bezug auf den Umgang mit diesen Informationen einfordern können. Ziel der DSGVO ist es, die Grundrechte und Grundfreiheiten natürlicher Personen – und insbesondere deren Recht auf Schutz ihrer personenbezogenen Daten – zu sichern. Den ‚Fluch‘ spüren mitunter die IT-Verantwortlichen, die eine Vielzahl technischer und organisatorischer Maßnahmen umsetzen müssen. Hinzu kommt, dass dies ein dauernder Prozess ist, denn etablierte Maßnahmen müssen kontinuierlich geprüft und angepasst werden, um das Schutz-Niveau aufrecht zu erhalten – trotz sich ändernder Rahmenbedingungen.

Bessere Absicherung und Effizienz durch Security-Automatisierung

Abhilfe schaffen Sicherheitslösungen, die dem IT-Personal selbstständig unter die Arme greifen. Software-gesteuertes Auslesen und Verwalten von Firewalls, UTM-Appliances sowie anderer Netzwerk-Sicherheitsprodukte erleichtern die Einhaltung von Compliance-Vorgaben erheblich. Fortschrittliche Analyse- und Automatisierungsfunktionen ermöglichen es außerdem, ohne großen Zeitaufwand sämtliche Einstellungen zu überprüfen und Kommunikations- und Datenflüsse sichtbar zu machen. Das senkt die Fehleranfälligkeit und erhöht die Sicherheit der gesamten IT-Infrastruktur enorm.

Sicherheit als Wettbewerbsvorteil

Unternehmen, die Compliance-Richtlinien und IT-Sicherheits-Anforderungen nicht als notwendiges Übel, sondern vielmehr als Chance verstehen, werden mittel- und langfristig einen nachhaltigen Wettbewerbsvorteil erzielen können. Während jedoch die Anforderungen aufgrund der steigenden Dynamik ständig zunehmen, sehen sich nahezu alle Unternehmen einem Mangel an qualifiziertem IT-Sicherheitspersonal ausgesetzt, gepaart mit personellem Kostendruck. Wie schon zu Beginn der industriellen Revolution ist erneut die Automatisierung ein wesentlicher Teil des Ganzen.

Elmar Albinger, Regional Sales Director bei AlgoSec

Elmar Albinger, Bild: AlgoSec

Die DSGVO führt in „Kapitel IV – Verantwortlicher und Auftragsverarbeiter“ eine Liste von Maßnahmen an, die einen angemessenen Schutzgrad gewährleisten sollen. Dabei geht es nicht nur unmittelbar um die personenbezogenen Daten selbst, sondern unter anderem um den kontrollierten Zugang zu Diensten und Systemen. Schon der kleinste Fehler in der Richtlinienkonfiguration einer Firewall kann eine Sicherheitslücke reißen und zu einem Datenleck führen. Stehlen Angreifer über die Schwachstelle entsprechende Datensätze, dann ist der Skandal programmiert – und der Verstoß gegen die DSGVO geschehen. Je nachdem in welchen Bereichen ein Unternehmen aktiv ist, betreffen es außerdem weitere Datenschutzgesetze, wie das seit 2017 geltende chinesische Cyber Security Law oder auch eine der vielen regionalen Vorgaben innerhalb der USA.

Abschließend lässt sich feststellen, dass Unternehmen jeder Größe von einem automatisierten, geschäftsorientierten Sicherheits-Management profitieren. Dessen Nutzung stellt sicher, dass die Einhaltung von Datenschutzrichtlinien stets gewährleistet ist – und Regelungen, wie die DSGVO kein Nachteil sind, sondern zum Vorteil werden.

Weitere Informationen zum Thema:

datensicherheit.de, 25.06.2020
EU-Kommission hat DSGVO-Evaluationsbericht vorgelegt

]]>
https://www.datensicherheit.de/automatisierung-datenlecks-vermeidung/feed 0
Datenstrategien für Big Data https://www.datensicherheit.de/big-data-daten-strategien-automatisierung https://www.datensicherheit.de/big-data-daten-strategien-automatisierung#respond Sat, 09 May 2020 14:08:10 +0000 https://www.datensicherheit.de/?p=36235 Automatisierung des Data Warehouse muss Teil der Lösung sein

Von unserem Gastautor Rob Mellor, VP und GM EMEA bei WhereScape

[datensicherheit.de, 09.05.2020] Die Im Zeitalter von Big Data könnte man davon ausgehen, dass man gar nicht genug Daten haben könnte. Denn aus Daten lassen sich in der Theorie wichtige Erkenntnisse ziehen, die Unternehmen zu ihrem Vorteil nutzen können. Und so sammeln Unternehmen seit Jahren fleißig Daten aus immer mehr Quellen ein – und stehen damit auch vor der immer komplexeren Aufgabe diese Daten sinnvoll verarbeiten zu müssen. In der Praxis macht sich schon lange vielerorts Ernüchterung breit: Denn oft führen mehr Daten nicht zwangsläufig zu besseren Ergebnissen. Das grundlegende Problem ist, dass es vielen Unternehmen einfach an einer grundlegenden Datenstrategie fehlt. Ohne diese ist es schwer zeitnah Wert aus Daten ziehen zu können. Eine passende Datenstrategie für sein Unternehmen zu haben oder diese zu erstellen, wenn es noch keine gibt, ist also ein wichtiges Element jedes Unternehmens das große Datenmengen verarbeitet.

Rob Mellor, VP und GM EMEA bei WhereScape

Bild: WhereScape

Rob Mellor, VP und GM EMEA bei WhereScape

Kern jeder Datenstrategie: Das Data-Warehouse

Eine passende Datenstrategie muss an eine Organisation und ihre Zielsetzung angepasst sein. Wenn man schnell Ergebnisse benötigt, braucht man auch eine entsprechend schnelle und agile Strategie. Wenn es aber nur darum geht, so viele Daten wie möglich zu verarbeiten, benötigt man eine Strategie, die möglichst viel Verarbeitungsleistung bietet. Doch ganz egal, wofür man seine Daten benötigt und wie man seine Datenstrategie letzten Endes erstellt, jede moderne Organisation mit vielen Daten benötigt ein modernes Data-Warehousing. Das Data-Warehouse ist der universelle Ort, an dem Daten aus vielen unterschiedlichen Quellen gesammelt werden – und der Ort, aus dem man im besten Fall die gewünschten Erkenntnisse erhält. Plant man also eine passende Datenstrategie, so ist das Data-Warehouse eines der wichtigsten Kernelemente. Ein weiterer wichtiger Bestandteil jeder modernen Datenstrategie sind Metadaten.

Verarbeitung von Metadaten wird immer wichtiger

Metadaten sind Daten, die Informationen über „andere Daten“ liefern. Metadaten haben verschiedene Zwecke. Sie helfen den Benutzern, relevante Informationen und Ressourcen zu finden und helfen der IT bei der Identifizierung und Archivierung ihrer Daten. Metadaten ermöglichen es, Daten anhand relevanter Kriterien zu finden. Mit ihnen lassen sich beispielsweise verschiedene Daten zusammenführen, ungleiche Daten unterscheiden oder Ortsangaben machen. Saubere Daten inklusive der passenden Metadaten machen es Organisationen einfacher einen Wert aus den Daten zu ziehen. Selbstredend muss ein modernes Data-Warehouse also nicht nur Daten aus vielen verschiedenen Kanälen und Quellen verarbeiten können, sondern auch die zugehörigen Metadaten. Dies betrifft auch verwandte Prozesse wie das Änderungsmanagement und die Systemdokumentation.

Hat ein Unternehmen die Verwaltung der wichtigen Metadaten erfolgreich bewältigt, profitiert davon nicht nur das Unternehmensmanagement, sondern auch die immer wichtiger werdenden Entwickler. Diese arbeiten fortan deutlich produktiver mit aktuellen und sauberen Datensätzen, auf die sie sich verlassen können.

Data Warehouse Lifecycle

Bild: WhereScape:

Die Data-Warehouse-Automatisierung hilft IT-Teams, Data Warehouse -Automation-Software kombiniert die Verwendung von Metadaten, Data Warehouse Methoden, Mustererkennung und mehr, um Entwicklern zu helfen, Data Warehouse Designs und Codierung durch den Einsatz von Data Warehouse-Design-Tools und zeitsparenden Entwicklungsassistenten und -vorlagen automatisch zu generieren. Insofern bietet Automatisierung viel mehr als bisher, indem sie viel schneller, mit weniger Projektrisiko und niedrigeren Kosten liefert und verwaltet. Zudem entfallen wiederholte Design-, Entwicklungs-, Bereitstellungs- und Betriebsaufgaben innerhalb des Data Warehouse Lebenszyklus.

Automatisierung des Data Warehouse ist notwendig

Bei immer mehr Daten und Datenquellen, ist die effektive Verwaltung des Data-Warehouse für viele IT-Abteilungen eine immer größer werdende Herausforderung. Doch wie auch in vielen anderen Bereichen des Rechenzentrums kann Automatisierung bei der Bewältigung dieser Herausforderung ein wichtiger Teil der Lösung sein. Denn das grundlegende Problem bei immer mehr Daten und komplexeren Prozessen ist, dass es einfach nicht mehr möglich ist die Dateninfrastruktur bei jeder neu hinzugefügten IT-Lösung oder Migration neu manuell zu verändern. Ein automatisiertes Data-Warehouse lässt sich hingegen relativ schnell und einfach verwalten – der Großteil der Prozesse ist ja automatisiert. Damit nimmt die Automatisierung eine große Last von den Schultern der IT und hat damit das Potenzial eine Big-Data-Strategie einfacher, billiger und konformer mit Vorschriften wie der DSGVO zu machen.

Modernisierung des Data Warehouse bedeutet zuerst: Automatisierung

Im Zeitalter von Big Data hat sich vielerorts Ernüchterung breitgemacht: Es gibt immer mehr Daten, Datenquellen und höhere Anforderungen an die Qualität der Rohdaten und deren Erkenntnisse. In der Realität ist die IT mehr damit beschäftigt Probleme beim Datenmanagement zu lösen, als Lösungen zu präsentieren. Gesucht wird vielerorts eine passende Datenstrategie, die die Verwaltung vereinfacht und dabei hilft einen Wert aus all den vorhandenen Daten ziehen zu können. Teil einer erfolgreichen Datenstrategie muss also Fundament ein modernes Data Warehouse sein. Unternehmen, die an einer Datenstrategie arbeiten, kommen nicht um die Modernisierung ihres Data Warehouse herum. Und eine der wichtigsten Aufgaben bei dieser Modernisierung ist die Automatisierung des Data Warehouse.

Weitere Informationen zum Thema:

datensicherheit.de, 15.06.2019
Mit Automatisierung Mehrwerte aus dem Internet der Dinge holen

datensicherheit.de, 14.03.2019
Studie der TH Köln: Big Data – Chancen und Risiken

]]>
https://www.datensicherheit.de/big-data-daten-strategien-automatisierung/feed 0
Home-Office: Vergrößerung der Angriffsfläche verlangt nach automatisierter Cybersicherheit https://www.datensicherheit.de/home-office-vergroesserung-angriffsflaeche-automatisierung-cybersicherheit https://www.datensicherheit.de/home-office-vergroesserung-angriffsflaeche-automatisierung-cybersicherheit#respond Tue, 14 Apr 2020 07:00:25 +0000 https://www.datensicherheit.de/?p=35908 Remote-Arbeitsplätze für mobile Arbeitskräfte, die Verlagerung der Belegschaft ins Home-Office und die Nutzung von RDP, VPN und VDI vergrößern die Cyberangriffsfläche erheblich

[datensicherheit.de, 14.04.2020] Das Unternehmen Vectra AI, tätig im Bereich Network Detection and Response (NDR), warnt davor, dass Remote-Arbeitsplätze für mobile Arbeitskräfte, die Verlagerung der Belegschaft ins Home-Office und die Nutzung von RDP, VPN und VDI die Angriffsfläche ganz massiv vergrößern. Angemessene Sicherheitsmaßnahmen erfordern detaillierten Einblick in die Fernverbindung von Benutzern zu internen geschäftskritischen Systemen. Dies ist jedoch rein manuell nicht zu bewältigen. Deshalb ist die Automatisierung der IT-Sicherheit mithilfe von maschinellem Lernen und künstlicher Intelligenz dringender denn je.

In seinem Internet Exposure Dashboard für Deutschland zeigt Shodan auf, dass es derzeit über 5.400 dem Internet ausgesetzte Maschinen gibt, die die Remote-Code-Execution-Schwachstelle „BlueKeep“ in RDP (Remote Desktop Protocol) aufweisen. „Eine Vectra-Studie von 2019 belegte, dass RDP eine große und anfällige Angriffsfläche in vielen Netzwerken schafft. Laut dem Vectra 2019 Spotlight Report on RDP hat die KI-basierte Plattform Cognito 26.800 verdächtige RDP-Vorgänge in mehr als 350 Implementierungen im ersten Halbjahr 2019 erkannt. 90 Prozent dieser Implementierungen wiesen Verhaltenserkennungen von RDP-Angreifern auf“, berichtet Andreas Müller, Director DACH bei Vectra.

Andreas Müller

Foto: Vectra

Andreas Müller, Director DACH bei Vectra

Neben steigenden VPN- und VDI-Zugriffen auch unerwartete Zugriffsaktivitäten im Blick behalten

Die erhebliche Ausweitung der Telearbeit lässt sich an der seit Anfang 2020 beobachteten 41%igen Zunahme der Nutzung von Remote-Desktops und 33%igen Zunahme der VPN-Nutzung in Unternehmen ablesen.1 Dies wirft neue Fragen über die Sicherheit der Werkzeuge auf, die Menschen auf der ganzen Welt nutzen, um sich mit wichtigen Arbeitsplatzsystemen und geschäftskritischen Daten zu verbinden. Eine weiterhin deutliche Zunahme des VPN- und VDI-Zugriffs ist hierbei zu erwarten. Unternehmen sehen sich somit innerhalb kurzer Zeit mit einer Ausweitung der Cyberangriffsfläche konfrontiert. Umso wichtiger ist es daher, nach unerwarteten Zugriffsaktivitäten zu suchen. Dies könnte alles sein, vom Trend, dass Benutzer persönliche Cloud-Speicher nutzen, bis hin zu einem Server-Administrator, der Fernzugriffs-Tools einsetzt, um eine direkte Verbindung zu den Systemen herzustellen.

Überwachung der virtuellen Desktop-Infrastruktur (VDI)

Um die steigende Anzahl der Mitarbeiter an entfernten Standorten zu bewältigen, greifen Unternehmen zunehmend auf Cloud-basierte „Desktop as a Service“-VDI-Dienste zurück. Diese verfügen über eine verschlüsselte private Verbindung zurück in das Unternehmensnetzwerk. Mehrere gleichzeitige VDI-Sitzungen können durch zugehörige Kerberos- und NT-LAN-Manager (NTLM)-Authentifizierungssitzungen identifiziert werden und eine Überprüfung auf Anzeichen von kompromittierten Kontoanmeldeinformationen rechtfertigen. Jeglicher VDI-bezogener Verkehr außerhalb der gesicherten privaten Verbindung mit dem Cloud-VDI-Anbieter des Dienstes sollte identifiziert und kontrolliert werden.

Überwachung des Remote-Desktop-Protokolls (RDP)

Microsoft RDP wird von Remote-Clients zur Verbindung mit VDI-Diensten verwendet und ist ein verlockendes Ziel für Angreifer, da es ihnen die volle Kontrolle über die mit dem Netzwerk verbundenen Geräte geben kann. Im Laufe der Jahre sind immer wieder neuen RDP-Schwachstellen hinzugekommen, die eine Remote-Codeausführung und eine Eskalation von Privilegien ermöglichen. Normalerweise sollte RDP nicht dem Internet ausgesetzt sein, und wo VDI-Dienste lokal gehostet werden, sollte dies nur über VPN-Zugriff für entfernte Mitarbeiter geschehen. Einige Unternehmen geben der Bereitstellungsgeschwindigkeit jedoch gegenüber der Sicherheit den Vorrang. Sie stellen ihre RDP-Dienste hinter eine Web Application Firewall (WAF) und machen den Dienst öffentlich zugänglich. Die Exposition von RDP-Diensten gegenüber dem Internet ist normalerweise ein großes Risiko. In diesem Szenario ist es wichtig, dass eingehende RDP-Anforderungen ausschließlich auf die Verbindung mit dem legitimen RDP-Gateway beschränkt sind.

Identifizieren der unbefugten Nutzung von Cloud-Speicher

Die Verwendung von nicht genehmigten Cloud-Speicherdiensten kann zu Problemen bei der Einhaltung von Vorschriften und Richtlinien führen und es erschweren, Datenexfiltration zu erkennen. So ist davon auszugehen, dass für die gemeinsame Nutzung von Informationen verstärkt Cloud-basierte Speicher (OneDrive, Google Drive usw.) anstelle von firmeninternen Dateiservern verwendet werden. Dies bedeutet, dass mehr wertvolle Informationen in einem Cloud-Speicher abgelegt werden könnten, als dies unter gewöhnlichen Umständen der Fall wäre. Die Art und Weise, wie der Remote-Host verbunden ist, wirkt sich auf den Grad der Sichtbarkeit des Cloud-Speichers aus. Bei einer VPN-Verbindung mit geteiltem Tunnel werden nur die DNS-Anforderungen gesehen, die die IP-Adressen des Cloud-Speicherdienstes auflösen. Im Falle eines VPN mit vollem Tunnel wird iSession auch die nachfolgenden Verbindungen zum Cloud-Speicherdienst anzeigen.

Beobachtung von Server Message Block (SMB) mit externem Zugriff

SMB ist ein Protokoll auf Anwendungsebene, das den gemeinsamen Zugriff auf Dateifreigaben, Drucker und serielle Schnittstellen von Geräten in einem Netzwerk ermöglicht. SMB ist ein komplexes Protokoll mit vielen bekannten Schwachstellen, einschließlich EternalBlue, dem Exploit, der die Verbreitung von WannaCry, NotPetya und anderen verheerenden Ransomware-Angriffen ermöglicht. Normalerweise sollten SMB-Dienste nicht dem Internet ausgesetzt sein und nur über einen VPN-Zugang für Remote-Mitarbeiter erfolgen. Jede Exposition von SMB-Diensten geht mit einem erheblichen Datenverlustrisiko einher.

Überprüfung der Sicherheitslage an entfernten Endpunkten

Da die Arbeit an entfernte Standorte verlagert wird, ist es ratsam, sicherzustellen, dass über VPN verbundene Arbeitsplätze richtig konfiguriert sind, um auf die vom Unternehmen verwalteten Dienste wie DNS und NTP zuzugreifen. Wie verhalten sich die Endpunkte, die sich jetzt physisch außerhalb der Kontrolle befinden? Welche Hosts im Netzwerk initiieren zum Beispiel rekursive DNS-Anforderungen an externe DNS-Server? Bei VPN-Verbindungen mit vollem Tunnel wären die DNS-Auflösungen zu nicht firmeneigenen verwalteten DNS-Diensten sichtbar. Bei VPN-Verbindungen mit geteiltem Tunnel würde das DNS lokal aufgelöst und nicht sichtbar sein.

NDR-Plattform reduziert Arbeitsaufwand für Erkennung und Analyse

Versteckt im hohen Traffic-Volumen von Remote-Mitarbeitern, Unternehmensnetzwerken und Cloud-Instanzen gibt es kleine, aber wertvolle Hinweise, die für die Sicherheit relevant sind. „Durch den Einsatz einer automatisierten NDR-Plattform können Sicherheitsteams den mit solchen Erkennungen und Analysen verbundenen Arbeitsaufwand reduzieren und so ihre Effizienz und Effektivität erhöhen, worauf es gerade jetzt umso mehr ankommt“, rät Andreas Müller abschließend.

[1] Trends in Internet Exposure, Trends im Internet Exposure

Weitere Informationen zum Thema:

datensicherheit.de, 13.04.2020
VelvetSweatshop: Microsoft Office-Programme beliebtes Mittel zum Start von Cyberangriffen

datensicherheit.de, 10.04.2020
SANS Institute: Anstieg bei Angriffen auf das Remote Desktop Protocol

datensicherheit.de, 02.04.2020
Sicherheitspanne in Marriott-Hotels: Daten von 5.2 Millionen Kunden offengelegt

datensicherheit.de, 30.03.2020
VPN-Nutzung: Endgeräte-Hygiene im Home-Office empfohlen

datensicherheit.de, 26.03.2020
Corona: Verunsicherte Nutzer im Fokus von Cyber-Betrügern

]]>
https://www.datensicherheit.de/home-office-vergroesserung-angriffsflaeche-automatisierung-cybersicherheit/feed 0
Neue Kompetenzen der CIO: Innovative Technologien unterstützen das Kerngeschäft https://www.datensicherheit.de/kompetenzen-cio-innovative-technologien-unterstuetzung-kerngeschaeft https://www.datensicherheit.de/kompetenzen-cio-innovative-technologien-unterstuetzung-kerngeschaeft#respond Thu, 25 Jul 2019 12:31:54 +0000 https://www.datensicherheit.de/?p=33814 Studie von ServiceNow zeigt wichtige Erfolgsfaktoren: Kundenfokussierung, digitale Workflows und ein zunehmender C-Level-Einfluss

[datensicherheit.de, 25.07.2019] Erfolgreiche CIO (Chief Informationen Officer) fokussieren sich zunehmend auf die Unternehmensführung sowie die Ziele des Unternehmens, ihrer Kunden, Mitarbeiter und der Veränderung in den Unternehmen statt auf den Technologiebetrieb. Das zeigt eine neue von Oxford Economics durchgeführte Studie im Auftrag von ServiceNow, an der 516 globalen CIO teilgenommen haben.

Konzentration bisher vor allem auf IT

Viele Jahre lang konzentrierten sich CIO vor allem auf die IT. Laut Umfrage glauben heute jedoch fast zwei Drittel (63%) der Befragten, dass Geschäfts- und Führungsqualitäten wichtiger seien als Technologieverständnis. Die erfolgreichsten CIOs sind deshalb diejenigen, die sich fest als Business-Visionäre positioniert haben.

Rund ein Fünftel der befragten CIO die ihre Fähigkeiten als gut einschätzen, unterscheiden sich in diesen drei Aspekten von anderen CIO:

  • Sie sind bei der Digitalisierung von Workflows weiter fortgeschritten.
  • Sie bauen zunehmenden C-Level-Einfluss auf.
  • Sie konzentrieren sich auf externe Kunden.

Die leistungsstärksten CIO konzentrieren sich laut der Studie auf Strategie statt auf den Betrieb und richten die Ziele der IT an den Unternehmenszielen aus. Diese CIOs berichten auch von höherer Produktivität, Innovation und Kundenzufriedenheit in ihrem Unternehmen. Deutsche CIOs haben zunehmend starke Beziehungen zu anderen Mitgliedern der Geschäftsführung, insbesondere zu COO, CFO und Chief Human Resources Officer (CHRO).

„Die Umfrage zeigt ganz deutlich, dass sich auch CIOs in Deutschland umorientieren – weg vom reinen Technologiefokus, hin zu einer Business-Perspektive, die die Geschäftsziele im Blick hat. Dieser Paradigmenwechsel führt zu mehr Innovation, Performance und schließlich Erfolg, von dem alle im Unternehmen profitieren“, erklärt Detlef Krause, Area Vice President Germany bei ServiceNow.

Die meisten der Befragten aus Deutschland sind sich einig, dass der Aufbau von Partnerschaften und teamübergreifenden Projekten auf Entscheider-Ebene eine wichtige Aufgabe ist:

  • 64% der deutschen CIO sind sich einig, dass ihre Aufgabe darin bestehe, andere Mitglieder der Geschäftsführung über digitale Technologien aufzuklären.
  • 66% sagen, dass die Zusammenarbeit mit dem CEO bei der Festlegung von Unternehmens-Roadmaps eine ihrer Schlüsselaufgaben sei.
  • 72% der CIO geben an, dass zu ihren Kernaufgaben die Zusammenarbeit mit dem CHRO bei Talentstrategien gehöre.

Aus technologischer Sicht implementieren erfolgreiche CIO Maßnahmen für die Automatisierung und Integration von Arbeitsprozessen sowie für die Einführung digitaler Workflows, um den Geschäftserfolg zu steigern. Zudem stellen sie einen unternehmensweiten Konsens über die Nutzung dieser Technologien her. In Deutschland erkennt die Mehrheit der CIOs die Bedeutung digitaler Workflows für die Steigerung der Effizienz (79%), der finanziellen Leistungsfähigkeit (70%), der Produktivität (83%), der Mitarbeiterleistung (77%) und der Innovation (72%).

„Da Technologie für den Geschäftserfolg immer entscheidender wird, sind die Erwartungen an den CIO exponentiell gestiegen. Früher war der CIO der IT Technologie Manager eines Unternehmens, aber heute sind die erfolgreichsten CIOs diejenigen, die Vordenker, Innovatoren und Visionäre sind“, sagt Chris Pope, Vice President Innovation bei ServiceNow. „CIOs haben die Möglichkeit, eine zentrale Rolle bei der Transformation ihres Unternehmens zu spielen. Der Aufbau von C-Level-Einfluss, die Fokussierung auf Mitarbeiter- und Kundenerfahrungen sowie die Veränderung der Geschäftsmodelle durch die Digitalisierung von Arbeitsabläufen sind die Erfolgsfaktoren für eine hohe Leistungsfähigkeit“, erklärt Pope.

Untersuchungs-Methodik

Die unabhängige internationale Umfrage unter 516 CIOs(davon 328 aus Europa) in 11 Ländern und 24 Branchen wurde von Oxford Economics durchgeführt. Die Umfrage wurde über computergestützte Telefoninterviews (CATI) durchgeführt, bei denen die Befragten anonym bleiben, klärende Fragen stellen und demografische Informationen bestätigen konnten.

Befragte Länder: USA, Großbritannien, Australien/Neuseeland, Deutschland, Frankreich, Italien, Spanien, Niederlande, Japan und Singapur.

Weitere Informationen zum Thema:

datensicherheit.de, 29.08.2018
Ivanti-Studie: Basisgeschäft blockiert kreatives Potenzial der CIO

datensicherheit.de, 23.07.2018
Handhabung von IT-Komplexität: Sechs Strategien für CIOs

]]>
https://www.datensicherheit.de/kompetenzen-cio-innovative-technologien-unterstuetzung-kerngeschaeft/feed 0
Zertifikatsmanagement muss automatisiert und skalierbar sein https://www.datensicherheit.de/zertifikatsmanagement-automatisierung-skalierbarkeit https://www.datensicherheit.de/zertifikatsmanagement-automatisierung-skalierbarkeit#respond Thu, 24 Jan 2019 16:06:14 +0000 https://www.datensicherheit.de/?p=29823 Sicherheitszertifikate wesentliche Voraussetzung für den Aufbau vertrauenswürdiger Netzwerke

[datensicherheit.de, 24.01.2019] Über den Umgang und Bedeutung von Sicherheitszertifikaten sprach Carsten J. Pinnow, Herausgeber und Chefredakteur von datensicherheit.de (ds) mit Darron Gibbard, Chief Technical Security Officer EMEA North bei Qualys.

ds: Wie wichtig sind Software-Zertifikate in Netzwerken? Ist das softwaredefinierte Netzwerk schwieriger zu schützen?

Gibbard: Das Problem ist hier nicht die zunehmende Software-Nutzung an sich, sondern dass die Sicherheitsmaßnahmen schwer zu skalieren sind. Sicherheitszertifikate sind eine wesentliche Voraussetzung für den Aufbau vertrauenswürdiger Netzwerke, und sie müssen stets auf dem neuesten Stand gehalten werden. Problematisch wird das, wenn Sie Millionen von Zertifikaten haben, die alle verfolgt und aktuell gehalten werden müssen. Hier kommt es schnell zu Versäumnissen, vor allem, wenn auch Hardware oder Software von Drittanbietern oder externe Dienstleister mit im Spiel sind.

ds: Was könnte das für die Zukunft bedeuten? Mit welchen Konsequenzen müssen wir rechnen?

Gibbard: Für kritische Infrastrukturen muss vor allem ein erstklassiges Verfahren angewandt werden, das die richtigen Grundlagen schafft. Andernfalls können sich eigentlich geringfügige Probleme auf breitere Infrastrukturen und Dienste auswirken.

Wir müssen diese Dienste als Gesamtheit betrachten, von ihren einzelnen Komponenten bis hin zu den Services, die die Benutzer am Ende erhalten. Wenn nicht sämtliche Komponenten effektiv verwaltet und abgesichert werden, besteht das Risiko, dass es künftig vermehrt zu Ausfällen kommt.

Darron Gibbard, Chief Technical Security Officer EMEA North bei Qualys

Bild: Qualys

Darron Gibbard, Chief Technical Security Officer EMEA North bei Qualys

ds: Wie lässt sich das verhindern?

Gibbard: Zertifikatsmanagement ist eine wichtige, ja unerlässliche Aufgabe. Wenn man sie automatisiert und damit skalierbar macht, kann man die Verwaltung optimieren und menschliche Fehler vermeiden.

Wichtige Schritte, um Problemen vorzubeugen:

  1. Schwachstellen bei TLS/SSL-Zertifikaten laufend ausräumen: Sie müssen mit verschiedenen Fehlkonfigurationen rechnen, wie etwa fehlenden Feldern, Nutzung interner Namen, Verwendung überholter Hash-Algorithmen oder schwacher Verschlüsselung. Wenn die Zertifikate in das übergreifende Schwachstellenmanagement-Programm einbezogen werden, lassen sich solche Schwächen wirksam beheben. Sehr häufig werden die Zertifikatsserver jedoch aus Gründen der Sensibilität und Verfügbarkeit aus dem allgemeinen Schwachstellenmanagement ausgeklammert. Ein Sicherheitsmanager braucht Produkte, die alle Schwachstellen laufend erkennen, und muss dafür sorgen, dass die Schwachstellenmanagement-Lösung auch auf die Zertifikatsserver Zugriff hat.
  2. Alle Zertifikate in Ihrem Netzwerk ermitteln: Wie oben bereits erwähnt, ist es wichtig, die Zertifikatsserver in Ihre Programme für Asset- und Schwachstellenmanagement einzubeziehen. Unternehmen, die Tausende von Zertifikaten haben, können jedoch nicht jedes einzelne Zertifikat manuell genau überprüfen. Außerdem bietet ein solches Verfahren keine Garantie, dass wirklich alle Zertifikate in Ihrer Umgebung erfasst werden. Unternehmen haben oft keinen richtigen Überblick darüber, wie viele Zertifikate sie eigentlich haben, wo diese installiert sind und ob sie noch richtig konfiguriert sind. Hier können automatisierte Tools helfen, die auf einfache Weise Übersicht über alle Zertifikate in einer Umgebung vermitteln.
  3. Den Ablauf der Zertifikate verwalten: Eine weitere Hauptschwierigkeit bei der Zertifikatsverwaltung besteht darin, den Ablauf der Zertifikate zu überwachen. Wenn Sie alle vorhandenen Zertifikate ermittelt haben und deren Ablauf dann mithilfe von Spreadsheets verfolgen müssen, ist die Fehlergefahr hoch, und Zertifikate werden möglicherweise nicht rechtzeitig erneuert. Sie benötigen also Lösungen, die abgelaufene und ablaufende Zertifikate direkt auf der Konsole sichtbar machen und dafür sorgen, dass keine kritischen Geschäftsfunktionen beeinträchtigt werden können. Zugleich muss verhindert werden, dass Wildcard-Zertifikate Geschäftsabläufe stören, die von einer sicheren Kommunikation mit authentifizierten Partnern und Kunden abhängig sind.

Weitere Informationen zum Thema:

datensicherheit.de, 11.09.2018
Fraunhofer SIT zur Fälschung von Webzertifikaten

datensicherheit.de, 18.07.2016
Phishing-Websites können gültige SSL/TLS-Zertifikate missbrauchen

]]>
https://www.datensicherheit.de/zertifikatsmanagement-automatisierung-skalierbarkeit/feed 0
Vollständiges End-to-End-Sicherheitsmanagement für Cloud-Sicherheitskontrollen https://www.datensicherheit.de/vollstaendiges-end-to-end-sicherheitsmanagement-cloud-sicherheitskontrollen https://www.datensicherheit.de/vollstaendiges-end-to-end-sicherheitsmanagement-cloud-sicherheitskontrollen#respond Thu, 23 Aug 2018 10:15:58 +0000 https://www.datensicherheit.de/?p=28541 AlgoSecs 2018.1-Lösung für die Verwaltung von Sicherheitsrichtlinien umfasst eine erweiterte Automatisierung für das Sicherheitsmanagement sowie einen Out-of-the-box-DSGVO-Support

AlgoSec, Anbieter geschäftsorientierter Security-Policy-Management-Lösungen, veröffentlicht Version 2018.1 seines gleichnamigen Podukts, das in der aktuellsten Version den Fokus auf die Bereitstellung neuer Automatisierungsfunktionen legt. Sie ermöglichen ein End-to-End- und Zero-Touch-Management, um Regelwerke für Cloud-Sicherheitskontrollen und Software-Defined-Networks (SDN) zu ändern, damit eine vollständige Sichtbarkeit und Automatisierung in der gesamten Hybridumgebung gewährleistet wird.

End-to-End-Automatisierung von Sicherheitsrichtlinien für Cloud-Sicherheitskontrollen

Neben dem bestehenden Support für ein breites Spektrum an On-Premise-Sicherheitsgeräten und AWS Security Groups bietet AlgoSec 2018.1 jetzt eine vollständige End-to-End-Automatisierung für das Management von Sicherheitsrichtlinienänderungen unter Microsoft Azure und Cisco. Dies reicht von der Planung über Risiko- und Compliance-Prüfungen bis hin zur direkten Implementierung auf dem Gerät mit einer Zero-Touch-Installation. Zu den neuen Funktionen von AlgoSec 2018.1 gehören:

Microsoft Azure: AlgoSec 2018.1 bietet die Transparenz und die Möglichkeit, die Routing-Topologie in der Cloud zu simulieren. Des Weiteren können neue Regeln direkt auf Microsoft Azure Security Groups bereitgestellt und unnötige Regeln entfernt werden.
Cisco ACI: Mit AlgoSec 2018.1 können Nutzer neue Verträge und Filter direkt auf dem Cisco APIC erstellen.
End-to-End-Automatisierung von Sicherheitsrichtlinien für Check Point R80

AlgoSec 2018.1 bietet vollständige End-to-End-Automatisierung für das Ändern von Sicherheitsrichtlinien, einschließlich der Ergänzung und Änderung von Regeln auf R80-Geräten von Check Point. Darüber hinaus können Nutzer mit AlgoSec 2018.1 Regeln automatisch entfernen oder deaktivieren, um ihre Sicherheitsrichtlinien zu bereinigen und zu optimieren.

Out-of-the-Box-Support für die DSGVO

Version 2018.1 umfasst Out-of-the-Box-Unterstützung für die neue Datenschutzgrundverordnung (DSGVO). Mit AlgoSecs DSGVO-Unterstützung können Nutzer:

  • Per Mausklick einen DSGVO-Compliance-Bericht für alle einschlägigen Netzwerk-Sicherheitsgeräte erstellen.
  • Einen aktuellen und genauen Überblick über den Compliance-Zustand des Unternehmens erlangen.
  • Compliance-Lücken sofort ermitteln und praktische Empfehlungen zur Behebung erhalten.
  • DSGVO-Risiken und -Compliance für jede Firewall-Regeländerung proaktiv bewerten, um dauerhafte Compliance zu gewährleisten.
Avishai Wool, CTO, AlgoSec

Bild: AlgoSec

Avishai Wool, CTO von AlgoSec

„Durch die schnellen Änderungen und Bereitstellungen von Geschäftsanwendungen in der Cloud müssen Unternehmen heutzutage agiler sein denn je. Doch geht diese Agilität häufig auf Kosten der Sicherheit und der Compliance“, sagt Avishai Wool, CTO von AlgoSec. „Mit der Version 2018.1 liefert AlgoSec vollständige End-to-End-Automatisierung für den Managementprozess der Änderungen am Sicherheitsregelwerk für die Cloud sowie für hybride Unternehmensumgebungen, um flexibler zu werden und gleichzeitig die Sicherheit und Compliance im digitalen Unternehmen der nächsten Generation zu gewährleisten.“

Die Sicherheitsmanagement-Lösung Version 2018.1 von AlgoSec ist ab sofort erhältlich.

Weitere Informationen zum Thema:

AlgoSec
Security Policy Management

datensicherheit.de, 26.07.2018
Cybersicherheit: Die Lücke zwischen Schutz und Risiko

datensicherheit.de, 10.07.2018
Gemalto: Unternehmen sammeln mehr Daten als sie verarbeiten können

datensicherheit.de, 04.07.2018
Cybersicherheit: Führungskräften in Europa müssen sensibilisiert werden

]]>
https://www.datensicherheit.de/vollstaendiges-end-to-end-sicherheitsmanagement-cloud-sicherheitskontrollen/feed 0
Vom Menschen lernen: Das lebende Unternehmen https://www.datensicherheit.de/vom-menschen-lernen-das-lebende-unternehmen https://www.datensicherheit.de/vom-menschen-lernen-das-lebende-unternehmen#respond Thu, 28 Jun 2018 15:02:02 +0000 https://www.datensicherheit.de/?p=27773 Das System Mensch verarbeitet Daten automatisiert und in Echtzeit. Unternehmen können davon lernen und ihren veralteten Datenverarbeitungsprozess fit für Digitalisierung machen.

Von unserem Gastautor Mark Budzinski, CEO WhereScape

[datensicherheit.de, 28.06.2018] Der menschliche Körper ist ein bemerkenswerter Organismus. Ohne hier zu tief in Anatomie und Physiologie des Menschen einzutauchen, gibt es zahlreiche Bereiche, in denen sich der Mensch und die Datenverarbeitung eines Unternehmens stark ähneln. Zwar sind die Systeme des Menschen nicht digital sondern organisch, das Gesamtsystem Mensch funktioniert jedoch ganz ähnlich wie eine Organisation – eine große Anzahl an Informationssystemen laufen parallel und transportieren eine Fülle von Informationen zu jedem Organ. Wenig überraschend, ist der Mensch der IT in Sachen Datenverarbeitung nach vielen Millionen Jahren Evolution um einiges voraus. So funktioniert die Datenverarbeitung des Menschen in den meisten Fällen nicht nur in Echtzeit, sondern auch komplett automatisiert. Hier können Unternehmen ansetzen, um vom Menschen zu lernen und ihre IT in Zeiten der Digitalisierung leistungsfähiger zu machen.

Mark Budzinski, CEO WhereScape

Bild: WhereScape

Mark Budzinski, CEO WhereScape

Digitale Transformation hat hohe Priorität

Für CIOs ist die digitale Transformation eine der wichtigsten Prioritäten, um ihre Unternehmen bestmöglich durch eine umfassende datengetriebene Strategie zu unterstützen. Damit dies gelingen kann, müssen Daten und Informationen optimal durch das Unternehmen fließen. Am besten in Echtzeit, wie bei einem Menschen, und komplett wartungsfrei und automatisch. Das ist natürlich einfacher gesagt als getan und Unternehmen haben in der Realität große Schwierigkeiten damit, dem Organismus Mensch in dieser Hinsicht nachzueifern.

Die Datenlage eines Unternehmens ändert sich kontinuierlich

Anders als der Mensch, und anders als Unternehmen vor der Digitalen Revolution, schläft ein modernes Unternehmen nie. Für ein globales Unternehmen ist ohnehin immer irgendwo Tag und selbst wer nicht global präsent ist, bekommt rund um die Uhr Daten von internen oder externen Anwendungen, IoT oder Social Media, ins Rechenzentrum. Diese neu angekommenen Daten sollten möglichst sofort und in Echtzeit bearbeitet werden, damit sie direkt genutzt werden können. Diese neuen Datenquellen, die rund um die Uhr sprudeln, überfordern jedoch ältere Systeme der Datenverarbeitung, wie etwa die traditionelle Datenanalyse. Diese wurde bisher nur aus regelmäßig oder zyklisch erzeugten Datenquellen erstellt, was auch im Allgemeinen ausreichte, um sehr spezifische, nicht zeitkritische Daten effizient zu verarbeiten, wie etwa die Verarbeitung von Abrechnungen oder das Reporting der monatlichen Einnahmen.

Trends und Anomalien von hohem Wert

Für Systeme, die hingegen rund um die Uhr laufen und kontinuierlich Daten erzeugen, ist diese traditionelle Datenanalyse natürlich vollkommen ungeeignet. Eine Analyse des Aktienmarktes beispielsweise wäre im Moment der Analyse bereits veraltet. Der Wert solcher Daten, wie IoT-Sensoren oder Finanzdaten, liegt im Wesentlichen in den identifizierten Trends und Anomalien, die möglichst in Echtzeit identifiziert werden müssen, um wertvoll zu sein.

Automatisierung hilft der IT dem Mensch nachzueifern

Genauso wie beim Menschen, laufen in einem Unternehmen eine Vielzahl von Systemen parallel – einige in Echtzeit, einige in Intervallen. Es ist seit jeher eines der Ziele jeder IT, Informationen aus einer Vielzahl von Datenquellen in einer einzigen Infrastruktur automatisch zusammenzuführen, sie dort aufzubereiten und den Anwendern zur Verfügung zu stellen. Diese Aufgabe war schon immer eine große Herausforderung, die durch die steigende Digitalisierung stetig komplexer geworden ist. Die Anzahl der Systeme und Anwendungen steigt seit langem ständig und mit ihnen wächst das zu verarbeitende und zu speichernde Datenvolumen. Damit wird auch die manuelle Verarbeitung und Bereitstellung dieser Daten immer komplexer und zeitaufwändiger und bringt die IT unter Zugzwang diese Prozesse zu vereinfachen und zu automatisiere, um ihrer eigentlichen Aufgabe gerecht zu werden.

Um Daten wie der Mensch automatisch und in Echtzeit verarbeiten zu können, kommt der Unternehmens-IT die Automatisierung zu Hilfe, der eine Schlüsselrolle bei der fortschreitenden Digitalisierung zufällt. Erst durch umfangreiche Automatisierung kann der Zeitaufwand und das Verständnis für die nötigen Prozesse deutlich verringert werden.

Die Vorteile eines automatisierten Unternehmens

Gelingt es der IT die Vielzahl paralleler Systeme und die damit steigende Datenmenge automatisiert und in Echtzeit zu verarbeiten, kommt sie dem Vorbild Mensch nahe. Die Vorteile eines autonom Daten atmenden und Informationen pumpenden Unternehmens zeigen sich fortan in jeder Geschäftszelle des Unternehmens: In kundennahen Bereichen kann in Echtzeit auf Trends und Situationen reagiert werden, zum Beispiel auf aktuelle Trends von Aktienwerten oder auf Marktinformationen. Trotz viel Rechenleistung ist die vollkommen künstliche Intelligenz noch Science Fiction. Maschinelles Lernen hingegen wird bereits in vielen Bereichen eingesetzt, um die Berge an Daten effizient zu bearbeiten. Mathematische Algorithmen können hier eingesetzt werden, um aus den Datenströmen zu lernen und Erkenntnisse zu generieren.

Für jeden CEO ist vollkommen klar: wenn sein Unternehmen Daten schnell und in Echtzeit bearbeiten und diese dank maschinellem Lernen sogar gleich direkt interpretieren kann, wäre das ein riesiger Vorteil gegenüber allen Wettbewerbern. Man ist immer einen Schritt voraus, kann jederzeit auf aktuellen Daten basierende Entscheidungen treffen und kann den Kunden beweisen, dass man am sprichwörtlichen Puls der Zeit ist. Diese Vorteile und Chancen aus der Analyse aktueller Daten in Echtzeit sind zu wichtig, um sie zu ignorieren.

Unternehmen brauchen Lösungen zur automatisierten Datenverarbeitung

Praktisch jedes Unternehmen ist derzeit im fortlaufenden Prozess der Digitalisierung. Ein wichtiger Teil davon, den es derzeit zu meistern gilt, ist die Herausforderung Daten aus einer Vielzahl hybrider Datenquellen verarbeiten zu können. Die Automatisierung hat hier bereits Erfolge bei der Stapelverarbeitung von Batch-basierten Daten erzielt. Jetzt gilt es für Unternehmen – und ihre IT – den gleichen Ansatz bei Datenströmen in Echtzeit anzuwenden. Damit dies gelingt, müssen sich Unternehmen genau überlegen, wie sie ihr internes Know-how am besten mit neuen Lösungen zur automatisierten Datenverarbeitung kombinieren können.

Der menschliche Körper ist ein in vieler Hinsicht weit entwickeltes System, das einer modernen IT ähnelt und Daten aus einer Vielzahl an Quellen automatisch und in Echtzeit verarbeitet. Um im Rahmen der Digitalisierung nicht ins Hintertreffen zu geraten, müssen Unternehmen dem Menschen nacheifern und Systeme zur automatisierten Datenverarbeitung kontinuierlicher Datenströme implementieren.

Weitere Informationen zum Thema:

WhereScape
Data Warehouse and Infrastructure Automation Solutions

datensicherheit.de, 11.09.2015
Digitale Transformation: Chance und Risiko zugleich

]]>
https://www.datensicherheit.de/vom-menschen-lernen-das-lebende-unternehmen/feed 0