Aktuelles, Branche - geschrieben von dp am Montag, Oktober 12, 2020 11:52 - noch keine Kommentare
Steven Wright: Tipps zum effizienten Einsatz von Datenbank-Überwachungstools
„Gut genug“ kann letztendlich unnötige Kosten verursachen, so ein zentraler Tipp
[datensicherheit.de, 11.10.2020] Datenbanken sind heutzutage offensichtlich eine tragende Säule zahlreicher Geschäftsprozesse. „Unabhängig von der Größe eines Unternehmens – Datenbestände können stets komplex sein. Deshalb lohnt es sich die im Einsatz befindlichen Monitoring-Lösungen regelmäßig kritisch zu evaluieren und wirksame, effiziente Prozesse zu entwickeln“, empfiehlt Steven Wright, „Director of Sales Enablement“ bei SentryOne. Die Einstellung, dass die eingesetzten Lösungen zwar als „gut genug“ erscheinen, kann laut Wright „letztendlich unnötige Kosten verursachen“. Er gibt in seiner aktuellen Stellungnahme Tipps zum effizienten Einsatz von Datenbank-Überwachungstools und schildert worauf dabei zu achten ist.
Steven Wright: Bestehende Lösungen in regelmäßigen Abständen kritisch evaluieren!
Ausfallzeiten frühzeitig und schnell identifizieren, Ursache ermitteln und künftig zu vermeiden
Ob Interaktion mit den Kunden in einem Online-Shop, Zugriffe auf Ressourcen einer Website oder die betriebsinterne Nutzung von Software-Anwendungen: „Datenbanken sind eine tragende Säule zahlreicher Geschäftsprozesse.“ So könnten auch kleine Probleme auf Datenbankebene verlangsamte Abläufe mit sich bringen oder gar zu Ausfallzeiten führen, warnt Wright. „Laut Gartner liegen die durchschnittlichen Kosten für IT-Ausfallzeiten bei 5.600 US-Dollar pro Minute. Obwohl die Bezifferung maßgeblich von der Größe und Art des Unternehmens abhängt, können selbst kleine Unternehmen Kosten von bis zu 100.000 US-Dollar pro Stunde Ausfallzeit verzeichnen, während bei größeren Unternehmen die Kosten auf über eine Million US-Dollar pro Stunde ansteigen können.“
Verlangsamte Prozesse wiederum verursachten zwar geringeren Schaden – man schätze etwa ein Fünftel der stündlichen Ausfallkosten – sie träten allerdings zehnmal häufiger auf. Diese Kosten könnten sich dann sehr schnell summieren, so dass es für jedes Unternehmen von enormem Wert sei, derartige Ereignisse frühzeitig und schnell zu identifizieren, ihre Ursache zu ermitteln, zu lösen und künftig zu vermeiden.
Unternehmen sollten ihre Monitoring-Lösungen kritisch betrachten
Datenbanken seien mit einer Vielzahl an weiteren Prozessen verknüpft, welche sich auf die Leistung auswirken könnten. Unternehmen nutzten daher verschiedene Tools und Methoden, um Schwierigkeiten, die die Performance von Datenbanken beeinträchtigten oder diese hervorrufen könnten, ausfindig zu machen.
„Diese mögen augenscheinlich für den täglichen Betrieb gut genug sein, werden sie jedoch auf die falsche Weise eingesetzt, können noch mehr Aufwand und Kosten entstehen“, so Wright. Für Unternehmen lohne es sich daher, ihre Monitoring-Lösungen kritisch zu betrachten:
1. Tipp: Überwachung der Anwendungsleistung – Application Performance Management (APM) Tools
Heute gebe es eine Fülle von Tools auf dem Markt, die eine einfache Überwachung der Anwendungsleistung in guter Qualität ermöglichten und einen allgemeinen Überblick des Zustands von IT-Umgebungen böten. „Wie die Mehrheit der Nutzer angibt, sind APM-Tools zwar in der Lage, in die richtige Richtung zu weisen, allerdings gelingt es ihnen nicht, Problemursachen auf der Datenplattform zu identifizieren. Somit ist es erforderlich, zusätzlich manuelle Daten zu erfassen, um Probleme zu beheben und dauerhaft zu lösen.“
Da APM-Tools mitunter nicht die erforderliche Tiefe der Datenbankanalyse erreichten, um die zugrunde liegenden Performance-Probleme zu eliminieren, dauere die Ursachenanalyse meist länger und erschwere die langfristige Optimierung.
2. Tipp: Benutzerdefinierte Skripte
Erfahrene Datenbank-Administratoren (DBAs) verfügten meist über eine Sammlung von benutzerdefinierten Skripten, welche sie entweder online recherchiert oder selbst erstellt hätten. Diese Skripte dienten in der Regel dazu, andere Werkzeuge wie beispielsweise APM zu ergänzen, fehlende Funktionen auszugleichen oder Ad-hoc-Probleme zu lösen.
„Wird die Leistungsüberwachung vornehmlich durch eine Skript-Bibliothek bewerkstelligt, kann dies dennoch Einschränkungen nach sich ziehen. Denn nur in Ausnahmefällen lässt sich mit ihnen ein vollständiges Bild der IT-Umgebung erstellen. Viele Skripte werden lediglich für einen bestimmten Sachverhalt entwickelt und sind bereits nach einmaliger Anwendung überflüssig.“ Diejenigen, die einen längerfristigen Wert böten, seien hingegen oft schwer zu warten: „Wenn die Umgebung wächst und neue Technologien zum Einsatz kommen, kann die Pflege der Skripts schnell zu einer Vollzeitbeschäftigung werden.“ Angesichts der geringen Wahrscheinlichkeit, dass die Skripts die erforderliche Granularität besäßen und/oder signifikante historische Details lieferten, um den Ursachen auf den Grund gehen zu können, ein unnötig hoher Aufwand, so Wright.
3. Tipp: SQL Server Wait Statistics
„Eine ,Ressourcen-Wartezeit‘ wird durch Prozesse akkumuliert, die auf SQL-Servern laufen und darauf warten, dass eine bestimmte Ressource verfügbar wird. Warte-Statistiken (wait statistics) zeigen entsprechend auf, wo sich kritische Engpässe innerhalb von SQL-Servern aufbauen.“ Einige IT-Verantwortliche könnten versucht sein, sich einfach auf die Warte-Statistiken zu konzentrieren, um die Leistung ihrer Datenbanken zu verstehen. Dies könne jedoch – insbesondere auf Abfrageebene – zu völlig falschen Schlussfolgerungen führen: „Es ist in etwa so, als würde man bei einem Verkehrsstau lediglich ein einzelnes Auto betrachten. Das Auto bewegt sich und läuft demnach einwandfrei. Was dieser Betrachtung jedoch entgeht, ist der Lastwagen weiter vorne, der umdrehen möchte.“
Ebenso benötige man auch bei der Betrachtung von Warte-Statistiken Informationen aus anderen Quellen, „damit man ein vollständiges Bild erlangen und den Ursachen auf den Grund gehen kann“. Dennoch bildeten sie zumindest einen sehr guten Ausgangspunkt, um ein Gefühl für das Leistungsprofil des Servers zu bekommen und zu erfahren, wo Probleme auftreten könnten.
4. Tipp: Überwachung der Datenbankleistung: Data Performance Monitoring (DPM) Tools
Auf den ersten Blick erschienen DPM-Tools natürlich als effektivste Methode zur Überwachung der Datenbankleistung, schließlich seien sie genau dafür konzipiert. Doch auch sie brächten Einschränkungen mit sich, „wenn man es nicht versteht, ihr Potenzial maximal zu nutzen“.
Ein Problem von DPM-Tools könnten beispielsweise zu wenige Details sein, insbesondere bei Counter-Metriken wie CPU oder IO. Manche Produkte und auch selbst entwickelte Lösungen erfassten Momentaufnahmen dieser Daten lediglich einmal im Abstand von mehreren Minuten, um den entsprechenden Server nicht übermäßig zu belasten. Andere Einschränkungen betreffen demnach die Details auf Abfrageebene: „Meist werden lediglich die Top N-Abfragen gesammelt oder angezeigt, unabhängig von der Aktivitätsebene auf dem Server. Oder man konzentriert sich auf Abfragen, die auf ihren eigenen Wartezeiten basieren, im Gegensatz zum tatsächlichen Ressourcenverbrauch der Anfrage, bei dem es viel wahrscheinlicher ist, die Ursache zu identifizieren.“
Skalierbarkeit oft eine Herausforderung
Auch die Skalierbarkeit sei oft eine Herausforderung. Die Anzahl an Servern, die sich mit einer Produktinstallation überwachen ließen, sei bei den meisten DPM-Tools begrenzt. Die Tatsache, dass sie alle von einer SQL-Server-Datenbank unterstützt würden, um sämtliche gesammelten Daten zu speichern, schaffe allerdings einen Engpass.
Aus diesem Grund hätten diese Produkte ab etwa 200 bis 300 überwachten SQL-Servern zu kämpfen. Für größere Unternehmen könne es daher notwendig sein, mehrere Installationen zu implementieren, um alle Server abzudecken. Einige DPM-Produkte handhabten dies, indem sie mehrere Back-End-Datenbanken von einer einzigen Schnittstelle aus unterstützten, „obwohl dies einen erheblichen Kosten- und Verwaltungsaufwand erfordert“.
Eingesetzten Tools sollten optimal laufen und maximalen Nutzen liefern
„Gut genug“ könne durchaus teuer werden, sagt Wright. Unabhängig von der Größe eines Unternehmens könnten die Datenbestände stets komplex sein. Deshalb sei es wichtig, sicherzustellen, dass die eingesetzten Tools optimal liefen und maximalen Nutzen brächten. Im Wesentlichen könnten Unternehmen anhand der folgenden Kriterien beurteilen, „ob ihre Lösung zur Datenbanküberwachung ausreichend wirksam ist“:
- Bietet die Lösung genügend Details und exakt die Angaben, um Probleme schnell zu lösen und zu verhindern?
- Lässt sie sich entsprechend des erwarteten Datenwachstums skalieren?
- Funktioniert die Lösung in allen Umgebungen, in denen sie benötigt wird?
- Trägt sie in zufriedenstellendem Maß zur Problemlösung bei – oder ruft sie womöglich noch mehr hervor als sie lösen soll?
- Wie sieht es mit dem Support aus? Besteht Unterstützung durch erfahrende Ingenieure – für den Fall, dass etwas schief geht?
Wrights Fazit: „Bestehende Lösungen in regelmäßigen Abständen kritisch zu evaluieren hilft dabei, wirksame und effiziente Prozesse zu entwickeln. Insbesondere verhindert es dem Phänomen entgegen, dass die eingesetzten Lösungen zwar als gut genug erscheinen, letztendlich aber durch Verlangsamung oder Ausfälle unnötige Kosten verursachen.“
Weitere Informationen zum Thema:
datensicherheit.de, 29.09.2017
NoSQL-Datenbanken: Schlüsseltechnologie für Digitalisierung
Aktuelles, Experten - Nov 22, 2024 18:30 - noch keine Kommentare
Mal wieder IP-Datenspeicherung angestrebt: DAV fordert nachdrücklich, Überwachungsphantasien abzustellen
weitere Beiträge in Experten
- ePA für alle: Daten für die Forschung und das Risiko trägt der Patient
- CRA endgültig in Kraft getreten: Digitale Produkte in der EU kommen auf den Prüfstand
- Datenleck bei Öko-Stromanbieter: 50.000 Datensätze deutscher Tibber-Kunden im Darknet
- HmbBfDI unternahm branchenweite Schwerpunktprüfung im Forderungsmanagement
- Repräsentative Studie von Civey und QBE: Über 24 Prozent deutscher Unternehmen kürzlich von Cyber-Attacke betroffen
Aktuelles, Branche - Nov 22, 2024 18:42 - noch keine Kommentare
Im Kontext der CRA-Umsetzung droht Herstellern Open-Source-Falle
weitere Beiträge in Branche
- Gelsemium-Hacker: ESET warnt vor neuen Linux-Backdoors
- Laut 2025 Identity Fraud Report alle fünf Minuten ein Deepfake-Angriff
- Unternehmen sollten NIS-2 ernst nehmen und schnell konforme Lösungen etablieren
- Betrug im Digital-Zeitalter: Moderne IT definiert -Bedrohungen und -Schutzmaßnahmen neu
- TOPqw Webportal: G DATA deckte fünf Sicherheitslücken auf
Branche, Umfragen - Dez 21, 2020 21:46 - noch keine Kommentare
Threat Hunting: Bedeutung und Wertschätzung steigt
weitere Beiträge in Service
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
- Cybersicherheit: SANS-Studie zu Frauen in Führungspositionen
Kommentieren