KI – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Tue, 25 Mar 2025 15:15:13 +0000 de hourly 1 https://wordpress.org/?v=5.6.14 Paradigmenwechsel: Integration Künstlicher Intelligenz direkt am Edge https://www.datensicherheit.de/integration-kuenstliche-intelligenz-edge https://www.datensicherheit.de/integration-kuenstliche-intelligenz-edge#respond Tue, 25 Mar 2025 15:15:13 +0000 https://www.datensicherheit.de/?p=46876 Dell Technologies benennt fünf unschlagbare Vorteile

[datensicherheit.de, 25.03.2025] Die Integration von Künstlicher Intelligenz am Edge schafft einen Paradigmenwechsel in der Datenverarbeitung. Moderne IT-Plattformen mit ihren kompakten KI-Servern ermöglichen es, wichtige Informationen direkt an der Quelle zu analysieren. Von der Datenverarbeitung vor Ort profitieren Unternehmen unterschiedlichster Branchen – von der Fertigung über den Einzelhandel bis hin zum Gesundheitswesen. Dell Technologies zeigt die Vorteile.

Vorteil: Verarbeitung großer Datenmengen am Edge

Die Datenmengen, die von KI-Systemen verarbeitet werden, sind oft so groß, dass sie zur Analyse nicht in ein zentrales Rechenzentrum oder eine Public Cloud geschickt werden können. Zum einen verzeihen zeitkritische Arbeitsabläufe keine Verzögerungen, die eine solche Übertragung automatisch mit sich bringen würde. Zum anderen wären die Kosten dafür viel zu hoch. Deshalb ist die Berechnung und Auswertung von KI-Daten am Ort ihrer Entstehung in vielen Fällen die bessere Lösung.

Im Folgenden sind einige der Vorteile aufgeführt, die Unternehmen durch die nahtlose Integration von KI in ihre Edge-Infrastruktur erzielen:

Minimierung von Latenzzeiten. Durch die lokale Datenverarbeitung können zeitkritische Anwendungen und Use Cases wie der Roboterarm in der Fertigung oder das POS-System (Point of Sale) im Lebensmittelgeschäft nahezu in Echtzeit ausgeführt werden. KI-Algorithmen am Edge priorisieren Aufgaben und sorgen so für die nötige Reaktionsgeschwindigkeit und Stabilität, um reibungslose Abläufe zu gewährleisten.

  • Steigerung von Wirtschaftlichkeit und Datenschutz. Die Verarbeitung großer Datenmengen vor Ort vermeidet teure Übertragungen an zentrale Rechenzentren oder die Public Cloud. Gleichzeitig reduziert die dezentrale Analyse sensibler personenbezogener Informationen das Risiko von Datenschutzverletzungen, da die Daten nie über weite Strecken transportiert werden müssen. Moderne, KI-basierte Edge-Lösungen bieten zudem integrierte Sicherheitsmechanismen, die Anomalien frühzeitig erkennen und Bedrohungen sofort neutralisieren.
  • Verbesserung der Energieeffizienz. KI- und ML-Lösungen direkt vor Ort ermöglichen eine genaue Erfassung der Nutzungsmuster von Geräten. Automatisierte Energiemanagementsysteme passen den Stromverbrauch selbstständig an, indem sie beispielsweise in Zeiten geringer Auslastung in den Energiesparmodus wechseln, und optimieren so den Betrieb der Infrastruktur – auch an entlegenen Standorten ohne permanente Betreuung.
  • Reduzierung der Ausfallzeiten. Durch den Einsatz intelligenter Fehlerdiagnosen und prädiktiver Analysen können Unregelmäßigkeiten in der IT beziehungsweise im Netz schnell erkannt und behoben sowie Ausfälle bereits im Vorfeld vermieden werden. Dadurch verkürzen sich die Reparaturzeiten drastisch – von Tagen auf wenige Minuten oder Stunden. Gleichzeitig werden teure Ausfallzeiten auf ein Minimum reduziert.
  • Bereitstellung innovativer Services. Die Fähigkeit, das Verhalten und die Vorlieben der Nutzer in Echtzeit zu analysieren, eröffnet Unternehmen die Möglichkeit, personalisierte und kontextbezogene Services anzubieten. Diese reichen von maßgeschneiderten IoT-Anwendungen über Smart-City-Lösungen bis hin zu individualisierten medizinischen Versorgungsangeboten. Dies führt nicht nur zu einer höheren Anwenderzufriedenheit, sondern ermöglicht auch die Erschließung zusätzlicher Umsatzquellen.
Chris Kramar, Director und General Manager OEM Solutions DACH bei Dell Technologies

Chris Kramar, Director und General Manager OEM Solutions DACH bei Dell Technologies, © Dell Technologies

„KI am Edge läutet eine neue Ära in der Wirtschaft ein. Die Technologie dringt tief in den gesamten IT-Stack ein – von intelligenter Automatisierung über prädiktive Analysen bis hin zu personalisierten Nutzererlebnissen“, erläutert Chris Kramar, Director und General Manager OEM Solutions DACH bei Dell Technologies. „Diese Entwicklung wird nicht nur die betriebliche Effizienz von Unternehmen steigern, sondern auch ihre Wachstumsmöglichkeiten nachhaltig verbessern.“

Weitere Informationen zum Thema:

Dell Technologies
Dell-Blog

]]>
https://www.datensicherheit.de/integration-kuenstliche-intelligenz-edge/feed 0
Intelligente Produktion: Smarte Roboter erobern die Fabrik​ https://www.datensicherheit.de/produktion-smarte-roboter-fabrik https://www.datensicherheit.de/produktion-smarte-roboter-fabrik#respond Tue, 25 Mar 2025 11:08:17 +0000 https://www.datensicherheit.de/?p=46837 Vier Beispiele für das Zusammenspiel von KI und Edge Computing

[datensicherheit.de, 25.03.2025] Die intelligente Fabrik ist längst Realität – und auch der „unwissende“ Roboter von einst gehört mehr und mehr der Vergangenheit an und werden durch sogenannte „smarte Roboter“ nach und nach ersetzt. Eine solche Fabrik zeichnet sich durch die Kombination verschiedener Technologien aus, die nahtlos ineinandergreifen. NTT DATA erklärt, welche Rolle KI und Edge Computing dabei spielen. ​

Jochen Gemeinhardt, Head of Production & Supply Chain bei NTT DATA DACH

Jochen Gemeinhardt, Head of Production & Supply Chain bei NTT DATA DACH, Bild: NTT DATA

Seit mehr als einem halben Jahrhundert sortieren, schrauben, nieten, schweißen und lackieren Industrieroboter in den Fabriken dieser Welt. Bislang folgten sie dabei streng vorgegebenen Bewegungsabläufen, doch inzwischen kann Künstliche Intelligenz (KI) die mechanischen Helfer flexibler, effizienter und zuverlässiger machen.

Smarte Roboter und die Optimierungspotenziale

Vor allem im Zusammenspiel mit einem digitalen Zwilling, der die gesamte Produktionsumgebung abbildet, ergeben sich erhebliche Optimierungspotenziale in den unterschiedlichsten Anwendungsbereichen. NTT DATA stellt vier Beispiele vor.

  • Präzise und adaptive Robotersteuerung. In naher Zukunft werden Roboter dank Künstlicher Intelligenz und moderner Sensortechnologie flexibler, autonomer und vollständig ins Industrial Metaverse integriert sein. Mit Hilfe von hochauflösenden Kameras, KI-gestützter Bildverarbeitung, Edge-Computing und Generative AI (GenAI) können sie ihre Umgebung in Echtzeit analysieren und flexibel auf jede noch so unvorhergesehene Situation reagieren. Insbesondere GenAI hilft den Robotern, kreative Lösungen etwa bei Produktionsstörungen oder Materialengpässen zu entwickeln und selbstständig Alternativen auszuwählen. Durch die Integration ins Industrial Metaverse werden zudem physische und digitale Produktionswelten noch stärker miteinander verknüpft: Digitale Zwillinge ermöglichen es beispielsweise, Produktionsprozesse in Echtzeit zu überwachen und zu simulieren, ohne den laufenden Betrieb zu stören. Unternehmen können so fundierte Entscheidungen treffen und ihre Effizienz steigern. Edge-Computing liefert die nötige Rechenleistung für die Datenverarbeitung und Entscheidungsfindung direkt vor Ort, der aktuelle Mobilfunkstandard 5G wiederum sorgt für eine extrem schnelle und zuverlässige Datenübertragung mit geringer Latenz, wie sie Echtzeitanwendungen benötigen.
  • Qualitätskontrolle in Echtzeit. In der modernen Produktion ermöglicht die Kombination von KI, Edge-Computing und Industrial Internet of Things (IIoT) eine völlig neue Art der Qualitätskontrolle. KI-gestützte Bildverarbeitung und Mustererkennung sorgen dafür, dass Produktionsfehler – etwa falsch montierte Bauteile, Oberflächenfehler wie Kratzer und Risse, Farbabweichungen oder fehlende Komponenten – in Echtzeit erkannt werden. Dazu sammeln Sensoren, die direkt an den Produktionsanlagen und -linien installiert sind, kontinuierlich Daten, die über das IIoT-Netzwerk an lokale Edge-Computing-Systeme übermittelt werden. GenAI wird auch in der Qualitätskontrolle eine wichtige Rolle spielen: Wenn Roboter in der Produktion auf unbekannte oder unregelmäßige Objekte stoßen, können sie diese nicht nur erkennen, sondern auch selbstständig eine Lösung für das Problem finden. So kann der Roboter ein ihm unbekanntes Bauteil anhand von Datenbanken oder Bildern aus dem Internet identifizieren und herausfinden, wie es richtig gehandhabt werden muss, um Beschädigungen oder Produktionsunterbrechungen zu vermeiden.
  • Vorausschauende Wartung. Die vorausschauende Wartung wird durch den Einsatz der genannten Technologien „revolutioniert“. Sensoren an kritischen Maschinenkomponenten wie Lagern, Motoren und Hydrauliksystemen überwachen kontinuierlich Betriebsparameter wie Temperatur, Vibrationen, Geräusche und Druck. Diese Daten werden in Echtzeit analysiert, um den Zustand der Maschinen zu überwachen und Abweichungen anzuzeigen, die auf einen Verschleiß oder drohenden Ausfall hindeuten. Mit GenAI lassen sich noch fortschrittlichere Wartungslösungen realisieren. GenAI kann nicht nur Anomalien erkennen, sondern auch Vorschläge zur Optimierung der Maschinenparameter entwickeln – mit dem Ziel, den Verschleiß zu minimieren und die Lebensdauer zu verlängern. Droht ein Defekt, schlägt die Technologie zudem in Echtzeit alternative Reparaturstrategien vor.
  • Optimierte Lagerhaltung und Energieeffizienz. Ein weiterer Vorteil ist die automatisierte Bestandsüberwachung. Sensoren erfassen kontinuierlich den Bestand an Materialien und Bauteilen, sodass die Lagerbestände automatisch aktualisiert und angepasst werden. Ein intelligentes Bestandsmanagement in Echtzeit kann verhindern, dass Teile fehlen oder unnötig vorgehalten werden, was Lagerkosten und Kapitalbindung reduziert. In Verbindung mit vorausschauender Wartung und Qualitätskontrolle in Echtzeit trägt ein solches Bestandsmanagement dazu bei, Produktionsprozesse noch reibungsloser zu gestalten. Werden Maschinenausfälle vermieden und Produktionsfehler sofort erkannt, lassen sich Verzögerungen vermeiden und die Lagerhaltung optimal auf den aktuellen Bedarf abstimmen. Eine effiziente Gestaltung des Materialflusses minimiert unnötige Lagerbewegungen und -prozesse, sodass darüber hinaus erhebliche Energieeinsparungen erzielt werden können. Dies trägt direkt zur Reduzierung des CO₂-Ausstoßes bei und hilft Unternehmen, ihre Nachhaltigkeitsziele zu erreichen und gleichzeitig die Betriebskosten zu senken.

„Industrieroboter werden durch Kombination von KI, Generative AI und Edge-Computing zu autonomen, flexiblen Systemen und leiten eine neue Ära der Produktionsoptimierung ein. Mit Integration in das Industrial Metaverse und unterstützt durch digitale Zwillinge können Unternehmen umfangreiche Simulationen durchführen, die zuverlässige Vorhersagen und Prozessanpassungen erlauben – ohne Unterbrechung der realen Produktion. Diese

Technologien ermöglichen nicht nur eine dynamische Optimierung von Produktionsparametern und die Reduktion des Energieverbrauchs, sondern führen auch zu einem Paradigmenwechsel im operativen Betrieb und Geschäftsmodell. Produktionsprozesse werden immer dezentraler, anpassungsfähiger und datengesteuerter, während Unternehmen gleichzeitig neue Wertschöpfungspotenziale durch flexible Fertigungslinien und datenbasierte Geschäftsmodelle erschließen. Dadurch schaffen sie eine adaptive, effiziente und nachhaltige Fertigungsumgebung, die optimal für künftige Anforderungen gewappnet ist“, erklärt Jochen Gemeinhardt, Head of Production & Supply Chain bei NTT DATA DACH.

]]>
https://www.datensicherheit.de/produktion-smarte-roboter-fabrik/feed 0
KI-Bildmanipulation per Chateingabe: Google Gemini 2.0 Flash Experimental https://www.datensicherheit.de/ki-bildmanipulation-google-gemini https://www.datensicherheit.de/ki-bildmanipulation-google-gemini#respond Mon, 24 Mar 2025 12:50:45 +0000 https://www.datensicherheit.de/?p=46799 Nur eine unabhängige Prüfung von KI-Modellen sorgt für Sicherheit

Ein Kommentar von unserem Gastautor Yunus Bulut, Managing Director von Validaitor

„Google hat mit der Einführung seines neuen KI-Tools ‚Gemini 2.0 Flash Experimental‘ in der Entwickleroberfläche AI Studio einen bedeutenden Schritt in der Bildbearbeitung gemacht. Erstmals können Nutzer KI-generierte Bilder durch einfache Texteingaben nachbearbeiten, bestehende Bilder hochladen, künstlich erzeugte Objekte mit realen kombinieren und diese einfach und schnell nur durch Textbefehle verändern und selbst Wasserzeichen entfernen.

Diese bisher nie dagewesene Einfachheit in der Bedienung kann jedoch auch die Tore für eine massenhafte Erstellung von manipuliertem Bildmaterial öffnen, die von bösartigen Akteuren für Fehlinformationskampagnen und andere kriminelle Handlungen wie Betrug oder Rufschädigung missbraucht werden.

Die zunehmenden Fähigkeiten generativer KI sind bemerkenswert, doch sie bergen erhebliche Risiken. Deepfakes, voreingenommener Output gegenüber bestimmten Bevölkerungsgruppen und der Missbrauch urheberrechtlich geschützter Inhalte sind besonders besorgniserregend. Deshalb ist eine umfassende Prüfung von KI-Modellen auf Sicherheit, Halluzinationen, Toxizität, Vorurteile sowie die Einhaltung der Urheberrechtsgesetze entscheidend, um die Fähigkeiten von KI-Modellen zu verbessern, während gleichzeitig ihre Sicherheit gewährleistet wird. Unsere umfangreiche Erfahrung in der Prüfung von KI-Systemen zeigt, dass fast alle Modelle inhärente Mängel aufweisen. Um das Vertrauen in diese KI-Modelle zu erhalten, ist daher eine externe Prüfung durch Dritte unerlässlich.

Unabhängige KI-Bewerter spielen eine entscheidende Rolle für das reibungslose Funktionieren der Branche. Denn ohne eine solche Aufsicht besteht die Gefahr, dass die Dominanz der Technologiegiganten zur Verbreitung fehlerhafter KI-Modelle führt, was potenziell zu weit verbreitetem Missbrauch und ethischen Verstößen führen kann.“

Yunus Bulut, Managing Director von Validaitor

Yunus Bulut, Managing Director von Validaitor, © Validator

Yunus Bulut ist KI-Forscher, KI-Praktiker und mehrfacher Gründer von daten-wissenschaftlichen Technologieunternehmen. Als Mitgründer und CEO von Validaitor ist es sein Ziel, vertrauenswürdige und verantwortungsvolle KI-Nutzung zu unterstützen, indem er KI-Anwendungen testet, zerlegt und repariert. Bulut hält Master-Abschlüsse für Wirtschaftswissenschaften und Computerwissenschaften. Seit dem Jahr 2020 beschäftigt sich Bulut am Karlsruher Institut für Technologie (KIT) mit der Sicherheit von KI-Modellen, mit Angriffsmethoden gegen Maschinelles Lernen (Adversarial Machine Learning) sowie mit Robustheit und Vertrauenswürdigkeit von KI. Daraus entstand im Jahr 2022 die Firma Validaitor als Spin-off des KIT.

]]>
https://www.datensicherheit.de/ki-bildmanipulation-google-gemini/feed 0
State of Human Risk: Aktueller Mimecast-Report veröffentlicht https://www.datensicherheit.de/state-of-human-risk-report-2025 https://www.datensicherheit.de/state-of-human-risk-report-2025#respond Sat, 22 Mar 2025 23:54:20 +0000 https://www.datensicherheit.de/?p=46740 75 Prozent der deutschen Unternehmen befürchten laut Report KI-gestützte Cyber-Attacken

[datensicherheit.de, 23.03.2025] Mimecast hat seinen „State of Human Risk“-Bericht veröffentlicht. Aus diesem geht demnach hervor, dass zwar über die Hälfte der deutschen Unternehmen (51%) erfolgreich eine Cyber-Sicherheitsstrategie verfolgt und sich die Sicherheit im Unternehmen dadurch verbessert hat. Dennoch befürchte die große Mehrheit der befragten Sicherheitsexperten (75%) KI-basierte Cyber-Angriffe auf ihr Unternehmen. Dieser Bericht basiere auf einer Umfrage unter 1.100 IT-Sicherheitsexperten und IT-Entscheidungsträgern in Unternehmen in Großbritannien, Frankreich, Deutschland, Südafrika und Australien. Er soll Unternehmen wichtige Einblicke in den Bereich Human Risk Management (HRM) bieten und ihnen konkrete Handlungsempfehlungen geben, wie sie ihre finanziellen Mittel einsetzen können, um ihre Cyber-Sicherheit weiter zu verbessern. Der Report zeige eine zunehmend komplexe Bedrohungslage für Unternehmen auf: „Die größten Gefahren gehen von Insider-Angriffen, Angriffen via Kollaborationstools sowie KI-basierten Angriffen aus. Durch die unzureichende Umsetzung von Cyber-Sicherheitsstrategien bleiben viele der Sicherheitsrisiken weiter bestehen.“

Weitere Erkenntnisse aus dem Reports zum deutschen Markt:

  • Unternehmen priorisierten bei ihren Ausgaben für Cyber-Sicherheit Kollaborationstools, IT-Personal sowie sogenannte Governance und Compliance
    86 Prozent der Unternehmen hätten im letzten Jahr, 2024, ihr Budget für Cyber-Sicherheit erhöht. 56 Prozent der Unternehmen priorisierten dabei die Sicherung von Kollaborationstools wie „Teams“ und „Slack“.
    Für 95 Prozent der Befragten seien diese Tools für die Arbeit in ihrem Unternehmen zwar unverzichtbar, 76 Prozent gäben jedoch an, dass sie auch Sicherheitslücken verursachten. 67 Prozent berichteten, dass Mitarbeiter in ihren Unternehmen auch nicht-autorisierte Kollaborationstools verwendeten.
    Unternehmen priorisierten bei ihren Ausgaben zudem E-Mail-Sicherheit (43%) sowie „Governance und Compliance“ (37 Prozent). Großunternehmen beschäftigten meist über 30 IT-Sicherheitsmitarbeiter, die Mehrheit der kleineren Unternehmen im Durchschnitt einen bis zehn.
  • Phishing-, Insider- und KI-gestützte Angriffe stellten Unternehmen vor große Probleme
    75 Prozent der Befragten befürchteten KI-gestützte Cyber-Angriffe auf ihr Unternehmen. 65 Prozent glaubten, dass ein solcher Angriff innerhalb der nächsten zwölf Monate erfolgen werde.
    Darüber hinaus erwarteten 66 Prozent, dass es in den nächsten zwölf Monaten zu einem Anstieg des Datenverlusts in ihrer Organisation kommen werde – mit einem durchschnittlichen finanziellen Schaden in Höhe von 13,9 Millionen US-Dollar (entsprechend 12,8 Millionen Euro).
  • Menschliches Fehlverhalten sei weiterhin das größte Sicherheitsrisiko
    83 Prozent der Befragten gäben an, dass Mitarbeiter mindestens vierteljährlich in der Erkennung von Cyber-Angriffen geschult würden. Dennoch bestünden große Compliance-Hürden: 39 Prozent bemängelten eine unzureichende Sensibilisierung für Bedrohungen.
    Hauptsächliche Risiken seien die Nutzung privater E-Mails während der Arbeit (89%), versehentlicher Datenverlust (91%), schlechte Passwortverwaltung (85%) und ungesicherte Netzwerke (88%).
  • KI-gesteuerte Sicherheitslösungen auf dem Vormarsch
    Unternehmen setzten zunehmend auf vernetzte HRM-Plattformen und KI-Abwehrmaßnahmen.
    Zu den wichtigsten KI-gesteuerten Abwehrmaßnahmen zählten KI-gestützte Überwachungstools (46%), Mitarbeiterschulungen zu KI-Bedrohungen (45%) und simulierte KI-gesteuerte Phishing-Angriffe (42%).

Schlussfolgerung aus Report-Ergebnissen: Implementierung einer umfassenden HRM-Strategie muss oberste Priorität haben

„Wenn man berücksichtigt, dass 80 Prozent aller Sicherheitsvorfälle von gerade einmal acht Prozent der Nutzer verursacht werden, dann ist klar, dass die Implementierung einer umfassenden ,Human Risk Management’-(HRM)-Strategie oberste Priorität für Sicherheitsverantwortliche hat in diesem Jahr“, betont Masha Sedova, VP, „Human Risk Strategist“ bei Mimecast.

Sedova führt weiter aus: „Trotz der komplexen Herausforderungen, mit denen Unternehmen konfrontiert sind, wie zum Beispiel ein erhöhtes Risiko für Insider-Angriffe, für Angriffe via Kollaborationstools und für komplexe KI-Angriffe, gibt es Maßnahmen, die Sicherheitsexperten ergreifen können, um diese Risiken zu mindern und ihre Unternehmen zu schützen: HRM-Tools und maßgeschneiderte Mitarbeiterschulungen, verbesserte KI-Fähigkeiten und Schutzmaßnahmen gegen ,Business Email Compromise’-Betrugsfälle sind nur einige Beispiele.“

Mimecasts KI-gestützte, API-fähige und vernetzte HRM-Plattform sei beispielswiese speziell dafür entwickelt worden, um Unternehmen vor einer Vielzahl von aktuellen sowie zukünftigen Angriffen zu schützen.

Weitere Informationen zum Thema:

mimecast
The State of Human Risk 2025 / Sicherheitsverantwortliche haben sich weiterentwickelt

mimecast
Die vernetzte Risiko-Management-Plattform / Sichern Sie Ihr Unternehmen effektiver, indem Sie die Punkte zwischen Mensch und Technologie verbinden

]]>
https://www.datensicherheit.de/state-of-human-risk-report-2025/feed 0
Deutsche Wirtschaft sollte KI als Chance begreifen https://www.datensicherheit.de/deutsche-wirtschaft-ki-chance https://www.datensicherheit.de/deutsche-wirtschaft-ki-chance#respond Mon, 17 Mar 2025 16:33:05 +0000 https://www.datensicherheit.de/?p=46606 United Interim Wirtschaftsreport 2025: Künstliche Intelligenz als Schlüssel zu mehr Wachstum

[datensicherheit.de, 17.03.2025] Künstliche Intelligenz (KI) wird als Game Changer für alle Bereiche der Wirtschaft gesehen, deren massive Auswirkungen häufig noch unterschätzt wird. Zu diesem Schluss gelangt der „Wirtschafts­­report 2025“ der Management-Community United Interim. Bei den Autoren des Berichts handelt es sich um zehn erfahrene Interim Manager, die selbst schon bei zahlreichen KI-Einführungsprojekten mitgewirkt haben: Dr. Bodo Antonić, Ulvi Aydin, Ulf Camehn, Ruben Faust, Christian Florschütz, Eckhart Hilgenstock, Jane Enny van Lam­balgen, Klaus-Peter Stöppler, Roland Streibich und Karlheinz Zuerl.

Als Führungskräfte auf Zeit werden die Management-Experten für mehrere Monate in Unternehmen geholt, um Projekte durchzuführen. Sie verfügen daher über deutlich mehr Erfahrung als angestellte Manager, die in der Regel nur einige wenige Jobwechsel im Laufe ihrer Karriere durchleben. Für den Report wurden 550 Interim Manager befragt. Die zehn Autoren haben die Umfrage konzipiert und die Ergebnisse analysiert. „Es gibt wohl keinen Überblick über den KI-Einsatz in der deutschen Wirtschaft mit mehr Praxisnähe“, ist Studienleiter Dr. Harald Schönfeld, Geschäftsführer von United Interim, überzeugt.

KI als Chance für die Wirtschaf

KI als Chance für die Wirtschaft, Bild: UNITEDINTERIM® GmbH

Kurzfristiger Return on Invest für KI-Projekte

Im Report und vor allem in den Köpfen der Top 10 Interim Manager stecken eine Vielzahl von praxisnahen Tipps zur KI-Einführung. So sagt beispielsweise Eckhart Hilgenstock: „Man sollte ein KI-Projekt nur dann starten, wenn es einen Break-Even innerhalb von anderthalb Jahren verspricht.“ Das sehen auch 28 Prozent der im Rahmen der Studie befragten Kollegen so. 51 Prozent räumen immerhin eine maximale Frist von drei Jahren ein. „Die langfristige Perspektive, die bei den meisten IT-Projekten angesagt ist, lohnt sich bei KI aufgrund der raschen Entwicklung derzeit jedenfalls nicht“, erklärt Ulvi Aydin.

„Das stellt keine Empfehlung für einen Blindflug dar“, stellt Jane Enny van Lambalgen klar. So raten 88 Prozent der befragten Interim Manager zu einer frühzeitigen Zielfestlegung bei der KI-Einführung im Unternehmen. Für 80 Prozent (Mehrfachnennungen waren erwünscht) steht die Definition der Anwendungsfälle im Vordergrund – und diese sollten sich kurzfristig lohnen. 79 Prozent empfehlen den Start mit einem Pilotprojekt, das anhand der Ergebnisse optimiert werden sollte (78 Prozent), bevor es in der Organisation größer ausgerollt wird (55 Prozent). In diesem Zuge sollte ein KI-Team im Unternehmen aufgebaut werden, raten 63 Prozent der Führungskräfte auf Zeit.

„Viele Belastungsfaktoren für die Wirtschaft wie die hohen Energiekosten oder die ausufernde Büro­kratie werden auch unter einer neuen Bundesregierung nicht über Nacht verschwinden“, sagt Dr. Bodo Antonić, „aber die Hebelwirkung von KI ist derart groß, dass sie die negativen Einflüsse zumindest teilweise kompensieren kann.“

KI wird viele Branchen durcheinanderwirbeln

Künstliche Intelligenz wird künftig so selbstverständlich werden wie heute Computer und das Internet, sind 94 Prozent der 550 befragten Interim Manager überzeugt. Dadurch wird die Wirtschaft einen kräftigen Produktivitätsschub erhalten, meinen 90 Prozent der Befragten. Über drei Viertel (76 Prozent) gehen fest vom Entstehen völlig neuer Geschäftsmodelle aus.

„Wir stehen vor einer neuen Welle von Firmengründungen durch innovative Unternehmer, die die KI-Chancen erkennen und so manch eine tradierte Branche durcheinander wirbeln werden“, prognostiziert Ruben Faust. „Das schafft viel Marktdynamik, wird aber den einen oder anderen traditionellen Betrieb, der das KI-Potenzial nicht rechtzeitig erkennt oder nicht umzusetzen vermag, aus der Bahn werfen“, befürchtet Karlheinz Zuerl.

Als typisches Beispiel wird im „Wirtschaftsreport 2025“ von United Interim die Bau- und Immobilien­branche genannt, die mit über 2,5 Millionen Beschäftigen einen der wichtigsten Wirtschaftsfaktoren Deutschlands darstellt. Dort gilt neben den hohen Rohstoff- und Energiepreisen, dem Fachkräfte­mangel und dem wirtschaftlich schwachen Umfeld die mangelnde Digitalisierung als ein Haupt­hemmnis, sagen 57 Prozent der 550 befragten Interim Manager. Roland Streibich mahnt an: „In der Bau- und Immobilienwirtschaft ließe sich die Produktivität allein durch die Digitalisierung aller Planungs­schritte massiv steigern. Künstliche Intelligenz könnte dabei eine Schlüsselrolle spielen.“ Klaus-Peter Stöppler, der als Beirat für Baufragen viele Unternehmen begleitet, ergänzt: „Die Beschleunigung von Planungs- und Genehmigungsprozessen durch KI könnte die Wohnungsnot in Deutschland binnen weniger Jahre beheben. Dazu müssten sich neben der Wirtschaft allerdings auch der Staat, sprich die Bauämter, entsprechend umstellen.“

Roland Streibich weist auch auf die Grenzen von KI hin: „KI kann uns sehr viele nützliche Informationen liefern und uns vieles abnehmen, aber wenn es um kreatives Denken, schnelle Wissensverknüpfungen, das vernetzte Denken und Erkennen von Mustern sowie um spontane Ideen geht, bleibt unser menschliches Gehirn unschlagbar.“

Segen für den Arbeitsmarkt und die Wirtschaft

„Künstliche Intelligenz führt zur Massenarbeitslosigkeit“ lautet ein gängiges Vorurteil, das indes nicht einmal ein Zehntel (8 Prozent) der Interim Manager aufgrund ihrer Praxiserfahrungen in den Betrieben unterschreibt. 60 Prozent gehen davon aus, dass der durch den KI-Boom ausgelöste wirtschaftliche Aufschwung mehr Arbeitsplätze schafft bzw. erhält als durch KI vernichtet werden.

„Der große KI-Kahlschlag wird ausbleiben, aber dennoch werden natürlich viele Arbeitsplätze, insbesondere solche, die durch repetitive Tätigkeiten charakterisiert sind, entfallen“, stellt Jane Enny van Lambalgen klar. Vor allem die sogenannte Sach­bearbeitungsebene wird personell ausgedünnt werden, sind 77 Prozent der Fachleute überzeugt. Aber weit weniger als ein Drittel davon (27 Prozent) geht von Massenentlassungen auf dieser Ebene aus. Im mittleren Management erwartet gut die Hälfte (52 Prozent) der Führungskräfte auf Zeit den Abbau von Hierarchien durch KI, aber lediglich 13 Prozent gehen von schmerzhaften Einschnitten aus. „Der beste Weg, den eigenen Arbeitsplatz zu sichern, besteht darin, sich selbst zum KI-Experten zu entwickeln, statt sich dagegen zu stemmen“, rät Ulvi Aydin.

„Der demografische Faktor verhindert ein Desaster am Arbeitsmarkt durch den großflächigen KI-Einsatz“, analysiert Klaus-Peter Stöppler. „Viele der Baby Boomer stehen kurz vor der Rente und werden dann einfach nicht mehr ersetzt“, ergänzt Roland Streibich. Gleichzeitig mildert Künstliche Intelligenz den Fachkräftemangel ab, haben 77 Prozent der Interim Manager bei Projekteinsätzen in der Wirtschaft festgestellt. Gut ein Drittel (34 Prozent) stuft KI-Anwendungen als Ersatz für nicht vorhandene Fachkräfte als „kritisch“ für die deutsche Wirtschaft ein. „Unternehmen, die KI nicht aktiv nutzen, riskieren den Verlust von Aufträgen. Sie verlieren darüber hinaus auch Geschäft, wenn sie mit digitalisierten Wettbewerbern nicht mehr mithalten können“, sagt Ulf Camehn.

„Im Großen und Ganzen ist der KI-Boom ein Segen für den Arbeitsmarkt und die Wirtschaft“, sind sich die zehn Interim Manager einig. Sie begründen: „Ohne KI würde der demografische Faktor die deutsche Wirtschaft lahmlegen, weil schlichtweg nicht genügend qualifiziertes Personal verfügbar wäre.“

Wichtigste Einsatzgebiete für KI

In welchen Abteilungen und auf welchen Fachgebieten rechnet sich der KI-Einsatz für die Unternehmen am schnellsten und am meisten, wollte Studienleiter Dr. Harald Schönfeld von United Interim von den 550 befragten Interim Managern wissen. An erster Stelle steht dabei mit Abstand die Kunden­kommunikation (Customer Service) mit 66 Prozent Zustimmung. „Mit einem KI-gestützten Kunden­service lassen sich drei Vorteile auf einmal erzielen: Prozesse automatisieren, Effizienz steigern und ein außergewöhnliches Kundenerlebnis kreieren“, erklärt Christian Florschütz, der vor wenigen Wochen von der Dachorganisation Österreichisches Interimmanagement (DÖIM) als „Interim Manager des Jahres 2025“ ausgezeichnet wurde.

Auf dem zweiten Platz beim KI-Einsatz liegen Logistik und Supply Chain Management mit 58 Prozent (Mehr­fach­nennungen waren erwünscht). Den dritten Platz teilen sich Geschäftsprozessoptimierung sowie Einkauf und Beschaffung mit 53 Prozent. Auf dem vierten Rang befinden sich Vertrieb und Marketing (52 Prozent). „Im Vertrieb rechnet sich jedes KI-Projekt binnen eines halben Jahres“, weiß Eckhart Hilgenstock von seinen Projekten zu berichten. An fünfter Stelle stehen Forschung und Entwicklung sowie das Kostenmanagement (Controlling) mit 51 Prozent.

KI-Kampf gegen die „Firmokratie“

Auf dem sechsten Platz liegt die Produktion (43 Prozent); kurz dahinter kommen die Wettbewerbs­fähigkeit und der Abbau der firmeninternen Bürokratie (42 Prozent). „Die von der Gesetzgebung vorgegebene externe Bürokratie ist von den Unternehmen kaum zu beeinflussen, dafür aber die interne ‚Firmokratie‘ umso mehr – und dabei kann KI eine Schlüsselrolle spielen“, sagt Dr. Bodo Antonić. Die firmeninterne Bürokratie ist häufig ähnlich schlimm wie die externe, meinen mehr als die Hälfte (55 Prozent) der Interim Manager aufgrund ihrer Praxiserfahrung in den Unternehmen. „Die Unter­nehmen wären gut beraten, sich stärker auf die Kundenseite zu konzentrieren und den internen Verwaltungsapparat zu verschlanken“, rät Christian Florschütz, und stellt klar: „KI hilft bei beiden Aspekten.“

Aufmarsch humanoider KI-Roboter

In der Produktion und Logistik erwarten die Interim Manager den Aufmarsch einer neuen Generation humanoider KI-Roboter. „Durch eine dem Menschen nachempfundene Gestalt sind sie flexibel einsetzbar und können dank Künstlicher Intelligenz autonom handeln“, beschreibt Karlheinz Zuerl, was auf die deutsche Industrie zukommt. Zuerl, von United Interim als „Interim Manager des Jahres 2024“ ausgezeichnet, ist hauptsächlich in Asien aktiv und kennt die „neue KI-Roboterwelt“ schon aus den dortigen Fertigungsstätten. In Fernost wächst nach seinen Beobachtungen der Anteil „menschenfreier Zonen“ in der Produktion rasant an. Der Hintergrund: Sobald die Roboter unter sich sind, können sie mit viel höherer Geschwindigkeit arbeiten als in gemischten Zonen, in denen Sicherheitsbelange der Belegschaft zu berücksichtigen sind.

Ulf Camehn zeigt die Entwicklung auf: „Wer heute noch glaubt, humanoide KI-Roboter seien Zukunftsmusik, unterschätzt die Geschwindigkeit der technologischen Entwicklung. In wenigen Jahren werden sie zum festen Bestandteil nahezu aller Branchen gehören.“ Jane Enny van Lambalgen ergänzt: „Über Leasingmodelle wird diese neue Robotergeneration auch für mittelständische Unternehmen erschwinglich werden, so dass auch der Mittelstand von den enormen Produktivitäts- und Kostenvorteilen dieser Entwicklung profitieren kann“. Ruben Faust ist sicher: „Wir werden in den nächsten Jahren eine neue Welle von Industrie-Startups entstehen sehen, die sich die universelle Einsetzbarkeit der KI-Humanoiden zunutze machen.“

KI im Personalwesen

Beim Personalwesen (Human Ressources, HR) verorten 36 Prozent der Führungskräfte auf Zeit einen schnellen Return on Invest in KI. Weitere 49 Prozent halten die KI-Einführung im HR-Bereich auf jeden Fall für sinnvoll, selbst wenn sich der Erfolg nicht ganz so schnell einstellen sollte. „KI-gestützte HR-Prozesse sind längst datenschutzkonform umsetzbar. Die Herausforderung liegt nicht in der Technik, sondern häufig in der Bereitschaft der Unternehmen, sich mit den bestehenden Lösungen auseinander­zusetzen“, weiß Ulf Camehn aus der Betriebspraxis zu berichten. Auffallend: Im Topmanagement stößt der KI-Einsatz nur bei 14 Prozent der befragten Interim Manager auf Gegen­liebe. An der Firmenspitze sind menschliche Köpfe offenbar weiterhin gefragter als „denkende Computer“.

Deutschland kann aufholen

80 Prozent der Interim Manager sehen Deutschland im Rückstand beim KI-Einsatz; 38 Prozent sprechen von einem „sehr deutlichen Defizit“. Bei dem mit KI eng verbundenen Thema Robotik sieht hingegen nicht einmal ein Viertel (24 Prozent) Deutschland stark im Hintertreffen. Für 40 Prozent hinkt die Bundesrepublik bei Robotik allerdings „etwas hinterher“. Zum Vergleich: Die mangelnde Digitalisierung insgesamt stufen 78 Prozent der Führungskräfte auf Zeit als einen schweren Standortnachteil des Landes ein.

„Deutschland hat zwar Nachholbedarf bei KI und Robotik, aber noch sind diese Schlüsseltechnologien nicht verloren“, sagt Ruben Faust mit Verweis auf Studienergebnisse. 40 Prozent der Interim Manager sind nämlich fest davon überzeugt, dass Deutschland den KI-Rückstand bis zum Jahr 2030 aufholen kann. 53 Prozent vertreten dieselbe Ansicht in Bezug auf Robotik. Die Aufholjagd wird bis 2040 dauern, meint ein knappes Drittel (31 Prozent) in Bezug auf KI und gut ein Viertel (26 Prozent) bezüglich Robotik. „Die deutsche Wirtschaft hat alle Chancen auf einen kräftigen Aufschwung, wenn sie zügig in die KI-Umsetzung kommt“, sind sich die Autoren einig. „Ein erfahrener Interim Manager, der KI-Kompetenz ins Unternehmen bringt, ist häufig ein guter Anfang“, sagt Dr. Harald Schönfeld.

Weitere Informationen zum Thema:

UNITEDINTERIM
www.unitedinterim.com

datensicherheit.de, 16.03.2025
KI-Kompetenz als Pflicht: Bedeutung des EU-Gesetzes für Unternehmen

]]>
https://www.datensicherheit.de/deutsche-wirtschaft-ki-chance/feed 0
Rogue AI: Wenn KI zur Bedrohung wird https://www.datensicherheit.de/rogue-ai-ki-bedrohung-2025 https://www.datensicherheit.de/rogue-ai-ki-bedrohung-2025#respond Mon, 10 Mar 2025 15:22:56 +0000 https://www.datensicherheit.de/?p=46518 Mit dem Aufstieg autonomer KI-Agenten wächst auch das Risiko

[datensicherheit.de, 10.03.2025] Künstliche Intelligenz (KI) ist aus dem Unternehmensalltag nicht mehr wegzudenken. Doch mit dem Aufstieg autonomer KI-Agenten wächst auch das Risiko: Udo Schneider, Governance, Risk and Compliance Lead, Europe bei Trend Micro, liefert tiefere Einblicke im Gespräch mit datensicherheit.de (ds) zu den Fragen was passiert, wenn KI-Systeme sich verselbstständigen, Regeln umgehen oder für Cyberangriffe missbraucht werden.

Udo Schneider, Governance, Risk and Compliance Lead, Europe bei Trend Micro

Udo Schneider, Governance, Risk and Compliance Lead, Europe bei Trend Micro, Bild: Trend Micro

ds: Wo findet sich Rogue AI im KI-Ökosystem wieder?

Schneider:Die nächste Entwicklungsstufe nach dem KI-Umbruch war generative KI – und nun sind es KI-Agenten, die eigenständig handeln und mehrere Modelle miteinander verknüpfen. Je komplexer diese KI-Systeme werden, desto größer ist die Gefahr von Sicherheitslücken. Rogue AI ist keine ferne Zukunftsmusik – sie stellt bereits heute eine ernstzunehmende Herausforderung für Security-Teams dar. Mit der fortschreitenden Verbreitung dieser Technologien müssen Unternehmen dringend geeignete Schutzmaßnahmen ergreifen.“

ds: Was genau versteht man unter „Rogue AI“? Gibt es unterschiedliche Typen?

Schneider:Als ‚Rogue AI’ bezeichnet man KI-Systeme, die sich entgegen den Interessen ihrer Entwickler, Nutzer oder sogar der gesamten Gesellschaft verhalten. Grundsätzlich gibt es dabei drei Hauptkategorien: versehentliche, unterwanderte und bösartige Rogues. Versehentliche Rogues entstehen unbeabsichtigt durch menschliche oder technische Fehler. Fehlkonfigurationen, unzureichende Tests oder schwache Sicherheitskontrollen können zum Beispiel dazu führen, dass eine KI diskriminierende Ergebnisse liefert, übermäßige Zugriffsrechte erhält oder sensible Daten preisgibt. Außerdem können agentische KI-Frameworks in Endlosschleifen geraten und dadurch enorme Ressourcen verbrauchen – mit potenziell hohen Kosten und Systemausfällen als Folge.

Im Gegensatz zu versehentlichen Rogues sind unterwanderte und bösartige KI-Systeme das Ergebnis gezielter Manipulationen. Unterwanderte Rogue-KIs entstehen, wenn Cyberkriminelle ein bestehendes System infiltrieren und zweckentfremden – etwa indem sie es dazu bringen, falsche Informationen auszugeben oder vertrauliche Daten preiszugeben. Bösartige Rogue-KIs hingegen wurden von Anfang an für schädliche Zwecke entwickelt. Als KI-basierte Malware können sie entweder direkt in der IT-Umgebung des Opfers agieren oder auf externen Servern betrieben werden, um Angriffe wie Phishing, automatisierte Exploits oder Deepfake-Betrug durchzuführen.“

ds: Auf welche Angriffstechniken setzen diese Bedrohungsakteure, um KI-Systeme zu manipulieren?

Schneider:Cyberkriminelle setzen bei unterwanderten Rogue-KIs gezielt auf Schwachstellen in Large Language Models (LLMs). Besonders verbreitet sind zwei Angriffsmethoden: System Jailbreak und Model Poisoning. Beim System Jailbreak nutzen Angreifer sogenannte Prompt-Injection-Techniken, um die internen Sicherheitsmechanismen eines LLMs auszuhebeln. Jedes LLM arbeitet mit einem unsichtbaren System Prompt, der sein Verhalten steuert und festlegt, welche Inhalte es generieren darf – beispielsweise keine diskriminierenden oder kriminellen Aussagen. Durch spezielle Jailbreak-Prompts können Angreifer diesen Schutz umgehen. Solche manipulierten Eingaben kursieren bereits zahlreich im Internet.

Bei Model Poisoning geht es hingegen darum, ein LLM durch manipulierte Daten zu beeinflussen. Dies geschieht entweder durch direkten Zugriff auf die Trainingsdaten oder durch gezielte Platzierung von Desinformation im öffentlichen Raum. Da LLMs Inhalte aus frei zugänglichen Quellen übernehmen, können Angreifer gefälschte Informationsquellen einspielen, die wie seriöse Nachrichtenportale wirken. Ein Audit des Analyseportals NewsGuard hat beispielsweise gezeigt, dass russische Hackergruppen erfolgreich Narrative in große LLMs eingeschleust haben, indem sie solche Fake-Quellen systematisch verbreiteten.“

ds: Zum Thema bösartige Rogues und KI-Malware: Welche Bedrohung geht von KI-Anwendungen aus, die gezielt für cyberkriminelle Aktivitäten designt wurden?

Schneider:KI-Systeme, die speziell für cyberkriminelle Zwecke entwickelt werden, eröffnen eine neue Dimension der Bedrohung. Es gibt zwar noch keine vollständig autonomen KI-gesteuerten Cyberangriffe; Das könnte sich aber mit dem Fortschritt von KI-Agenten schnell ändern.

Ein bereits bekanntes Szenario zeigt, wie Ransomware-Akteure kleine LLMs direkt auf den Endpunkten ihrer Opfer installieren. Diese KI analysiert die lokale Umgebung, identifiziert besonders wertvolle Daten und extrahiert gezielt Informationen, ohne große, auffällige Datenübertragungen durchzuführen. Dadurch bleiben die Angriffe länger unentdeckt. Außerdem setzt die Malware moderne Anti-Evasion-Techniken aus dem Arsenal aktueller Infostealer ein, um Sicherheitsmechanismen gezielt zu umgehen.“

ds: Wie können sich Unternehmen vor Rogue AI schützen?

Schneider:Verschiedene Institutionen der Sicherheitsforschung, darunter OWASP (Open Worldwide Application Security Project), MITRE ATT&CK und das MIT (Massachusetts Institute for Technology), haben bereits Frameworks entwickelt, um KI-Risiken systematisch zu erfassen. Die OWASP Top Ten konzentrieren sich auf typische Schwachstellen von LLMs und bieten Strategien zu deren Absicherung. MITRE ATT&CK analysiert Angriffstechniken auf KI, berücksichtigt jedoch noch keine spezifischen Bedrohungen durch KI-Malware. Das AI Risk Repository des MIT listet über 700 KI-Risiken und ordnet sie nach Ursache und Bedrohungskategorie. Diese Frameworks liefern wertvolle Orientierungshilfen, aber ein spezifischer Ansatz für Rogue AI fehlt bislang – insbesondere einer, der sowohl die Ursachen als auch den Angriffskontext berücksichtigt. Um Risiken gezielt zu reduzieren, müssen Unternehmen verstehen, ob eine KI absichtlich oder unbeabsichtigt außer Kontrolle gerät und welche Akteure mit welchen Zielen und Ressourcen dahinterstehen.

Ein effektiver Schutz vor Rogue AI erfordert zudem einen Defense-in-Depth-Ansatz basierend auf Zero Trust: Jedes KI-System muss als potenzielles Risiko betrachtet und konsequent überwacht werden. Unternehmen sollten klar definieren, welche Aktionen eine KI ausführen darf und welche nicht, und ihr Verhalten kontinuierlich auf Abweichungen von diesen Regeln prüfen.

Um zu verhindern, dass KI außer Kontrolle gerät, müssen Sicherheitsmaßnahmen auf allen Ebenen des IT-Stacks implementiert werden – von der Hardware über das Netzwerk bis hin zur Anwendungsebene. Dazu gehören strikte Zugriffsbeschränkungen, eine klare Autorisierung von KI-Diensten, die kontinuierliche Überprüfung von Ein- und Ausgaben sowie ein umfassendes Monitoring aller relevanten Ressourcen. Extended Detection and Response (XDR) kann außerdem dabei helfen, verdächtiges Verhalten frühzeitig zu erkennen und schnell gegenzusteuern.“

Weitere Informationen zzum Thema:

datensicherheit.de, 24.02.2025
Responsible AI: Vertrauen, Security und Governance sind Voraussetzungen

Trend Micro
Rogue AI: Was der Sicherheitsgemeinschaft fehlt

]]>
https://www.datensicherheit.de/rogue-ai-ki-bedrohung-2025/feed 0
Big Data und Cybersicherheit – Daten zum Schutz der Zukunft gegen Bedrohungen https://www.datensicherheit.de/big-data-cybersicherheit-daten-bedrohungen https://www.datensicherheit.de/big-data-cybersicherheit-daten-bedrohungen#respond Thu, 06 Mar 2025 23:14:37 +0000 https://www.datensicherheit.de/?p=46505 Starke Analyse-Tools sind Voraussetzung für die Einleitung von Gegenmaßahmen bei Cyberangriffen

Ein Beitrag von unserem Gastautor Marcel Scherbinek, Big Data Experte bei PCS Beratungscontor AG

[datensicherheit.de, 07.03.2025] Heute speichern Unternehmen riesige Datenmengen ab – ein gefundenes Fressen für Hacker. Das macht es umso wichtiger, diese Daten gezielt auszuwerten, um mögliche Angriffe rechtzeitig zu entdecken und Gegenmaßnahmen einzuleiten. Dafür braucht es ein starkes Analyse-Tool, das zuverlässig arbeitet. In diesem Artikel werfen wir einen Blick darauf, wie Big Data und Cybersicherheit zusammenhängen und warum Big Data Analytics ein Gamechanger sein kann, wenn es um den Schutz sensibler Daten geht.

Marcel Scherbinek, Big Data Experte bei PCS Beratungscontor AG

Marcel Scherbinek, Big Data Experte bei PCS Beratungscontor AG, Bild: beratungscontor

Definition – Big Data

Der Begriff Big Data beschreibt riesige Mengen an strukturierten und unstrukturierten Daten, die aufgrund ihres Umfangs mit herkömmlichen Datenbank- oder Softwaremethoden nicht verarbeitet werden können. Immer mehr Unternehmen nutzen Big Data, um Verhaltensmuster, Trends und Zusammenhänge zu erkennen. Dies eröffnet neue Möglichkeiten, Bedrohungen frühzeitig zu erkennen und maschinelles Lernen effektiv einzusetzen.

Laut Statista soll der Big-Data-Markt bis 2024 auf rund 350 Milliarden US-Dollar anwachsen. Da die Bedrohungen durch Cyberkriminalität zunehmen und Unternehmen immer größere Datenmengen verarbeiten, ist es sehr wahrscheinlich, dass dieser Markt in den kommenden Jahren noch weiter wachsen wird.

Allerdings hat die zunehmende Nutzung von Big Data auch Cyberkriminelle auf den Plan gerufen. Unternehmen, die diese Datenmengen verarbeiten, stehen häufig im Fokus von Hackern. Die wachsende Zahl an Datenschutzverletzungen in den letzten Jahren zeigt, wie angreifbar Big Data sein kann. Ein wichrige Frage ist, was Big Data aus Sicht der Cybersicherheit besonders herausfordernd macht.

Herausforderungen der Cyber Security

Eine der größten Herausforderungen im Umgang mit Big Data und Cybersicherheit ist der Schutz sensibler Daten vor Verlust oder Missbrauch. Unternehmen arbeiten täglich mit riesigen Datenmengen, die häufig vertrauliche Informationen enthalten. Wenn diese Daten durch Sicherheitslücken in die Hände von Cyberkriminellen gelangen, kann das verheerende Folgen haben – von finanziellen Schäden bis hin zu einem erheblichen Imageverlust. Deshalb reicht es nicht aus, nur auf leistungsstarke Analysetools zu setzen. Unternehmen müssen auch umfassende Sicherheitsmaßnahmen einführen, um ihre Daten bestmöglich zu schützen.

Viele traditionelle Sicherheitstools stoßen bei der schieren Größe und Komplexität von Big Data an ihre Grenzen. Insbesondere beim Schutz großer Datenströme sind diese Lösungen oft nicht ausreichend effektiv, was Sicherheitslücken entstehen lässt.

Ein weiteres Hindernis ist das fehlende Fachwissen vieler Mitarbeitenden, die für die Datenanalyse verantwortlich sind. Oft fehlt es an der nötigen Kompetenz, um potenzielle Bedrohungen rechtzeitig zu erkennen und zu stoppen. Mit der zunehmenden Integration von künstlicher Intelligenz und maschinellem Lernen sowie einem steigenden Bewusstsein für Big Data besteht jedoch Hoffnung, dass sich dieses Problem in Zukunft entschärfen wird.

Potenzial von Big Data die Cyber Security zu unterstützen

Big Data wird häufig dazu genutzt datenbasierte Entscheidungen zu treffen und ein besseres Verständnis für das Verhalten und die Vorlieben der Kundschaft zu entwickeln. Auf den ersten Blick scheint der Zusammenhang zwischen Big Data und Cybersicherheit vielleicht nicht offensichtlich, aber er gewinnt an Bedeutung, wenn man bedenkt, wie viele sensible Daten dabei verarbeitet und geschützt werden müssen.

Die aus Big Data gewonnenen Erkenntnisse können maßgeblich dazu beitragen, Sicherheitslücken zu schließen und Angriffe rechtzeitig zu erkennen. Eines der größten Probleme in der Cybersicherheit ist die Unberechenbarkeit von Bedrohungen wie Malware oder Ransomware. Genau hier zeigt Big Data seine Stärke: Durch die Analyse riesiger Datenmengen lassen sich Muster und Anomalien aufdecken, die auf mögliche Gefahren hinweisen. Dadurch können Unternehmen potenzielle Schwachstellen frühzeitig erkennen und ihre Sicherheitsmaßnahmen gezielt anpassen, bevor es zu einem Angriff kommt.

Ein weiterer Vorteil von Big Data liegt darin, dass es Unternehmen dabei unterstützt, Bedrohungen wie DDOS-Angriffe oder Social Engineering besser vorherzusehen. Noch wirkungsvoller wird Big Data, wenn es mit maschinellem Lernen und künstlicher Intelligenz kombiniert wird, da diese Technologien helfen, Bedrohungen automatisch zu erkennen und schneller darauf zu reagieren.

Die Reaktionszeit auf einen Angriff ist dabei entscheidend. Je früher Anomalien erkannt werden, desto schneller können Gegenmaßnahmen eingeleitet werden. Big Data automatisiert diesen Prozess, indem es in Echtzeit Verhaltensmuster analysiert und zwischen normalem und potenziell gefährlichem Verhalten unterscheidet. Diese Fähigkeit, ungewöhnliche Aktivitäten sofort zu erkennen, ist der Schlüssel, um Schäden zu minimieren und die Sicherheitslage eines Unternehmens nachhaltig zu verbessern.

Wichtige Voraussetung – ein wohldefinierter Prozess

  1. Datenbeschaffung: Alle relevanten Daten werden aus den verfügbaren Quellen entnommen, wobei festgelegt wird, welches Format, welcher Umfang und welche Dateneingabe-Pipeline dabei genutzt werden. Durch statische Exporte und automatisierte Prozesse erhalten Unternehmen Zugriff auf die verschiedenen Datenformate und können diese effektiv weiterverarbeiten.
  2. Optimierung: Nach der Extraktion werden die Daten von der Software auf ihre Konsistenz, Qualität und Korrektheit überprüft. Dabei wird analysiert, ob und wie die gesammelten Daten effizient weiterverarbeitet werden können, um aussagekräftige Ergebnisse zu liefern.
  3. Analyse: Die erfassten Datenströme werden anschließend auf Muster, potenzielle Fehler und wichtige Zusammenhänge analysiert. Diese Erkenntnisse ermöglichen es, Geschäftsprozesse gezielt zu verbessern und Schwachstellen in der Sicherheitsstruktur frühzeitig zu erkennen und zu beheben.

Fazit

Big Data und Cybersicherheit sind eng miteinander verflochten und stellen Unternehmen vor komplexe Herausforderungen. Wer große Datenmengen verarbeitet, gerät zunehmend ins Visier von Cyberkriminellen, was die Bedeutung einer effektiven Analyse zur rechtzeitigen Erkennung von Bedrohungen verdeutlicht. Hier kommt Big Data Analytics ins Spiel, denn sie ermöglicht es, Verhaltensmuster zu erkennen und Sicherheitsrisiken proaktiv zu managen.

Die Verbindung von Big Data mit künstlicher Intelligenz und maschinellem Lernen hebt den Schutz auf ein neues Level. Diese Technologien helfen dabei, verdächtige Aktivitäten sofort zu identifizieren und schnell darauf zu reagieren. Dadurch wird Big Data nicht zur Schwachstelle, sondern zu einem entscheidenden Werkzeug im Kampf gegen Cyberangriffe.

Über den Autor:

Marcel Scherbinek ist seit 2017 Teil des beratungscontors und verantwortet in seiner Funktion als Bereichsleiter Advanced Analytics Platform branchenübergreifendes Datenmanagement, sowie Advanced Analytics mit SAP und Non-SAP Systemen.

Als erfahrener Big Data Experte und mit seiner mehrjährigen Projekterfahrung begleitet er seine Kunden strategisch, fachlich und in der Entwicklung in einem breiten Spektrum in und um Data & Analytics. Darüber hinaus verantwortet und gestaltet er gemeinsam mit seinen Kunden komplexe Advanced Analytics Szenarien innerhalb einer Data & Analytics Landschaft.

Weitere Informationen zum Thema:

datensicherheit.de, 14.03.2019
Studie der TH Köln: Big Data – Chancen und Risiken

]]>
https://www.datensicherheit.de/big-data-cybersicherheit-daten-bedrohungen/feed 0
Schutz vor Hochwasser: Künstliche Intelligenz könnte Vorhersagen verbessern https://www.datensicherheit.de/schutz-hochwasser-kuenstliche-intelligenz-vorhersagen-verbesserung https://www.datensicherheit.de/schutz-hochwasser-kuenstliche-intelligenz-vorhersagen-verbesserung#respond Fri, 28 Feb 2025 23:08:56 +0000 https://www.datensicherheit.de/?p=46430 Datenmodelle auf KI-Basis sollen Genauigkeit der Hochwasser-Vorhersage steigern

[datensicherheit.de, 01.03.2025] Hochwasser und Überflutungen infolge Starkregens gehören zu den größten Naturgefahren – mit gravierenden Auswirkungen auf Mensch, Natur und Infrastruktur insbesondere in kleinen Fluss-Einzugsgebieten. Im Rahmen des vom Karlsruher Institut für Technologie (KIT) koordinierten Projektes „KI-HopE-De“ („Kl-gestützte Hochwasserprognose für kleine Einzugsgebiete in Deutschland“) sollen nach KIT-Angaben Forscher, Wetterdienste und Hochwasserzentralen die Vorhersage solcher Gefahren in Deutschland mithilfe Methoden des Maschinellen Lernens (ML) maßgeblich verbessern. Das Bundesministerium für Bildung und Forschung (BMBF) fördere dieses kürzlich gestartete Projekt mit 1,8 Millionen Euro.

kit-hochwasser-beispiel

Foto: Gabriele Zachmann, KIT

Zur Verbesserung der bundesweiten Vorhersage von Hochwasser für kleine Flüsse erstellen KIT-Forscher mittels KI ein Hochwasser-Vorhersagemodell

Erstes nationales, probabilistische Hochwasser-Vorhersagemodell in der Entwicklung

Hochwasser-Ereignisse in kleinen Flusseinzugsgebieten – d.h. Flächen von etwa fünf bis 500 Quadratkilometern – träten bei extremen Wetterbedingungen schnell und lokal auf. Dies verkürze die Vorwarnzeiten und erhöhe die Unsicherheiten der meteorologischen und hydrologischen Vorhersagen. Die Bundesländer veröffentlichten deshalb für kleinere Flüsse meist nur regionale, einzugsgebiets- oder landkreisbezogene Warnstufen und keine detaillierten Vorhersagen.

„Unser Hauptziel ist es daher, das erste nationale, probabilistische Hochwasser-Vorhersagemodell zu entwickeln, das eine konsistente und zuverlässige Vorhersage für das gesamte Bundesgebiet ermöglicht“, erläutert Projektleiter Dr. Ralf Loritz vom „Institut für Wasser und Umwelt“ des KIT.

Um solche kurzfristigen Hochwasser-Vorhersagen von bis zu 48 Stunden für kleine Einzugsgebiete erstmals möglich zu machen und sie effizienter, robuster und flexibler zu gestalten, untersuchten und entwickelten Forscher im Verbundprojekt „KI-HopE-De“ KI-Methoden.

KI-Hochwasser-Vorhersage physikalisch basierten Modellen mindestens ebenbürtig und teilweise bereits überlegen

Dr. Loritz führt aus: „Wir wollen einen umfassenden hydro-meteorologischen Datensatz erstellen, der weltweit öffentlich zugänglich ist und sowohl Mess- als auch Vorhersagedaten enthält. Diese beziehen wir aus eigenen Quellen sowie vom Deutschen Wetterdienst und über verschiedene Landesumweltämter aus ganz Deutschland.“

Der Datensatz solle dann die Grundlage bilden, um künftig hydrologische Vorhersagemodelle zu trainieren und zu vergleichen. Dr. Loritz schätzt das Potenzial moderner ML-Methoden hierzu als „enorm“ ein – diese seien in der Lage, komplexe Zusammenhänge in hydrologischen Datensätzen zu erlernen und so robuste und recheneffiziente Simulationen auf Basis hydro-meteorologischer Messdaten und numerischer Wettervorhersagen zu generieren.

„Die Forschung zeigt, dass diese Modelle physikalisch basierten Modellen, wie sie aktuell in der Hochwasser-Vorhersage eingesetzt werden, mindestens ebenbürtig und teilweise bereits überlegen sind“, zeigt sich der KIT-Hydrologe überzeugt.

Prototypische Plattform angestrebt, welche von allen Hochwasser-Vorhersagezentren in Deutschland übernommen werden könnte

Das Projekt „KI-HopE-De“ sei interdisziplinär und institutionenübergreifend angelegt: „Es bündelt Expertise aus Hydrologie, Meteorologie sowie Maschinellem Lernen und verbindet Universitäten, nationale Großforschungseinrichtungen sowie Landes- und Bundesbehörden.“ Neben dem KIT seien der Deutsche Wetterdienst (DWD), das Landesamt für Umwelt Rheinland-Pfalz (LfU RP) und das Landesamt für Natur, Umwelt und Verbraucherschutz Nordrhein-Westfalen (LANUV NRW) Projektpartner.

„Wir erforschen und entwickeln die Modelle von Anfang an gemeinsam mit den späteren Anwendern – in diesem Fall den Landesbehörden“, so Dr. Loritz. Damit stellten sie eine anwendungsorientierte Prototypenentwicklung sowie den Kompetenzaufbau bei den späteren Nutzern sicher und erleichterten so den Praxistransfer.

Mit „KI-HopE-De“ möchten die Forscher wesentlich zur öffentlichen Sicherheit und zum Hochwasserschutz beitragen. Professor Peter Knippertz vom Institut für Meteorologie und Klimaforschung Troposphärenforschung des KIT, einer der Projektverantwortlichen, erklärt abschließend: „Wir schaffen eine innovative, prototypische Plattform, die potenziell von allen Hochwasser-Vorhersagezentren in Deutschland übernommen werden könnte.“

Weitere Informationen zum Thema:

KIT, Institut für Wasser und Umwelt – Hydrologie, Dr. Ralf Loritz
KI-HopE-De – KI-gestützte Hochwasserprognose für kleine Einzugsgebiete in Deutschland

]]>
https://www.datensicherheit.de/schutz-hochwasser-kuenstliche-intelligenz-vorhersagen-verbesserung/feed 0
DeepSeek-R1 als Warnsignal: KI-Sicherheit muss bei der Architektur beginnen https://www.datensicherheit.de/deepseek-r1-warnsignal-ki-sicherheit-muss-architektur-beginn https://www.datensicherheit.de/deepseek-r1-warnsignal-ki-sicherheit-muss-architektur-beginn#respond Wed, 26 Feb 2025 23:04:28 +0000 https://www.datensicherheit.de/?p=46392 „Chain-of-Thought Reasoning“ soll Nachvollziehbarkeit von KI-Entscheidungen verbessern, kann aber von Cyber-Kriminellen missbraucht werden

[datensicherheit.de, 27.02.2025] Künstliche Intelligenz (KI) revolutioniere nicht nur Geschäftsprozesse, sondern bringe auch neue, hochkomplexe Sicherheitsrisiken mit sich, erläutert Richard Werner, „Security Advisor“ bei Trend Micro, in seiner aktuellen Stellungnahme. Ein aktuelles Beispiel sei „DeepSeek-R1“, ein KI-Modell, welches demnach mit sogenanntem Chain-of-Thought (CoT) Reasoning arbeitet. „Diese Methode soll die Nachvollziehbarkeit von KI-Entscheidungen verbessern, indem sie Denkschritte explizit offenlegt.“ Doch genau hierin liege die Schwachstelle: „Unsere aktuelle Analyse zeigt, dass Angreifer diese Transparenz für gezielte Prompt-Attacken missbrauchen können.“

trend-micro-richard-werner

Foto: Trend Micro

Richard Werner: KI-Technologien nutzende Unternehmen müssen diese proaktiv absichern – bevor Cyber-Kriminelle tätig werden

Unternehmen mit GenKI müssen auch neue Angriffsmethoden infolge KI-spezifischer Architekturen bedenken

Sie könnten durch gezielt formulierte Anfragen System-Prompts offenlegen, Sicherheitsmechanismen umgehen oder sich unberechtigten Zugriff auf sensible Daten verschaffen. Besonders besorgniserregend sei:

„In unseren Tests war der Erfolg solcher Angriffe in den Kategorien sensitive Datenexfiltration und unsichere Ausgabeerzeugung besonders hoch.“

Dies zeige, dass Unternehmen, welche Generative KI einsetzen, nicht nur klassische Cyber-Gefahren bedenken müssten, sondern auch neue Angriffsmethoden, die sich durch KI-spezifische Architekturen ergäben.

KI nicht nur Waffe gegen Cyber-Angriffe, sondern kann auch selbst Angriffsfläche werden

Bedeutung für Unternehmen lt. Trend Micro:

KI-Modelle müssen sicherheitsorientiert entwickelt werden!
Transparenz sei wichtig, dürfe aber keine Einladung für Angreifer sein.

Regelmäßiges Red-Teaming ist unverzichtbar!
Unternehmen sollten KI-Systeme kontinuierlich auf Schwachstellen testen – ähnlich wie bei klassischen IT-Security-Audits.

Prompt-Härtung als neue Disziplin!
Sicherheitsmechanismen, welche KI-Modelle gegen manipulative Eingaben absichern, müssten Standard werden.

Werner gibt abschließend zu bedenken: „Die Forschung zu ,DeepSeek-R1‘ zeigt, dass KI nicht nur eine Waffe gegen Cyber-Angriffe ist, sondern auch selbst zur Angriffsfläche wird.“ Unternehmen, die KI-Technologien nutzen, müssten sich zur Absicherung proaktiv um diese kümmern – bevor Cyber-Kriminelle es tun.

Weitere Informationen zum Thema:

Trend Micro
Exploiting DeepSeek-R1: Breaking Down Chain of Thought Security

datensicherheit.de, 29.01.2025
GenAI und Menschlicher Faktor wichtigste Datenschutzaspekte / Ein Prozent der Benutzer für 88 Prozent der Datenverlustwarnungen verantwortlich

datensicherheit.de, 03.07.2024
Generative KI gewinnt im Alltag an Bedeutung und definiert Prinzipien der Datensicherheit neu / Joseph Regensburger kommentiert private und berufliche Herausforderungen der KI-Fortentwicklung hinsichtlich der Datensicherheit

datensicherheit.de, 25.04.2024
Generative KI: Jüngste Erkenntnisse von Check Point Research zur Gefahr für die Wahlen 2024 / CPR hat Wahlen welweit beobachtet, um den Einsatz generativer Künstlicher Intelligenz (KI) zu analysieren

]]>
https://www.datensicherheit.de/deepseek-r1-warnsignal-ki-sicherheit-muss-architektur-beginn/feed 0
Responsible AI: Vertrauen, Security und Governance sind Voraussetzungen https://www.datensicherheit.de/responsible-ai-vertrauen-security-governance https://www.datensicherheit.de/responsible-ai-vertrauen-security-governance#respond Mon, 24 Feb 2025 15:59:21 +0000 https://www.datensicherheit.de/?p=46362 Immer mehr Unternehmen setzen auf die Implementierung von KI als Kernbestandteil ihrer Geschäftsstrategie

Ein Kommentar von Lexy Kassan, Lead Data & AI Strategist bei Databricks

[datensicherheit.de, 24.02.2025] Laut McKinsey und Co. könnte das wirtschaftliche Potenzial von generativer KI, einschließlich der Anwendungsfälle und der durch KI ermöglichten Arbeitsproduktivität, die Weltwirtschaft um 17 bis 26 Billionen Dollar bereichern. Infolgedessen konzentrieren sich immer mehr Unternehmen auf die Implementierung von KI als Kernbestandteil ihrer Geschäftsstrategie, um einen Wettbewerbsvorteil zu erzielen. Und dieser Trend wird sich auch im weiteren Verlauf dieses Jahres fortsetzen.

Lexy Kassan, Lead Data & AI Strategist bei Databricks

Lexy Kassan, Lead Data & AI Strategist bei Databricks, Bild: Databricks

Deutsche Unternehmen sehen das Potential von KI

Auch deutsche Unternehmen sind optimistisch, was das Potenzial von KI angeht. Laut Bitkom Research 2024 sehen 73 Prozent von ihnen in ihr die wichtigste Technologie der Zukunft. Bei der Einführung von KI in Unternehmen ist es jedoch entscheidend, dass sie verantwortungsvolle KI-Praktiken priorisieren, die Qualität, Sicherheit und Governance abdecken, um Vertrauen in ihre KI-Ziele aufzubauen. KI-Vertrauens-, Risiko- und Sicherheitsmanagements sind dabei für Geschäfts- und Technologieentscheidungen von erhöhter Relevanz, um die (Nutzer-)Akzeptanz sowie die Realisierung der Geschäftsziele zu steigern und aus einer gewöhnliche KI eine Responsible AI zu machen.

Schwierigkeiten bei der Umsetzung von Responsible AI

Doch bei der Umsetzung dieser Qualitätsanforderungen stehen den Unternehmen oft Schwierigkeiten im Weg, die es erschweren, Vertrauen aufzubauen, Risiken zu erkennen und oft eine wirksame Aufsicht über die verwendeten Datensätze behindern:

  • Mangelnde Transparenz der Modellqualität: Die unzureichende Transparenz der Folgen von KI-Modellen ist zu einer der größten Herausforderungen geworden. Unternehmen kämpfen mit mangelndem Vertrauen in die Zuverlässigkeit von KI-Modellen, um durchgängig Ergebnisse zu liefern, die für ihre Nutzer sicher und fair sind. Ohne klare Einblicke in die Funktionsweise dieser Modelle und die potenziellen Auswirkungen ihrer Entscheidungen fällt es Unternehmen schwer, Vertrauen in KI-gestützte Lösungen aufzubauen und zu erhalten.
  • Unzureichende Sicherheitsvorkehrungen: Die Interaktion mit KI-Modellen vergrößert die Angriffsfläche eines Unternehmens, indem sie böswilligen Akteuren eine neue Möglichkeit zur Interaktion mit Daten bietet. Generative KI ist besonders problematisch, da fehlende Sicherheitsvorkehrungen es Anwendungen wie Chatbots ermöglichen können, sensible Daten und geschütztes geistiges Eigentum offenzulegen (und in einigen Fällen möglicherweise zu verändern). Diese Schwachstelle setzt Unternehmen erheblichen Risiken aus, einschließlich Datenschutzverletzungen und Diebstahl geistigen Eigentums, und erfordert robuste Sicherheitsmaßnahmen zum Schutz vor böswilligen Aktivitäten.
  • Siloed Governance: Unternehmen setzen häufig getrennte Daten- und KI-Plattformen ein, wodurch Governance-Silos entstehen, die zu einer begrenzten Sichtbarkeit und Erklärbarkeit von KI-Modellen führen. Dieser unzusammenhängende Ansatz führt zu einer unzureichenden Katalogisierung, Überwachung und Prüfung von KI-Modellen und erschwert die Gewährleistung ihrer angemessenen Nutzung. Darüber hinaus erschwert eine fehlende Datenabfolge das Verständnis dafür, welche Daten für KI-Modelle verwendet werden, und behindert eine wirksame Aufsicht. Einheitliche Governance-Frameworks sind unerlässlich, um sicherzustellen, dass KI-Modelle transparent, nachvollziehbar und rechenschaftspflichtig sind, was eine bessere Verwaltung und Compliance ermöglicht.

Qualitätsüberwachung sorgt für Vertrauen in KI-Systeme

Die Entwicklung und Einführung von Responsible AI hängt von der Einrichtung eines umfassenden Qualitätsüberwachungsrahmens ab, der den gesamten Lebenszyklus von KI-Systemen abdeckt. Dies kann beispielsweise mit einer Data-Intelligence-Plattform umgesetzt werden, die Daten, Modelltraining, Management, Überwachung und Governance vereinheitlicht, indem sie strukturierte und unstrukturierte Daten integriert, verarbeitet und KI-gestützte Analysen ermöglicht. Dieser Rahmen ist unerlässlich, um sicherzustellen, dass KI-Modelle von der Entwicklung bis zum Einsatz vertrauenswürdig und auf die vorgesehenen Anwendungsfälle abgestimmt bleiben. Dabei sind drei entscheidende Aspekte der Modellqualität besonders zu berücksichtigen: Transparenz, Effektivität und Zuverlässigkeit.

  1. Die Transparenz ist von grundlegender Bedeutung, wenn es darum geht, Vertrauen in KI-Systeme zu schaffen und regulatorische Anforderungen zu erfüllen. Es geht darum, Modelle erklärbar und interpretierbar zu machen, so dass die Beteiligten verstehen können, wie Entscheidungen getroffen werden.
  2. Die Effektivität hingegen konzentriert sich auf die Fähigkeit des Modells, genaue und angemessene Ergebnisse zu liefern. Während der Entwicklung ist es wichtig, die Datenqualität, die Leistungskennzahlen des Modells und potenzielle Verzerrungen zu verfolgen, um Probleme frühzeitig zu erkennen und abzumildern.
  3. Die Zuverlässigkeit gewährleistet eine gleichbleibende Leistung im Laufe der Zeit und erfordert eine kontinuierliche Überwachung, um eine Verschlechterung des Modells zu verhindern und Geschäftsunterbrechungen zu vermeiden. Die Überwachung umfasst die Verfolgung potenzieller Probleme, wie z. B. Änderungen in den Vorhersagen, Verschiebungen in der Datenverteilung und Leistungseinbußen, um ein schnelles Eingreifen zu ermöglichen. Die Neuverteilung stellt sicher, dass das Unternehmen nach Modellaktualisierungen oder -ersetzungen weiterhin hochwertige Ergebnisse ohne Ausfallzeiten erhält. Zusammengenommen sind Überwachung und Umstellung von entscheidender Bedeutung für die Aufrechterhaltung der Modellqualität und -zuverlässigkeit.

Unternehmen müssen die Kontrolle über ihre Daten und KI-Modelle haben

Responsible KI-Praktiken sind unerlässlich, um sicherzustellen, dass KI-Systeme hochwertig, sicher und gut verwaltet sind. Qualitätsaspekte sollten bei der KI-Entwicklung im Vordergrund stehen, damit sichergestellt ist, dass KI-Systeme nicht voreingenommen sind und auf ihre Anwendbarkeit und Angemessenheit in den vorgesehenen Anwendungsfällen überprüft werden. Es sollten Sicherheitsmaßnahmen eingeführt werden, um KI-Systeme vor Cyber-Bedrohungen und Datenverletzungen zu schützen. Es sollten Governance-Rahmen geschaffen werden, um Rechenschaftspflicht, Transparenz und die Einhaltung der einschlägigen Gesetze und Vorschriften zu fördern.

Dies erfordert, dass jedes Unternehmen die Verantwortung und Kontrolle über seine Daten und KI-Modelle mit umfassender Überwachung, Datenschutzkontrollen und Governance während der gesamten KI-Entwicklung und -Bereitstellung hat. Dieser einheitliche Ansatz ermöglicht es Unternehmen, verantwortungsvolle KI-Ziele zu erreichen, die Modellqualität zu gewährleisten, sicherere Anwendungen bereitzustellen und die Einhaltung gesetzlicher Vorschriften zu unterstützen.

Weitere Informationen zum Thema:

datensicherheit.de, 05.02.2025
AI Act der EU verbietet bestimmte KI-Systeme und verpflichtet zur -Kompetenz

]]>
https://www.datensicherheit.de/responsible-ai-vertrauen-security-governance/feed 0