ISACA Studie: Unternehmen schließen Security-Teams von KI-Entwicklung aus
Nur 35 Prozent der Experten oder Teams für Cyber-Sicherheit sind an der Entwicklung von Richtlinien für den Einsatz von KI-Technologie in ihrem Unternehmen beteiligt. Fast die Hälfte (45 Prozent) gibt an, nicht bei der Entwicklung, Einführung oder Implementierung von KI-Lösungen mitzuwirken. Dies geht aus dem jüngst veröffentlichten Bericht „State of Cybersecurity 2024“ von ISACA hervor, globaler Berufsverband zur Förderung des Vertrauens in die Technologie.
Bei der Beantwortung neuer Fragen im Rahmen der jährlich durchgeführten und von Adobe unterstützten Studie wurde das Feedback von mehr als 1.800 Cybersicherheitsexperten zu Themen im Zusammenhang mit Cyber-Sicherheitspersonal und der Bedrohungslandschaft erfasst. Die befragten Sicherheits-Teams gaben an, dass sie KI hauptsächlich für folgende Zwecke einsetzen:
- Automatisierte Gefahrenerkennung/-reaktion (28 Prozent)
- Endgerätesicherheit (27 Prozent)
- Automatisierung routinemäßiger Sicherheitsaufgaben (24 Prozent)
- Betrugserkennung (13 Prozent)
„Angesichts des Personalmangels im Bereich der Cyber-Sicherheit und der zunehmenden Belastung der Fachkräfte durch eine komplexe Gefahrenlandschaft lohnt es sich, das Potenzial von KI zur Automatisierung und Rationalisierung bestimmter Aufgaben sowie zur Verringerung der Arbeitsbelastung auszuloten“, so Jon Brandt, ISACA Director, Professional Practices and Innovation. „Verantwortliche für Cyber-Sicherheit dürfen sich jedoch nicht nur auf die Rolle von KI bei Sicherheitsoperationen konzentrieren. Es ist unerlässlich, dass die Sicherheitsfunktion in die Entwicklung, das Onboarding und die Implementierung jeder KI-Lösung in ihrem Unternehmen einbezogen wird – auch bei bestehenden Produkten, die später mit KI-Funktionen ausgestattet werden.“
Die neuesten KI-Entwicklungen erkunden
Zusätzlich zu den Ergebnissen des Berichts „State of Cybersecurity 2024“ zum Thema KI hat ISACA Ressourcen zum Thema KI entwickelt, um Fachleute für Cyber-Sicherheit und andere Experten im Bereich Digital Trust beim Umgang mit dieser transformativen Technologie zu unterstützen:
- White Paper zum KI-Gesetz der EU: Unternehmen müssen den Zeitplan und die Maßnahmen im Zusammenhang mit dem KI-Gesetz der EU kennen, das Anforderungen an bestimmte in der Europäischen Union eingesetzte KI-Systeme festlegt und bestimmte Verwendungen von KI verbietet – die meisten davon ab dem 2. August 2026. Das neue ISACA White Paper Understanding the EU AI Act: Requirements and Next Steps empfiehlt einige wichtige Schritte, darunter die Einführung von Audits und Rückverfolgbarkeit, die Anpassung bestehender Cyber-Sicherheits- und Datenschutzrichtlinien und -programme. Ebenso angeraten wird die Ernennung eines KI-Beauftragten, der für die Überwachung der eingesetzten KI-Tools und des breiteren KI-Ansatzes des Unternehmens verantwortlich ist.
- Authentifizierung in der Deepfake-Ära: Experten für Cyber-Sicherheit sollten sich sowohl der Vorteile als auch der Risiken von KI-gesteuerter adaptiver Authentifizierung bewusst sein, so das neue ISACA White Paper Examining Authentication in the Deepfake Era. Während KI die Sicherheit erhöhen kann, indem sie in adaptiven Authentifizierungssystemen eingesetzt wird, die sich an das Verhalten jedes Benutzers anpassen und Angreifern den Zugriff erschweren, können KI-Systeme auch durch feindliche Angriffe manipuliert werden. Zudem sind sie anfällig für Verzerrungen in KI-Algorithmen und können ethische und datenschutzrechtliche Bedenken aufwerfen. Andere Entwicklungen, einschließlich der Forschung zur Integration von KI mit Quantencomputern, die sich auf die Authentifizierung im Bereich der Cybersicherheit auswirken könnten, sollten laut dem White Paper beobachtet werden.
- Überlegungen zur KI-Richtlinie: Organisationen, die eine Richtlinie für generative KI einführen, können sich gemäß den Considerations for Implementing a Generative Artificial Intelligence Policy berlegungen der ISACA eine Reihe wichtiger Fragen stellen, um sicherzustellen, dass sie alle wichtigen Aspekte abdecken. Dazu gehören: „Wer ist vom Geltungsbereich der Richtlinie betroffen?“, „Wie verhält man sich richtig und was sind akzeptable Nutzungsbedingungen?“ und „Wie stellt Ihre Organisation sicher, dass die rechtlichen und Compliance-Anforderungen erfüllt werden?“.
ISACA: Förderung von KI-Wissen und -Fähigkeiten
ISACA hat auch seine Ausbildungs- und Zertifizierungsoptionen erweitert, um Fachkräfte dabei zu unterstützen, mit der sich verändernden KI- und Cyber-Sicherheitslandschaft Schritt zu halten:
Machine Learning: Neural Networks, Deep Learning, Large Language Models
Neuester On-Demand-Kurs von ISACA zu KI, der den kürzlich veröffentlichten Kurs „Machine Learning for Business Enablement“ sowie weitere Kurse zu Themen wie KI-Grundlagen, Governance, Ethik und Audit ergänzt. Der Kurs kann bequem über das ISACA-Onlineportal abgerufen werden und bietet die Möglichkeit, CPE-Punkte (Continuing Professional Education) zu erwerben. Die Kurse sind online abrufbar.
ISACA Certified Cybersecurity Operations Analyst
Mit der Entwicklung neuer Technologien wie automatisierter Systeme, die künstliche Intelligenz nutzen, wird die Rolle des Cyber-Analysten beim Schutz digitaler Ökosysteme immer wichtiger. Die kommende ISACA Zertifizierung zum Certified Cybersecurity Operations Analyst, die im ersten Quartal 2025 eingeführt wird, konzentriert sich auf die technischen Fähigkeiten, Bedrohungen zu bewerten, Schwachstellen zu identifizieren und Gegenmaßnahmen zu empfehlen, um Cyber-Vorfälle zu verhindern.
Ein kostenloses Exemplar des ISACA State of Cybersecurity 2024 Survey Report ist online erhältlich.