Plädoyer für mehr Transparenz beim Einsatz von KI.
Kaspersky ruft zu einem verantwortungsvollen und transparenten Einsatz von Künstlicher Intelligenz (KI) auf. Zwar birgt KI großes Potenzial zur Effizienzsteigerung und eröffnet neue Möglichkeiten für Unternehmen und Gesellschaft, gleichzeitig wird sie jedoch zunehmend von Cyberkriminellen für schädliche Zwecke missbraucht.
Künstliche Intelligenz entwickelt sich rasant weiter. Auch weniger technisch versierte Cyberkriminelle nutzen KI inzwischen, um ihre Angriffsmethoden auszuweiten. Laut der aktuellen Kaspersky-Umfrage befürchten 58 Prozent der Unternehmen den Verlust vertraulicher Daten und jeweils 52 Prozent negative Auswirkungen auf Vertrauen und Finanzen, wenn sie ihre Schutzmaßnahmen gegen KI-basierte Angriffe nicht verbessern. Gleichzeitig mangelt es vielen Unternehmen an externem Wissen über neue Bedrohungen: 41 Prozent geben an, keine ausreichenden Informationen durch externe Experten zu erhalten.
Kaspersky setzt sich daher für klare Leitlinien für die ethische Entwicklung und den Einsatz von KI ein, um Manipulation und Missbrauch vorzubeugen. Bereits im Jahr 2024 unterzeichnete das Unternehmen den AI Pact der Europäischen Kommission – eine Initiative zur Vorbereitung auf das Inkrafttreten des AI Act der EU, dem weltweit ersten umfassenden Rechtsrahmen für Künstliche Intelligenz. Im Dezember 2024 präsentierte Kaspersky zudem seine KI-Leitlinien beim Internet Governance Forum (IGF) in Riad; zentrale Prinzipien darin: Transparenz, Sicherheit, menschliche Kontrolle und Datenschutz.
„Ethische KI ist die Grundlage für Vertrauen, regulatorische Konformität und nachhaltigen Unternehmenserfolg. Sie ermöglicht es, das Risiko von Datenpannen und KI-basierten Bedrohungen zu minimieren und zugleich regulatorischen Anforderungen wie dem EU AI Act gerecht zu werden“, erklärt Jochen Michels, Director Public Affairs Europe bei Kaspersky. „Unsere Leitlinien zur sicheren Entwicklung und Nutzung von KI sowie unsere Prinzipien für den ethischen Einsatz von KI im Bereich Cybersicherheit unterstützen Unternehmen dabei, die Vorteile der Technologie verantwortungsvoll und sicher zu nutzen – ohne die wachsenden Risiken aus den Augen zu verlieren.“
Verantwortungsvoller KI-Einsatz schützt Gesellschaft und Unternehmen
„KI wird zunehmend zur Stärkung der Cybersicherheit eingesetzt – von der Erkennung bis zur Vorhersage von Bedrohungen. Doch wer entscheidet, wie weit solche Werkzeuge gehen dürfen?“, fragt Liliana Acosta, Gründerin und CEO von Thinker Soul. „Wenn Sicherheitsverstöße auftreten, sind häufig Einzelpersonen oder besonders verletzliche Gruppen am stärksten betroffen. Es braucht daher Systeme, die nicht nur effektiv, sondern auch gerecht und ethisch gestaltet sind.“
„In den vergangenen Monaten habe ich beobachtet, wie Cyberkriminelle KI gezielt einsetzten. Sie wissen genau, wie sehr diese Technologie die Spielregeln verändert, und nutzen sie bereits erfolgreich, um ihre Angriffe zu verbessern. Daher ist es entscheidend, dass auch Unternehmen KI in ihre Verteidigungsstrategien integrieren“, ergänzt Clément Domingo, Cybersecurity-Evangelist. „Es ist wichtig, die Denkweise von Angreifern zu verstehen – manchmal auch, indem man sich in deren Lage versetzt. Richtig eingesetzt kann KI ein mächtiges Instrument sein, um Daten, Infrastrukturen, Privatsphäre und Unternehmen als Ganzes zu schützen.“
Transparenz, Sicherheit, Kontrolle und Datenschutz als Grundprinzipien
Um Unternehmen beim sicheren Einsatz von KI zu unterstützen, hat Kaspersky zwei grundlegende Dokumente veröffentlicht:
„Guidelines for Secure Development and Deployment of AI Systems“ – die zentralen Empfehlungen für die Entwicklung, den Einsatz und Betrieb von KI-Systemen, beinhalten u. a. folgende Leitlinien:
- Cybersicherheitsschulungen und -Awareness: Kaspersky hebt die Bedeutung der Unterstützung durch Führungskräfte und die fachliche, spezialisierte Schulung von Mitarbeitern hervor. Diese müssen durch regelmäßig und aktuelle Schulungen, die auch neue Risiken behandeln, ein Verständnis für KI-typische Bedrohungen entwickeln.
- Threat Modelling und Risikoanalyse: Proaktives Threat Modelling (z. B. STRIDE, OWASP) identifiziert Schwachstellen frühzeitig. Kaspersky legt den Fokus auf Risiken wie Data Poisoning oder Modellmissbrauch.
- Sichere Infrastruktur (Cloud): Verschlüsselung, Netzwerksegmentierung, Zero-Trust-Prinzipien und regelmäßige Patches erhöhen die Cloud-Sicherheit.
- Lieferketten- und Datenschutz: Strenge Audits, Safetensors und umfassende Datenschutzrichtlinien minimieren Risiken durch AI-Tools von Drittanbietern.
- Tests und Validierung: Eine kontinuierliche Model-Validierung hilft, Datenverschiebungen oder gegnerische Angriffe zu erkennen. Kaspersky empfiehlt eine intensive Überwachung, die Aufteilung von Datensätzen und Überprüfung der Entscheidungslogik.
- Verteidigung gegen ML-spezifische Angriffe: Um vor Angriffen wie Prompt-Injection oder Adversarial Inputs geschützt zu sein, empfiehlt Kaspersky ein Training mit adversarialen Beispielen, Anomalieerkennung und Model-Destillation.
- Regelmäßige Sicherheits-Updates: Bug-Bounty-Programme und häufige Patches von AI-Tools reduzieren Schwachstellen und stärken die Resilienz.
- Regulatorische Konformität: Umsetzung internationaler Standards wie DSGVO und EU AI Act; regelmäßige Audits zur Überprüfung ethischer und rechtlicher Vorgaben.
„Principles of ethical use of AI systems in cybersecurity“ – ethische Grundsätze für mehr Aufklärung und klare Standards, die auf Transparenz, Sicherheit, menschliche Kontrolle und Datenschutz ausgerichtet sind. Ziel ist, Manipulation und den Missbrauch von KI-Anwendungen wirksam zu verhindern. Zu diesen Prinzipien zählen:
- Transparenz: Offenlegung des KI-Einsatzes gegenüber Kunden; verständliche Erläuterung der Funktionsweise; Etablierung von Kontrollmechanismen zur Ergebnissicherung.
- Sicherheit: Der Cybersicherheitsüberprüfung über den gesamten Entwicklungs- und Implementierungsprozess eine Priorität einräumen; dedizierte Sicherheits-Checks und Red-Teaming vorsehen; Minimierung der Abhängigkeit von externen Trainingsdaten; mehrschichtige Schutzkonzepte einführen; Cloud-basiertens Lösungen mit entsprechenden Sicherheitsvorkehrungen Vorzug gewähren.
- Menschliche Kontrolle: Fachliche Aufsicht und Überwachung aller KI-/ML_Systeme durch Experten sicherstellen; Kombination von Algorithmen und menschlicher Expertise.
- Datenschutz: Datenschutz priorisieren; Reduzierung und Begrenzung der Datenverarbeitung; Pseudonymisierung oder Anonymisierung; Sicherstellung der Datenintegrität durch technische und organisatorische Maßnahmen.