KI hat in der Cyberverteidigung die Nase vorn
Künstliche Intelligenz (KI) leistet einen immensen Beitrag in der Cybersicherheit. Allerdings ist unstrittig, dass sich nicht nur die Defensive, sondern auch die einfallsreiche, feindliche Gegenseite an der KI bedient. Es stellt sich also die Frage, wer am stärksten vom KI-Einsatz profitiert.
KI bietet eine Vielzahl von Vorteilen für die Cybersicherheit: Automatisierung, Geschwindigkeit, Skalierbarkeit und vor allem die verbesserte Erkennung. Im Gegensatz dazu würden regelbasierte Systeme einen immensen manuellen Aufwand benötigen, um das Ausmaß moderner Bedrohungen auch nur ansatzweise zu bewältigen. KI-Modelle können generalisieren, indem sie Beziehungen zwischen einer beliebigen Anzahl von Merkmalen lernen. Menschliche Analysten könnten solche Regeln weder in der Komplexität noch in der nötigen Geschwindigkeit schreiben. Allerdings bleibt der Mensch ein wichtiger Faktor in der Cybersicherheit, nämlich genau dort, wo KI heute noch an ihre Grenzen stößt.
Auch auf der Gegenseite spielt die KI eine Rolle. In den meisten Fällen nutzen Kriminelle KI für Social Scams und die sozialen Aspekte herkömmlicher Angriffe – Stichwort Social Engineering. Denn KI ermöglicht eine nahezu fehlerfreie Übersetzung in großem Maßstab, was die Qualität und Erfolgschancen von Social Scams drastisch erhöht. Sie kann auch verwendet werden, um hochwertige Phishing-E-Mails zu erstellen, die für Laien von echten E-Mails nicht zu unterscheiden sind. Darüber hinaus nutzen die Betrüger Chatbots, um mit potenziellen Opfern ins Gespräch zu kommen und den Köder auszulegen. Cyberkriminelle nutzen Large-Language-Modelle (LLM), um einen Großteil der betrügerischen E-Mails und Textnachrichten zu generieren. Hingegen sind Belege für KI-generierte Malware für Exploits bislang kaum zu finden.
Noch setzen Cyberkriminelle KI vor allem für Social Engineering ein
Bevor man vor der Affinität von Cyberkriminellen in Panik gerät, sollte man wissen, dass Cyberangreifer Opportunisten sind. Ihnen geht es um Effektivität bei der Zielerreichung, also möglichst viel Geld mit Erpressungen oder Betriebsstörungen aus einem Unternehmen zu ziehen. Es existieren Ransomware-Gruppen, die seit über 10 Jahren die besten Techniken voneinander kopieren und ihre Ransomware-Aktivitäten nach und nach verbessern, um immer höhere Lösegeldsummen zu erzielen. Warum sollten sie also Zeit und Geld in die Entwicklung fortschrittlicher Techniken wie LLMs investieren, wenn sie ganz simpel ungepatchte Firewalls ausnutzen oder ein Passwort von einem Benutzer stehlen und sich in ein System einloggen können?
Darum geht der Vorteil derzeit nahezu ausschließlich an die Verteidigung, da diese über die Ressourcen und Datenwissenschaftler verfügt, um effiziente Modelle für die Cyberabwehr zu entwickeln. Kriminelle werden dies erst dann tun, wenn es entweder billig, einfach genug (wie bei den Audio-Deepfakes) oder schlichtweg erfolgreicher ist als herkömmliche Methoden (was bei Phishing und Spam heute der Fall zu sein scheint).
Open-Source-KI-Modelle könnten einen günstigen und leichten Einstieg bieten
Open-Source-KI-Modelle könnten Cyberkriminelle aktuell am ehesten interessieren, da sie einen leichten Einstieg für wenig Geld und Ressourcen bieten. Zwar bergen diese auch Risiken, da nicht klar ist, worauf diese GenAI-Tools trainiert oder ob die Daten manipuliert wurden. Aber sie könnten der Türöffner für dieses Spielfeld sein.
Für Unternehmen bedeutet das, dass sie keine sensiblen Daten auf Modelle in Ländern hochladen sollten, die die lokalen Datenschutzgesetze und -bestimmungen nicht respektieren. Derartige Open-Source-Modelle sollten am besten lokal oder auf einer vertrauenswürdigen Cloud-Computing-Infrastruktur betrieben werden.
Prinzipiell könnten Kriminelle Open-Source-Tools für eigene KI-Modelle missbrauchen. Die Frage ist, ob sich die Mühe lohnt. Sie müssten den Dreiklang von einfacher, billiger und effektiver Nutzung erfüllen, um in den Werkzeugkasten eines Cyberkriminellen aufgenommen zu werden. Bisher ist allerdings der Missbrauch mit gestohlenen Konten oder Kreditkarten für Social Engineering-Zwecke einfacher, als ein eigenes Modell zu trainieren oder zu betreiben – noch jedenfalls.
Quantencomputer kommen, ist aber noch Zukunftsmusik
Immer wieder wird der nächste große Evolutionsschritt von KI mit Quantencomputern in Verbindung gebracht. In diesem Zusammenhang muss man allerdings zur Kenntnis nehmen, dass bislang noch kein Quantencomputer gebaut wurde, der auch nur eine einzige praktische Aufgabe zuverlässig und in großem Maßstab erledigen kann. Aus Sicht der Cybersicherheit sollten wir aber vorbereitet sein. Da sensible Daten über längere Zeiträume geschützt werden müssen, sollte proaktiv heute schon über die Einführung der Post-Quantum-Verschlüsselung zumindest nachgedacht werden. Aber von KI mit Quantum Computing sind wir aktuell noch weit entfernt.