Münchner Sicherheitskonferenz: KI als Werkzeug staatlicher Cyber- und Wirtschaftsspionage.
Zur Münchner Sicherheitskonferenz veröffentlicht die Google Threat Intelligence Group (GTIG) den Bericht „AI Threat Tracker“, der die Debatte um KI-gestützte Bedrohungen auf eine operative Ebene zieht. Die zentrale Beobachtung: Staatliche Akteure nutzen generative KI bereits heute systematisch für Cyberaufklärung, Social Engineering und wirtschaftlich relevante Spionage.
Zusammenfassung (TL; DR):
- Der Bericht liefert die Einordnung: KI senkt Kosten, beschleunigt Angriffe und erschwert die Erkennung – und ergänzt damit die sicherheitspolitischen Debatten in München konkret.
- Neu ist dabei weniger die Technik als das Angriffsziel. Mit sogenannten Model-Extraction-Angriffen oder „Distillation Attacks“ geraten erstmals KI-Modelle selbst ins Visier – eine Form von Diebstahl geistigen Eigentums, die insbesondere für Industrie, Mittelstand und technologiegetriebene Unternehmen relevant ist.
- Gleichzeitig verschwinden durch KI-gestütztes „Rapport-Building Phishing“ viele klassische Warnsignale.
Zusammenfassung der wichtigsten Inhalte zur Münchner Sicherheitskonferenz
- Zunahme von Model-Extraktion-Angriffen oder „Distillation Attacks“: Im vergangenen Jahr identifizierten GTIG und Google DeepMind Bedrohungsakteure, die versuchten, Model-Extraktion-Angriffen oder Distillation Attacks auf generative KI-Produkte durchzuführen, um Einblicke in die Schlussfolgerungen und Gedankengänge eines Modells zu gewinnen. Diese Angriffe gehen von globalen Unternehmen und akademischen Forschern aus, die versuchen, firmeneigene Logik zu klonen. Ein häufiges Ziel von Angreifern ist die Fähigkeit von Gemini, logisches Denken zu entwickeln.
- Bedrohungsakteure nutzen KI während des gesamten Angriffslebenszyklus, insbesondere zur Aufklärung für Social Engineering: Von Regierungen unterstützte Angreifer verwenden KI weiterhin zum Coden und Scripten, um Informationen über potenzielle Opfer zu sammeln, um öffentlich bekannte Schwachstellen zu erforschen und für Aktivitäten nach der Kompromittierung. Zu den jüngsten Bedrohungen dieser Art, die von GTIG beobachtet wurden, gehören: Der vom iranischen Staat unterstützte Akteur APT42 nutzte GenAI-Modelle zur Unterstützung der Aufklärung und gezieltes Social Engineering. APT42 missbraucht KI, um nach offiziellen E-Mails bestimmter Organisationen zu suchen und potenzielle Geschäftspartner auszuspionieren, um einen glaubwürdigen Vorwand zu schaffen. Der von der nordkoreanischen Regierung unterstützte Akteur UNC2970 konzentriert sich in seinen Kampagnen konsequent auf Angriffe auf Verteidigungsunternehmen und gibt sich dabei als Personalvermittler aus. Die Gruppe nutzte Gemini, um Open-Source-Intelligence (OSINT) zu synthetisieren und Profile von hochrangigen Zielen zu erstellen, um die Kampagnenplanung und Aufklärung zu unterstützen.
- Stetiges Wachstum KI-integrierter Malware: Wie bereits in der GTIG-Analyse vom November 2025 beobachtete das Team auch weiterhin, dass Bedrohungsakteure mit KI experimentierten, um neue Fähigkeiten in Malware-Familien zu implementieren. Dies umfasste Malware-Proben, die unter dem Namen HONESTCUE verfolgt wurden und die API von Gemini nutzten, um die Funktionsgenerierung auszulagern, um die herkömmliche netzwerkbasierte Erkennung und statische Analyse zu umgehen.
- Neue KI-generierte Phishing-Kits: GTIG beobachtete auch, dass Bedrohungsakteure konventionelle KI-Fähigkeiten in ihre Cyber-Einbruchstechnik integrieren. GTIG identifizierte ein COINBAIT-Phishing-Kit, dessen Erstellung wahrscheinlich durch KI-Codegenerierungstools beschleunigt wurde und das sich als große Kryptowährungsbörse ausgab, um Zugangsdaten zu sammeln.
- Wachsender Markt für KI-Dienste zur Unterstützung bösartiger Aktivitäten: Beobachtungen von GTIG in englisch- und russischsprachigen Untergrundforen deuten auf ein anhaltendes Interesse an KI-gestützten Tools und Diensten hin. Allerdings fällt es den Bedrohungsakteuren schwer, eigene Modelle zu entwickeln, weshalb sie stattdessen auf bestehende, ausgereifte KI-Modelle zurückgreifen. Ein Großteil dieser Aktivitäten belegt die steigende Nachfrage nach gehackten oder gestohlenen API-Schlüsseln. Zum Beispiel handelt es sich bei „Xanthorox“ um ein Untergrund-Toolkit, das als maßgeschneiderte KI zur autonomen Codegenerierung von Malware und zur Entwicklung von Phishing-Kampagnen angepriesen wird. Die Untersuchung von GTIGs ergab jedoch, dass Xanthorox aus mehreren KI-Produkten von kommerziellen und Dritt-Anbietern bestand.



