KI als Waffe: Wie Deepfakes Identitätsdiebstahl und Angriffe befeuern

KI als Waffe: Wie Deepfakes Betrug, Identitätsdiebstahl und Angriffe befeuern

KI als Waffe: Wie Deepfakes Betrug, Identitätsdiebstahl und Angriffe befeuern.

Trend Micro veröffentlicht einen neuen Bericht, der das Ausmaß und die Reife Deepfake-gestützter Cyberkriminalität beleuchtet. Mit zunehmender Leistungsfähigkeit, Verfügbarkeit und Erschwinglichkeit generativer KI-Tools setzen Cyberkriminelle diese Technologien verstärkt für Angriffe wie Betrug, Erpressung oder Identitätsdiebstahl ein.

Der Bericht zeigt, dass Deepfakes längst kein reiner Hype mehr sind, sondern bereits reale Schäden verursachen: Sie untergraben digitales Vertrauen, bringen neue Risiken für Unternehmen und unterstützen so die Geschäftsmodelle von Cyberkriminellen.

Die Analyse ergab zudem, dass Angreifer heute kein Expertenwissen mehr benötigen, um überzeugende Angriffe zu starten. Stattdessen nutzen sie frei zugängliche Plattformen zur Video-, Audio- und Bildgenerierung, viele davon eigentlich für Content Creators entwickelt, um täuschend echte Deepfakes zu erstellen, mit denen sie sowohl Einzelpersonen als auch Unternehmen in die Irre führen. Diese Tools sind kostengünstig, leicht zu bedienen und zunehmend in der Lage, Identitätsprüfungen und Sicherheitsmaßnahmen zu umgehen.

Der Bericht des japanischen Cybersecurity-Anbieters beschreibt ein wachsendes kriminelles Ökosystem, in dem diese Plattformen für ausgeklügelte Betrugsmaschen verwendet werden. Darunter:

  • CEO-Betrug wird zunehmend schwerer zu erkennen, da Angreifer Deepfake-Audio oder -Video einsetzen, um Führungskräfte in Echtzeit-Meetings zu imitieren.
  • Bewerbungsprozesse werden kompromittiert, indem sich falsche Kandidaten mit KI-Unterstützung erfolgreich durch Vorstellungsgespräche mogeln und unberechtigten Zugriff auf interne Systeme erhalten.
  • Finanzdienstleister registrieren eine Zunahme von Deepfake-Versuchen zur Umgehung von KYC-Prüfungen („Know Your Customer“), was anonyme Geldwäsche mittels gefälschter Identitäten ermöglicht.
  • Im Cyber-Untergrund kursieren Tutorials, Toolkits und Dienstleistungen, um solche Angriffe zu professionalisieren. Mit detaillierten Schritt-für-Schritt-Anleitungen zur Umgehung von Onboarding-Prozessen oder einsatzfertigen Face-Swap-Tools ist der Einstieg in diese Form der Kriminalität heute so einfach wie nie zuvor.

Angesichts der zunehmenden Häufigkeit und Komplexität Deepfake-gestützter Angriffe ruft Trend Micro Unternehmen dazu auf, proaktive Maßnahmen zu ergreifen. Ziel ist es Risiken frühzeitig zu minimieren sowie Mitarbeiter und Prozesse zu schützen. Zu den empfohlenen Maßnahmen zählen Schulungen zur Erkennung von Social-Engineering-Angriffen, die Überprüfung von Authentifizierungsverfahren sowie die Integration von Lösungen zur Detektion synthetischer Medieninhalte.

„KI-generierte Medien sind keine Zukunftsbedrohung mehr, sondern stellen bereits heute ein ernsthaftes Geschäftsrisiko dar“, erklärt David Sancho, Senior Threat Researcher bei Trend Micro. „Wir beobachten, wie Führungskräfte in Echtzeit imitiert, Bewerbungsprozesse manipuliert und Sicherheitsmechanismen mit erschreckender Leichtigkeit umgangen werden. Diese Forschung ist ein Weckruf: Unternehmen, die sich nicht aktiv auf die Deepfake-Ära vorbereiten, haben den Anschluss bereits verpasst. In einer Welt, in der man seinen Augen nicht mehr trauen kann, muss digitales Vertrauen von Grund auf neu aufgebaut werden.“

Den vollständigen Bericht Deepfake it ’til You Make It: A Comprehensive View of the New AI Criminal Toolset finden Sie in englischer Sprache.

Weitere Inhalte zum Thema

Nichts mehr verpassen?

Newsletter IT-Sicherheit
Skip to content