Marco Eggerling ist CISO EMEA bei Check Point Software Technologies BKA Lagebild Cybercrime

Deepfakes 2025: Von der KI-Spielerei zum Hackertool

Deepfakes 2025: Von der KI-Spielerei zum Hackertool.

Deepfakes sind längst keine Spielerei mehr. Was als unterhaltsamer Internettrend begann, ist heute ein hochentwickeltes Werkzeug für Cyber-Kriminalität. Moderne Deepfakes schauen täuschend echt aus, lassen sich in Echtzeit einsetzen und sind massentauglich. Damit stellen sie eine akute Bedrohung für Wirtschaft und Gesellschaft dar.

Laut unserem AI Security Report 2025 verursachten Deepfake-Angriffe allein in zwei bekannt gewordenen Fällen in Kanada und Großbritannien einen Schaden in Höhe von über 35 Millionen US-Dollar. Noch gravierender ist, dass sich die kriminelle Nutzung längst nicht mehr auf Videos beschränkt. KI-generierte Stimmen werden mittlerweile regelmäßig bei Sextortion, CEO-Hochstapelei und Fake-Geiselnahmen eingesetzt. So wurden beispielsweise in Italien der Verteidigungsminister, sowie Giorgio Armani und andere Konzernführer per Deepfake-Stimme nachgeahmt, um prominente Kontakte zu erpressen.

Deepfakes: die technische Basis ist ein Kinderspiel

Die technische Basis dafür ist ebenso erschreckend wie leicht zugänglich: Voice-Cloning-Systeme lassen sich mit nur wenigen Minuten an Audiomaterial trainieren, kosten etwa 20 000 US-Dollar und können jede Stimme in jeder Sprache in Echtzeit imitieren – sogar über mehrere Gespräche hinweg. Ergänzt werden diese Systeme durch gefälschte Business-E-Mail-Kits und auf Betrug zugeschnittene Phishing-Suites. Sie sind im Darknet und auf Telegram für wenige Hundert US-Dollar erhältlich und arbeiten ohne menschliche Beteiligung.

Besonders besorgniserregend ist die zunehmende Kommerzialisierung dieser Technologien. Sogar technisch weniger versierte Hacker können mithilfe von Tools, die auf generativer KI basieren und somit kontinuierlich dazulernen sowie sich dynamisch an das Verhalten ihrer Opfer anpassen. Damit können sie täuschend echte CEO-Anrufe, gefälschte Konferenzschaltungen oder personalisierte Phishing-Kampagnen durchführen.

Diese Automatisierung der Cyber-Kriminalität macht Deepfakes so skalierbar wie nie zuvor. Die Technologie wurde in den letzten Jahren stark verbessert. Zum Beispiel gibt es autonome Live-Agenten. Mit diesen kann man nicht nur Identitäten fälschen, sondern ganze Gespräche mit Avataren führen, die von der künstlichen Intelligenz gesteuert werden. Die Übergänge zwischen Realität und Simulation werden somit fließend und herkömmliche Überprüfungsmechanismen greifen nicht mehr.

Was dagegen hilft, ist einerseits die Aufmerksamkeit des Nutzers, um Ungereimtheiten zu erkennen und nicht alles zu glauben, was seriös erscheint. Andererseits können Unternehmen und Behörden sich mithilfe mehrschichtiger Sicherheitsarchitekturen, die verschiedene Komponenten konsolidieren, gegen solche Betrügereien schützen. Die Einbindung von künstlicher Intelligenz (KI) in die Cyber-Abwehr ist außerdem die erste Wahl, um KI-generierte Angriffe abzuwehren, weil hier Ähnliches mit Ähnlichem gekontert wird. Mithilfe KI-basierter Verteidigungssysteme lassen sich gefälschte Medien, verdächtige Kommunikation und Anomalien im Verhalten frühzeitig erkennen und blockieren, bevor Schaden entsteht. Die Technologien erkennen Deepfakes in Audiodateien, isolieren Angriffe von autonomen KI-Agenten und verhindern die Ausführung manipulierten Inhalts. In Kombination mit Zero-Trust-Modellen und gezielten Awareness-Programmen entsteht so ein umfassender Schutzschild gegen Deepfake-Angriffe.

Jedem sollte daher bewusst sein: Deepfakes sind keine theoretische Zukunftsvision mehr, oder die kleine Spielerei einiger Hacker, um die Öffentlichkeit zu erschrecken, sondern knallharte Realität der Cyber-Kriminalität.

Weitere Inhalte zum Thema

Nichts mehr verpassen?

Newsletter IT-Sicherheit

Autoren

Skip to content