Deepfake-basierte bösartige digitale Zwillinge als Bedrohung

Deepfake Digital Twins digitale Zwillinge

Deepfake-basierte bösartige digitale Zwillinge als neue Bedrohung

Der Trend Micro-Bericht The Easy Way In/Out: Securing The Artificial Future zu den Prognosen für 2025 warnt im Jahr 2025 besonders vor dem Potenzial von bösartigen „digitalen Zwillingen“ und deren Bedrohungspotenzial via Deepfake.

Dabei werden gestohlene oder geleakte persönliche Informationen verwendet, um ein Large Language Model (LLM) zu trainieren, welches das Wissen, die Persönlichkeit und den Schreibstil des Opfers nachahmt. In Kombination mit gefälschten Video- und Audiodateien sowie kompromittierten biometrischen Daten können solche LLMs missbraucht werden, um Identitäten vorzutäuschen und Freunde, Kollegen oder Familienmitglieder des Opfers in eine Betrugsfalle zu locken.

Deepfake und KI können auch in großangelegten, hyperpersonalisierten Betrugsmaschen zum Einsatz kommen, um:

  • „Business Email Compromise“, „Business Process Compromise” und das Einschleusen falscher Mitarbeiter zu skalieren.
  • Opfer von „Pig Butchering“ – also dem Online-Beziehungs- und Investitionsbetrug – gezielt zu identifizieren und anzusprechen, bevor eine menschliche Kontaktperson die Täuschung vertieft.
  • die Informationssammlung mittels Open Source Intelligence für Bedrohungsakteure zu erleichtern.
  • die Entwicklung von Fähigkeiten bei der Vorbereitung auf einen Cyberangriff zu verbessern und somit erfolgreichere Attacken zu erzielen.
  • authentisch wirkende Social-Media-Identitäten zu kreieren, die für Onlinebetrug sowie zur Verbreitung von Fehl- und Desinformation eingesetzt werden.

Unternehmen, die in diesem Jahr verstärkt KI einsetzen, sollten folgende Bedrohungen im Auge behalten:

  • Ausnutzung von Schwachstellen und Manipulation von KI-Agenten, um schädliche oder verbotene Aktionen durchzuführen
  • Unbeabsichtigtes Leaken von Informationen aus Systemen für generative KI (Gen AI)
  • Ressourcenverschwendung durch fehlerhafte oder missbräuchlich genutzte KI-Agenten, die zu Dienstunterbrechungen führen kann

„Da generative KI immer breiter in Unternehmen und der Gesellschaft zum Einsatz kommt, müssen wir uns auf die damit verbundenen Risiken einstellen“, erklärt Jon Clay, Vice President of Threat Intelligence bei Trend Micro, „Hyper-personalisierte Angriffe und die Manipulation von KI-Agenten erfordern branchenweite Anstrengungen. Geschäftsführer sollten bedenken, dass es heute kein isoliertes Cyberrisiko mehr gibt. Jedes Sicherheitsrisiko ist letztlich ein Geschäftsrisiko und kann tiefgreifende Auswirkungen auf die künftige Strategie von Unternehmen haben.“

Außerhalb der KI-Bedrohungslandschaft

Der Bericht hebt zudem weitere Bereiche hervor, die im Jahr 2025 gefährdet sind. Dazu zählen:

Schwachstellen

  • Fehler in der Speicherverwaltung sowie Speicherbeschädigungs-Bugs, Schwachstellenketten und Exploits, die auf APIs (Schnittstellen) abzielen
  • Vermehrte Container-Ausbrüche
  • Ältere Schwachstellen wie Cross-Site Scripting (XSS) und SQL-Injections
  • Die Möglichkeit, dass eine einzelne Schwachstelle in einem weit verbreiteten System mehrere Modelle und Hersteller betrifft, beispielsweise in vernetzten Fahrzeugen

Ransomware

Bedrohungsakteure entwickeln zunehmend Strategien, um EDR-Tools (Endpoint Detection & Response) zu umgehen, etwa durch:

  • Kill Chains, die Umgebungen nutzen, in denen meist keine EDR-Tools installiert sind (z. B. Cloud-Systeme oder mobile, Edge- und IoT-Geräte)
  • Das Deaktivieren von Antivirus- / EDR-Systemen
  • BYOVD-Techniken (Bring Your Own Vulnerable Driver)
  • Verstecken von Shellcodes in unauffälligen Ladeprogrammen
  • Umleitungen in Windows-Subsystemen, um die EDR/AV-Erkennung zu umgehen

Im Ergebnis können sie damit schnellere Angriffe mit weniger Schritten durchführen, die schwerer zu erkennen sind.

Deepfake: Zeit zu handeln

Die Sicherheitsexperten von Trend Micro empfehlen Unternehmen, proaktiv zu handeln und ihre Cybersicherheitsstrategien anzupassen:

  • Risikobasierter Ansatz: Zentrale Identifikation, Priorisierung und Minderung von Risiken in der gesamten IT-Umgebung
  • KI als Verteidigung: Nutzung von KI für die Analyse von Bedrohungsdaten, gefährdeten Systemen, Angriffspfadvorhersagen und Abwehrmaßnahmen – idealerweise über eine einheitliche Plattform.
  • Mitarbeiterschulungen: Bewusstsein für die Fortschritte und Risiken von KI erhöhen.
  • Überwachung und Absicherung von KI-Systemen: Schutz vor Missbrauch durch strikte Validierungsprozesse für Input und Output
  • Schutz von LLMs durch gehärtete Sandbox-Umgebungen, strenge Datenvalidierung und mehrschichtige Sicherheitsmaßnahmen gegen Prompt-Injections.
  • Lieferkettensicherheit: Schwachstellen in öffentlich zugänglichen Systemen beheben und interne Netzwerke durch mehrschichtige Sicherheitsmaßnahmen besser schützen.
  • Durchgängige Sichtbarkeit: KI-Agenten umfassend überwachen für Schutz vor Deepfake.
  • Implementierung von Angriffspfadvorhersagen, um Cloud-Bedrohungen bekämpfen.

Autor

Weitere Inhalte zum Thema

Nichts mehr verpassen?

Newsletter IT-Sicherheit
Marktplatz IT-Sicherheit Skip to content