Forscher des CISPA Helmholtz Center for Information Security haben mit “UnGANable” ein neues Anti-Deepfake-Verfahren zur teilweisen Verhinderung von Bildmanipulationen mit böswilliger Absicht getestet. “Vereinfacht gesagt, versucht UnGANable, Bilder von Gesichtern vor Deepfakes zu schützen”, so CISPA-Forscher Zheng Li.
“latent code” als Schlüssel
Damit GANs – ein Modell des maschinellen Lernens, bestehend aus zwei künstlichen neuronalen Netzen, die miteinander kommunizieren – Bilder überhaupt verarbeiten können, müssen sie diese zuerst in mathematische Vektoren, den sogenannten “latent code” umwandeln. Dies wird als GAN-Inversion bezeichnet und stellt eine Art Bildkomprimierung dar.
Mithilfe des latent code eines realen Bildes kann ein Generator neue Bilder generieren, die ihrem realen “Vor-Bild” täuschend ähnlich sind. An dieser Stelle greift UnGANable, das die GAN-Inversion und damit die Fälschungen erschwert. Dafür produziert UnGANable auf Ebene der mathematischen Vektoren maximale Abweichungen, in der Fachsprache “noise” genannt, die auf Bildebene jedoch nicht sichtbar sind und die Umwandlung in latent code erschweren.
“UnGANable”: Forscher legen GAN trocken
Auf diese Weise läuft das GAN quasi trocken, da es keine Daten findet, mit deren Hilfe neue Bilder erstellt werden können. Und wenn keine dem Originalbild ähnlichen Kopien auf Basis des latent code erstellt werden können, ist auch keine Bildmanipulation möglich, sagen Li und Team. Tests mit UnGANable bei verschiedenen GAN-Inversion-Verfahren hätten funktioniert.
Darüber hinaus hat das Team nachgewiesen, dass sein Verfahren besser schützt als alternative Mechanismen, wie etwa das Programm “Fawkes”. Das von einer Forschungsgruppe des Sand Lab in Chicago entwickelte Programm arbeitet mit einem Verzerrungsalgorithmus, der an Fotos mit dem menschlichen Auge nicht wahrnehmbare Veränderungen auf Pixelebene vornimmt.
Dieser Beitrag erschien erstmals auf Pressetext.de.