Tatwerkzeug ChatGPT: ChatGPT und andere KI-Anwendungen eröffnen nicht nur der Wirtschaft immer neue Möglichkeiten. Auch Cyberkriminelle haben es mithilfe der neuen Technologie wesentlich einfacher, in digitale Systeme einzudringen und dort Schaden zu verursachen. Hacker können mithilfe von ChatGPT alle Werkzeuge generieren, die sie für die heute gängigen Angriffe benötigen.
Wer sich wirksam gegen neuartige Cyberangriffe schützen will, muss zunächst verstehen, mit welchen Mitteln die Kriminellen arbeiten.
Tatwerkzeug ChatGPT: Gefahr durch realistische Phishing-Mails
Eine der häufigsten Betrugsmaschen nennt sich Phishing. Um Passwörter, Bankdaten und andere sensible Daten zu erbeuten, geben sich die Angreifer dabei in E-Mails zum Beispiel als Mitarbeiter einer Bank oder eines Onlineshops aus. Vor ChatGPT waren derartige Angriffe oft leicht zu erkennen, da sich die Verantwortlichen durch Fehler im Design der E-Mails oder schlechtes Deutsch verrieten.
Das ist nun anders: Mithilfe von KI können Angreifer mit nur einer Handvoll Prompts psychologisch ausgefeilte und glaubhafte Phishing-Mails in jeder beliebigen Sprache erstellen. Dadurch fällt es Hackern aus dem Ausland leichter, deutschen Bank- und Onlineshopping-Kunden Daten zu entlocken und mit diesen wirtschaftlichen Schaden anzurichten.
Typo Squatting und gefälschte Websites
Auch das Typo Squatting, eine Art Cyberangriff über gefälschte Websites, wird durch KI erleichtert. Dabei wird ein Klon einer bekannten Website unter einer ähnlichen Domain platziert, um Nutzer zu täuschen, die sich beim Surfen vertippen. So kann ein User beispielsweise schnell auf “Amazom” landen. Loggt sich das Opfer auf der falschen Seite ein, erhält der Hacker somit Zugang zu den Login-Daten, um damit Missbrauch zu treiben.
Die KI erstellt auf Befehl eine Liste mit potenziellen Domains, die ähnlich klingen wie ein bekanntes Original. Dazu lässt sich mit Hilfe von ChatGPT auch von Laien eine solche Seite vom Aussehen her leichter nachbauen und eröffnet hier ein weiteres Gefahrenpotential.
Passwörter knacken wurde mit ChatGPT einfacher
Neben dem Phishing über E-Mails oder gefälschte Websites steigt durch ChatGPT auch das Schadenspotenzial anderer Angriffsmethoden wie des Knackens von Passwörtern und des Enkeltricks am Telefon. So kann man über ChatGPT an Informationen einer Person gelangen, die diese zum Beispiel auf Social Media preisgibt. Andreas Schneider teilt auf Facebook mit, dass er Herr-der-Ringe-Fan ist, eine Katze namens Lila besitzt und gerne Fahrrad fährt. Aus all diesen Informationen kann die KI dann eine Liste mit tausenden möglichen Passwörtern generieren, etwa “LilaGandalf!”. Kombiniert mit klassischen Attacken, wie einer Dictionary Attacke, können Passwörter aufgrund von öffentlichen Informationen leichter erraten werden. Für gezielte Hackerangriffe auf Passwörter kann ChatGPT deshalb auch verwendet werden.
Prompt Injection – wenn KI-Anwendungen angegriffen werden
Doch es geht noch weiter: Denn Angreifer können mittlerweile nicht nur mit KI-Programmen wie ChatGPT hacken – sie können sogar die KI-Anwendungen selbst hacken. Möglich wird ein solcher Angriff durch den Vektor namens “Prompt Injection“. Ziel ist, mithilfe eines geeigneten Prompts ein Fehlverhalten der KI zu erreichen. Die Konsequenzen sind hierbei fatal. Gelingt der Hacking-Angriff, können sogar hochgeheime Informationen herausgegeben werden. Würde ein Angreifer beispielsweise Tesla hacken wollen, könnte er sich gegenüber ChatGPT als Elon Musk ausgeben und die KI so manipulieren, dass sie ihm Informationen zur Tesla-Software gibt. Ein guter Schutz vor Prompt-Injection ist fast unmöglich, da der Angreifer auf semantischer und nicht auf syntaktischer Ebene agiert. Mit genügend Fantasie findet man Wege an den vermeintlich sicheren Filtermechanismen vorbei. Für Unternehmen bedeutet das im Umkehrschluss: Sie sollten sich haargenau überlegen, auf welche Informationen die KI zugreifen kann und Mitarbeitern klare Regeln machen, welche Informationen mit ChatGPT geteilt werden dürfen.
Schutz vor Cyberattacken mit Hilfe von ChatGPT
Umgekehrt kann KI jedoch ebenso genutzt werden, um sich zu schützen. IT-Fachleute können Quellcode von ChatGPT auf Schwachstellen überprüfen lassen und so Sicherheitslücken in ihrem eigenen Code mit Hilfe von ChatGPT erkennen und ausmerzen. Auch könnte man eine Mail von ChatGPT darauf untersuchen lassen, ob es sich hier eventuell um eine Phishing-Mail handelt oder die Mail authentisch ist.
Hundertprozentige Sicherheit erreicht jedoch nicht, wer sich nur auf technische Hilfsmittel verlässt. Sämtliche Phishing-Angriffe zielen auf das Unwissen und die Unachtsamkeit des Opfers ab, während der Enkeltrick nur funktioniert, wenn dem Angreifer detaillierte Informationen vorliegen. Somit ist es möglich, sich vor KI-gestützten Attacken zu schützen, indem sparsam mit privaten Informationen umgegangen und jede auffällige E-Mail kritisch überprüft wird.
Da nun mit generativen KI-Tools mögliche Cyberangriffe sowohl in Quantität als auch in Qualität zunehmen können, sollten nach Möglichkeit Menschen möglichst gut darüber aufgeklärt werden. Zum Beispiel könnten Unternehmen Seminare für Mitarbeiter veranstalten, während jeder selbst ältere oder wenig digitalaffine Menschen im Familien- und Bekanntschaftskreis warnen sollte.