Programmierende KI: Die generierte Gefahr.
Large Language Modells schreiben Code in Sekunden. Was nach einem neuen Level an Effizienz klingt, hat allerdings auch eine Schattenseite. Das Problem: Sicherheit ist bislang kein integraler Bestandteil von KI-basierter Softwareentwicklung.
Zusammenfassung (TL; DR):
- Large Language Modells schreiben Code in Sekunde
- Iterationen von KI-unterstützten Verbesserungen lässt die Zahl kritischer Sicherheitslücken steigen
- KI und Sicherheit gehören von Anfang an zusammen
Programmieren ist dank GenAI so einfach wie noch nie. Fast jeder kann damit im Handumdrehen mehr oder weniger guten Code erzeugen – allerdings schlagen Studien bereits Alarm: Ganze 62 Prozent aller mit Künstlicher Intelligenz generierten Codes sind fehlerhaft oder verwundbar. Noch gravierender: Nach nur fünf Iterationen von KI-unterstützten Verbesserungen steigt die Zahl kritischer Sicherheitslücken um fast 38 Prozent. Wird Code also immer unsicherer, je häufiger Künstliche Intelligenz im Entwicklungsprozess eingesetzt wird? Das ist sicherlich immer abhängig von Modell und Entwickler. Eins ist aber sicher: Ohne eine Sensibilisierung und entsprechende Gegenmaßnahmen kann das Versprechen der Effizienz schnell in ein enormes Risiko umschlagen. Schließlich optimiert GenAI auf Funktionalität, nicht auf Sicherheit und Resilienz. Damit verschiebt sich das Gleichgewicht zwischen Innovation und Sicherheit weiter zulasten der Stabilität digitaler Systeme.
Künstliche Intelligenz kann ein mächtiges Tool sein – aber nur, wenn wir Sicherheit von Anfang an mitdenken. Dazu gehören strukturierte Code-Reviews, automatisierte Schwachstellenanalysen und Security-by-Design-Prinzipien. Nur wer trotz automatisierter Code-Generierung das letzte Wort behält, kann die Vorteile von Künstlicher Intelligenz nutzen, ohne neue Risiken zu schaffen.


