AI-generierter Code
Ihr Team nutzt Copilot.
Wissen Sie, was in Ihrem nächsten Release steckt?
AI-Assistenten beschleunigen die Entwicklung. Aber sie fügen auch Abhängigkeiten hinzu, die niemand überprüft — und halluzinieren Pakete, die Angreifer bereits registriert haben.
Die Lücke
Adoption vs. Absicherung
Die Lücke zwischen Adoption und Absicherung wächst. Über 75% des AI-generierten Codes fließt ungeprüft in Ihre Releases.
Die Risiken
Was AI-Assistenten in Ihren Code einschleusen
Slopsquatting
AI-Modelle halluzinieren Paketnamen, die nicht existieren. Angreifer registrieren diese Namen und warten, bis Entwickler sie installieren.
20% der von AI empfohlenen Pakete existieren nicht.
Quelle: Lasso Security / Vulcan Cyber Research 2024
Schwachstellen im Code
AI-generierter Code enthält häufig bekannte Vulnerability-Patterns — von SQL-Injection bis zu unsicherer Kryptografie.
40-45% des AI-Codes enthält Schwachstellen.
Quelle: Stanford University 2023, Veracode 2025
Falsches Vertrauen
Entwickler, die AI-Assistenten nutzen, schätzen die Sicherheit ihres Codes höher ein — obwohl er unsicherer ist.
Das Stanford-Paradox: Mehr Vertrauen, weniger Sicherheit.
Quelle: Stanford Security Lab 2023
IDE als Angriffsfläche
AI-Plugins in VS Code, Cursor und anderen IDEs werden selbst zum Ziel. Prompt Injection und Supply-Chain-Angriffe auf Entwicklertools nehmen zu.
550+ geleakte Secrets in über 500 IDE-Extensions entdeckt.
Quelle: Wiz.io Research 2025
Haftung
AI-Code und Ihre Verantwortung
"Können Sie nachweisen, dass AI-generierter Code vor dem Release auf Schwachstellen und schädliche Abhängigkeiten geprüft wurde?" — Die Frage, die Auditoren 2026 stellen werden
NIS2
Artikel 21 fordert "Sicherheit bei Erwerb, Entwicklung und Wartung". AI-generierter Code ist Teil Ihrer Entwicklung — und Ihrer Nachweispflicht.
CRA
Der Cyber Resilience Act macht den Hersteller verantwortlich. Ungeprüfter AI-Code in Ihrem Produkt ist Ihr Risiko.
Sorgfaltspflicht
Die Geschäftsführung haftet persönlich. Der Nachweis, dass AI-Risiken adressiert wurden, schützt vor Regressforderungen.
Unser Ansatz
AI-Risiken systematisch adressieren
Wir integrieren Kontrollen in Ihre bestehende Pipeline — ohne die Entwicklung auszubremsen.
SBOM-Pipeline
Automatische Inventur jedes Builds — inklusive aller Abhängigkeiten, die AI-Assistenten hinzugefügt haben.
Dependency-Validierung
Prüfung aller Paket-Referenzen gegen bekannte Registries. Alarm bei unbekannten oder verdächtigen Paketen.
Vulnerability Scanning
Kontinuierliche Prüfung auf bekannte Schwachstellen — in Abhängigkeiten und im Code selbst.
Audit-Trail
Lückenlose Dokumentation: Welche Prüfungen wurden durchgeführt? Welche Risiken wurden akzeptiert?
AI-Risiko-Assessment für Ihre Entwicklung
In 30 Minuten analysieren wir Ihre aktuelle Situation: Welche AI-Tools sind im Einsatz? Welche Kontrollen fehlen? Welche Quick Wins gibt es?
Kostenloses Assessment anfragenUnverbindlich. Konkrete Empfehlungen. Keine Verkaufspräsentation.
