AI-generierter Code
Ihr Team nutzt Copilot.
Wissen Sie, was in Ihrem nächsten Release steckt?
AI-Assistenten beschleunigen die Entwicklung. Aber sie fügen auch Abhängigkeiten hinzu, die niemand überprüft. Und sie halluzinieren Pakete, die Angreifer bereits registriert haben.
Die Lücke
Adoption vs. Absicherung
Die Lücke zwischen Adoption und Absicherung wächst. Über 75% des AI-generierten Codes fließt ungeprüft in Ihre Releases.
Die Risiken
Was AI-Assistenten in Ihren Code einschleusen
Slopsquatting
AI-Modelle halluzinieren Paketnamen, die nicht existieren. Angreifer registrieren diese Namen und warten, bis Entwickler sie installieren.
20% der von AI empfohlenen Pakete existieren nicht.
Quelle: Lasso Security / Vulcan Cyber Research 2024
Schwachstellen im Code
AI-generierter Code enthält häufig bekannte Vulnerability-Patterns, von SQL-Injection bis zu unsicherer Kryptografie.
40-45% des AI-Codes enthält Schwachstellen.
Quelle: Stanford University 2023, Veracode 2025
Falsches Vertrauen
Entwickler, die AI-Assistenten nutzen, schätzen die Sicherheit ihres Codes höher ein, obwohl er unsicherer ist.
Das Stanford-Paradox: Mehr Vertrauen, weniger Sicherheit.
Quelle: Stanford Security Lab 2023
IDE als Angriffsfläche
AI-Plugins in VS Code, Cursor und anderen IDEs werden selbst zum Ziel. Prompt Injection und Supply-Chain-Angriffe auf Entwicklertools nehmen zu.
550+ geleakte Secrets in über 500 IDE-Extensions entdeckt.
Quelle: Wiz.io Research 2025
Haftung
AI-Code und Ihre Verantwortung
"Können Sie nachweisen, dass AI-generierter Code vor dem Release auf Schwachstellen und schädliche Abhängigkeiten geprüft wurde?" Die Frage, die Auditoren 2026 stellen werden
NIS2
Artikel 21 fordert "Sicherheit bei Erwerb, Entwicklung und Wartung". AI-generierter Code ist Teil Ihrer Entwicklung und Teil Ihrer Nachweispflicht.
CRA
Der Cyber Resilience Act macht den Hersteller verantwortlich. Ungeprüfter AI-Code in Ihrem Produkt ist Ihr Risiko.
Sorgfaltspflicht
Die Geschäftsführung haftet persönlich. Der Nachweis, dass AI-Risiken adressiert wurden, schützt vor Regressforderungen.
Unser Ansatz
AI-Risiken systematisch adressieren
Wir integrieren Kontrollen in Ihre bestehende Pipeline, ohne die Entwicklung auszubremsen.
SBOM-Pipeline
Automatische Inventur jedes Builds, inklusive aller Abhängigkeiten, die AI-Assistenten hinzugefügt haben.
Dependency-Validierung
Prüfung aller Paket-Referenzen gegen bekannte Registries. Alarm bei unbekannten oder verdächtigen Paketen.
Vulnerability Scanning
Kontinuierliche Prüfung auf bekannte Schwachstellen in Abhängigkeiten und im Code selbst.
Audit-Trail
Lückenlose Dokumentation: Welche Prüfungen wurden durchgeführt? Welche Risiken wurden akzeptiert?
AI-Risiko-Assessment für Ihre Entwicklung
In 30 Minuten analysieren wir Ihre aktuelle Situation: Welche AI-Tools sind im Einsatz? Welche Kontrollen fehlen? Welche Quick Wins gibt es?
Kostenloses Assessment anfragenUnverbindlich. Konkrete Empfehlungen. Keine Verkaufspräsentation.
