OpenAI geht in die Offensive bei der Code-Sicherheit. Das Unternehmen startet heute [Codex](https://chatgpt.com/codex) Security, einen Anwendungssicherheitsagenten, der Ihre Code-Repositories tiefgehend analysiert, um kritische Schwachstellen zu identifizieren, die klassische Tools übersehen. Im Gegensatz zu traditionellen Scannern, die Teams mit False Positives überfluten, erstellt Codex Security ein projektspezifisches Bedrohungsmodell, bevor es nach Schwachstellen sucht — und schlägt merge-fertige Fixes vor.
Das eigentliche Problem: zu viel Rauschen, zu wenig Signal
Aktuelle KI-Sicherheitstools haben einen fundamentalen Fehler: Sie analysieren Code, ohne das System zu verstehen. Das Ergebnis? Hunderte von Warnungen, von denen die meisten False Positives oder Befunde mit geringer Auswirkung sind. Sicherheitsteams verbringen mehr Zeit mit dem Sortieren von Rauschen als mit dem Beheben echter Probleme.
Das Problem verschärft sich mit der Beschleunigung der Entwicklung durch KI-Agenten. Wenn Ihre Entwickler GitHub Copilot, Cursor oder OpenAI Codex verwenden, um schneller Code zu schreiben, wird die Sicherheitsüberprüfung zum kritischen Engpass in der Pipeline. Codex Security adressiert beide Seiten: weniger Rauschen für Security-Teams und schnellere Validierung, damit Entwickler nicht gebremst werden.
Wie Codex Security funktioniert
1. Erstellung eines maßgeschneiderten Bedrohungsmodells
Nach der Konfiguration eines Scans analysiert Codex Security Ihr Repository, um die sicherheitsrelevante Struktur des Systems zu verstehen. Es generiert ein projektspezifisches Bedrohungsmodell, das erfasst, was das System tut, wem es vertraut und wo es am meisten exponiert ist. Dieses Bedrohungsmodell ist editierbar — Ihr Team kann es verfeinern, um den Agenten mit Ihrer tatsächlichen Architektur abzugleichen.
Das ist ein radikaler Ansatzwechsel. Anstatt blind Code nach bekannten Mustern zu scannen, versteht der Agent zunächst den geschäftlichen Kontext, bevor er nach Schwachstellen sucht.
2. Priorisierung und Sandbox-Validierung
Unter Verwendung des Bedrohungsmodells als Kontext sucht Codex Security nach Schwachstellen und kategorisiert Befunde nach ihrer tatsächlichen Auswirkung in Ihrem System. Wo möglich, testet er die Befunde in Sandbox-Validierungsumgebungen, um Signal von Rauschen zu unterscheiden.
Wenn Codex Security mit einer auf Ihr Projekt zugeschnittenen Umgebung konfiguriert ist, kann er potenzielle Probleme direkt im Kontext des laufenden Systems validieren. Diese tiefere Validierung reduziert False Positives weiter und ermöglicht die Erstellung von funktionierenden Proof-of-Concepts — konkrete Belege, die Sicherheitsteams eine solide Grundlage für die Behebung geben.
3. Fixes mit vollständigem Systemkontext
Schließlich schlägt Codex Security Fixes vor, die mit der Systemintention und dem umgebenden Verhalten übereinstimmen. Das Ziel: Patches, die die Sicherheit verbessern und gleichzeitig Regressionen minimieren, was sie sicherer für Review und Merge macht.
Der Agent lernt auch aus Ihrem Feedback im Laufe der Zeit. Wenn Sie die Kritikalität eines Befunds anpassen, nutzt er dieses Feedback, um das Bedrohungsmodell zu verfeinern und die Präzision bei nachfolgenden Scans zu verbessern.
Zahlen, die für sich sprechen
In den letzten 30 Tagen der Beta scannte Codex Security mehr als 1,2 Millionen Commits in den Repositories seiner externen Tester:
| Metrik | Wert |
|---|---|
| Gescannte Commits (30 Tage) | 1,2 Millionen+ |
| Kritische Befunde | 792 |
| Befunde hoher Schwere | 10.561 |
| Commits mit kritischem Issue | < 0,1 % |
| Rauschreduzierung (bester Fall) | -84 % |
| Reduzierung überberichteter Schwere | -90 % |
| Reduzierung False Positives | -50 %+ |
Codex Security Beta-Ergebnisse über 30 Tage
Das Verhältnis von < 0,1 % der Commits mit kritischen Issues ist die Schlüsselzahl. Es zeigt, dass der Agent echte Probleme in großen Codemengen identifizieren kann, ohne die Reviewer zu überfordern.
14 CVEs in wichtigen Open-Source-Projekten entdeckt
Das ist vielleicht das überzeugendste Argument. OpenAI nutzte Codex Security, um die Open-Source-Repositories zu scannen, auf die seine eigenen Systeme angewiesen sind. Das Ergebnis: 14 zugewiesene CVEs in so kritischen Projekten wie OpenSSH, GnuTLS, GOGS, Chromium, PHP und libssh.
- GnuTLS: Heap-Buffer Overflow (CVE-2025-32990), Heap Buffer Overread (CVE-2025-32989), Double-Free (CVE-2025-32988)
- GOGS: 2FA-Authentifizierungsbypass (CVE-2025-64175), nicht authentifizierter Bypass (CVE-2026-25242)
- GnuPG/gpg-agent: Stack Buffer Overflow via PKDECRYPT (CVE-2026-24881, CVE-2026-24882)
- Thorium: Path Traversal, LDAP-Injection, DoS, Session nicht rotiert, TLS-Verifizierung deaktiviert (5 CVEs)
- GnuPG: CMS/PKCS7 Buffer Overflow (CVE-2025-15467), PKCS#12 MAC Bypass (CVE-2025-11187)
OpenAI hat Codex for OSS gestartet, ein Programm, das Open-Source-Maintainern kostenlose ChatGPT Pro- und Plus-Konten, Code-Review und Zugang zu Codex Security bietet. Das vLLM-Projekt nutzt es bereits in seinem regulären Workflow.
Von Aardvark zu Codex Security: eine Beta, die sich ausgezahlt hat
Früher unter dem Namen Aardvark bekannt, startete das Projekt letztes Jahr als private Beta mit einer kleinen Gruppe von Kunden. Im internen Einsatz bei OpenAI erkannte der Agent eine echte SSRF, eine kritische Cross-Tenant-Authentifizierungsschwachstelle und mehrere andere Probleme, die das Sicherheitsteam innerhalb weniger Stunden behob.
| Beta-Verbesserung | Detail |
|---|---|
| Rauschreduzierung | Bis zu -84 % im selben Repository |
| Überberichtete Schwere | Um über 90 % reduziert |
| False Positives | Um über 50 % über alle Repositories reduziert |
Gemessene Verbesserungen während der Codex Security Beta
“Die Ergebnisse waren beeindruckend klar und umfassend und vermittelten oft den Eindruck, dass ein erfahrener Produktsicherheitsforscher an unserer Seite arbeitete.”
Verfügbarkeit und Preise
Codex Security wird ab heute als Research Preview für ChatGPT Enterprise-, Business- und Edu-Kunden über Codex Web bereitgestellt.
Codex Security im Wettbewerb
Der Markt für KI-gestützte Anwendungssicherheit boomt. Akteure wie [Aikido Security](https://aikido.dev) bieten bereits Developer-first-Sicherheitsplattformen mit Schwachstellenerkennung, Abhängigkeitsanalyse und geführter Behebung. GitHub hat erweiterte Sicherheitsfunktionen in GitHub Copilot und Advanced Security integriert. Snyk, SonarQube und andere Branchenveteranen fügen ihren bestehenden Tools schrittweise KI-Schichten hinzu.
Was Codex Security unterscheidet, ist der Ansatz kontextuelles Bedrohungsmodell + Sandbox-Validierung. Die meisten konkurrierenden Tools arbeiten mit Pattern Matching am Quellcode — sie suchen nach Signaturen bekannter Schwachstellen. Codex Security baut zuerst ein Verständnis des Systems auf, dann sucht es im Kontext nach Schwachstellen. Es ist der Unterschied zwischen einem Sicherheitsscanner und einem menschlichen Pentester, der Ihre Architektur versteht.
Die eigentliche Frage wird die Präzision im großen Maßstab sein. Die Beta-Zahlen sind ermutigend, aber sie beziehen sich auf eine begrenzte Gruppe von Testern. Der wahre Test kommt, wenn Tausende von Teams es auf sehr unterschiedlichen Codebases einsetzen.
Was sich für Entwicklungsteams ändert
Für Teams, die bereits das OpenAI-Ökosystem nutzen — ChatGPT Enterprise für Produktivität, OpenAI Codex für Entwicklung — fügt sich Codex Security als natürliche Schicht in die Pipeline ein. Die Idee eines Agenten, der Ihren Code versteht, echte Risiken identifiziert und review-fertige Fixes vorschlägt, ist überzeugend.
Anwendungssicherheit war schon immer das Stiefkind des Entwicklungszyklus: zu langsam, zu laut, zu weit vom Kontext entfernt. Wenn Codex Security seine Versprechen hält — hochzuverlässige Befunde mit umsetzbaren Patches — könnte es die Sicherheit von einem Bremsklotz in einen Beschleuniger verwandeln. Genau das brauchen Teams, die mit Claude, Cursor oder GitHub Copilot programmieren, um das Tempo zu halten, ohne die Sicherheit zu opfern.
In diesem Artikel erwähnte Tools
Quellen und Referenzen
Offizielle Quellen:
- OpenAI - Introducing Codex Security - openai.com
- OpenAI Codex Documentation - platform.openai.com
Entdecken Sie unsere detaillierten Bewertungen:
KI-Nachrichten verfolgen
Erhalten Sie die neuesten Updates zu KI-Sicherheits- und Entwicklungstools.
Kein Spam. Abmeldung mit 1 Klick.


