Kurze Zusammenfassung: Claude Code Security ist das KI-gestützte Schwachstellenscan-Tool von Anthropic, das Codebasen analysiert, um Sicherheitsprobleme zu finden, die herkömmliche Methoden übersehen. Es wurde im Februar 2026 eingeführt und nutzt fortschrittliche KI-Logik, um kontextabhängige Schwachstellen zu erkennen und Patches für die menschliche Überprüfung vorzuschlagen, obwohl es am besten in Kombination mit deterministischen Validierungstools funktioniert.
Sicherheitsteams ertrinken in Rückständen. Herkömmliche statische Analysetools helfen bei der Identifizierung bekannter Schwachstellensignaturen, übersehen jedoch die subtilen, kontextabhängigen Fehler, die Angreifer tatsächlich ausnutzen. Das ist das Problem, das Anthropic mit Claude Code Security lösen wollte.
Claude Code Security wurde am 20. Februar 2026 eingeführt und stellt eine Verlagerung der Art und Weise dar, wie KI die Schwachstellenerkennung angeht. Anstatt nur Muster abzugleichen, wendet es Logik an, um den Codekontext zu verstehen und Sicherheitsprobleme zu identifizieren, die herkömmliche Scanner durchrutschen.
Aber hier ist die Sache: Es ist kein Ersatz für die bestehende Sicherheitsinfrastruktur. Es ist eine Weiterentwicklung in der Entdeckungsphase der Korrekturschleife.
Was Claude Code Security tatsächlich tut
Claude Code Security ist direkt in Claude Code im Web integriert. Es scannt Codebasen auf Sicherheitsschwachstellen und schlägt gezielte Software-Patches zur menschlichen Überprüfung vor.
Laut der offiziellen Ankündigung ist es darauf ausgelegt, Sicherheitsprobleme zu finden, die herkömmliche Methoden oft übersehen – insbesondere solche kontextabhängigen Schwachstellen, die das Verständnis erfordern, wie verschiedene Teile einer Codebasis interagieren.
Das Tool wird als begrenzter Forschungsvorschau betrieben, was bedeutet, dass der Zugang kontrolliert wird und es basierend auf der realen Nutzung noch verfeinert wird. Es wird von Claude Opus 4.6 angetrieben, dem Spitzenmodell von Anthropic mit fortschrittlichen Logikfähigkeiten.
Wie es funktioniert
Der Scanprozess analysiert Code-Repositorys auf der Suche nach Schwachstellensignaturen. Wenn er potenzielle Probleme identifiziert, markiert er sie nicht nur – er schlägt spezifische Patches vor.
Diese Patches erfordern eine menschliche Überprüfung. Dies ist keine automatisierte Korrektur. Die KI identifiziert Probleme und schlägt Lösungen vor, aber Sicherheitsexperten treffen die endgültige Entscheidung, was implementiert wird.
Dieser Ansatz erkennt eine grundlegende Wahrheit über KI in der Sicherheit: Logikmodelle eignen sich hervorragend zur Entdeckung, benötigen aber immer noch eine Validierung, bevor Änderungen an Produktionssysteme gelangen.
Sicherheitsfunktionen und Schutzmaßnahmen
Anthropic hat mehrere Sicherheitsebenen um Claude Code selbst implementiert. Diese Schutzmaßnahmen sind wichtig, da die Gewährung des Zugriffs von KI auf Codebasen Risiken birgt, insbesondere Angriffe durch Prompt Injection.
Sandboxing und Isolierung
Die Sandboxing-Funktionen von Claude Code ermöglichen zwei Grenzen: Dateisystem- und Netzwerpisolierung. Sie haben gezeigt, dass Berechtigungsaufforderungen sicher um 84 % reduziert und die Sicherheit erhöht werden.
Dateisystemisolierung bedeutet, dass Claude nicht auf Dateien außerhalb zugewiesener Verzeichnisse zugreifen kann. Netzwerpisolierung kontrolliert, welche externen Verbindungen die KI während der Codeausführung herstellen kann.
Diese Schutzmaßnahmen schützen vor Szenarien, in denen bösartige Eingabeaufforderungen die KI dazu verleiten könnten, auf sensible Daten zuzugreifen oder nicht autorisierte Netzwerkanrufe zu tätigen.
Schutz vor Prompt Injection
Prompt Injection bleibt eines der größten Risiken für KI-Systeme. Laut den OWASP LLM Top 10 treten Prompt-Injection-Schwachstellen auf, wenn Benutzereingaben die Verhalten eines LLM auf unbeabsichtigte Weise manipulieren.
Das Risiko ist real. Bösartige Eingabeaufforderungen, die in Code-Kommentaren oder Dokumentationen eingebettet sind, könnten potenziell die Art und Weise ändern, wie Claude Code analysiert oder repariert.
Anthropic begegnet dem durch sein Safeguards-Team, das Abwehrmaßnahmen gegen Missbrauch entwickelt. Ihr Ansatz kombiniert Richtliniendurchsetzung, Bedrohungsintelligenz und technische Kontrollen zur Verhinderung schädlicher Ausgaben.

Datenschutzmaßnahmen
Gemäß der Datenschutzdokumentation von Anthropic werden Daten automatisch sowohl während der Übertragung als auch im Ruhezustand verschlüsselt. Der Mitarbeiterzugriff auf Benutzergespräche ist standardmäßig eingeschränkt.
Anthropic-Mitarbeiter können nicht auf Gespräche zugreifen, es sei denn, Benutzer stimmen ausdrücklich zu, wenn sie Feedback geben oder wenn eine Überprüfung zur Durchsetzung von Nutzungsrichtlinien erforderlich ist. Diese Einschränkung gilt für Claude Free-, Pro-, Max- und Claude Code-Konten.
Für kommerzielle Produkte wie Claude for Work und die API gelten je nach Unternehmensvereinbarungen andere Datenschutz- und Sicherheitsstandards.
ASL-3 Sicherheitsstandards
Anthropic aktivierte am 22. Mai 2025 im Zusammenhang mit der Einführung von Claude Opus 4.6 KI-Sicherheitsstufe 3 (ASL-3) Schutzmaßnahmen. Diese Standards stellen eine erhebliche Eskalation der Sicherheitsmaßnahmen dar.
Der ASL-3-Sicherheitsstandard umfasst erhöhte interne Sicherheitsmaßnahmen, die darauf abzielen, den Diebstahl von Modellgewichten zu erschweren. Der entsprechende Bereitstellungsstandard zielt auf Bereitstellungsmaßnahmen ab, um Risiken bei der Entwicklung von CBRN (chemischen, biologischen, radiologischen, nuklearen) Waffen zu begrenzen.
Diese Schutzmaßnahmen stammen aus Anthropic's Responsible Scaling Policy, die am 24. Februar 2026 auf Version 3.0 aktualisiert wurde. Die Richtlinie legt freiwillige Rahmenbedingungen zur Minderung katastrophaler Risiken durch KI-Systeme fest.
Vergleich von KI- und herkömmlichen Sicherheitstools
Claude Code Security existiert nicht isoliert. Es tritt in einen Markt ein, in dem statische Analyzer und dynamische Testwerkzeuge seit Jahren im Einsatz sind.
Werkzeuge wie CodeQL und Semgrep verwenden musterbasierte Erkennung. Laut Forschung, die von LLM generierten Code mit diesen Werkzeugen vergleicht, waren 61 % der manuell geprüften Stichproben tatsächlich sicher, während Semgrep 60 % und CodeQL 80 % als sicher einstufte.
Die Lücke verdeutlicht sowohl das Problem der falsch positiven Ergebnisse bei herkömmlichen Werkzeugen als auch die Schwierigkeit der Ground-Truth-Validierung in der Sicherheit.
| Ansatz | Stärken | Einschränkungen | Bester Anwendungsfall |
|---|---|---|---|
| KI-Logik (Claude) | Kontextbewusste Analyse, Erkennung neuartiger Schwachstellen | Erfordert Validierung, potenzielle Fehlalarme | Entdeckungsphase, komplexe Codebasen |
| Statische Analyse (CodeQL, Semgrep) | Deterministisch, bekannte Muster, schnelle Scans | Übersieht kontextabhängige Probleme, hohe Fehlalarme | CI/CD-Integration, Compliance-Prüfungen |
| Dynamische Tests | Validierung des Laufzeitverhaltens, reale Bedingungen | Unvollständige Abdeckung, umgebungsabhängig | Überprüfung vor der Bereitstellung |
| Menschliche Überprüfung | Kontextbezogenes Urteilsvermögen, nuancierte Entscheidungen | Langsam, teuer, nicht skalierbar | Kritische Systeme, endgültige Validierung |
Der hybride Ansatz
Ehrlich gesagt: Die beste Sicherheitshaltung kombiniert mehrere Ansätze. KI-Logik erkennt neuartige Schwachstellen. Deterministische Werkzeuge validieren und bestätigen. Dynamische Tests überprüfen, ob Fehler zur Laufzeit funktionieren. Menschen treffen endgültige Implementierungsentscheidungen.
Laut Snyks Analyse von Claude Code Security beschleunigt KI die Entdeckung, aber das Vertrauen von Unternehmen hängt immer noch von deterministischer Validierung, Korrekturoptimierung und Governance in großem Maßstab ab.
Wenn sie aufeinander abgestimmt sind, bilden KI-Logik und deterministische Validierung ein stärkeres System als jeder Ansatz allein.
Sicherheitsrisiken von LLM bei der Codegenerierung
Die Ironie bleibt nicht unerkannt: KI zur Sicherung von Code verwenden, wenn KI-generierter Code selbst Schwachstellen einführt.
Die Forschung zur Sicherheit von LLM-generiertem Code zeigt besorgniserregende Muster. Eine Untersuchung berichtete über einen Anstieg von 10 % der Schwachstellen in KI-generiertem C-Code.
Laut GitHub-Statistiken generiert GitHub Copilot etwa 46 % des Codes und steigert die Programmiergeschwindigkeit von Entwicklern um bis zu 55 %. Das ist bemerkenswerte Produktivität – aber es verstärkt die Auswirkungen von Sicherheitsproblemen in KI-generiertem Code.
Sicherheits- und Qualitätsbenchmarks für LLM-generierten Code in mehreren Sprachen zeigen erheblich variierende Korrektheitsraten. Eine Auswertung ergab Korrektheitsraten von 65,2 %, 46,3 % bzw. 31,1 % für ChatGPT, Copilot und CodeWhisperer anhand des HumanEval-Benchmarks.

Bewährte Verfahren für die Implementierung
Um Wert aus Claude Code Security zu ziehen, ist eine durchdachte Integration in bestehende Arbeitsabläufe erforderlich.
Zugriff und Einrichtung
Claude Code Security befindet sich derzeit in einer begrenzten Forschungsvorschau. Der Zugang ist kontrolliert, d. h. Teams müssen die Teilnahme beantragen, anstatt sich einfach anzumelden.
Nach Erteilung des Zugangs ist die Funktion in Claude Code im Web integriert. Es gibt keine separate Installation – sie ist direkt in die Entwicklungsumgebung integriert.
Workflow-Integration
Das Tool funktioniert am besten als Teil einer breiteren Sicherheitsstrategie und nicht als eigenständige Lösung. Teams sollten die bestehende statische Analyse in CI/CD-Pipelines beibehalten und gleichzeitig Claude Code Security für eine tiefere Erkundung nutzen.
Von der KI vorgeschlagene Patches erfordern eine menschliche Überprüfung. Die Einrichtung klarer Überprüfungsprozesse verhindert Engpässe. Sicherheitsteams sollten definieren, wer KI-generierte Patches überprüft, welche Validierung sie durchführt und welche Genehmigungskriterien gelten.
Dokumentation ist wichtig. Bei der Implementierung von KI-gestützten Korrekturen sollte dokumentiert werden, warum bestimmte Patches akzeptiert oder abgelehnt wurden. Dies baut institutionelles Wissen auf und hilft bei der Abstimmung zukünftiger Scans.

Verwenden Sie Claude-Guthaben, bevor Sie Sicherheitsscans in großem Maßstab durchführen
Die Arbeit mit Claude Code für Sicherheitsaufgaben wie Schwachstellenscans oder Codeanalysen bedeutet oft kontinuierliche API-Nutzung. Wenn Sie Eingabeaufforderungen testen, Repositories scannen und Prüfungen in Pipelines integrieren, können die Kosten schnell steigen, insbesondere in Produktionsumgebungen. Viele Teams beginnen, den vollen Preis zu zahlen, ohne zu prüfen, ob Guthaben verfügbar sind.
Hier können Startup-Kreditprogramme einen Unterschied machen. Get AI Perks ist eine Plattform, die Guthaben und Rabatte für mehr als 200 KI-, SaaS- und Entwicklertools an einem Ort aggregiert, mit einem Gesamtwert von über 7 Millionen US-Dollar über Programme hinweg. Sie umfasst Angebote wie 500 US-Dollar in Anthropic-Guthaben pro Gründer und bis zu 15.000 US-Dollar an Claude-Guthaben, zusammen mit klaren Bedingungen und Bewerbungsschritten.
Bevor Sie Ihre Claude-basierten Sicherheits-Workflows erweitern, überprüfen Sie Get AI Perks und sichern Sie sich alle Guthaben, die Sie zur Kostendeckung verwenden können.
Einschränkungen und Überlegungen
Claude Code Security ist mächtig, aber keine Magie. Das Verständnis seiner Einschränkungen verhindert fehlgeleitete Erwartungen.
Es funktioniert im Entdeckungs- und Vorschlagsmodus. Es behebt keine Schwachstellen automatisch und integriert sich nicht direkt in Bereitstellungspipelines. Das ist beabsichtigt – eine automatische Korrektur ohne Validierung birgt eigene Risiken.
Das Tool benötigt Codebasen, die es analysieren kann. Verschleierte Codes, reine Binärabhängigkeiten und Legacy-Systeme mit minimaler Dokumentation stellen Herausforderungen für die KI-Logik dar.
Fehlalarme bleiben ein Problem. KI-Logik kann Probleme identifizieren, die im Kontext nicht tatsächlich ausnutzbar sind, oder Muster kennzeichnen, die absichtliche Sicherheitsmaßnahmen sind. Menschliche Expertise bleibt unerlässlich, um Signale vom Rauschen zu trennen.
Der Weg nach vorn für KI-Sicherheitstools
Anthropic's Frontier Safety Roadmap umreißt ehrgeizige Ziele zur Verbesserung der Sicherheitsfähigkeiten. Dazu gehören Moonshot-F&E-Projekte zur Untersuchung unkonventioneller Ansätze zur Informationssicherheit und zur Entwicklung neuer Methoden für das Red-Teaming von KI-Systemen.
Die Roadmap betont, dass Bedrohungsmodelle – einschließlich der Möglichkeit, dass Angreifer Trainingsläufe korrumpieren – erheblich reduziert werden könnten, indem die Erkennungsfähigkeiten verbessert werden, auch wenn die Reaktion verzögert ist.
Für Teams, die Claude Code Security bewerten, stellt sich nicht die Frage, ob KI eine Rolle in der Sicherheit spielen wird. Es geht darum, wie KI-Fähigkeiten mit bestehenden Werkzeugen und Prozessen integriert werden, um Verteidigung in der Tiefe aufzubauen.
Häufig gestellte Fragen
Was ist Claude Code Security?
Claude Code Security ist eine KI-gestützte Schwachstellenscan-Funktion, die in Claude Code im Web integriert ist. Sie wurde im Februar 2026 von Anthropic eingeführt, analysiert Codebasen zur Identifizierung von Sicherheitsschwachstellen und schlägt Patches zur menschlichen Überprüfung vor. Sie ist derzeit in begrenzter Forschungsvorschau verfügbar.
Wie unterscheidet sich Claude Code Security von herkömmlichen statischen Analysetools?
Herkömmliche statische Analyzer wie CodeQL und Semgrep verwenden musterbasierte Erkennung, um bekannte Schwachstellenarten zu finden. Claude Code Security nutzt KI-Logik, um den Codekontext zu verstehen und subtile, kontextabhängige Schwachstellen zu identifizieren, die das Muster-Matching oft übersieht. Es funktioniert jedoch am besten in Kombination mit deterministischen Tools und nicht als Ersatz.
Ist Claude Code Security sicher für die Verwendung mit sensiblen Codebasen?
Anthropic implementiert mehrere Sicherheitsebenen, darunter Dateisystemisolierung, Netzwerpisolierung, Datenverschlüsselung während der Übertragung und im Ruhezustand sowie eingeschränkten Mitarbeiterzugriff auf Benutzerdaten. Das Tool wird unter ASL-3-Sicherheitsstandards betrieben. Organisationen sollten diese Schutzmaßnahmen jedoch anhand ihrer spezifischen Sicherheitsanforderungen und Compliance-Bedürfnisse bewerten, bevor sie es mit hochsensiblen Codes verwenden.
Korrigiert Claude Code Security Schwachstellen automatisch?
Nein. Claude Code Security identifiziert Schwachstellen und schlägt Patches vor, aber alle vorgeschlagenen Korrekturen erfordern eine menschliche Überprüfung vor der Implementierung. Dieses Design erkennt an, dass eine automatisierte Korrektur ohne Validierung neue Risiken einführen kann. Sicherheitsexperten treffen die endgültigen Entscheidungen darüber, welche Patches implementiert werden.
Kann Claude Code Security alle Arten von Schwachstellen erkennen?
Kein Sicherheitstool erkennt alle Schwachstellen. Claude Code Security ist hervorragend darin, kontextabhängige Probleme zu finden, die herkömmliche Tools übersehen, hat aber Einschränkungen. Es kann Fehlalarme erzeugen, Schwierigkeiten mit verschleiertem Code oder Binärabhängigkeiten haben und Probleme übersehen, die Laufzeitkontext erfordern. Es ist als Ergänzung und nicht als Ersatz für bestehende Sicherheitstools konzipiert.
Wie erhalte ich Zugang zu Claude Code Security?
Claude Code Security befindet sich derzeit in einer begrenzten Forschungsvorschau, was bedeutet, dass der Zugang kontrolliert wird. Teams, die daran interessiert sind, es zu nutzen, müssen den Zugang bei Anthropic beantragen. Informieren Sie sich auf der offiziellen Anthropic-Website über die aktuelle Verfügbarkeit und die Prozesse zur Beantragung des Zugangs.
Welche Programmiersprachen unterstützt Claude Code Security?
Die offizielle Dokumentation gibt keine expliziten Sprachbeschränkungen an. Als KI-Logiksystem, das auf Claude Opus 4.6 basiert, kann es mehrere Programmiersprachen analysieren. Die Effektivität kann jedoch je nach Sprachkomplexität und verfügbaren Trainingsdaten variieren. Konsultieren Sie die Dokumentation von Anthropic für aktuelle Informationen zur Sprachunterstützung.
Fazit
Claude Code Security stellt einen bedeutenden Fortschritt in der KI-gestützten Schwachstellenerkennung dar. Seine Fähigkeit, den Codekontext zu verstehen und subtile Sicherheitsprobleme zu identifizieren, schließt reale Lücken in herkömmlichen Werkzeugen.
Aber es ist keine Allzwecklösung. Der effektivste Ansatz kombiniert KI-Logik mit deterministischer Validierung, dynamischen Tests und menschlicher Expertise. Jede Ebene fängt auf, was andere verpassen.
Für Sicherheitsteams, die mit wachsenden Rückständen und begrenzten Ressourcen zu kämpfen haben, bietet Claude Code Security eine Möglichkeit, die Entdeckung zu beschleunigen. Denken Sie nur daran: Entdeckung ist nur der erste Schritt. Validierung, Korrektur und Governance erfordern immer noch durchdachte Prozesse und qualifizierte Fachleute.
Prüfen Sie die offizielle Dokumentation von Anthropic auf aktuelle Zugangsmöglichkeiten und Implementierungshinweise, die speziell auf Ihre Sicherheitsanforderungen zugeschnitten sind.

