Anthropic ließ die Preise für CrowdStrike und Cloudflare fallen, indem es das KI-Tool Claude Code Security zur Fehlererkennung einsetzte.

Anthropic ließ die Preise für CrowdStrike und Cloudflare fallen, indem es das KI-Tool Claude Code Security zur Fehlererkennung einsetzte.

10 hardware

Der Cybermarkt reagiert auf die Einführung von Claude Code Security von Anthropic

*Als Reaktion auf die Ankündigung des neuen Cybersicherheitswerkzeugs von Anthropic fielen die Aktien solcher Firmen wie CrowdStrike und Cloudflare um etwa 8 %. Investoren sehen in Claude Code Security einen ernsthaften Konkurrenten traditioneller Lösungen zur Schwachstellenerkennung.*

Was unterscheidet Claude Code Security von klassischen Scannern
- Keine statischen Regeln – das neuronale Netzwerk stützt sich nicht auf vorgefertigte Datenbanken.

- Es taucht in die Logik der Anwendung ein, verfolgt Datenflüsse und Zusammenhänge zwischen Komponenten und reproduziert die Arbeit eines Sicherheitsspezialisten.

- Dieser Ansatz ermöglicht es, Probleme zu erkennen, die bei herkömmlichen statischen Analysatoren übersehen werden könnten.

Wie man das Tool nutzt
1. Verbindung zum Repository – Claude Code Security muss mit einem Projekt auf GitHub verknüpft werden.

2. Scan starten – das System scannt automatisch den Code und erkennt eine breite Palette von Bedrohungen, z. B.:

- fehlende Filterung der Benutzereingabe (SQL‑Injection);

- komplexe logische Fehler, die die Authentifizierung umgehen lassen.

Bericht über gefundene Schwachstellen
- Schwachstellen werden nach Priorität sortiert.

- Für jedes Problem wird eine ausführliche Erklärung in natürlicher Sprache generiert, was die Arbeit der Analysten beschleunigt.

- Unterhalb der Fehlermeldung steht die Möglichkeit zur Patch-Erstellung, mit der ein fertiger Korrekturcode vom KI-System geliefert wird.

Vergleich mit ähnlichen Lösungen
- Claude Code Security wurde etwa vier Monate nach dem Start des OpenAI‑Tools Aardvark veröffentlicht.

- Beide Produkte verfügen über ähnliche Fähigkeiten: sie testen Schwachstellen in einer isolierten Umgebung und bewerten die Ausnutzbarkeit.

Entwicklungsperspektiven
Experten sind der Meinung, dass Anthropic und OpenAI ihre Systeme direkt in Entwicklungs-Pipelines (CI/CD) integrieren könnten. Dadurch würde ein automatischer Block von Code‑Deployments mit Sicherheitslücken ermöglicht und die Produktveröffentlichung ohne Kompromisse bei der Sicherheit beschleunigt werden.

Kommentare (0)

Teile deine Meinung — bitte bleib höflich und beim Thema.

Noch keine Kommentare. Hinterlasse einen Kommentar und teile deine Meinung!

Um einen Kommentar zu hinterlassen, melde dich bitte an.

Zum Kommentieren anmelden