Schwachstellen in Anthropic's KI-Coding-Assistent erlauben Schadcode und Datenlecks

Zusammenfassung

Sicherheitsforscher haben mehrere Sicherheitslücken in Anthropic's KI-Coding-Assistent "Claude Code" entdeckt. Die Schwachstellen ermöglichen das Ausführen von Schadcode und das Ausspähen von API-Zugangsdaten. Die Lücken betreffen verschiedene Konfigurationsmechanismen wie Hooks, MCP-Server und Umgebungsvariablen. Ein Patch ist bislang nicht verfügbar, Nutzer sollten die Verwendung des Tools daher kritisch überdenken.

Cybersecurity researchers have disclosed multiple security vulnerabilities in Anthropic's Claude Code, an artificial intelligence (AI)-powered coding assistant, that could result in remote code execution and theft of API credentials. "The vulnerabilities exploit various configuration mechanisms, including Hooks, Model Context Protocol (MCP) servers, and environment variables – executing
Quelle: thehackernews.com