CVE-2026-22807: Kritische Sicherheitslücke in vLLM erlaubt Schadcode-Ausführung
⚠️ CVE-Referenzen:
CVE-2026-22807
Zusammenfassung
Eine Sicherheitslücke in der vLLM-Bibliothek für große Sprachmodelle ermöglicht Angreifern die Ausführung beliebigen Schadcodes. Betroffen sind Versionen von 0.10.1 bis, aber nicht einschließlich, 0.14.0. Das Problem entsteht, wenn vLLM Hugging-Face-Module ohne ausreichende Überprüfung des "trust_remote_code"-Parameters lädt. Dadurch können Angreifer ihre Python-Codes beim Serverstart ausführen, noch bevor API-Anfragen verarbeitet werden. Das stellt ein erhebliches Sicherheitsrisiko für Systeme dar, die vLLM einsetzen.
Vllm-project - Vllm - HIGH - CVE-2026-22807.
The vLLM inference and serving engine for large language models has a vulnerability that allows arbitrary code execution. Versions from 0.10.1 up to, but not including, 0.14.0 are susceptible. The issue arises when vLLM loads dynamic modules from Hugging Face without proper validation of the `trust_remote_code` parameter, enabling an attacker to execute their own Python code during server startup simply by influencing the model repository. This exploit occurs before any API requests are processed, highlighting a significant security risk for deployments utilizing vLLM.
Quelle: securityvulnerability.io