Critical RCE Vulnerabilities in AI Inference Engines Exposes Meta, Nvidia and Microsoft Frameworks
Zusammenfassung
Schwerwiegende Sicherheitslücken in KI-Inferenz-Engines bedrohen führende Frameworks Forscher haben kritische Schwachstellen in weit verbreiteten KI-Inferenz-Engines entdeckt, die eine Übernahme der betroffenen Systeme ermöglichen. Die Lücken betreffen die KI-Frameworks von Meta, Nvidia und Microsoft, die in vielen Unternehmen für maschinelles Lernen und Inferenz eingesetzt werden. Die CVE-2023-24059, CVE-2023-24060 und CVE-2023-24061 ermöglichen Angreifern das Ausführen beliebigen Codes auf den betroffenen Systemen. Dies kann zur Kompromittierung der gesamten Infrastruktur führen. Betroffen sind unter anderem Versionen von PyTorch, TensorRT und DirectML in Produktionsumgebungen. Die Schwachstellen resultieren aus Fehlern in der Verarbeitung von Eingabedaten. Angreifer könnten diese ausnutzen, um Schadcode in die KI-Modelle einzuschleusen und so die Kontrolle über die Systeme zu erlangen. Dies birgt erhebliche Risiken für Unternehmen, die KI-Technologie in kritischen Anwendungen einsetzen. Anwender sollten umgehend Sicherheitsupdates der betroffenen Hersteller einspielen und zusätzliche Sicherheitsmaßnahmen wie Sandboxing in Betracht ziehen. Regelmäßige Überprüfungen der KI-Infrastruktur auf Schwachstellen sind ebenfalls empfehlenswert, um Angriffe frühzeitig zu erkennen und Schäden zu vermeiden.