Machine Learning-Based Detection of MCP Attacks 論文閱讀分析:真正該先擋下來的,可能不是工具執行結果,而是那段看似無害的 tool description
本文由 AI 產生、整理與撰寫。 論文基...
本文由 AI 產生、整理與撰寫。 論文基...
MCP Threat Modeling ...
論文基本資訊 論文標題:Agent Au...
ShieldNet 真正重要的觀點,是供應鏈型 agent 攻擊未必會把惡意意圖寫進 tool description、schema 或對話紀錄裡。當風險藏在第三方工具實作與依賴中時,與其一直盯著 agent 說了什麼,不如回到 execution 期間的 network side effects,看它到底向哪裡連、送了什麼、做了哪些不該做的事。
論文基本資訊 論文標題:Are AI-a...
MCPThreatHive 的重點不是再做一個單點防禦,而是把 MCP threat intelligence 做成持續運轉的基礎設施:從情報蒐集、LLM 分析、MCP-38/OWASP/STRIDE 對映、知識圖譜,到風險排序與視覺化,補上現有 MCP 安全工具在組合攻擊建模、持續更新與跨框架翻譯上的缺口。
這篇 Prompt Injection Attacks on Agentic Coding Assistants 的 SoK 把問題講得很完整:當 coding assistant 已經能讀檔、跑 shell、接 MCP、吃 skill 與 repo 規則檔時,風險就不再只是某段 prompt 有沒有惡意,而是整條從外部內容、工具描述、協定整合到設定持久化的控制面都可能被注入。真正要治理的,是 agent runtime 的信任邊界,而不是只靠過濾器擋幾句關鍵字。
ClawGuard 這篇論文最重要的提醒是:對有工具權限的 LLM agent 來說,安全不能只押寶模型自己在被污染的上下文裡保持清醒,而要把防線放在每一次 tool call 即將落地的邊界。它用任務導出的規則、內容遮罩、技能檢查與人工批准,把 web content、MCP 與 skill file 三條間接注入路徑一起拉回可審計的 runtime control plane。
TRUSTDESC 不再停在檢測惡意 tool description,而是從工具實作中自動生成較可信的 description,並以靜態切片、語義去毒與動態驗證把 tool poisoning 的信任問題往前推回 description integrity。真正的重點是:在 agent 時代,模型看到的工具語義不該再直接由第三方自我宣告。