Agentic AI 攻防全景論文閱讀分析:當 AI Agent 變成系統後,安全邊界也得重畫
這篇 USENIX Security 2026 綜述真正重要的地方,不是再說一次 agent 很危險,而是把 prompt、RAG、工具、外部元件與多代理人互動重新放進同一張攻防地圖,提醒我們 agent security 的本質其實是系統安全。
這篇 USENIX Security 2026 綜述真正重要的地方,不是再說一次 agent 很危險,而是把 prompt、RAG、工具、外部元件與多代理人互動重新放進同一張攻防地圖,提醒我們 agent security 的本質其實是系統安全。
AIR 把 detection、containment、recovery、eradication 直接接進 LLM agent execution loop,試圖回答一個常被忽略的問題:當 agent 真的出事時,系統能不能像成熟的 incident response 流程那樣自己發現、止血、修復,並把這次事故轉成未來的 guardrail。
論文基本資訊 論文標題:Hallucin...
IRCopilot 把 incident response 拆成 Planner、Generator、Analyst、Reflector 四個角色,回答的不只是 LLM 會不會看懂事件,而是它能不能在有規劃、有驗證、有反思的 workflow 裡真正協助處置。
論文基本資訊 論文標題:Before Y...
論文基本資訊 論文標題:Credenti...
這篇論文不是只做一個 SOC 助手,而是把 UICR、agent orchestration、rule generation、attack reconstruction、MCP tool control 與 AI governance 收進同一個 open-source 平台裡,回答一個更現實的問題:安全代理人要如何在可審計、可控、可部署的前提下真正進入 SOC。
這篇論文提出 query-based filtering + RAG + LLM reasoning 的 incident analysis 流程,重點不是把所有 log 丟給模型,而是先沿著 MITRE ATT&CK 技術把證據縮減到對的上下文,再做 forensic 問答與攻擊序列重建。
這篇論文不是只做另一個 insider threat dataset,而是用 deterministic simulation engine 維持 ground truth、讓 LLM 只生成表層語言,重新定義 LLM-based insider threat detection benchmark 的可信度。