In-Context Autonomous Network Incident Response 論文閱讀分析:真正有價值的 IR Agent,不是最會回答的那個,而是最會一邊觀察、一邊修正、一邊規劃的那個
這篇真正值得看的,不是 LLM 又會做 incident response,而是它把 IR 明確視為 POMDP 與長程規劃問題:真正有用的 agent,不是每輪都很會說,而是能根據新觀測修正世界模型,再選出 recovery cost 更低的下一步。
這篇真正值得看的,不是 LLM 又會做 incident response,而是它把 IR 明確視為 POMDP 與長程規劃問題:真正有用的 agent,不是每輪都很會說,而是能根據新觀測修正世界模型,再選出 recovery cost 更低的下一步。
這篇真正值得看的,不是 LLM 又會做 incident response,而是它把 IR 明確視為 POMDP 與長程規劃問題:真正有用的 agent,不是每輪都很會說,而是能根據新觀測修正世界模型,再選出 recovery cost 更低的下一步。
OpenSec 的核心不是再證明 LLM 會做 incident response,而是把 calibration 拉成主角:真正高風險的失敗往往不是沒抓到攻擊,而是在證據還不夠時就先隔離、先封鎖、先重設,把正常業務一起打下去。
TTPrompt 的重點不是把 CTI NER 再做成一個 retrieval trick,而是把 annotation logic 從 few-shot 範例裡拉出來,變成可顯性表達、可少量修正、可跨資料集適配的 instruction layer。
這篇 SoK 的關鍵不在於再提醒一次 prompt injection,而是把 agentic AI 的風險重新畫成一張系統安全地圖:當模型開始碰 RAG、tools、memory、delegation 與 autonomy,真正該防的就不再是單一句子,而是整條被錯誤信任的資料流、權限鏈與執行鏈。
Minerva 的重點不只是把 RL 用到 CTI,而是指出 CTI 本來就有 schema、identifier 與標準資源可供 deterministic verification;與其只靠 SFT 模仿答案,不如把這些結構直接變成 reward,逼模型學會交出真正可驗證的 structured CTI outputs。
這篇論文最重要的提醒,是很多漏洞根本不是單函式 pattern matching 問題;當 caller / callee 脈絡被切掉,模型看到的就只是半個攻擊面。
這篇論文真正重要的,不是再一次證明 agent 有風險,而是把風險講得更準:一旦模型接上工具、狀態與多步規劃,真正危險的往往不是單次惡意輸出,而是 runtime 會一路替攻擊者完成 reconnaissance、環境理解與後續攻擊鋪路。
這篇論文的重點不是讓 LLM 直接當威脅偵測器,而是把 Knowledge Graph 的關係建模、Imbalanced Learning 的少數類別處理,以及 LLM 的查詢與解釋能力接成一條可操作的偵測流程。
這篇論文真正有價值的,不是又做一個更會解 CTF 的排行榜,而是把 LLM 在 cryptographic binary reverse engineering 的能力邊界正式量出來:它們已經能幫忙拆解演算法、追 key 與重建部分行為,但離能穩定收尾的 autonomous reverser 仍有明顯差距。