2026
Transforming Cyber Defense 論文閱讀分析:當 agentic AI 真正要進資安現場,重點可能不只是更會做事,而是整條防線要不要重畫
這篇論文不是再補一個新 benchmark 或新 agent,而是把整個 cyber defense 的敘事往 agentic / frontier AI 時代重寫:主動監看、自動化 incident response、持續學習,外加不能被省略的 ethical governance。真正的問題不只是 AI 能不能幫忙,而是當它開始參與整條 defense loop,邊界要怎麼畫、責任要怎麼管。
Caging the Agents 論文閱讀分析:真正能讓 autonomous agent 比較敢上 production 的,不是更乖的 prompt,而是更硬的系統邊界
這篇論文真正重要的,不是再提醒一次 agent 會被 prompt injection,而是展示了 production 級 autonomous agents 該怎麼用 zero trust 包起來:隔離執行環境、切斷 raw secrets、限制對外 egress,並把不可信內容明確標記,讓模型即使被帶偏也不容易把整個系統一起拖下水。
APT-CGLP 論文閱讀分析:真正讓 CTI 無法直接拿來做 APT Hunting 的,常常不是資料太少,而是 threat report 和主機行為圖根本沒活在同一個語言裡
APT-CGLP 的關鍵不是再多做一次 attack graph 抽取,而是直接把 CTI report 與 provenance graph 放進同一個語意空間,讓 APT hunting 從脆弱的中介表示流程,轉向更直接的跨模態語意對齊。
Agentic Skills SoK 論文閱讀分析:真正該被治理的,不只是工具,而是整套會被反覆重用的做事方法
這篇 SoK 把 agent skills 從模糊概念整理成完整系統層:skills 不只是工具包裝,而是帶有適用條件、執行策略、終止條件與可調用介面的 procedural modules,也因此直接形成新的供應鏈與治理面。
可解釋入侵偵測論文閱讀分析:真正讓人敢把 LLM 放進防線的,不是分數更高,而是你看得出它到底在看什麼
這篇論文不是再做一個黑箱 IDS 刷分,而是檢查 encoder-based LLM 在 SDN 入侵偵測裡,到底是不是根據 flow duration、packet rate、inter-arrival timing 這些像樣的流量行為在做判斷。
CTI Echo Chamber 論文閱讀分析:真正危險的可能不是情資太少,而是大家其實都在看彼此差不多的地方
這篇論文不是再做一個新的 CTI extraction demo,而是直接檢查整個 CTI 產業本身的觀測偏差:二十年公開情資報告高度碎片化、vendor 間 overlap 很低,而且很多 coverage 差異其實是地理與產業視角偏差。
AttackSeqBench 論文閱讀分析:CTI LLM 真正卡住的,也許不是單點知識,而是整條攻擊序列到底有沒有看懂
AttackSeqBench 把 CTI benchmark 從單點 fact 與 technique mapping,往 sequence-level reasoning 往前推了一步:真正關鍵的不只是模型知不知道 ATT&CK 名稱,而是能不能理解 tactic、technique、procedure 之間的先後與依賴關係。
Minerva 論文閱讀分析:當 CTI LLM 真正要交付可用輸出時,靠背答案可能已經不夠了
Minerva 的重點不只是把 RL 用到 CTI,而是指出 CTI 本來就有 schema、identifier 與標準資源可供 deterministic verification;與其只靠 SFT 模仿答案,不如把這些結構直接變成 reward,逼模型學會交出真正可驗證的 structured CTI outputs。
LSRI 論文閱讀分析:當 Agentic AI 真正要大規模進高風險環境,先爆掉的常常不是模型智商,而是整條信任鏈
這篇 paper 真正想處理的,不是模型夠不夠聰明,而是當 LLM / Agentic AI 大規模進入安全關鍵環境後,整條模型生命週期、供應鏈 provenance 與組織可承受的 scalability risk 要怎麼一起被治理。
