SIR-Bench 論文閱讀分析:真正像樣的 IR Agent,不是先把結論講漂亮,而是真的會往 alert 外面繼續挖證據
論文基本資訊 論文標題:Evaluati...
2026 年 4 月 21 日
論文基本資訊 論文標題:Evaluati...
論文基本資訊 論文標題:LLM-Enha...
論文基本資訊 論文標題:Next-gen...
論文基本資訊 論文標題:Adversar...
SIR-Bench 想補的不是另一個只看最後 triage 對不對的 benchmark,而是更接近真實 SOC 的問題:Incident Response Agent 到底有沒有真的做調查?這篇把 investigation depth 拉成核心指標,要求 agent 不只判斷 true positive / false positive,還得沿著 CloudTrail 與工具查詢,找出 alert 原本沒直接告訴你的 novel findings。
這篇研究用 Reddit 上三個資安社群、892 則討論,拆開真實 SOC 現場如何使用、理解與保留 LLM。最關鍵的結論不是「大家不用 AI」,而是大家主要把它放在低風險、可驗證、能保留人類主導權的任務上;真正阻礙高自治導入的,是可靠性、驗證成本、隱私風險與責任邊界。
這篇論文真正補上的,不是再多抽幾個 IOC,而是把 CTI 裡人看得懂、但機器還不能直接用的線索,自動翻成 SOC 真正跑得動的 regex pattern,讓情資能更實際地接上 log parsing、hunting 與 detection engineering。
From IOCs to Regex 論...