SIABench 論文閱讀分析:在你把 SOC 方向盤交給 LLM 前,先看看它到底會不會做 Incident Analysis
論文基本資訊 論文標題:Before Y...
論文基本資訊 論文標題:Before Y...
論文基本資訊 論文標題:Credenti...
這篇論文不是只做一個 SOC 助手,而是把 UICR、agent orchestration、rule generation、attack reconstruction、MCP tool control 與 AI governance 收進同一個 open-source 平台裡,回答一個更現實的問題:安全代理人要如何在可審計、可控、可部署的前提下真正進入 SOC。
這篇論文提出 query-based filtering + RAG + LLM reasoning 的 incident analysis 流程,重點不是把所有 log 丟給模型,而是先沿著 MITRE ATT&CK 技術把證據縮減到對的上下文,再做 forensic 問答與攻擊序列重建。
這篇論文不是只做另一個 insider threat dataset,而是用 deterministic simulation engine 維持 ground truth、讓 LLM 只生成表層語言,重新定義 LLM-based insider threat detection benchmark 的可信度。
這篇論文把 incident response 視為 POMDP,將 perception、reasoning、planning、action 四種能力壓進 14B LLM,再用 rollout planning 與 in-context adaptation 讓 IR agent 不只會生成答案,而是能根據新 alerts 持續修正 attack 假設與 response path。
CyberTeam 把藍隊 threat hunting 拆成具依賴關係的 workflow,並用 embodied functions 評估 LLM 是否能沿著 analyst 流程穩定完成 attribution、behavior analysis、prioritization 與 mitigation。
OpenSec 不再只測模型能不能做 incident response,而是直接評估它在對抗性證據與 prompt injection 下,是否知道何時該克制、不該過早 containment。