RAG

2026

RAVEN 論文閱讀分析:真正卡住漏洞 AI 落地的,往往不是找不到洞,而是寫不出一份像樣的漏洞根因報告

RAVEN 這篇真正補上的,不是另一個會找 bug 的模型,而是把「找到漏洞」與「寫成可交付的根因報告」之間那段常被忽略的 documentation gap 拉成正式研究問題。它把 Explorer、RAG、Analyst、Reporter 拆成多代理流程,想讓 memory corruption 分析更接近 analyst-grade RCA,而不是只停在一句這裡可能有 overflow。

2026 年 4 月 21 日

Retrieval-Augmented LLMs for Security Incident Analysis 論文閱讀分析:真正讓日誌分析變得可用的,往往不是模型更會答,而是先把證據縮到它看得完

這篇論文把 security incident analysis 拆成比較像真實 analyst workflow 的三段:先用和 MITRE ATT&CK 綁定的 query library 篩出候選證據,再用 RAG 補齊關鍵上下文,最後才讓 LLM 回答 forensic 問題並重建 attack sequence。重點不是證明模型能看懂 log,而是證明沒有 evidence filtering 與 grounded retrieval,再會講的模型也會在日誌海裡漏掉惡意基礎設施與攻擊步驟。

2026 年 4 月 21 日

CTIArena 論文閱讀分析:當 CTI 真的變成多來源推理問題,光靠模型背答案早就不夠了

CTIArena 的重點不是再做一個新的 CTI 模型,而是把 LLM 在情資任務裡真正該被測的能力拆開:結構化知識映射、報告理解、以及報告到標準框架的 hybrid mapping。論文最重要的訊息很直接:在 structured CTI 任務裡,closed-book 幾乎不可靠;真正有效的是 authoritative knowledge injection、domain-specific query expansion,以及能處理跨報告整合的 retrieval 設計。

2026 年 4 月 18 日