CTI

2026

CTIGuardian 論文閱讀分析:很多 CTI 模型真正先外洩的,不是被打穿,而是你親手拿私有資料把它教太熟

這篇論文真正有價值的地方,是把一個很多團隊會忽略的風險講白:當你用私有 CTI 資料把模型 fine-tune 得更懂安全,也可能順手把它教成更會洩密的系統;作者提出的 CTIGuardian,則嘗試用 few-shot 的 privacy alignment 在不重訓整顆模型的前提下補這條洞。

2026 年 4 月 23 日

Security Logs to ATT&CK Insights 論文閱讀分析:真正卡住高階威脅理解的,常常不是資料太少,而是低階 log 和攻擊敘事之間還隔著一整層語意落差

這篇論文想補的不是新的 alert,而是 packet-level / IDS-level 證據與 analyst-level 威脅理解之間那層語意落差:作者用 strategy-driven prompting,把 Suricata logs 切成行為階段,再映射到 ATT&CK technique 與高階攻擊策略,試圖讓低階遙測更接近可操作的 threat understanding。

2026 年 4 月 21 日

FakeCTI 論文閱讀分析:真正能追住假訊息攻擊活動的,往往不是那些一直在換殼的帳號與網域,而是背後那套反覆借屍還魂的敘事骨架

這篇 FakeCTI 論文真正有意思的地方,不只是用 LLM 做假新聞分析,而是把 CTI 焦點從易變的 domain、帳號與連結,拉到更難被重寫的 narrative structure、實體關係與概念依賴。對追蹤 disinformation campaign 來說,真正值得保留的情資往往不是外殼,而是那套反覆出現的敘事骨架。

2026 年 4 月 21 日

CTIArena 論文閱讀分析:當 CTI 真的變成多來源推理問題,光靠模型背答案早就不夠了

CTIArena 的重點不是再做一個新的 CTI 模型,而是把 LLM 在情資任務裡真正該被測的能力拆開:結構化知識映射、報告理解、以及報告到標準框架的 hybrid mapping。論文最重要的訊息很直接:在 structured CTI 任務裡,closed-book 幾乎不可靠;真正有效的是 authoritative knowledge injection、domain-specific query expansion,以及能處理跨報告整合的 retrieval 設計。

2026 年 4 月 18 日

金融業 AI-Driven CTI 論文閱讀分析:真正卡住落地的,往往不是模型不夠強,而是整個信任與治理鏈根本還沒補齊

這篇論文最值得看的,不是它又證明 AI 對 CTI 有幫助,而是它把金融業遲遲不敢大規模落地 AI-driven CTI 的真正原因講清楚:shadow AI、只買授權不接流程、沒把攻擊者視角放進 threat model,以及模型本身根本還沒被當成需要監控與舉證的系統。

2026 年 4 月 18 日