Cyber Threat Intelligence for Artificial Intelligence Systems 論文閱讀分析:當 CTI 開始要保護的不只是 IT,而是整條 AI 供應鏈
論文基本資訊
- 論文標題:Cyber Threat Intelligence for Artificial Intelligence Systems
- 作者:Natalia Krawczyk、Mateusz Szczepkowski、Adrian Brodzik、Krzysztof Bocianiak
- 年份:2026
- 來源:arXiv:2603.05068
- 論文連結:https://arxiv.org/abs/2603.05068
- 主題:Cyber Threat Intelligence、AI Security、AI Supply Chain、MITRE ATLAS、AVID、AI Incident Database
如果前面幾篇文章還在討論:AI agent 會怎麼被攻擊?SOC 能不能把 agent 用起來?guardrail 應該怎麼設計?那這篇 Cyber Threat Intelligence for Artificial Intelligence Systems 往前推的問題其實更基礎:當 AI 本身開始變成被保護的目標時,傳統 CTI 這套語言、資料結構與工作流程,到底還夠不夠用?
我認為這篇 paper 的價值,不在於它提出一個新模型,也不在於它想直接做某種 detection benchmark,而是它非常系統化地問了一個很多團隊其實已經碰到、但還沒整理清楚的問題:保護 AI 系統,不能只把既有 IoC、TTP、漏洞資料庫原封不動搬過來。 因為 AI 系統的資產、供應鏈、失效模式與攻擊面,都和傳統 IT / application security 不完全一樣。
這篇論文在處理什麼核心問題?
作者的出發點很直接。傳統 CTI 很擅長整理:
- 威脅行動者
- TTPs(戰術、技術、程序)
- Indicators of Compromise
- 已知漏洞與攻擊活動
但當防守對象換成 AI 系統後,很多原本理所當然的東西開始不夠用了。因為你面對的不只是一般的 server、endpoint、帳號與 API,而是還多了:
- 訓練資料
- 模型權重與參數
- 推論 API
- RAG 知識庫與向量索引
- 外部模型供應鏈
- 微調流程、資料標註流程與部署流程
也就是說,這篇 paper 想回答的,其實不是「AI 會不會有安全問題」,而是:
如果我們真的要對 AI 系統做 threat intelligence,那麼 intelligence 的觀測對象、知識來源、IoC 型別、檢索方法與工具介接方式,都應該怎麼重構?
作者提出的四個研究問題,很值得直接記下來
這篇論文在導論裡把研究問題寫得很清楚,幾乎可以直接當整篇文章的閱讀骨架:
- RQ1:傳統 CTI 與 AI-oriented CTI 有哪些差異?
- RQ2:要建立 CTI for AI knowledge base,可以用哪些資料來源?這些來源品質如何?
- RQ3:這樣的 knowledge base 對保護 AI 的工具實際有什麼幫助?
- RQ4:如何衡量既有 IoC 與新觀測 AI artifact 的相似性,讓知識庫真的能被查詢與比對?
這四個問題很重要,因為它們讓這篇 paper 不會停在空泛地喊「AI 很危險,所以需要新的 CTI」。作者是真的把它拆成:差異、資料源、應用方式、查詢與比對方法 四個層次。
作者的第一個核心主張:AI 系統的資產模型已經變了
我覺得這篇最值得吸收的第一件事,是它逼我們重新看待「資產」這件事。
在傳統 CTI 裡,我們保護的典型資產通常是:
- 主機與網路設備
- 帳密與金鑰
- 資料庫與檔案
- 應用程式與服務
但在 AI 系統裡,資產邊界明顯變得更寬,至少還包括:
- training data:可能被 poisoning、污染、置換、偏移
- model artifacts:模型權重、checkpoint、adapter、embedding model
- inference interfaces:model API、agent tool interface、RAG retrieval interface
- deployment context:模型所在的 runtime、plugin、生態整合點
- supply chain components:第三方模型、資料集、套件、MLOps pipeline
這意味著:AI-oriented CTI 不能只把 malware hash、domain、IP、URL 那一套照抄過來。 你必須開始把資料來源、訓練流程、模型版本、微調紀錄、向量索引、輸入輸出行為偏移,也視為 intelligence 的可觀測對象。
AI 的攻擊面,為什麼會讓傳統 CTI 不夠用?
作者在第二節做了一件很重要的事:先把 AI 既是防禦工具、也是被攻擊對象這件事講清楚。
AI 可以幫助防守方:
- 分析大量網路資料
- 加快異常偵測
- 自動化部分 incident response
- 整合多個 threat feed 做關聯分析
但同時,AI 自己也帶來全新風險,例如:
- data poisoning
- model poisoning
- adversarial examples
- privacy leakage / model inversion
- deployment-level compromise
- explainability 與可稽核性不足
而這些風險最大的問題,不只是「多了幾種新攻擊」,而是它們很難被傳統 CTI 的既有欄位完整描述。例如你今天說某個 hash、IP、domain 是 IoC,大家大概都知道怎麼吃;但如果今天的觀測對象是一個可疑的 LoRA adapter、一批可能被污染的 fine-tuning data、一組異常 embedding 分佈,或一個疑似被植入 trigger 的模型輸出模式,那就不是傳統 IoC schema 能直接包住的東西。
這篇論文最實際的部分:作者把 AI-oriented CTI 的資料源分成三大類
整篇 paper 最有操作性的內容,我認為在第三節。作者把可用來支撐 CTI for AI 的知識來源分成三類:
- Vulnerability-oriented sources
- Incident-oriented sources
- Adversary-oriented sources
這個三分法很值得記,因為它其實就是在幫 AI 安全領域對齊傳統 CTI 的基本工作模式:不是只有弱點,也不是只有新聞事件,而是要同時掌握弱點、真實事故、以及攻擊者 TTP。
1. Vulnerability-oriented sources:看 AI 系統有哪些弱點
作者點名了幾個重要來源:
- AVID(AI Vulnerability Database)
- OWASP AI Security and Privacy Guide
- ENISA 的 AI security 指南與框架
- Google SAIF(Secure AI Framework)
其中作者認為最像「可被 CTI 平台直接吃進去」的,是 AVID。因為它比較接近 AI 世界的 vulnerability repository:有結構、有條目、有 taxonomy,也能對應到 AI lifecycle。
相對地,OWASP、ENISA、SAIF 比較偏向:
- 風險與攻擊類型的整理
- 安全設計與治理指引
- 生命周期控制與 best practice
也就是說,它們很適合當 CTI knowledge base 的「語義骨架」,但不太像 CVE / ATT&CK 那樣直接就是 operational feed。
2. Incident-oriented sources:看 AI 真的怎麼出事
作者認為,想做 CTI for AI,不能只看理論弱點,還得看真實事故。這一層的重要資料源包括:
- AI Incident Database (AIID)
- CSET AI Harm Taxonomy
- Goals, Methods, and Failures (GMF) taxonomy
這一組來源的價值,在於它們回答的是:AI 風險最後怎麼落地成真實傷害?影響了誰?發生在哪個產業?是失誤、濫用,還是攻擊?
作者特別指出,AIID 很有價值,因為它收錄大量真實案例,讓分析者不只停留在理論風險;但它也有一個現實限制:taxonomy-driven annotations 不夠一致,很多欄位填寫並不完整。 換句話說,這類 incident source 很重要,但還沒有成熟到能像高品質威脅情報 feed 一樣直接丟進去就能跑。
3. Adversary-oriented sources:把 AI 風險轉成可操作的攻擊者視角
第三類來源,是我覺得最接近傳統 CTI analyst 直覺的一層。作者提到:
- MITRE ATLAS
- Attacking Artificial Intelligence 報告
- 其他能幫助映射 AI lifecycle 與 attacker behavior 的框架
其中最關鍵的當然是 MITRE ATLAS。如果說 AVID 比較像 AI 弱點庫,那 ATLAS 就比較像 AI 世界的 ATT&CK:它把對 AI / ML 系統的攻擊技巧、流程與 TTPs 以比較結構化的方式整理起來。
這也正是為什麼作者認為:真正可用的 CTI for AI,不能只是一份 AI 漏洞清單,而必須同時結合漏洞、事故與攻擊行為模型。
作者怎麼定義 AI-specific IoC?這是整篇最值得實作化的部分
這篇論文一個很有意思的地方,是它不只說「AI 需要新的 IoC」,而是明確指出:AI-oriented IoC 應該沿著 AI 供應鏈與生命週期去設計。
換句話說,IoC 不該只落在傳統網路面,例如 IP、domain、URL、hash;還要能對應 AI pipeline 不同階段的 artifact。從 paper 的整理來看,可以把 AI-specific IoC 大致想成下面幾類:
- 資料層:可疑訓練樣本、污染資料來源、異常標註模式、資料分佈漂移
- 模型層:可疑 model file、異常 adapter / checkpoint、後門 trigger、參數異常變化
- 部署層:推論輸出偏移、異常 prompt pattern、越權 API 呼叫、插件整合異常
- 供應鏈層:第三方模型來源、套件依賴、微調流程與部署流程的污染跡象
我覺得這裡真正重要的訊息是:AI 的 IoC 不一定是單一靜態 indicator,它常常更像一種 artifact pattern、行為偏移或相似性訊號。 這也讓傳統「黑名單式比對」的 CTI 工作法開始不夠,必須引入更強的 artifact similarity 與檢索能力。
這篇 paper 很務實地承認:AI CTI 的難題不只是知識少,而是資料品質參差不齊
作者沒有把現況講得太樂觀,這點我很欣賞。因為讀完第三節你會發現,現在 AI security 的確已經有不少框架、資料庫與 taxonomy,但最大問題是:
- 資料結構不統一
- 欄位品質不穩定
- 理論框架多,operational feed 少
- 很多知識來源偏 best practice,不是可直接查詢的 intelligence object
- incident database 很有價值,但標註深度與一致性常常不足
所以這篇論文真正的貢獻,某種程度上是在替這個領域做一次整理:我們不是完全沒有資料,而是缺少一套把這些分散資源整合成實用 knowledge base 的方法。
第五節很重要:作者把 AI 事故的蒐集,重新放回 CTI 的資產—弱點—威脅三角
我很喜歡作者在第五節做的橋接。它提醒讀者:雖然 AI 系統很新,但很多分析思路其實可以沿用傳統安全,只是要重新解釋。
作者指出,在經典安全裡,我們常用:
- assets
- vulnerabilities
- threats
這個三角來組織知識。到了 AI 世界,一樣可以用,只是內容換了:
- assets 變成訓練資料、模型、API、agent pipeline、向量庫
- vulnerabilities 變成 poisoning、evasion、backdoor、model inversion、prompt abuse
- threats 則是對手如何結合這些弱點,在不同 AI lifecycle 階段達成攻擊目的
這樣一來,AI CTI 就不再只是一些零碎 case study,而能慢慢長成真正可查詢、可聚合、可支援 tooling 的知識框架。
MITRE ATLAS 在這篇 paper 裡扮演什麼角色?
作者明確把 MITRE ATLAS 視為 CTI for AI 很關鍵的骨幹之一,原因很簡單:它讓 AI 風險不再只是弱點清單,而能往攻擊 lifecycle 推進。
論文裡提到,AI / ML 系統對應的攻擊階段大致可涵蓋:
- pre-attack reconnaissance
- initial access
- execution
- persistence
- privilege escalation
- defense evasion
- credential access
- model-specific attacks
- exfiltration
- impact
這段的重點是:AI 系統不是只有 model attack 這一種事。 它也會有和一般系統一樣的 initial access、credential access、exfiltration、impact,只是中間多了很多 AI-specific 的 exploitation surface,例如資料污染、模型竊取、對抗樣本、LLM jailbreak、prompt-based privilege escalation。
這篇論文最關鍵的技術提醒:未來比對方式會更像「相似度檢索」,不只是 exact match
作者最後一個研究問題(RQ4)其實很重要,但也最容易被低估:如果 AI IoC 不是單純的 IP / hash / domain,那 knowledge base 要怎麼查?
作者的答案方向很清楚:未來得更重視:
- artifact similarity
- pattern matching
- 對新觀測 AI object 的相似度衡量
- 把 knowledge base 做成可支援工具決策的檢索層
這點我很認同。因為在 AI 安全裡,很多可疑跡象不是 exact indicator,而比較像:
- 某個可疑樣本與已知 poisoning cluster 很像
- 某個 adapter 的行為與已知後門樣式接近
- 某組 prompt / output pattern 和已知 jailbreak 家族相似
- 某份資料集的統計特徵與已知污染來源高度相近
也就是說,AI CTI 很可能天然就比傳統 CTI 更需要 embedding、相似度搜尋、圖譜關聯與語義檢索。 這不只是工程上的選配,而是因為觀測對象本身已經變了。
如果把這篇 paper 濃縮成一句話,它真正講的是什麼?
這篇論文真正想說的是:AI security 已經不能只靠 AI red teaming 或單點 guardrail;它需要一套像傳統 CTI 那樣可持續累積、可查詢、可操作的 intelligence framework,但這套 framework 的資料物件、IoC 型態與查詢方法,都必須對 AI 資產與 AI 供應鏈重新設計。
這篇 paper 的價值與限制
我認為它的價值主要有三個:
- 第一,問題定義得很好。 它把「CTI for AI」從口號整理成具體研究議程。
- 第二,資料源整理得夠實用。 讀完後你會知道 AVID、AIID、CSET、GMF、MITRE ATLAS 各自站在哪一層。
- 第三,它把 AI-specific IoC 與 similarity retrieval 這條線講清楚了。 這對未來做知識庫、SOC tooling、AI asset monitoring 都很有啟發。
但它也有明確限制:
- 它比較像 framework / survey / agenda-setting paper,不是提出新 benchmark 或新系統
- 沒有真的實作一個可運行的 AI-CTI platform 來驗證整套方法
- 很多建議目前仍停留在知識組織與設計方向,距離 operationalization 還有一段路
換句話說,這篇 paper 不是來回答「哪個模型今天最好」,而是回答:如果未來真的要做 AI threat intelligence,路應該怎麼鋪。
總結
Cyber Threat Intelligence for Artificial Intelligence Systems 是一篇很值得補進最近這條 agentic security / CTI 主線的論文。它沒有走炫技路線,而是回到一個更長期也更關鍵的問題:AI 系統需要自己的 threat intelligence 語言、資料結構與知識庫設計。
從這篇 paper 看出去,下一階段真正重要的工作大概不是再多做幾份零散的 AI risk taxonomy,而是把這些分散資源慢慢收斂成:
- 可維護的 AI vulnerability objects
- 可查詢的 AI incident knowledge base
- 可映射 attacker behavior 的 AI TTP framework
- 可支援 artifact similarity 與實務 toolchain 的 intelligence retrieval layer
如果要把這篇濃縮成最白話的一句話,那就是:
當 AI 自己變成攻擊目標,CTI 也得從保護一般 IT 系統,進化成保護資料、模型、推論介面與整條 AI 供應鏈。
本文由 AI 協助整理與撰寫,內容依據論文、公開摘要與作者揭露資訊進行分析;若你正在規劃 AI security / AI governance / CTI for AI 相關工作,這篇很適合作為建立知識框架時的起點。
