Agentic AI 與 Cybersecurity 論文閱讀分析:當資安系統開始像 Agent 一樣長時間思考、行動與協作

如果說最近 sectools.tw 這一串文章,已經一路把 tool / skill supply chainruntime trust boundarydelegation control planeauditabilitygovernable autonomy 這些拼圖慢慢拼起來,那這篇 A Survey of Agentic AI and Cybersecurity: Challenges, Opportunities and Use-case Prototypes 值得補上的原因很直接:它不是再把某一個攻擊面講得更細,而是退後一步,重新問整個 agentic AI 進入資安之後,防守、進攻、治理、評測與落地原型到底怎麼被放進同一張地圖。

這種 paper 的價值,通常不在於它提出一個全新技術名詞,而在於它幫你看清楚:我們最近看到的那些論文,究竟是零散 demo,還是其實已經構成一條明顯的系統演化線。 這篇 survey 給出的答案很明白——agentic AI 不只是把 LLM 接上工具而已,而是把資安系統重新變成一個會持續觀察、規劃、行動、修正、記憶的長時程執行體。也正因如此,它帶來的風險不再只是 hallucination,而是更像 distributed system、control plane 與 governance problem 的總和

  • 論文標題:A Survey of Agentic AI and Cybersecurity: Challenges, Opportunities and Use-case Prototypes
  • 作者:Kshitiz Aryal、Maanak Gupta、Elisa Bertino
  • 來源:arXiv 2601.05293(2026)
  • 類型:survey / framing paper

這篇在談什麼?

作者的核心主張其實很簡單:agentic AI 和傳統 generative AI 的差別,不只是輸出更長,而是它開始具備長任務、多步驟、工具互動、記憶保持與自主修正的能力。 一旦這些能力被放進資安場景,不管是 SOC、threat hunting、incident response、fraud detection、vulnerability management,還是紅隊模擬與攻擊自動化,整個問題性質就都變了。

這篇 survey 把 agentic AI 在資安中的意義拆成兩面:

  1. 防守面:它能幫忙做持續監控、自動 triage、adaptive response、跨工具協作與規模化分析。
  2. 攻擊面:同樣的 planning、memory、tool orchestration 與 autonomy,也會放大 reconnaissance、exploit adaptation、social engineering 與多代理協同攻擊的效率。

也就是說,agentic AI 對資安不是單純的 productivity boost,而是典型的 dual-use force multiplier。你讓藍隊 agent 更能做事,同時也在逼自己面對:紅隊與攻擊者一側的 agent,會不會也一起升級。


作者怎麼定義 Agentic AI?重點不是「會回答」,而是「會循環」

這篇論文有一個值得記住的地方:它把 agentic AI 的核心不是放在某一個模型名字上,而是放在一個執行循環上。作者認為,相對於主要是 prompt-driven、一次性回應的 GenAI,agentic AI 的關鍵結構包含:

  • memory:短期記憶、情節記憶、長期記憶
  • retrieval:RAG、向量資料庫、外部知識
  • tools / APIs:查詢、計算、程式執行、系統操作
  • environment interaction:和軟體、網路、外部服務互動
  • iterative loop:planning → acting → reflecting → revising

這個框架很重要,因為它直接提醒我們:agent 的風險從來不只長在 model output,而是長在整條 execution loop 上。 也因此,當前很多團隊還在用「模型安不安全」的角度看 agent,其實已經太窄。真正需要問的是:

  • 它記了什麼?
  • 它信了哪些外部資料?
  • 它能呼叫哪些工具?
  • 它會不會在長鏈任務裡把錯誤反覆強化?
  • 它和其他 agent 串起來後,新的行為邊界在哪?

這也是為什麼最近一大串 agentic security 論文,會一直從 prompt injection 擴展到 memory poisoning、tool supply chain、delegation verification、protocol conformance、runtime monitoring。因為當 agent 開始真的在環境裡活起來,安全問題自然就會往系統層上升。


這篇 survey 最有價值的地方:它把資安 use case 整理成四大領域

很多 survey 的問題,是什麼都提一下,最後變成清單。這篇相對比較有結構,作者把 agentic AI 在資安中的應用收束成四個大領域:

  1. Autonomous Cyber Defense and Operation
  2. Agentic Threat Intelligence and Adversarial Analysis
  3. Enterprise Security Automation and Governance
  4. Simulation, Training, and Testing

這四分法很實用,因為它不是照論文關鍵字切,而是照實際工作流切。

1. Autonomous Cyber Defense and Operation

這一塊最接近大家熟悉的 SOC / IR 場景。作者把 agentic AI 放進持續監控、異常偵測、事件分析、處置編排與復原支持等流程中。這條線的關鍵不只是「模型能不能答對」,而是它能不能在持續觀測、有限時間、跨工具證據與高誤判成本下穩定行動。

換句話說,這一塊對應的不是聊天室能力,而是operational reliability。所以你會看到它自然連到 alert triage、adaptive response、playbook orchestration 與 human escalation。這也和我們最近看到的 governable autonomy 主線很接:成熟的資安 agent,價值不在全自動,而在知道哪裡該停、哪裡該問、哪裡該升級。

2. Agentic Threat Intelligence and Adversarial Analysis

這一塊對 sectools.tw 讀者尤其重要,因為它把 CTI 從單純的文本理解,推回到更完整的 intelligence workflow。作者強調,agentic AI 不只是拿來抽 ATT&CK technique 或做 report summarization,而是可以進一步支援:

  • 持續蒐集與彙整威脅資訊
  • 跨來源 evidence 對齊
  • 威脅分析與歸因輔助
  • 對手行為模式的長鏈推理
  • 在 threat intel 與 adversarial analysis 間來回映射

但這裡同時也暴露出一個老問題:情資工作不是把字讀懂就結束,而是要在來源不完整、時間敏感、證據衝突的情況下持續更新判斷。 所以一旦 agent 被用在 CTI,它的價值與風險就都會高度依賴 memory management、retrieval quality 與 uncertainty handling。這也是為什麼很多 CTI paper 到最後都會繞回 evidence grounding,而不是只談模型本身。

3. Enterprise Security Automation and Governance

這一塊特別值得注意,因為很多人在談 agentic AI for cybersecurity 時,常常只盯防守或攻擊,卻忽略企業內部真正最麻煩的,其實是權限、流程、責任與控制

作者把 governance 拉進來之後,問題就不再只是 agent 能不能做事,而變成:

  • 誰授權它做?
  • 權限範圍有沒有被明確限制?
  • 它跨系統執行時,責任鏈還追得回來嗎?
  • 它的決策依據是否可稽核?
  • 一旦出錯,有沒有 recover / contain / revoke 的能力?

這一塊其實和近幾篇關於 ClawLess、SentinelAgent、Auditable Agents、AgentRFC、Meta-Cognitive Architecture 的主線高度對齊。差別在於:這篇 survey 把這些原本看起來分散的問題,重新統合成企業級 security automation 的治理命題。

4. Simulation, Training, and Testing

這一塊通常最容易被低估,但其實越來越關鍵。因為 agentic AI 的能力不是只靠靜態 benchmark 就能量出來,尤其在資安場景裡,真正重要的是它在多輪、互動、對抗、長任務與不完整資訊下怎麼表現。

作者因此把 simulation、training、testing 單獨拉出來,這是很對的。因為沒有這一層,你根本不知道 agent 在 production 前到底會怎麼崩。這也解釋了為什麼最近那麼多 benchmark paper 都開始從單題 QA,轉向:

  • open-environment evaluation
  • multi-agent workflows
  • real repository / real tooling tasks
  • incident-response or offensive simulation
  • stateful / multi-round / long-horizon attack scenarios

簡單說,作者在這裡其實是在提醒:如果 agent 是一個 system,你就不能再只用 exam 方式評估它。


這篇最值得記住的警告:agentic AI 的風險是系統性風險,不是單點失誤

這篇 survey 提到幾個很關鍵的系統性風險,我覺得是整篇最有價值的部分。作者點出的,不只是一般常見的 hallucination 或 misclassification,而是更像 agent-native 的 failure modes:

  • agent collusion:多代理之間可能形成非預期協作或錯誤放大
  • cascading failures:前一階段的小錯誤,在長鏈工作流裡逐步擴散
  • oversight evasion:系統看起來仍在可控範圍,但實際決策已悄悄脫離人工監督
  • memory poisoning:長期記憶被污染後,錯誤不再是一次性的,而會反覆回灌
  • synthetic insider / emergent behavior:自主系統在企業內部行為越來越像高權限內部人員

這幾點放在一起看,你會發現作者真正想講的是:agentic AI 讓資安風險從「模型答錯」升級成「系統行為漂移」。而一旦風險變成行為漂移,防線就不能只押在 prompt hardening 或 output filter 上。

你需要的是:

  • 更明確的 trust boundary
  • 更細的 permission scoping
  • 可驗證的 delegation chain
  • 對 runtime state 的持續觀測
  • 可稽核、可回收、可中止的 control plane

這正是 agent security 這個領域最近越來越像 systems security 的原因。因為真正難的,從來不是讓 agent 更敢做,而是讓它在做錯時仍然能被看見、被攔下、被善後


作者也談評測與治理,這很重要

很多 survey 會把 defense 與 threat taxonomy 講完就收掉,但這篇有意識地把 benchmark、evaluation pipeline 與 governance framework 一起拉進來,這點很值得肯定。原因很簡單:對 agentic AI 來說,能力、風險與治理本來就不該分開看。

如果你只談 capabilities,不談 assurance,那最後就只是在把高權限自動化系統包裝得更性感。如果你只談 policy,不談 evaluation,那治理就會變成空話。這篇比較成熟的地方,是它一直試圖把這三件事綁在一起:

  • 它能做什麼
  • 它會怎麼出事
  • 我們要怎麼量、怎麼管、怎麼驗

這種視角對真實落地很重要。因為在 production 裡,資安 agent 的問題從來不是「可不可以 demo 成功」,而是「能不能在可接受風險下持續運作」。而這需要的不是更多酷炫 agent name,而是更扎實的 assurance stack。


這篇 paper 的限制在哪?

當然,作為 survey,它的問題也很明顯。

第一,它的涵蓋範圍很廣,廣到有些段落比較像地圖整理,而不是深挖。這對剛進場的人很有幫助,但如果你已經一路讀過很多 agentic security / CTI / SOC paper,會感覺某些地方點到為止。

第二,它把 defensive、offensive、enterprise governance、simulation 全部放進同一篇,視野很完整,但也因此每一條線都不可能展開到技術細節層。它更像一篇上游 framing survey,而不是拿來看某一個具體機制如何設計的 paper。

第三,作者提到 use-case prototypes,這當然有助於把 paper 從純概念拉回實作,但 survey 文的原型通常還是偏說明性質。你如果想知道 production-grade runtime hardening 要怎麼做,仍然得回去看那些更聚焦的 systems / security papers。

不過這不算致命缺點。因為它的任務本來就不是替代那些細部論文,而是把它們放回同一個框架裡。從這個角度說,這篇是有完成任務的。


怎麼把它放回近期 sectools.tw 的主線裡?

如果把這篇放回最近這波文章,我會把它看成一篇總圖收斂文

前面我們已經一路看到:

  • CTI / SOC / IR 去問 agent 能不能做事
  • benchmark 去問我們到底怎麼量它
  • system prompt / memory / tools / skills 去問攻擊面在哪
  • delegation / protocol / auditability / governance 去問控制面該怎麼立起來

而這篇 survey 的作用,就是把這些看似散的線,重新整理成一個更完整的判斷:agentic AI 在資安裡真正帶來的,不是某一個新應用,而是整個 security system 從靜態工具鏈,逐步轉成長時程、自主、可互動的執行系統。

這也意味著,未來幾年真正值得追的,不會只是誰的 benchmark 分數比較高,而是三個更根本的問題:

  1. agent 到底能在什麼邊界內被信任?
  2. 一旦它跨越邊界,我們能不能即時發現、介入、回收?
  3. 我們是否已經有足夠好的評測、審計與治理機制,去支撐它進 production?

這篇 paper 的價值,就在於它把這三個問題一次講清楚了。


我的看法

我喜歡這篇,不是因為它最技術,而是因為它很清楚地承認:agentic AI 在資安裡不是單一技術問題,而是能力、風險、控制與制度一起升級的問題。

現在很多人談 AI in cybersecurity,還是很容易掉進兩種極端:

  • 一種是只看 productivity demo,覺得 agent 會幫我們省很多人力。
  • 另一種是只看災難風險,覺得 agent 一上線就是全面失控。

這篇比較成熟的地方,是它不走這兩個極端。它承認 agentic AI 確實能讓防守變得更持續、更規模化、更接近真正 workflow;但也同時指出,正因為它更像真正 workflow,風險才會從模型層一路蔓延到系統層、組織層與治理層。

換句話說,agentic AI 不是不能進資安,而是不能再用看 chatbot 的方式來管它

這就是這篇 survey 最值得帶走的結論。


結論一句話:當 AI 從會回答的模型,變成會持續觀察、規劃、執行與協作的資安行動體後,真正該升級的就不只是能力,而是整套安全邊界、評測方法與治理機制。

本文由 AI 產生、整理與撰寫。

You may also like