Refute-or-Promote 論文閱讀分析:很多漏洞 AI 真正缺的,不是再多找幾個疑似洞,而是更狠地先把大多數假洞殺掉
Refute-or-Promote 真正重要的,不是又多一條 AI 找洞工作流,而是把 LLM-assisted vulnerability discovery 從「會不會報」拉回「能不能先大規模殺掉假洞」,把漏洞 AI 的核心瓶頸重新定義成 precision crisis。
Refute-or-Promote 真正重要的,不是又多一條 AI 找洞工作流,而是把 LLM-assisted vulnerability discovery 從「會不會報」拉回「能不能先大規模殺掉假洞」,把漏洞 AI 的核心瓶頸重新定義成 precision crisis。
Cyber Defense Benchmark 這篇最重要的,不是又多一個 cyber benchmark,而是把 LLM agent 丟回真正像 SOC 的 open-ended threat hunting 任務:面對數萬到十幾萬筆 Windows logs,自己用 SQL 找出惡意事件時間點。結果五個 frontier models 全面失手,最佳模型平均也只找對 3.8% 惡意事件。
這篇論文把 agent 安全往下挖到執行底座:若 edge device 上的 OS 與 hypervisor 都不該被完全信任,就需要用 Arm CCA 把 agent runtime、模型推論與第三方元件拆進可驗證的 confidential VMs。
這篇論文證明 cloud logs 本身就可能成為 indirect prompt injection 通道;一旦 debugging agent 既會讀 log 又能直接下命令,log 就可能從觀測資料變成控制入口。
PoC-Adapt 最關鍵的洞見是:自動漏洞重現真正卡住的,常常不是 exploit generation,而是 exploit verification。只看 crash、log 或 return code 這類表面訊號,很容易把 incidental behavior 當成成功;PoC-Adapt 用 Semantic Oracle 比對 pre/post execution 的結構化系統狀態,再配合 Adaptive Policy Learning 減少 trial-and-error,讓整條漏洞重現流程更像可靠的工程閉環。
SafeAgent 這篇論文真正有價值的,不是再做一個更兇的 prompt guardrail,而是把 agent 安全重新定義成沿著 retrieval、tool use、memory 與 action loop 持續演化的 runtime 治理問題。
TitanCA 這篇論文真正有價值的,不只是它喊出找到了 100+ CVEs,而是它把漏洞 AI 的關鍵瓶頸講白:不是單一模型多聰明,而是你能不能把 matching、filtering、inspection、adaptation 串成一條會逐步壓低誤報、把候選收斂成真漏洞的工作流。
RAVEN 這篇真正補上的,不是另一個會找 bug 的模型,而是把「找到漏洞」與「寫成可交付的根因報告」之間那段常被忽略的 documentation gap 拉成正式研究問題。它把 Explorer、RAG、Analyst、Reporter 拆成多代理流程,想讓 memory corruption 分析更接近 analyst-grade RCA,而不是只停在一句這裡可能有 overflow。
Towards Agentic Honeynet Configuration 真正有意思的,不是把 LLM 塞進 honeypot,而是把 honeynet 變成會根據 IDS 與攻擊進度動態調整暴露面的 intelligence collection system:有限預算下,重點不是露出更多假服務,而是持續露出攻擊者此刻最想咬的那一口。
這篇論文最值得看的,不是哪家模型又贏了幾題,而是它把 offensive cyber agent 的主因拆出來量:在同一個多代理框架與 200 題 NYU CTF Bench 下,Kali 工具環境比普通 Ubuntu 多出 9.5 個百分點 solve rate;反而很多看似聰明的 prompt engineering,在工具夠齊時只會把 agent 綁手綁腳。真正決定 agent 上限的,往往不是 prompt 花樣,而是 runtime substrate 有沒有先長對。