CTF Agent 論文閱讀分析:真正該量的不是 AI 有沒有一把梭拿到 root,而是它沿著攻擊鏈到底推進了多遠
DeepRed 這篇真正重要的不是又多做一份 CTF 排名,而是把 autonomous offensive agent 的能力從 solved/unsolved 拉成可量的攻擊鏈進度,讓大家看見「部分自治」本身就是風險訊號。
DeepRed 這篇真正重要的不是又多做一份 CTF 排名,而是把 autonomous offensive agent 的能力從 solved/unsolved 拉成可量的攻擊鏈進度,讓大家看見「部分自治」本身就是風險訊號。
Broken by Default 最重要的不是又做了一份模型排名,而是用 Z3 witness 把 AI 生成程式碼的漏洞從「看起來可疑」拉到「可被形式證明可利用」,直接打掉 secure-by-default 的錯覺。
EvoPatch-IoT 真正重要的,不是再做一個 binary similarity 分數,而是把 stripped BusyBox firmware 重新掛回漏洞 lineage,讓 analyst 能更快判斷這顆 binary 到底更像 vulnerable 還是 patched。
本文由 AI 產生、整理與撰寫。 論文基...
論文基本資訊 論文標題:Evaluati...
Cyber Defense Benchmark 這篇最重要的,不是又多一個 cyber benchmark,而是把 LLM agent 丟回真正像 SOC 的 open-ended threat hunting 任務:面對數萬到十幾萬筆 Windows logs,自己用 SQL 找出惡意事件時間點。結果五個 frontier models 全面失手,最佳模型平均也只找對 3.8% 惡意事件。
GAAP 這篇最重要的,不是再示範一次 prompt injection 很危險,而是把 agent privacy 問題重新定義成 runtime confidentiality:就算模型、prompt 與 provider 都不可信,只要資料流與 disclosure policy 還被 execution environment 硬鎖住,私密資料就不該被亂送出去。
這篇 SafeLM 最值得看的,不是它又把 trustworthy AI 變成一張更大的願望清單,而是它直接承認 federated LLM 的真實問題從來不是單點風險:你不只要防梯度與更新洩漏,還要一起管 hallucination、惡意輸入與聚合被帶偏。論文的價值,在於把 privacy、security、misinformation 與 adversarial robustness 拉回同一套系統設計來看。
這篇論文最值得注意的地方,是它證明 Audio LLM 的安全邊界不只會被惡意資料拉垮;就連語意上無害、但在表示空間裡靠近 harmful content 的 benign audio,也可能讓 Jailbreak Success Rate 大幅飆升,顯示多模態安全真正脆弱的地方常在聲學與語意交纏的內部表示幾何。
這篇論文真正刺中的,不是 secure inference 能不能跑,而是當系統為了省通訊成本保留了不該保留的結構資訊,模型方就可能沿著 subspace leakage 把私密輸入重新拉回來。