Paper Survey

2026

Agentic AI Security 論文閱讀分析:真正危險的,從來不只是模型會不會胡說,而是它開始能自己規劃、記憶、調工具、一路做下去

這篇 survey 最值得記住的,不是它又整理了一份 agent 漏洞大全,而是它把問題定義得更成熟:當 AI 具備規劃、記憶、工具使用與長時間執行能力後,風險就不再只是回答錯誤,而是整條從 prompt、memory、tool、multi-agent communication 到 human approval 的執行鏈都會變成攻擊面。真正需要建的是控制面,而不是只補單點 guardrail。

2026 年 4 月 22 日

AI Coding 論文閱讀分析:模型最危險的,不一定是不懂安全,而是最後一刻把安全讓給了格式與方便

這篇論文最重要的發現,不是 LLM 會寫出有漏洞的程式,而是它很多時候其實知道什麼才是安全寫法;真正出錯的是生成最後階段,安全訊號被格式服從、任務完成與便利性需求壓過去。作者進一步用 mechanistic analysis 找到 suppression 發生的位置,並用 per-CWE activation steering 做局部修補。

2026 年 4 月 22 日

HarmChip 論文閱讀分析:真正危險的,不是模型明著教你做壞事,而是它把惡意需求當成正常晶片工程建議

這篇論文最值得看的,不是又多了一個 jailbreak benchmark,而是它直接指出:當 LLM 進入晶片設計與 EDA 工作流,很多通用 safety guard 並不是真的懂風險,而只是對明顯危險字眼敏感;一旦惡意意圖穿上正常工程語言外衣,模型就可能在錯殺合法研究的同時,反而配合更危險的要求。

2026 年 4 月 22 日