2026

論文閱讀分析|Memory Poisoning Attack and Defense:當 Agent 把錯誤真的記住,風險就不再只是當下那句 Prompt

這篇論文把 memory poisoning 從 demo 級攻擊拉回更接近 production 的條件:當系統已經有正常記憶時,攻擊不一定像空白環境那麼穩;但只要 retrieval top-k 放大,污染仍會重新浮上來。真正值得投資的不是單點 guardrail,而是 trust-aware retrieval 與整條 memory lifecycle 的治理。

2026 年 4 月 11 日

論文閱讀分析|No Attacker Needed:當共享記憶 Agent 真正出事時,污染你的不一定是攻擊者,也可能只是上一位使用者的脈絡

這篇論文把焦點從惡意 memory poisoning 轉向更接近 production 的問題:共享記憶 agent 可能把某位使用者局部正確的規則、格式與流程,錯當成通用知識套到下一位使用者身上。在 raw shared state 下, benign interaction 就能造成 57% 到 71% 的污染率。

2026 年 4 月 11 日

Who Governs the Machine? 論文閱讀分析:當 AI Agent 真正開始替企業做事,最危險的可能不是模型本身,而是那個沒人好好管的機器身份

這篇論文把 agent security 的焦點從 prompt 與 tool 風險往上拉到 machine identity governance:真正決定 AI 系統能不能代表組織行動的,是 service account、API token、delegation chain 與 non-human identity 怎麼被授權、審計與撤銷。問題常常不是模型會不會亂講,而是那個讓機器真的能動起來的身份平面到底有沒有被當成一級攻擊面管理。

2026 年 4 月 11 日