Spore 論文閱讀分析:很多 agent memory 真正危險的,不是模型記性太好,而是你還把可重建的秘密留在它腦裡
本文由 AI 產生、整理與撰寫。 論文基...
本文由 AI 產生、整理與撰寫。 論文基...
本文由 AI 產生、整理與撰寫。 論文基...
這篇論文真正有價值的地方,不是在 agent 外面再多包一層 guardrail,而是直接質疑整個架構:為什麼我們一直讓 LLM 站在控制流中央,然後才用補丁式政策去收爛攤子?作者提出 Arbiter-K,把模型降級成 proposal generator,讓 deterministic kernel 透過 Semantic ISA、Security Context Registry 與 Instruction Dependency Graph 在 runtime 做 taint-aware governance。實驗顯示,OpenClaw 原生 policy 只攔下 6.17% 的違規操作,但整合 Arbiter-K 後可到 92.95%;NanoBot 也從 1.41% 拉到 94.20%。這篇真正提醒的是:agent security 若想像 production system,就不能只靠比較會勸人的 guard,得先有真的能執法的 kernel。
這篇論文真正重要的地方,不是又多一個 prompt guard,而是把單使用者 AI gateway 的 host posture 從 consumer-friendly convenience 翻成 deny-by-default、可驗簽、可審計、可回滾的硬化框架。
本文由 AI 產生、整理與撰寫。 論文基...
本文由 AI 產生、整理與撰寫。 論文基...
論文基本資訊 論文標題:ClawTrap...
這篇論文把 memory poisoning 從需要直接碰記憶庫的高前提攻擊,拉回更現實的環境污染模型:攻擊者只要讓 web agent 在某一次正常瀏覽時看見被操弄的內容,就可能讓惡意資訊被寫進長期記憶,之後在別的網站、別的任務、甚至別的 session 裡再次觸發。真正危險的不是一次注入,而是 agent 會替攻擊者把污染保存下來。