Runtime Governance

2026

AI Agents 安全論文閱讀分析:很多 agent 真正缺的,不是再多一條 prompt guardrail,而是把 delegation 和執法權拆乾淨

這篇 Security Considerations for Artificial Intelligence Agents 最有價值的,不是再列一份 agent threat list,而是把問題拉回 delegation 與 privilege control:當 agent 會自己拿資料、叫工具、跨服務做事,真正該治理的就不只是 prompt 有沒有髒,而是誰在替誰做決定、誰在替誰動手、最後哪一層真的有權說不。

2026 年 4 月 29 日

SkillGuard-Robust 論文閱讀分析:很多 agent skill 真正缺的,不是再多一個 prompt filter,而是載入前先把整個 package 審清楚

這篇論文真正補到的,不是再提醒一次 agent skill 可能有毒,而是把問題往前推成 package-level pre-load auditing:當 skill 由 SKILL.md、scripts、reference docs 與 repo context 組成時,真正該審的不是單一句子,而是跨檔案風險鏈。作者提出 SkillGuard-Robust,把審計拆成結構化證據抽取、選擇性語意驗證、衝突鏈仲裁與 rewrite 一致性整合,提醒我們 skill 供應鏈安全的核心其實更像 admission control,而不是單純 prompt moderation。

2026 年 4 月 29 日

ClawCoin 論文閱讀分析:很多 Agent 經濟真正缺的,不是再多一條支付 rails,而是先把算力成本變成可結算的事實

這篇論文真正重要的,不是發明一個給 AI 用的新幣,而是點破 agent 經濟裡真正被消耗的其實是供應商綁定、價格會變、不可攜的推理成本。ClawCoin 試著把 compute-cost exposure 做成可報價、可 escrow、可多跳結算的單位,讓 agent 協作不再只是在轉移購買力,而是開始對齊 execution capacity。

2026 年 4 月 23 日

Owner-Harm 論文閱讀分析:很多 Agent 真正先傷到的,往往不是別人,而是部署它的自己人

這篇論文最值得注意的,不是它又多列幾個 agent 風險,而是它把一個很多產品團隊其實已經遇到、卻沒被正式建模的問題講清楚:agent 很可能先傷害的不是外部世界,而是自己的 deployer。作者把這類風險定義為 Owner-Harm,並指出某套在 AgentHarm 上達 100% TPR / 0% FPR 的 safety system,面對 AgentDojo 中 prompt-injection-mediated owner-harm tasks 時卻只剩 14.8%。

2026 年 4 月 22 日