Advancing Autonomous Incident Response 論文閱讀分析:很多 IR 自動化真正缺的不是更大的模型,而是先把 CTI 餵進可行動的上下文
論文基本資訊 論文標題:Advancin...
論文基本資訊 論文標題:Advancin...
這篇論文真正重要的地方,不只是把 ANN 搜尋做成更隱私,而是提醒大家:在 RAG、語義搜尋與 agent memory 時代,embedding 本身就是需要被當成高敏資產保護的安全邊界。
這篇 survey 最值得記住的,不是它又整理了一份 agent 漏洞大全,而是它把問題定義得更成熟:當 AI 具備規劃、記憶、工具使用與長時間執行能力後,風險就不再只是回答錯誤,而是整條從 prompt、memory、tool、multi-agent communication 到 human approval 的執行鏈都會變成攻擊面。真正需要建的是控制面,而不是只補單點 guardrail。
CAAF 這篇論文真正重要的,不是多 agent 編排本身,而是把 domain invariant 資產化成可驗證的 harness,透過 UAI、context firewall 與 state locking,讓高風險場景下的 agent workflow 從會說服人,走向可被機械驗證地收斂。
這篇論文真正重要的地方,不是又多一個 prompt guard,而是把單使用者 AI gateway 的 host posture 從 consumer-friendly convenience 翻成 deny-by-default、可驗簽、可審計、可回滾的硬化框架。
這篇論文真正重要的地方,不只是替 NFT 合約多抓幾個漏洞,而是提醒大家:權限控制從來不是單看有沒有寫驗證,而是要看整條控制流裡,敏感能力是否真的只留給對的人。
這篇論文的關鍵,不只是再收集一批 cyber 對齊資料,而是把 attacker 與 defender 的多輪對抗做成一個會持續產生標註對話、排名回饋與資料多樣性的 tournament flywheel。
RuleForge 論文閱讀分析:當 C...
這篇論文最重要的發現,不是 LLM 會寫出有漏洞的程式,而是它很多時候其實知道什麼才是安全寫法;真正出錯的是生成最後階段,安全訊號被格式服從、任務完成與便利性需求壓過去。作者進一步用 mechanistic analysis 找到 suppression 發生的位置,並用 per-CWE activation steering 做局部修補。
這篇論文最值得看的,不是又多了一個 jailbreak benchmark,而是它直接指出:當 LLM 進入晶片設計與 EDA 工作流,很多通用 safety guard 並不是真的懂風險,而只是對明顯危險字眼敏感;一旦惡意意圖穿上正常工程語言外衣,模型就可能在錯殺合法研究的同時,反而配合更危險的要求。