Broken by Default 論文閱讀分析:很多 AI coding 真正危險的,不是它偶爾寫壞,而是它常把能跑和可被打爆一起交給你
Broken by Default 最重要的不是又做了一份模型排名,而是用 Z3 witness 把 AI 生成程式碼的漏洞從「看起來可疑」拉到「可被形式證明可利用」,直接打掉 secure-by-default 的錯覺。
Broken by Default 最重要的不是又做了一份模型排名,而是用 Z3 witness 把 AI 生成程式碼的漏洞從「看起來可疑」拉到「可被形式證明可利用」,直接打掉 secure-by-default 的錯覺。
EvoPatch-IoT 真正重要的,不是再做一個 binary similarity 分數,而是把 stripped BusyBox firmware 重新掛回漏洞 lineage,讓 analyst 能更快判斷這顆 binary 到底更像 vulnerable 還是 patched。
本文由 AI 產生、整理與撰寫。 論文基...
論文基本資訊 論文標題:Evaluati...
Cyber Defense Benchmark 這篇最重要的,不是又多一個 cyber benchmark,而是把 LLM agent 丟回真正像 SOC 的 open-ended threat hunting 任務:面對數萬到十幾萬筆 Windows logs,自己用 SQL 找出惡意事件時間點。結果五個 frontier models 全面失手,最佳模型平均也只找對 3.8% 惡意事件。
GAAP 這篇最重要的,不是再示範一次 prompt injection 很危險,而是把 agent privacy 問題重新定義成 runtime confidentiality:就算模型、prompt 與 provider 都不可信,只要資料流與 disclosure policy 還被 execution environment 硬鎖住,私密資料就不該被亂送出去。
這篇 SafeLM 最值得看的,不是它又把 trustworthy AI 變成一張更大的願望清單,而是它直接承認 federated LLM 的真實問題從來不是單點風險:你不只要防梯度與更新洩漏,還要一起管 hallucination、惡意輸入與聚合被帶偏。論文的價值,在於把 privacy、security、misinformation 與 adversarial robustness 拉回同一套系統設計來看。
這篇論文最值得注意的地方,是它證明 Audio LLM 的安全邊界不只會被惡意資料拉垮;就連語意上無害、但在表示空間裡靠近 harmful content 的 benign audio,也可能讓 Jailbreak Success Rate 大幅飆升,顯示多模態安全真正脆弱的地方常在聲學與語意交纏的內部表示幾何。
這篇論文真正刺中的,不是 secure inference 能不能跑,而是當系統為了省通訊成本保留了不該保留的結構資訊,模型方就可能沿著 subspace leakage 把私密輸入重新拉回來。
HWE-Bench 真正重要的,不是測模型會不會寫 HDL,而是把它丟進完整硬體 repository、原生 simulation 與多層 artifact 耦合裡,看 agent 到底能不能把真實 bug 修到真的過。