AI Coding 論文閱讀分析:真正危險的,常常不是模型明顯寫壞,而是把有洞的程式包裝成看起來能放心 merge 的答案
這篇論文最重要的提醒,是在一般、看似無害的 LLM 寫碼任務裡,功能正確不代表安全正確;真正麻煩的是那些會讓團隊產生錯誤安全感的輸出——程式能跑、測試能過、外觀看起來像樣,卻仍把漏洞一起交付出去。
這篇論文最重要的提醒,是在一般、看似無害的 LLM 寫碼任務裡,功能正確不代表安全正確;真正麻煩的是那些會讓團隊產生錯誤安全感的輸出——程式能跑、測試能過、外觀看起來像樣,卻仍把漏洞一起交付出去。
這篇 SoK 最值得看的,不是它再做一個 IDS 模型,而是它直接點破:很多 NIDS 研究真正和現場脫節的,不是因為沒再多做一點機器學習,而是因為研究從一開始就在量 sample-level classifier,而不是 SOC 真正要接手的事件、告警與營運成本。
這篇論文最值得看的,不是它又示範了一次多模態攻擊,而是它證明:在會保存長期記憶、之後再拿來做規劃的 agent 系統裡,一張今天看起來正常的圖片,也能變成明天悄悄接管推薦方向的 sleeper agent。真正的風險,不只是輸入有毒,而是有毒輸入被你收進記憶之後,還會被系統自己重新想起來。
這篇論文真正有意思的,不是再用 LLM 做一次文件摘要,而是把 Google Play 的 Data Safety Section 與 privacy policy 之間那條經常被忽略的 disclosure gap 變成可自動稽核的工程問題。
這篇論文最值得看的,不是它再次提醒 log 可能有隱私風險,而是它用 1,000 個 Android app 與 8,683 萬筆 log entries 告訴你:很多產品明明有 privacy policy,卻仍在 log 中洩漏 policy 沒提過的敏感資訊。問題不只是文件寫得不漂亮,而是 disclosure 與工程現場根本沒對齊。
這篇論文最有價值的,不是再把 attack graph 畫得更漂亮,而是把 process mining 從流量裡抓到的 exploitation evidence 餵回 Bayesian Attack Graph,讓風險評估不再只停在靜態 CVE 與理論路徑,而會隨著現場行為一起更新。
這篇論文最值得看的,不是又拿時間序列模型去套資安資料,而是很誠實地指出:漏洞 sighting 本來就是又稀又短又會突然爆量的事件流。真正有用的預測,不是硬把它當平滑曲線,而是承認它更像 count process,並把 forecasting 拉回 CTI 與修補優先序的實戰脈絡。
這篇論文最有意思的地方,不是再一次提醒 npm 供應鏈有風險,而是清楚指出:少數高頻老漏洞會沿著 dependency network 被整個生態反覆繼承,讓 JavaScript 供應鏈風險更像結構性傳染,而不是零星個案。
這篇研究最值得看的,不是 LLM 又多會寫 testcase,而是它把安全測試的焦點從泛泛 coverage 拉回真正有風險的 execution path:透過 code property graph、GNN 與 LLM 聯訓,讓模型更有機會精準打進指定 branch,而不是只靠 prompt 運氣。
這篇研究最值得看的,不是 LLM 又多會寫 code,而是它把安全教學往真正個人化推進一步:直接把特定 CWE 注入學生自己的程式裡,讓 secure coding 不再只是看陌生範例,而是回頭看見自己平常最可能怎麼把洞寫出來。