Mastiporuto Senia

2026

LLMVD.js 論文閱讀分析:很多 Node.js 漏洞真正卡住的,不是找不到 sink,而是最後證不出它真能打

這篇論文真正補到的,不是又一個會喊這裡可能有洞的 AppSec agent,而是把 LLM 放進 exploit-oriented confirmation loop:先找候選、再寫 PoC、再跑 oracle,把 Node.js 漏洞發現從 pattern matching 往真正 exploitability 拉近。公開 benchmark 上確認率 83.75%,在 260 個新發布 npm packages 中最後人工驗證出 36 個有效漏洞。

2026 年 4 月 23 日

Synthetic Trajectory 隱私論文閱讀分析:很多 synthetic data 真正先外洩的,不是內容長得太像,而是 membership 早就被看穿

這篇論文真正有價值的地方,是把 synthetic trajectory 的常見幻覺拆開來看:很多研究一直在談 utility,卻沒有把 membership leakage 當成同等級風險正式驗證;作者不只整理 utility taxonomy,也證明某些看起來比較私密的模型仍可能在 membership inference 下高分失守。

2026 年 4 月 23 日

NeuroTrace 論文閱讀分析:很多 adversarial example 真正難抓的,不是哪層特徵太會藏,而是整次推理早就走歪了

這篇論文真正有價值的地方,不是又做出一個高分 adversarial detector,而是把檢測視角從局部 activation 訊號,往整次推理的 inference provenance 拉了一步。NeuroTrace 用 IPG 把 forward pass 變成可保存、可分析的執行證據,並在 cross-attack 與 cross-threat transfer 下展現很強的偵測力。

2026 年 4 月 23 日

PPFT 論文閱讀分析:很多 LLM 隱私真正先失守的,不是回答,而是 prompt 一開始就裸奔上雲

這篇論文真正有價值的地方,不只是再做一個 prompt 遮罩技巧,而是把「不要把原始 prompt 明文送上 server」做成同時支撐 inference 與 fine-tuning 的 text-free pipeline。PPFT 以 client-side encoder、k-pooling、Laplace noise 與 server-side alignment/adaptation,在 prompt privacy 和模型 utility 之間給出一個比既有基線更可部署的折衷。

2026 年 4 月 23 日

CTIGuardian 論文閱讀分析:很多 CTI 模型真正先外洩的,不是被打穿,而是你親手拿私有資料把它教太熟

這篇論文真正有價值的地方,是把一個很多團隊會忽略的風險講白:當你用私有 CTI 資料把模型 fine-tune 得更懂安全,也可能順手把它教成更會洩密的系統;作者提出的 CTIGuardian,則嘗試用 few-shot 的 privacy alignment 在不重訓整顆模型的前提下補這條洞。

2026 年 4 月 23 日