Clinical AI

2026

LLM 隱私稽核論文閱讀分析:很多防護真正缺的,不是再多一條規則,而是先量模型到底記住了多少

這篇論文真正值得看的,不是它再說一次 differential privacy 很重要,而是它把 LLM 隱私稽核拉回成可量測的工程流程:用 membership inference attack 當隱私 gauge、用 perplexity 當 utility gauge,持續調整 DP-SGD 直到兩邊都過線。更有意思的是,在狹窄且容易過擬合的微調情境下,DP 不只降低隱私風險,還可能順手壓住記憶化,讓模型的分布外效能反而更穩。

2026 年 4 月 29 日