LLM Privacy

2026

PPFT 論文閱讀分析:很多 LLM 隱私真正先失守的,不是回答,而是 prompt 一開始就裸奔上雲

這篇論文真正有價值的地方,不只是再做一個 prompt 遮罩技巧,而是把「不要把原始 prompt 明文送上 server」做成同時支撐 inference 與 fine-tuning 的 text-free pipeline。PPFT 以 client-side encoder、k-pooling、Laplace noise 與 server-side alignment/adaptation,在 prompt privacy 和模型 utility 之間給出一個比既有基線更可部署的折衷。

2026 年 4 月 23 日

CTIGuardian 論文閱讀分析:很多 CTI 模型真正先外洩的,不是被打穿,而是你親手拿私有資料把它教太熟

這篇論文真正有價值的地方,是把一個很多團隊會忽略的風險講白:當你用私有 CTI 資料把模型 fine-tune 得更懂安全,也可能順手把它教成更會洩密的系統;作者提出的 CTIGuardian,則嘗試用 few-shot 的 privacy alignment 在不重訓整顆模型的前提下補這條洞。

2026 年 4 月 23 日