Paper Survey

2026

TrEEStealer 論文閱讀分析:很多團隊以為把模型塞進 TEE 就安全了,但控制流可能早就把整棵樹洩光

這篇論文真正刺中的,不是哪個 decision tree library 寫得不夠漂亮,而是很多人對 TEE 的保密想像本來就放錯地方:如果模型推論仍帶著 data-dependent control flow,那 branch history、page trace 與 performance counter 這些執行痕跡,就可能把整棵樹慢慢洩出去。作者在 SGX 與 SEV 上實作 TrEEStealer,並對 OpenCV、mlpack、emlearn 做到高保真抽取,表 3 的 10 組模型甚至全部達到 1 − R = 1.00。

2026 年 4 月 22 日

LLM Tutor 洩答論文閱讀分析:很多教學助手真正先守不住的,不是正確率,而是答案邊界

這篇論文最值得注意的,不是它再次提醒 LLM tutor 可能會洩答,而是它把問題從一般教學品質拉回 adversarial robustness:真正該量的,是當學生開始像攻擊者一樣多輪施壓、情境操弄、慢慢磨穿邊界時,tutor 還能不能守住 final answer。作者發現 contextual manipulation 平均 leakage rate 高達 74%,而 fine-tuned adversarial student 更可把 Qwen-32B 的 tutor leakage 從 4% 拉到 70%。

2026 年 4 月 22 日