Split Learning 論文閱讀分析:很多企業想把 LLM 微調外包上雲,真正先外洩的不是模型,而是中間那層看起來不像資料的資料
本文由 AI 產生、整理與撰寫。 論文基...
本文由 AI 產生、整理與撰寫。 論文基...
這篇論文最值得看的,不是又把 differential privacy 套進一個新領域,而是把資料共享真正麻煩的部分拉回桌上:同一份高敏資料,不同請求方、不同用途、不同歷史行為,根本不該吃同一個固定 privacy budget。X-NegoBox 把隱私預算改寫成可協商、可解釋、可在本地 sandbox 執行的 runtime decision process,核心不是「給不給」,而是「怎麼在不先交出生資料的前提下談出最小揭露的可接受方案」。
這篇論文真正麻煩的地方,不是又多了幾句會 jailbreak 的 prompt,而是把 automated red teaming 從「改寫提示詞」往上抬成「改寫整個攻擊策略程式」。AutoRISE 讓 coding agent 直接編輯 strategy.py,根據固定 evaluation harness 回傳的成功率、多樣性、新穎性與覆蓋率訊號持續演化 attack pipeline。對防守方來說,這提醒我們真正要面對的可能已經不是 prompt collection,而是會自己換打法的攻擊者。
這篇論文真正值得看的,不是它再說一次 differential privacy 很重要,而是它把 LLM 隱私稽核拉回成可量測的工程流程:用 membership inference attack 當隱私 gauge、用 perplexity 當 utility gauge,持續調整 DP-SGD 直到兩邊都過線。更有意思的是,在狹窄且容易過擬合的微調情境下,DP 不只降低隱私風險,還可能順手壓住記憶化,讓模型的分布外效能反而更穩。
這篇論文真正值得看的,不是哪個 ECU 又被直接接管,而是作者把視角往下移到 ISO-TP transport layer:只要 Flow Control、Sequence Number、timeout、session override 等可靠性機制能被濫用,合法診斷流程就可能中止、失真,甚至回出被操弄的車況。對車廠與診斷工具供應鏈來說,這篇提醒的是:要保的不只是控制功能,還有那條用來判斷車子是否正常的診斷信任鏈。
這篇論文真正值得看的,不是它又替 adversarial training 補了一個技巧,而是它指出:很多 robustness 崩壞不是平均發生,而是低信心樣本上的錯誤訊號被一路放大,最後演變成 catastrophic overfitting 與 clean accuracy 的雙輸。作者提出 DDG,按樣本信心與預測狀態動態調整 perturbation 與 supervision,核心是在防禦訓練過程中先別把最脆弱的樣本打壞。
這篇論文真正值得看的,不是哪個 OS agent 又衝高了 task completion,而是它把評估標準拉回真實部署:安全、效能、時間與 token 成本、以及遇到視覺與文字干擾時的韌性。作者用 OS-SPEAR 對 22 個 OS agents 做四維評測,最重要的發現是效率常直接吃掉安全與 robustness,而「會完成任務」遠遠不等於「值得把 GUI 操作權交給它」。
這篇論文最值得看的,不是 autonomous offensive agent 又多會規劃,而是它開始正面處理真正的 execution risk:高風險 memory-corruption exploit 不能只在真機上慢慢試,而要先蒐集足夠環境脈絡,動態建立和目標儘量同構的 digital twin,把 libc、runtime state 與 file descriptor 行為對齊後,在隔離副本裡把 payload debug 到收斂,再回到實體目標做一次風險壓低的 one-shot execution。
本文由 AI 產生、整理與撰寫。 論文基...
本文由 AI 產生、整理與撰寫。 論文基...