DSFL 論文閱讀分析:很多跨機構詐欺防禦真正缺的,不是再多一個模型,而是讓大家能一起學又不用先交出資料
這篇 paper 真正補的,不是再替 federated learning 換一套口號,而是正面處理跨機構金融詐欺偵測最痛的三難題:既要合作學習、又不能把交易資料直接交出去,還得避免協定一擴大就太慢、或有人在更新路上亂塞壞東西。
這篇 paper 真正補的,不是再替 federated learning 換一套口號,而是正面處理跨機構金融詐欺偵測最痛的三難題:既要合作學習、又不能把交易資料直接交出去,還得避免協定一擴大就太慢、或有人在更新路上亂塞壞東西。
這篇論文最值得看的,不是又把 differential privacy 套進一個新領域,而是把資料共享真正麻煩的部分拉回桌上:同一份高敏資料,不同請求方、不同用途、不同歷史行為,根本不該吃同一個固定 privacy budget。X-NegoBox 把隱私預算改寫成可協商、可解釋、可在本地 sandbox 執行的 runtime decision process,核心不是「給不給」,而是「怎麼在不先交出生資料的前提下談出最小揭露的可接受方案」。
這篇論文真正有價值的地方,是把 synthetic trajectory 的常見幻覺拆開來看:很多研究一直在談 utility,卻沒有把 membership leakage 當成同等級風險正式驗證;作者不只整理 utility taxonomy,也證明某些看起來比較私密的模型仍可能在 membership inference 下高分失守。
這篇真正重要的提醒,是 DP 不該只停在理論參數;若沒有夠緊的 audit,把 synthetic data 說成「有隱私保證」往往只是合規感很強、assurance 很弱。
這篇論文真正重要的,不是再做一份 propaganda detection survey,而是把內容安全系統的隱私帳攤開來算:很多系統不是先輸在抓不到,而是為了抓到先收了過多 metadata、關聯與使用者層級訊號。PROMPT 把風險、緩解、合規與效能取捨放回同一張工程圖上。
論文基本資訊 論文標題:An Empir...
這篇論文把 eye-tracking 的核心難題講清楚:真正麻煩的不是能不能比較 scanpath,而是比較這件事本身,能不能在不交出原始視線軌跡的前提下完成。作者用 garbled circuits 把 scanpath similarity computation 搬進安全計算,讓儲存與比對都不必默認服務端能看明文。
Sherpa.ai 把 federated learning 裡最容易被低估的 joining layer 拉回安全核心:真正該保護的,不只是 identifier,而是連 intersection membership 也不該先被看光。