Knowdit 論文閱讀分析:很多 DeFi 漏洞真正難抓的,不是 pattern 太少,而是經濟語意根本沒被寫成可驗證規格
Knowdit 把 smart contract audit 從單純找 code pattern,拉回 DeFi semantics、specification generation、harness synthesis 與 fuzz execution 串成的知識驅動驗證流程。
Knowdit 把 smart contract audit 從單純找 code pattern,拉回 DeFi semantics、specification generation、harness synthesis 與 fuzz execution 串成的知識驅動驗證流程。
這篇論文真正重要的,不只是證明各國 cookie banner 長得不一樣,而是量到不同法制與地理位置真的會改變第三方 tracker 何時被放行。對安全與隱私治理來說,關鍵不是文案,而是 request 在使用者同意前到底有沒有先飛出去。
這篇論文真正重要的,不只是全球量到 2.819 億個 IPv6 network periphery devices,而是它證明 IPv6 的風險從沒因為位址空間變大而消失,只是從亂掃問題變成 prefix intelligence、裸露服務與 LLM 工具外洩問題。
這篇論文真正關鍵的,不是再講一次 policy 要多嚴,而是指出只要 decision 和 state transition 仍然分兩步,execution-time admissibility 就可能在最後一刻蒸發。
這篇論文真正重要的,不只是又多一個 Android 掃描器,而是把很多團隊一直切開看的 mobile 與 backend 風險重新接回同一張 API 攻擊面地圖。
這篇論文真正重要的,不只是又做出一個 anomaly detector,而是把問題問對了:很多模型安全真正該檢查的,不只是 output 對不對,而是它是不是仍由正常、可信的內部機制產生。
這篇論文真正重要的,不只是又做了一個 secure federated learning 方案,而是把問題問對了:當 IoT 裝置最貴的是 active training phase,那些 data-independent 的密碼協定就不該繼續塞在那段 critical path 裡。
這篇論文真正刺中的,不是哪個 decision tree library 寫得不夠漂亮,而是很多人對 TEE 的保密想像本來就放錯地方:如果模型推論仍帶著 data-dependent control flow,那 branch history、page trace 與 performance counter 這些執行痕跡,就可能把整棵樹慢慢洩出去。作者在 SGX 與 SEV 上實作 TrEEStealer,並對 OpenCV、mlpack、emlearn 做到高保真抽取,表 3 的 10 組模型甚至全部達到 1 − R = 1.00。
這篇論文最值得注意的,不是它再次提醒 LLM tutor 可能會洩答,而是它把問題從一般教學品質拉回 adversarial robustness:真正該量的,是當學生開始像攻擊者一樣多輪施壓、情境操弄、慢慢磨穿邊界時,tutor 還能不能守住 final answer。作者發現 contextual manipulation 平均 leakage rate 高達 74%,而 fine-tuned adversarial student 更可把 Qwen-32B 的 tutor leakage 從 4% 拉到 70%。
這篇論文最值得看的地方,不是又做了一套 jailbreak framework,而是把 RLHF 系統裡 policy model 與 reward model 的共同失效面抓出來:如果 actor 跟 judge 共享同一種安全盲點,整條 alignment pipeline 會一起鬆手。