AI Governance

2026

AI 補助審查論文閱讀分析:很多高風險評分流程真正缺的,不是再多一份原則,而是證明它當時真的這樣跑

這篇 paper 真正有價值的,不是把 TEE 套到 grant review,而是把高風險 AI 評分流程裡最常被忽略的 execution evidence 補回來:當模型和 rubric 不能完全公開、結果又必須可申訴時,真正需要的不是更多信任口號,而是能證明它當時真的照宣稱方式執行的 attested bundle。

2026 年 4 月 29 日

AUTO-ART 論文閱讀分析:很多模型安全真正缺的,不是再多跑幾個 attack,而是先審評測是不是在騙你

這篇論文真正補的不是又一個 attack 套件,而是把 adversarial robustness evaluation 裡最常自欺的幾件事正面工程化:FOSC 抓 gradient masking、RDI 做 30× 快速 triage、multi-norm worst-case reporting 拆穿平均值幻覺。作者在 RobustBench top-10 models 上發現,worst-case multi-norm robustness 比單看 ℓ∞ 低 23.5 個百分點。

2026 年 4 月 23 日

AI 訓練合規論文閱讀分析:真正補不回來的,常常不是模型輸出,而是它當初吃資料的方式

這篇論文把很多 AI 公司最愛講的神話拆得很直接:如果問題發生在未授權資料的取得、複製與訓練吸收,那 machine unlearning、output filtering 與 inference-time guardrails 再重要,也不等於把前面的侵害行為 retroactively cure 掉。真正該被治理的是資料進門前的 lineage 與 process compliance。

2026 年 4 月 23 日

金融業 AI-Driven CTI 論文閱讀分析:真正卡住落地的,往往不是模型不夠強,而是整個信任與治理鏈根本還沒補齊

這篇論文最值得看的,不是它又證明 AI 對 CTI 有幫助,而是它把金融業遲遲不敢大規模落地 AI-driven CTI 的真正原因講清楚:shadow AI、只買授權不接流程、沒把攻擊者視角放進 threat model,以及模型本身根本還沒被當成需要監控與舉證的系統。

2026 年 4 月 18 日