AI 訓練合規論文閱讀分析:真正補不回來的,常常不是模型輸出,而是它當初吃資料的方式
這篇論文把很多 AI 公司最愛講的神話拆得很直接:如果問題發生在未授權資料的取得、複製與訓練吸收,那 machine unlearning、output filtering 與 inference-time guardrails 再重要,也不等於把前面的侵害行為 retroactively cure 掉。真正該被治理的是資料進門前的 lineage 與 process compliance。
2026 年 4 月 23 日
