AUTO-ART 論文閱讀分析:很多模型安全真正缺的,不是再多跑幾個 attack,而是先審評測是不是在騙你
這篇論文真正補的不是又一個 attack 套件,而是把 adversarial robustness evaluation 裡最常自欺的幾件事正面工程化:FOSC 抓 gradient masking、RDI 做 30× 快速 triage、multi-norm worst-case reporting 拆穿平均值幻覺。作者在 RobustBench top-10 models 上發現,worst-case multi-norm robustness 比單看 ℓ∞ 低 23.5 個百分點。
