HadAgent 論文閱讀分析:很多去中心化 AI 真正缺的,不是更多節點,而是先證明那些節點真的有老實算
本文由 AI 產生、整理與撰寫。
論文基本資訊
- 論文標題:Harness-Aware Decentralized Agentic AI Serving with Proof-of-Inference Blockchain Consensus
- 作者:Boyang Li
- 年份:2026
- 來源:arXiv:2604.18614
- 論文連結:https://arxiv.org/abs/2604.18614
- DOI:10.48550/arXiv.2604.18614
- 主題:AI Infrastructure Security、Agentic Systems、Proof of Inference、Blockchain Consensus、Runtime Governance、Distributed Systems
這篇論文最值得看的,不是它又把區塊鏈和 AI 湊在一起,而是它抓到一個最近越來越現實的基礎設施問題:很多去中心化 AI 系統真正缺的,不是更多算力,而是先證明你花出去的算力到底是不是在做可信、可驗證、沒被偷改的推論。
過去很多區塊鏈共識機制最大問題,是把大量 GPU / CPU 燒在對外部世界沒有直接價值的 hash puzzle。另一邊,agentic AI serving 正在瘋狂吃掉 GPU,但大多數系統又很難回答幾個關鍵問題:
- 這次 inference 真的是用指定模型、指定條件跑出來的嗎?
- 節點回傳的結果有沒有被改寫、偷換、或只做了部分計算?
- 當某些節點品質不穩、惡意、或只是開始 drift 時,整個網路怎麼在不中斷服務下把它們隔離出去?
這篇提出的 HadAgent,本質上是在回答:能不能把區塊鏈的共識成本,改寫成真正有用的 deterministic inference work,並且再往前一步,把 serving node 的信任管理也做成一個 harness-aware runtime?
這篇在解什麼問題?
作者想處理的,不只是「如何做去中心化 AI」,而是更具體的兩個結構性矛盾:
- PoW 很耗資源,但對 AI inference 沒幫助;
- 分散式 AI serving 雖然能攤平算力,但很難保證節點真的老實、結果真的可信。
這個 framing 很重要。因為很多去中心化 AI 設計,只停在「把模型部署到更多節點」;但真正進 production 後,麻煩通常不是 deployment 本身,而是:
- 驗證成本能不能壓到足夠低;
- node reputation / trust management 能不能跟 runtime 事件一起更新;
- tamper detection 與服務延遲之間怎麼取捨;
- 系統怎麼避免被一批低品質節點慢慢污染。
HadAgent 的出發點,就是把這些問題綁成同一件事:不只是共識,還包括 inference integrity、節點分級、heartbeat 監控,以及對不可靠節點的自動剔除。
核心想法:把共識改成 Proof-of-Inference,讓 GPU 至少做點有用的事
HadAgent 最直覺的想法,是把傳統 hash-based mining 換成 Proof-of-Inference(PoI)。也就是說,節點不是靠算無用 puzzle 來拿 block creation rights,而是靠執行可重算、可驗證、條件固定的 deterministic LLM inference 來拿到記帳權。
這個設計有兩層意思:
- 第一層是效率敘事:同樣在燒 GPU,至少把它拿去做有產出的推論,而不是純 hash。
- 第二層是安全敘事:既然共識建立在 inference 上,那驗證的關鍵就變成同一個 forward pass 能不能被別的節點在相同條件下快速重算確認。
作者主打的就是後者。只要推論條件足夠 deterministic,cross-node verification 就不需要重演整個複雜流程,而只要重跑單次 forward pass 即可,這讓共識驗證速度比較有機會貼近 serving 實務。
不是只有 PoI,真正有意思的是它把 serving runtime 做成 harness-aware trust loop
如果只有 PoI,這篇還只是「把 AI inference 拿來當共識工作量」。真正比較有味道的地方,是它再加了一層 harness-aware 設計。
HadAgent 會把次級節點分成兩類:
- trusted nodes:有較好歷史行為,可先走 optimistic execution,直接即時服務;
- non-trusted nodes:需要經過完整共識驗證,不能先享受快路徑。
而決定誰該被信任的,不是靜態 whitelist,而是一個持續更新的 runtime harness。這層 harness 會做幾件事:
- heartbeat probes;
- 透過 deterministic recomputation 做 anomaly detection;
- 自動化 trust management,讓誠實節點逐步升級、可疑節點被降級或隔離。
這點很關鍵,因為它把問題從「單次推論對不對」拉高成「這個節點在長時間 serving 裡是否持續值得信任」。很多 AI infra 真正會壞掉的地方,不是一次性的明顯作弊,而是節點品質 drift、偶發性篡改、或只在部分請求上偷偷偷懶。如果沒有持續性的 harness,這種 degradation 很難被抓。
區塊資料結構也有設計感:三條獨立 lane,把資料、模型、證明拆開
論文裡另一個值得記的點,是 block body 被拆成三條 lane:
- DATA
- MODEL
- PROOF
每條 lane 都有自己的 Merkle root。這樣做的意思,不只是「結構看起來比較乾淨」,而是方便做fine-grained tamper detection:你可以比較直接地知道被動到的是資料紀錄、模型紀錄,還是證明材料本身。
對 AI serving 來說,這比傳統「一整包紀錄簽起來」更貼近真實需求。因為 inference integrity 真正要追的,往往不是單一 payload 是否被改,而是:
- 模型版本是否被偷偷替換;
- 輸入 / 輸出紀錄是否被回填或竄改;
- 證明路徑是否和實際執行對得起來。
最值得記的數字:不是又一個漂亮 demo,而是 integrity / latency / trust convergence 三條線一起交代
從摘要看,HadAgent 給出的關鍵結果有幾個:
- tampered records detection rate 100%;
- false positive rate 0%;
- record 與 hub operation validation latency 低於 1 ms;
- 對抗節點可在 2 rounds 內被排除;
- 誠實節點可在 5 rounds 內晉升為 trusted。
這幾個數字合在一起,比單講 throughput 更有意義。因為它們回答的是部署者真正會問的三件事:
- 你抓不抓得到竄改?
- 你為了抓竄改付出的驗證延遲大不大?
- 你的節點治理到底是死規則,還是真的會收斂?
如果這些數字能在更大規模下站得住,HadAgent 的價值就不只是概念性「AI + blockchain」,而是開始碰到 AI infra integrity plane 這個方向:讓 serving network 不只會分散算力,還會分散式地維持可驗證性。
這篇真正碰到的,是去中心化 AI 的 control placement 問題
我覺得這篇最值得拿走的,不是 PoI 本身,而是它在回答一個越來越重要的問題:
當 AI serving 不再是單機房、單供應商、單節點的事,完整性控制點到底要放在哪?
很多團隊的直覺,是把 control 放在 gateway、wrapper、或後端稽核。但 HadAgent 的思路比較像:把 integrity 驗證、節點分級、行為監控與共識機制本身綁在一起。
這個方向的好處,是不容易被單一路徑旁路;壞處則是系統複雜度會上升,而且對 deterministic execution 的依賴很強。換句話說,這比較像是把治理前移到 substrate 層,而不是事後加審計外掛。
我的看法
這篇 paper 我會把它看成一種很典型、但不討喜地必要的基礎設施論文:它不是在秀模型更聰明,而是在問如何讓一群節點一起提供 agentic inference 時,不至於把「誰算的、算了什麼、結果有沒有被改」全部交給運氣。
我覺得它最好的地方有三個:
- 把去中心化 AI 的價值從算力共享,拉回 inference integrity;
- 沒有停在 PoI,而是往前做了 harness-aware trust management;
- 結果不是只報 throughput,而是交代了 detection、latency 與 trust convergence。
但它也有幾個很明顯的現實挑戰:
- PoI 能成立,多半仰賴相當強的 deterministic inference 假設;
- 模型、硬體、量化設定與 execution environment 的一致性,會直接影響可驗證性;
- prototype 的子毫秒驗證與小輪次 trust convergence,能否在更大規模、更多模型與更不乾淨的網路環境下維持,還要再看;
- 區塊鏈本身帶來的治理與運維複雜度,未必適合所有 AI serving 場景。
所以我不會把它看成「區塊鏈終於拯救 AI」這種故事,而比較像是:它在試圖把去中心化 AI serving 的可信執行問題,從鬆散的 node reputation 機制,改寫成一個可驗證、可收斂、可持續監控的 runtime substrate。
重點整理
- HadAgent 想解的不是單純分散式部署,而是去中心化 agentic AI serving 的 inference integrity 與節點治理問題。
- 核心機制是把傳統 PoW 改成 Proof-of-Inference (PoI),讓節點靠 deterministic LLM inference 取得 block creation rights。
- 驗證的關鍵前提是:同條件下的 forward pass 可被其他節點快速重算確認,因此 cross-node verification 不必重演整個繁重流程。
- 系統把 block body 拆成 DATA / MODEL / PROOF 三條 lane,分別以獨立 Merkle root 保護,方便做細粒度竄改檢測。
- HadAgent 不只做共識,也做 harness-aware trust management:透過 heartbeat probes、deterministic recomputation 與 anomaly detection,持續調整節點信任等級。
- trusted nodes 可走 optimistic execution 提供即時服務;non-trusted nodes 則必須經過完整驗證,這讓延遲與風險可以分層處理。
- 摘要報告的關鍵結果包括:100% tamper detection、0% false positives、sub-millisecond validation latency。
- 在 trust convergence 上,adversarial nodes 可在 2 rounds 內被排除,honest nodes 可在 5 rounds 內晉升 trusted。
- 這篇最重要的訊號是:去中心化 AI 真正缺的,不只是共享算力,而是把可驗證推論、節點聲譽與 runtime governance 一起做進基礎設施層。
Takeaway
這篇論文真正提醒我們的,是當 AI serving 走向多節點、跨組織、甚至去中心化時,最大的風險不一定是算力不夠,而是你根本沒辦法持續驗證那些算力到底在幫你做什麼。
HadAgent 給出的答案,是把 proof-of-inference、tamper evidence、node trust convergence 與 harness-aware runtime monitoring 接成一套 substrate。它不見得是所有人都該直接照抄的架構,但至少抓得很準:AI infra 真正缺的,往往不是更大的模型,而是更硬的 execution integrity。
