Eye Tracking 隱私論文閱讀分析:真正敏感的不是你看了哪,而是別人能不能拿你的視線軌跡一直比下去

本文由 AI 產生、整理與撰寫。

論文基本資訊

  • 論文標題:Secure Storage and Privacy-Preserving Scanpath Comparison via Garbled Circuits in Eye Tracking
  • 作者:Süleyman Özdel、Vedad Işler、Sena Mutlu
  • 年份:2026
  • 來源:arXiv:2604.19422
  • 論文連結:https://arxiv.org/abs/2604.19422
  • DOI:10.48550/arXiv.2604.19422
  • 主題:Privacy Engineering、Garbled Circuits、Eye Tracking、Biometric Privacy、Secure Computation

這篇論文有意思的地方,不是在於 eye tracking 本身,而是它碰到一個很典型、也會一路延伸到更廣泛感測資料與行為生物特徵場景的問題:

有些資料的價值,正好來自它非常個人化;也因此,一旦你想對它做比對、分析與儲存,隱私風險通常就跟著一起長出來。

scanpath 是使用者在畫面上觀看時的視線移動軌跡。它對 HCI、VR、行為研究、注意力分析與可用性研究都很有價值,但也天然帶著高度個人化訊號。這使得一個看似單純的任務──比較兩段 scanpath 有多像──在真實部署裡很快變成隱私工程問題:如果你要把原始 gaze sequence 交給服務端、分析商或第三方處理者,那你幾乎等於把可高度識別、可再利用的行為資料直接交出去。

這篇 paper 的核心主張很清楚:既然 scanpath comparison 是必要操作,那更合理的方向不是假設資料持有者會永遠被信任,而是把比對本身搬進可驗證的安全計算裡。

這篇在解什麼問題?

作者關心的是 privacy-preserving scanpath comparison。換句話說,他們不是只想把 gaze data 加密存起來,而是要進一步讓下列事情同時成立:

  • 資料可以被安全儲存
  • 系統仍然能計算 scanpath similarity
  • 運算過程不洩漏雙方原始輸入
  • 資料擁有者甚至可以在離線情況下,讓服務端協助完成部分處理

這個需求其實很典型。很多隱私問題不是「要不要分析」,而是想分析、也得分析,但不想因此把原始資料的控制權整個交掉

在 eye tracking 場景裡,這尤其敏感,因為 gaze path 不只是一般 telemetry。它可能透露注意力模式、閱讀策略、操作習慣,甚至成為身份或健康狀態的側寫線索。當這些資料開始進入 VR、mobile 與更日常的 consumer platform,問題就不只是研究倫理,而是產品級的 privacy-by-design。

方法核心:把比較運算搬進 garbled circuits

作者採用的主要技術路線是 garbled circuits(GC)。如果用比較直白的方式講,GC 做的事情是:讓兩方可以在不互相揭露輸入的前提下,安全地共同計算某個函數的結果。這篇裡那個函數,就是各種 scanpath similarity/comparison 演算法。

論文提出兩種設定:

  • two-party setting:資料擁有者與處理者共同計算 similarity score,但彼此不看到對方原始資料
  • server-assisted setting:scanpath 以加密形式儲存與處理,資料擁有者可以離線,由 server 協助完成比較流程

這個設計值得注意的地方,在於它不是只處理「傳輸要加密」這種基本題,而是進一步處理計算階段本身也不能當成可信黑盒。也就是說,真正被保護的不只是 at-rest 或 in-transit,而是 in-computation

作者把解密與 comparison 都放進 GC 裡執行,這代表服務端即使參與運算,也不應直接看到明文 scanpath。這種思路對更廣泛的隱私計算場景很有參考價值:只要你的商業價值來自比對、排序、相似度計算,那就該考慮連運算過程都一起縮進隱私邊界。

它實際評估了什麼?

作者在三個 eye-tracking dataset 上評估方法,觀察幾個面向:

  • 與 plaintext 計算結果相比,secure computation 的 fidelity 是否接近
  • runtime 與 communication overhead 是否能接受
  • 在不同網路條件下是否仍可實際使用
  • 對 MultiMatch、ScanMatch、SubsMatch 等 scanpath comparison 方法的支援效果

論文的主要結果是:安全版本的比較結果和明文版本相當接近,而且在 runtime 與通訊成本上仍維持可行。這不是「零成本安全」,但它至少把問題從理論可行推進到工程上可以考慮部署。

這點很重要。因為很多 privacy-preserving computation paper 都容易停在「安全性很好,但實際上太慢」。這篇雖然不是超大型系統 benchmark,但它至少在真實資料與多種網路條件下顯示:scanpath 這類行為資料的私密比對,不一定非得在可用性與隱私之間二選一。

這篇真正值得記住的地方

我覺得這篇最值得留下來的,不是某個 scanpath 指標在 GC 裡跑多快,而是它代表一個更普遍的安全設計方向:

下一代感測資料系統真正需要保護的,不只是資料庫,而是「誰能看原始資料」這件事本身。

當越來越多產品開始蒐集 gaze、gesture、voice、biosignal、usage trace 這類高維行為資料,最危險的做法往往不是沒有加密,而是默認所有分析都必須建立在明文可見上。這篇 paper 等於提醒我們,至少對某些核心任務,這個前提其實可以被改寫。

它也讓人想到幾個更大的延伸方向:

  • 能不能把類似方法用在更一般的 behavioral biometric matching?
  • 能不能和 trusted execution、federated analytics 或 differential privacy 結合,形成分層保護?
  • 當感測資料不只被用來研究,而是直接進入商業產品決策流時,這種 secure comparison 會不會變成必要基礎設施?

限制與現實感

當然,這篇不是沒有邊界。

第一,它處理的是特定類型的 scanpath comparison,而不是一切 eye-tracking analytics。真實產品常常還包含更複雜的 session analytics、模型訓練、跨事件關聯與即時互動,這些成本可能比本文場景高得多。

第二,GC 雖然很適合做高保密運算,但一旦任務規模變大、資料長度增加、比較邏輯變複雜,效能壓力仍會快速上升。論文證明的是「這條路有實際可能」,不是「從此所有 gaze analytics 都能輕鬆私密化」。

第三,安全計算保住的是計算過程中的資料暴露,但不會自動解決所有治理問題。例如:

  • 誰有權發起查詢?
  • 比對結果本身是否可被濫用?
  • 長期 query pattern 是否會造成 side-channel 累積風險?

所以它比較像是把一塊很關鍵的工程地基補起來,而不是整棟隱私治理大樓一次蓋完。

我的看法

如果只用一句話講這篇的價值,我會說:

這篇不是在證明 eye tracking 很安全,而是在示範一種更成熟的產品安全觀:當資料太敏感,就別再預設「可分析」必須等於「可看見明文」。

對 sectools 的讀者來說,它也許不像 agent、RAG、CTI pipeline 那麼直接熱門,但它碰到的是同一個底層命題:當高價值資料需要被運算時,安全邊界到底該畫在哪裡?

這篇給的答案很務實:至少在 scanpath comparison 這件事上,邊界可以畫得比我們平常以為的更裡面一點。

You may also like