首頁 > 技術文章 > AI看懂你的臉,看懂你的眼——用戶體驗雲測試平台

技術文章

AI看懂你的臉,看懂你的眼——用戶體驗雲測試平台
更新時間:2022-07-28   點擊次數:1321次

1.    引言     

視覺是我們(men) 最重要的感官之一,使我們(men) 能夠看到我們(men) 周圍的世界。我們(men) 的眼球運動包含重要的信息,我們(men) 的麵部表情也是如此。通過觀察用戶的眼球運動,以及注視和麵部表情,我們(men) 可以更多地了解潛意識過程。這可以通過眼球追蹤技術來完成。結合麵部表情分析技術,這為(wei) 用戶體(ti) 驗、客戶偏好和欣賞提供了寶貴的見解。

長久以來表情和眼動分析就被用於(yu) 用戶體(ti) 驗研究的相關(guan) 項目中,表情和眼動的定量化分析方法,能夠幫助用戶研究人員,更加準確的了解和描述用戶的產(chan) 品使用過程,為(wei) 產(chan) 品原型、產(chan) 品素材、宣發材料等各種材料提供更加科學和客觀的驗證結果。

比如MEUX在21年與(yu) 諾達思合作的一項研究中就通過眼動的方式探究視頻類APP,標題在視頻窗口上方或下方,對用戶瀏覽模式的影響。

還有用戶體(ti) 驗界大名鼎鼎的尼爾森諾曼集團,在2020年發表的文章中提到,他們(men) 在眼動分析項目中,發現用戶在瀏覽產(chan) 品頁麵時會(hui) 存在“割草機模式”的瀏覽習(xi) 慣,也即習(xi) 慣從(cong) 頁麵內(nei) 容左上角開始,向右移動到末尾,然後向下折返瀏覽。

 

1.png

 

還有早在06年的時候,魯汶大學的研究者就是用FaceReader軟件,對用戶產(chan) 品使用過程中的愉悅體(ti) 驗進行測量,發現用戶瀏覽網站時,看到網站相關(guan) 設計亮點時,會(hui) 不自覺地流露出積極的麵部表情,當用戶遇到困難或者對內(nei) 容感到困惑時,會(hui) 流露出負麵的麵部表情。

 

2.png

 

1.1什麽(me) 是眼動分析? 

      眼動追蹤是一種測量眼球運動的技術,可以知道一個(ge) 人在看什麽(me) ,他們(men) 在看什麽(me) ,以及他們(men) 的目光在特定位置停留了多長時間。用戶視線停止移動的區域稱為(wei) “注視”,注視是我們(men) 視覺注意加工信息的最基本單元,而用戶眼睛在注視點之間的移動稱為(wei) “眼跳”。通過可視化呈現,我們(men) 可以看到眼睛在頁麵上的瀏覽路徑。

通過觀察我們(men) 如何閱讀文本,可以理解“注視”和“眼跳”這兩(liang) 個(ge) 概念。我們(men) 經常聽到高效的讀者“掃描”文本。在眼球運動方麵,一個(ge) 高效的讀者往往有較小的注視點和更長的眼跳,而較弱的讀者往往有更長的注視時間和更短的眼跳。差異可以在下圖中清楚地看到。左邊的那個(ge) 是一個(ge) 更強的讀者,可以快速輕鬆地在文本中移動,而右邊的那個(ge) 是一個(ge) 較弱的讀者。

 

3.png

 

      眼動分析一般是通過一個(ge) 專(zhuan) 用的硬件——眼動儀(yi) ,捕捉用戶在使用產(chan) 品時,用戶的注視點位置。眼動儀(yi) 是一個(ge) 比較精密的科研儀(yi) 器,集成了外攝像機、紅外燈,以及最重要的眼球識別的技術。眼動分析的開展離不開專(zhuan) 業(ye) 的硬件,這也就意味著設備的使用成本較高,並且相關(guan) 專(zhuan) 業(ye) 人員的培養(yang) 也是不小的投入。由於(yu) 這類的問題,使得眼動技術雖然能很好反應用戶使用產(chan) 品的完整過程,但隻有在一些較大的公司才會(hui) 使用到該技術。

1.2什麽(me) 是麵部表情分析?

     麵部表情分析則是通過一個(ge) AI算法,學習(xi) 了人類分類表情的基本規則,進而定量化的輸出用戶在使用產(chan) 品期間,或者關(guan) 鍵的事件點上,表情變化的基本強度值。該算法能通過一個(ge) 普通攝像機拍攝的畫麵,自動找到用戶麵部500個(ge) 特征點,並進行建模,進而計算出用戶7中基本表情的強度值,和20個(ge) 微表情動作單元的變化。由於(yu) 是純軟件的算法,因此已經有雲(yun) 分析平台了,使用者隻需要上傳(chuan) 自己希望測試的材料或者網頁連接,便能夠輕鬆完成大樣本的定量表情測試。

1.3結合兩(liang) 種手段的優(you) 勢

       這兩(liang) 種生物測量的技術手段在實際用戶體(ti) 驗研究項目中各有優(you) 劣,眼動能夠較好的還原用戶的認知過程,比如用戶在尋找自己訂單信息時,首先會(hui) 在哪些地方尋找,他看到哪些信息後,會(hui) 產(chan) 生點擊“我的”這個(ge) 操作,這樣認知信息的還原基本能回到產(chan) 品體(ti) 驗中遇到的70%的問題,而另外30%則是用戶使用產(chan) 品過程中的情緒感受的結果。比如用戶尋找訂單時,哪些關(guan) 鍵時刻讓他產(chan) 生眉毛下降的表情動作,哪些版本的界麵設計能讓用戶在較高情緒效價(jia) 水平下完成任務。

       因此很多的研究者也試圖同時使用這兩(liang) 種工具,來進行產(chan) 品相關(guan) 研究,比如2015年的時候蒙德拉貢大學的研究者就提出了將兩(liang) 者結合的方法,並將這種方法稱為(wei) 眼臉分析係統,研究者使用這樣的多維度測量手段,能更加全麵的對產(chan) 品進行體(ti) 驗評估。

 

4.png

 

Eyeface由兩(liang) 個(ge) 計算機工作站組成,每個(ge) 工作站都運行特定的工具,即眼球追蹤和麵部表情識別。對於(yu) 這項研究工作中,Facereader的網絡攝像頭安裝在眼球追蹤設備的頂部。因此對普通的用戶研究人員,要使用這樣的多通道的分析技術,幾乎不現實,而所有問題的症結就在於(yu) 眼動分析需要有額外的硬件,沒法做到*的遠程在線收集數據。

隨著近年來AI技術的逐步發展,和相關(guan) 模型算法的完善,通過一個(ge) 普通攝像頭識別用戶的眼動逐漸變得可行,基於(yu) 這樣的背景下,諾達思公司聯合了位於(yu) 阿姆斯特丹的VicarVision,一起開發了一套通過普通攝像頭識別用戶眼動的算法,並將該算法集成到了在線麵部表情分析平台中,使得以往隻能在實驗室由專(zhuan) 業(ye) 研究者開展的測試,變成了一個(ge) 人人都能夠使用的在線分析平台。

2.    AI同時識別眼動和表情的原理介紹

該技術發源於(yu) 荷蘭(lan) 地方政府資助的一個(ge) 科研ICT高科技項目,NoldusVicarVision花費了近24個(ge) 月,開發一個(ge) 突破性的係統,使用簡單的網絡攝像頭跟蹤眼球運動。結合現有的麵部表情分析,就能夠提供先進的解決(jue) 方案,用於(yu) 測量使用筆記本電腦、平板電腦或智能手機的用戶的體(ti) 驗感受。

 

 

2.1評估瞳孔大小:一項具有挑戰性的任務

對於(yu) 瞳孔直徑的估計,我們(men) 實施並分析了兩(liang) 種方法:一種是基於(yu) 使用經典計算機視覺(經典CV)的方法,一種是基於(yu) 深度學習(xi) 的方法。兩(liang) 種方法都對虹膜圖像進行了分割,使虹膜圖像中間的區域與(yu) 眼睛的瞳孔相近,見深度學習(xi) 方法(左上圖)和經典CV方法(右圖)的處理步驟示例。在測試中,使用了手動標注的圖片和Tobii nano pro(眼動儀(yi) )瞳孔直徑輸出。可以分析的圖片數量有差異,深度學習(xi) 方法可以分析*的圖片,經典方法可以分析70%的圖片。

在整個(ge) 數據集中,我們(men) 對結果進行了充分的混合。一些被試的某些任務,測量的瞳孔大小和真值之間有很強的相關(guan) 性(r = 0.86),但其他的任務卻沒有顯示出任何相關(guan) 性。平均來說,有一個(ge) 中度的正相關(guan) ,兩(liang) 種方法的表現相似(DLr = 0.39 vs. CVr = 0.37)。有幾個(ge) 被試中發現了強烈的正相關(guan) ,但這些人都是藍眼睛,沒有眼鏡。瞳孔和周圍虹膜之間的強烈對比對於(yu) 瞳孔大小的估計很重要。這對顏色較深的眼睛和用光反射覆蓋瞳孔的眼睛來說是一個(ge) 挑戰。相比之下,紅外光有一個(ge) 優(you) 勢,因為(wei) 不可見的紅外光可以照亮虹膜而不幹擾瞳孔的大小。另一個(ge) 困難是缺乏合適的數據集。大多數可用的數據集隻存在於(yu) 紅外線中,缺乏可見光的特征問題。

我們(men) 的研究表明,在某些情況下,從(cong) USB攝像頭中估計瞳孔直徑是可能的,但還沒有準備好實施。未來的研究可以通過增加可用數據量和進一步改進預處理步驟來優(you) 化當前的方法。

2.2眼動跟蹤:已經可以落地使用

我們(men) 開發的EyeReader算法,可以估計用戶注視方向,並將其與(yu) 屏幕上的圖像聯係起來。神經網絡通過許多標記的屏幕位置和視頻記錄的數據集進行訓練,以學習(xi) 眼睛的圖像和注視向量之間的關(guan) 係。在一個(ge) 校準任務的幫助下,用戶跟隨屏幕上的點,屏幕上的2D XY點可以被定量解碼。用我們(men) 自己的驗證數據集進行的測試表明,該係統預測屏幕上的注視點的平均偏差為(wei) 2.4厘米(屏幕的平均偏差為(wei) 5.2%)。這與(yu) 市麵上其他競爭(zheng) 對手相當。結果顯示,與(yu) 單獨的屏幕相比,在筆記本電腦上執行的任務的準確度略高(見下麵的左圖)。這可能是由於(yu) 筆記本電腦的尺寸和固定位置。藍色和棕色的眼睛顏色之間沒有大的差別。眼鏡,當它很厚並且有光反射時,在某些情況下會(hui) 降低結果的準確性。

 

 

2.3EyeReader

當比較EyeReaderTobii Nano眼動儀(yi) (科研級)的注視估計時,發現每個(ge) 類別的總注視時間的估計之間有很強的相關(guan) 性(見上麵的右圖)。這些結果表明,EyeReader非常適用於(yu) 研究現實的用戶體(ti) 驗項目,可以通過該手段獲得一個(ge) 非常清晰的眼動結果。你可以在一個(ge) 靈活機動的實驗室環境中使用EyeReader,也可以在FaceReader Online平台中進行在線測試(見下麵的熱圖例子)。

 

2.4麵部表情識別

麵部表情識別係統,FaceReader是一個(ge) 用於(yu) 麵部分析的軟件。它可以檢測麵部表情。FaceReader已被訓練為(wei) 將表情歸入以下類別之一:快樂(le) 、悲傷(shang) 、憤怒、驚訝、恐懼、厭惡和中性。這些情緒類別被心理學家Ekman描述為(wei) 基本或人類統一的情緒。麵部表情的強度各不相同,而且往往是各種情緒的混合。此外,人與(yu) 人之間也有相當多的差異。

FaceReader可以對上述的表情進行分類。也可以自己軟件添加自定義(yi) 表情。除了麵部表情之外,FaceReader還提供了一些額外的分類。例如,它可以檢測目光方向以及眼睛和嘴巴是否閉合。

 

FaceReader根據以下步驟對麵部表情進行分類。

1.人臉識別。人臉在圖像中的位置是通過基於(yu) 深度學習(xi) 的人臉識別算法找到的,該算法在圖像中搜索不同比例的人臉區域。

該算法搜索圖像中不同比例的具有人臉外觀的區域。

2.麵部建模FaceReader使用了一種基於(yu) 深度神經網絡的麵部建模技術。它合成了一個(ge) 人工麵部模型,描述了468個(ge) 關(guan) 鍵點的位置。

描述臉部468個(ge) 關(guan) 鍵點的位置。它是一種單程快速方法,可以直接估計臉部的全部關(guan) 鍵點。在初步估計之後,關(guan) 鍵點用主成分分析法進行壓縮。這導致了描述臉部狀態的高度壓縮的矢量代表。

3.麵部分類。然後,通過訓練有素的深度人工神經網絡對麵部表情進行分類,以識別麵部的模式。

FaceReader直接從(cong) 圖像像素中對麵部表情進行分類。超過20,000張經過人工標注的圖像被用來訓練人工神經網絡。

該網絡被訓練用來對Ekman定義(yi) 的六種基本或普遍的情緒進行分類:快樂(le) 、悲傷(shang) 、憤怒、驚訝、恐懼和厭惡。此外,該網絡還被訓練用來對FaceReader中的麵部動作單元進行分類,以識別 "中性 "狀態和分析 "輕蔑"

3.    FaceReader-Online在線麵部表情眼動分析平台

麵部表情分析引擎自07年發布以來,經過16年迭代,目前已經到了第九版。16年間各地超過1000個(ge) 研究單位使用該軟件,發表超過3000篇科研論文。諾達思在此AI引擎的基礎上,結合微軟Azure雲(yun) 的優(you) 勢,開發了在線版的麵部表情分析係統FaceReader-Online(以下簡稱FRO)。

FRO通過情緒的捕捉與(yu) 分析,可以了解受測人員對商業(ye) 廣告、電影預告片、網站等的喜好度、注意力等,從(cong) 而為(wei) 客戶提供更客觀的評價(jia) 和見解。FRO可以創建一個(ge) 或多個(ge) 項目,簡言之,您隻需給被試發一個(ge) 測試鏈接,等待被試回應,完成測試後係統會(hui) 自動分析,結果清晰可見,非常方便快捷。

2022年,在新技術的加持下,FRO的分析引擎也增加了眼動分析功能,能通過受試者的電腦攝像機,自動識別用戶在瀏覽網頁、使用產(chan) 品原型時的情緒和注意力變化情況。

 

 

如何使用

隻需三步便可完成FRO的相關(guan) 設置:

1.    定義(yi) 你的項目;

2.    邀請用戶測試,收集數據;

3.    查看分析結果。

 

9.png

 

3.1定義(yi) 項目

在您從(cong) 諾達思獲取賬號後,可以通過鏈接訪問FRO平台,登錄之後隻需要選擇新建一個(ge) 分析項目即可。接下來您需要上傳(chuan) 您的測試材料,比如視頻廣告,或者相關(guan) App素材,測試原型鏈接等,之後您需要設置您的測試流程,如何時給用戶呈現視頻或圖片材料,原型測試鏈接的相關(guan) 指引,測試時長有多少,結束後是否添加相關(guan) 問題等。設置好試驗後,您可以進行相關(guan) 的預覽和測試。

 

 

3.2邀請用戶

        準備好測試相關(guan) 流程後,FRO會(hui) 自動生成一個(ge) 在線測試鏈接,您可以將該鏈接直接發送給被測試的用戶人群,也可以將該鏈接整合到你已有的問卷係統中。之後便可以輕鬆的在係統後台中看到測試的進度,以及收集到的數據質量。

3.3查看分析結果

       FRO會(hui) 對收集到的數據進行自動的分析,分析結束後我們(men) 便可以在後台看到收集到的相關(guan) 數據。分析數據前我們(men) 可以首先選擇對比的方式,我們(men) 可以對比不同用戶群體(ti) 在使用同一個(ge) 用戶界麵時的結果和感受,也可以對比多個(ge) 不同版本的用戶界麵設計。除此以外,也能夠對數據做清洗,去除錄像效果較差的數據。

 

11.png

 

添加結果之後,FRO會(hui) 以圖標和表格的形式呈現數據,直觀對比不同版本的材料間,用戶在完成測試腳本期間表情的變化情況,如下圖示例中,可以看到新版網站用戶在尋找相關(guan) 產(chan) 品信息時,表情更加積極;用戶在瀏覽舊網站時,會(hui) 有更多消極表情,而這些消極表情,主要是由於(yu) 用戶瀏覽網站過程中的困惑,困難產(chan) 生的,如用戶找不到相關(guan) 信息時會(hui) 不自覺的皺眉頭等。

眼動分析中,除了傳(chuan) 統的熱區圖以外,我們(men) 還能對感興(xing) 趣的頁麵區域做劃分,了解用戶進入當前頁麵瀏覽時第一次看到我們(men) 目標區域花了多長時間(首視時間),看相關(guan) 區域一共花了多長時間,以此可以定量對比不同版本的設計,對用戶產(chan) 生的具體(ti) 影響情況。

 

 

       限於(yu) 篇幅,我們(men) 僅(jin) 就麵部表情和眼動分析中的部分結果呈現做了展示,更多豐(feng) 富的內(nei) 容可以進入查看。也可聯係我們(men) 進行免費試用。

4.    應用前景

 

      在豐(feng) 富了FRO分析平台從(cong) 眼動到表情識別的分析能力後,FRO的應用方向迎來了更多的想象空間,除了傳(chuan) 統的一些用戶體(ti) 驗相關(guan) 的視頻或者圖片素材的測試外,還能對一些概念原型做相關(guan) 評估,包括但不限於(yu) 如下內(nei) 容:網頁網站的可用性評估、廣告創意評估、圖片材料評估、產(chan) 品貨架測試、產(chan) 品包裝測試、虛擬門店測試、行為(wei) 心理研究、預告片評估、精神疾病評估等。

     FRO能使得以往需要耗費數萬(wan) 元一次的線下眼動、表情測試,以標準化的線上測試的形式呈現,用以往五分之一的價(jia) 格,便能完成一次表情+眼動的定量實驗研究,特別是在疾病流行的當下,能幫助客戶更加高效的開展遠程的用戶體(ti) 驗測試項目。


 

關(guan) 注諾達思公眾(zhong) 號,獲取更多產(chan) 品信息及學術文章!

諾達思公眾(zhong) 號.png

 

分享到:

返回列表 | 返回頂部
上一篇 : 水迷宮實驗的原理、材料及實驗方法分析    下一篇 :  放養密度對南美白對蝦攝食行為的影響
網站首頁 公司簡介 星空体育登录入口网页版 招聘中心 技術支持 星空体育登录入口网站 聯係我們
地址:北京市朝陽區廣順北大街33號院6號樓507
GoogleSitemap
諾達思
  • 電話/傳真

    86-10-84852246

在線客服