經過多年在人因工程技術創新領域的探索,津發科技自主研發的ErgoLAB人機環境同步平臺于2016年12月再次迎來重大更新并正式發布面部表情分析系統Facial Emotion Coding System(FECS)!
FECS面部表情分析系統簡介
面部表情分析系統 Facial Emotion Coding System(FECS)能夠實現在人機交互過程中實時同步記錄面部表情并進行數據分析。采用三維模型識別人臉并定位面部肌肉特征點的位置計算和分類面部表情,可以全自動分類和識別七種表情下的情緒:
快樂(Joy)
憤怒(Anger)
驚訝(Surprise)
恐懼(Fear)
輕蔑(Contempt)
悲傷(Sadness)
厭惡(Disgust)
面部表情分析系統 Facial Emotion Coding System(FECS)通過圖像和視頻可以自動識別人的面部表情,可以區分心理狀態(積極,中性,消極),進行面部特征識別(內眼角、外眼角、鼻尖、嘴等),進行檢測(挫敗、困惑),評估頭部動作(頭部的三維轉動度數,包括pitch, yaw, roll),測定注視方向(左面、前面、右面)等。
人臉表情識別技術
心理學家 Mehrabian的研究結果表明,感情表達=7%的言詞+38%的聲音+55%的面部表情(Mehrabian, 1968)。表情作為人類情感表達的主要方式,其中蘊含了大量有關內心情感變化的信息,通過面部表情人們可以推斷內心微妙的情感狀態。但是,讓計算機讀懂人類面部表情所蘊含的情感并非簡單的事情。作為智能化人機交互的重要組成部分,人臉表情識別一直是備受關注的研究課題。人臉表情識別 (Facial Expression Recognition, FER)所研究的就是如何準確、地利用人臉表情所傳達的信息進行內心情感分析,其研究涉及圖像處理、機器視覺、情感計算及心理學等多個學科。
面部表情研究
研究表明,面部表情對于快樂、憤怒、驚訝、恐懼、輕蔑、悲傷、厭惡這七種情緒的表現具有普遍性。達爾文(1872)*個提出面部表情對于情緒表現的普遍性這一觀點,他認為情緒和它們的表現具有生物內在性和進化適應性,情緒及其表現的相似性體現在不同的生物種系中。
Tomkins(1964)*次用實驗證明了面部表情和情緒狀態相關。20世紀60年代,心理學家Paul Ekman提出了一套廣為接受的實驗方法:他將帶有不同面部表情的西方人照片展示給遠居世外的土著,然后問他們照片中的人表達了怎樣的情緒。隨后眾多研究人員通過大量研究發現,不同文化下的人都能夠正確地識別出這七中情緒下的面部表情。同時,在這七種情緒產生時,不同文化下的人也會產生相同的面部表情。
到目前為止,科學研究的結果都有力地證明了面部表情對于快樂、憤怒、驚訝、恐懼、輕蔑、悲傷、厭惡這七種情緒表現的普遍性。因此對于人機交互或心理學研究人員來說,分析面部表情能夠可靠有效地了解被試的情緒狀態,對于優化人機交互過程具有重要意義。
表情分析技術應用
以產品設計領域為例,研究人員能夠通過獲取消費者使用產品過程中的面部表情,分析他們對于產品真正的感覺和喜好,而不是僅僅依靠主觀測評或問卷來獲取相關信息,減少了研究中的主觀性和偏見。使用ErgoLAB人機環境同步平臺,還能夠在人機交互過程中同步采集和分析被試的腦電、眼動、生理、行為、肢體動作、生物力學、物理環境等數據,結合面部表情分析數據為產品的評估提供客觀的數據支撐。
研究領域
人機交互與人工智能:人類情感計算可以基于面部表情數據形成數據庫,并進行模式識別和機器學習,對于未來人機交互和人工智能研究具有重要意義。
人機界面設計與可用性測試:易用性和用戶界面的效率都能夠通過情感變化表達出來,面部表情在人機界面設計研究方面能夠提供非常有價值的信息。如在測試新開發的時,了解測試者觀看時會出現怎樣的情緒,觀察他們是否能很輕松地瀏覽。此外,人們更感興趣的是當測試參與者觀看的哪一個部分時,面部出現“喜悅”或“驚訝”的表情。
市場研究:對一個新型商業設計人們反應如何?例如,一個廣告能否使人們在適當的時刻發笑,或者在目標人群間是否存在差異。
消費者行為:研究參與者在特定的感覺測定系統中對刺激如何響應,如研究兒童食用不同食物時的行為。
心理學:在恐懼研究中人們對特定的刺激如何反應?使用面部表情分析系統去分析這些傳統刺激-反應實驗中的情緒表達,了解人們的反應:驚訝,生氣,喜悅等等。
醫學:識別特定腦神經心理活動發生的時間。
面部表情分析與人機環境同步技術
津發科技自主研發ErgoLAB人機環境同步平臺正式發布了面部表情分析系統模塊Facial Emotion Coding System(FECS),可實現與多元數據同步,完成多通道多模態大數據的整合統計與分析。隨著FECS面部表情分析功能模塊的發布,ErgoLAB人機環境同步平臺已經能夠實現在四種不同的實驗環境下進行定量的科學研究實驗(VR虛擬現實環境、虛擬仿真環境、實驗室和真實現場自然環境),實時同步采集腦電、眼動、生理、行為、面部表情、動作捕捉、生物力學和物理環境等多元數據,并進行綜合分析。面部表情數據可與其他模塊數據進行同步分析,例如觀察被試在露出害怕表情時心率、皮電的變化等。zui終數據可以用表格、圖表等可視化形式呈現并導出。
津發科技堅持自主研發與創新的發展道路,致力于人因工程與工效學技術創新與進步,為中國教育與科研事業的發展提供服務!
參考文獻
Darwin, C. (1872). The expression of emotion in man and animals. New York: Oxford University Press.
Mehrabian, A. (1968). Communication without words. Psychology Today, 2(4):53-56.
Tomkins, S. S., & McCarter, R. (1964). What and where are the primary affects? Some evidence for a theory. Perceptual and Motor Skills, 18(1), 119-158.
立即詢價
您提交后,專屬客服將第一時間為您服務