《電子技術應用》
您所在的位置:首頁 > 其他 > 設計應用 > 基于歐氏距離解纏的多角度跨庫人臉表情識別
基于歐氏距離解纏的多角度跨庫人臉表情識別
信息技術與網絡安全 11期
梁 廣
(中國科學技術大學 網絡空間安全學院,安徽 合肥230026)
摘要: 當前,人臉表情的識別受數據庫偏差和姿勢角度差異的影響。為了解決這個問題,提出了一個基于特征解纏的跨數據庫無監督學習模型。該模型包含三個主要策略:基于歐氏距離的多屬性解纏策略,表情特征內部的對比學習策略,對抗領域自適應策略。該方法首先得到表情、姿勢和庫相關的特征,并在歐氏空間解纏不同屬性的特征。對比學習可以使相同表情標簽的特征逼近,不同表情標簽的特征疏遠。對抗領域自適應策略使得未被學習的目標庫樣本和已學習過的源庫樣本的特征分布逼近。該方法在8個公開的數據庫上展開實驗,得到了充分的驗證。
中圖分類號: TP37
文獻標識碼: A
DOI: 10.19358/j.issn.2096-5133.2021.11.005
引用格式: 梁廣. 基于歐氏距離解纏的多角度跨庫人臉表情識別[J].信息技術與網絡安全,2021,40(11):29-36.
Euclidean distance disentanglement adaptive method for multi-view cross-database facial expression recognition
Liang Guang
(School of Cyberspace Science and Technology,University of Science and Technology of China,Hefei 230026,China)
Abstract: At present, the accuracy of face expression recognition is affected by database biases and posture variations. To solve this problem, this paper proposes a novel cross-database unsupervised learning model based on feature disentanglement. There are three strategies in this model:multiple attribute features disentanglement, contrastive learning within face expression feature, adversarial domain adaptation. The feature disentanglement can get expression-related, pose-related and database-related features, and try to separate the features of different attributes. Contrastive learning can make expression features of the same label closer, and expression features of the different labels as far apart as possible. Adversarial domain adaptive learning makes the unseen sample′s features closer to sample′s features of the training database. Our experiments are carried out on 8 databases and achieved state of the art results.
Key words : facial expression recognition;feature disentanglement;cross database;contrastive learning

0 引言

如今,人臉表情識別相關研究的熱度逐漸上升。相應的技術也應用于教育質量評估、刑事審訊等多個領域。然而,當前的很多研究主要關注于相同數據庫上的人臉表情識別,即訓練樣本和測試樣本都來自于同一個數據庫。由于不同表情數據庫在人種、背景和光照等存在差異,表情識別的效果受到很大的影響[1]。同時,人臉圖片也包含多個不同姿勢,不同姿勢之間的差異也導致了表情識別準確率的下降。研究者當前也在研究降低數據庫和姿勢所帶來影響的方法。

由于姿勢的差異對表情識別有明顯的影響,研究人員提出了三大類方法來消除表情識別中的姿態差異:姿勢規范化方法[2];單分類器方法[3-4];姿勢魯棒的特征方法[5-8]。由于正臉的表情識別準確率高于側臉,研究者使用姿勢規范化的方法將側臉圖像轉換成正臉圖像來進行識別表情。然而,用來測試的目標數據庫通常缺失同一個人的正-側臉數據對。這也導致了側臉圖像在通過生成式對抗網絡[9](Generative Adversarial Networks,GAN)生成正臉的過程中存在失真,影響表情識別效果。對于單分類器方法,研究者使用單個分類器來識別多種姿勢下的表情。這種方法需要大量不同姿勢的圖像來訓練單一分類器,而現實中很難得到足夠多的多角度圖像。而姿勢魯棒的特征方法嘗試訓練一個編碼器來生成對姿勢差異魯棒的表情特征。這種方法在特征層面降低了表情特征中的姿勢噪聲,同時不需要大量的目標數據庫樣本,也無需生成偽樣本。因此本模型選擇了姿勢魯棒的特征方法來降低姿勢差異。




本文詳細內容請下載:http://www.jysgc.com/resource/share/2000003845





作者信息:

梁  廣

(中國科學技術大學 網絡空間安全學院,安徽 合肥230026)


此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 美美女高清毛片视频免费观看| 91成人午夜性a一级毛片| 日韩资源在线观看| 亚洲明星合成图综合区在线| 男高中生大粗吊gvlive| 国产一区二区三区免费视频| 黄色软件视频在线观看| 国产精品久久久久影视青草| 97色偷偷色噜噜狠狠爱网站97 | 新梅瓶1一5集在线观看| 久久精品国产99久久丝袜| 欧美亚洲777| 亚洲永久精品ww47| 狠狠躁夜夜躁人人爽天天不卡软件| 午夜伦理在线观看免费高清在线电影| 色爱无码av综合区| 国产又粗又猛又大的视频| 久草视频免费在线| 国产精品αv在线观看| 18禁免费无码无遮挡不卡网站| 在地铁车上弄到高c了| avtt在线观看| 夫妇交换性三中文字幕| 一级做a毛片免费视频| 成人区人妻精品一区二区不卡网站| 久久久久久不卡| 日本免费一二区在线电影| 久久永久免费人妻精品| 日韩精品电影一区| 亚洲av成人一区二区三区| 欧美与黑人午夜性猛交久久久| 亚洲图片欧美另类| 欧美日韩欧美日韩| 亚洲欧美一区二区三区| 欧美老熟妇又粗又大| 亚洲的天堂av无码| 永久在线毛片免费观看| 亚洲精品乱码久久久久久不卡| 波多野结衣电影免费在线观看| 人妻无码久久一区二区三区免费| 男性玩尿眼玩法|