《電子技術(shù)應用》
您所在的位置:首頁 > 嵌入式技術(shù) > 業(yè)界動態(tài) > 基于局部特征和整體特征融合的面部表情識別

基于局部特征和整體特征融合的面部表情識別

2008-10-09
作者:劉 松 應自爐

  摘 要: 提出融合局部特征和整體特征的方法實現(xiàn)人臉" title="人臉">人臉面部表情特征的提取。在每一個人臉圖像上測量10個距離,把這些距離標準化后作為局部表情特征,用Fisher 線性判別提取面部表情的整體特征;為了解決小樣本問題,采取“PCA+FLD”的策略,先通過PCA把人臉圖像向量投影到一個較低維的空間,再通過標準的FLD提取表情特征。融合后的特征輸入到基于反向傳播的前向型神經(jīng)網(wǎng)絡進行分類。在耶魯大學yaleface數(shù)據(jù)庫和日本ART建立的日本女性表情數(shù)據(jù)庫(JAFFE)上實驗,得到令人滿意的結(jié)果。
  關(guān)鍵詞: 局部特征 整體特征 表情識別 FLD PCA 神經(jīng)網(wǎng)絡


  隨著人機交互研究的深入和巨大的應用前景,人臉面部表情識別已經(jīng)成為當前模式識別和人工智能領(lǐng)域的一個研究熱點。在過去幾十年內(nèi),研究者已經(jīng)提出了很多用于面部表情識別的方法[1]。目前的人臉面部表情識別方法可以分為兩種:基于局部特征和基于整體特征的。基于局部特征的人臉面部表情識別是利用每個人的面部特征(眉毛、眼睛、鼻子、嘴巴和面部輪廓線等) 的位置、大小及其相互位置的不同進行特征提取" title="特征提取">特征提取,達到人臉面部表情識別的目的。基于人臉整體特征的識別是從整個人臉圖像出發(fā),提取反映人臉整體的特征實現(xiàn)人臉面部表情識別。基于局部特征的方法很大程度上減少了輸入的數(shù)據(jù),但是用有限的特征點" title="特征點">特征點來代表人臉圖像,一些重要的表情識別和分類信息就會丟失。為了彌補局部特征的這些不足,本文用 Fisher 線性判別提取面部表情的整體特征,然后通過局部特征和整體特征的融合來提高識別率。Fisher準則函數(shù)就是為了發(fā)現(xiàn)這樣的投影方向,使得樣本類間離散度和樣本類內(nèi)離散度的比值最大。換言之,就是在這樣的投影方向,同一個類的樣本聚集在一起,而不同類的樣本相對比較分散。
1 面部表情特征的提取
1.1 局部特征的提取

  人臉由眼睛、鼻子、嘴巴、下巴等部件構(gòu)成,正因為這些器官的形狀、大小和相對位置的各種變化才使得人臉表情千差萬別。因此對這些器官的形狀和結(jié)構(gòu)關(guān)系變化的幾何描述,可以作為人臉表情識別的重要特征。最早,研究人員利用人臉特征顯著點導出一組用于識別的特征進行人臉及其表情識別[2] 。本文在人臉圖像上標記24個面部特征點,如圖1所示。


  由這24個面部特征點形成12個測量距離" title="測量距離">測量距離,距離與面部特征點之間長度的對應關(guān)系如表1。表1中tij表示面部特征點i和j之間的直線長度,di表示第i個測量距離。
  由這些測量距離歸一化,即按照下式形成表征面部表情的特征:
  
1.2 整體特征的提取
  Fisher線性判別(FLD),也稱為線性判別分析 (LDA),是基于樣本的類別進行整體特征提取的有效方法,在模式識別中有著廣泛的應用。設訓練樣本集共有N 個訓練樣本{x1,…,xN},分為c類{x1,…,xc},每一類的均值為: μi=xk;總均值為:μxk;第i類樣本的離散度矩陣為:

  由于最多只有c-1個非零廣義特征值,因此m的最大值為c-1。
  在人臉面部表情識別研究中,所面臨的一個問題是小樣本問題,即用于訓練的圖像數(shù)目N是遠小于每幅圖像的像素數(shù)目。本文采用“PCA+FLD′策略,先將訓練樣本的人臉圖像向量投影到一個較低維的空間,使類內(nèi)分布矩陣為非奇異的。可以通過PCA將特征空間降為N-c維,然后通過標準的FLD 將維數(shù)降為c-1。通過PCA將人臉圖像投影到N-c維特征空間:
  
  需要指出的是, Wpca的優(yōu)化是基于由正交列向量組成的n×(N-c)維矩陣,而Wfld的優(yōu)化是基于由正交列向量組成的(N-c)×n維矩陣,在計算Wpca時只丟掉了最小的c-1維主成分向量。
2 前向型神經(jīng)網(wǎng)絡
  本文用基于反向傳播算法的前向型多層神經(jīng)網(wǎng)絡識別人臉面部表情,為了更好地提高人臉面部表情的識別率,如何優(yōu)化設計網(wǎng)絡結(jié)構(gòu)和參數(shù)是關(guān)鍵。對于網(wǎng)絡的大部分參數(shù),采取實驗修正的方法進行確定。本文采用的網(wǎng)絡結(jié)構(gòu)為三層:輸入層有15個輸入單元對應融合后的表情特征,隱含層用10個神經(jīng)元,網(wǎng)絡的輸出用兩個神經(jīng)元代表兩位二進制數(shù)表示不同面部表情。基于反向傳播的前向型神經(jīng)網(wǎng)絡的基本思想是據(jù)樣本集S={(x1,y1),(x2,y2),…,(xs,ys)}中的每一個樣本(xk,yk)逐一計算出實際輸出Ok的誤差測度El,對W(1),W(2),…W(L)各做一次調(diào)整,重復此循環(huán),直到ΣEp<ε。
  用輸出層的誤差調(diào)整輸出層權(quán)矩陣,并用此誤差估計輸出層的直接前導層的誤差,再用輸出層前導誤差估計更前一層的誤差。如此獲得所有其他各層的誤差估計,并用這些估計實現(xiàn)對隊矩陣的修改。形成將輸出端表現(xiàn)的誤差沿著與輸入信號相反的方向逐級向輸入端傳遞的過程。
  本文采用基于隨機梯度下降版本的BP算法完成人臉面部表情的分析與識別。具體的算法描述如下:
  (1)初始化,初始化所有網(wǎng)絡權(quán)值為小的隨機數(shù)。
  (2)直到終止條件do
  {
   對于每一個訓練樣本
   do 把輸入向前傳播到網(wǎng)絡并計算被考察的輸出
   按下式計算誤差,并把誤差反向傳播:
   對于每個網(wǎng)絡輸出單元k,計算其誤差量δk=ok(1-ok)(tk-ok)
     }
  結(jié)束
3 實驗過程和結(jié)果
  在兩個數(shù)據(jù)庫上進行實驗,從耶魯大學的yaleface數(shù)據(jù)庫中選取60幅人臉圖像作為實驗樣本,共15個人,4幅/人,其中訓練樣本56幅,14個人;4幅/人;測試樣本為剩下的4幅圖像,1個人,4幅/人,通過隨機變換訓練樣本和測試樣本,重復15次這樣的實驗。從日本女性表情數(shù)據(jù)庫中(JAFFE)選取120幅圖像作為實驗樣本,共10個人,12幅/人,其中80幅圖像作為訓練樣本,10個人,8幅/人;測試樣本為40幅圖像,10個人,4幅/人。通過隨機變換訓練樣本和測試樣本,重復12次這樣的實驗。人臉面部表情識別的步驟如下:
  (1)圖像的預處理。文獻[3]指出人臉識別" title="人臉識別">人臉識別的對象應該是純臉(pure face),而不應包括頭發(fā)、肩膀和背景等不相關(guān)的數(shù)據(jù)。如果待識別的人臉圖像中含有這些非純臉的信息,很有可能是這些信息對決策起關(guān)鍵作用,也不再是真正意義上的人臉識別。因此本文首先用人工的方法,對圖像做純臉部分的分割形成50×60的圖像。然后對純臉圖像進行標準化和歸一化處理,以便表情特征的提取和面部表情的分析與識別。
  (2)局部特征提取。首先在面部標記24個面部特征點,如圖1;然后按照表1的關(guān)系得到12個測量距離;最后按公式(1)把這些測量距離標準化后形成12維向量作為表征人臉面部表情的特征。
  (3)整體特征的提取。用Fisher線性判別提取面部表情特征,關(guān)鍵是如何解決小樣本問題,本文采取“PCA+FLD”策略。在耶魯大學yaleface數(shù)據(jù)庫上用m=N-c=52維特征向量構(gòu)造特征子空間。在JAFFE上用m=N-c=76維特征向量構(gòu)造特征子空間,其中N為訓練樣本數(shù)目,c為類別數(shù);然后FLD變換到c-1=3維特征空間作為表示面部表情特征的一部分特征。
  (4)特征融合。本文表征面部表情特征的局部特征與整體特征融合在一起,形成15維特征,,把X輸入到神經(jīng)網(wǎng)絡的輸入層。
  (5)表情識別。本文用15×10×2基于反向傳播的前向型神經(jīng)網(wǎng)絡進行人臉面部表情的分析與識別。對于網(wǎng)絡參數(shù),例如隱含層神經(jīng)元數(shù)目等本文采取實驗修正的方法。表2和表3分別是yaleface 數(shù)據(jù)庫和日本女性表情數(shù)據(jù)庫(JAFFE)上的識別結(jié)果。


參考文獻
1 Maja Pantic,Leon J. M .Rothkrantz. Automatic Analysis of Facial Expressions: The State of the Art, IEEE Trans. On Pattern Analysis and Machine Intelligence, 2000;2(12)
2 T. Kanade. Computer recognition of human faces. Basel &Stuttgart:Birkhauser Verlag. 1977
3 Li-Fen Chen. Why recognition in a statistics-based face recognition System should be based on the pure face portion: a probabilistic decision-based proof. Pattern Recognition, 2001;34(1):1393~1403

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 色悠久久久久久久综合网伊人 | 菠萝菠萝蜜在线免费视频| 国产精品视频二区不卡| 一个人看的片免费高清大全 | 农村乱人伦一区二区| 试看120秒做暖暖免费体验区| 国产特级毛片AAAAAA| 7777久久亚洲中文字幕| 天天做天天爱夜夜爽毛片毛片| 三级国产4国语三级在线| 日本免费小视频| 久久综合久久网| 极品肌肉军警h文| 亚洲日韩AV一区二区三区四区 | 2021国产麻豆剧果冻传媒电影| 天天做天天躁天天躁| 一级特黄色毛片免费看| 无码无套少妇毛多18PXXXX| 久久精品国产亚洲AV果冻传媒| 欧美三级免费观看| 亚洲成a人片在线观看www| 污网站免费在线观看| 偷窥欧美wc经典tv| 精品久久8X国产免费观看| 呦交小u女国产秘密入口 | 娃娃脸中文字幕1080p| 中文字幕亚洲综合久久| 无翼乌全彩我被闺蜜男口工全彩| 久久婷婷色一区二区三区| 最近中文国语字幕在线播放| 亚洲制服丝袜一区二区三区| 欧美日韩综合精品一区二区三区| 亚洲精品美女在线观看| 焰灵姬你下面好紧| 人妻少妇精品视频一区二区三区| 第四色亚洲色图| 农村老熟妇乱子伦视频| 精品人妻伦一二三区久久| 动漫美女羞羞网站| 精品国产麻豆免费网站| 又大又硬又爽免费视频|