科技通報

跑跑卡丁车手游内测网站:字典學習優化結合HMAX模型的魯棒人臉識別

跑跑卡丁车手游内测时间 www.rxqdn.icu 點擊數:10    日期:2016-10-24 08:59:54

針對人臉識別中由于姿態、光照等變化而影響識別性能的問題,提出了字典學習優化結合HMAX模型的人臉識別方法
  

 摘 要: 針對人臉識別中由于姿態、光照等變化而影響識別性能的問題,提出了字典學習優化結合HMAX模型的人臉識別方法。首先,使用樣本圖像和從樣本獲得的仿射包模型聯合表示一幅圖像;然后,利用HMAX模型提取C2特征,并利用字典學習優化特征矩陣;最后,將視覺注意模型與原始模型的C2特征進行組合,并利用支持向量機完成分類。在Caltech和AR人臉數據庫上的實驗結果表明,相比其他幾種較新的人臉識別方法,提出的方法取得了更好的識別性能,對人臉表情和光照變化具有魯棒性。
關鍵詞: 人臉識別; HMAX模型; 魯棒性; 支持向量機(SVM); 字典學習優化
本文引用《現代電子技術
0 引 言
人類視覺系統可識別人臉,盡管光照、大小、位置、表情和視角有變化[1]。最近幾年,人臉識別及其在生物特征識別、模式識別和計算機視覺上的應用成為研究的熱點[2]?;諶肆呈侗鴟⒄溝男棖?,最近關于人類視覺系統和視覺注意的大腦機制引起了很多關注[3]。
視覺系統劃分為兩個主要處理流[4]:背側流(從主視覺皮層到頂葉皮層),其用于控制眼睛運動和視覺注意;腹側流(從主視覺皮層朝顳葉,包括V1,V2,V4,后顳(PIT)和前顳(AIT)),其處理目標和人臉的細節。背側和腹側流并不完全獨立,且在更高區域,例如前額葉皮層(PFC)和V4,通過相互影響連接交互[5]。
腹側流皮層的部分比喻已經用于典型計算機視覺中的許多計算模型中,但是,大部分模型僅模仿腹側流,而不考慮視覺注意和腹側流區域之間的連接。因此,改進必須集成視覺注意模型和分層腹側流模型[6]。這些模型中,基于特征組合的物體識別框架(HMAX)[7]是一種強大的計算模型,其建模視覺皮層中人類腹側視覺流的目標識別機制。文獻[8]中提出了具有學習能力的HMAX模型,增強了模型的性能。腹側流HMAX模型的C2特征用于人臉識別和手寫識別。近幾年,開發出了各種腹側流HMAX模型以增強該模型的效率,所有這些模型中,已有許多特征選擇方法[9?11]。文獻[9]提出了稀疏局部特征模型(SLF),是HMAX模型的擴展版本,該模型相比HMAX模型具有更好的性能,更加依賴視覺皮層。文獻[10]提出了視覺注意的基本計算模型,是大部分新模型的基礎模型,文獻[11]提出了基于HMAX模型和頻譜剩余方法的混合C2特征,增強了目標識別系統中HMAX模型的性能。上述方法在一定程度上改善了識別性能,然而,當姿態、光照、表情變化較大時,識別率卻嚴重下降,且很難同時對姿態、光照、表情等具有魯棒性[12]。
基于上述分析,本文提出了字典學習優化結合HMAX模型的人臉識別方法,創新點為:將HMAX模型提取的特征與原始C2特征進行組合,以通過視覺注意模型訪問人臉圖像顯著點的關鍵位置,從這些區域提取有效C2特征進行魯棒性人臉識別;提出的方法利用字典學習優化,可對HMAX模型提取的特征進行最優化,保留更多的有用信息。
1 人臉表示
使用樣本圖像和從樣本獲得的仿射包模型聯合表示一幅圖像,因為同時包括樣本和結構信息,所以該聯合表示更具魯棒性。令[Xc=[x1,x2,…,xnc]]表示第[c]個圖像集,其中,[xi]是第[i]幅圖像的特征向量,類的仿射包估計為:
2 人臉學習
2.1 利用HMAX模型提取特征
C1特征模擬皮層的V1&V2區域中的復雜細胞,具有相同特征類型(方向)作為S1,這些特征集中附近的S1特征(具有相同方向),以實現較大局部區域上位置和尺度不變,其結果也可子采樣S1,以減少特征數。C1特征的值是(方向)落在最大濾波器內的最大S1特征的值[8]。S1特征模擬視覺區域V4和后路推斷時間(PIT)皮層,包含調整目標?部分的類RBF單元并計算輸入C1塊和存儲的原型之間的距離函數。S2特征從隨機位置具有各種[n×n]([n×n]=4[×]4,8[×]8,12[×]12和16[×]16)大小和四個方向的[K(P=1,2,…,K)]個塊的訓練集學習(因此,大小為[n×n]的塊[P]包含[n×n][×]4個元素)。然后,S2特征扮演高斯RBF單元,計算輸入模式[X]和存儲的原型[P]之間的相似度分數(即歐氏距離):[f(X)=exp-X-P2(2σ2),]選擇的[σ]與塊大小成比例。C2特征模擬顳皮層(IT)并在整個視野執行最大運算,提供刺激的中間編碼。因此,對于每幅人臉圖像,計算C2的特征向量并用于人臉識別。這些特征具有魯棒性,C2特征的長度等于從圖像中提取的隨機塊數,平滑且具有尺度不變性。
2.2 非約束字典學習優化
得到最優[X∈RK×N]后,利用單獨的優化程序對[D]的每個原子項進行優化,令[dj∈Rm]為[D]的第[j]原子項,定義[xj?∈R1×N]的行向量為[X]的第[j]行,將[X]和所有原子項固定,改寫式(6),構建優化問題:
3 分 類
為了建模人臉識別系統,將HMAX提取的特征與原始模型C2特征合并,以增強用于人臉識別的C2特征,并使用支持向量機(SVM) [14]分類,完成人臉識別。本文提出的人臉識別方法框架,如圖1所示。
提出的人臉識別方法的過程如下:
(1) 從數據庫讀取人臉圖像并預處理;
(2) 對于每幅人臉圖像,用式(8)整合顏色顯著點、強度顯著點和方向顯著點,并選擇[N]個注意點;
(3) 從每幅人臉圖像創建S1和C1特征;
(4) 利用字典學習優化,獲取最優特征矩陣;
4 實驗評估
所有實驗均在64位Matlab 2012實驗環境下完成,計算機系統的配置為:英特爾酷睿2雙核處理器,2.66 GHz主頻和4 GB RAM。
4.1 人臉數據集
Caltech人臉數據集[15]包含450張人臉圖像具有不同光照和表情的27個對象。實驗使用18個人每人20幅圖像(Caltech人臉數據集的360張人臉圖像),隨機選擇每個人5張(90張人臉圖像)作為訓練樣本,剩下的用于測試(270張人臉圖像)。預處理方法中,圖像裁剪為228×228的尺寸,然后全部調整為140×140尺寸的圖像。圖2所示為Caltech人臉庫中某人的20種不同光照和表情下的人臉圖像示例。
4.2 參數變化分析
首先對參數[γ]和[λ]對識別率的影響進行分析,維度設為220,原子項數設為7,[λ]分別取1,0.1,0.01,0.001,[γ]分別取1,2,3,4,5,結果如圖4所示。
從圖4可以看出,在[γ]和[λ]變化幅度很大的情況下,提出的方法可以一直保持較高的識別率,表明提出的方法識別率受參數變化影響很小,即提出的方法對人臉表情和光照變化具有魯棒性。
4.3 識別結果比較
4.3.1 識別率比較
將提出的方法與文獻[7],文獻[10],文獻[11]方法進行比較,原子項設為7,記錄不同維度下各個方法的識別率,如圖5所示。
從圖6可以看出,隨著原子項總數的變化,提出的方法可以保持最高的識別率,表明提出的方法建立的字典既具有代表性,又具有局部保持性。
4.3.2 執行時間比較
為了評估本文方法的效率,對其執行時間進行評估。以全部樣本都用于訓練時的執行時間為基準,在執行時間、速度提升倍數方面將提出的方法與其他幾種方法進行對比,執行時間為字典學習和訓練數據投影的時間之和,如表1所示。
5 結 論
本文提出了字典學習優化結合HMAX模型的人臉識別方法,利用字典學習優化,可對HMAX模型提取的特征進行最優化,可保留更多的有用信息。將HMAX模型提取的特征與原始C2特征進行組合,通過視覺注意模型訪問人臉圖像顯著點的關鍵位置,從這些區域提取有效C2特征進行魯棒性人臉識別。參數分析表明本文方法對光照和表情變化具有魯棒性,不同原子項和不同維度下的識別結果表明,本文方法的識別率高于其他幾種較新的人臉識別方法。此外,本文方法的執行時間也明顯低于其他的方法,相比基準執行速度,最高可提升6.2倍。
未來會將本文方法應用于復雜和多樣背景下的人臉識別。此外,本文方法只使用SVM分類器,未來會利用其他的分類器,如人工神經網絡、模糊分類等,通過實驗進一步改善識別性能。
參考文獻
[1] 胡正平,李靜.基于低秩子空間恢復的聯合稀疏表示人臉識別算法[J].電子學報,2013,31(5):987?991.
[2] YANG A Y, ZHOU Z, BALASUBRAMANIAN A G, et al. Fast ?1?minimization algorithms for robust face recognition [J]. IEEE transactions on image processing, 2013, 22(8): 3234?3246.



王編輯
中聯論文網編輯
劉編輯
中聯論文網編輯
趙編輯
中聯論文網編輯
孫編輯
中聯論文網編輯
電話
18931176030
固話
0311-80693734
投稿郵箱
99期刊承諾發表不成功無條件退款!
客服系統