《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計應(yīng)用 > 基于深淺特征融合的人臉識別
基于深淺特征融合的人臉識別
2020年電子技術(shù)應(yīng)用第2期
趙淑歡
河北大學(xué) 電子信息工程學(xué)院,河北 保定071002
摘要: 針對傳統(tǒng)的淺層特征所提取特征的判別性有限、深度特征需要大量帶標(biāo)記樣本且訓(xùn)練過程耗時長的問題,提出一種深度及淺層特征融合算法用于人臉識別。首先提取人臉的HOG特征并進(jìn)行判別性降維;同時,提取人臉圖像的PCANet特征并降維;其次,將降維后的深淺特征進(jìn)行融合,并進(jìn)一步提取判別性特征;最后,采用SVM分類器進(jìn)行分類并在AR和Yale B數(shù)據(jù)庫上對算法進(jìn)行驗證。實驗結(jié)果證明,該算法能夠比單獨選用深度特征和淺層特征進(jìn)行分類達(dá)到更高的識別率,且對特征維數(shù)具有更強(qiáng)的魯棒性。
中圖分類號: TN919.8;TP183
文獻(xiàn)標(biāo)識碼: A
DOI:10.16157/j.issn.0258-7998.190950
中文引用格式: 趙淑歡. 基于深淺特征融合的人臉識別[J].電子技術(shù)應(yīng)用,2020,46(2):28-31,35.
英文引用格式: Zhao Shuhuan. Fusion of deep and shallow features for face recognition[J]. Application of Electronic Technique,2020,46(2):28-31,35.
Fusion of deep and shallow features for face recognition
Zhao Shuhuan
College of Electronic and Information Engineering,Hebei University,Baoding 071002,China
Abstract: The traditional method for feature extraction contains limited discriminant features, and the deep learning method need lots of labeled data and it′s time-consuming. This paper presents a method which fuses the deep and shallow features for face recognition. Firstly, the HOG feature is extracted from each images and the dimensionality reduction is followed; and the PCANet feature is extracted simultaneously and its′ dimension is reduced. Secondly, the fusion of the two types of features is conducted and discriminant features are extracted further. Finally, the SVM is adopted for classification. Experiments on the AR database verify the effectiveness and robustness of the proposed method.
Key words : face recognition;feature fusion;shallow features;deep features;HOG

0 引言

    人臉識別是模式識別和機(jī)器學(xué)習(xí)領(lǐng)域研究熱點之一,實際圖像中存在的遮擋、光照、姿勢、年齡等變化是人臉識別在實際應(yīng)用中遇到的主要挑戰(zhàn)。

    傳統(tǒng)算法是從圖像中進(jìn)行特征選擇和提取,降低復(fù)雜度,提高效率。特征選擇和特征提取都被視為子空間學(xué)習(xí)算法,因這些算法均是在一個新空間找到原始高維數(shù)據(jù)的低維表示。

    最著名子空間學(xué)習(xí)法有主成分分析(Principal Component Analysis,PCA)[1],該算法學(xué)習(xí)一個投影以保留數(shù)據(jù)的主要能量。由于其在數(shù)據(jù)重構(gòu)和能量保存方面的性能良好,因此在數(shù)據(jù)處理中PCA常作為數(shù)據(jù)的預(yù)處理技術(shù)。研究人員提出一些基于PCA的改進(jìn)算法,以進(jìn)一步提高PCA解決人臉識別問題的性能[2]。因PCA算法不能保留數(shù)據(jù)的幾何結(jié)構(gòu),研究人員提出LPP(Locality Preserving Projection)[3]、SPP(Sparsity Preserving Projections)[4]、NPE(Neighborhood Preserving Embedding)[5]。盡管這些算法在特征提取上各有優(yōu)點,但因其提取的特征缺乏判別能力[6],故不適用于分類問題。

    LDA(Linear Discriminant Analysis)是模式分類中常用提取判別性特征的算法之一[7]。LDA利用標(biāo)簽信息學(xué)習(xí)判別性投影矩陣,最大化類間距離,同時最小化類內(nèi)距離,以此提高分類準(zhǔn)確度。郝靜靜等人[8]結(jié)合PCA與LDA算法優(yōu)勢提高人臉識別性能。LDA還有很多變形以提高性能,例如:OLDA(Orthogonal LDA)[9]、ULDA(Uncorrelated LDA)[10]、2DLDA(2-Dimensional LDA)[11]。Wen Jie等人[12]提出一種魯棒稀疏LDA算法(Robust Sparse Linear Discriminant Analysis,RSLDA),提取的特征對噪聲和投影維數(shù)具有更強(qiáng)的魯棒性。

    針對人臉中特定問題,研究人員提出各種對應(yīng)算法,例如:為去除光照影響,文獻(xiàn)[13]提出一種光照正則化方法,引入了色度空間的概念;Hu Changhui等人[14]提出一種新的高頻特征和一種基于高頻的稀疏表示分類用于處理不同光照條件下的單樣本人臉識別;Du Lingshuang等人[15]用基于核范數(shù)的誤差模型描述測試樣本中的遮擋和污損;歐陽寧等人[16]將多種算法融合提出人臉圖像光照預(yù)處理算法。

    以上算法提取的特征均為淺層特征,這些特征在特定的數(shù)據(jù)和任務(wù)中性能優(yōu)異,但大多數(shù)淺層特征普適性差[17],對于新的數(shù)據(jù)和任務(wù)需要新的域知識。

    針對淺層特征的局限性,深度學(xué)習(xí)算法[18-19]從數(shù)據(jù)中自主學(xué)習(xí)特征。深度學(xué)習(xí)思想是建立多層表示獲得數(shù)據(jù)深層抽象語義特征,這種抽象表示對類內(nèi)變化具有更強(qiáng)的魯棒性。深度學(xué)習(xí)處理圖像分類任務(wù)的關(guān)鍵因素是卷積結(jié)構(gòu)的選用,一個卷積神經(jīng)網(wǎng)絡(luò)(ConvNet)結(jié)構(gòu)[20-21]包含多個訓(xùn)練階段和有監(jiān)督分類器。每個階段一般包括三層:卷積組層、非線性處理層和特征池化層。

    典型的深度學(xué)習(xí)網(wǎng)絡(luò)有ConvNet和CNNs[22-23],但這些網(wǎng)絡(luò)需要豐富的經(jīng)驗去調(diào)試,第一個有清晰數(shù)學(xué)調(diào)試的是小波散度網(wǎng)絡(luò)(Wavelet Scattering Networks,ScatNet)[24]。但是這種提前設(shè)置好的結(jié)構(gòu)卻不適用于人臉識別,因為人臉中可能包含光照、遮擋使得類內(nèi)變化較大[25]。Chan Tsung-Han等人[25]提出簡單的PCANet網(wǎng)絡(luò)用于圖像分類,以PCA作卷積核,簡化訓(xùn)練過程,且其分類性能高。

    深度特征往往需要大量的有標(biāo)記的樣本去訓(xùn)練,且時間消耗較大;而淺層特征提取的判別性信息有限,不能挖掘數(shù)據(jù)最本質(zhì)的特征,魯棒性差,但不需要訓(xùn)練,時間消耗低。針對這些問題,本文將圖像的深淺特征進(jìn)行融合以提高特征提取的效率和魯棒性,并應(yīng)用于人臉識別。

1 深淺特征融合分類算法

    本文將淺層特征和深度特征進(jìn)行融合提出基于深淺特征融合的人臉識別算法,目的是充分發(fā)揮深淺層特征各自優(yōu)勢,提高人臉識別性能,同時對深度學(xué)習(xí)算法的原理進(jìn)行簡單的分析。算法基本流程如圖1所示。

rgzn2-t1.gif

    在淺層特征提取階段,本文采用局部-全局的分步特征提取方案:HOG特征可提取圖像淺層局部特征;考慮到數(shù)據(jù)的分布特點,選用RSLDA特征可在保留數(shù)據(jù)分布的基礎(chǔ)上提取數(shù)據(jù)的全局特征,因此本文算法的淺層特征中包含了局部-全局特征,且保留數(shù)據(jù)局部性;在深度特征提取階段,為解決少樣本情況下深度特征提取問題,采用PCANet提取網(wǎng)絡(luò)的深度特征;然后采用對深淺特征進(jìn)行融合并分類。

1.1 淺層特征提取

    本文采用HOG作淺層特征,HOG(Histogram of Oriented Gradients)特征是圖像的一種簡單有效的局部特征描述符,首先,將圖像劃分成多個區(qū)域;然后,計算每個區(qū)域的梯度直方圖,再將每個區(qū)域劃分成幾塊,計算每塊的梯度直方圖并串聯(lián),構(gòu)成該區(qū)域特征;將所有區(qū)域特征串聯(lián)起來構(gòu)成圖像的HOG特征描述符。

1.2 深度特征提取

    PCANet 原理如圖2所示,在每個階段選用經(jīng)典的PCA濾波器作卷積核;非線性層選用最簡單的二進(jìn)制量化(哈希編碼);特征池化層采用逐塊二進(jìn)制碼直方圖作為最終的網(wǎng)絡(luò)輸出特征。

rgzn2-t2.gif

rgzn2-t2-x1.gif

    假設(shè)第i層濾波器個數(shù)為Li,PCA最小化造成的正交濾波器的重構(gòu)誤差即:

rgzn2-gs1.gif

rgzn2-gs2.gif

1.3 判別性信息再選取

    本文采用RSLDA算法進(jìn)一步對深淺層特征進(jìn)行提煉。RSLDA算法可自適應(yīng)選取最具判別性的特征,提取的特征不僅能保留大部分能量,且對噪聲具有一定的魯棒性。算法簡要介紹如下:

    設(shè)有數(shù)據(jù)集X=[x1,x2,…,xn]∈Rm×n(m表示樣本維數(shù),n表示樣本個數(shù)),RSLDA采用l2,1范數(shù),優(yōu)化方程如下:

     rgzn2-gs3.gif

其中,Q∈Rm×d(d<m)為判別性投影矩陣;Sb和Sw分別為類間和類內(nèi)散度矩陣;λ1為平衡參數(shù),u為一個小的正常數(shù)用于平衡兩個散度矩陣。通過采用l2,1范數(shù),式(3)可自適應(yīng)分配特征權(quán)重。其中約束條件X=PQTX,PTP=I可以看作PCA的變體用以保留能量,P∈Rm×d為正交重構(gòu)矩陣。λ2為平衡參數(shù),E表示誤差,是對隨機(jī)噪聲的建模。

1.4 特征融合

    原理分析:對任意一張給定的圖像I,采用HOG算法提取圖像的淺層局部特征,記為IH,考慮到數(shù)據(jù)的分布特點,采用RSLDA進(jìn)一步對HOG特征進(jìn)行降維,同時在保留數(shù)據(jù)分布的基礎(chǔ)上提取數(shù)據(jù)的全局特征,此時特征記為IHR,因此本文算法的淺層特征中包含了局部-全局特征,且保留數(shù)據(jù)分布性;同時本算法采用PCANet提取網(wǎng)絡(luò)的深度特征記為IP,同樣采用RSLDA對PCANet特征進(jìn)行降維,降維后的特征記為IPR;在特征融合階段首先采用串聯(lián)的形式將深淺特征進(jìn)行簡單融合得到IHP=[IHP,IPR],因融合后的特征會存在一定的冗余信息,因此進(jìn)一步采用RSLDA對IHP進(jìn)行降維,同時也提煉出IHP中最具判別力的特征,這也是對深淺特征的進(jìn)一步融合;最后,訓(xùn)練SVM分類器進(jìn)行分類。

2 實驗仿真

    為驗證本文算法性能,在AR和Yale B人臉數(shù)據(jù)庫上進(jìn)行實驗,并選用SRC、PCANe、PCANet_RSLDA_SRC、HOG_PCA_SRC、HOG_RSLDA_SRC作為對比算法。

2.1 AR數(shù)據(jù)庫

    AR數(shù)據(jù)庫包含120人每人26張采集于兩個時期的圖片,其中一人的全部圖像如圖3所示。

rgzn2-t3.gif

    首先選用120人每人第一個時期采集的13張圖像作訓(xùn)練樣本,第二個時期樣本作測試集,即訓(xùn)練和測試樣本的數(shù)量均為120×13=1 560張。因此,此實驗的訓(xùn)練及測試集中均涵蓋了光照、表情、遮擋及時間變化。實驗結(jié)果如表1所示。

rgzn2-b1.gif

    分析表1的實驗結(jié)果可知,各算法性能為HOG_PCA_SRC<HOG_RSLDA_SRC<PCANet_RSLDA_SRC<本文算法。分析HOG_PCA_SRC<HOG_RSLDA_SRC可知RSLDA能夠比PCA更好地保留判別性信息,也更適用于特征降維;此外基于HOG特征算法的性能低于基于PCANet算法性能,說明深度特征比淺層特征更具判別性;本文算法識別率高于單獨的深層特征和淺層特征算法,說明深淺特征融合算法能更好地提取人臉圖像中的判別性信息,且隨著特征維數(shù)的降低,本文算法識別率下降的速度明顯低于對比算法,證明本文算法具有一定的魯棒性。

    選用第一期的7張無遮擋圖像作訓(xùn)練樣本,即訓(xùn)練樣本總數(shù)為120×7=840張,選用第二期的口罩和墨鏡遮擋作測試樣本,即測試樣本的個數(shù)為120×3=360張。不同情況下各算法的識別率如表2和表3所示。

rgzn2-b2.gif

rgzn2-b3.gif

    分析表2和表3結(jié)果可知,在墨鏡遮擋的情況下,本文算法能在不同的特征維數(shù)下獲得最高的識別率,PCANet_RSLDA_SRC的性能僅次于本文算法性能約1%,其余3種算法的識別率較低,而HOG_RSLDA_SRC 與PCANet_RSLDA_SRC相比其性能相差較多,說明HOG特征不適用于遮擋條件下的人臉識別,而PCANet提取的特征相對于HOG特征對遮擋具有更強(qiáng)的魯棒性。本文算法將兩種算法提取的特征進(jìn)行融合后作為最終的人臉特征,且實驗結(jié)果顯示,融合特征的識別率明顯高于PCANet 和HOG特征所能達(dá)到的識別率,說明本文算法的融合方法能夠挑選出強(qiáng)魯棒性特征進(jìn)行融合。

    圍巾遮擋時,因遮擋面積較大,信息損失較多,所以算法性能均大幅下降,但本文算法仍能獲得高于對比算法的識別率。

2.2 Yale B數(shù)據(jù)庫實驗

    Yale B數(shù)據(jù)庫包含30個人每人64張不同光照條件下的正面照片,部分樣例圖像如圖4所示。實驗隨機(jī)選取每人的20張圖片做訓(xùn)練,30張圖片做測試,重復(fù)10次取平均識別結(jié)果作為最終的結(jié)果,如圖5所示。

rgzn2-t4.gif

rgzn2-t5.gif

    由圖5可知,本文算法識別率高于對比算法,證明了本文算法在不同光照條件下對人臉識別具有更強(qiáng)的魯棒性;但與PCANet_RSLDA_SRC相比,二者識別率相差不多,說明在該情況下本文算法性能優(yōu)勢有限。

3 結(jié)論

    本文將HOG特征和PCANet網(wǎng)絡(luò)提取的特征進(jìn)行融合,不僅包含數(shù)據(jù)的淺層局部和數(shù)據(jù)分布信息,還包含深度判別性信息,在AR及Yale B人臉數(shù)據(jù)庫的實驗結(jié)果驗證了本文算法的有效性和魯棒性。但和典型的PCANet相比本文算法的識別性能略低,而典型的PCANet所提取到的特征維數(shù)極高,且需要消耗大量的內(nèi)存及時間,而本文算法因融合了深淺層特征可以在很小的特征維數(shù)下獲得較高的識別率,因此本文算法具有一定的合理性。今后的研究工作中會探索更具判別性更合理的深淺特征進(jìn)行更有效的融合。

參考文獻(xiàn)

[1] KIRBY M,SIROVICH L.Application of the karhunen-loeve procedure for the characterization of human faces[J].IEEE Transactions on Pattern analysis and Machine intelligence,1990,12(1):103-108.

[2] 首照宇,楊曉帆,莫建文.基于改進(jìn)的RPCA人臉識別算法[J].電子技術(shù)應(yīng)用,2015,41(9):157-160.

[3] HE X,NIYOGI P.Locality preserving projections[C].Advances in Neural Information Processing Systems,2004:153-160.

[4] QIAO L,CHEN S,TAN X.Sparsity preserving projections with applications to face recognition[J].Pattern Recognition,2010,43(1):331-341.

[5] HE X,CAI D,YAN S,et al.Neighborhood preserving embedding[C].IEEE International Conference on Computer Vision,2005:1208-1213.

[6] QIAO Z,ZHOU L,HUANG J Z.Sparse linear discriminant analysis with applications to high dimensional low sample size data[J].Iaeng International Journal of Applied Mathematics,2009,39(1):48-60.

[7] FAN Z,XU Y,ZHANG D.Local linear discriminant analysis framework using sample neighbors[J].IEEE Transactions on Neural Networks,2011,22(7):1119-1132.

[8] 郝靜靜,李莉.一種基于KPCA與LDA的人臉識別改進(jìn)算法[J].電子技術(shù)應(yīng)用,2013,39(12):132-137.

[9] YE J,XIONG T.Null space versus orthogonal linear discriminant analysis[C].International Conference on Machine Learning,2006:1073-1080.

[10] YE J,JANARDAN R,LI Q,et al.Feature reduction via generalized uncorrelated linear discriminant analysis[J].IEEE Transactions on Knowledge and Data Engineering,2006,18(10):1312-1322.

[11] YANG J,ZHANG D,YONG X,et al.Two-dimensional discriminant transform for face recognition[J].Pattern Recognition,2005,38(7):1125-1129.

[12] Wen Jie,F(xiàn)ang Xiaozhao,Cui Jinrong,et al.Robust sparse linear discriminant analysis[J].IEEE Transactions on Circuits and Systems for Video Technology,2019,29(2):390-403.

[13] Zhang Wuming,Zhao Xi,JEAN-MARIE M,et al.Improving shadow suppression for illumination robust face recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2019,41(3):611-624.

[14] Hu Changhui,Lu Xiaobo,Liu Pan,et al.Single sample face recognition under varying illumination via QRCP decomposition[J].IEEE Transactions on Image Processing,2019,28(5):2624-2638.

[15] Du Lingshuang,Hu Haifeng.Nuclear norm based adapted occlusion dictionary learning for face recognition with occlusion and illumination changes[J].Neurocomputing,2019,340:133-144.

[16] 歐陽寧,鐘歡虹,袁華,等.針對光照變化的人臉識別算法研究[J].電子技術(shù)應(yīng)用,2015,41(5):152-155.

[17] BENGIO Y,COURVILLE A,VINCENT P.Representation learning:a review and new perspectives[J].IEEE Transactions on Pattern Analysis and Machine. Intelligence,2013,35(8):1798-1828.

[18] 范葉平,李玉,楊德勝,等.基于深度集成學(xué)習(xí)的人臉智能反饋認(rèn)知方法[J].電子技術(shù)應(yīng)用,2019,45(5):5-8.

[19] 黃海新,張東.基于深度學(xué)習(xí)的人臉活體檢測算法[J].電子技術(shù)應(yīng)用,2019,45(8):44-47.

[20] GOODFELLOW I J,WARDE-FARLEY D,MIRZA M,et al.Maxout networks [C].Processing of 30th ICML,2013:1-9.

[21] KRIZHEVSKY A,SUTSKEVER I,HINTON G E.ImageNet classification with deep convolutional neural network[C].NIPS,2012:1097-1105.

[22] Li Yong,Zeng Jiabei,Shan Shiguang,et al.Occlusion aware facial expression recognition using CNN with attention mechanism[J].IEEE Transactions on Image Processing,2019,28(5):2439-2450.

[23] SHAKEEL M S,LAM K M.Deep-feature encoding-based discriminative model for age-invariant face recognition[J].Pattern Recognition,2019,93:442-457.

[24] BRUNA J,MALLAT S.Invariant scattering convolution networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(8):1872-1886.

[25] CHAN T H,Jia Kui,Gao Shenghua,et al.PCANet:a simple deep learning baseline for image classification? [J].IEEE Transactions on Image Peocessing,2015,24(12):5017-5032.



作者信息:

趙淑歡

(河北大學(xué) 電子信息工程學(xué)院,河北 保定071002)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 日韩麻豆国产精品欧美 | 亚洲一区在线视频观看 | 亚洲精品动漫在线观看 | 黄色福利 | 中国黄色一级大片 | 国产成人女人在线视频观看 | 欧美精彩狠狠色丁香婷婷 | 一级做a爰全过程免费视频毛片 | jizzjizz丝袜 | 一男四女乱肉荒岛小说 | 精品偷国情拍在线视频 | 国产在线观看一区二区三区四区 | 国产性片在线 | 日韩在线视频不卡一区二区三区 | 亚洲综合第一欧美日韩中文 | 国产精品一区二区手机看片 | 日日噜噜夜夜狠狠扒开双腿 | 草草影院欧美三级日本 | 日本黄在线观看免费播放 | 成人日皮视频 | 国产大片中文字幕 | 中文字幕免费播放 | 夜夜躁天天躁很很躁 | 亚洲伊人久久大香线蕉苏妲己 | 人人爽人人澡人人高潮 | 欧美 国产 日韩 第一页 | 人人添人人澡人人澡人人诱 | 欧美综合区自拍亚洲综合天堂 | 欧美日韩在线成人 | 免费在线精品视频 | 五月婷婷狠狠 | 久青草视频在线播放 | 三级毛片在线免费观看 | 亚洲成人激情小说 | 亚洲欧美日韩网站 | 日日射视频 | 日本一区免费 | 国产精品v欧美精品v日韩精品 | 九草在线免费观看 | bbbb毛片免费看 | 一级毛片免费观看不卡视频 |