《電子技術應用》
您所在的位置:首頁 > 通信與網絡 > 設計應用 > 基于VGG16網絡的人臉情緒識別
基于VGG16網絡的人臉情緒識別
2022年電子技術應用第1期
蔡 靖,杜佳辰,王 慶,周泓任
吉林大學 儀器科學與電氣工程學院,吉林 長春130026
摘要: 近年來,如何通過人工智能對人的面部表情進行識別分析成為一個研究熱點,利用人工智能可以快速地分析人的面部情緒,并以此為基礎進行進一步研究。在深度學習中,傳統的卷積神經網絡存在對面部表情特征的提取不充分以及計算機參數量較大的問題,導致分類準確率較低。因此,提出了基于VGG16網絡的人臉表情識別算法,通過與InceptionV3、InceptionResNetV2、ResNet50等模型實驗對比,結果表明,VGG16神經網絡在FER2013PLUS測試數據集上的識別準確率為79%,準確率比傳統的卷積神經網絡高。
中圖分類號: TP183;TP391.41
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.211516
中文引用格式: 蔡靖,杜佳辰,王慶,等. 基于VGG16網絡的人臉情緒識別[J].電子技術應用,2022,48(1):67-70,75.
英文引用格式: Cai Jing,Du Jiachen,Wang Qing,et al. Facial emotion recognition based on VGG16 network[J]. Application of Electronic Technique,2022,48(1):67-70,75.
Facial emotion recognition based on VGG16 network
Cai Jing,Du Jiachen,Wang Qing,Zhou Hongren
College of Instrumentation & Electrical Engineering,Jilin University,Changchun 130026,China
Abstract: In recent years, how to recognize and analyze people′s facial expressions through artificial intelligence has become a research hotspot. Using artificial intelligence can quickly analyze people′s facial emotions, and further research is carried out on this basis. In deep learning, the traditional convolutional neural network can not extract facial expression features sufficiently, and the amount of computer parameters is large, which leads to low classification accuracy. Therefore, a facial expression recognition algorithm based on VGG16 neural network is proposed. Compared with the model experiments of InceptionV3, InceptionResNetV2 and ResNet50, the results show that the recognition accuracy of VGG16 neural network on FER2013PLUS test data set is 79%, which is higher than that of traditional convolution neural network.
Key words : deep learning;convolutional neural network;emotion recognition;VGG16

0 引言

    Hinton等人在研究深度卷積神經網絡中通過引入ReLU函數以及采用多GPU訓練等方式加快了網絡的訓練速度并提高了網絡模型的準確率[1]。LeCun等人表明深度學習通過使用反向傳播算法來發現大型數據集中的復雜結構,以指示機器應如何更改用于從前一層的表示計算每一層的表示的內部參數。深度卷積網絡在處理圖像、視頻、語音和音頻方面取得了突破性進展,而遞歸網絡則為文本和語音等順序數據帶來了光明[2]。隨著科學技術,尤其是計算機技術方面的不斷進步,人們對卷積神經網絡的研究也不斷深入,面部表情識別技術也隨之得到了發展。同時,一些問題也隨之而來,例如:如何提高面部表情分類的準確率,如何能夠在保證準確率的前提下減少計算的參數量等。

    Tang等人[3]提出將卷積神經網絡(Convolutional Neural Networks,CNN)中融入支持向量機(SVM),同時修改了全連接層中的計算損失值的方法,在表情數據集上的測試結果為71.2%,斬獲了當年Kaggle比賽的一等獎。崔鳳焦[4]將卷積神經網絡、Adaboost和支持向量機3種模型算法結構進行相互比較和設計優化,在Cohn-Kanade表情庫中實現了對人臉情緒的智能識別,平均識別率最高達到了74.92%。謝鑫等人[5]采用了耗時加長的杜鵑算法(CuckooSearch,CS)對ResNet50模型進行了變更改進,提高了準確率并使算法不會在調參時陷入梯度消失或爆炸的問題,準確率達到了74.3%。陳佳等人[6]提出一種基于卷積神經網絡集成的表情識別方法,子網結構在第一階段訓練3個子網絡,采用Batch Normalization方法和Dropout層來加速網絡的收斂。接著去掉3個子網絡的輸出層,使用SVM進行第二階段的訓練,完成最終表情的預測,其準確率達到了70.84%。




本文詳細內容請下載:http://m.viuna.cn/resource/share/2000003910




作者信息:

蔡  靖,杜佳辰,王  慶,周泓任

(吉林大學 儀器科學與電氣工程學院,吉林 長春130026)




wd.jpg

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 波多野结衣一区二区三区在线观看 | 精品国产成a人在线观看 | 久久99精品久久久久久青青91 | 91导航福利| 性欧美高清另类videoso | 亚洲一区二区三区欧美 | 91久久精品日日躁夜夜躁欧美 | 九草视频在线 | 免费动漫无遮挡曰批视频软件 | 欧美一区二区亚洲 | 69黄在线看片免费视频 | 五月婷婷伊人网 | 高清午夜看片a福利在线观看琪琪 | 香蕉大伊亚洲人在线观看 | 天天干天天摸天天操 | 亚洲国产日产韩国欧美综合 | 日本人乱人乱亲乱色视频观看 | 成人看片黄a免费看视频 | 96香蕉视频| 国产一级黄 | 丝袜足控免费网站 | 国产一级成人毛片 | 国产不卡免费 | 欧美videos另类精品 | 成人777777| 日日干天天干 | 色片免费在线观看 | 亚洲欧美日韩国产精品久久 | 美女下面粉嫩粉嫩冒白浆高清 | 免费国产成人高清在线观看不卡 | 日本黄色免费在线观看 | 最近中文免费字幕8 | 欧美视频免费 | 欧美日韩视频在线第一区二区三区 | 亚洲天堂在线观看视频 | 亚洲三级黄色 | 综合在线视频精品专区 | 亚洲国产日韩a在线播放 | 手机看片久久高清国产日韩 | 亚洲特一级毛片 | 丝袜无内写真福利视频 |