《電子技術應用》
您所在的位置:首頁 > 測試測量 > 設計應用 > 基于YOLO改進殘差網絡結構的車輛檢測方法
基于YOLO改進殘差網絡結構的車輛檢測方法
2020年信息技術與網絡安全第9期
胡臣辰,陳賢富
中國科學技術大學 微電子學院,安徽 合肥230027
摘要: 針對車輛檢測任務,設計更高效、精確的網絡模型是行業研究的熱點,深層網絡模型具有比淺層網絡模型更好的特征提取能力,但構建深層網絡模型時將導致梯度消失、模型過擬合等問題,應用殘差網絡結構可以緩解此類問題。基于YOLO算法,改進殘差網絡結構,加深網絡層數,設計了一種含有68個卷積層的卷積神經網絡模型,同時對輸入圖像進行預處理,保證目標在圖像上不變形失真,最后在自定義的車輛數據集上對模型進行訓練與測試,并將實驗結果與YOLOV3模型進行對比,實驗表明,本文設計的模型檢測精準度(AP)達90.63%,較YOLOV3提高了4.6%。
中圖分類號: TP393
文獻標識碼: A
DOI: 10.19358/j.issn.2096-5133.2020.09.011
引用格式: 胡臣辰,陳賢富. 基于YOLO改進殘差網絡結構的車輛檢測方法[J].信息技術與網絡安全,2020,39(9):56-60.
Vehicle detection method based on improved residual network structure of based on YOLO
Hu Chenchen,Chen Xianfu
Institute of Microelectronics,University of Science and Technology of China,Hefei 230027,China
Abstract: For vehicle detection task, the design of more efficient and accurate network model is a hot research. Deep network model has better feature extraction capabilities than shallow network model, but will cause the gradient to disappear and the model to overfit and other problems. Application of residual network structure can alleviate such problems. Based on the YOLO algorithm, this paper improves the residual network structure and deepens the number of network layers. A convolutional neural network model with 68 convolutional layers is designed. At the same time, the input image is preprocessed to ensure that the target is not deformed or distorted on the image. Finally, the model is trained and tested on a custom vehicle data set, and the experimental results are compared with the YOLOV3 model. The experiment shows that the model detection accuracy(AP) designed in this paper reaches 90.63%, which is 4.6% higher than YOLOV3.
Key words : object detection;YOLO;residual network;deep learning

0 引言

    車輛是目標檢測任務中的重要對象之一,在自動駕駛、目標追蹤等領域有著十分重要的應用。以梯度方向直方圖(Histogram of Oriented Gradient,HOG)和支持向量機(Support Vector Machine,SVM)結合的傳統目標檢測算法先計算候選框內圖像梯度的方向信息統計值,再通過正負樣本訓練SVM,使用傳統方法受限于候選框提取效率、HOG特征尺度魯棒性,在實時性以及遮擋目標檢測等諸多方面有著明顯缺陷[1]。近年來,基于深度學習的目標檢測方法以強特征提取能力、高檢測率取得了驚人的成果。近年來深度學習網絡在計算機視覺上因AlexNet在2012年的ImageNet大賽中大放異彩而進入飛速發展。2014年VGGNet在追求深層網絡的性能時,發現增加網絡的深度會提高性能,但是與此同時帶來的梯度消失問題不可避免。2015年ResNet網絡較好地解決了這個問題,深層殘差網絡可以減少模型收斂時間、改善尋優過程,但應用尺度大的卷積核的同時增加了網絡模型的參數量與計算量,降低了模型的訓練與檢測速度[2]

    計算機視覺中的目標檢測任務關注圖像中特定目標的位置信息,現有方法分為two-stage和one-stage兩類。two-stage方法先產生包含目標的候選框,再通過卷積神經網絡對目標進行分類,常見的方法有RCNN、Fast-RCNN、Faster-RCNN。one-stage方法直接使用一個卷積網絡對給定輸入圖像給出檢測結果,以YOLO為代表的one-stage目標檢測方法在檢測時,將候選框的生成與目標的分類回歸合并成一步,基于YOLO的檢測算法大大提高了檢測速度,但檢測精度仍有待提高[3]。本文選擇在基于YOLO方法的基礎上改進主干網絡的殘差網絡結構,設計了一種新的網絡模型,經實驗表明提高了檢測準確率。




本文詳細內容請下載:http://m.viuna.cn/resource/share/2000003099




作者信息:

胡臣辰,陳賢富

(中國科學技術大學 微電子學院,安徽 合肥230027)

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 国产综合视频在线观看 | 农村寡妇野外情一级毛片 | 一本一道dvd在线播放器 | 曰批免费视频播放在线看片二 | 免费观看a黄一级视频 | 手机在线观看毛片 | 欧美一区二区三区在线视频 | 午夜一级免费视频 | 亚洲v天堂 | 国产精品免费看 | 一区 在线播放 | 亚洲综合第一页 | 91精品视频免费在线观看 | 亚洲三级成人 | 国产国语对白一区二区三区 | 任你躁欧美一级在线精品 | 国产成人午夜极速观看 | 在线观看欧洲成人免费视频 | 婷婷六月久久综合丁香乐透 | 久草视频福利 | 欧美91精品久久久久网免费 | 多多多色麻豆 | 国内自拍视频一区二区三区 | 国产99视频精品免视看7 | 国产2区| 婷婷伊人网 | 草草影院在线观看视频 | 日韩色网 | 插久久| 日韩在线一 | 国产20岁美女一级毛片 | 日韩亚洲欧美综合 | xxx中国毛茸茸 | 亚洲成人在线免费观看 | 国产小视频在线观看免费 | 福利网在线 | 日本三级视频在线观看 | 免费观看的成年网址 | 亚洲国产成人va在线观看 | 久久久久久网 | 99视频在线国产 |