《電子技術應用》
您所在的位置:首頁 > 測試測量 > 設計應用 > 基于YOLO改進殘差網絡結構的車輛檢測方法
基于YOLO改進殘差網絡結構的車輛檢測方法
2020年信息技術與網絡安全第9期
胡臣辰,陳賢富
中國科學技術大學 微電子學院,安徽 合肥230027
摘要: 針對車輛檢測任務,設計更高效、精確的網絡模型是行業研究的熱點,深層網絡模型具有比淺層網絡模型更好的特征提取能力,但構建深層網絡模型時將導致梯度消失、模型過擬合等問題,應用殘差網絡結構可以緩解此類問題?;赮OLO算法,改進殘差網絡結構,加深網絡層數,設計了一種含有68個卷積層的卷積神經網絡模型,同時對輸入圖像進行預處理,保證目標在圖像上不變形失真,最后在自定義的車輛數據集上對模型進行訓練與測試,并將實驗結果與YOLOV3模型進行對比,實驗表明,本文設計的模型檢測精準度(AP)達90.63%,較YOLOV3提高了4.6%。
中圖分類號: TP393
文獻標識碼: A
DOI: 10.19358/j.issn.2096-5133.2020.09.011
引用格式: 胡臣辰,陳賢富. 基于YOLO改進殘差網絡結構的車輛檢測方法[J].信息技術與網絡安全,2020,39(9):56-60.
Vehicle detection method based on improved residual network structure of based on YOLO
Hu Chenchen,Chen Xianfu
Institute of Microelectronics,University of Science and Technology of China,Hefei 230027,China
Abstract: For vehicle detection task, the design of more efficient and accurate network model is a hot research. Deep network model has better feature extraction capabilities than shallow network model, but will cause the gradient to disappear and the model to overfit and other problems. Application of residual network structure can alleviate such problems. Based on the YOLO algorithm, this paper improves the residual network structure and deepens the number of network layers. A convolutional neural network model with 68 convolutional layers is designed. At the same time, the input image is preprocessed to ensure that the target is not deformed or distorted on the image. Finally, the model is trained and tested on a custom vehicle data set, and the experimental results are compared with the YOLOV3 model. The experiment shows that the model detection accuracy(AP) designed in this paper reaches 90.63%, which is 4.6% higher than YOLOV3.
Key words : object detection;YOLO;residual network;deep learning

0 引言

    車輛是目標檢測任務中的重要對象之一,在自動駕駛、目標追蹤等領域有著十分重要的應用。以梯度方向直方圖(Histogram of Oriented Gradient,HOG)和支持向量機(Support Vector Machine,SVM)結合的傳統目標檢測算法先計算候選框內圖像梯度的方向信息統計值,再通過正負樣本訓練SVM,使用傳統方法受限于候選框提取效率、HOG特征尺度魯棒性,在實時性以及遮擋目標檢測等諸多方面有著明顯缺陷[1]。近年來,基于深度學習的目標檢測方法以強特征提取能力、高檢測率取得了驚人的成果。近年來深度學習網絡在計算機視覺上因AlexNet在2012年的ImageNet大賽中大放異彩而進入飛速發展。2014年VGGNet在追求深層網絡的性能時,發現增加網絡的深度會提高性能,但是與此同時帶來的梯度消失問題不可避免。2015年ResNet網絡較好地解決了這個問題,深層殘差網絡可以減少模型收斂時間、改善尋優過程,但應用尺度大的卷積核的同時增加了網絡模型的參數量與計算量,降低了模型的訓練與檢測速度[2]

    計算機視覺中的目標檢測任務關注圖像中特定目標的位置信息,現有方法分為two-stage和one-stage兩類。two-stage方法先產生包含目標的候選框,再通過卷積神經網絡對目標進行分類,常見的方法有RCNN、Fast-RCNN、Faster-RCNN。one-stage方法直接使用一個卷積網絡對給定輸入圖像給出檢測結果,以YOLO為代表的one-stage目標檢測方法在檢測時,將候選框的生成與目標的分類回歸合并成一步,基于YOLO的檢測算法大大提高了檢測速度,但檢測精度仍有待提高[3]。本文選擇在基于YOLO方法的基礎上改進主干網絡的殘差網絡結構,設計了一種新的網絡模型,經實驗表明提高了檢測準確率。




本文詳細內容請下載:http://www.jysgc.com/resource/share/2000003099




作者信息:

胡臣辰,陳賢富

(中國科學技術大學 微電子學院,安徽 合肥230027)

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 好吊妞998视频免费观看在线| 曰批免费视频试看天天视频下| 啊~用力cao我cao烂我小婷| 91黑丝国产线观看免费| 国产青草视频在线观看| sao虎新版高清视频在线网址| 手机在线观看av片| 久久亚洲精品视频| 最新中文字幕在线| 亚洲一区爱区精品无码| 欧美黑人xxxx| 人妻尝试又大又粗久久| 精品国产欧美精品v| 四虎国产精品永久在线看| 露脸自拍[62p]| 国产在线精品二区韩国演艺界| 色偷偷女男人的天堂亚洲网| 国产精品国产三级国产普通话| 91精品国产乱码在线观看| 天天操天天射天天操| おきた冲田あんずなし杏梨| 成人av在线一区二区三区| 中文字幕日本精品一区二区三区| 日本加勒比在线精品视频| 久久精品免费一区二区| 日韩黄色片网站| 亚洲av成人精品网站在线播放| 欧美午夜在线视频| 亚洲成a人片在线观看播放| 永久免费无内鬼放心开车| 亚洲色欧美色2019在线| 男女午夜性爽快免费视频不卡| 免费看美女部位隐私直播| 精品人妻无码一区二区色欲产成人| 啊灬用力灬啊灬啊灬啊| 老熟妇高潮一区二区三区| 国产xxxx做受视频| 老司机福利在线播放| 四虎影视永久免费观看| 老司机美女一级毛片| 含羞草传媒旧版每天免费3次|