《電子技術應用》
您所在的位置:首頁 > 測試測量 > 設計應用 > 基于YOLO改進殘差網絡結構的車輛檢測方法
基于YOLO改進殘差網絡結構的車輛檢測方法
2020年信息技術與網絡安全第9期
胡臣辰,陳賢富
中國科學技術大學 微電子學院,安徽 合肥230027
摘要: 針對車輛檢測任務,設計更高效、精確的網絡模型是行業(yè)研究的熱點,深層網絡模型具有比淺層網絡模型更好的特征提取能力,但構建深層網絡模型時將導致梯度消失、模型過擬合等問題,應用殘差網絡結構可以緩解此類問題。基于YOLO算法,改進殘差網絡結構,加深網絡層數(shù),設計了一種含有68個卷積層的卷積神經網絡模型,同時對輸入圖像進行預處理,保證目標在圖像上不變形失真,最后在自定義的車輛數(shù)據(jù)集上對模型進行訓練與測試,并將實驗結果與YOLOV3模型進行對比,實驗表明,本文設計的模型檢測精準度(AP)達90.63%,較YOLOV3提高了4.6%。
中圖分類號: TP393
文獻標識碼: A
DOI: 10.19358/j.issn.2096-5133.2020.09.011
引用格式: 胡臣辰,陳賢富. 基于YOLO改進殘差網絡結構的車輛檢測方法[J].信息技術與網絡安全,2020,39(9):56-60.
Vehicle detection method based on improved residual network structure of based on YOLO
Hu Chenchen,Chen Xianfu
Institute of Microelectronics,University of Science and Technology of China,Hefei 230027,China
Abstract: For vehicle detection task, the design of more efficient and accurate network model is a hot research. Deep network model has better feature extraction capabilities than shallow network model, but will cause the gradient to disappear and the model to overfit and other problems. Application of residual network structure can alleviate such problems. Based on the YOLO algorithm, this paper improves the residual network structure and deepens the number of network layers. A convolutional neural network model with 68 convolutional layers is designed. At the same time, the input image is preprocessed to ensure that the target is not deformed or distorted on the image. Finally, the model is trained and tested on a custom vehicle data set, and the experimental results are compared with the YOLOV3 model. The experiment shows that the model detection accuracy(AP) designed in this paper reaches 90.63%, which is 4.6% higher than YOLOV3.
Key words : object detection;YOLO;residual network;deep learning

0 引言

    車輛是目標檢測任務中的重要對象之一,在自動駕駛、目標追蹤等領域有著十分重要的應用。以梯度方向直方圖(Histogram of Oriented Gradient,HOG)和支持向量機(Support Vector Machine,SVM)結合的傳統(tǒng)目標檢測算法先計算候選框內圖像梯度的方向信息統(tǒng)計值,再通過正負樣本訓練SVM,使用傳統(tǒng)方法受限于候選框提取效率、HOG特征尺度魯棒性,在實時性以及遮擋目標檢測等諸多方面有著明顯缺陷[1]。近年來,基于深度學習的目標檢測方法以強特征提取能力、高檢測率取得了驚人的成果。近年來深度學習網絡在計算機視覺上因AlexNet在2012年的ImageNet大賽中大放異彩而進入飛速發(fā)展。2014年VGGNet在追求深層網絡的性能時,發(fā)現(xiàn)增加網絡的深度會提高性能,但是與此同時帶來的梯度消失問題不可避免。2015年ResNet網絡較好地解決了這個問題,深層殘差網絡可以減少模型收斂時間、改善尋優(yōu)過程,但應用尺度大的卷積核的同時增加了網絡模型的參數(shù)量與計算量,降低了模型的訓練與檢測速度[2]

    計算機視覺中的目標檢測任務關注圖像中特定目標的位置信息,現(xiàn)有方法分為two-stage和one-stage兩類。two-stage方法先產生包含目標的候選框,再通過卷積神經網絡對目標進行分類,常見的方法有RCNN、Fast-RCNN、Faster-RCNN。one-stage方法直接使用一個卷積網絡對給定輸入圖像給出檢測結果,以YOLO為代表的one-stage目標檢測方法在檢測時,將候選框的生成與目標的分類回歸合并成一步,基于YOLO的檢測算法大大提高了檢測速度,但檢測精度仍有待提高[3]。本文選擇在基于YOLO方法的基礎上改進主干網絡的殘差網絡結構,設計了一種新的網絡模型,經實驗表明提高了檢測準確率。




本文詳細內容請下載:http://www.jysgc.com/resource/share/2000003099




作者信息:

胡臣辰,陳賢富

(中國科學技術大學 微電子學院,安徽 合肥230027)

此內容為AET網站原創(chuàng),未經授權禁止轉載。
主站蜘蛛池模板: 韩国高清色www在线播放| 99国产精品热久久久久久 | 欧美成人伊人十综合色| 人妻少妇乱子伦无码专区| 美女的让男人桶爽网站| 国产午夜毛片一区二区三区| 日本免费色视频| 国产精品毛片无遮挡高清| 99精品国产一区二区三区2021 | 2021国产精品一区二区在线| 天天舔天天操天天干| 万古战神txt下载| 无码国产精品一区二区免费模式| 久久婷婷综合色丁香五月| 最新中文字幕一区二区乱码| 亚洲国产成人无码av在线影院 | 亚洲色成人网一二三区| 真实国产乱子伦对白视频| 又色又爽又黄的视频女女高清| 西西人体免费视频| 国产女同无遮挡互慰高潮视频 | 贰佰麻豆剧果冻传媒一二三区| 国产护士一区二区三区| 亚洲天堂2016| 国产精品亚洲а∨无码播放不卡 | 日本一二三精品黑人区| 国产精品国产精品国产专区不卡| 91色国产在线| 国内精品一区二区三区最新| 99精品全国免费观看视频| 天天干天天插天天| igao激情在线视频免费| 少妇人妻综合久久中文字幕| 三上悠亚破解版| 成人午夜性a一级毛片美女| 中文字幕在线观看亚洲日韩| 日日噜狠狠噜天天噜AV| 久久久久综合一本久道| 日本三级欧美三级人妇视频黑白配| 久久久亚洲欧洲日产国码农村| 日本在线观看免费看片|