《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > ?一種基于LSTM的視頻車(chē)輛檢測(cè)算法
?一種基于LSTM的視頻車(chē)輛檢測(cè)算法
?李歲纏,陳鋒
(中國(guó)科學(xué)技術(shù)大學(xué) 信息科學(xué)技術(shù)學(xué)院,安徽 合肥 230027)
摘要: 針對(duì)視頻車(chē)輛檢測(cè)問(wèn)題,提出了一種基于LSTM的視頻車(chē)輛檢測(cè)算法模型。該算法接受視頻序列作為輸入,先利用卷積網(wǎng)絡(luò)提取視頻幀的空間特征,然后利用LSTM模塊得到時(shí)間維度的特征,最后利用全卷積網(wǎng)絡(luò)預(yù)測(cè)最終的檢測(cè)結(jié)果。將所提算法與其他典型的算法進(jìn)行比較,實(shí)驗(yàn)結(jié)果表明所提算法具有更好的檢測(cè)準(zhǔn)確率,同時(shí)檢測(cè)速度也更快。
中圖分類號(hào):TP181
文獻(xiàn)標(biāo)識(shí)碼:A
DOI: 10.19358/j.issn.2096-5133.2018.07.013
中文引用格式:李歲纏,陳鋒.一種基于LSTM的視頻車(chē)輛檢測(cè)算法[J].信息技術(shù)與網(wǎng)絡(luò)安全,2018,37(7):54-57.
A LSTM-based method for vehicle detection in video
?Li Suichan,Chen Feng
(School of Information Science and Technology, University of Science and Technology of China, Hefei 230027, China)
Abstract: In this paper, a LSTM-based method was proposed for vehicle detection in video. This method takes multiple video frames as input and generates multiple spatial feature maps, and then spatial feature maps are fed to LSTM sub-model to capture temporal features. These temporal features are fed to full convolution networks to get final detection results. We compare the proposed method with other typical methods. The results show the proposed method yields better performance as well as higher processing speed.
Key words : video vehicle detection; LSTM; temporal feature; CNN; deep learning

0  引言

近年來(lái),基于視頻的車(chē)輛檢測(cè)在自動(dòng)駕駛和交通視頻監(jiān)控領(lǐng)域得到了廣泛的應(yīng)用。另一方面,基于深度學(xué)習(xí)的靜態(tài)圖像目標(biāo)檢測(cè)也取得了重要的進(jìn)展和突破。基于深度學(xué)習(xí)的圖像目標(biāo)檢測(cè)算法可以分為兩類:基于單階段的算法[1-3]和兩階段的算法[4-6]。相比于兩階段算法,單階段算法具有更快的處理速度,因此更適合實(shí)時(shí)的應(yīng)用,比如視頻車(chē)輛檢測(cè)。但是,將這些基于靜態(tài)圖像的目標(biāo)檢測(cè)算法直接應(yīng)用于視頻目標(biāo)檢測(cè),即將視頻幀進(jìn)行獨(dú)立的處理時(shí),并不能取得好的檢測(cè)結(jié)果。因?yàn)獒槍?duì)視頻進(jìn)行目標(biāo)檢測(cè)時(shí),總會(huì)遇到運(yùn)動(dòng)模糊、視頻失焦等問(wèn)題,而基于靜態(tài)圖像的目標(biāo)檢測(cè)算法容易受這些問(wèn)題的影響,得到比較差的檢測(cè)結(jié)果。

視頻中通常包含著目標(biāo)的時(shí)間維度的信息,這些信息對(duì)視頻目標(biāo)檢測(cè)具有非常重要的作用,而基于靜態(tài)圖像目標(biāo)的檢測(cè)算法忽略了這些信息。如果能夠有效利用視頻包含的時(shí)間維度的信息,則可以有效解決運(yùn)動(dòng)模糊與視頻失焦等問(wèn)題。比如,如果當(dāng)前視頻幀中的目標(biāo)出現(xiàn)模糊,那么就可以利用其鄰近幀的目標(biāo)信息幫助對(duì)當(dāng)前幀的檢測(cè)。因此,如何提取目標(biāo)運(yùn)動(dòng)信息則是最關(guān)鍵的。最近,循環(huán)神經(jīng)網(wǎng)絡(luò)LSTM[7]由于其強(qiáng)大的記憶能力以及可以有效克服訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)出現(xiàn)的梯度消失問(wèn)題的優(yōu)點(diǎn),被大量應(yīng)用于解決時(shí)間序列問(wèn)題,比如機(jī)器翻譯[8],并且取得了比較好的效果。

本文提出一種基于LSTM的單階段視頻車(chē)輛檢測(cè)算法,稱為M-DETNet。該算法將視頻看做一系列視頻幀的時(shí)間序列,通過(guò)LSTM去提取視頻中目標(biāo)的時(shí)間維度信息。該模型可以直接進(jìn)行端到端的訓(xùn)練,不需要進(jìn)行多階段的訓(xùn)練方式[4-5]。利用DETRAC車(chē)輛檢測(cè)數(shù)據(jù)集[9]訓(xùn)練該算法并進(jìn)行驗(yàn)證和測(cè)試,實(shí)驗(yàn)結(jié)果表明該算法可以有效提升視頻車(chē)輛檢測(cè)的準(zhǔn)確率。同時(shí),將M-DETNet與其他典型的目標(biāo)檢測(cè)算法進(jìn)行了對(duì)比,實(shí)驗(yàn)結(jié)果表明M-DETNet 具有更好的檢測(cè)準(zhǔn)確率。

1  LSTM網(wǎng)絡(luò)

LSTM(Long Short-Term Memory)[7]屬于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN),其最大特點(diǎn)是引入了門(mén)控單元(Gated Unit)和記憶單元(Memory Cell)。LSTM網(wǎng)絡(luò)單元如圖1所示。

微信截圖_20181029142751.png

LSTM循環(huán)網(wǎng)絡(luò)除了外部的RNN循環(huán)外,其內(nèi)部也有自循環(huán)單元,即記憶單元。由圖1可以看出,LSTM具有3個(gè)門(mén)控單元,分別是輸入門(mén)g、忘記門(mén)f和輸出門(mén)q。門(mén)控單元和記憶單元s的更新公式如下:

微信截圖_20181029142911.png

其中, x(t)是當(dāng)前網(wǎng)絡(luò)輸入向量,h(t)是當(dāng)前隱藏層向量,b是偏置向量,U、W是權(quán)重向量,⊙表示逐元素相乘。

將普通RNN神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元替換為L(zhǎng)STM單元,則構(gòu)成了LSTM網(wǎng)絡(luò)。

2  M-DETNet

本文提出的模型M-DETNet如圖2所示。從圖2可以看出,M-DETNet由3個(gè)子模塊組成,分別為ConvNet模塊、LSTMNet模塊和FCNet模塊。設(shè)算法輸入視頻幀個(gè)數(shù)為K。ConvNet模塊首先對(duì)K個(gè)視頻幀分別處理,提取空間特征;空間特征作為L(zhǎng)STMNet的輸入,得到時(shí)間維度的特征信息;FCNet預(yù)測(cè)輸出最終的結(jié)果。

微信截圖_20181029143055.png

2.1  ConvNet模塊

DarkNet-19[2]是一個(gè)應(yīng)用廣泛的分類卷積神經(jīng)網(wǎng)絡(luò),其包含有19個(gè)卷積層和5個(gè)池化層;相比于其他被廣泛應(yīng)用的卷積網(wǎng)絡(luò),如VGG-16[10], DarkNet-19的特點(diǎn)是需要學(xué)習(xí)的參數(shù)更少,并且執(zhí)行速度也更快。使用ImageNet數(shù)據(jù)集[11]訓(xùn)練DarkNet-19,可以達(dá)到72.9%的top-1準(zhǔn)確率和93.3%的top-5準(zhǔn)確率。本文使用經(jīng)過(guò)在ImageNet上預(yù)訓(xùn)練的DarkNet-19網(wǎng)絡(luò),并去掉最后一個(gè)卷積層,作為空間特征提取主干網(wǎng)絡(luò),稱為ConvNet。ConvNet對(duì)K個(gè)輸入視頻幀分別處理,提取豐富的空間特征。

2.2  LSTMNet模塊

LSTM模塊的主要作用是接收ConvNet產(chǎn)生的空間特征作為輸入,得到連續(xù)幀之間包含的時(shí)間維度的特征信息。由圖2可以看到該模塊由兩層雙向LSTM網(wǎng)絡(luò)組成,使用雙向LSTM的原因是便于使用當(dāng)前幀對(duì)應(yīng)的前序幀和后序幀的信息。普通的LSTM網(wǎng)絡(luò)的輸入通常為向量,而本文模型的LSTM網(wǎng)絡(luò)的輸入為特征圖。

2.3  FCNet模塊4

普通的卷積分類網(wǎng)絡(luò)使用全連接網(wǎng)絡(luò)預(yù)測(cè)輸出,而本文模型的FCNet由全卷積網(wǎng)絡(luò)組成,即使用全卷積網(wǎng)絡(luò)產(chǎn)生最后的輸出,包括車(chē)輛的類別概率和矩形框的坐標(biāo)。FCNet由3個(gè)卷積層組成,前兩個(gè)卷積層包含1 024個(gè)特征圖,卷積核的大小為3×3;最后一個(gè)卷積層的卷積核大小為1×1。

仿照YOLO[2],網(wǎng)絡(luò)不直接預(yù)測(cè)輸出包含有車(chē)輛的真實(shí)矩形框的坐標(biāo),而是預(yù)測(cè)真實(shí)矩形框相對(duì)于參考矩形框的偏移值,并參數(shù)化如下:

微信截圖_20181029143221.png

其中,(cx,cy)為參考矩形框所在特征圖單元(cell)的坐標(biāo);(pw,ph)為參考矩形框的寬和高;σ(·)為激活函數(shù),取值范圍為[0,1];(bx,by,bw,bh,bc) 是最終的結(jié)果。

2.4  訓(xùn)練方法

使用帶動(dòng)量項(xiàng)(momentum)的隨機(jī)梯度下降(Stochastic Gradient Descent,SGD)優(yōu)化方法訓(xùn)練本文模型,動(dòng)量項(xiàng)設(shè)置為0.9,訓(xùn)練循環(huán)總次數(shù)(epoch)設(shè)置為80次。對(duì)于學(xué)習(xí)率,前60次循環(huán)時(shí)設(shè)置為0.001,之后將學(xué)習(xí)率降低為0.000 1。同時(shí),為了增強(qiáng)模型的泛化能力,本文也做了數(shù)據(jù)增廣,包括隨機(jī)的裁剪和水平翻轉(zhuǎn)。訓(xùn)練的batch大小設(shè)置為32。

由于內(nèi)存的限制,在訓(xùn)練時(shí)選擇3個(gè)視頻幀作為網(wǎng)絡(luò)的輸入,即K=3。在相對(duì)于當(dāng)前幀的偏移為[-10,10]的范圍內(nèi),隨機(jī)選擇前序幀和后序幀。對(duì)于第一幀和最后一幀,簡(jiǎn)單地重復(fù)當(dāng)前幀代表其前序幀或后序幀。

3  實(shí)驗(yàn)及分析

使用DETRAC車(chē)輛檢測(cè)數(shù)據(jù)集[9]驗(yàn)證本文模型。該數(shù)據(jù)集包含有4種天氣場(chǎng)景(晴天、陰天、雨天和夜晚)下的視頻數(shù)據(jù),總計(jì)有14萬(wàn)視頻幀,包含的車(chē)輛總計(jì)為8 250輛。為了驗(yàn)證模型的有效性,設(shè)置了兩組實(shí)驗(yàn)。第一組實(shí)驗(yàn)在驗(yàn)證集上比較了本文模型與YOLO[2],以說(shuō)明本文提出的LSTM模塊的有效性;第二組實(shí)驗(yàn)在測(cè)試集上將本文模型與其他典型的方法進(jìn)行了比較。

3.1  M-DETNet的有效性驗(yàn)證

如果本文模型去除LSTM模塊,則網(wǎng)絡(luò)結(jié)構(gòu)與YOLO[2]的結(jié)構(gòu)基本一致。為了驗(yàn)證本文模型中LSTM模塊的有效性,在驗(yàn)證集上對(duì)比了本文模型和YOLO。實(shí)驗(yàn)結(jié)果如表1所示。

微信截圖_20181029143725.png

由表1可知,本文模型不管在4種天氣場(chǎng)景下的性能,還是平均性能均優(yōu)于YOLO。同時(shí),在雨天和夜晚兩種場(chǎng)景下,本文算法性能相對(duì)于YOLO具有更大的提升,從數(shù)據(jù)集中可發(fā)現(xiàn)在雨天和夜晚,視頻幀更容易出現(xiàn)視頻模糊等問(wèn)題。這些結(jié)果表明本文提出的LSTM模塊具有獲取時(shí)間維度特征的能力,能夠提升車(chē)輛檢測(cè)的準(zhǔn)確率。

3.2 M-DETNet與其他典型算法的比較

將M-DETNet與其他典型的算法在測(cè)試集上進(jìn)行了比較,實(shí)驗(yàn)結(jié)果如表2所示。由表2可知,相比于其他算法,本文模型在測(cè)試集上的平均準(zhǔn)確率最高,達(dá)到了52.28%;本文模型在不同難易程度下均具有更好的檢測(cè)準(zhǔn)確率。同時(shí)還可發(fā)現(xiàn),在夜晚和雨天,本文算法相對(duì)于其他算法的準(zhǔn)確率提升比在晴天和陰天的提升更大。

微信截圖_20181029143838.png

在檢測(cè)速度方面,本文算法在GPU(1080Ti)上的檢測(cè)速度可以達(dá)到29 f/s,相比其他算法有很大的優(yōu)勢(shì)。

4  結(jié)論

本文提出一種基于LSTM的視頻車(chē)輛檢測(cè)算法,該算法通過(guò)LSTM模塊提取視頻幀序列中包含目標(biāo)的時(shí)間維度的信息,這些信息可以有助于克服視頻模糊等問(wèn)題,進(jìn)而提升檢測(cè)準(zhǔn)確率。將本文模型與其他典型的算法進(jìn)行了比較,實(shí)驗(yàn)結(jié)果表明本文模型不僅具有更好的檢測(cè)準(zhǔn)確率,而且有更快的檢測(cè)速度。為了更好地對(duì)模型進(jìn)行測(cè)試,未來(lái)工作將在實(shí)際的應(yīng)用中對(duì)模型進(jìn)行測(cè)試和驗(yàn)證。


參考文獻(xiàn)

[1] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once:unified, real-time object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 779-788.

[2] REDMON J, FARHADI A. YOLO9000: better, faster, stronger[J]. arXiv preprint, 2016, 1612.

[3] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detector[C]//European Conference on Computer Vision. Springer, Cham, 2016: 21-37.

[4] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587.

[5] GIRSHICK R.Fast R-CNN[J].arXiv preprint arXiv:1504.08083, 2015.

[6] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

[7] HOCHREITER S, SCHMIDHUBER J. LSTM can solve hard long time lag problems[C]//Advances in Neural Information Processing Systems, 1997: 473-479.

[8] SUTSKEVER I, VINYALS O, LE Q V. Sequence to sequence learning with neural networks[C]//Advances in Neural Information Processing Systems, 2014: 3104-3112.

[9] WEN L, DU D, CAI Z, et al. UA-DETRAC: a new benchmark and protocol for multi-object detection and tracking[J]. arXiv preprint arXiv:1511.04136, 2015.

[10] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J]. arXiv preprint arXiv:1409.1556, 2014.

[11] DENG J, DONG W, SOCHER R, et al. ImageNet: a large-scale hierarchical image database[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2009. IEEE, 2009: 248-255.

[12] FELZENSZWALB P F, GIRSHICK R B, MCALLESTER D, et al. Object detection with discriminatively trained part-based models[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(9): 1627-1645.

[13] DOLLáR P, APPEL R, BELONGIE S, et al. Fast feature pyramids for object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(8): 1532-1545.

(收稿日期:2018-03-28)

 

作者簡(jiǎn)介:

李歲纏(1991-),通信作者,男,碩士,主要研究方向:模式識(shí)別,深度學(xué)習(xí)。E-mail:lsc1230@mail.ustc.edu.cn。

陳鋒(1966-),男,博士,副教授,主要研究方向:智能交通,人工智能。

 


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
久久av红桃一区二区小说| 欧美二区乱c少妇| 亚洲精选成人| 亚洲国产成人久久| 欧美一区二区三区久久精品茉莉花| 一区二区三区不卡视频在线观看 | 亚洲一区二区三区中文字幕在线| 亚洲欧洲三级电影| 亚洲欧洲三级| aa级大片欧美三级| 一本大道久久精品懂色aⅴ| 99亚洲伊人久久精品影院红桃| 亚洲精品一区二区三区av| 亚洲欧洲日本mm| 亚洲毛片在线看| 99在线精品视频| 亚洲午夜精品久久久久久浪潮 | 欧美偷拍另类| 欧美天堂亚洲电影院在线播放| 欧美午夜精品| 国产精品一区视频网站| 国产欧美精品xxxx另类| 国产亚洲欧美日韩日本| 激情视频一区| 亚洲国产精品视频| 亚洲九九精品| 亚洲视频在线观看视频| 新67194成人永久网站| 欧美一区二区三区播放老司机| 久久精品亚洲热| 亚洲三级免费| 中文一区二区| 亚洲欧美欧美一区二区三区| 欧美一区二区三区另类| 久久人体大胆视频| 欧美**字幕| 欧美调教视频| 国产主播精品| 亚洲国产日韩欧美| 在线一区二区日韩| 欧美一区成人| 亚洲日本aⅴ片在线观看香蕉| 一本色道久久综合狠狠躁篇的优点 | 日韩一级黄色片| 亚洲欧美成人| 久久精品亚洲精品国产欧美kt∨| 亚洲日本va午夜在线影院| 亚洲天堂免费观看| 久久国产手机看片| 免费在线看成人av| 国产精品久久久久毛片大屁完整版 | 午夜免费日韩视频| 久久人人97超碰精品888| 欧美另类一区| 国产婷婷色一区二区三区四区| 亚洲第一区在线| 一本综合精品| 亚洲大胆人体在线| 久久精品男女| 欧美激情第五页| 国产精品盗摄一区二区三区| 国内精品免费在线观看| 亚洲日本免费| 午夜激情综合网| 日韩午夜高潮| 久久精品国产99国产精品| 欧美成人免费大片| 国产精品日韩精品欧美精品| 亚洲国产91色在线| 午夜精品视频在线| 夜色激情一区二区| 久久久欧美一区二区| 欧美午夜视频| 在线观看成人一级片| 亚洲一区二区三区在线观看视频| 亚洲精品日韩在线观看| 欧美综合国产| 欧美色精品天天在线观看视频| 黄色成人在线| 亚洲在线中文字幕| 中日韩在线视频| 母乳一区在线观看| 国产欧美一区二区三区在线看蜜臀| 亚洲欧洲三级| 亚洲经典自拍| 久久久综合视频| 国产精品蜜臀在线观看| 亚洲日本久久| 91久久黄色| 久久久久www| 国产精品亚洲产品| 亚洲精品乱码久久久久久久久| 国语自产精品视频在线看| 一区二区三区欧美| 亚洲免费观看在线观看| 久久久精品国产免费观看同学| 欧美午夜片在线免费观看| 91久久视频| 91久久国产综合久久91精品网站| 久久精品最新地址| 国产精品制服诱惑| 亚洲午夜久久久久久久久电影网| 亚洲免费精品| 欧美激情网友自拍| 亚洲国产mv| 亚洲高清视频在线观看| 久久精品一区二区三区中文字幕| 国产精品美女xx| 一区二区国产在线观看| 日韩一本二本av| 欧美激情区在线播放| 在线播放不卡| 91久久久久| 蜜乳av另类精品一区二区| 国产中文一区二区| 欧美一区二区在线| 久久久精品日韩| 国模私拍一区二区三区| 欧美在线亚洲综合一区| 久久久久久网| 韩国三级在线一区| 久久精品国产亚洲一区二区三区 | 国产精品成人久久久久| 亚洲深夜福利视频| 亚洲免费婷婷| 国产精品网站在线| 亚洲欧美国产日韩中文字幕| 翔田千里一区二区| 国产一区二区三区高清播放| 欧美在线观看你懂的| 久久亚洲捆绑美女| 亚洲高清免费视频| 99视频一区| 欧美性大战久久久久久久蜜臀| 一本色道久久99精品综合 | 亚洲天堂成人| 午夜影院日韩| 国产一区二区| 亚洲国产一区二区在线| 欧美精品一区二区三区一线天视频| 亚洲日本va午夜在线电影| 一区二区三区日韩精品| 国产精品大全| 欧美三级日韩三级国产三级| 亚洲国产高清视频| 日韩视频免费观看高清完整版| 欧美精品久久久久久久久老牛影院| 亚洲三级视频| 午夜在线视频一区二区区别| 国产一区二区av| 亚洲精选中文字幕| 欧美三级乱码| 午夜精品久久久久久久蜜桃app| 久久精品日韩欧美| 亚洲电影网站| 亚洲一区二区成人| 国产亚洲亚洲| 日韩午夜黄色| 国产精品伦子伦免费视频| 欧美一区三区二区在线观看| 欧美jizz19hd性欧美| 9色国产精品| 久久人人97超碰国产公开结果| 亚洲欧洲综合另类| 性xx色xx综合久久久xx| 精品电影一区| 亚洲尤物精选| 一区二区亚洲精品国产| 中日韩在线视频| 国产一区二区久久精品| 亚洲精品小视频在线观看| 国产精品色婷婷久久58| 91久久久久久久久| 国产精品试看| 亚洲精品视频在线| 国产女主播一区| 日韩午夜电影在线观看| 国产日韩欧美在线观看| 亚洲乱亚洲高清| 国产午夜精品在线| 在线一区二区日韩| 国产综合色产| 国产精品99久久久久久久久| 狠狠色综合色区| 亚洲一区久久| 亚洲第一主播视频| 欧美一区二区播放| 亚洲日产国产精品| 久久久久久亚洲综合影院红桃| 夜夜爽99久久国产综合精品女不卡| 久久久91精品国产一区二区三区| 99v久久综合狠狠综合久久| 噜噜噜噜噜久久久久久91| 亚洲视频在线看| 欧美精品一区二区高清在线观看| 午夜欧美大尺度福利影院在线看| 欧美精品一区视频| 久久精品一级爱片| 国产欧美短视频| 亚洲免费在线视频|