《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 設(shè)計(jì)應(yīng)用 > 基于雙流卷積神經(jīng)網(wǎng)絡(luò)和生成式對(duì)抗網(wǎng)絡(luò)的行人重識(shí)別算法
基于雙流卷積神經(jīng)網(wǎng)絡(luò)和生成式對(duì)抗網(wǎng)絡(luò)的行人重識(shí)別算法
《信息技術(shù)與網(wǎng)絡(luò)安全》2020年第6期
林 通,陳 新,唐 曉,賀 玲,李 浩
中國(guó)人民解放軍空軍預(yù)警學(xué)院,湖北 武漢430019
摘要: 近年來(lái),針對(duì)行人重識(shí)別問(wèn)題的深度學(xué)習(xí)技術(shù)研究取得了很大的進(jìn)展。然而,在解決實(shí)際數(shù)據(jù)的特征樣本不平衡問(wèn)題時(shí),效果仍然不理想。為了解決這一問(wèn)題,設(shè)計(jì)了一個(gè)更有效的模型,該模型很好地解決了目標(biāo)的不同姿態(tài)的干擾以及數(shù)據(jù)集中的圖片數(shù)量不足的問(wèn)題。首先,通過(guò)遷移姿態(tài)生成對(duì)抗網(wǎng)絡(luò)生成行人不同姿勢(shì)的圖片,解決姿態(tài)干擾及圖片數(shù)量不足的問(wèn)題。然后利用兩種不同的獨(dú)立卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征,并將其結(jié)合得到綜合特征。最后,利用提取的特征完成行人重識(shí)別。采用姿勢(shì)轉(zhuǎn)換方法對(duì)數(shù)據(jù)集進(jìn)行擴(kuò)展,有效地克服了由目標(biāo)不同姿勢(shì)引起的識(shí)別誤差,識(shí)別錯(cuò)誤率降低了6%。實(shí)驗(yàn)結(jié)果表明,該模型在Market-1501和DukeMTMC-Reid上達(dá)到了更好的識(shí)別準(zhǔn)確度。在DukeMTMC-Reid數(shù)據(jù)集上測(cè)試時(shí),Rank-1準(zhǔn)確度增加到92.10%,mAP 達(dá)到84.60%。
中圖分類號(hào): TP18
文獻(xiàn)標(biāo)識(shí)碼: A
DOI: 10.19358/j.issn.2096-5133.2020.06.002
引用格式: 林通,陳新,唐曉,等. 基于雙流卷積神經(jīng)網(wǎng)絡(luò)和生成式對(duì)抗網(wǎng)絡(luò)的行人重識(shí)別算法[J].信息技術(shù)與網(wǎng)絡(luò)安全,2020,39(6):7-12.
Dual stream ConvNet-Gan for person re-identification
Lin Tong,Chen Xin,Tang Xiao,He Ling,Li Hao
People′s Liberation Army Force Army Early Warning Academy,Wuhan 430019,China
Abstract: The performance of current algorithm of person re-identification(ReID) has been made great progress, but there are still a lot of difficults in dealing with different backgrounds and poses. In order to cope with the difficult in actual scenes, this paper proposes a novel model, which can very well solve the problem that the characters have different poses and the number of pictures in the dataset is insufficient and uneven. Firstly the IDs with a relatively small number of images are screened out to expand by transferring pose and solve the problem of imbalanced datasets. Then two different convolutional neural networks are used to extract picture features and they are joined to get different characteristics. In the end, the task with extracted features is completed. This model solves the impact of different poses on the recognition effect very well. At the same time, it uses two independent feature extraction networks to extract the features of the person more comprehensively. Experimental results confirm that this model significantly improves performance and achieves high accuracy in Market-1501 and DukeMTMC-Reid. When tested on the DukeMTMC-Reid dataset, Rank-1 was increased to 92.10%, and mAP was increased to 84.60%.
Key words : person ReID;CNN;generative adversarial network;pose transfer

行人重識(shí)別(ReID)的目的是利用計(jì)算機(jī)視覺(jué)技術(shù)判斷圖像或者視頻序列中是否存在特定行人的技術(shù)。由于其在安全和監(jiān)控方面的重要應(yīng)用,受到了學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注。這一任務(wù)極具挑戰(zhàn)性,因?yàn)椴煌鄼C(jī)拍攝的圖像往往包含由背景、視角、人體姿勢(shì)等變化引起的顯著變化。

在過(guò)去的幾十年中,大多數(shù)現(xiàn)有的研究都集中在度量學(xué)習(xí)和特征學(xué)習(xí)上,設(shè)計(jì)盡可能抵消類內(nèi)變化的算法已經(jīng)成為了行人重識(shí)別的主要目標(biāo)之一。起初,行人重識(shí)別的研究主要是基于全局特征,即基于全局圖像獲得特征向量。為獲得更好的效果,開(kāi)始引入局部特征,常用的局部特征提取方法包括圖像分割、骨架關(guān)鍵點(diǎn)定位和姿態(tài)校正。行人重識(shí)別任務(wù)還面臨一個(gè)非常大的問(wèn)題,即很難獲得數(shù)據(jù)。到目前為止,最大的數(shù)據(jù)集只有幾千個(gè)目標(biāo)和上萬(wàn)張圖片。隨著生成性對(duì)抗網(wǎng)絡(luò)(GAN)技術(shù)的發(fā)展,越來(lái)越多的學(xué)者試圖利用這種方法來(lái)擴(kuò)展數(shù)據(jù)集。然而,大多數(shù)現(xiàn)有的針對(duì)行人重識(shí)別的算法需要大量標(biāo)記數(shù)據(jù),這限制了它在實(shí)際應(yīng)用場(chǎng)景中的魯棒性和可用性,因?yàn)槭謩?dòng)標(biāo)記一個(gè)大型數(shù)據(jù)集是昂貴和困難的。最近的一些文獻(xiàn)在使用無(wú)監(jiān)督學(xué)習(xí)來(lái)解決此問(wèn)題,改進(jìn)人工標(biāo)注的特征。由于不同數(shù)據(jù)集之間的圖像有明顯差異,在提取圖片特征問(wèn)題上效果仍不理想。本文方法的貢獻(xiàn)主要有兩個(gè)方面。一方面,采用均衡采樣策略和姿勢(shì)遷移方法對(duì)數(shù)據(jù)集進(jìn)行擴(kuò)充有效地緩解了行人姿勢(shì)各異造成的干擾。另一方面,利用兩種不同的網(wǎng)絡(luò)結(jié)構(gòu)從圖像的不同方面提取特征,使模型能學(xué)習(xí)到更為豐富全面的信息。實(shí)驗(yàn)結(jié)果表明,該方法具有較高的精度。例如,在Market-1501數(shù)據(jù)集上,這一模型Rank-1準(zhǔn)確度達(dá)到了96.0%,mAP達(dá)到了90.1%,與現(xiàn)有算法相比,性能有較大提升。



本文詳細(xì)內(nèi)容請(qǐng)下載:http://www.jysgc.com/resource/share/2000003145


作者信息:

林  通,陳  新,唐  曉,賀  玲,李  浩

(中國(guó)人民解放軍空軍預(yù)警學(xué)院,湖北 武漢430019)


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 男女一进一出猛进式抽搐视频| 两个男gay的做污污的过程| 欧美深夜福利视频| 内射白浆一区二区在线观看| 色婷婷.com| 国产口爆吞精在线视频| 亚洲黄色激情视频| 国产精品视频在| 99热成人精品国产免国语的| 婷婷丁香五月中文字幕| 中文字幕久久综合| 日本b站一卡二不卡| 久久精品免视看国产成人| 桃子视频观看免费完整| 亚洲图片欧美小说| 欧美黄色一级片免费看| 亚洲色欲久久久综合网东京热| 精品一区二区三区中文| 午夜a一级毛片一.成| 美女**毛片一级视频| 国产一区二区精品久久岳| 黄色三级免费看| 国产成人精品视频播放| 色综合天天综合中文网| 国产精品亚洲va在线观看| 97久久精品人人做人人爽| 大佬和我的365天2在线观看 | 国产免费一区二区三区免费视频| 国产四虎免费精品视频| 国产精品igao视频网网址| 尹人久久久香蕉精品| 国产精品免费_区二区三区观看| 4hu四虎永久免在线视| 国产青草视频在线观看| 91麻豆国产福利精品| 国内一级特黄女人精品毛片| 99久久99久久免费精品小说| 在线精品一区二区三区电影| 99网站在线观看| 在私人影院里嗯啊h| 99久久国产宗和精品1上映 |