《電子技術(shù)應用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設計應用 > 基于生成對抗網(wǎng)絡的人臉熱紅外圖像生成
基于生成對抗網(wǎng)絡的人臉熱紅外圖像生成
王雅欣,史瀟瀟
(1.中國科學技術(shù)大學 軟件學院,安徽 合肥 230015; 2.中國科學技術(shù)大學 計算機科學與技術(shù)學院,安徽 合肥 230027)
摘要: 可見光圖像易受光照變化影響,而熱紅外圖像對成像的光照條件具有魯棒性,因此,熱紅外圖像可以彌補可見光圖像光照敏感性這一不足。然而,紅外熱像儀價格昂貴,采集熱紅外圖像的成本遠高于可見光圖像。針對此問題,提出了一種基于生成對抗網(wǎng)絡的熱紅外人臉圖像生成方法,采用條件生成對抗網(wǎng)絡結(jié)合L1損失從可見光圖像中生成紅外熱像。在USTC-NIVE數(shù)據(jù)庫上的實驗結(jié)果驗證了所提出的紅外熱像生成方法的有效性。同時,將生成的紅外熱像作為擴充樣本,有助于提高紅外表情識別的精度。
中圖分類號:TP18
文獻標識碼:A
DOI: 10.19358/j.issn.2096-5133.2018.08.010
中文引用格式:王雅欣,史瀟瀟.基于生成對抗網(wǎng)絡的人臉熱紅外圖像生成[J].信息技術(shù)與網(wǎng)絡安全,2018,37(8):40-44.
Facial thermal infrared image generated on GAN
Wang Yaxin,Shi Xiaoxiao
(1. School of Software, University of Science and Technology of China, Hefei 230015, China; 2.School of Computer Science and Technology, University of Science and Technology of China, Hefei 230027, China)
Abstract: Visible light images are sensitive to illumination change, while thermal infrared images are robust to light conditions. Therefore, thermal infrared images can make up for visible light images’ weakness. However,infrared thermal camera is very expensive, which makes thermal infrared images not as available as visible light images. Thus, in this paper, we propose a method for generating thermal infrared images from visible light images by combining conditional generative adversarial networks with L1 loss. The results on USTC-NVIE database prove the feasibility and effectivity of this method. At the same time, using the generated images as expansion of samples, the performance on recognition task is improved.
Key words : generative adversarial networks; image generation; expression recognition

0  引言

 

熱紅外圖像是紅外傳感器根據(jù)熱輻射采集的圖像,具有良好的目標探測能力。與可見光圖像相比,熱紅外圖像因不受光照影響具有更好的魯棒性,近年來在表情識別研究中開始受到關(guān)注[1-3]。然而,熱紅外數(shù)據(jù)的采集需要昂貴的設備,與可見光圖像相比獲取成本高昂。因而,本文提出基于生成對抗網(wǎng)絡從可見光人臉圖像生成熱紅外人臉圖像的方法。

傳統(tǒng)的生成模型對機器學習來說具有不同的限制。比如,對真實樣本進行最大似然估計的生成模型,嚴重依賴于所選取樣本的分布情況;采用近似法學習的生成模型難以求得最優(yōu)解,只能逼近目標函數(shù)的下界;馬爾科夫鏈方法雖然既可以用于生成模型的訓練又可用于新樣本的生成,但是計算復雜度較高。隨著深度學習的發(fā)展,神經(jīng)網(wǎng)絡模型在各個領(lǐng)域取得突破性進展[4-6]。GOODFELLOW I等人根據(jù)博弈論提出了生成對抗網(wǎng)絡(Generative Adversarial Networks,GAN)[7],創(chuàng)造性地結(jié)合了生成模型和判別模型進行數(shù)據(jù)生成。但GAN的生成方式太過自由,在圖片像素較多的情況下容易失控。針對這一問題,MIRZA M[8]在GAN的基礎上提出條件生成對抗網(wǎng)絡(Conditional Generative Adversarial Networks,cGAN)。而ISOLA P[9]受cGAN和文獻[10]啟發(fā),將GAN的目標函數(shù)與傳統(tǒng)損失函數(shù)相結(jié)合提出Pix2Pix方法,該方法在多種任務中有著出色的表現(xiàn)。

本文提出基于生成對抗網(wǎng)絡生成熱紅外人臉圖像的方法,與Pix2Pix[9]一樣在cGAN目標函數(shù)的基礎上加上傳統(tǒng)損失函數(shù)作為懲罰項,即任務目標,懲罰項為可見圖片與生成樣本間的相似程度。實驗在USTC-NVIE[11]庫上進行,在以可見光圖像為條件進行熱紅外圖像生成的基礎上,利用SVM模型進行表情識別,驗證生成的熱紅外圖片能否被模型識別以及作為擴充樣本是否可以提升模型的訓練效果。

 

1  方法介紹

 

1.1 網(wǎng)絡結(jié)構(gòu)

 

本文的網(wǎng)絡框架如圖1所示,由生成器(Generator,G)和判別器(Discriminator,D)組成。生成器使用隨機噪聲z在可見光圖片y的約束下生成樣本圖片G(z,y)傳遞給判別器。生成的樣本圖片與可見光圖片的L1距離被作為懲罰項反饋給生成模型,以此保證最終的生成圖片與可見光圖片的相似程度。判別器接收到的輸入既有生成的樣本圖片G(z,y)也有真實的熱紅外圖片,它的任務就是判斷接收到的圖片在該可見光圖片y約束的情況下有多大概率是真實的。本文生成器模型采用U-Net神經(jīng)網(wǎng)絡結(jié)構(gòu),如圖1中生成器G中框圖所示。判別器模型則采用神經(jīng)網(wǎng)絡,其結(jié)構(gòu)如圖1中判別器D框圖所示。

 

 

QQ截圖20180921155452.png



1.1.1 生成器

 

本文采用U-Net結(jié)構(gòu)作為生成器的網(wǎng)絡結(jié)構(gòu)。在ISOLA P提出U-Net結(jié)構(gòu)前,圖像到圖像的轉(zhuǎn)化任務中編碼解碼結(jié)構(gòu)的使用最為廣泛,其結(jié)構(gòu)如圖2所示。編碼解碼結(jié)構(gòu)在編碼時,使用卷積層和激活函數(shù)減少信息量。解碼時則執(zhí)行與編碼過程相反的操作。但在數(shù)據(jù)流傳遞的過程中,會出現(xiàn)輸出與輸入之間信息遺失的情況。因此ISOLA P提出了U-Net生成器結(jié)構(gòu)[9] ,其結(jié)構(gòu)如圖1中生成器結(jié)構(gòu)所示。U-Net的結(jié)構(gòu)和編碼解碼類似,但該結(jié)構(gòu)在編解碼過程的鏡像層間加了跳步連接(通過復制編碼層的特征圖譜傳遞給對應的解碼層實現(xiàn)),以此解決生成器輸出輸入之間信息傳遞的問題。

 

1.1.2 判別器

 

ISOLA P[9]為了追求細節(jié)的生成效果,采用馬爾科夫鏈模型作為判別器。然而熱紅外人臉圖像并不追求分毫畢現(xiàn)的效果,因此本文采用神經(jīng)網(wǎng)絡作為判別器結(jié)構(gòu),其結(jié)構(gòu)如圖1中的判別器所示。輸入經(jīng)過這個卷積神經(jīng)網(wǎng)絡輸出判定該輸入是真實圖像的概率。

 

1.2 目標函數(shù)

 

本文的目的是通過生成對抗網(wǎng)絡以可見光人臉圖像為素材生成熱紅外人臉圖像??紤]到同一張圖的可見光圖像與熱紅外圖像的五官分布一致,而且文獻[10]表明,將cGAN的目標函數(shù)和傳統(tǒng)的目標結(jié)合可以提高生成圖像的質(zhì)量,因此本文在生成時還考慮生成圖像與可見光圖像之間的相似程度,即有條件約束的生成對抗網(wǎng)絡,其目標函數(shù)為:

minGmaxDV(D,G)=V′(D,G)+λLL1                                  (1)

式(1)中V′(D,G)就是cGAN的目標函數(shù),即不考慮生成圖像與可見光圖像相似程度的目標函數(shù):

 

微信截圖_20180921160310.png

本文將可見光圖片y和生成器輸出G(z,y)之間的L1距離作為兩張圖片相似程度的懲罰項:

微信截圖_20180921160441.png

式(2)和式(3)中z是隨機噪聲,x是目標圖像,y是可見光圖像,G(z,y)指生成器的輸出,D(·)指判別器輸出的概率。判別器的目標是最大化式(1),即maxDV(D,G),而生成器的目標是最小化式(2)的第二項與λLL1之和,其中,λ是超參數(shù)。

 

1.3 訓練和優(yōu)化

 

為了訓練生成對抗網(wǎng)絡,需要反復迭代多次,每次迭代需要交換固定判別器和生成器中的一個模型參數(shù),更新另一個模型的參數(shù)。

判別器的訓練過程如下:

(1)從隨機噪聲z中采樣; 

(2)對訓練樣本進行采樣,采樣的可見光圖片作為條件y,對應的熱紅外圖片作為真實數(shù)據(jù)樣本x;

(3)更新判別器模型的參數(shù);

(4)所有樣本都采樣過一遍后,固定判別器模型參數(shù),開始新一輪的生成器參數(shù)更新。

生成器的訓練過程如下: 

(1)從隨機噪聲z中采樣;

(2)對訓練樣本的可見光圖片進行采樣作為條件變量y;

(3)計算y與輸出G(z, y)之間的L1距離;

(4)更新生成器模型的參數(shù);

(5)所有樣本都采樣過一遍后,固定生成器模型參數(shù),開始新一輪的判別器參數(shù)更新。

本文使用隨機梯度下降法進行參數(shù)優(yōu)化,進行足夠多次交替訓練的迭代之后,停止訓練。

 

2  實驗條件及結(jié)果分析

 

2.1 實驗條件

 

本文在USTC-NVIE[8]數(shù)據(jù)庫上進行實驗,該數(shù)據(jù)庫在左、中、右三種光源下,共收集了126名志愿者6種基本面部表情(高興、悲傷、驚喜、恐懼、憤怒和厭惡)的可見光和熱紅外圖像。

在進行實驗之前,需要對圖片進行預處理。使用haar級聯(lián)特征對可見光圖像進行人臉定位和截??;對熱紅外圖像則使用大津法(OSTU)和垂直投影曲線進行人臉定位和截取。最終,截取了1 051對有表情的可見光人臉圖像和熱紅外人臉圖像對以及980對無表情的可見光和熱紅外圖像對,并調(diào)整所有圖像的大小為256×256。本文將成對的可見光人臉圖像和熱紅外圖像稱為一個樣本。

 

2.1.1 對照實驗設置

 

本文設置了3組對照模型進行效果對比,加上本文提出的模型,共4組模型,都采用神經(jīng)網(wǎng)絡作為判別器,但生成器結(jié)構(gòu)和目標函數(shù)各不相同。為了方便表述,后文稱公式(2)為目標函數(shù)Ⅰ,稱公式(1)為目標函數(shù)Ⅱ;以編碼解碼為生成器結(jié)構(gòu)的生成框架為網(wǎng)絡結(jié)構(gòu)I,以U-Net為生成器結(jié)構(gòu)的生成框架為網(wǎng)絡結(jié)構(gòu)II。則本文的4組實驗模型分別是網(wǎng)絡結(jié)構(gòu)I目標函數(shù)I、網(wǎng)絡結(jié)構(gòu)I目標函數(shù)II、網(wǎng)絡結(jié)構(gòu)II目標函數(shù)I以及本文提出的方法網(wǎng)絡結(jié)構(gòu) II目標函數(shù)II。

本文使用的判別器神經(jīng)網(wǎng)絡如圖1中的判別器框架所示,所有卷積核大小都為4×4,除最后一層的步長為1,使用Sigmoid激活函數(shù)輸出概率,其他卷積層的步長都為2,都使用LeakyReLU作為激活函數(shù)并且都需要進行批量正則化(Batch Normalization, BN)。

對于兩種生成器網(wǎng)絡結(jié)構(gòu),除了跳步連接的差別外,所有卷積層的卷積核大小都為4×4,步長都為2,都使用ReLU函數(shù)作為激活函數(shù),并且都需要進行批量正則化。從輸入開始各編碼層的輸出通道數(shù)為32→64→128→256→512→512→512→512,編碼之后一直到輸出的各解碼層的輸出通道數(shù)為512→512→512→ 512→ 256→128→64→32→3。

設置的4組模型除進行生成實驗外還進行表情識別實驗。

 

2.1.2 生成實驗條件

 

生成實驗中,數(shù)據(jù)集被分為訓練集、驗證集和測試集。其中,訓練集有1 222個樣本,包含了全部的980對無表情圖片和242對有表情圖片。驗證集和測試集樣本則都是有表情的圖片,分別有384個樣本和425個樣本。

為了評估測試集的目標圖片和生成圖片的差異,本文使用高斯Parzen窗[12]作為衡量標準。

 

2.1.3 識別實驗條件

 

為了驗證生成圖像能否被模型識別,本文使用SVM作為識別模型,以生成實驗的訓練集和驗證集中的熱紅外圖像為訓練集,總共有1 606幅熱紅外圖像。訓練SVM模型分別識別測試集的生成圖像和原本熱紅外圖像(目標圖像)的表情標簽。

最后,為了驗證生成圖片作為擴充樣本的效果,仍使用SVM模型,除了生成實驗的訓練集和驗證集外,再加入213幅生成的圖像,總共1 819幅熱紅外圖像作為訓練集。剩下的212幅生成圖像的目標圖像作為測試集。

 

2.2 實驗結(jié)果和分析

 

2.2.1 生成實驗結(jié)果

 

 

圖3為一個樣本的可見圖像、生成的紅外圖像及其目標圖像的示例。對比4種模型的生成圖片與目標圖片可以發(fā)現(xiàn),本文提出的模型(網(wǎng)絡結(jié)構(gòu)II目標函數(shù)II)的生成圖片與目標圖片更相似。表1是生成圖片與目標圖片基于Parzen窗的對數(shù)似然估計,結(jié)果表明本文提出的方法的生成圖片(圖3(e))與目標圖片更相似。結(jié)合表1的結(jié)果以及圖3的成像效果考慮,生成效果還是比較令人滿意的。

 

微信截圖_20180922151724.png


2.2.2 識別實驗結(jié)果

 

表2是使用SVM模型識別生成圖片的實驗結(jié)果,實驗結(jié)果表明生成的圖片可以被識別模型識別,并且與目標圖片被識別的效果相似。本文提出的方法(網(wǎng)絡結(jié)構(gòu)II目標函數(shù)II)的準確率是所有生成圖片中最高的。

微信截圖_20180922150447.png 

表3分別是沒有進行樣本擴充與使用生成圖片作為擴充樣本訓練的模型對真實熱紅外圖像的識別結(jié)果。實驗結(jié)果表明生成的圖片作為擴充樣本對模型識別效果的提升起了積極的作用。與沒有擴充樣本的模型相比,四組擴充訓練集樣本的模型,識別準確率分別提升了1.28%、2.7%、1.97%以及3.24%。訓練集只進行了12.36%的擴充,提升效果令人滿意。由此可見使用生成對抗網(wǎng)絡生成圖片可以作為擴增樣本提升模型訓練效果。四組擴充識別實驗中,本文提出的方法(網(wǎng)絡結(jié)構(gòu)II目標函數(shù)II)生成的圖片作為擴增樣本訓練效果最好。

微信截圖_20180922150548.png

綜合生成實驗以及識別實驗可以發(fā)現(xiàn)本文提出的方法比其他模型的結(jié)果更好。如果分別觀察各組實驗的網(wǎng)絡結(jié)構(gòu)和目標函數(shù),可以發(fā)現(xiàn)不論是生成實驗還是識別實驗,目標函數(shù)相同的情況下,使用U-Net的(網(wǎng)絡結(jié)構(gòu)II)模型,實驗結(jié)果都比使用編碼解碼器(網(wǎng)絡結(jié)構(gòu)I)的結(jié)果要好。而網(wǎng)絡結(jié)構(gòu)相同的情況下,使用目標函數(shù)II的結(jié)果都比使用目標函數(shù)I的結(jié)果要好。綜上所述,本文所提方法表現(xiàn)出的優(yōu)越性是來自模型結(jié)構(gòu)以及目標函數(shù)的雙重作用。

 

3  結(jié)論

 

為了解決近年來備受研究關(guān)注的熱紅外圖像采集困難的問題,本文提出采用條件生成對抗網(wǎng)絡結(jié)合L1損失從可見光圖像中生成熱紅外圖像的方法。USTC-NVIE庫上的實驗結(jié)果表明,生成對抗網(wǎng)絡框架可用來從可見光圖像生成熱紅外圖像,并且生成的圖片作為擴充樣本可提升模型訓練的效果。

 

參考文獻

[1] BETTADAPURA V. Face expression recognition and analysis: the state of the art[J]. arXiv preprint arXiv:1203.6722. 2012.

[2] YOSHITOMI Y, KIM S I, Kawano T, et al. Effect of sensor fusion for recognition of emotional states using voice, face image and thermal image of face[C]//Proceedings in 9th IEEE International Workshop on Robot and Human Interactive Communication, 2000. IEEE, 2000: 178-183.

[3] JARLIER S, GRANDJEAN D, DELPLANQUE S, et al. Thermal analysis of facial muscles contractions[J]. IEEE Transactions on Affective Computing, 2011, 2 (1): 2-9.

[4] DAHL G E, YU D, DENG L, et al. Context-dependent pre-trained deep neural networks for large vocabulary speech recognition[J]. IEEE Transactions on Audio, Speech, and Language Processing, 2012, 20 (1): 30-42.

[5] RUSSAKOVSKY O, DENG J, SU H, et al. Imagenet large scale visual recognition challenge[J].International Journal of Computer Vision, 2015, 115 (3): 211-252.

[6] HINTON G, DENG L, YU D, et al. Deep neural networks for acoustic modeling in speech recognition:the shared views of four research groups[J]. IEEE Signal Processing Magazine, 2012,29 (6): 82-97.

[7] GOODFELLOW I, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C]//Advances in Neural Information Processing Systems, 2014: 2672-2680.

[8] MIRZA M,OSINDERO S. Conditional generative adversarial nets[J]. arXiv preprint arXiv:1411.1784. 2014.

[9] ISOLA P, ZHU J Y, ZHOU T, et al. Image-to-image translation with conditional adversarial networks[J].arXiv preprint arXiv:1611.07004. 2016. 

[10] PATHAK D,KRAHENBUHL P, DONAHUE J, et al. Context encoders: feature learning by in painting[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 2536-2544. 

[11] WANG S, LIU Z,LV S, et al. A natural visible and infrared facial expression database for expression recognition and emotion inference[J]. IEEE Transactions on Multimedia, 2010, 12(7): 682-691. 

[12] BREULEUX O, BENGIO Y, VINCENT P. Quickly generating representative samples from an rbm derived process[J]. Neural Computation, 2011, 23 (8): 2058-2073.

 

 

(收稿日期:2018-04-14)

 

 

作者簡介:

王雅欣(1991-),女,碩士研究生,主要研究方向:情感計算。

史瀟瀟(1991-),女,碩士,主要研究方向:情感計算。

 

 

 

 

 

 



此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
好吊色欧美一区二区三区四区| 亚洲裸体俱乐部裸体舞表演av| 欧美福利在线观看| 欧美一区二区视频网站| 亚洲一区三区电影在线观看| 99精品国产福利在线观看免费| 亚洲国产精品成人综合| 久久精品91| 亚洲电影免费在线| 亚洲黄页视频免费观看| 亚洲国产精品一区二区第四页av| 亚洲第一页中文字幕| 久久精品夜色噜噜亚洲a∨| 欧美一区二区播放| 久久成人资源| 久久国内精品视频| 亚洲电影在线播放| 91久久精品国产91久久性色tv | 亚洲一区二区三区精品动漫| 一区二区三区日韩欧美| 一区二区av在线| 亚洲一区二区黄| 午夜一区不卡| 久久国产手机看片| 亚洲精品久久嫩草网站秘色| 91久久中文| aa亚洲婷婷| 亚洲欧美在线一区二区| 欧美影院在线| 久久综合色88| 欧美另类女人| 国产精品毛片a∨一区二区三区|国 | 日韩网站在线观看| 亚洲性夜色噜噜噜7777| 午夜精品一区二区三区在线视 | 亚洲香蕉网站| 久久精品毛片| 欧美va亚洲va香蕉在线| 欧美日韩理论| 国产精品一区久久| 一区二区三区在线高清| 亚洲日韩视频| 亚洲综合第一| 亚洲国产美女久久久久| 一区二区激情视频| 欧美在线国产精品| 欧美成人性生活| 国产精品wwwwww| 国产一区二区三区高清| 亚洲国产精品久久91精品| 一本色道久久综合一区| 欧美一区二区三区在线| 亚洲免费观看高清在线观看 | 欧美韩国日本综合| 国产精品视频yy9299一区| 韩国av一区二区三区| 亚洲精品视频二区| 欧美一区二区在线免费观看| 亚洲精品网址在线观看| 午夜亚洲福利| 欧美激情第一页xxx| 国产精品欧美日韩久久| 在线观看不卡av| 亚洲一区精品视频| 亚洲精品日韩精品| 欧美影院成年免费版| 欧美精品一区二区三区在线看午夜| 国产精品毛片高清在线完整版| 狠狠色狠狠色综合日日tαg | 亚洲精品一级| 久久动漫亚洲| 欧美三区美女| 在线视频观看日韩| 亚洲免费网址| 亚洲午夜电影在线观看| 久久亚洲私人国产精品va媚药| 欧美午夜女人视频在线| 在线观看视频一区二区| 亚洲一卡久久| 日韩亚洲欧美高清| 久久综合成人精品亚洲另类欧美| 国产精品久久一区主播| 亚洲国产精品激情在线观看| 欧美中文在线观看| 亚洲欧美在线高清| 欧美日韩精品免费看| 好看的日韩视频| 亚洲综合欧美日韩| 在线视频欧美日韩精品| 男人的天堂亚洲| 韩国久久久久| 午夜精品一区二区在线观看| 在线亚洲观看| 欧美极品一区二区三区| 韩日精品在线| 欧美伊人久久| 西西人体一区二区| 欧美视频在线不卡| 亚洲精品偷拍| 亚洲欧洲一二三| 久久综合色88| 禁久久精品乱码| 久久经典综合| 久久久久九九九九| 日韩写真在线| 一区二区三区成人精品| 欧美午夜精品| 欧美在线免费观看| 亚洲一区二区三| 亚洲电影免费在线观看| 亚洲精品一区二区在线观看| 91久久国产精品91久久性色| 久久精品亚洲精品| 国产日韩欧美一区二区三区在线观看 | 在线视频精品| 亚洲婷婷综合色高清在线 | 国产精品爱啪在线线免费观看| 亚洲精品五月天| 一区二区福利| 欧美日韩美女在线| 亚洲免费观看在线视频| 一区二区三区日韩欧美精品| 欧美日韩精品高清| 一区二区三区国产在线观看| 在线综合视频| 国产精品va在线播放| 在线亚洲欧美视频| 亚洲视频中文字幕| 国产精品二区在线| 亚洲自拍偷拍一区| 欧美在线视频一区二区三区| 你懂的视频一区二区| 亚洲欧美在线一区二区| 另类尿喷潮videofree| 激情综合在线| 91久久久久久国产精品| 免费国产一区二区| 亚洲韩国日本中文字幕| 日韩视频欧美视频| 国产精品a久久久久| 亚洲免费视频成人| 久久伊人亚洲| 亚洲欧洲精品一区| 亚洲调教视频在线观看| 国产精品日韩欧美大师| 欧美激情精品久久久久久大尺度| 久热国产精品视频| 亚洲二区三区四区| 夜夜夜久久久| 国产精品护士白丝一区av| 亚洲尤物在线视频观看| 久久精品动漫| 亚洲韩国日本中文字幕| 亚洲一区二区三区中文字幕在线 | 欧美一区二区三区在线观看| 国产视频久久| 亚洲激情成人| 欧美日韩三级| 欧美一区视频在线| 免费观看成人鲁鲁鲁鲁鲁视频| 亚洲伦理在线| 欧美一区二区三区婷婷月色| 韩国精品在线观看| 99视频超级精品| 国产精品一区二区在线| 亚洲国产成人精品久久| 欧美精品在线看| 午夜久久久久| 欧美精品一区二区三区一线天视频| 亚洲视频在线视频| 久久电影一区| 欧美激情一区二区三区在线视频观看 | 亚洲毛片av在线| 午夜精品视频网站| 在线免费观看日韩欧美| 亚洲视频自拍偷拍| 狠狠噜噜久久| 亚洲欧美资源在线| 亚洲福利视频网| 欧美一级欧美一级在线播放| 在线观看日韩专区| 欧美一级一区| 亚洲精品国产拍免费91在线| 欧美在线黄色| 亚洲蜜桃精久久久久久久| 久久久www| 在线亚洲欧美视频| 欧美成人免费全部| 亚洲欧美激情精品一区二区| 欧美fxxxxxx另类| 亚洲免费中文字幕| 欧美久久久久久久久久| 午夜一区二区三区不卡视频| 欧美人成在线视频| 久久精品二区三区| 国产精品免费电影| 一区二区三区欧美成人| 玉米视频成人免费看| 欧美一级视频| 在线综合亚洲|