《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > 人體行為序列化識(shí)別算法研究
人體行為序列化識(shí)別算法研究
2018年電子技術(shù)應(yīng)用第4期
胡青松1,2,張 亮1,2
1.中國(guó)礦業(yè)大學(xué) 物聯(lián)網(wǎng)(感知礦山)研究中心,江蘇 徐州221008; 2.中國(guó)礦業(yè)大學(xué) 信息與控制工程學(xué)院,江蘇 徐州221008
摘要: 針對(duì)傳統(tǒng)方法在人體行為識(shí)別方面拓展性不強(qiáng)等問題,提出一種序列化的研究思想,提取骨骼圖的特征矢量,用SVM訓(xùn)練和識(shí)別靜態(tài)動(dòng)作,形成序列即可表示動(dòng)態(tài)動(dòng)作,因此只要豐富靜態(tài)動(dòng)作庫(kù),就可以實(shí)現(xiàn)多種動(dòng)態(tài)動(dòng)作的識(shí)別,具有很好的拓展性。為了減少靜態(tài)動(dòng)作識(shí)別錯(cuò)誤產(chǎn)生的影響,提出一種基于前后信息的糾錯(cuò)算法。實(shí)驗(yàn)表明,該算法具有較高的識(shí)別準(zhǔn)確率,并且具有很好的魯棒性和實(shí)時(shí)性。
中圖分類號(hào): TP393
文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.173038
中文引用格式: 胡青松,張亮. 人體行為序列化識(shí)別算法研究[J].電子技術(shù)應(yīng)用,2018,44(4):122-125,129.
英文引用格式: Hu Qingsong,Zhang Liang. Research on human behavior serialization recognition based on skeleton graph[J]. Application of Electronic Technique,2018,44(4):122-125,129.
Research on human behavior serialization recognition based on skeleton graph
Hu Qingsong1,2,Zhang Liang1,2
1.Internet of Things Perception Mine Research Center,China University of Mining and Technology,Xuzhou 221008,China; 2.School of Information and Control Engineering,China University of Mining and Technology,Xuzhou 221008,China
Abstract: In view of the fact that the traditional method is not expanding well in human behavior recognition, this paper proposes a serialization research idea. A sequence which can represent the dynamic action is generated by using SVM to train and recognize static action whose feature vectors of skeleton map extracts from Kinect. Therefore, as long as the static action library is rich, a variety of dynamic actions can be identified, and it has good scalability. In order to reduce the influence of the error recognition of static motion, this paper proposes an error correction algorithm based on front and back information. Experiments show that the algorithm has higher recognition accuracy, and has better robustness and real-time.
Key words : action recognition;skeleton map;feature vectors;SVM
0 引言

    隨著科學(xué)技術(shù)的發(fā)展,計(jì)算機(jī)的運(yùn)算能力大大提升,針對(duì)大數(shù)據(jù)的處理漸漸得以實(shí)現(xiàn)。在此基礎(chǔ)上發(fā)展而來(lái)的人體行為姿態(tài)識(shí)別[1]為人機(jī)交互、視頻監(jiān)控和智能家居等方面的應(yīng)用提供了基礎(chǔ)。近些年,研究人員已經(jīng)在人體行為識(shí)別方面做了大量的研究工作,取得了許多重要的成果,但是對(duì)于復(fù)雜人體行為的識(shí)別準(zhǔn)確率較低,仍然有待于提高。

    基于視覺的人體行為識(shí)別方法[2]可以分為兩類,一類基于模板匹配[3],一類基于機(jī)器學(xué)習(xí)[4]?;谀0迤ヅ涞姆椒ㄍㄟ^計(jì)算當(dāng)前動(dòng)作與模板庫(kù)里的模板之間的相似度,把當(dāng)前模板判定為最相似動(dòng)作的過程。IBANEZ R和SORIA A等人通過提取人體肢體行為軌跡,分別用動(dòng)態(tài)時(shí)間規(guī)整(DTW)和隱馬爾科夫(HMM)算法,基于模板匹配進(jìn)行人體行為識(shí)別[5]?;跈C(jī)器學(xué)習(xí)的方法通過提取樣本特征對(duì)樣本訓(xùn)練,得到一個(gè)分類器,此分類器具有預(yù)測(cè)未知樣本的能力。TRIGUEIROS P和RIBEIRO F等人就對(duì)比了幾種機(jī)器學(xué)習(xí)算法在手勢(shì)識(shí)別上的應(yīng)用[6]。但是,這些算法都是為某一具體行為動(dòng)作所設(shè)計(jì),當(dāng)需要檢測(cè)額外的行為動(dòng)作時(shí),又需要重新設(shè)計(jì)方案,拓展性較差。

    本文使用從Kinect[7]采集的骨骼圖數(shù)據(jù)(由MSRC-12 Gesture Dataset數(shù)據(jù)庫(kù)[8]提供),Kinect提取的骨骼圖像能夠克服光線強(qiáng)弱等外界因素帶來(lái)的干擾,具有較強(qiáng)的魯棒性;提取骨骼特征,并采用機(jī)器學(xué)習(xí)的算法對(duì)靜態(tài)動(dòng)作分類,最終形成序列;從序列中找出需要識(shí)別的動(dòng)作序列的過程即可表示動(dòng)態(tài)動(dòng)作識(shí)別過程,此過程具有很好的實(shí)時(shí)性和拓展性。

1 基于骨骼圖的特征提取

    選取既能夠充分表示人體某一動(dòng)作,又不包含過多的冗余信息的人體特征特征提取對(duì)行為識(shí)別的研究很有價(jià)值。根據(jù)人體機(jī)械學(xué)理論,本文通過提取4個(gè)關(guān)節(jié)點(diǎn)向量、5個(gè)關(guān)節(jié)點(diǎn)角度和4個(gè)關(guān)節(jié)點(diǎn)距離系數(shù)表示人體行為姿態(tài)。

1.1 關(guān)節(jié)點(diǎn)向量提取

    如圖1所示,4個(gè)關(guān)節(jié)點(diǎn)向量分別是左上臂(VSL-EL)、右上臂(VSR-ER)、左大腿(VHL-KL)和右大腿(VHR-KR)?,F(xiàn)以左上臂為例,計(jì)算左上臂向量。已知左肩膀(ShoulderLeft)關(guān)節(jié)點(diǎn)坐標(biāo)為SL(Sx,Sy,Sz),左手肘(ElbowLeft)關(guān)節(jié)點(diǎn)坐標(biāo)為EL(Ex,Ey,Ez),則左上臂關(guān)節(jié)點(diǎn)向量計(jì)算方法如式(1)所示。其他關(guān)節(jié)點(diǎn)向量以此類推。

    jsj1-gs1.gif

jsj1-t1.gif

1.2 關(guān)節(jié)點(diǎn)角度提取

    在原有向量的基礎(chǔ)上提取4個(gè)關(guān)節(jié)點(diǎn)角度。聯(lián)合關(guān)節(jié)點(diǎn)向量,可以描述人體左小臂、右小臂、左小腿和右小腿的活動(dòng)狀態(tài)。圖1中θEL、θER、θKL和θKR分別表示左肘關(guān)節(jié)點(diǎn)角度、右肘關(guān)節(jié)點(diǎn)角度、左膝關(guān)節(jié)點(diǎn)角度和右膝關(guān)節(jié)點(diǎn)角度。θHC表示臀部中心到頭部的向量與豎直方向向量之間的夾角,可以表示人體姿態(tài)的彎腰程度,描述整體軀干的活動(dòng)狀態(tài)。夾角可以通過式(2)計(jì)算獲得。

    jsj1-gs2.gif

其中V1、V2分別表示兩個(gè)關(guān)節(jié)點(diǎn)向量,θ表示這兩個(gè)關(guān)節(jié)點(diǎn)向量的夾角。

1.3 關(guān)節(jié)點(diǎn)距離系數(shù)提取

    為了能夠讓選取特征對(duì)上肢手部活動(dòng)更加敏感,本文加入4個(gè)關(guān)節(jié)點(diǎn)距離系數(shù)。圖1中,a為臀部中心到頭部的關(guān)節(jié)向量,b為頭部到右手的關(guān)節(jié)向量,c為頭部到左手的關(guān)節(jié)向量,d為臀部中心到右手的關(guān)節(jié)向量,e為臀部中心到左手的關(guān)節(jié)向量。通過式(3)可以獲得頭部到左右手的相對(duì)距離系數(shù)d1、d2和臀部中心到左右手的相對(duì)距離系數(shù)d3、d4。

    jsj1-gs3.gif

    至此,基于骨骼圖的特征可以表示為式(4)所示的特征矩陣,共計(jì)4×3+5+4=21維。

     jsj1-gs4.gif

2 基于SVM的識(shí)別算法流程

2.1 靜態(tài)動(dòng)作的SVM識(shí)別

    支持向量機(jī)[9](Support Vector Machines,SVM)是一種用于分類的算法,它能夠在多維空間找出完美劃分事物的超平面。本文使用SVM進(jìn)行動(dòng)作分類,以二分類支持向量機(jī)為例,已知訓(xùn)練樣本集T:

jsj1-gs5-12.gif

    使用多個(gè)二分類器形成多分類器,用豐富的樣本訓(xùn)練并識(shí)別人體靜態(tài)姿勢(shì)。

2.2 動(dòng)態(tài)動(dòng)作的序列化識(shí)別

    設(shè)定某一采樣頻率,所提取到每一幀骨骼圖都以靜態(tài)的方式呈現(xiàn)。對(duì)每一幀骨骼圖進(jìn)行靜態(tài)動(dòng)作識(shí)別,可以得到一串長(zhǎng)序列。在長(zhǎng)序列中尋找待識(shí)別序列即為動(dòng)態(tài)動(dòng)作識(shí)別。如圖2所示,一組抬起雙手舉高(Start system)的動(dòng)作可以分解為G1、G2、G3 3個(gè)靜態(tài)動(dòng)作,因此只要在長(zhǎng)序列中檢測(cè)到連續(xù)的G1、G2、G3 3個(gè)靜態(tài)動(dòng)作即可判定出現(xiàn)“抬起雙手舉高”的動(dòng)態(tài)動(dòng)作。

jsj1-t2.gif

2.3 分類的糾錯(cuò)過程

    為了減小靜態(tài)姿勢(shì)識(shí)別錯(cuò)誤對(duì)動(dòng)態(tài)動(dòng)作識(shí)別準(zhǔn)確率的影響,本文提出一種基于前后信息的姿態(tài)糾正算法。一般情況下,相鄰兩幀或者多幀的數(shù)據(jù)描述的都是同一動(dòng)作。算法流程圖如圖3所示,其中predict是分類器預(yù)測(cè)的結(jié)果,sequence是最終形成的長(zhǎng)序列。首先判斷當(dāng)前預(yù)測(cè)結(jié)果是否與長(zhǎng)序列隊(duì)尾數(shù)據(jù)相同,如果相同,說(shuō)明當(dāng)前動(dòng)作與上一幀動(dòng)作相同,把預(yù)測(cè)結(jié)果加入長(zhǎng)序列隊(duì)尾;如果不相同,需要驗(yàn)證當(dāng)前預(yù)測(cè)結(jié)果是否出錯(cuò)。此算法判斷當(dāng)前動(dòng)作之后的n(本文選取15)幀預(yù)測(cè)結(jié)果中出現(xiàn)最多的數(shù)據(jù)是否等于當(dāng)前動(dòng)作預(yù)測(cè)結(jié)果,并且其所占比是否大于某一閾值(本文選取0.5),如果是,將當(dāng)前動(dòng)作的預(yù)測(cè)結(jié)果加入長(zhǎng)序列隊(duì)尾;如果否,說(shuō)明當(dāng)前動(dòng)作預(yù)測(cè)結(jié)果出錯(cuò),長(zhǎng)序列隊(duì)尾數(shù)據(jù)保持不變。

jsj1-t3.gif

3 實(shí)驗(yàn)驗(yàn)證

3.1 訓(xùn)練靜態(tài)動(dòng)作

    MSRC-12 Gesture Dataset是微軟提供的數(shù)據(jù)庫(kù),共包括12組動(dòng)作。本文選擇其中3組動(dòng)作,分別為Start system、Duck和Push right,如圖2、圖4和圖5所示。

jsj1-t4.gif

jsj1-t5.gif

    顯然,大多數(shù)志愿者保持某一靜態(tài)動(dòng)作的時(shí)間并不一致。為了合理利用資源和方便處理,把姿勢(shì)劃分為進(jìn)行態(tài)和保持態(tài)兩種狀態(tài):

    (1)進(jìn)行態(tài)是一組動(dòng)作的中間狀態(tài),即兩種靜態(tài)姿態(tài)的過度,可包含運(yùn)動(dòng)過程中較大范圍的運(yùn)動(dòng)姿態(tài),圖2(b)的G2和圖5(b)中的G5即是進(jìn)行態(tài)。因?yàn)檫M(jìn)行態(tài)不能對(duì)決策結(jié)果起決定性作用,所以進(jìn)行態(tài)并不需要非常高的識(shí)別精確度。

    (2)保持態(tài)是一組動(dòng)作中保持時(shí)間較長(zhǎng)的狀態(tài),能夠?qū)ψ藙?shì)的識(shí)別起決定性作用,因此需要很高的識(shí)別準(zhǔn)確率。圖2(a)中的G1、圖2(c)中的G3、圖4(b)中的G4以及圖5(c)中的G6都屬于保持態(tài)。實(shí)驗(yàn)中,從10人中選取600幀G1姿勢(shì),5人中選取550幀G2、G3、G4、G5和G6姿勢(shì),共3 350幀數(shù)據(jù),用于訓(xùn)練分類器,SVM識(shí)別結(jié)果見表1。

jsj1-b1.gif

3.2 靜態(tài)動(dòng)作結(jié)果分析

    采用十折交叉驗(yàn)證法檢驗(yàn)分類器的性能,最終得到的平均識(shí)別準(zhǔn)確度為93.12%。表1為單個(gè)姿態(tài)的識(shí)別準(zhǔn)確度。從表1可以看出,位于保持態(tài)的姿態(tài)識(shí)別準(zhǔn)確率普遍在90%以上,達(dá)到較高的準(zhǔn)確率。進(jìn)行態(tài)姿態(tài)識(shí)別準(zhǔn)確率比保持態(tài)稍低,但是從前文可知,這對(duì)最終的判定結(jié)果影響不大。

3.3 序列糾錯(cuò)

    采用2.3節(jié)所述的方法進(jìn)行姿態(tài)序列糾錯(cuò)。不失一般性,從實(shí)驗(yàn)的3 350幀數(shù)據(jù)中隨機(jī)選取150幀數(shù)據(jù)(原序列)為例,見圖6(a)。在原序列第30幀左右,姿勢(shì)2(G2)向姿勢(shì)3(G3)過度階段出現(xiàn)了較多錯(cuò)分類現(xiàn)象。圖6(b)是采用2.3節(jié)方法糾錯(cuò)后序列,可以看出,整個(gè)序列變得光滑得多,上述的分類錯(cuò)誤得到了抑制,大大方便了后續(xù)動(dòng)作識(shí)別。

jsj1-t6.gif

3.4 態(tài)動(dòng)作識(shí)別驗(yàn)證

    為便利于分析,將經(jīng)過糾錯(cuò)處理的數(shù)據(jù)中連續(xù)的n個(gè)“1”用一個(gè)“1”表示,其他姿態(tài)以此類推。以Start system為例,當(dāng)檢測(cè)到連續(xù)的1,2,3或者1,3則可以判定出現(xiàn)一組Start system動(dòng)作,當(dāng)檢測(cè)到連續(xù)的1,2,3,2,1、1,2,3,1、1,3,2,1、1,3,1則判定完成Start system動(dòng)作并回到站姿(G1)。用MSRC-12 Gesture Dataset數(shù)據(jù)測(cè)試,測(cè)試結(jié)果見表2。為了對(duì)比算法的優(yōu)劣,表2中同時(shí)列出了文獻(xiàn)[10]的隨機(jī)森林算法的識(shí)別情況。

jsj1-b2.gif

    由表2明顯可以看出,與文獻(xiàn)[10]的算法相比,本文提出的算法的識(shí)別準(zhǔn)確率更高。通過實(shí)驗(yàn)得知,Start system、Duck和Push right 3種動(dòng)作具體的識(shí)別準(zhǔn)確率分別是71.82%、80%和76.36%。

4 總結(jié)

    本文算法可以實(shí)現(xiàn)實(shí)時(shí)提取骨骼數(shù)據(jù),計(jì)算骨骼特征,分類識(shí)別并形成序列,具有很好的實(shí)時(shí)性。序列化的動(dòng)態(tài)動(dòng)作識(shí)別方法可以滿足各種動(dòng)作的任意組合,具有很好的拓展性。實(shí)驗(yàn)表明,本文算法具有較高的識(shí)別準(zhǔn)確率。但是,對(duì)采集到的每一幀骨骼圖進(jìn)行分類無(wú)疑會(huì)增加算法復(fù)度。因此,如何降低冗余的分類識(shí)別,是下一步研究需要解決的問題。

參考文獻(xiàn)

[1] 李瑞峰,王亮亮,王珂.人體動(dòng)作行為識(shí)別研究綜述[J].模式識(shí)別與人工智能,2014,27(1):35-48.

[2] 胡瓊,秦磊,黃慶明.基于視覺的人體動(dòng)作識(shí)別綜述[J].計(jì)算機(jī)學(xué)報(bào),2013,36(12):2512-2524.

[3] NIEBLES J C,WANG H,LI F F.Unsupervised learning of human action categories using spatial-temporal words[J].International Journal of Computer Vision,2008,79(3):299-318.

[4] JAGER M,KNOLL C,HAMPRECHT F A.Weakly supervised learning of a classifier for unusual event detection[J].IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society,2008,17(9):1700-1708.

[5] IBABEZ R,SORIA A,TEYSEYRE A,et al.Easy gesture recognition for Kinect[J].Advances in Engineering Software,2014,76:171-180.

[6] TRIGUEIROS P,RIBEIRO F,REIS L P.A comparison of machine learning algorithms applied to hand gesture recognition[J].Information Systems & Technologies,2012,52(11):41-46.

[7] ZHANG Z.Microsoft Kinect sensor and its effect[M].IEEE Computer Society Press,2012:4-10.

[8] 刁俊方.基于Kinect的人體動(dòng)作識(shí)別技術(shù)研究[D].重慶:重慶大學(xué),2015.

[9] SOTIRIS V A,TSE P W,PECHT M G.Anomaly detection through a Bayesian support vector machine[J].IEEE Transactions on Reliability,2010,59(2):277-286.

[10] FOTHERGILL S,MENTIS H,KOHLI P,et al.Instructing people for training gestural interactive systems[C].Sigchi Conference on Human Factors in Computing Systems,ACM,2012:1737-1746.



作者信息:

胡青松1,2,張  亮1,2

(1.中國(guó)礦業(yè)大學(xué) 物聯(lián)網(wǎng)(感知礦山)研究中心,江蘇 徐州221008;

2.中國(guó)礦業(yè)大學(xué) 信息與控制工程學(xué)院,江蘇 徐州221008)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
一区二区毛片| 欧美日韩一区二区三区视频| 亚洲国产精品激情在线观看| 免费在线欧美黄色| 亚洲乱码视频| 一区二区精品国产| 亚洲黄一区二区三区| 欧美午夜欧美| 欧美一级播放| 久久精品青青大伊人av| 亚洲韩日在线| 在线观看精品一区| 欧美日本在线视频| 亚洲欧美在线aaa| 欧美在线亚洲综合一区| 亚洲高清不卡一区| 韩日精品中文字幕| 欧美日本在线一区| 欧美激情精品久久久久久免费印度| 日韩午夜三级在线| 亚洲一区二区欧美日韩| 国语自产在线不卡| 国产在线精品自拍| 欧美视频在线观看视频极品| 久久av一区二区三区漫画| 91久久夜色精品国产网站| 亚洲少妇中出一区| 狠狠综合久久| 影音先锋日韩资源| 亚洲黄色av| 91久久精品国产91久久性色| 亚洲激情在线激情| 亚洲久久成人| 国产亚洲激情| 欧美日韩国产综合视频在线观看中文 | 亚洲欧洲午夜| 亚洲伦理网站| 正在播放亚洲一区| 欧美一区二区三区播放老司机 | 狠狠爱www人成狠狠爱综合网| 好吊一区二区三区| 亚洲国产精品va在线观看黑人| 亚洲激情成人网| 日韩视频精品| 亚洲一区在线免费| 亚洲国产专区| 99国产精品| 在线国产精品一区| 亚洲区免费影片| 狠狠88综合久久久久综合网| 亚洲第一级黄色片| 国产欧美综合在线| 欧美日韩国产色站一区二区三区| 欧美三区美女| 国产亚洲精品7777| 亚洲日韩第九十九页| 激情文学一区| 国产视频自拍一区| 揄拍成人国产精品视频| 99国产精品视频免费观看| 亚洲一区欧美一区| 亚洲国产成人在线播放| 午夜精品偷拍| 亚洲一区观看| 亚洲国产福利在线| 亚洲亚洲精品三区日韩精品在线视频| 亚洲欧洲在线视频| 亚洲一区二区三区四区中文| 日韩一级在线观看| 午夜精品视频一区| 奶水喷射视频一区| 国产精品久久久久久av福利软件 | 国产一区二区视频在线观看| 国产乱码精品一区二区三区av| 国产精品jvid在线观看蜜臀 | 亚洲欧美日韩一区二区三区在线| 亚洲美女淫视频| 午夜欧美电影在线观看| 日韩视频一区| 久久久精品国产一区二区三区 | 欧美日韩www| 国产午夜亚洲精品不卡| 亚洲精品社区| 久久激情视频久久| 亚洲综合第一页| 亚洲一区二区三| 久久这里只精品最新地址| 久久久久久自在自线| 久久久久高清| 欧美日韩一区在线观看视频| 一区视频在线| 午夜精品视频一区| 亚洲小视频在线观看| 麻豆精品网站| 欧美福利一区| 欧美欧美全黄| 韩国一区二区三区美女美女秀| 亚洲视频大全| 日韩一本二本av| 久久一区欧美| 欧美大片免费观看在线观看网站推荐| 国产精品一区二区久久久| 国产九色精品成人porny| 亚洲精品资源美女情侣酒店| 亚洲七七久久综合桃花剧情介绍| 久久久久久久999精品视频| 国产精品久久久久久模特| 欧美日韩免费观看一区| 激情五月婷婷综合| 亚洲欧美在线一区二区| 亚洲一区www| 欧美日韩精品二区| 亚洲精品视频免费观看| 亚洲美女中出| 欧美成人国产| 在线播放一区| 亚洲电影av| 老司机精品视频网站| 国内精品久久久久伊人av| 欧美一区永久视频免费观看| 欧美一区二区三区免费在线看 | 亚洲大片在线| 99在线精品视频| 亚洲欧美综合国产精品一区| 欧美日韩午夜在线| 日韩性生活视频| 夜夜精品视频一区二区| 欧美精品尤物在线| 亚洲精选久久| 日韩一级黄色av| 欧美视频一区二区三区四区| aa级大片欧美三级| 亚洲在线视频一区| 国产精品网站视频| 欧美一区二区三区在线播放| 久久久欧美精品| 尤物在线观看一区| 日韩网站在线观看| 欧美视频中文在线看| 制服丝袜激情欧洲亚洲| 欧美一区二区三区婷婷月色| 国产日产亚洲精品| 欧美在线视频播放| 老司机67194精品线观看| 亚洲激情小视频| 亚洲香蕉网站| 国产免费成人在线视频| 欧美诱惑福利视频| 久久永久免费| 亚洲日韩视频| 午夜精品国产更新| 韩日精品视频| 99精品热视频只有精品10| 国产精品www| 欧美一区精品| 免费观看一区| 99国产精品自拍| 欧美在线观看网址综合| 极品中文字幕一区| 99精品欧美| 国产精品一区2区| 亚洲国产欧美一区| 欧美亚洲自偷自偷| 国产原创一区二区| 亚洲美女一区| 国产精品一区二区三区四区| 久久精品国产亚洲a| 欧美极品在线观看| 韩国成人福利片在线播放| 亚洲高清不卡在线| 欧美女激情福利| 亚洲欧美成人网| 麻豆精品一区二区综合av| av不卡在线| 久久久久久精| 亚洲人成人一区二区三区| 西西人体一区二区| 国产精品yjizz| 性欧美1819sex性高清| 欧美亚洲自偷自偷| 亚洲成色精品| 亚洲欧美色一区| 在线观看国产欧美| 欧美亚洲免费在线| 亚洲韩国日本中文字幕| 欧美一区亚洲一区| 亚洲精品一区在线观看香蕉| 欧美影院在线| 日韩视频第一页| 久久综合综合久久综合| 中国成人亚色综合网站| 欧美1区视频| 亚洲欧美在线网| 欧美日韩中文字幕日韩欧美| 久久国产乱子精品免费女 | 亚洲伦伦在线| 久久婷婷色综合| 亚洲午夜久久久久久久久电影网| 欧美mv日韩mv国产网站app| 亚洲欧美一区二区三区在线|