《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 通信與網(wǎng)絡(luò) > 設(shè)計(jì)應(yīng)用 > 云計(jì)算平臺(tái)上的增量分類(lèi)研究
云計(jì)算平臺(tái)上的增量分類(lèi)研究
來(lái)源:微型機(jī)與應(yīng)用2011年第18期
李 曼
(南京郵電大學(xué) 計(jì)算機(jī)學(xué)院,江蘇 南京210003)
摘要: 針對(duì)已有增量分類(lèi)算法只是作用于小規(guī)模數(shù)據(jù)集或者在集中式環(huán)境下進(jìn)行的缺點(diǎn),提出一種基于Hadoop云計(jì)算平臺(tái)的增量分類(lèi)模型,以解決大規(guī)模數(shù)據(jù)集的增量分類(lèi)。為了使云計(jì)算平臺(tái)可以自動(dòng)地對(duì)增量的訓(xùn)練樣本進(jìn)行處理,基于模塊化集成學(xué)習(xí)思想,設(shè)計(jì)相應(yīng)Map函數(shù)對(duì)不同時(shí)刻的增量樣本塊進(jìn)行訓(xùn)練,Reduce函數(shù)對(duì)不同時(shí)刻訓(xùn)練得到的分類(lèi)器進(jìn)行集成,以實(shí)現(xiàn)云計(jì)算平臺(tái)上的增量學(xué)習(xí)。仿真實(shí)驗(yàn)證明了該方法的正確性和可行性。
Abstract:
Key words :

摘  要: 針對(duì)已有增量分類(lèi)算法只是作用于小規(guī)模數(shù)據(jù)集或者在集中式環(huán)境下進(jìn)行的缺點(diǎn),提出一種基于Hadoop云計(jì)算平臺(tái)的增量分類(lèi)模型,以解決大規(guī)模數(shù)據(jù)集的增量分類(lèi)。為了使云計(jì)算平臺(tái)可以自動(dòng)地對(duì)增量的訓(xùn)練樣本進(jìn)行處理,基于模塊化集成學(xué)習(xí)思想,設(shè)計(jì)相應(yīng)Map函數(shù)對(duì)不同時(shí)刻的增量樣本塊進(jìn)行訓(xùn)練,Reduce函數(shù)對(duì)不同時(shí)刻訓(xùn)練得到的分類(lèi)器進(jìn)行集成,以實(shí)現(xiàn)云計(jì)算平臺(tái)上的增量學(xué)習(xí)。仿真實(shí)驗(yàn)證明了該方法的正確性和可行性。
關(guān)鍵詞: 增量分類(lèi);Hadoop;云計(jì)算

    隨著信息技術(shù)和生物技術(shù)突飛猛進(jìn)的發(fā)展,科學(xué)研究和實(shí)際應(yīng)用中產(chǎn)生了海量數(shù)據(jù),并且這些數(shù)據(jù)每天都在增加,為了將每天產(chǎn)生的新數(shù)據(jù)納入到新的學(xué)習(xí)系統(tǒng),需要利用增量學(xué)習(xí)。增量學(xué)習(xí)比較接近人類(lèi)自身的學(xué)習(xí)方式,可以漸進(jìn)地進(jìn)行知識(shí)的更新,修正和加強(qiáng)以前的知識(shí),使得更新后的知識(shí)能適應(yīng)更新后的數(shù)據(jù),而不必重新學(xué)習(xí)全部數(shù)據(jù),從而降低了對(duì)時(shí)間和空間的需求。模塊化是擴(kuò)展現(xiàn)有增量學(xué)習(xí)能力的有效方法之一[1],而集成學(xué)習(xí)(Ensemble Learning)一直是機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)研究熱點(diǎn)[2-6],許多模塊化增量分類(lèi)算法[7-9]正是基于二者提出的。
    云計(jì)算(Cloud Computing)這一新名詞從2007年第3季度誕生起就在學(xué)術(shù)界和產(chǎn)業(yè)界引起了轟動(dòng),Google、IBM、百度、Yahoo等公司都開(kāi)始進(jìn)行“云計(jì)算”的部署工作。云計(jì)算是分布式計(jì)算(Distributed Computing)、并行計(jì)算(Parallel Computing)和網(wǎng)格計(jì)算(Grid Computing)的發(fā)展與延伸。在云計(jì)算環(huán)境下,互聯(lián)網(wǎng)用戶(hù)只需要一個(gè)終端就可以享用非本地或遠(yuǎn)程服務(wù)集群提供的各種服務(wù)(包括計(jì)算、存儲(chǔ)等),真正實(shí)現(xiàn)了按需計(jì)算,有效地提高了云端各種軟硬件資源的利用效率。隨著云計(jì)算技術(shù)的日益成熟,云計(jì)算也為解決海量數(shù)據(jù)挖掘所面臨的問(wèn)題提供了很好的基礎(chǔ)[10]。雖然在機(jī)器學(xué)習(xí)領(lǐng)域,對(duì)增量學(xué)習(xí)進(jìn)行了較深入的研究,但是在云計(jì)算環(huán)境下,還沒(méi)有相關(guān)文獻(xiàn)討論利用增量分類(lèi)提高云計(jì)算環(huán)境下海量數(shù)據(jù)挖掘的效率問(wèn)題。本文基于模塊化的集成學(xué)習(xí)思想,研究在開(kāi)源云計(jì)算平臺(tái)Hadoop[11]上的增量分類(lèi)方法。
1 Hadoop云平臺(tái)的體系結(jié)構(gòu)
    在現(xiàn)有的云計(jì)算技術(shù)中, Apache軟件基金會(huì)(Apache Software Foundation) 組織下的開(kāi)源項(xiàng)目Hadoop是一個(gè)很容易支持開(kāi)發(fā)和并行處理大規(guī)模數(shù)據(jù)的分布式云計(jì)算平臺(tái),具有可擴(kuò)展、低成本、高效和可靠性等優(yōu)點(diǎn)。程序員可以使用Hadoop中的Streaming工具(Hadoop為簡(jiǎn)化Map/Reduce的編寫(xiě),為讓不熟悉Java的程序員更容易在Hadoop上開(kāi)發(fā)而提供的一個(gè)接口)使用任何語(yǔ)言編寫(xiě)并運(yùn)行一個(gè)Map/Reduce作業(yè)。Hadoop項(xiàng)目包括多個(gè)子項(xiàng)目,但主要是由Hadoop分布式文件系統(tǒng)HDFS(Hadoop Distributed File System)和映射/化簡(jiǎn)引擎(Map/Reduce Engine)兩個(gè)主要的子項(xiàng)目構(gòu)成。
1.1 分布式文件系統(tǒng)HDFS
    Hadoop實(shí)現(xiàn)了一個(gè)分布式文件系統(tǒng)(Hadoop Distribu-
tedFile System),簡(jiǎn)稱(chēng)HDFS。HDFS采用Master/Slave架構(gòu),一個(gè)HDFS集群由一個(gè)NameNode節(jié)點(diǎn)和若干DataNode節(jié)點(diǎn)組成。NameNode節(jié)點(diǎn)存儲(chǔ)著文件系統(tǒng)的元數(shù)據(jù),這些元數(shù)據(jù)包括文件系統(tǒng)的名字空間等,并負(fù)責(zé)管理文件的存儲(chǔ)等服務(wù),程序使用的實(shí)際數(shù)據(jù)并存放在DataNode中,Client是獲取分布式文件系統(tǒng)HDFS文件的應(yīng)用程序。圖1是HDFS結(jié)構(gòu)圖。
    圖1中,Master主要負(fù)責(zé)NameNode及JobTracker的工作,JobTracker的主要職責(zé)是啟動(dòng)、跟蹤和調(diào)度各個(gè)Slave任務(wù)的執(zhí)行。還會(huì)有多臺(tái)Slave,每一臺(tái)Slave通常具有DataNode的功能并負(fù)責(zé)TaskTracker的工作。TaskTracker根據(jù)應(yīng)用要求來(lái)結(jié)合本地?cái)?shù)據(jù)執(zhí)行Map任務(wù)以及Reduce任務(wù)。

1.2 Map/Reduce分布式并行編程模型
    Hadoop框架中采用了Google提出的云計(jì)算核心計(jì)算模式Map/Reduce,它是一種分布式計(jì)算模型,也是簡(jiǎn)化的分布式編程模式[12]。Map/Reduce把運(yùn)行在大規(guī)模集群上的并行計(jì)算過(guò)程抽象成兩個(gè)函數(shù):Map和Reduce,其中,Map把任務(wù)分解成多個(gè)任務(wù),Reduce把分解后的多個(gè)任務(wù)處理結(jié)果匯總起來(lái),得到最終結(jié)果。圖2介紹了用Map/Reduce處理數(shù)據(jù)的過(guò)程。一個(gè)Map/Reduce操作分為兩個(gè)階段:映射和化簡(jiǎn)。

    在映射階段(Map階段),Map/Reduce框架將用戶(hù)輸入的數(shù)據(jù)分割為N個(gè)片段,對(duì)應(yīng)N個(gè)Map任務(wù)。每一個(gè)Map的輸入是數(shù)據(jù)片段中的鍵值對(duì)<K1,V1>集合,Map操作會(huì)調(diào)用用戶(hù)定義的Map函數(shù),輸出一個(gè)中間態(tài)的鍵值對(duì)<K2,V2>。然后,按照中間態(tài)K2將輸出的數(shù)據(jù)進(jìn)行排序,形成<K2,list(V2)>元組,這樣可以使對(duì)應(yīng)于同一個(gè)鍵的所有值的數(shù)據(jù)都集合在一起。最后,按照K2的范圍將這些元組分割成M個(gè)片段,從而形成M個(gè)Rdeuce任務(wù)。
    在化簡(jiǎn)階段(Reduce階段),每一個(gè)Reduce操作的輸入是Map階段的輸出,即<K2,list(V2)>片段,Reduce操作調(diào)用用戶(hù)定義的Reduce函數(shù),生成用戶(hù)需要的結(jié)果<K3,V3>進(jìn)行輸出。
2 基于Map/Reduce的模塊化增量分類(lèi)模型
    基于Map/Reduce的增量分類(lèi)模型,主要思想是Map函數(shù)對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,得到基于不同時(shí)刻增量塊的分類(lèi)器,Reduce函數(shù)利用Map訓(xùn)練好的分類(lèi)器對(duì)測(cè)試樣本進(jìn)行預(yù)測(cè),并且將不同時(shí)刻訓(xùn)練得到的分類(lèi)器進(jìn)行集成,得到最終的分類(lèi)結(jié)果。基于Map/Reduce的增量分類(lèi)模型如圖3所示。當(dāng)t1時(shí)刻有海量的訓(xùn)練樣本到達(dá)時(shí),通過(guò)設(shè)置Map任務(wù)的個(gè)數(shù)使得云平臺(tái)自動(dòng)地對(duì)到達(dá)的海量樣本進(jìn)行劃分,每個(gè)Map的任務(wù)就是對(duì)基于劃分所得的樣本子集進(jìn)行訓(xùn)練得到一個(gè)基分類(lèi)器。同一時(shí)刻的不同Map之間可以并行訓(xùn)練,從而得到t1時(shí)刻的增量分類(lèi)系統(tǒng)。當(dāng)tT時(shí)刻的訓(xùn)練樣本到達(dá)以后,采取相同的步驟,得到tT時(shí)刻的不同基分類(lèi)器,然后將這些分類(lèi)器加入到tT-1時(shí)刻的增量分類(lèi)系統(tǒng)以構(gòu)成tT時(shí)刻的增量分類(lèi)系統(tǒng)。再采用Reduce函數(shù)將當(dāng)前增量分類(lèi)系統(tǒng)里所有分類(lèi)器進(jìn)行集成,集成方法可以采用投票法Majority Voting(MV)進(jìn)行。
2.1 Map過(guò)程
    Map函數(shù)的主要功能就是建立不同時(shí)刻的增量分類(lèi)系統(tǒng)。當(dāng)某一時(shí)刻有新的訓(xùn)練樣本到達(dá)時(shí),Map便從HDFS將其讀取。通過(guò)設(shè)置Map任務(wù)的個(gè)數(shù)使得云平臺(tái)自動(dòng)地對(duì)大規(guī)模的訓(xùn)練樣本進(jìn)行劃分,每一個(gè)Map任務(wù)完成基于一個(gè)劃分塊的分類(lèi)訓(xùn)練,劃分后的不同塊可以并行訓(xùn)練,從而得到基于該時(shí)刻增量樣本集的不同分類(lèi)器,然后將這些分類(lèi)器加入上一時(shí)刻的增量分類(lèi)系統(tǒng)以構(gòu)成當(dāng)前時(shí)刻的增量分類(lèi)系統(tǒng)。Map函數(shù)偽代碼如下:

 
3 仿真實(shí)驗(yàn)

 


    本文用三臺(tái)PC搭建了Hadoop云計(jì)算平臺(tái),三臺(tái)PC的硬件配置均為2GRAM和AMD雙核CPU,各節(jié)點(diǎn)的操作系統(tǒng)為L(zhǎng)inux Centos 5.4,Hadoop版本為0.19.2,JDK版本為1.6.0_12。實(shí)驗(yàn)中一臺(tái)PC既部署NameNode和JobTrack,也部署DataNode和TaskTrack,另兩臺(tái)PC均部署DataNode和TaskTrack。
    實(shí)驗(yàn)對(duì)兩個(gè)數(shù)據(jù)集進(jìn)行了仿真,第一個(gè)數(shù)據(jù)集是來(lái)自UCI的Adult[13]數(shù)據(jù)集,第二個(gè)是來(lái)自UCI的Mushrooms(每個(gè)實(shí)名屬性都被分解成若干個(gè)二進(jìn)制屬性,初始的12號(hào)屬性由于丟失未使用)數(shù)據(jù)集。分類(lèi)器采用SVM[14]。為了證明該方法的正確性,每個(gè)實(shí)驗(yàn)分別在集中式和云平臺(tái)兩種環(huán)境下進(jìn)行。兩種環(huán)境都將訓(xùn)練樣本集隨機(jī)劃分為五等份以構(gòu)成5個(gè)增量訓(xùn)練子集,也就是按照時(shí)間順序進(jìn)行了5次增量訓(xùn)練。由于現(xiàn)實(shí)中采集的增量訓(xùn)練樣本的規(guī)模可能很大,所以在云平臺(tái)環(huán)境中,通過(guò)設(shè)置Map的個(gè)數(shù)對(duì)樣本進(jìn)行分解。本次實(shí)驗(yàn)中Map的個(gè)數(shù)設(shè)為2,這樣每個(gè)增量訓(xùn)練子集都會(huì)被云平臺(tái)自動(dòng)劃分成兩塊,各塊之間可以進(jìn)行并行訓(xùn)練。為了與云平臺(tái)環(huán)境進(jìn)行對(duì)比,在集中式環(huán)境中將每個(gè)子集手動(dòng)均分成兩塊,每塊用來(lái)訓(xùn)練一個(gè)分類(lèi)器。每個(gè)實(shí)驗(yàn)均采用了式(1)和式(2)兩種核函數(shù)。
 
其中,相關(guān)參數(shù)γ=0.008,β0=0.009,β1=0,懲罰因子C=1。實(shí)驗(yàn)所用的兩個(gè)數(shù)據(jù)集的數(shù)據(jù)分布如表1所示。
    兩個(gè)增量分類(lèi)系統(tǒng)在不同數(shù)據(jù)集上的分類(lèi)性能如圖4所示。通過(guò)比較可知,集中式增量分類(lèi)的準(zhǔn)確率和Hadoop云平臺(tái)上增量分類(lèi)準(zhǔn)確率較為接近,證明了本文所提出的在Hadoop云平臺(tái)上實(shí)現(xiàn)增量分類(lèi)方法的可行性和正確性。由于MV方法本身具有較大的波動(dòng)性,故集中式和Hadoop云平臺(tái)環(huán)境中隨著訓(xùn)練樣本的增加,增量分類(lèi)系統(tǒng)的學(xué)習(xí)能力是曲折上升的。

    本文提出了一種基于Hadoop云平臺(tái)的增量分類(lèi)方法,仿真實(shí)驗(yàn)表明,基于Hadoop云平臺(tái)的增量分類(lèi)是可行的。與其他增量分類(lèi)方法相比,該模型簡(jiǎn)單,易于實(shí)現(xiàn)。通過(guò)設(shè)置平臺(tái)中Map任務(wù)的個(gè)數(shù)讓云平臺(tái)自動(dòng)地對(duì)海量訓(xùn)練樣本進(jìn)行劃分,劃分后的各個(gè)任務(wù)相互獨(dú)立,可以進(jìn)行并行訓(xùn)練。這提高了海量數(shù)據(jù)的處理速度,基本實(shí)現(xiàn)了實(shí)時(shí)的增量分類(lèi)。
參考文獻(xiàn)
[1] 羅四維,溫津偉.神經(jīng)場(chǎng)整體性和增殖性研究與分析[J].計(jì)算機(jī)研究與發(fā)展,2003,40(5):668-674.
[2] 周志華,陳世福.神經(jīng)網(wǎng)絡(luò)集成[J].計(jì)算機(jī)學(xué)報(bào),2002,25(1):1-8.
[3] 王玨,石純一.機(jī)器學(xué)習(xí)研究[J].廣西師范大學(xué)學(xué)報(bào),2003,21(2):1-15.
[4] LU B L,ITO M.Task decomposition and module combination based on class relations:a modular neural networks for  pattern classification[J].IEEE Trans.Neural Networks,1999,10(5):1244-1256.
[5] HUANG Y S,SUEN C Y.A method of combining multiple  experts for the recognition of unconstrained handwritten numerals[J]. IEEE Trans. Pattern Analysis and Machine Intelligence,1995,17(1):90-94.
[6] WOODS K, KEGELMEYER W P,BOWYER K.Combination of multiple classifiers using local accuracy estimates[J].  IEEE Trans. Pattern Analysis and Machine Intelligence, 1997, 19(4):405-410.
[7] POLIKAR R,UDPA L,UDPA S S,et al. Learn++:an incremental learning algorithm for supervised neural networks [J]. IEEE Trans. System, Man, and Cybernetic, 2001,31(4):497-508.
[8] LU B L,ICHIKAWA M. Emergent online learning in minmax modular neural networks[J]. In:Proc. of Inter’l Conference on Neural Network(IJCNN’01), Washington, DC,USA, 2001:2650-2655.
[9] 文益民,楊旸,呂寶糧.集成學(xué)習(xí)算法在增量學(xué)習(xí)中的應(yīng)用研究[J].計(jì)算機(jī)研究與發(fā)展, 2005, 42(增刊):222-227.
[10] COPPOCK H W,F(xiàn)REUND J E.All-or-none versus incremental learning of errorless shock escapes by the rat[J]. Science, 1962, 135(3500):318-319.
[11] Hadoop.[EB/OL].2008-12-16.http://hadoop.apache.org/core/.
[12] DEAN J,GHEMAWAT S.MapReduce:simplified data processingon large clusters[J]. Communications of the ACM, 2008, 51(1):107-113.
[13] PLATT J C. Fast training of support vector machines using sequential minimal optimization[D].SCHOLKOPF B, BURGES C J C, SMOLA A J, editors.Advances in kernel  methods-support vector learning.Cambridge, MA,MIT Press,1998.
[14] 鄧乃揚(yáng),田英杰.數(shù)據(jù)挖掘中的新方法:支持向量機(jī)[D]. 北京:科學(xué)出版社, 2004.

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
久久国内精品自在自线400部| 一区二区三区国产在线| 亚洲日本成人网| 国产在线国偷精品产拍免费yy| 国产精品美女www爽爽爽视频| 欧美区视频在线观看| 欧美国产欧美亚洲国产日韩mv天天看完整 | 久久精品国产久精国产思思| 亚洲欧美日本日韩| 亚洲一级黄色| 亚洲婷婷综合色高清在线 | 亚洲欧美日本精品| 亚洲永久免费av| 亚洲午夜精品久久久久久app| 一区二区三区免费看| 99精品99| 在线亚洲免费| 亚洲午夜一级| 亚洲专区一区| 午夜在线播放视频欧美| 亚洲免费影视| 欧美一区二区高清| 性色一区二区三区| 欧美一区二区福利在线| 欧美在线影院在线视频| 亚洲高清色综合| 最新中文字幕一区二区三区| 9久草视频在线视频精品| 宅男噜噜噜66国产日韩在线观看| 亚洲天堂av高清| 亚洲欧美日韩一区在线观看| 欧美影院成人| 久久久久久久综合色一本| 欧美va亚洲va日韩∨a综合色| 欧美国产大片| 欧美视频在线免费| 国产女主播在线一区二区| 国产一区美女| 在线高清一区| 亚洲欧洲三级| 中文在线资源观看网站视频免费不卡 | 欧美午夜精品一区| 国产女优一区| 亚洲第一伊人| 99视频有精品| 亚洲欧美日韩久久精品| 亚洲风情亚aⅴ在线发布| 一本色道久久加勒比88综合| 午夜精品久久久久久久久久久| 久久久久久亚洲综合影院红桃| 牛夜精品久久久久久久99黑人| 欧美日韩免费观看一区二区三区| 国产精品区一区| 一区二区视频欧美| 亚洲精品在线二区| 午夜国产精品视频免费体验区| 亚洲二区视频| 亚洲午夜精品久久久久久浪潮| 久久激情视频免费观看| 欧美高清视频| 国产精品一二三视频| 一区精品在线| 亚洲色诱最新| 久久精彩视频| 亚洲午夜羞羞片| 久久综合亚州| 国产精品h在线观看| 红桃视频国产精品| 在线视频你懂得一区 | 久久精品日韩欧美| 一区二区三区**美女毛片| 久久九九国产| 欧美少妇一区二区| 激情久久久久| 亚洲午夜精品网| 亚洲精品你懂的| 久久国产精品毛片| 欧美日韩国产区| 狠狠色狠狠色综合日日五| 中文精品视频一区二区在线观看| 亚洲成人自拍视频| 国产美女精品免费电影| 在线欧美日韩精品| 亚洲欧美视频在线观看视频| 一本久久a久久精品亚洲| 久久久久久久久久看片| 欧美亚洲不卡| 亚洲级视频在线观看免费1级| 欧美一区二区免费视频| 亚洲午夜电影在线观看| 欧美不卡视频一区发布| 国产视频久久网| 99re6热只有精品免费观看 | 亚洲精品久久久久中文字幕欢迎你| 亚洲欧美日韩成人| 欧美精品二区| 极品尤物久久久av免费看| 亚洲欧美一区二区原创| 中日韩视频在线观看| 欧美承认网站| 激情综合电影网| 午夜精品99久久免费| 亚洲女人小视频在线观看| 欧美久久九九| 娇妻被交换粗又大又硬视频欧美| 亚洲欧美视频在线观看| 午夜亚洲性色福利视频| 欧美日一区二区在线观看| 亚洲精品1区| 91久久线看在观草草青青| 久热精品在线| 国语自产在线不卡| 欧美中文字幕| 久久狠狠亚洲综合| 国产精品一区二区黑丝| 亚洲图片欧洲图片av| 亚洲一区二区av电影| 欧美日韩成人在线| 亚洲精品久久久久久一区二区| 亚洲精品老司机| 欧美成人午夜免费视在线看片| 一区在线影院| 亚洲韩日在线| 男人的天堂亚洲在线| 在线观看国产欧美| 亚洲国产福利在线| 久久亚洲欧洲| 一区二区三区在线不卡| 亚洲国产黄色片| 欧美ed2k| 亚洲国产cao| 99国产一区二区三精品乱码| 欧美精品一区二区高清在线观看| 亚洲欧洲日本mm| 一区二区久久| 欧美亚韩一区| 亚洲免费视频中文字幕| 久久成人人人人精品欧| 国模套图日韩精品一区二区| 亚洲国产国产亚洲一二三| 欧美成人综合| 99国产精品99久久久久久| 亚洲女人天堂成人av在线| 国产精品一区久久久久| 欧美一区国产二区| 蜜桃视频一区| 亚洲精品欧美日韩专区| 亚洲综合色视频| 国产日韩精品在线观看| 久久精品日产第一区二区| 欧美国产精品v| 一本色道久久综合亚洲精品高清| 亚洲免费在线视频一区 二区| 国产视频一区免费看| 91久久精品美女| 欧美日韩一区国产| 午夜欧美大片免费观看| 麻豆精品在线视频| 亚洲精品午夜精品| 性欧美暴力猛交另类hd| 国内精品免费在线观看| 99国内精品久久| 国产精品自拍视频| 91久久久国产精品| 欧美午夜性色大片在线观看| 欧美一级淫片aaaaaaa视频| 免费不卡亚洲欧美| 一区二区三区精品| 久久高清一区| 亚洲品质自拍| 午夜亚洲福利在线老司机| 在线观看国产日韩| 亚洲在线中文字幕| 国内揄拍国内精品少妇国语| 一本色道久久88综合日韩精品| 国产欧美日韩麻豆91| 亚洲精品中文字幕在线观看| 国产精品最新自拍| 亚洲精选久久| 国产美女一区二区| 日韩小视频在线观看| 国产日韩精品入口| av成人免费在线| 国产网站欧美日韩免费精品在线观看| 亚洲日本欧美| 国产日产欧美一区| 一本色道久久88精品综合| 国产午夜精品理论片a级探花| 99re8这里有精品热视频免费| 国产情人节一区| 一区二区三区 在线观看视频| 国产专区综合网| 亚洲一区欧美二区| 亚洲国产乱码最新视频| 欧美一乱一性一交一视频| 亚洲美女视频在线观看| 久久在线免费| 亚洲欧美激情视频| 欧美日韩精品欧美日韩精品一| 久久精品五月|