《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 通信與網(wǎng)絡(luò) > 業(yè)界動(dòng)態(tài) > 學(xué)界 | 谷歌的機(jī)器翻譯模型 Transformer,現(xiàn)在可以用來(lái)做任何事了

學(xué)界 | 谷歌的機(jī)器翻譯模型 Transformer,現(xiàn)在可以用來(lái)做任何事了

2018-08-18

去年,谷歌發(fā)布了機(jī)器學(xué)習(xí)模型 Transformer,該模型在機(jī)器翻譯及其他語(yǔ)言理解任務(wù)上的表現(xiàn)遠(yuǎn)遠(yuǎn)超越了以往算法。今天,谷歌發(fā)布該模型最新版本——Universal Transformer,彌補(bǔ)了在大規(guī)模語(yǔ)言理解任務(wù)上具有競(jìng)爭(zhēng)力的實(shí)際序列模型與計(jì)算通用模型之間的差距,其 BLEU 值比去年的 Transformer 提高了 0.9。在多項(xiàng)有難度的語(yǔ)言理解任務(wù)上,Universal Transformer 的泛化效果明顯更好,且它在 bAbI 語(yǔ)言推理任務(wù)和很有挑戰(zhàn)性的 LAMBADA 語(yǔ)言建模任務(wù)上達(dá)到了新的當(dāng)前最優(yōu)性能。


去年,谷歌發(fā)布了一種新的機(jī)器學(xué)習(xí)模型 Transformer(參見:機(jī)器翻譯新突破:谷歌實(shí)現(xiàn)完全基于 attention 的翻譯架構(gòu)),該模型在機(jī)器翻譯及其他語(yǔ)言理解任務(wù)上的表現(xiàn)遠(yuǎn)遠(yuǎn)超越了現(xiàn)有算法。在 Transformer 之前,多數(shù)基于神經(jīng)網(wǎng)絡(luò)的機(jī)器翻譯方法依賴于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),后者利用循環(huán)(即每一步的輸出饋入下一步)進(jìn)行順序操作(例如,逐詞地翻譯句子)。盡管 RNN 在建模序列方面非常強(qiáng)大,但其序列性意味著該網(wǎng)絡(luò)在訓(xùn)練時(shí)非常緩慢,因?yàn)殚L(zhǎng)句需要的訓(xùn)練步驟更多,其循環(huán)結(jié)構(gòu)也加大了訓(xùn)練難度。


與基于 RNN 的方法相比,Transformer 不需要循環(huán),而是并行處理序列中的所有單詞或符號(hào),同時(shí)利用自注意力機(jī)制將上下文與較遠(yuǎn)的單詞結(jié)合起來(lái)。通過并行處理所有單詞,并讓每個(gè)單詞在多個(gè)處理步驟中注意到句子中的其他單詞,Transformer 的訓(xùn)練速度比 RNN 快很多,而且其翻譯結(jié)果也比 RNN 好得多。然而,在更小、更加結(jié)構(gòu)化的語(yǔ)言理解任務(wù)或簡(jiǎn)單的算法任務(wù)中(如拷貝一個(gè)字符串(如將輸入「abc」轉(zhuǎn)換為「abcabc」)),Transformer 則表現(xiàn)欠佳。相比之下,在這些任務(wù)中表現(xiàn)良好的模型(如神經(jīng) GPU 和神經(jīng)圖靈機(jī))在大型語(yǔ)言理解任務(wù)(如翻譯)中表現(xiàn)不好。


谷歌研究人員在《Universal Transformers》一文中使用一種新型高效的時(shí)間并行循環(huán)(parallel-in-time recurrence)方式(可在更廣泛任務(wù)上產(chǎn)生更強(qiáng)大的結(jié)果)把標(biāo)準(zhǔn) Transformer 擴(kuò)展為計(jì)算通用(圖靈完備)模型。研究者將該模型建立在 Transformer 的并行結(jié)構(gòu)上,以保持其快速的訓(xùn)練速度。但是他們用單一、時(shí)間并行循環(huán)的變換函數(shù)的多次應(yīng)用代替了 Transformer 中不同變換函數(shù)的固定堆疊(即,相同的學(xué)習(xí)變換函數(shù)在多個(gè)處理步驟中被并行應(yīng)用于所有符號(hào),其中每個(gè)步驟的輸出饋入下一個(gè))。關(guān)鍵在于,RNN 逐個(gè)符號(hào)(從左到右)處理序列,而 Universal Transformer 同時(shí)處理所有符號(hào)(像 Transformer 一樣),然后使用自注意力機(jī)制在循環(huán)處理步驟(步驟數(shù)量可變)上,對(duì)每個(gè)符號(hào)的解釋進(jìn)行改進(jìn)。這種時(shí)間并行循環(huán)機(jī)制比 RNN 中使用的順序循環(huán)(serial recurrence)更快,也使得 Universal Transformer 比標(biāo)準(zhǔn)前饋 Transformer 更強(qiáng)大。

微信圖片_20180818110916.gif

Universal Transformer 模型使用自注意力機(jī)制結(jié)合不同位置的信息,應(yīng)用循環(huán)變換函數(shù),以并行化方式重復(fù)為序列的每個(gè)位置細(xì)化一系列向量表征(如圖自 h_1 到 h_m)。箭頭表示操作間的依賴關(guān)系。


在每一步中,信息利用自注意力從每個(gè)符號(hào)(例如句中單詞)傳遞到其他符號(hào),就像在原始 Transformer 中一樣。但是,現(xiàn)在這種轉(zhuǎn)換的次數(shù)(即循環(huán)步的數(shù)量)可以提前手動(dòng)設(shè)置(比如設(shè)置為固定數(shù)字或輸入長(zhǎng)度),也可以通過 Universal Transformer 本身進(jìn)行動(dòng)態(tài)設(shè)定。為了實(shí)現(xiàn)后者,谷歌研究人員在每個(gè)位置都添加了一個(gè)自適應(yīng)計(jì)算機(jī)制,它可以分配更多處理步驟給較模糊或需要更多計(jì)算的符號(hào)。


用一個(gè)直觀的例子來(lái)說(shuō)明這是如何起作用的,比如這句話「I arrived at the bank after crossing the river」。在這個(gè)案例中,與沒有歧義的「I」或「river」相比,推斷「bank」一詞最可能的含義需要用到更多的語(yǔ)境信息。當(dāng)我們用標(biāo)準(zhǔn) Transformer 對(duì)這個(gè)句子進(jìn)行編碼時(shí),我們需要把同樣的計(jì)算量無(wú)條件地應(yīng)用于每個(gè)單詞。然而,Universal Transformer 的自適應(yīng)機(jī)制允許模型僅在更模糊的單詞上花費(fèi)更多計(jì)算,例如,使用更多步驟來(lái)整合消除單詞「bank」歧義所需的額外語(yǔ)境信息,而在沒那么模糊的單詞上則花費(fèi)較少的步驟。


起初,讓 Universal Transformer 僅重復(fù)應(yīng)用單一學(xué)習(xí)函數(shù)來(lái)處理輸入似乎是有限制性的,尤其是與應(yīng)用不同函數(shù)的固定序列的標(biāo)準(zhǔn) Transformer 相比。但是,學(xué)習(xí)如何重復(fù)應(yīng)用單一函數(shù)意味著應(yīng)用的數(shù)量(處理步驟)現(xiàn)在是可變的,而這是一個(gè)很重要的區(qū)別。如上所述,除了允許 Universal Transformer 對(duì)更模糊的符號(hào)應(yīng)用更多的計(jì)算之外,它還允許模型根據(jù)輸入的整體大小來(lái)調(diào)整函數(shù)應(yīng)用的數(shù)量(更長(zhǎng)的序列需要更多的步驟),或者基于訓(xùn)練期間學(xué)習(xí)到的其它特性來(lái)動(dòng)態(tài)地決定將函數(shù)應(yīng)用到輸入的任何給定部分的頻率。這使得 Universal Transformer 在理論上更加強(qiáng)大,因?yàn)樗梢杂行У貙W(xué)習(xí)對(duì)輸入的不同部分應(yīng)用不同的變換。而這是標(biāo)準(zhǔn) Transformer 無(wú)法做到的,因?yàn)樗芍粦?yīng)用一次的學(xué)習(xí)變換塊(learned Transformation block)的固定堆疊組成。


盡管 Universal Transformer 在理論上更加強(qiáng)大,但研究人員仍關(guān)心實(shí)驗(yàn)性能。實(shí)驗(yàn)結(jié)果證明,Universal Transformer 確實(shí)能夠從樣本中學(xué)習(xí)如何復(fù)制和反轉(zhuǎn)字符串,以及如何比 Transformer 或 RNN 更好地執(zhí)行整數(shù)加法(盡管不如神經(jīng) GPU 效果好)。此外,在多項(xiàng)有難度的語(yǔ)言理解任務(wù)上,Universal Transformer 的泛化效果明顯更好,且它在 bAbI 語(yǔ)言推理任務(wù)和很有挑戰(zhàn)性的 LAMBADA 語(yǔ)言建模任務(wù)上達(dá)到了新的當(dāng)前最優(yōu)性能。但或許最令人感興趣的是,Universal Transformer 在與基礎(chǔ) Transformer 使用相同數(shù)量參數(shù)、訓(xùn)練數(shù)據(jù)以相同方式進(jìn)行訓(xùn)練時(shí),其翻譯質(zhì)量比后者提高了 0.9 個(gè) BLEU 值。在去年 Transformer 發(fā)布時(shí),它的性能比之前的模型提高了 2.0 個(gè) BLEU 值,而 Universal Transformer 的相對(duì)改進(jìn)量是去年的近 50%。


因此,Universal Transformer 彌補(bǔ)了在大規(guī)模語(yǔ)言理解任務(wù)(如機(jī)器翻譯)上具有競(jìng)爭(zhēng)力的實(shí)際序列模型與計(jì)算通用模型(如神經(jīng)圖靈機(jī)或神經(jīng) GPU)之間的差距,計(jì)算通用模型可使用梯度下降來(lái)訓(xùn)練,用于執(zhí)行隨機(jī)算法任務(wù)。谷歌很高興看到時(shí)間并行序列模型的近期進(jìn)展,以及處理深度中計(jì)算能力和循環(huán)的增加,谷歌希望 Universal Transformer 可以幫助研究人員構(gòu)建更加強(qiáng)大、更能高效利用數(shù)據(jù)的算法,泛化性能超越當(dāng)前最優(yōu)算法。


論文:Universal Transformers

微信圖片_20180818110950.jpg


論文鏈接:https://arxiv.org/pdf/1807.03819.pdf

Universal Transformer 代碼:https://github.com/tensorflow/tensor2tensor/blob/master/tensor2tensor/models/research/universal_transformer.py


摘要:自注意力前饋序列模型已被證明在序列建模任務(wù)上效果顯著,這些任務(wù)包括機(jī)器翻譯 [31]、圖像生成 [30] 和 constituency parsing [18],從而提供了可以替代循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的令人信服的方案,盡管 RNN 至今仍是許多序列建模問題事實(shí)上的標(biāo)準(zhǔn)架構(gòu)。然而,盡管取得了這些成功,像 Transformer [31] 這樣的前饋序列模型卻無(wú)法泛化至很多循環(huán)模型可以輕松處理的任務(wù)上(例如,在字符串或公式長(zhǎng)度超過訓(xùn)練時(shí)模型觀察到的類型時(shí),復(fù)制字符串甚至簡(jiǎn)單的邏輯推斷 [28])。此外,與 RNN 相比,Transformer 模型在計(jì)算上不通用,這限制了其理論表達(dá)能力。本論文提出了 Universal Transformer,它可以解決這些實(shí)踐和理論缺陷。我們展示了它可以在多項(xiàng)任務(wù)中實(shí)現(xiàn)性能提升。Universal Transformer 不像 RNN 那樣使用對(duì)句中單個(gè)符號(hào)的循環(huán),而是使用每個(gè)循環(huán)步驟重復(fù)修改句子中所有符號(hào)的表征。為了結(jié)合句子不同部分的信息,該模型在每個(gè)循環(huán)步中都使用了自注意力機(jī)制。假設(shè)有充足的記憶,則其循環(huán)會(huì)使 Universal Transformer 成為計(jì)算通用模型。我們進(jìn)一步使用自適應(yīng)計(jì)算時(shí)間(adaptive computation time,ACT)機(jī)制,使模型動(dòng)態(tài)調(diào)整句子中每個(gè)位置的表征被修改的次數(shù)。除了節(jié)省計(jì)算量以外,ACT 還能夠提高模型的準(zhǔn)確率。我們的實(shí)驗(yàn)結(jié)果表明,在許多算法任務(wù)及大量大規(guī)模語(yǔ)言理解任務(wù)中,Universal Transformer 的泛化性能大大增強(qiáng),在機(jī)器翻譯中的表現(xiàn)超越了基礎(chǔ) Transformer 及 LSTM,在 bAbI 語(yǔ)言推理及富有挑戰(zhàn)性的 LAMBADA 語(yǔ)言建模任務(wù)中達(dá)到了新的當(dāng)前最優(yōu)性能


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請(qǐng)及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
欧美亚洲在线视频| 久久gogo国模啪啪人体图| 国产日产欧美精品| 欧美日韩亚洲国产精品| 欧美激情一区二区三区高清视频| 老牛国产精品一区的观看方式| 国产精品日韩电影| 欧美一区二区三区在线| 亚洲一二三区在线| 一区二区日韩欧美| 99成人在线| 日韩视频不卡| 99re66热这里只有精品4| 亚洲三级免费| 国产精品www| 亚洲激情视频网| 狠狠v欧美v日韩v亚洲ⅴ| 国产午夜精品视频| 狠狠88综合久久久久综合网| 国产综合视频| 精品51国产黑色丝袜高跟鞋| 又紧又大又爽精品一区二区| 亚洲国产cao| 亚洲靠逼com| 一本色道综合亚洲| 一区二区三区精品视频在线观看| 一区二区高清视频| 亚洲影视中文字幕| 欧美在线视频二区| 亚洲国产91| 亚洲精品视频在线| 99这里只有久久精品视频| 亚洲午夜未删减在线观看| 亚洲一区在线看| 久久精品国产清自在天天线| 老**午夜毛片一区二区三区| 欧美精品在线免费播放| 国产精品国产成人国产三级| 国产午夜精品久久| 亚洲福利视频免费观看| 夜夜嗨av一区二区三区四季av| 亚洲视频自拍偷拍| 久久av一区二区| 洋洋av久久久久久久一区| 亚洲综合成人婷婷小说| 久久精品动漫| 欧美全黄视频| 国产日韩欧美视频在线| 亚洲高清自拍| 亚洲宅男天堂在线观看无病毒| 亚洲经典在线看| 亚洲免费观看在线观看| 亚洲欧美日韩区| 麻豆精品91| 久久精品视频在线播放| 欧美国产在线电影| 美女精品一区| 欧美午夜精品久久久久久人妖| 国产亚洲欧洲997久久综合| 一区二区三区在线免费视频| 99国产精品| 久久激情中文| 一区二区三区欧美亚洲| 欧美影院午夜播放| 日韩一区二区久久| 亚洲国产欧美在线| 亚洲免费影院| 欧美成人激情在线| 国产欧美在线播放| 亚洲伦理一区| 欧美专区在线播放| 亚洲一区中文| 国产视频精品网| 国产日韩免费| 99精品欧美一区二区蜜桃免费| 欧美一区日本一区韩国一区| 在线亚洲电影| 另类综合日韩欧美亚洲| 国产欧美高清| 在线视频免费在线观看一区二区| 亚洲高清视频中文字幕| 午夜精品久久久久久久久久久久久| 欧美不卡在线| 国产私拍一区| 亚洲香蕉在线观看| 99国产一区| 蜜桃av噜噜一区| 国产毛片一区二区| 一区二区三区国产| 亚洲精品一区二区三区福利| 久久久噜噜噜久噜久久 | 国产精品99久久99久久久二8| 亚洲高清视频一区| 欧美亚洲系列| 欧美视频在线观看一区| 91久久综合亚洲鲁鲁五月天| 欧美综合第一页| 羞羞漫画18久久大片| 欧美日韩一区二区三区在线视频| 一区在线免费| 久久国产婷婷国产香蕉| 欧美亚洲在线| 国产精品国产三级国产普通话99| 亚洲三级色网| 亚洲精品一区二区三区四区高清| 久久亚洲色图| 韩国精品久久久999| 亚洲欧洲av一区二区| 亚洲一区综合| 欧美午夜宅男影院| 99v久久综合狠狠综合久久| 日韩一二三区视频| 欧美精品1区2区3区| 国产精品视频网| 国产日本欧美在线观看| 亚洲一区二区精品在线观看| 亚洲性夜色噜噜噜7777| 亚洲国产精品一区| 国产精品每日更新| 尤物九九久久国产精品的分类| 欧美在线一二三| 久久视频免费观看| 黄色亚洲精品| 亚洲国产日韩美| 欧美成人视屏| 亚洲第一精品影视| 91久久一区二区| 欧美电影专区| 99re热精品| 亚洲男人影院| 国产精品一区在线观看你懂的| 亚洲一区二区三区涩| 香蕉乱码成人久久天堂爱免费| 国产精品乱子久久久久| 亚洲一区久久久| 欧美一区二区三区四区在线观看地址| 国产农村妇女毛片精品久久麻豆| 午夜宅男久久久| 久久综合电影一区| 亚洲第一中文字幕| 亚洲精品社区| 欧美视频观看一区| 亚洲欧美成人精品| 久久资源av| 亚洲电影在线看| 在线视频一区观看| 国产精品女主播| 久久成人精品电影| 欧美福利视频| 日韩亚洲不卡在线| 性欧美在线看片a免费观看| 国产日韩欧美中文| 亚洲国产精品专区久久| 欧美激情成人在线| 亚洲视频观看| 久久婷婷麻豆| 午夜亚洲福利| 国产伦理精品不卡| 亚洲国产成人久久| 欧美人与禽猛交乱配视频| 中国av一区| 久久人人爽人人爽爽久久| 亚洲日本激情| 欧美影院在线| 亚洲茄子视频| 久久国产精品一区二区| 亚洲欧洲偷拍精品| 欧美有码在线视频| 亚洲国产另类精品专区| 亚洲欧美一区二区三区久久| 国产综合自拍| 亚洲图中文字幕| 红桃视频欧美| 亚洲伊人久久综合| 亚洲第一成人在线| 香蕉亚洲视频| 91久久一区二区| 久久久精品欧美丰满| 日韩午夜三级在线| 久久视频免费观看| 亚洲视频axxx| 欧美韩日一区二区| 欧美亚洲专区| 欧美视频成人| 亚洲激情社区| 国产欧美日韩综合| 一本色道久久综合狠狠躁的推荐| 国产麻豆综合| 亚洲视频欧洲视频| 在线免费高清一区二区三区| 亚洲欧美国产精品桃花| 亚洲国产精品一区二区第四页av| 欧美在线观看视频一区二区三区| 亚洲剧情一区二区| 蜜臀91精品一区二区三区| 香蕉成人久久| 国产精品高潮在线| 99riav国产精品| 黄色亚洲精品| 久久av一区二区|