《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業界動態 > 微軟推出全新通用預訓練方法——MASS,效果比 BERT 和 GPT 更好?

微軟推出全新通用預訓練方法——MASS,效果比 BERT 和 GPT 更好?

2019-06-28
關鍵詞: 微軟 BERT GPT

  據報道:自 2018 年以來,預訓練無疑是自然語言處理(NLP)領域中最熱門的研究課題之一。通過利用 BERTGPT 和 XLNet 等通用語言模型,該領域的研究者們在自然語言理解方面已經取得了許多重大的突破。然而,對于序列到序列的自然語言生成任務,這些主流的預訓練方法并沒有帶來顯著的改進,對此,微軟亞洲研究院提出了一個全新的通用預訓練方法——MASS,在該任務中可以得到比 BERT 和 GPT 更好的效果。

  前言

  BERT 和 XLNet 在自然語言理解任務(例如:情感分類、自然語言推理和 SQuAD 閱讀理解)方面取得了巨大成功。然而, NLP 領域除了自然語言理解任務之外,還存在很多序列到序列的語言生成任務,例如機器翻譯、文本摘要生成、對話生成、問答、文本風格轉換等。對于這些任務,使用編碼器-注意力-解碼器框架是主流方法。

5d141b3156872-thumb.png

  圖 1 編碼器 - 注意力 - 解碼器框架

  如圖 1 所示,編碼器將源序列 X 作為輸入并將其轉換為隱藏表示的序列,然后解碼器通過注意力機制從編碼器中抽象出隱藏表示的序列信息,并自動生成目標序列文本 Y。

  BERT 和 XLnet 通常是對一個編碼器進行自然語言理解的預訓練;而 GPT 則是對一個解碼器進行語言建模的預訓練。當利用 BERT 和 GPT 進行序列到序列的語言生成任務時,我們通常需要對編碼器和解碼器分別進行預訓練。在這種情況下,編碼器 - 注意力 - 解碼器框架和注意力機制并沒有得到聯合訓練。然而,注意力機制在這類任務中極為重要,一旦缺失便會導致 BERT 和 GPT 無法達到最佳性能。

  一種新的預訓練方法

  針對序列到序列的自然語言生成任務,微軟亞洲研究院的機器學習小組提出了一種新的預訓練方法,即掩蔽的序列到序列預訓練(MASS:Masked Sequence to Sequence Pre-Training)。MASS 隨機掩蔽一個長度為 k 的句子片段,并通過編碼器 - 注意力 - 解碼器框架預測這一被掩蔽的片段。

2.png

  圖 2 MASS 框架

  如圖 2 所示,編碼器端的第 3-6 個標記被掩蔽,而在解碼器端,僅有被掩蔽的標記被預測出來,而其他標記則被掩蔽。

  MASS 預訓練具有以下優勢:

  解碼器端的其他標記(在編碼器端未被掩蔽的標記)被掩蔽,從而推動解碼器提取更多信息以幫助預測連續句子片段,促進編碼器-注意力-解碼器結構的聯合訓練;

  為了給解碼器提供更多有用的信息,編碼器被強制提取未被掩蔽的標記的含義,這可以提高編碼器理解源序列文本的能力;

  解碼器被設計用以預測連續的標記(句子片段),這可以提升解碼器的語言建模能力。

  統一的預訓練框架

  MASS 有一個重要的超參數 k(被掩蔽的片段的長度)。通過調整 k 值,MASS 可以將 BERT 中掩蔽的語言建模和 GPT 中的標準語言建模結合起來,從而將 MASS 擴展成一個通用的預訓練框架。

  當 k = 1 時,根據 MASS 的設計,編碼器端的一個標記被掩蔽,而解碼器端則會預測出該掩蔽的標記,如圖 3 所示。解碼器端沒有輸入信息,因而 MASS 等同于 BERT 中掩蔽的語言模型。

3.png

  圖 3 k = 1時,編碼器端一個標記被掩蔽,而解碼器端則會預測出該掩蔽的標記

  當 k = m(m 是序列的長度)時,在 MASS 中,編碼器端的所有標記都被掩蔽,而解碼器端會預測所有的標記,如圖 4 所示。解碼器端無法從編碼器端提取任何信息,MASS 等同于 GPT 中的標準語言模型。

4.png

  圖 4 k = m 時,編碼器端的所有詞都被掩蔽,而解碼器端會預測所有的標記,等同于 GPT 中的標準語言模型

  不同 k 值下 MASS 的概率公式如表 1 所示,其中 m 是序列的長度,u 和 v 分別是掩蔽片段的起始和終止位置,代表從位置 u 到 v 的標記都被掩蔽的序列。可以看出,當 k = 1 或 m 時,MASS 的概率公式等同于 BERT 中的被掩蔽的語言模型和 GPT 中的標準語言模型。

  表 1 在不同 k 值下 MASS 的概率公式

  研究人員通過實驗來分析了在不同 k 值下的 MASS 性能,如圖 5 所示:

5.png

  圖 5 在訓練前和微調階段的各種掩蔽長度 k 下 MASS 的表現,其中包括 a) 英語句子預訓練模型的PPL b) WMT13 英語-法語翻譯的法語句子 c) WMT13 無監督英語-法語翻譯的 BLEU 值 d) 文本摘要生成的 ROUGE 值 e) 對話生成的PPL

  當 k 等于句子長度的一半時,下游任務可以達到其最佳性能。掩蔽句子中一半的詞可以很好地平衡編碼器和解碼器的預訓練部分。如果預訓練更偏向編碼器端(k = 1,即 BERT)或更偏向解碼器端(k = m,LM / GPT),則無法實現最優的性能,這也表現出了 MASS 在序列到序列的語言生成任務中的優勢。

  序列到序列的語言生成任務測試

  預訓練

  值得注意的是,MASS 僅需要無監督的單語數據進行預訓練(例如 WMT News Crawl Data、Wikipedia Data 等)。MASS 支持跨語言任務(例如機器翻譯)和單語任務(例如文本摘要生成、對話生成)。在對英語-法語翻譯等跨語言任務進行預訓練時,研究人員可以在一個模型中同時進行英語-英語和法語-法語的預訓練,并使用附加的語言嵌入向量來區分語言。在無監督的機器翻譯、低資源機器翻譯、文本摘要生成和對話生成四個領域,研究人員對 MASS 進行了微調,以驗證其有效性。

  無監督機器翻譯

  關于無監督機器翻譯任務,研究人員將 MASS 與之前的方法進行了比較,包括以前最先進的方法 Facebook XLM。XLM 使用了由 BERT 創建的掩蔽預訓練語言模型,以及標準語言模型來分別預訓練編碼器和解碼器。

  結果如表 2 所示,MASS 在 WMT14 英語-法語、WMT16 英語-德語和英語-羅馬尼亞語的六個翻譯方向上的表現都優于 XLM,并取得了最新的最優結果。

6.png

  表 2 MASS 與之前關于無監督機器翻譯方法之間的比較;英語-法語翻譯報道在 newstest2014 上,其它的在 newstest2016 可以找到;由于 XLM 在編碼器和解碼器中使用 MLM 和 CLM 的不同組合,因此報告上顯示的是每個語言對上 XLM 的最高 BLEU 值

  低資源機器翻譯

  低資源機器翻譯是指使用有限的雙語訓練數據來進行機器翻譯。研究人員模擬了 WMT14 英語-法語,WMT16 英語-德語和英語-羅馬尼亞語翻譯(分別為 10K,100K 和 1M 雙語數據)的低資源情景。

7.png

  圖 6 MASS 與低資源機器翻譯方法之間的比較

  圖 6 顯示 MASS 在不同數據規模上的表現,均比不用預訓練的基線模型有不同程度的提升,并隨著監督數據越少,提升效果越顯著。

  文本摘要生成

  研究人員將 MASS 與 BERT+LM(編碼器用 BERT 預訓練,解碼器用標準語言模型 LM 預訓練)、DAE(去噪自編碼器)進行了比較。從表 3 中可以看出,MASS 的表現都優于 BERT+LM 和 DAE。

5d141b31dd221-thumb.png

  表 3 文本摘要生成任務中,MASS 和兩種預訓練方法之間的比較

  對話生成

  研究人員將 MASS 和 BERT+LM 進行了比較。表 4 顯示 MASS 實現了比 BERT+LM 更低的 PPL。

9.png

  表 4 MASS 與 BERT+LM 之間的比較數據

  MASS 連續在序列到序列的語言生成任務上實現顯著增益,Facebook 的研究者表示,期待今后在自然語言理解任務中測試 MASS 的性能,并希望在未來的工作中,將 MASS 的應用領域擴展到包含語音、視頻等其它序列到序列的生成任務中。

  

本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
国产美女高潮久久白浆| 国产精品久久久久天堂| 日韩午夜激情av| 久久精品成人欧美大片古装| 亚洲欧美激情视频| 99视频有精品| 亚洲精品字幕| 亚洲三级电影全部在线观看高清| 精品99一区二区三区| 国产手机视频一区二区| 国产精品自拍在线| 国产精品美女久久久| 国产精品久在线观看| 国产精品久久久久久久久婷婷 | 亚洲网站视频| 中文在线一区| 亚洲性人人天天夜夜摸| 亚洲午夜av| 亚洲自拍偷拍色片视频| 亚洲欧美综合精品久久成人 | 今天的高清视频免费播放成人| 国产精品久久久久77777| 国产精品ⅴa在线观看h| 国产精品免费区二区三区观看| 国产精品h在线观看| 欧美午夜电影在线观看| 国产精品高清在线| 国产精品人人做人人爽| 国产久一道中文一区| 国产拍揄自揄精品视频麻豆| 国产日韩欧美不卡| 狠狠色综合色综合网络| 亚洲国产精品99久久久久久久久| 亚洲国产三级网| 日韩亚洲国产精品| 亚洲免费在线观看视频| 欧美一级理论片| 亚洲国产美女| 99热免费精品在线观看| 亚洲视频一区二区| 欧美一区网站| 久久一区二区三区四区| 欧美精品日韩www.p站| 国产精品v片在线观看不卡| 国产精品一区久久久| 狠狠操狠狠色综合网| 亚洲国产精品久久久久秋霞不卡 | 亚洲一区日本| 亚洲国产成人在线视频| 亚洲最新视频在线| 欧美一区二区三区在线免费观看| 久久躁日日躁aaaaxxxx| 欧美日韩国产精品一区二区亚洲| 国产精品露脸自拍| 一区二区亚洲精品| 99视频在线观看一区三区| 午夜亚洲福利| 亚洲美女中文字幕| 香蕉久久一区二区不卡无毒影院| 久久一区二区三区av| 欧美三级乱码| 国内精品久久久久影院优| 亚洲精品乱码视频| 午夜日韩av| 一区二区三区日韩在线观看 | 久久av一区二区三区漫画| 美女国产一区| 国产精品另类一区| 亚洲国产高清在线| 午夜精品久久久久久久99热浪潮| 亚洲激情在线播放| 午夜精品免费在线| 欧美多人爱爱视频网站| 国产美女精品免费电影| 亚洲精品在线观看视频| 校园春色国产精品| 一区二区三区四区蜜桃| 久久久噜噜噜久久中文字幕色伊伊| 欧美激情 亚洲a∨综合| 国产区精品视频| 日韩一级成人av| 亚洲国产小视频| 欧美一区二区三区在线观看视频| 国产精品色婷婷| 国产一区二区在线观看免费| 亚洲人成绝费网站色www| 午夜精品久久久久久久蜜桃app| 亚洲蜜桃精久久久久久久| 久久精品人人做人人综合| 欧美日韩精品二区第二页| 狠狠色狠狠色综合日日五| 亚洲一级特黄| 久久久久久9| 国产精品a久久久久久| 亚洲国产日韩欧美| 欧美在线视频二区| 午夜精品网站| 欧美日韩中文字幕在线| 亚洲第一成人在线| 久久国内精品自在自线400部| 亚洲欧美在线视频观看| 欧美日韩三级| 亚洲精品一区在线观看| 亚洲人成网在线播放| 久久嫩草精品久久久久| 国产欧美日韩在线视频| 中文av一区二区| 一区二区三区|亚洲午夜| 免费亚洲电影在线| 黄色亚洲免费| 亚洲第一精品在线| 久久九九国产| 国产在线精品一区二区中文| 亚洲欧美电影在线观看| 亚洲一区日韩在线| 欧美日韩在线一区二区| 亚洲毛片一区| av成人免费| 欧美久久久久久久久| 91久久精品国产91久久性色tv| 久久精品夜色噜噜亚洲a∨| 久久aⅴ国产欧美74aaa| 国产日韩欧美91| 欧美在线观看一区二区| 久久精品日韩欧美| 国产亚洲欧洲| 欧美在线视频二区| 久久视频在线看| 国内外成人免费视频| 久久国产精品色婷婷| 久久久五月天| 伊人久久婷婷| 久久gogo国模啪啪人体图| 久久午夜电影| 亚洲成色777777女色窝| 亚洲精品精选| 欧美母乳在线| 夜夜嗨av一区二区三区| 亚洲免费一在线| 国产欧美一区二区精品仙草咪| 亚洲欧美日韩一区在线观看| 欧美有码视频| 国产资源精品在线观看| 亚洲黄网站在线观看| 欧美激情一区二区三级高清视频| 亚洲精品免费看| 亚洲一区二区四区| 国产女主播视频一区二区| 欧美一区久久| 你懂的视频欧美| 99pao成人国产永久免费视频| 亚洲综合电影| 国产亚洲综合性久久久影院| 亚洲精品1区| 欧美日韩国产三级| 亚洲免费一在线| 免费看的黄色欧美网站| 99精品国产热久久91蜜凸| 欧美一区二区三区的| 一区二区三区亚洲| 日韩视频免费观看| 国产精品国色综合久久| 欧美影视一区| 欧美高清在线视频| 中日韩美女免费视频网址在线观看 | 国内精品99| 亚洲精品影院| 国产精品毛片va一区二区三区| 欧美在线亚洲在线| 欧美日韩国产精品自在自线| 午夜精品久久久99热福利| 欧美sm重口味系列视频在线观看| 亚洲久久视频| 欧美中在线观看| 亚洲欧洲精品一区二区精品久久久| 亚洲一区二区成人| 国产亚洲一区二区三区| 日韩视频免费观看| 国产日韩在线一区二区三区| 亚洲免费高清| 国产午夜精品视频| 一区二区三区 在线观看视| 国产一区二区日韩精品| 亚洲最新视频在线播放| 国产一区二区三区精品久久久| 99re6热只有精品免费观看| 国产乱码精品一区二区三区五月婷| 91久久精品www人人做人人爽 | 亚洲桃色在线一区| 免费成人av资源网| 亚洲欧美一级二级三级| 欧美成人精品h版在线观看| 亚洲男人天堂2024| 欧美人与禽性xxxxx杂性| 欧美一区二区三区另类| 欧美色视频日本高清在线观看| 久久精品国产99国产精品| 欧美视频免费在线| 亚洲清纯自拍| 国产一区二区三区免费不卡|