《電子技術應用》
您所在的位置:首頁 > 通信與網絡 > 設計應用 > 基于BERT-CNN的新聞文本分類的知識蒸餾方法研究
基于BERT-CNN的新聞文本分類的知識蒸餾方法研究
2023年電子技術應用第1期
葉榕,邵劍飛,張小為,邵建龍
昆明理工大學 信息工程與自動化學院,云南 昆明 650500
摘要: 近年來,隨著大數據時代進入人類的生活之后,人們的生活中出現很多無法識別的文本、語義等其他數據,這些數據的量十分龐大,語義也錯綜復雜,這使得分類任務更加困難。如何讓計算機對這些信息進行準確的分類,已成為當前研究的重要任務。在此過程中,中文新聞文本分類成為這個領域的一個分支,這對國家輿論的控制、用戶日常行為了解、用戶未來言行的預判都有著至關重要的作用。針對新聞文本分類模型參數量多和訓練時間過長的不足,在最大限度保留模型性能的情況下壓縮訓練時間,力求二者折中,故提出基于BERT-CNN的知識蒸餾。根據模型壓縮的技術特點,將BERT作為教師模型,CNN作為學生模型,先將BERT進行預訓練后再讓學生模型泛化教師模型的能力。實驗結果表明,在模型性能損失約2.09%的情況下,模型參數量壓縮約為原來的1/82,且時間縮短約為原來的1/670。
中圖分類號:TP391.1
文獻標志碼:A
DOI: 10.16157/j.issn.0258-7998.223094
中文引用格式: 葉榕,邵劍飛,張小為,等. 基于BERT-CNN的新聞文本分類的知識蒸餾方法研究[J]. 電子技術應用,2023,49(1):8-13.
英文引用格式: Ye Rong,Shao Jianfei,Zhang Xiaowei,et al. Knowledge distillation of news text classification based on BERT-CNN[J]. Application of Electronic Technique,2023,49(1):8-13.
Knowledge distillation of news text classification based on BERT-CNN
Ye Rong,Shao Jianfei,Zhang Xiaowei,Shao Jianlong
School of Information Engineering and Automation, Kunming University of Science and Technology, Kunming 650500, China
Abstract: In recent years, after the era of big data has entered human life, many unrecognizable text, semantic and other data have appeared in people's lives, which are very large in volume and intricate in semantics, which makes the classification task more difficult. How to make computers classify this information accurately has become an important task of current research. In this process, Chinese news text classification has become a branch in this field, which has a crucial role in the control of national public opinion, the understanding of users' daily behavior, and the prediction of users' future speech and behavior. In view of the shortage of news text classification models with large number of parameters and long training time, the BERT-CNN based knowledge distillation is proposed to compress the training time while maximizing the model performance and striving for a compromise between the two. According to the technical characteristics of model compression, BERT is used as the teacher model and CNN is used as the student model, and BERT is pre-trained first before allowing the student model to generalize the capability of the teacher model. The experimental results show that the model parametric number compression is about 1/82 and the time reduction is about 1/670 with the model performance loss of about 2.09%.
Key words : news text;BERT;CNN;knowledge distillation

0 引言

    隨著大數據時代的到來,今日頭條、新浪微博和豆瓣等主流新聞媒體APP產生海量新聞文本,因此如何將這些新聞文本進行快速有效的分類對于用戶體驗乃至國家網絡輿情控制是十分必要的。針對中文新聞文本分類任務,研究者提出許多分類算法和訓練模型,證明深度學習分類方法的有效性。

    以BERT[1](Bidirectional Encoder Representation from Transformers)預訓練模型為例:在文獻[2]的實驗中可以得出,BERT-CNN模型取得的效果最佳,但是從工程落地的角度來說,模型參數量過于巨大,僅僅一個BERT模型,參數就達一億多。本文使用的是谷歌開源的面向中文的BERT預訓練模型,占用內存大小為325 Mb。另一方面,針對訓練時間過長的缺點,以該實驗為例,訓練18萬條新聞文本數據消耗的時間為3.5 h,很顯然對于未來的模型工程落地還存在很大的差距。因此,本文在保證不下降過多模型的準確率的前提下,將BERT-CNN進行模型壓縮,降低模型體積以及模型的訓練時間,提升模型的泛化能力。

    本文創新點主要體現在:(1)對實驗數據集進行了擴充處理,提升模型泛化能力;(2)通過觀察不同的T和α的組合對模型蒸餾性能的影響確定最優組合值而不是固定值;(3)蒸餾場景不再局限于傳統情感分析(二分類),本實驗面向10分類的文本分析,不同標簽文本的蒸餾性能也不盡相同。




本文詳細內容請下載:http://www.jysgc.com/resource/share/2000005068




作者信息:

葉榕,邵劍飛,張小為,邵建龍

(昆明理工大學 信息工程與自動化學院,云南 昆明 650500)




wd.jpg

此內容為AET網站原創,未經授權禁止轉載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
久久成人18免费网站| 制服丝袜激情欧洲亚洲| 国产精品成人一区| 亚洲一区观看| 亚洲一区二区三区精品在线观看| 国产精品成人va在线观看| 亚洲一区二区三区在线播放| 亚洲无限乱码一二三四麻| 国产啪精品视频| 免费短视频成人日韩| 中文欧美字幕免费| 亚洲一区二区综合| 国产综合网站| 欧美另类人妖| 欧美有码在线视频| 91久久精品国产91性色tv| 亚洲人成亚洲人成在线观看| 国产精品成人免费精品自在线观看| 欧美在线免费一级片| 亚洲激情视频在线观看| 99精品久久久| 国内久久精品视频| 欧美日本中文字幕| 欧美主播一区二区三区美女 久久精品人| 久久精品视频99| 亚洲精品国产精品乱码不99| 欧美午夜无遮挡| 久久久噜噜噜久久中文字免| 亚洲精品国产欧美| 一本色道久久88精品综合| 国产拍揄自揄精品视频麻豆| 免费观看一级特黄欧美大片| 亚洲一区在线播放| 久久国产精品久久w女人spa| 日韩视频在线免费观看| 国产日韩欧美在线播放不卡| 欧美精品一区三区| 欧美中文字幕在线| 一区二区三区精品| 欧美一区二区三区电影在线观看| 最新日韩欧美| 国产欧美日韩一区二区三区| 女人天堂亚洲aⅴ在线观看| 亚洲欧美在线播放| 亚洲人成7777| 欧美一区国产一区| 一区二区av在线| 在线精品国精品国产尤物884a| 欧美日韩亚洲网| 久久综合久久综合久久| 亚洲新中文字幕| 亚洲精品美女| 欧美在线网站| 亚洲影视在线播放| 亚洲毛片视频| 国内精品伊人久久久久av一坑| 国产精品电影观看| 欧美激情综合| 毛片一区二区| 久久爱www| 亚洲欧美日韩视频二区| 日韩视频在线一区二区| 亚洲高清成人| 亚洲欧美日韩一区二区三区在线观看| 亚洲精品一区二区在线观看| 一区二区三区在线不卡| 国产欧美一区二区视频| 国产精品国产三级国产aⅴ浪潮| 欧美精品导航| 免费日韩视频| 久久亚洲精品网站| 欧美在线首页| 午夜精品久久久久久久久久久久久| 99成人在线| 亚洲欧洲在线看| 久久精品人人做人人爽| 亚洲欧美日韩精品久久| 99re6这里只有精品| 亚洲国产成人av好男人在线观看| 国产视频久久久久久久| 国产精品二区在线| 欧美精品一区二区三区蜜桃 | 久久er精品视频| 亚洲欧美综合v| 亚洲欧美国产毛片在线| 亚洲一区二区黄色| 中文一区二区| 亚洲香蕉视频| 亚洲男人第一网站| 午夜精品久久久99热福利| 亚洲一区二区四区| 亚洲永久免费精品| 亚洲一区欧美| 亚洲自拍另类| 亚洲欧美日韩天堂一区二区| 亚洲视频导航| 亚洲免费网址| 欧美一级成年大片在线观看| 性欧美1819性猛交| 欧美在线首页| 久久亚洲春色中文字幕| 老司机精品视频网站| 欧美jizzhd精品欧美巨大免费| 毛片一区二区三区| 欧美精品激情在线| 欧美日韩小视频| 欧美日韩在线播放一区| 久久伊人一区二区| 久久久水蜜桃| 亚洲自拍偷拍福利| 亚洲一区观看| 久久久久国产成人精品亚洲午夜| 久久久久久久一区二区| 美女主播精品视频一二三四| 欧美精品福利| 国产精品青草综合久久久久99 | 久久av一区二区三区| 久久精品首页| 欧美国产免费| 国产精品国产三级国产aⅴ浪潮 | 国产精品国产| 国内精品写真在线观看| 亚洲国产一二三| 亚洲图片欧美一区| 久久国产精品久久久久久| 日韩亚洲视频在线| 性欧美video另类hd性玩具| 裸体丰满少妇做受久久99精品| 欧美日韩情趣电影| 国产一区白浆| 亚洲精选成人| 久久精品免费播放| 亚洲午夜电影在线观看| 久久精视频免费在线久久完整在线看| 欧美国产第一页| 国产女主播一区二区| 亚洲电影免费观看高清完整版在线观看| 亚洲免费观看在线视频| 欧美一区二区三区视频| 一区二区三区.www| 久久久国产视频91| 欧美天天在线| 激情久久一区| 亚洲一区二区三区在线视频| 亚洲精品国产品国语在线app | 老牛影视一区二区三区| 欧美偷拍另类| 在线观看av一区| 亚洲尤物视频在线| 亚洲美女中文字幕| 久久精品网址| 国产精品美女在线观看| 91久久午夜| 欧美中文字幕在线视频| 亚洲一区二区精品在线| 欧美aa在线视频| 国产一区欧美日韩| 亚洲在线视频一区| 在线天堂一区av电影| 久久久久久亚洲精品不卡4k岛国| 欧美日韩国产一级片| 影音先锋另类| 欧美一区二区三区在线视频| 中文av一区特黄| 暖暖成人免费视频| 国产亚洲一级高清| 在线视频中文亚洲| 99re6这里只有精品| 久久人人九九| 国产视频亚洲精品| 亚洲自拍高清| 亚洲综合电影| 欧美日韩亚洲视频一区| 最新成人在线| 亚洲精品视频在线观看网站| 狂野欧美激情性xxxx欧美| 国产视频一区欧美| 亚洲一二三区视频在线观看| 亚洲天堂免费观看| 欧美日韩精品二区| 亚洲人成绝费网站色www| 亚洲黄色小视频| 久久综合九九| 国产综合色产在线精品| 欧美一级在线播放| 久久精品国产一区二区三区| 国产精品视频自拍| 亚洲伊人观看| 欧美亚洲一区| 国产乱码精品一区二区三区忘忧草| 亚洲午夜一级| 亚洲欧美大片| 国产精品乱码一区二三区小蝌蚪| 中国成人在线视频| 亚洲欧美在线另类| 国产精品亚洲аv天堂网| 亚洲线精品一区二区三区八戒| 亚洲欧美日韩精品久久亚洲区 | 夜夜嗨av一区二区三区| 欧美日本簧片|