《電子技術應用》
您所在的位置:首頁 > 人工智能 > AET原創 > Graphcore IPU性能首次超越英偉達再創新高

Graphcore IPU性能首次超越英偉達再創新高

2021-12-30
作者:韋肖葳
來源:電子技術應用
關鍵詞: Graphcore MLPerf IPU 英偉達

12月2日,AI芯片初創公司Graphcore(擬未科技)正式公布其參與MLPerf測試(MLPerf V1.1)的最新結果。Graphcore在本次提交了ResNet-50模型的Closed Division(封閉分區)以及BERT模型的Closed Division、Open Division(開放分區)。結果顯示,與首次提交的MLPerf訓練(MLPerf V1.0)結果相比,對于計算機視覺模型ResNet-50,Graphcore通過軟件優化,在IPU-POD16上實現了24%的性能提升,在IPU-POD64上實現了41%的性能提升;自然語言處理模型BERTIPU-POD16上實現了5%的性能提升,在IPU-POD64上實現了12%的性能提升。此次MLPerf測試結果證明了Graphcore的IPU系統越來越強大、高效,軟件日益成熟且更快、更易使用。

 

 Screen Shot 2021-12-30 at 10.54.20 am.png

 

Graphcore中國工程總負責人、AI算法科學家金琛指出,本次測試結果展現的性能顯著提升主要歸功于Graphcore對軟件的優化,涵蓋對應用程序、框架、系統、編譯器、核函數的優化。“這些優化在不同模型上都有所體現。大家都知道,很多事情最開始的提升速度最快,但越往后提升越困難,通常需要80%的努力才能獲得20%的提升。Graphcore能獲得這些提升,我們是做了非常多的工作的。”她表示。

 

 Screen Shot 2021-12-30 at 10.55.32 am.png

Graphcore中國工程總負責人、AI算法科學家金琛

 

縱向對比:首次納入系統集群,ResNet-50在IPU-POD256上的訓練時間只需3.79分鐘

 

 Screen Shot 2021-12-30 at 10.56.10 am.png

 

除了基于IPU-POD16和IPU-POD64提交的MLPerf V1.0測試,這一次,Graphcore首次納入了系統集群,進行了128顆(IPU-POD128)以及256顆(IPU-POD256)IPU集群的提交。如圖所示,ResNet-50在IPU-POD16上的訓練時間(Time to Train)為28.33分鐘,隨著系統的增大,訓練時間逐次遞減——在IPU-POD64上的訓練時間為8.5分鐘,在IPU-POD256上只需3.79分鐘。“希望明年此時,我們能提供更大的集群,讓ResNet-50的訓練時間在1分鐘之內完成,這是我們的目標。”金琛表示。

 

Screen Shot 2021-12-30 at 10.56.32 am.png 


上圖顯示的是Graphcore提交的BERT-Large在MLPerf上的性能表現。“我們在IPU-POD16上的端到端訓練,在Closed Division上只需半個小時。如果把整個集群增大8倍,我們的訓練時間不到7分鐘。隨著集群的增加,訓練時間大幅縮短,這會極大提高算法工程師迭代模型的效率。在Open Division的提交方面,我們在IPU-POD64上的性能進一步提高,原因是IPU得到了優化,包括對訓練策略、對訓練優化器超參以及對損失函數的優化。如圖所示,我們基本上另外提高了20%,這非常可觀。這些優化我們也應用到了一些客戶上,得到了正面反饋。”金琛指出。

 

橫向對比:首次僅通過軟件實現性能提升,IPU-POD16性能優于DGX A100

 

Screen Shot 2021-12-30 at 10.57.59 am.png 


MLPerf同時對比了市面上Graphcore與NVIDIA的產品。盡管GPU在ResNet-50模型上占據優勢,測試結果仍然顯示Graphcore的IPU-POD16在ResNet-50方面的表現優于NVIDIA的DGX A100。值得注意的是,這是NVIDIA生態系統在MLPerf訓練測試中的第五次亮相,而Graphcore是第二次提交Graphcore的這次提交也是其首次僅通過軟件實現了性能提升。ResNet-50上,IPU-POD16首次超越了DGX A100的性能,其端到端的訓練時間只用了28.3分鐘,比DGX A100快了近一分鐘

 

如文章首段所提,IPU-POD16對ResNet-50的軟件驅動性能提高了24%,在IPU-POD64上對ResNet-50的軟件驅動性能提升甚至更高,達到41%,對于Graphcore具有里程碑式的意義。在金琛看來,NVIDIA的軟件庫已經迭代許久,提升的空間可能會有所減緩。Graphcore會持續迭代、優化自身的軟件棧及整個AI系統,久久為功、保持勢頭,不斷提升性能優勢。“僅通過兩次MLPerf的提交,我們就能夠在GPU最主流的模型上超過GPU,這是讓我們非常自豪的一件事,而且Graphcore在未來還有更大的提升空間。”Graphcore大中華區總裁兼全球首席營收官盧濤補充道,“以前我們一直強調IPU是一個極具創新的平臺,適合做一些新的應用,幫助創新者完成他們曾經達成不了的任務。這次的測試結果證明IPU確實能在已經成為主流的應用上落地,能落地則意味著可觀的商業回報,這也是對行業而言比較重要的一個影響。”

 

 Screen Shot 2021-12-30 at 11.01.25 am.png

Graphcore大中華區總裁兼全球首席營收官盧濤

 

大規模集群性能擁有強大優勢

 

本次Graphcore提交的集群是IPU-POD128和IPU-POD256。除了IPU-POD16和IPU-POD64的時間優勢之外,IPU-POD128和IPU-POD256此次能取得優異成績主要在于其軟件的可擴展性。“我們在設計軟件的過程中考慮了很多因素,比如大量優化模型變形、數據變形、Kernel變形。同時,我們擁有非常細致的設計思路,讓用戶只需要寫一個腳本、配置數據Replica的個數,就可以很自如地進行從1個IPU到256個IPU的橫向擴展。”金琛指出,“除了在框架層面進行橫向擴展,我們也在通信庫上做了很大一部分優化。這方面的優化會為深度學習以及數據并行的深度學習帶來顯著影響。關于BERT-Large訓練中5%和12%的提升很大程度上源于我們對通信庫的改進。”

 

 Screen Shot 2021-12-30 at 11.01.56 am.png

 

據介紹,Graphcore的系統擴展可以應用在更廣泛的應用場景之中,包括用于自然語言處理的GPT類模型和用于計算機視覺的ViT(Transformer視覺模型)。“我們的系統軟件設計及優化對新模型、新架構均非常適用。IPU系統可以非常平滑地從16個IPU一直擴展到256個IPU。”金琛表示。

 

Screen Shot 2021-12-30 at 11.02.21 am.png 

 

以創新的計算機視覺模型EfficientNet-B4為例,DGX A100端到端的訓練時間為70.5小時(官網數據),而IPU-POD16端到端的訓練時間是20.7個小時,前者約為后者的3.5倍。隨著系統的增大,時間逐漸縮短,EfficientNet-B4在IPU-POD256上的訓練時間僅為1.8小時。“盡管這并非Graphcore本次向MLPerf提交的內容,但我們的大規模集群在實際應用中的確具備更強的性能優勢。原來4天的訓練時間現在只需2個小時,這會大大解放開發者的生產力,是我們大集群非常大的一個吸引力。”金琛解釋。

 

“我們第一版IPU-POD的硬件是在2020年的12月份宣布量產的。一年內的硬件集群的增加、軟件的優化,使得我們此次在IPU-POD256上的ResNet性能相較去年年底在IPU-POD16上的ResNet性能提高了50倍,這是一個非常大的飛躍。”盧濤認為,“我們的生態在過去半年中也取得了長足進步,擁有越來越多跨行業的商業用戶、商業案例研究,例如天氣預測、金融、保險、電信。”

 

回顧2021,盧濤指出,其自身遇到的最大的挑戰可以用三個字來形容——“周期比預期要長”。不過,正如錘煉一柄傳世寶劍,以精益求精之決心,歷經千錘百煉后才能鍛造出去雜存精的好劍。鑄劍的過程是痛苦的,但寶劍內在美好的本質會被錘煉出來。這時,挑戰亦為收獲。“2021年我們確實扎根產業,著力落地應用場景,但整體來說,AI應用場景落地的整個鏈條很長,因此把整個方案變為一個產品是個挑戰。”盧濤告訴記者。

 

兼具通用性與高性能,IPU發展經歷了“熱鬧的2021”,將迎來“美好的2022”

 

在盧濤看來,2021年IPU的市場環境存在兩個特點:第一是應用落地時間長于預期;第二是市場對IPU的期望強于預期。“今年年底時,我們發現市場的動能、慣性以及活躍程度,比年初時更為看好。這背后的原因在于多種因素組合所帶來的積極推動作用,例如用戶對市場、對自己應用的認知,對市場上各類處理器的認知,還有我們自身框架、應用、生態以及落地場景等方面的進展。隨著更多資金的投入,2021年的市場環境將比2020年更為熱鬧。”盧濤告訴記者。

 

他指出,無論從計算機的體系結構抑或是用戶角度來講,IPU都極具通用性:“從指令級、架構上來看,IPU能夠進行所有AI相關的業務,從CNN、RNN到LSTM,再到Transformer,所以IPU的通用性毫無疑問。假如不講計算機的體系結構,用戶判斷產品的通用與否主要依據以下兩點:第一、產品是否能開發出各種各樣的應用。如果不同的應用都能開發,那么對用戶而言它就通用。第二、對開發者來說,產品是否便于針對各種應用進行編程。如果能夠編程,那么對開發者而言它就通用。所以從這兩個維度來看,IPU是一個非常通用的產品。”

 

除此之外,高性能也是IPU吸引用戶的關鍵因素。據介紹,在金融案例中,Graphcore的IPU產品比GPU快10倍;在保險算法模型方面,IPU比GPU快5倍;天氣預測方面,歐洲案例證明IPU比CPU快50倍、比GPU快5倍;中國目前的場景顯示IPU能夠比CPU快60倍。“最近,斯坦福大學醫學院在差分隱私的使用方面取得了重大突破。通過使用Graphcore IPU,斯坦福團隊能夠將具有差分隱私的人工智能訓練速度提高10倍以上。IPU支持隱私計算非常吸引他們。”盧濤補充。

 

談及IPU的技術發展趨勢,盧濤指出以下三點:

第一,“Transformer-based everything”(基于Transformer的一切)

2017年,谷歌團隊首先提出Transformer模型,該模型最初被應用于NLP領域,成效卓著。如今在計算機視覺領域、對話和語音領域,Transformer同樣表現優異。隨著GPT-2、GPT-3、AlphaStar等更多大模型重要成果的顯現,Transformer預計會為更多領域帶來革新。

第二,應用規模會越來越大、越來越復雜

“之前大家比較關注單一的視覺任務和語音任務,后來AI又能應用于文字、語言、視頻、圖像,更加復雜,所謂稱之為‘多模態’,這是一個重要趨勢。”盧濤做出解釋。

第三,AI融合科學計算

盧濤表示,目前AI正在從互聯網、自動駕駛等熱門場景向與傳統科學計算相結合的方向發展。例如DeepMind今年發布的AlphaFold(蛋白質方面的科學研究)、AI用于天氣預測、宇宙學研究、分子動力學仿真等等。

 

基于此,盧濤表示,2022年Graphcore會相應地在三點進行發力:

第一,加大基于Transformer的應用上的投入

ResNet于2016年10月發明,BERT于2018年10月出現。因此,自2016年5月成立以來,Graphcore在基于Transformer的應用方面呈持續追趕態勢。“我們處于追趕當前市場霸主的位置,別人已經打磨很久了、做了大量的優化和工作。”盧濤表示,“即便這樣,我們甚至只跟目前產業最領先的企業在transformer上只有三個月的差距。所以我們會在Transformer-based everything方面加大投入。”

第二,混合語言、語音、視頻、圖片,用AI進行更復雜的應用

第三,加大對AI與高性能計算、科學計算融合的投入

 

企業的技術提升離不開人才建設,因此Graphcore也會持續加強人才儲備。2021年初,Graphcore中國團隊只有20人左右,截至目前,團隊人數增長四倍,達到80人。從全球來看,公司總人數也從年初的400多人增長至如今的600多人。據了解,隨著AI在科學計算上的應用逐漸普適化,Graphcore也會在科學計算方面儲備人才。“天氣預測、分子動力學等領域會給國計民生帶來深遠影響,所以不光在深度學習,我們也會在高性能計算領域與大家一同開拓創新。”金琛告訴記者。“我們會腳踏實地,認真務實,相信Graphcore‘擬未’會有更美好的未來。”盧濤在最后總結。

 

WechatIMG454.jpeg

此內容為AET網站原創,未經授權禁止轉載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
国产区二精品视| 亚洲另类一区二区| 欧美精品国产| 久久综合伊人77777蜜臀| 欧美一区二区高清| 午夜精品影院| 亚洲视频自拍偷拍| 一本色道久久综合狠狠躁篇怎么玩 | 国产视频在线一区二区| 国产精品美女主播在线观看纯欲| 欧美视频一区在线| 欧美亚洲第一页| 国产精品久在线观看| 国产精品高潮呻吟久久av黑人| 欧美性大战久久久久久久蜜臀| 欧美视频免费看| 国产精品成人v| 国产女精品视频网站免费| 国产区在线观看成人精品| 国产日韩欧美一区二区| 国产在线成人| 亚洲国产高清视频| 亚洲美女av黄| 亚洲五月婷婷| 欧美中文字幕久久| 91久久精品久久国产性色也91| 亚洲精品免费观看| 国产精品99久久久久久白浆小说| 亚洲视频在线观看网站| 午夜精品一区二区在线观看 | 国产欧美精品xxxx另类| 韩日欧美一区二区三区| 亚洲国产精品久久久久久女王| 亚洲日本精品国产第一区| 一区二区三区三区在线| 亚洲欧洲99久久| 亚洲电影在线| 一本高清dvd不卡在线观看| 亚洲综合欧美| 久久亚洲国产精品日日av夜夜| 欧美成人一区二免费视频软件| 欧美日韩国产首页在线观看| 国产精品久久久久毛片软件| 国产亚洲欧美一区| 亚洲国产婷婷综合在线精品| 一本色道久久88亚洲综合88| 性色av一区二区三区| 最近看过的日韩成人| 亚洲资源av| 老色鬼久久亚洲一区二区| 欧美日韩aaaaa| 国产欧美日本一区二区三区| 亚洲高清在线播放| 亚洲欧美激情在线视频| 亚洲国产天堂久久综合| 亚洲在线观看免费| 久久尤物电影视频在线观看| 欧美黄色成人网| 国产欧美三级| 亚洲剧情一区二区| 欧美一区网站| 中文欧美字幕免费| 久久久噜久噜久久综合| 欧美日韩在线亚洲一区蜜芽| 国产亚洲欧美一区| 日韩特黄影片| 亚洲福利视频一区二区| 亚洲午夜一级| 麻豆精品精品国产自在97香蕉| 欧美三级电影大全| 精品91久久久久| 亚洲一区一卡| 一区二区三区视频在线观看| 久久久亚洲一区| 国产精品久久久久久久免费软件| 在线观看国产精品网站| 亚洲女与黑人做爰| 一区二区三区国产精品| 久久久欧美一区二区| 国产精品激情| 亚洲精品在线二区| 亚洲高清av| 性欧美xxxx大乳国产app| 欧美激情片在线观看| 国产一区清纯| 亚洲在线视频| 中国亚洲黄色| 欧美精品一区二区三| 激情av一区二区| 午夜宅男久久久| 亚洲网友自拍| 欧美精彩视频一区二区三区| 狠狠色噜噜狠狠狠狠色吗综合| 亚洲一区二区三区涩| 一本色道久久88综合日韩精品| 久久综合国产精品台湾中文娱乐网| 国产乱码精品一区二区三区忘忧草| 亚洲美女黄色片| 亚洲精品中文在线| 免费久久99精品国产自| 国产亚洲精品激情久久| 亚洲尤物视频网| 亚洲一区二区三| 欧美三级网页| 一区二区久久| 亚洲图片欧美日产| 欧美日韩一区二区视频在线观看| 亚洲国产天堂久久国产91| 亚洲国产老妈| 欧美不卡三区| 亚洲电影成人| 亚洲激情成人| 免费不卡视频| 亚洲电影在线看| 亚洲欧洲综合另类在线| 美女露胸一区二区三区| 一区二区视频在线观看| 亚洲高清成人| 美女久久网站| 亚洲第一天堂av| 亚洲乱亚洲高清| 欧美日韩国产综合久久| 亚洲精品视频啊美女在线直播| 日韩亚洲欧美综合| 欧美日韩精品二区| 99国产精品久久久久老师| 这里只有精品在线播放| 欧美性感一类影片在线播放| 亚洲视频综合| 欧美一区二区在线视频| 国产深夜精品福利| 久久国产精品99精品国产| 另类图片国产| 亚洲欧洲偷拍精品| 亚洲一区二区在线播放| 国产精品久久久久婷婷| 亚欧成人精品| 蜜臀av一级做a爰片久久| 亚洲激情av在线| 亚洲午夜国产成人av电影男同| 欧美系列一区| 午夜精品av| 麻豆91精品91久久久的内涵| 最新亚洲一区| 亚洲欧美在线aaa| 国产一区二区三区久久久| 亚洲高清视频的网址| 欧美国产日韩a欧美在线观看| 亚洲人精品午夜在线观看| 亚洲性夜色噜噜噜7777| 国产精品综合色区在线观看| 欧美专区在线| 欧美精品一区在线| 亚洲影院免费观看| 久久这里有精品视频| 亚洲欧洲精品一区二区三区不卡 | 久热精品在线| 亚洲伦理在线观看| 香蕉久久夜色精品国产使用方法 | 在线综合亚洲欧美在线视频| 香蕉久久a毛片| 一区二区亚洲精品国产| 中文精品99久久国产香蕉| 国产日韩精品电影| 亚洲伦理在线观看| 国产精品一二三四区| 亚洲国产欧美一区二区三区同亚洲 | 国产精品成人免费| 久久精品女人| 欧美日韩免费精品| 久久国产精品久久久久久| 欧美精品久久久久久久| 亚洲欧美日本另类| 欧美极品aⅴ影院| 亚洲综合三区| 欧美大成色www永久网站婷| 在线亚洲电影| 老司机精品久久| 亚洲一区二区三区在线| 欧美a一区二区| 亚洲欧美成人一区二区在线电影| 蜜桃av一区二区在线观看| 亚洲午夜视频在线观看| 男女av一区三区二区色多| 亚洲一区二区三区免费在线观看 | 亚洲人成欧美中文字幕| 久久精品天堂| 日韩视频在线永久播放| 久久亚洲精品中文字幕冲田杏梨| 在线一区亚洲| 欧美成人在线网站| 欧美一级黄色录像| 国产精品成人在线观看| 亚洲国产日韩欧美综合久久| 国产精品网站在线观看| 一本一本久久| 亚洲福利视频一区| 久久久久国产一区二区三区| 一本色道久久综合狠狠躁篇怎么玩| 理论片一区二区在线|