《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 設計應用 > 基于FPGA的卷積神經網絡并行加速器設計
基于FPGA的卷積神經網絡并行加速器設計
2021年電子技術應用第2期
王 婷,陳斌岳,張福海
南開大學 電子信息與光學工程學院,天津300350
摘要: 近年來,卷積神經網絡在許多領域中發揮著越來越重要的作用,然而功耗和速度是限制其應用的主要因素。為了克服其限制因素,設計一種基于FPGA平臺的卷積神經網絡并行加速器,以Ultra96-V2 為實驗開發平臺,而且卷積神經網絡計算IP核的設計實現采用了高級設計綜合工具,使用Vivado開發工具完成了基于FPGA的卷積神經網絡加速器系統設計實現。通過對GPU和CPU識別率的對比實驗,基于FPGA優化設計的卷積神經網絡處理一張圖片的時間比CPU要少得多,相比GPU功耗減少30倍以上,顯示了基于FPGA加速器設計的性能和功耗優勢,驗證了該方法的有效性。
中圖分類號: TN402
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.200858
中文引用格式: 王婷,陳斌岳,張福海. 基于FPGA的卷積神經網絡并行加速器設計[J].電子技術應用,2021,47(2):81-84.
英文引用格式: Wang Ting,Chen Binyue,Zhang Fuhai. Parallel accelerator design for convolutional neural networks based on FPGA[J]. Application of Electronic Technique,2021,47(2):81-84.
Parallel accelerator design for convolutional neural networks based on FPGA
Wang Ting,Chen Binyue,Zhang Fuhai
College of Electronic Information and Optical Engineering,Nankai University,Tianjin 300350,China
Abstract: In recent years, convolutional neural network plays an increasingly important role in many fields. However, power consumption and speed are the main factors limiting its application. In order to overcome its limitations, a convolutional neural network parallel accelerator based on FPGA platform is designed. Ultra96-v2 is used as the experimental development platform, and the design and implementation of convolutional neural network computing IP core adopts advanced design synthesis tools. The design and implementation of convolutional neural network accelerator system based on FPGA is completed by using vivado development tools. By comparing the recognition rate of GPU and CPU, the convolutional neural network based on FPGA optimized design takes much less time to process a picture than CPU, and reduces the power consumption of GPU by more than 30 times. It shows the performance and power consumption advantages of FPGA accelerator design, and verifies the effectiveness of this method.
Key words : parallel computing;convolutional neural network;accelerator;pipeline

0 引言

    隨著人工智能的快速發展,卷積神經網絡越來越受到人們的關注。由于它的高適應性和出色的識別能力,它已被廣泛應用于分類和識別、目標檢測、目標跟蹤等領域[1]。與傳統算法相比,CNN的計算復雜度要高得多,并且通用CPU不再能夠滿足計算需求。目前,主要解決方案是使用GPU進行CNN計算。盡管GPU在并行計算中具有自然優勢,但在成本和功耗方面存在很大的缺點。卷積神經網絡推理過程的實現占用空間大,計算能耗大[2],無法滿足終端系統的CNN計算要求。FPGA具有強大的并行處理功能,靈活的可配置功能以及超低功耗,使其成為CNN實現平臺的理想選擇。FPGA的可重配置特性適合于變化的神經網絡網絡結構。因此,許多研究人員已經研究了使用FPGA實現CNN加速的方法[3]。本文參考了Google提出的輕量級網絡MobileNet結構[4],并通過并行處理和流水線結構在FPGA上設計了高速CNN系統,并將其與CPU和GPU的實現進行了比較。




本文詳細內容請下載:http://www.jysgc.com/resource/share/2000003393




作者信息:

王  婷,陳斌岳,張福海

(南開大學 電子信息與光學工程學院,天津300350)

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: a一级日本特黄aaa大片| 永久域名在线观看视频| 色聚网久久综合| 三级视频网站在线观看| 中文国产欧美在线观看| a毛片免费全部播放完整成| av网站免费线看| 18女人腿打开无遮挡软| 88国产精品视频一区二区三区| 91麻豆最新在线人成免费观看| bt在线www天堂资源网| www.精品视频| 91成人免费观看在线观看| av一本久道久久综合久久鬼色 | 免费一级毛片无毒不卡| 人人澡人人澡人人看| 亚洲一级免费视频| 久久久久99精品成人片试看| www久久精品| 手机在线观看视频你懂的| 草草影院ccyy国产日本欧美| 精品国产一区二区三区免费| 特级aaaaaaaaa毛片免费视频| 极品性放荡的校花小说| 天天操天天摸天天舔| 国产精品va一级二级三级| 加勒比色综合久久久久久久久| 亚洲大尺度无码无码专区| 久久人人爽人人爽人人片AV超碰 | 日韩欧美在线播放| 天天操天天干天天舔| 国产四虎免费精品视频| 亚洲欧美一级久久精品| 一级毛片免费观看不收费| 青娱乐在线视频免费观看| 极品美女一级毛片免费| 国产精品无码无卡在线播放| 亚洲综合激情另类小说区| 久久无码人妻精品一区二区三区| avtt天堂网手机版亚洲| 香港国产特级一级毛片|