CN108647184B - 一种动态比特位卷积乘法实现方法 - Google Patents

一种动态比特位卷积乘法实现方法 Download PDF

Info

Publication number
CN108647184B
CN108647184B CN201810443471.8A CN201810443471A CN108647184B CN 108647184 B CN108647184 B CN 108647184B CN 201810443471 A CN201810443471 A CN 201810443471A CN 108647184 B CN108647184 B CN 108647184B
Authority
CN
China
Prior art keywords
value
dynamic
bit
dynamic bit
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810443471.8A
Other languages
English (en)
Other versions
CN108647184A (zh
Inventor
王智玉
危春波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Xinmai Microelectronics Co ltd
Original Assignee
Hangzhou Xiongmai Integrated Circuit Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Xiongmai Integrated Circuit Technology Co Ltd filed Critical Hangzhou Xiongmai Integrated Circuit Technology Co Ltd
Priority to CN201810443471.8A priority Critical patent/CN108647184B/zh
Publication of CN108647184A publication Critical patent/CN108647184A/zh
Application granted granted Critical
Publication of CN108647184B publication Critical patent/CN108647184B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • G06F17/153Multidimensional correlation or convolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)

Abstract

本发明提出一种动态比特位卷积乘法实现方法,通过软件模拟在卷积神经网络训练的深度学习框架平台上,依照场景需求训练出来一个分类器;以一批图像数据和分类器为输入,以深度学习框架平台进行前馈测试,通过统计每一层卷积层的权值范围,确定该卷积层权值对应的动态比特位精度值Q,将浮点数表示的每一层卷积层的权值转化成动态比特位表示;根据得到的动态比特位设计固定比特位的乘法器,利用设计好的乘法器、加法器以及移位器实现高精度动态比特位卷积乘法。本发明通过采用高精度的动态比特位表示能够减少对硬件资源的消耗,节约成本,提高计算效率,同时乘法器阵列结构设计易于流水线设计。

Description

一种动态比特位卷积乘法实现方法
技术领域
本发明属于人工神经网络技术领域,具体涉及一种动态比特位卷积乘法实现方法。
背景技术
基于人工神经网络,尤其是卷积神经网络的方法在很多应用中取得了极大成功,尤其在计算机视觉领域一直得到广泛使用。卷积神经网络作为一种经典有监督学习算法,卷积神经网络使用前馈处理用于识别,反馈用于训练。在工业实践中,很多应用设计者离线训练卷积神经网络,然后用训练好的卷积神经网络实现实时任务,因此前馈计算速度是比较重要的。
随着集成电路设计和制造工艺的进步,具有高速、高密度可编程逻辑资源的FPGA得到了快速发展,单芯片的集成度越来越高。当前主流的FPGA芯片中包含了大量的可编程逻辑资源、可编程互联资源、存储资源,并通过集成DSP硬核支持高性能乘法部件的实现,这些特点使得FPGA成为实现计算密集型应用加速的一种非常重要的选择。目前基于FGPA的卷积神经网络方案一般采用图像重用,输出优先,单层输入,多层输出,滑动窗口水平滑动,就是同一层图像用不同的卷积核进行卷积。
目前基于FPGA卷积神经网络技术方案存在以下问题:目前基于FPGA技术方案的计算吞吐并未很好匹配内存带宽,导致DDR内存带宽压力大;未充分利用硬件资源,乘法器阵列结构复杂,不易于流水线设计;目前FPGA技术方案还存在成本高、功耗大问题。
发明内容
针对现有技术的不足,本发明提供一种动态比特位卷积乘法实现方法,本发明通过软件模拟方式去统计卷积神经网络卷积层的权值以及卷积层的输入输出数据的动态范围,利用统计得到的动态范围我们可以得到卷积神经网络卷积层的权值以及卷积层的输入输出的数据动态比特位的定点数,即卷积层的权值以及输入输出的数据根据实际需求描述成动态比特位的定点化数值。动态比特位的范围根据实际场景需求可以从4bit-12bit之间动态变化。本发明以动态比特位为8bit为例,乘法器从16bit降低到8bit,可以很大程度上缓解DDR RAM带宽压力,降低功耗,节约成本;同时动态比特位的设计可以确保结果的正确性,提升卷积神经网络卷积的计算速度。
为了解决现有技术存在不足,本发明提供一种动态比特位卷积乘法实现方法,包括以下步骤:
S1:通过软件模拟方式在卷积神经网络训练的深度学习框架平台上,依照场景需求训练出来一个分类器;
S2:以一批图像数据和S1步骤得到的分类器为输入,以深度学习框架平台进行前馈测试,通过统计每一层卷积层的权值范围,确定该卷积层权值对应的动态比特位精度值Q,将浮点数表示的每一层卷积层的权值转化成动态比特位表示;
S3:根据S2步骤得到的动态比特位设计固定比特位的乘法器,利用设计好的乘法器、加法器以及移位器实现高精度动态比特位卷积乘法。
作为一种优选方法,S1步骤分类器包含以浮点的形式表示的卷积层以及全连接层的权值信息。
作为一种优选方法,S2步骤一批图像数据为10~100张。
作为一种优选方法,S2步骤提到的动态比特位精度值Q包含固定比特值和动态比特值,其中,固定比特值通过当前层数据分布以及根据实际场景需求给定,动态比特值通过当前层的当前某个数值以及实际场景需求给定。
作为一种优选方法,所述动态比特位精度值Q具体计算步骤包括:
1)求当前层权值或者输入输出数据的统计值,求统计值的最大值,记为VAL_Max;记动态比特位为Q,其中1bit为符号位,计算公式如下:
Q-log2VAImax-1=Qmax (1)
QMin=Q-1 (2)
Qfix=(QMin+QMax)/2 (3)
公式(1)log的值是向上取整,公式(3)的取值是向下取整。
2)动态比特位值,其中Qdynamic的1bit为符号位:记当前层权值或者输入输出数据的某个数据值为val,计算公式如下:
Figure GDA0003483347790000031
公式(4)log的值是向上取整。
3)记当前层权值或者输入输出数据的某个数据值为val,val是浮点数,记定点化的对应数值为data,计算公式如下:
Figure GDA0003483347790000032
Figure GDA0003483347790000033
4)以动态8bit精度值为例,
Figure GDA0003483347790000034
表示固定的8比特位值定点化后的定点数,卷积的乘法过程就是两个数据相乘,计算公式如下:
data1*data2=datafix1*datafix2 (7)
Figure GDA0003483347790000035
Figure GDA0003483347790000036
本发明与现有技术相比有益效果:本发明通过采用高精度的动态比特位表示能够减少对硬件资源的消耗,节约成本,提高计算效率。同时本发明的乘法器阵列结构的设计易于流水线设计。
附图说明
图1是本发明方法流程图。
图2是本发明FPGA中卷积层多输入到多输出并行运算结构图。
图3是本发明图像分块的卷积运算示意图。
图4是本发明硬件加速器每次并行运算的卷积示意图。
图5是本发明卷积计算完的96块图像存入DDR内存示意图。
图6是本发明并行卷积矩阵运算结构示意图。
具体实施方式
下面对本发明的实施例作进一步的说明。以下实施例仅对本申请进行进一步说明,不应理解为对本申请的限制。
如图1所示,本发明提供一种动态比特位卷积乘法实现方法实施例,包括以下步骤:
S1:通过软件模拟的方式,在卷积神经网络训练的深度学习框架平台上,依照场景需求,训练出来一个分类器;
S2:以一批图像数据和S1步骤得到的分类器为输入,以深度学习框架平台进行前馈测试,通过统计每一层卷积层的权值范围,确定该卷积层权值对应的动态比特位精度值Q,将浮点数表示的每一层卷积层的权值转化成动态比特位表示;
S3:根据S2步骤得到的动态比特位设计固定比特位的乘法器,利用设计好的乘法器、加法器以及移位器实现高精度动态比特位卷积乘法。
本发明例举一个基于FPGA高精度动态比特位卷积乘法快速实现方法实施例,具体实施过程如下:
1、通过软件模拟的方式,在卷积神经网络训练的深度学习框架平台上,依照场景需求,训练出来一个分类器模型,该分类模型中包含了卷积层、全连接层等权值信息,权值信息以浮点的形式表示。采用浮点数实现的卷积神经网络算法具有高精度、高动态范围的优点,为了使得训练计算过程更加精确,采用浮点数实现离线训练,然后用训练好的卷积神经网络实现实时任务。但是训练好的卷积神经网络采用浮点数实现卷积神经网络,浮点数实现卷积神经网络在FPGA实现是不可能的。因此我们需要将训练好的浮点数模型定点化,若采用较低的数值精度来表示可以简化设计,减少对硬件资源的消耗,同时能够达到较快的速度,并减少功耗,但是同时还会带来一定精度损失。因此需要寻找一个合适的数值最小精度来解决此问题。
2、将离线训练的卷积神经网络模型导入到深度学习框架平台上进行前馈测试,通过统计每一层卷积层的权值范围,一般通过统计最大值和最小值,我们就可以确定该卷积层权值对应的动态比特位精度值Q,这样我们就可以将浮点数表示的离线训练好的卷积神经网络模型每层的权值转化成定点数,用动态比特位形式表示。需要特别指出是,这里以卷积层为例,如无特殊说明,就以卷积层为例,本发明技术方案可以推广到各个带有权值的层,例如LSTM层,全连接层等。
3、将离线训练的卷积神经网络模型导入到深度学习框架平台上进行前馈测试时,输入一批10-100张测试样本图片,将输入的图片和离线训练的卷积神经网络模型输入到深度学习框架平台的前馈过程中,就可以统计出每个卷积层的输入输出的数据的动态范围,一般通过统计最大值和最小值,就可以确定该卷积层输入输出数据对应的动态比特位精度值Q。
4、动态比特位精度值包含两个部分:固定的比特值、动态比特值,其中,通过当前层数据分布以及根据实际场景需求给定的固定比特位部分,通过当前层的当前某个数值以及实际场景需求给定的动态比特位部分。动态比特位的动态值以8bit为例:动态8比特位包含固定的8bit Q值和动态4bit Q值,需要进一步指出,动态8比特位是指8bit乘法,一共有12bit数据;其中,固定的8bit Q值是通过每个卷积层的权值或者输入输出数据的统计信息获取的;动态4bit Q值是与每个卷积层的每个权值或者每个输入输出数据本身的值以及该卷积层获取的固定的8bit Q值相关。
动态比特位精度值具体的计算过程如下:固定的比特位值Qfix,Qfix其中1bit为符号位:求当前层权值或者输入输出数据的统计值,求统计值的最大值,记为VAL_Max;记动态比特位为Q,其中1bit为符号位;
Q-log2VAImax-1=Qmax (1)
QMin=Q-1 (2)
Qfix=(QMin+QMax)/2 (3)
公式(1)log的值是向上取整,公式(3)的取值是向下取整。
动态比特位值Qdynamic,其中Qdynamic的1bit为符号位:记当前层权值或者输入输出数据的某个数据值为val;
Figure GDA0003483347790000061
公式(4)log的值是向上取整。
记当前层权值或者输入输出数据的某个数据值为val,val是浮点数,记定点化的对应数值为data;
Figure GDA0003483347790000062
Figure GDA0003483347790000063
以动态8bit精度值为例,
Figure GDA0003483347790000064
表示固定的8比特位值定点化后的定点数,卷积的乘法过程就是两个数据相乘。
data1*data2=datafix1*datafix2 (7)
Figure GDA0003483347790000071
Figure GDA0003483347790000072
从公式7,可以看出来16比特相乘的时候,需要一个DSP16*16,转为动态比特位,这里以动态8比特为例实现,只需要一个DSP8*8,外加一个加法器以及一个移位器。在FPGA中加法器以及移位器占用资源很少,因此整体方案不仅减少DDR带宽,降低功耗,节约成本,提升计算效率,而且动态比特位设计还可以保证结果的正确性。
5、卷积神经网络卷积层的乘法是指卷积层权值以及输入层数据逐点相乘再累加的过程。通过步骤2、步骤3可以得到定点化的卷积层权值和定点化好的输入层数据。通过这两个定点化好的数据以及卷积神经网络的拓扑结构,就可以设计基于FPGA的乘法器阵列。虽然软件计算动态比特精度值比较繁杂,但是通过该方式定点化好的乘法实现方式,不仅可以降低功耗,节约成本,提升卷积神经网络的计算速度,还可以保证结果的正确性,而且也易于流水线设计。如图2所示,本发明在FPGA中卷积层多输入到多输出并行运算结构,其中,X表示输入特征图数据,K表示卷积层的权值,Y表示输出层数据。
本发明实现基于充分利用总线带宽的吞吐率,采用多并行运算结构来降低对外DDR内存不能读取图像数据的次数,通过图像的分块来计算输出,有效降低了内部存储器的容量,通过动态比特位卷积乘法快速实现卷积层的乘法。因此,本发明给出一个基于FPGA卷积实现数据流实施例,为了降低FPGA内部存储器容量,从而减少面积消耗,大分辨率图像使得内部输出的图像中间值容量大,因此可采用分块计算图像的输出,如图3所示,将N个输入的图像分成若干个24*24的块图像,并分别计算这些块的卷积操作,每一块与整幅图像计算的方式一样,只是块与块之间存在边界效应,输入图像中的3个图像块交叠部分,每取下一个24*24的块时都需要重复取前一次的K个列或行。
由于硬件的资源有限,不可能一次性把图3的所有卷积运算都实现,因此还需要分步进行。如图4所示,每次从外部DDR内存读入一幅输入图像的24*24大小的块,利用该图像块并行运算96个卷积单元,产生96幅中间图像值并缓存,与下次另外一幅图像的24*24大小块并行卷积得到的另外96幅中间值分别累加并缓存,直到N个96幅中间值累加完毕后再经一选择器实现relu操作,最后得到完整的输出图像块,如图5所示,Ym~Ym+95中的3个图像块并依次写入外部DDR内存。遍历N幅输入图像的其他块,同样的计算方式就可得到完整的输出图像Ym~Ym+95并写入外部DDR内存。如果输出图像个数M大于96时,更换K的值并循环以上操作可得最终的Y1~YM。
本发明还给出在FPGA实现并行卷积矩阵运算实施例,如图6所示,为基于FPGA硬件加速器具体的卷积矩阵运算结构图,24*24的图像块读入内部缓存器后就以K*K的矩阵方式运算卷积,96组卷积并行单元,每组分配3个乘法器,每时钟周期计算K*K矩阵窗口中的3个像素点,依次计算K*K/3或者K*K/3+1个时钟周期后完成一个输出像素点的卷积运算,96组并行输出Ym~Ym+95;若K=1时,每时钟周期就计算1个像素点的卷积,只需用到每组3个乘法器中的1个,而其他两个乘法器输入值赋为零。
以上仅是本发明的优选实施方式,本发明的保护范围并不限于上述实施例,凡属于本发明思路下的技术方案均属于本发明保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (4)

1.一种动态比特位卷积乘法实现方法,其特征在于,包括以下步骤:
S1:通过软件模拟方式在卷积神经网络训练的深度学习框架平台上,依照场景需求训练出来一个分类器;
S2:以一批图像数据和S1步骤得到的分类器为输入,以深度学习框架平台进行前馈测试,通过统计每一层卷积层的权值范围,确定该卷积层权值对应的动态比特位精度值Q,将浮点数表示的每一层卷积层的权值转化成动态比特位表示;
S3:根据S2步骤得到的动态比特位设计固定比特位的乘法器,利用设计好的乘法器、加法器以及移位器实现动态比特位卷积乘法;
所述动态比特位精度值Q具体计算步骤包括:
1)求当前层权值或者输入输出数据的统计值,求统计值的最大值,记为VAImax;记动态比特位精度值Q,其中1bit为符号位,计算公式如下:
Q-log2VAImax-1=Qmax (1)
QMin=Q-1 (2)
Qfix=(QMin+QMax)/2 (3)
公式(1)log的值是向上取整,公式(3)的取值是向下取整;Qfix为固定的比特位值,其中1bit为符号位;
2)Qdynamic为动态比特位值,其中1bit为符号位:记当前层权值或者输入输出数据的某个数据值为val,计算公式如下:
Figure FDA0003483347780000011
公式(4)log的值是向上取整;
3)记当前层权值或者输入输出数据的某个数据值为val,val是浮点数,记定点化的对应数值为data,计算公式如下:
Figure FDA0003483347780000012
Figure FDA0003483347780000013
4)以动态8bit精度值为例,
Figure FDA0003483347780000014
表示固定的8比特位值定点化后的定点数,卷积的乘法过程就是两个数据相乘,计算公式如下:
Figure FDA0003483347780000021
2.如权利要求1所述的一种动态比特位卷积乘法实现方法,其特征在于,所述的S1步骤中的分类器包含以浮点的形式表示的卷积层以及全连接层的权值信息。
3.如权利要求1所述的一种动态比特位卷积乘法实现方法,其特征在于,所述S2步骤中的一批图像数据为10~100张。
4.如权利要求1所述的一种动态比特位卷积乘法实现方法,其特征在于,所述S2步骤的动态比特位精度值Q包含固定比特值和动态比特值,其中,固定比特值通过当前层数据分布以及根据实际场景需求给定,动态比特值通过当前层的当前某个数值以及实际场景需求给定。
CN201810443471.8A 2018-05-10 2018-05-10 一种动态比特位卷积乘法实现方法 Active CN108647184B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810443471.8A CN108647184B (zh) 2018-05-10 2018-05-10 一种动态比特位卷积乘法实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810443471.8A CN108647184B (zh) 2018-05-10 2018-05-10 一种动态比特位卷积乘法实现方法

Publications (2)

Publication Number Publication Date
CN108647184A CN108647184A (zh) 2018-10-12
CN108647184B true CN108647184B (zh) 2022-04-12

Family

ID=63754382

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810443471.8A Active CN108647184B (zh) 2018-05-10 2018-05-10 一种动态比特位卷积乘法实现方法

Country Status (1)

Country Link
CN (1) CN108647184B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458277B (zh) * 2019-04-17 2021-11-16 上海酷芯微电子有限公司 适用于深度学习硬件加速器的可配置精度的卷积硬件结构
CN110852434B (zh) * 2019-09-30 2022-09-23 梁磊 基于低精度浮点数的cnn量化方法、前向计算方法及硬件装置
CN110852416B (zh) * 2019-09-30 2022-10-04 梁磊 基于低精度浮点数数据表现形式的cnn硬件加速计算方法及系统
CN111178513B (zh) * 2019-12-31 2022-04-15 深圳云天励飞技术股份有限公司 神经网络的卷积实现方法、卷积实现装置及终端设备
CN114580628A (zh) * 2022-03-14 2022-06-03 北京宏景智驾科技有限公司 一种神经网络卷积层的高效量化加速方法及硬件电路

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760933A (zh) * 2016-02-18 2016-07-13 清华大学 卷积神经网络的逐层变精度定点化方法及装置
CN106127302A (zh) * 2016-06-23 2016-11-16 杭州华为数字技术有限公司 处理数据的电路、图像处理系统、处理数据的方法和装置
CN107239829A (zh) * 2016-08-12 2017-10-10 北京深鉴科技有限公司 一种优化人工神经网络的方法
CN107480770A (zh) * 2017-07-27 2017-12-15 中国科学院自动化研究所 可调节量化位宽的神经网络量化与压缩的方法及装置
CN107688849A (zh) * 2017-07-28 2018-02-13 北京深鉴科技有限公司 一种动态策略定点化训练方法及装置
CN107832082A (zh) * 2017-07-20 2018-03-23 上海寒武纪信息科技有限公司 一种用于执行人工神经网络正向运算的装置和方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180046903A1 (en) * 2016-08-12 2018-02-15 DeePhi Technology Co., Ltd. Deep processing unit (dpu) for implementing an artificial neural network (ann)

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760933A (zh) * 2016-02-18 2016-07-13 清华大学 卷积神经网络的逐层变精度定点化方法及装置
CN106127302A (zh) * 2016-06-23 2016-11-16 杭州华为数字技术有限公司 处理数据的电路、图像处理系统、处理数据的方法和装置
CN107239829A (zh) * 2016-08-12 2017-10-10 北京深鉴科技有限公司 一种优化人工神经网络的方法
CN107832082A (zh) * 2017-07-20 2018-03-23 上海寒武纪信息科技有限公司 一种用于执行人工神经网络正向运算的装置和方法
CN107480770A (zh) * 2017-07-27 2017-12-15 中国科学院自动化研究所 可调节量化位宽的神经网络量化与压缩的方法及装置
CN107688849A (zh) * 2017-07-28 2018-02-13 北京深鉴科技有限公司 一种动态策略定点化训练方法及装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
A Dynamic Multi-precision Fixed-Point Data Quantization Strategy for Convolutional Neural Network;Lei Shan等;《NCCET 2016: Computer Engineering and Technology》;20161231;第102-111页 *
Speeding up Convolutional Neural Network Training with Dynamic Precision Scaling and Flexible Multiplier-Accumulator;Taesik Na等;《ISLPED16: Proceedings of the 2016 International Symposium on Low Power Electronics and Design》;20160831;全文 *
基于FPGA的人工神经网络的研究与实现;杨程;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20170315;全文 *
基于FPGA的卷积神经网络并行结构研究;陆志坚;《中国优秀博硕士学位论文全文数据库(博士)信息科技辑》;20140415;全文 *
深度卷积神经网络的数据表示方法分析与实践;王佩琪等;《计算机研究与发展》;20170630;第54卷(第6期);全文 *

Also Published As

Publication number Publication date
CN108647184A (zh) 2018-10-12

Similar Documents

Publication Publication Date Title
CN108647184B (zh) 一种动态比特位卷积乘法实现方法
CN109325591B (zh) 面向Winograd卷积的神经网络处理器
CN106250939B (zh) 基于fpga+arm多层卷积神经网络的手写体字符识别方法
CN108108809B (zh) 一种针对卷积神经元网络进行推理加速的硬件架构及其工作方法
WO2019127363A1 (zh) 神经网络权重编码方法、计算装置及硬件系统
Wang et al. Low power convolutional neural networks on a chip
CN111459877A (zh) 基于FPGA加速的Winograd YOLOv2目标检测模型方法
CN107256424B (zh) 三值权重卷积网络处理系统及方法
US20180018555A1 (en) System and method for building artificial neural network architectures
CN108090565A (zh) 一种卷积神经网络并行化训练加速方法
CN108665063B (zh) 用于bnn硬件加速器的双向并行处理卷积加速系统
CN108108811A (zh) 神经网络中的卷积计算方法和电子设备
CN113344179B (zh) 基于fpga的二值化卷积神经网络算法的ip核
CN110163355A (zh) 一种计算装置及方法
CN110991631A (zh) 一种基于fpga的神经网络加速系统
CN110543939A (zh) 一种基于fpga的卷积神经网络后向训练的硬件加速实现架构
JP6999885B2 (ja) 二値化ニューラルネットワーク用プロセッサ、データ処理方法、および、プログラム
CN110543936A (zh) 一种cnn全连接层运算的多并行加速方法
CN113283587A (zh) 一种Winograd卷积运算加速方法及加速模块
CN113792621A (zh) 一种基于fpga的目标检测加速器设计方法
CN112734020A (zh) 卷积神经网络的卷积乘累加硬件加速装置、系统以及方法
Xiao et al. FPGA-based scalable and highly concurrent convolutional neural network acceleration
Qi et al. Learning low resource consumption cnn through pruning and quantization
CN110135561B (zh) 一种实时在线飞行器ai神经网络系统
CN114897159B (zh) 一种基于神经网络的快速推断电磁信号入射角的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 1210, 12 / F, building 9, Yinhu innovation center, 9 Fuxian Road, Yinhu street, Fuyang District, Hangzhou City, Zhejiang Province

Applicant after: Hangzhou xiongmai integrated circuit technology Co.,Ltd.

Address before: Room 1210, 12 / F, building 9, Yinhu innovation center, 9 Fuxian Road, Yinhu street, Fuyang District, Hangzhou City, Zhejiang Province

Applicant before: HANGZHOU XIONGMAI INTEGRATED CIRCUIT TECHNOLOGY CO.,LTD.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A dynamic bit convolution multiplication method

Effective date of registration: 20230308

Granted publication date: 20220412

Pledgee: Fuyang sub branch of Bank of Hangzhou Co.,Ltd.

Pledgor: Hangzhou xiongmai integrated circuit technology Co.,Ltd.

Registration number: Y2023330000470

PE01 Entry into force of the registration of the contract for pledge of patent right
CP01 Change in the name or title of a patent holder

Address after: Room 1210, 12 / F, building 9, Yinhu innovation center, 9 Fuxian Road, Yinhu street, Fuyang District, Hangzhou City, Zhejiang Province

Patentee after: Zhejiang Xinmai Microelectronics Co.,Ltd.

Address before: Room 1210, 12 / F, building 9, Yinhu innovation center, 9 Fuxian Road, Yinhu street, Fuyang District, Hangzhou City, Zhejiang Province

Patentee before: Hangzhou xiongmai integrated circuit technology Co.,Ltd.

CP01 Change in the name or title of a patent holder