CN112101510A - 卷积神经网络推理加速方法、加速器、设备及存储介质 - Google Patents
卷积神经网络推理加速方法、加速器、设备及存储介质 Download PDFInfo
- Publication number
- CN112101510A CN112101510A CN202011081286.2A CN202011081286A CN112101510A CN 112101510 A CN112101510 A CN 112101510A CN 202011081286 A CN202011081286 A CN 202011081286A CN 112101510 A CN112101510 A CN 112101510A
- Authority
- CN
- China
- Prior art keywords
- vector
- feature map
- dimension
- convolution
- calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 53
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000001133 acceleration Effects 0.000 title claims abstract description 35
- 239000013598 vector Substances 0.000 claims abstract description 105
- 238000004364 calculation method Methods 0.000 claims abstract description 100
- 238000010586 diagram Methods 0.000 claims abstract description 42
- 238000004590 computer program Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 description 11
- 238000012804 iterative process Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Complex Calculations (AREA)
Abstract
本发明公开了一种卷积神经网络推理加速方法、加速器、设备及存储介质,所述方法包括:判断待计算卷积层的类型;当卷积层为Depthwise卷积层时,令输出特征图通道数维度的向量化尺寸等于输入特征图通道数维度的向量化尺寸;将输入特征图通道数维度循环次数设置为1;将输入特征图的通道计算依据改为输出特征图通道;将卷积计算结果在输入通道向量维度的加和改为输入通道向量维度的选通;输入特征图数据与卷积核数据进行乘加计算,得到输出特征图数据。所述加速器包括:类型区分开关、类型设置模块和卷积计算模块。本发明能够降低架构的复杂度,降低计算的复杂度,节省系统的计算资源和存储资源。
Description
技术领域
本发明涉及深度学习领域,具体涉及一种卷积神经网络推理加速方法、加速器、设备及存储介质。
背景技术
卷积神经网络(Convolutional Neural Network,CNN)是人工神经网络的一种,广泛应用于图像分类、目标识别、行为识别、语音识别、自然语言处理与文档分类等领域。近几年,随着计算机计算能力的增长与CNN结构的发展,CNN网络的识别准确度有了很大提高,但与此同时,CNN的深度也不断加深,网络结构更加复杂,计算量也越来越大,因此需要图形处理器(Graphics Processing Unit,GPU)、现场可编程门阵列(Field-Programmable GateArray,FPGA)、应用集成电路(Application Specific Integrated Circuit,ASIC)等异构计算设备来加速CNN推理计算。
Depthwise卷积是深度可分离卷积的一种,应用于MobileNet、Xception等网络,可以降低过拟合并减少计算量。Depthwise卷积不同于普通卷积,普通卷积中一个卷积核参与全部通道特征数据的卷积,一个通道的特征数据与全部卷积核进行卷积计算,而Depthwise卷积中一个卷积核仅参与一个通道特征图的卷积,一个通道的特征图只与一个卷积核进行卷积计算。而现有的加速CNN推理计算的方法一般通过并行数据访问与并行计算提高普通卷积计算效率,但大都不支持Depthwise卷积的优化计算。因此,若对Depthwise卷积进行计算,需要将Depthwise卷积转化为普通卷积,Depthwise卷积中的权重数据需要大量补充零数据,并且在计算过程中进行大量的特征图与零数据相乘和卷积部分和结果与零数据相加的操作,浪费了大量计算资源与存储资源,并且还须对模型数据做转换处理。
发明内容
为了解决上述技术问题,本发明提出了一种卷积神经网络推理加速方法、加速器、设备及存储介质,能够降低架构的复杂度,降低计算的复杂度,节省系统的计算资源和存储资源。
为实现上述目的,本发明采用以下技术方案:
一种卷积神经网络推理加速方法,包括:
判断待计算卷积层的类型;
当卷积层为Depthwise卷积层时,令输出特征图通道数维度的向量化尺寸等于输入特征图通道数维度的向量化尺寸;将输入特征图通道数维度循环次数设置为1;将输入特征图的通道计算依据改为输出特征图通道;将卷积计算结果在输入通道向量维度的加和改为输入通道向量维度的选通;
输入特征图数据与卷积核数据进行乘加计算,得到输出特征图数据。
进一步地,所述输入特征图数据与卷积核数据进行乘加计算,包括:在输出特征图通道数、特征图高度、特征图宽度、输入特征图通道数、卷积核高度和卷积核宽度六个维度上迭代,按如上顺序遍历完成卷积计算。
进一步地,所述输出特征图通道数维度、特征图宽度维度、输入特征图通道数维度和卷积核宽度维度的迭代索引为向量索引,迭代终值为ceil(N,N_VECTOR)、ceil(OW,OW_VECTOR)、ceil(C,C_VECTOR)和ceil(FW,FW_VECTOR);特征图高度维度和卷积核高度维度的迭代索引为对应尺寸,迭代步长为1。
进一步地,所述输入通道向量维度的选通条件为匹配卷积计算模块负责的输出通道对应的输入通道。
进一步地,所述方法应用于基于应用集成电路或现场可编程门阵列的卷积神经网络推理加速器。
进一步地,所述乘加计算一次完成W_VECTOR×C_VECTOR个输入特征图数据与FW_VECTOR×C_VECTOR个卷积核数据的计算,产生OW_VECTOR个输出特征图数据;
其中,W_VECTOR为特征图宽度维度的向量化尺寸;C_VECTOR为维度的向量化尺寸;FW_VECTOR为卷积核宽度维度的向量化尺寸;C_VECTOR为输入特征图通道数维度的向量化尺寸;OW_VECTOR为(W_VECTOR-FW_VECTOR+1)。
进一步地,N_VECTOR个卷积计算模块同时使用不同输出通道的卷积核对同一块特征图数据进行卷积计算,同时产生N_VECTOR个输出通道的输出特征图数据;其中,N_VECTOR为输出特征图向量。
本发明还提出了一种卷积神经网络推理加速器,包括:
类型区分开关,用于区分判断待计算卷积层的类型,控制类型设置模块修改计算架构;
类型设置模块,用于根据待计算卷积层的类型修改计算架构;当卷积层为Depthwise卷积层时,令输出特征图通道数维度的向量化尺寸等于输入特征图通道数维度的向量化尺寸;将输入特征图通道数维度循环次数设置为1;将输入特征图的通道计算依据改为输出特征图通道;将卷积计算结果在输入通道向量维度的加和改为输入通道向量维度的选通;
卷积计算模块,用于对输入特征图数据与卷积核数据进行乘加计算,得到输出特征图数据。
本发明还提出了一种卷积神经网络推理加速设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上所述卷积神经网络推理加速方法的步骤。
本发明还提出了一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述卷积神经网络推理加速方法的步骤。
本发明的有益效果是:
本发明通过提出一种卷积神经网络推理加速方法、加速器、设备及存储介质,解决了现有技术中必须将Depthwise卷积转化为普通卷积才能进行卷积计算的问题,节省了大量被浪费的计算资源与存储资源,使通用卷积计算架构能够以低架构复杂度与低计算复杂度兼容Depthwise卷积操作,提高了加速器的通用性,灵活支持MobileNet、Xception等多种类型的含有Depthwise卷积计算的流行CNN模型。
附图说明
图1是本发明实施例卷积神经网络推理加速方法流程示意图;
图2是本发明实施例卷积神经网络推理加速方法卷积计算过程示意图1;
图3是本发明实施例卷积神经网络推理加速方法卷积计算过程示意图2;
图4是本发明实施例卷积神经网络推理加速方法卷积计算过程示意图3;
图5是本发明实施例卷积神经网络推理加速方法卷积计算过程示意图4;
图6是本发明实施例卷积神经网络推理加速方法卷积计算过程示意图5;
图7是本发明实施例卷积神经网络推理加速方法卷积计算过程示意图6;
图8是本发明实施例卷积神经网络推理加速方法卷积计算过程示意图7;
图9是本发明实施例卷积神经网络推理加速方法卷积计算过程示意图8;
图10是本发明实施例卷积神经网络推理加速器结构示意图。
具体实施方式
为能清楚说明本方案的技术特点,下面通过具体实施方式,并结合其附图,对本发明进行详细阐述。下文的公开提供了许多不同的实施例或例子用来实现本发明的不同结构。为了简化本发明的公开,下文中对特定例子的部件和设置进行描述。此外,本发明可以在不同例子中重复参考数字和/或字母。这种重复是为了简化和清楚的目的,其本身不指示所讨论各种实施例和/或设置之间的关系。应当注意,在附图中所图示的部件不一定按比例绘制。本发明省略了对公知组件和处理技术及工艺的描述以避免不必要地限制本发明。
如图1所示,本发明实施例公开了一种卷积神经网络推理加速方法,包括:
判断待计算卷积层的类型;
当卷积层为Depthwise卷积层时,令输出特征图通道数维度的向量化尺寸等于输入特征图通道数维度的向量化尺寸;将输入特征图通道数维度循环次数设置为1;将输入特征图的通道计算依据改为输出特征图通道;将卷积计算结果在输入通道向量维度的加和改为输入通道向量维度的选通;
输入特征图数据与卷积核数据进行乘加计算,得到输出特征图数据。
具体地,所述输入特征图数据与卷积核数据进行乘加计算,包括:在输出特征图通道数、特征图高度、特征图宽度、输入特征图通道数、卷积核高度和卷积核宽度六个维度上迭代,按如上顺序遍历完成卷积计算。输出特征图通道数为最外层循环,卷积核宽度为最内层循环,由内向外各个维度遍历完成后最终完成卷积计算。
由于在输出特征图通道数维度、特征图宽度维度、输入特征图通道数维度和卷积核宽度维度存在向量化处理,所述输出特征图通道数维度、特征图宽度维度、输入特征图通道数维度和卷积核宽度维度的迭代索引为向量索引,迭代终值为ceil(N,N_VECTOR)、ceil(OW,OW_VECTOR)、ceil(C,C_VECTOR)和ceil(FW,FW_VECTOR);特征图高度维度和卷积核高度维度的迭代索引为对应尺寸,迭代步长为1。
卷积计算由原来的输入通道向量维度的加和改为输入通道向量维度的选通,选通输入通道向量中单一的输入通道,选通条件为匹配卷积计算模块负责的输出通道对应的输入通道。
本发明实施例所述卷积神经网络推理加速方法可以应用于基于应用集成电路或现场可编程门阵列的卷积神经网络推理加速器,可以用于MobileNet、Xception等卷积神经网络模型。以基于FPGA的卷积神经网络推理加速方法为例,图2至图9示出了一个典型的基于FPGA的CNN推理加速器的卷积计算过程。图中,N为输出特征图通道数,H为特征图高度,W为特征图宽度,C为输入特征图通道数,FH为卷积核高度,FW为卷积核宽度。
CNN中卷积计算的实质为N个尺寸为FH×FW×C的卷积核数据与尺寸为H×W×C的特征图数据进行卷积计算,生成尺寸为OH×OW×N的输出特征图的过程(其中,对于步长Stride=1的情况,OH=H-FH+1,OW=W-FW+1)。其中,一个卷积核的卷积计算具体过程为卷积核数据与特征图数据在C维度上一一对应,在宽度与高度的维度上,尺寸为FH×FW的卷积核在尺寸为H×W的特征图平面上滑动遍历,每次滑动,FH×FW×C个卷积核数据与对应位置的FH×FW×C个特征图数据进行点乘并相加的操作,生成一个输出特征图数据,遍历完成后生成尺寸为OH×OW二维输出特征图数据。N个卷积和完成滑动遍历后生成OH×OW×N个输出特征图数据。其中,本层卷积计算的输出特征图通道数N与下一层的输入特征图通道数C是等价的。
对于基于FPGA的CNN推理加速器,图2至图8详细描述了经过并行访存与计算优化的卷积计算具体步骤,图9中的深色数据块代表当前正在参与计算的卷积核数据,虚线数据块代表当前正在参与计算的特征图数据,数据块为在宽度与C两个维度上延展的二维数据,代表当前计算数据在宽度与C两个维度上进行并行计算。若在C维度上的向量化尺寸为C_VECTOR,在W维度上的向量化尺寸为W_VECTOR,在FW维度上的向量化尺寸为FW_VECTOR,则一次计算完成W_VECTOR×C_VECTOR个输入特征图数据与FW_VECTOR×C_VECTOR个卷积核数据的乘加计算,产生OW_VECTOR个输出特征图数据(其中,OW_VECTOR=W_VECTOR-FW_VECTOR+1)。另外,如图2至图8右侧所示,N_VECTOR个卷积计算模块同时使用不同输出通道的卷积核对同一块特征图数据进行卷积计算,同时产生N_VECTOR个输出通道的输出特征图数据。因此,一次计算产生OW_VECTOR×N_VECTOR个输出特征图数据。
其中,特征图数据与卷积核数据的乘加计算在N、H、W、C、FH、FW六个维度上迭代,N为最外层循环,FW为最内层循环,由内向外各个维度遍历完成后最终完成卷积计算。其中C、FH、FW三个维度的迭代完成后完成一个W维度的OW_VECTOR尺寸的输出特征图数据。对比图2与图3可以看出FW维度的迭代过程,对比图2与图4可以看出FH维度的迭代过程,对比图2与图5可以看出C维度的迭代过程,对比图2与图6可以看出W维度的迭代过程,对比图2与图7可以看出H维度的迭代过程,对比图2与图8可以看出N维度的迭代过程。其中,N维度、W维度、C维度与FW维度上由于存在向量化处理,迭代索引为向量索引,迭代终值为ceil(N,N_VECTOR)、ceil(OW,OW_VECTOR)、ceil(C,C_VECTOR)、ceil(FW,FW_VECTOR);H维度与FH维度迭代索引为对应尺寸本身,每次迭代的步长为1。
当待计算卷积层为Depthwise卷积层时,需要对上述计算架构作如下修改:
令N_VECTOR=C_VECTOR;
将Depthwise层的C维度循环次数设为1。在此配置下,对于Depthwise卷积层,卷积计算的六维循环(N、H、W、C、FH、FW)降低为五维循环(N、H、W、FH、FW),将C维度循环压缩为单次循环,实际上是对Depthwise层取消了C维度循环,但不与原计算架构冲突。
对于Depthwise层,输入特征图的通道计算依据由C通道改为N通道。
对于Depthwise层,卷积计算模块由原来的C_VECTOR维度的加和改为C_VECTOR维度的选通,选通C_VECTOR中单一的输入通道,选通原则为匹配本卷积计算模块负责的输出通道对应的输入通道。对于Depthwise层,仅将卷积计算模块的原有功能——卷积计算结果在输入通道向量维度的加和、卷积计算结果在卷积核宽度向量维度的加和、卷积计算结果在卷积核宽度向量索引维度的加和、卷积计算结果在卷积核高度维度的加和、卷积计算结果在输入通道索引维度的加和(即对应C_VECTOR,FW_VECTOR,ceil(FW,FW_VECTOR),FH,ceil(C,C_VECTOR)五个维度)——之中输入通道向量维度的加和改为输入通道向量维度的选通。在N维度复用与上述C_VECTOR维度选通的联合作用下,实现输出通道向量索引、输出通道向量(N_VECTOR)与输入通道向量索引、输入通道向量(C_VECTOR)的一一对应,即输出通道与输入通道的一一对应。
本发明实施例通过上述修改实现了对Depthwise卷积层的兼容。
如图2所示,本发明实施例还提出了一种卷积神经网络推理加速器,包括:
类型区分开关,用于区分判断待计算卷积层的类型,控制类型设置模块修改计算架构;
类型设置模块,用于根据待计算卷积层的类型修改计算架构;当卷积层为Depthwise卷积层时,令输出特征图通道数维度的向量化尺寸等于输入特征图通道数维度的向量化尺寸;将输入特征图通道数维度循环次数设置为1;将输入特征图的通道计算依据改为输出特征图通道;将卷积计算结果在输入通道向量维度的加和改为输入通道向量维度的选通;
卷积计算模块,用于对输入特征图数据与卷积核数据进行乘加计算,得到输出特征图数据。
本发明实施例还提出了一种卷积神经网络推理加速设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上所述卷积神经网络推理加速方法的步骤。
本发明实施例还提出了一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述卷积神经网络推理加速方法的步骤。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制。对于所属领域的技术人员来说,在上述说明的基础上还可以做出其它不同形式的修改或变形。这里无需也无法对所有的实施方式予以穷举。在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (10)
1.一种卷积神经网络推理加速方法,其特征在于,包括:
判断待计算卷积层的类型;
当卷积层为Depthwise卷积层时,令输出特征图通道数维度的向量化尺寸等于输入特征图通道数维度的向量化尺寸;将输入特征图通道数维度循环次数设置为1;将输入特征图的通道计算依据改为输出特征图通道;将卷积计算结果在输入通道向量维度的加和改为输入通道向量维度的选通;
输入特征图数据与卷积核数据进行乘加计算,得到输出特征图数据。
2.根据权利要求1所述的卷积神经网络推理加速方法,其特征在于,所述输入特征图数据与卷积核数据进行乘加计算,包括:在输出特征图通道数、特征图高度、特征图宽度、输入特征图通道数、卷积核高度和卷积核宽度六个维度上迭代,按如上顺序遍历完成卷积计算。
3.根据权利要求2所述的卷积神经网络推理加速方法,其特征在于,所述输出特征图通道数维度、特征图宽度维度、输入特征图通道数维度和卷积核宽度维度的迭代索引为向量索引,迭代终值为ceil(N,N_VECTOR)、ceil(OW,OW_VECTOR)、ceil(C,C_VECTOR)和ceil(FW,FW_VECTOR);特征图高度维度和卷积核高度维度的迭代索引为对应尺寸,迭代步长为1。
4.根据权利要求1所述的卷积神经网络推理加速方法,其特征在于,所述输入通道向量维度的选通条件为匹配卷积计算模块负责的输出通道对应的输入通道。
5.根据权利要求1所述的卷积神经网络推理加速方法,其特征在于,所述方法应用于基于应用集成电路或现场可编程门阵列的卷积神经网络推理加速器。
6.根据权利要求1所述的卷积神经网络推理加速方法,其特征在于,所述乘加计算一次完成W_VECTOR×C_VECTOR个输入特征图数据与FW_VECTOR×C_VECTOR个卷积核数据的计算,产生OW_VECTOR个输出特征图数据;
其中,W_VECTOR为特征图宽度维度的向量化尺寸;C_VECTOR为维度的向量化尺寸;FW_VECTOR为卷积核宽度维度的向量化尺寸;C_VECTOR为输入特征图通道数维度的向量化尺寸;OW_VECTOR为(W_VECTOR-FW_VECTOR+1)。
7.根据权利要求6所述的卷积神经网络推理加速方法,其特征在于,N_VECTOR个卷积计算模块同时使用不同输出通道的卷积核对同一块特征图数据进行卷积计算,同时产生N_VECTOR个输出通道的输出特征图数据;其中,N_VECTOR为输出特征图向量。
8.一种卷积神经网络推理加速器,其特征在于,包括:
类型区分开关,用于区分判断待计算卷积层的类型,控制类型设置模块修改计算架构;
类型设置模块,用于根据待计算卷积层的类型修改计算架构;当卷积层为Depthwise卷积层时,令输出特征图通道数维度的向量化尺寸等于输入特征图通道数维度的向量化尺寸;将输入特征图通道数维度循环次数设置为1;将输入特征图的通道计算依据改为输出特征图通道;将卷积计算结果在输入通道向量维度的加和改为输入通道向量维度的选通;
卷积计算模块,用于对输入特征图数据与卷积核数据进行乘加计算,得到输出特征图数据。
9.一种卷积神经网络推理加速设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至7任一项所述卷积神经网络推理加速方法的步骤。
10.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述卷积神经网络推理加速方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011081286.2A CN112101510A (zh) | 2020-10-10 | 2020-10-10 | 卷积神经网络推理加速方法、加速器、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011081286.2A CN112101510A (zh) | 2020-10-10 | 2020-10-10 | 卷积神经网络推理加速方法、加速器、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112101510A true CN112101510A (zh) | 2020-12-18 |
Family
ID=73783112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011081286.2A Pending CN112101510A (zh) | 2020-10-10 | 2020-10-10 | 卷积神经网络推理加速方法、加速器、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112101510A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114399828A (zh) * | 2022-03-25 | 2022-04-26 | 深圳比特微电子科技有限公司 | 用于图像处理的卷积神经网络模型的训练方法 |
CN115146767A (zh) * | 2021-03-31 | 2022-10-04 | 广东高云半导体科技股份有限公司 | 一种二维卷积加速器及其实现加速二维卷积的方法 |
-
2020
- 2020-10-10 CN CN202011081286.2A patent/CN112101510A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115146767A (zh) * | 2021-03-31 | 2022-10-04 | 广东高云半导体科技股份有限公司 | 一种二维卷积加速器及其实现加速二维卷积的方法 |
CN115146767B (zh) * | 2021-03-31 | 2024-05-28 | 广东高云半导体科技股份有限公司 | 一种二维卷积加速器及其实现加速二维卷积的方法 |
CN114399828A (zh) * | 2022-03-25 | 2022-04-26 | 深圳比特微电子科技有限公司 | 用于图像处理的卷积神经网络模型的训练方法 |
CN114399828B (zh) * | 2022-03-25 | 2022-07-08 | 深圳比特微电子科技有限公司 | 用于图像处理的卷积神经网络模型的训练方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111967468B (zh) | 一种基于fpga的轻量级目标检测神经网络的实现方法 | |
Chen et al. | ReGAN: A pipelined ReRAM-based accelerator for generative adversarial networks | |
US20200097806A1 (en) | Processing method and accelerating device | |
US20200193274A1 (en) | Training neural network accelerators using mixed precision data formats | |
CN107992486A (zh) | 一种信息处理方法及相关产品 | |
CN107944545B (zh) | 应用于神经网络的计算方法及计算装置 | |
CN112200300B (zh) | 卷积神经网络运算方法及装置 | |
CN112101510A (zh) | 卷积神经网络推理加速方法、加速器、设备及存储介质 | |
Wang et al. | An optimization of im2col, an important method of CNNs, based on continuous address access | |
CN111882028B (zh) | 用于卷积神经网络的卷积运算装置 | |
Wang et al. | A customized convolutional neural network design using improved softmax layer for real-time human emotion recognition | |
Adel et al. | Accelerating deep neural networks using FPGA | |
Kim et al. | Fast convolution algorithm for convolutional neural networks | |
US20220230069A1 (en) | Neural network sparsification device and method, and related product | |
Kang et al. | Design of convolution operation accelerator based on FPGA | |
Yu et al. | Hardware implementation of CNN based on FPGA for EEG Signal Patterns Recognition | |
Chung et al. | Using quantization-aware training technique with post-training fine-tuning quantization to implement a mobilenet hardware accelerator | |
Wen | FPGA-Based Deep Convolutional Neural Network Optimization Method | |
CN112561036A (zh) | He-lstm网络结构及其对应的fpga硬件加速器 | |
Yin et al. | A reconfigurable accelerator for generative adversarial network training based on FPGA | |
Zhang et al. | Design of a Convolutional Neural Network Accelerator based on PYNQ | |
CN114692847B (zh) | 数据处理电路、数据处理方法及相关产品 | |
Chen et al. | Static correlative filter based convolutional neural network for visual question answering | |
Okubo et al. | A Cost-Efficient FPGA Implementation of Tiny Transformer Model using Neural ODE | |
CN113673704B (zh) | 一种基于软硬件协同加速的关系网络推理优化的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201218 |
|
RJ01 | Rejection of invention patent application after publication |