CN112633462A - 卷积神经网络的存储器优化的区块式推论方法及其系统 - Google Patents

卷积神经网络的存储器优化的区块式推论方法及其系统 Download PDF

Info

Publication number
CN112633462A
CN112633462A CN202010922472.8A CN202010922472A CN112633462A CN 112633462 A CN112633462 A CN 112633462A CN 202010922472 A CN202010922472 A CN 202010922472A CN 112633462 A CN112633462 A CN 112633462A
Authority
CN
China
Prior art keywords
block
layer
input
data
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010922472.8A
Other languages
English (en)
Inventor
黄朝宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of CN112633462A publication Critical patent/CN112633462A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management

Abstract

本发明提供一种卷积神经网络的存储器优化的区块式推论方法及其系统。区块推论步骤驱动运算处理单元将各输入区块数据执行多层卷积操作而产生输出区块数据。区块推论步骤依据输出区块数据的位置沿扫描换行方向选择第i层重新计算特征。区块推论步骤依据第i层重新计算输入特征区块数据沿区块扫描方向选取出第i层重复利用特征。卷积运算步骤依据第i层重新计算特征及第i层重复利用特征执行卷积运算。借此,通过不同方向使用不同特征的计算方式,既不增加过多计算量及内部区块暂存器,亦能大幅降低外部存储器的频宽需求。

Description

卷积神经网络的存储器优化的区块式推论方法及其系统
技术领域
本发明涉及一种区块式推论方法及其系统,特别涉及一种卷积神经网络的存储器优化的区块式推论方法及其系统。
背景技术
当使用卷积神经网络于影像处理应用时,其外部存储器频宽需求可能会相当高,而使用区块式推论流程,可以大幅降低此频宽需求。然而,区块间会有重叠的特征向量,目前已知有两种不同的处理方法,一种是采重新计算方式,另一种则是采重复利用方式。其中前者会增加计算量而降低输出像素量,而后者则是需要大量的区块暂存器来存放重复使用的特征向量。由此可知,目前市场上缺乏一种能在不增加太多计算量以及区块暂存器前提下,可大幅降低外部存储器频宽需求的卷积神经网络的存储器优化的区块式推论方法及其系统,故相关业者均在寻求其解决之道。
发明内容
因此,本发明的目的在于提供一种卷积神经网络的存储器优化的区块式推论方法及其系统,当进行区块式推论时,于区块前行的方向上重复利用已计算过的特征,而于另一个方向上采用重新计算的方式,使区块式推论在不增加过多计算量以及区块暂存器的前提下,依然能大幅降低外部存储器的频宽需求。
依据本发明的方法样式的一实施方式提供一种卷积神经网络的存储器优化的区块式推论方法,其用以处理一输入影像。此卷积神经网络的存储器优化的区块式推论方法包含参数设定步骤、分割步骤、区块推论步骤以及暂存步骤,其中参数设定步骤是设定一推论参数组,此推论参数组包含一卷积深度、一区块宽度、一区块高度及多层卷积核大小。分割步骤是驱动一运算处理单元依据卷积深度、区块宽度、区块高度及此些层卷积核大小划分输入影像成多个输入区块数据,各输入区块数据具有输入区块大小。区块推论步骤是驱动运算处理单元将各输入区块数据执行多层卷积操作而产生输出区块数据,此多层卷积操作包含第一方向数据选取步骤、第二方向数据选取步骤及一卷积运算步骤,其中第一方向数据选取步骤是依据输出区块数据的一位置沿一扫描换行方向选择多个第i层重新计算特征,然后依据输出区块数据的位置及此些第i层重新计算特征选取出一第i层重新计算输入特征区块数据,其中i为1至卷积深度的多个正整数的其中一者。第二方向数据选取步骤是依据第i层重新计算输入特征区块数据沿一区块扫描方向选取出多个第i层重复利用特征,并将第i层重新计算输入特征区块数据及此些第i层重复利用特征组合而产生一第i层重复利用输入特征区块数据。此外,卷积运算步骤是依据第i层卷积核大小从第i层重复利用输入特征区块数据中选取出多个第i层子区块输入特征群,然后对各第i层子区块输入特征群及一卷积参数组执行一卷积运算而产生一第i层子区块输出特征,并将对应此些第i层子区块输入特征群的此些第i层子区块输出特征组合而形成一第i层输出特征区块数据。暂存步骤是驱动一区块暂存器暂存第i层输出特征区块数据及此些第i层重复利用特征。
借此,本发明的卷积神经网络的存储器优化的区块式推论方法通过不同方向使用不同特征的计算方式,使区块式推论在不增加过多计算量以及区块暂存器的前提下,依然能大幅降低外部存储器的频宽需求。
前述实施方式的其他实施例如下:当前述i等于1时,第i层重新计算输入特征区块数据等于各输入区块数据。当i等于卷积深度时,第i层输出特征区块数据等于输出区块数据。
前述实施方式的其他实施例如下:前述第i层重新计算输入特征区块数据具有一第i层重新计算输入特征区块大小与一第i层重新计算输入特征区块通道数,第i层输出特征区块数据具有一第i层输出特征区块大小与一第i层输出特征区块通道数。第i层输出特征区块大小大于第i层重新计算输入特征区块大小,且第i层重新计算输入特征区块通道数等于第i层输出特征区块通道数。
前述实施方式的其他实施例如下:前述区块扫描方向垂直于扫描换行方向,区块宽度大于区块高度,且区块高度的延伸方向平行于区块扫描方向。
前述实施方式的其他实施例如下:前述卷积深度、区块宽度及区块高度均为正整数,第i层卷积核大小为kWi×kHi。此些第i层重复利用特征沿区块扫描方向具有一重复利用特征数量,且重复利用特征数量等于kHi-1。
前述实施方式的其他实施例如下:前述区块宽度表示为BW,卷积深度表示为D,区块高度表示为BH。输入区块大小等于BW×BH。输出区块数据具有一输出区块大小,且输出区块大小等于(BW-2D)×BH。第i层重新计算输入特征区块数据具有一第i层重新计算输入特征区块大小,且第i层重新计算输入特征区块大小等于(BW-2i+2)×BH。第i层重复利用输入特征区块数据具有一第i层重复利用输入特征区块大小,且第i层重复利用输入特征区块大小等于(BW-2i+2)×(BH+2)。第i层输出特征区块数据具有一第i层输出特征区块大小,且第i层输出特征区块大小等于(BW-2i)×BH。卷积深度小于区块宽度的一半。
前述实施方式的其他实施例如下:当前述其中一第i层子区块输入特征群的多个输入特征的至少一者位于第i层重复利用输入特征区块数据的外区域时,此其中一第i层子区块输入特征群的此些输入特征包含多个外区块特征及多个第一内区块特征。此些外区块特征代表已运算的特征,此些第一内区块特征代表未运算的特征。再者,当其中一第i层子区块输入特征群的此些输入特征均位于第i层重复利用输入特征区块数据的内区域时,此其中一第i层子区块输入特征群的此些输入特征仅包含多个第二内区块特征。第i层重复利用输入特征区块数据沿区块扫描方向的排列顺序为外区域与内区域。
前述实施方式的其他实施例如下:前述外区块特征是存储于区块暂存器,此区块暂存器具有暂存空间,暂存空间通过第i层重新计算输入特征区块数据的宽度、卷积深度、层数、通道数及第i层卷积核大小运算求得。第i层重新计算输入特征区块数据的宽度表示为BWi,卷积深度表示为D,层数表示为i,通道数表示为C,第i层卷积核大小为kWi×kHi,暂存空间表示为LBS且符合下式:
Figure BDA0002667195500000031
依据本发明的结构样式的一实施方式提供一种卷积神经网络的存储器优化的区块式推论系统,其用以处理一输入影像,此卷积神经网络的存储器优化的区块式推论系统包含区块暂存器以及运算处理单元,其中区块暂存器用以存取第i层输出特征区块数据及多个第i层重复利用特征。运算处理单元电性连接于区块暂存器,运算处理单元接收输入影像并经配置以实施包含以下步骤的操作:参数设定步骤、分割步骤及区块推论步骤。其中参数设定步骤是设定推论参数组,推论参数组包含卷积深度、区块宽度、区块高度及多层卷积核大小。分割步骤是依据卷积深度、区块宽度、区块高度及此些层卷积核大小划分输入影像成多个输入区块数据,各输入区块数据具有输入区块大小。此外,区块推论步骤是将各输入区块数据执行一多层卷积操作而产生输出区块数据,且此多层卷积操作包含第一方向数据选取步骤、第二方向数据选取步骤及卷积运算步骤。第一方向数据选取步骤是依据输出区块数据的位置沿扫描换行方向选择多个第i层重新计算特征,然后依据输出区块数据的位置及此些第i层重新计算特征选取出第i层重新计算输入特征区块数据,其中i为1至卷积深度的多个正整数的其中一者。第二方向数据选取步骤是依据第i层重新计算输入特征区块数据沿区块扫描方向选取出此些第i层重复利用特征,并将第i层重新计算输入特征区块数据及此些第i层重复利用特征组合而产生第i层重复利用输入特征区块数据。卷积运算步骤是依据第i层卷积核大小从第i层重复利用输入特征区块数据中选取出多个第i层子区块输入特征群,然后对各第i层子区块输入特征群及一卷积参数组执行卷积运算而产生第i层子区块输出特征,并将对应此些第i层子区块输入特征群的此些第i层子区块输出特征组合而形成第i层输出特征区块数据。
借此,本发明的卷积神经网络的存储器优化的区块式推论系统通过不同方向使用不同特征的计算方式,使区块式推论在不增加过多计算量以及区块暂存器的前提下,依然能大幅降低外部存储器的频宽需求。
前述实施方式的其他实施例如下:当前述i等于1时,第i层重新计算输入特征区块数据等于各输入区块数据。而当i等于卷积深度时,第i层输出特征区块数据等于输出区块数据。
前述实施方式的其他实施例如下:前述第i层重新计算输入特征区块数据具有第i层重新计算输入特征区块大小与第i层重新计算输入特征区块通道数,第i层输出特征区块数据具有第i层输出特征区块大小与第i层输出特征区块通道数。第i层输出特征区块大小大于第i层重新计算输入特征区块大小,且第i层重新计算输入特征区块通道数等于第i层输出特征区块通道数。
前述实施方式的其他实施例如下:前述区块扫描方向垂直于扫描换行方向,区块宽度大于区块高度,且区块高度的延伸方向平行于区块扫描方向。
前述实施方式的其他实施例如下:前述卷积深度、区块宽度及区块高度均为正整数,第i层卷积核大小为kWi×kHi,此些第i层重复利用特征沿区块扫描方向具有重复利用特征数量,且重复利用特征数量等于kHi-1。
前述实施方式的其他实施例如下:前述区块宽度表示为BW,卷积深度表示为D,区块高度表示为BH。输入区块大小等于BW×BH。输出区块数据具有输出区块大小,且输出区块大小等于(BW-2D)×BH。第i层重新计算输入特征区块数据具有第i层重新计算输入特征区块大小,且第i层重新计算输入特征区块大小等于(BW-2i+2)×BH。第i层重复利用输入特征区块数据具有第i层重复利用输入特征区块大小,且第i层重复利用输入特征区块大小等于(BW-2i+2)×(BH+2)。第i层输出特征区块数据具有第i层输出特征区块大小,且第i层输出特征区块大小等于(BW-2i)×BH。卷积深度小于区块宽度的一半。
前述实施方式的其他实施例如下:当前述其中一第i层子区块输入特征群的多个输入特征的至少一者位于第i层重复利用输入特征区块数据的外区域时,此其中一第i层子区块输入特征群的此些输入特征包含多个外区块特征及多个第一内区块特征。此些外区块特征代表已运算的特征,此些第一内区块特征代表未运算的特征。再者,当其中一第i层子区块输入特征群的此些输入特征均位于第i层重复利用输入特征区块数据的内区域时,此其中一第i层子区块输入特征群的此些输入特征仅包含多个第二内区块特征。第i层重复利用输入特征区块数据沿区块扫描方向的排列顺序为外区域与内区域。
前述实施方式的其他实施例如下:前述外区块特征是存储于区块暂存器,区块暂存器具有暂存空间,暂存空间通过第i层重新计算输入特征区块数据的宽度、卷积深度、层数、通道数及第i层卷积核大小运算求得。第i层重新计算输入特征区块数据的宽度表示为BWi,卷积深度表示为D,层数表示为i,通道数表示为C,第i层卷积核大小为kWi×kHi,暂存空间表示为LBS且符合下式:
Figure BDA0002667195500000061
附图说明
图1是示出本发明第一实施例的卷积神经网络的存储器优化的区块式推论方法的流程示意图;
图2是示出图1的分割步骤的示意图;
图3是示出图1的区块推论步骤的多层卷积操作的输入区块数据与输出区块数据的立体示意图;
图4是示出图1的第一方向数据选取步骤的示意图;
图5是示出图1的第二方向数据选取步骤的示意图;
图6是示出图3的第1层重复利用输入特征区块数据的示意图;
图7是示出本发明第二实施例的通道混洗的示意图;
图8是示出本发明第三实施例的卷积神经网络的存储器优化的区块式推论系统的方框示意图;
图9是示出本发明第四实施例的具有3×3滤波器的多层卷积操作的流程示意图;以及
图10是示出重新计算、重复利用及本发明的重新计算并重复利用的模拟结果示意图。
附图标记说明:
100:卷积神经网络的存储器优化的区块式推论方法
S02:参数设定步骤
S04:分割步骤
S06:区块推论步骤
S062:第一方向数据选取步骤
S064:第二方向数据选取步骤
S066:卷积运算步骤
S08:暂存步骤
110:输出影像
200:卷积神经网络的存储器优化的区块式推论系统
212:推论参数组
214:卷积参数组
220:区块暂存器
230:运算处理单元
232:卷积引擎
BW,W1,W2,W3:区块宽度
BH,H1,H2,H3:区块高度
C1:第i层重复利用输入特征区块通道数
C2:第i层中间特征区块通道数
C3:第i层输出特征区块通道数
D:卷积深度
Dmax:最大支援卷积深度
D1:扫描换行方向
D2:区块扫描方向
FC:重新计算
FU:重复利用
FCFU:重新计算并重复利用
IB:输入区块数据
IR:内区域
k-1:重复利用特征数量
L1:第1层
L1FC:第1层重新计算特征
L1FC_I:第1层重新计算输入特征区块数据
L1FU:第1层重复利用特征
L1FU_I:第1层重复利用输入特征区块数据
L1_O:第1层输出特征区块数据
L2:第2层
L2FC:第2层重新计算特征
L2FC_I:第2层重新计算输入特征区块数据
L2FU:第2层重复利用特征
L2FU_I:第2层重复利用输入特征区块数据
L2_O:第2层输出特征区块数据
L3:第3层
L3FC:第3层重新计算特征
L3FC_I:第3层重新计算输入特征区块数据
L3FU:第3层重复利用特征
L3FU_I:第3层重复利用输入特征区块数据
L3_O:第3层输出特征区块数据
LD:第D层
LiFU_I:第i层重复利用输入特征区块数据
Li_M:第i层中间区块数据
Li_O:第i层输出特征区块数据
NTR:标准化吞吐率
OB:输出区块数据
OR:外区域
S:区块暂存器大小限制
SBG1,SBG11,SBG12:第1层子区块输入特征群
SBG2:第2层子区块输入特征群
SBG3:第3层子区块输入特征群
具体实施方式
以下将参照附图说明本发明的多个实施例。为明确说明起见,许多实务上的细节将在以下叙述中一并说明。然而,应了解到,这些实务上的细节不应用以限制本发明。也就是说,在本发明部分实施例中,这些实务上的细节是非必要的。此外,为简化附图起见,一些现有惯用的结构与元件在附图中将以简单示意的方式示出之;并且重复的元件将可能使用相同的编号表示。
此外,本文中当某一元件(或单元或模块等)“连接”于另一元件,可指所述元件是直接连接于另一元件,亦可指某一元件是间接连接于另一元件,意即,有其他元件介于所述元件及另一元件之间。而当有明示某一元件是“直接连接”于另一元件时,才表示没有其他元件介于所述元件及另一元件之间。而第一、第二、第三等用语只是用来描述不同元件,而对元件本身并无限制,因此,第一元件亦可改称为第二元件。且本文中的元件/单元/电路的组合非此领域中的一般周知、常规或现有的组合,不能以元件/单元/电路本身是否为现有,来判定其组合关系是否容易被技术领域中的通常知识者轻易完成。
请参阅图1,图1是示出本发明第一实施例的卷积神经网络的存储器优化的区块式推论方法100的流程示意图。此卷积神经网络的存储器优化的区块式推论方法100用以处理一输入影像而产生一输出影像,且包含一参数设定步骤S02、分割步骤S04、区块推论步骤S06以及暂存步骤S08。
参数设定步骤S02是设定一推论参数组,此推论参数组包含卷积深度(depth)、区块宽度、区块高度及多层卷积核大小(kernel size)。此些层卷积核大小的层数等于卷积深度。
分割步骤S04是驱动运算处理单元依据卷积深度、区块宽度、区块高度及此些层卷积核大小划分输入影像成多个输入区块数据,各输入区块数据具有一输入区块大小。
区块推论步骤S06是驱动运算处理单元将各输入区块数据执行一多层卷积操作而产生输出区块数据,且多层卷积操作包含第一方向数据选取步骤S062、第二方向数据选取步骤S064及卷积运算步骤S066。其中第一方向数据选取步骤S062是依据输出区块数据的位置沿扫描换行方向选择多个第i层重新计算特征,然后依据输出区块数据的位置及此些第i层重新计算特征选取出一第i层重新计算输入特征区块数据,其中i为1至卷积深度的多个正整数的其中一者。此外,第二方向数据选取步骤S064是依据第i层重新计算输入特征区块数据沿区块扫描方向选取出多个第i层重复利用特征,并将第i层重新计算输入特征区块数据及此些第i层重复利用特征组合而产生一第i层重复利用输入特征区块数据。再者,卷积运算步骤S066是依据第i层卷积核大小从第i层重复利用输入特征区块数据中选取出多个第i层子区块输入特征群,然后对各第i层子区块输入特征群及卷积参数组执行卷积运算而产生第i层子区块输出特征,并将对应此些第i层子区块输入特征群的此些第i层子区块输出特征组合而形成第i层输出特征区块数据。卷积参数组包含权重参数(weightparameter)与偏差参数(bias parameter)。
暂存步骤S08是驱动区块暂存器(Block buffer bank)暂存第i层输出特征区块数据及此些第i层重复利用特征。
借此,本发明的卷积神经网络的存储器优化的区块式推论方法100通过不同方向使用不同特征的计算方式,使区块式推论在不增加过多计算量以及区块暂存器的前提下,依然能大幅降低外部存储器的频宽需求。以下将通过较详细的实施例来说明上述各步骤的细节。
请一并参阅图1至图6,其中图2是示出图1的分割步骤S04的示意图;图3是示出图1的区块推论步骤S06的多层卷积操作的输入区块数据IB与输出区块数据OB的立体示意图;图4是示出图1的第一方向数据选取步骤S062的示意图;图5是示出图1的第二方向数据选取步骤S064的示意图;以及图6是示出图3的第1层重复利用输入特征区块数据L1FU_I的示意图。如图所示,此实施例是于每一层(即第i层的i=1~D)均执行第一方向数据选取步骤S062、第二方向数据选取步骤S064及卷积运算步骤S066。卷积深度D、区块宽度BW及区块高度BH均为正整数。第i层卷积核大小为kWi×kHi,其中kWi、kHi均为正整数。扫描换行方向D1为水平方向,区块扫描方向D2为垂直方向;换言之,区块扫描方向D2垂直于扫描换行方向D1。区块宽度BW大于区块高度BH,且区块高度BH的延伸方向平行于区块扫描方向D2。输入区块大小等于BW×BH。输出区块数据OB具有一输出区块大小,且输出区块大小等于(BW-2D)×BH。第i层重新计算输入特征区块数据具有一第i层重新计算输入特征区块大小,且第i层重新计算输入特征区块大小等于(BW-2i+2)×BH。第i层重复利用输入特征区块数据具有一第i层重复利用输入特征区块大小,且第i层重复利用输入特征区块大小等于(BW-2i+2)×(BH+2)。第i层输出特征区块数据具有一第i层输出特征区块大小,且第i层输出特征区块大小等于(BW-2i)×BH。第i层输出特征区块数据代表第i层执行完卷积运算的输出特征,其用于同一区块的下一层(第i+1层)的重新计算。卷积深度D小于区块宽度BW的一半。再者,第i层重复利用特征沿区块扫描方向D2具有一重复利用特征数量,且重复利用特征数量等于kHi-1(即k-1)。第i层重复利用特征是用于下一区块的同一层(第i层)的重复利用。当i等于1时,第i层重新计算输入特征区块数据等于各输入区块数据IB;当i等于卷积深度D时,第i层输出特征区块数据等于输出区块数据OB。
在图3至图6中,卷积深度D为3,区块宽度BW为10、区块高度BH为4,第i层卷积核大小为3×3,即kWi=kHi=k且均为3。卷积深度D为3代表有3层卷积操作,故多层卷积操作包含第1层卷积操作、第2层卷积操作及第3层卷积操作(即i=1、2及3)。
第1层卷积操作(i=1)包含第一方向数据选取步骤S062、第二方向数据选取步骤S064及卷积运算步骤S066。其中第一方向数据选取步骤S062是依据输出区块数据OB(即第3层输出特征区块数据L3_O)的位置沿扫描换行方向D1选择6个第1层重新计算特征L1FC(即(D-i+1)×(k-1)个),然后依据输出区块数据OB的位置及此些第1层重新计算特征L1FC选取出一第1层重新计算输入特征区块数据L1FC_I。此第1层重新计算输入特征区块数据L1FC_I等于输入区块数据IB,输入区块数据IB的输入区块大小等于第1层重新计算输入特征区块数据L1FC_I的第1层重新计算输入特征区块大小,且均等于(BW-2i+2)×BH=(10-2+2)×4=10×4,如图3的第1层L1、图4的第1层L1及图6所示。再者,第二方向数据选取步骤S064依据第1层重新计算输入特征区块数据L1FC_I沿区块扫描方向D2选取出2个第1层重复利用特征L1FU,并将第1层重新计算输入特征区块数据L1FC_I及此些第1层重复利用特征L1FU组合而产生一第1层重复利用输入特征区块数据L1FU_I。第1层重复利用输入特征区块数据L1FU_I的第1层重复利用输入特征区块大小等于(BW-2i+2)×(BH+2)=(10-2+2)×(4+2)=10×6,如图3的第1层L1、图5的第1层L1及图6所示。此外,卷积运算步骤S066是依据第i层卷积核大小(即3×3)从第1层重复利用输入特征区块数据L1FU_I中选取出多个第1层子区块输入特征群SBG1(即3×3特征),然后对各第1层子区块输入特征群SBG1及卷积参数组执行卷积运算而产生第1层子区块输出特征,并将对应此些第1层子区块输入特征群SBG1的此些第1层子区块输出特征组合而形成第1层输出特征区块数据L1_O。第1层输出特征区块数据L1_O的第1层输出特征区块大小等于(BW-2i)×BH=(10-2)×4=8×4,如图3与图5的第1层L1所示。
第2层卷积操作(i=2)包含第一方向数据选取步骤S062、第二方向数据选取步骤S064及卷积运算步骤S066。其中第一方向数据选取步骤S062是依据输出区块数据OB(即第3层输出特征区块数据L3_O)的位置沿扫描换行方向D1选择4个第2层重新计算特征L2FC(即(D-i+1)×(k-1)个),然后依据输出区块数据OB的位置及此些第2层重新计算特征L2FC选取出一第2层重新计算输入特征区块数据L2FC_I。第2层重新计算输入特征区块数据L2FC_I等于第1层输出特征区块数据L1_O。第2层重新计算输入特征区块数据L2FC_I的第2层重新计算输入特征区块大小等于(BW-2i+2)×BH=(10-4+2)×4=8×4,如图3与图4的第2层L2所示。再者,第二方向数据选取步骤S064依据第2层重新计算输入特征区块数据L2FC_I沿区块扫描方向D2选取出2个第2层重复利用特征L2FU,并将第2层重新计算输入特征区块数据L2FC_I及此些第2层重复利用特征L2FU组合而产生一第2层重复利用输入特征区块数据L2FU_I。第2层重复利用输入特征区块数据L2FU_I的第2层重复利用输入特征区块大小等于(BW-2i+2)×(BH+2)=(10-4+2)×(4+2)=8×6,如图3与图5的第2层L2所示。此外,卷积运算步骤S066是依据第i层卷积核大小(即3×3)从第2层重复利用输入特征区块数据L2FU_I中选取出多个第2层子区块输入特征群SBG2(即3×3特征),然后对各第2层子区块输入特征群SBG2及卷积参数组执行卷积运算而产生第2层子区块输出特征,并将对应此些第2层子区块输入特征群SBG2的此些第2层子区块输出特征组合而形成第2层输出特征区块数据L2_O。第2层输出特征区块数据L2_O的第2层输出特征区块大小等于(BW-2i)×BH=(10-4)×4=6×4,如图3与图5的第2层L2所示。
第3层卷积操作(i=3)包含第一方向数据选取步骤S062、第二方向数据选取步骤S064及卷积运算步骤S066。其中第一方向数据选取步骤S062是依据输出区块数据OB(即第3层输出特征区块数据L3_O)的位置沿扫描换行方向D1选择2个第3层重新计算特征L3FC(即(D-i+1)×(k-1)个),然后依据输出区块数据OB的位置及此些第3层重新计算特征L3FC选取出一第3层重新计算输入特征区块数据L3FC_I。第3层重新计算输入特征区块数据L3FC_I等于第2层输出特征区块数据L2_O。第3层重新计算输入特征区块数据L3FC_I的第3层重新计算输入特征区块大小等于(BW-2i+2)×BH=(10-6+2)×4=6×4,如图3与图4的第3层L3所示。再者,第二方向数据选取步骤S064依据第3层重新计算输入特征区块数据L3FC_I沿区块扫描方向D2选取出2个第3层重复利用特征L3FU,并将第3层重新计算输入特征区块数据L3FC_I及此些第3层重复利用特征L3FU组合而产生一第3层重复利用输入特征区块数据L3FU_I。第3层重复利用输入特征区块数据L3FU_I的第3层重复利用输入特征区块大小等于(BW-2i+2)×(BH+2)=(10-6+2)×(4+2)=6×6,如图3与图5的第3层L3所示。此外,卷积运算步骤S066是依据第i层卷积核大小(即3×3)从第3层重复利用输入特征区块数据L3FU_I中选取出多个第3层子区块输入特征群SBG3(即3×3特征),然后对各第3层子区块输入特征群SBG3及卷积参数组执行卷积运算而产生第3层子区块输出特征,并将对应此些第3层子区块输入特征群SBG3的此些第3层子区块输出特征组合而形成第3层输出特征区块数据L3_O。第3层输出特征区块数据L3_O等于输出区块数据OB。第3层输出特征区块数据L3_O的第3层输出特征区块大小等于(BW-2i)×BH=(10-6)×4=4×4,而输出区块数据OB的输出区块大小等于(BW-2D)×BH=(10-6)×4=4×4,如图3与图5的第3层L3所示。
在本发明的卷积神经网络的存储器优化的区块式推论方法100中,当其中一第i层子区块输入特征群的多个输入特征的至少一者位于第i层重复利用输入特征区块数据的外区域时,此其中一第i层子区块输入特征群的输入特征包含多个外区块特征及多个第一内区块特征。外区块特征代表前一区块已运算的特征,而第一内区块特征代表目前区块未运算的特征。另外,当其中一第i层子区块输入特征群的输入特征均位于第i层重复利用输入特征区块数据的内区域时,此其中一第i层子区块输入特征群的输入特征仅包含多个第二内区块特征,第二内区块特征代表目前区块未运算的特征。第i层重复利用输入特征区块数据沿区块扫描方向D2的排列顺序为外区域与内区域。举图6为例,当第1层子区块输入特征群SBG11的9个输入特征的6个位于第1层重复利用输入特征区块数据L1FU_I的外区域OR时,此第1层子区块输入特征群SBG11的9个输入特征包含6个外区块特征及3个内区块特征。外区块特征代表已运算的特征且位于外区域OR,而内区块特征代表未运算的特征且位于内区域IR。另外,当第1层子区块输入特征群SBG12的9个输入特征均位于第1层重复利用输入特征区块数据L1FU_I的内区域IR时,此第1层子区块输入特征群SBG12的9个输入特征仅包含9个内区块特征,亦即9个输入特征均为内区块特征。此外,第1层重复利用输入特征区块数据L1FU_I沿区块扫描方向D2的排列顺序为外区域OR与内区域IR。
另外值得一提的是,在暂存步骤S08中,第i层的LiFC_I的最下面kHi-1行存到区块暂存器内供下一区块使用,变成下一区块的LiFU。举例来说,当区块推论步骤S06的第1层卷积操作执行后,暂存步骤S08被执行,其为第1层重新计算输入特征区块数据L1FC_I的最下面kHi-1行存到区块暂存器内供下一区块使用,亦即变成下一区块的第1层重复利用特征L1FU。当区块推论步骤S06的第2层卷积操作执行后,暂存步骤S08被执行,其为第2层重新计算输入特征区块数据L2FC_I的最下面kHi-1行存到区块暂存器内供下一区块使用,亦即变成下一区块的第2层重复利用特征L2FU。当区块推论步骤S06的第3层卷积操作执行后,暂存步骤S08被执行,其为第3层重新计算输入特征区块数据L3FC_I的最下面kHi-1行存到区块暂存器内供下一区块使用,亦即变成下一区块的第3层重复利用特征L3FU。借此,可大幅降低计算量。
请一并参阅图1至图7,其中图7是示出本发明第二实施例的通道混洗(shuffle)的示意图。本发明的推论流程可应用于通道混洗的运算,第i层重复利用输入特征区块数据LiFU_I具有一第i层重复利用输入特征区块大小W1×H1与一第i层重复利用输入特征区块通道数C1。第i层中间区块数据Li_M具有一第i层中间特征区块大小W2×H2与一第i层中间特征区块通道数C2。第i层输出特征区块数据Li_O具有一第i层输出特征区块大小W3×H3与一第i层输出特征区块通道数C3。第i层输出特征区块大小W3×H3大于第i层重复利用输入特征区块大小W1×H1,且第i层重复利用输入特征区块大小W1×H1大于第i层中间特征区块大小W2×H2。其中W1、W2及W3为区块宽度,H1、H2及H3为区块高度。此外,第i层重复利用输入特征区块通道数C1等于第i层输出特征区块通道数C3,且第i层中间特征区块通道数C2大于第i层重复利用输入特征区块通道数C1。举例来说,第i层重复利用输入特征区块大小W1×H1、第i层中间特征区块大小W2×H2及第i层输出特征区块大小W3×H3可分别为10×10、8×8及16×16,而第i层重复利用输入特征区块通道数C1、第i层中间特征区块通道数C2及第i层输出特征区块通道数C3可分别为32、128及32,但本发明不以此为限。
借此,本发明可实现特定的多层卷积操作,当进行区块式推论时,于区块前行的方向(即区块扫描方向D2)上重复利用已计算过的特征,而于另一个方向(即扫描换行方向D1)上采用重新计算的方式,使区块式推论在不增加过多计算量以及区块暂存器的前提下,依然能大幅降低外部存储器的频宽需求。
请一并参阅图1、图2、图8及图9,其中图8是示出本发明第三实施例的卷积神经网络的存储器优化的区块式推论系统200的方框示意图;以及图9是示出本发明第三实施例的具有3×3滤波器的多层卷积操作的流程示意图。如图所示,卷积神经网络的存储器优化的区块式推论系统200用以处理输入影像而产生输出影像110,并包含区块暂存器220以及运算处理单元230。输入区块数据IB、推论参数组212及卷积参数组214输入至运算处理单元230,输出区块数据OB输出会组成输出影像110。区块暂存器220用以存取第i层输出特征区块数据及多个第i层重复利用特征,且此两种暂存是使用区块暂存器220中不同位置的区域暂存。此外,运算处理单元230电性连接于区块暂存器220,运算处理单元230接收输入影像并经配置以实施图1的卷积神经网络的存储器优化的区块式推论方法100。运算处理单元230包含卷积引擎232(Convolution Engine),卷积引擎232用以执行卷积运算。运算处理单元230可为微处理器、中央处理器或影像处理器,但本发明不以此为限。L1、L2及LD分别代表第1层、第2层及第D层,第1层L1至第D层LD均通过运算处理单元230的卷积引擎232进行运算。此外,区块暂存器220可存储外区块特征,区块暂存器220具有一暂存空间,此暂存空间可通过第i层重新计算输入特征区块数据的宽度BWi、卷积深度D、层数i、通道数C及第i层卷积核大小kWi×kHi运算求得。暂存空间表示为LBS(Line Buffer Size)且符合下列式子(1):
Figure BDA0002667195500000151
举例来说,若每一层(即第i层的i=1~D)均执行第一方向数据选取步骤S062、第二方向数据选取步骤S064及卷积运算步骤S066,且kWi=kHi=k且均等于3,则暂存空间符合下列式子(2):
Figure BDA0002667195500000161
借此,本发明的卷积神经网络的存储器优化的区块式推论系统200通过不同方向使用不同特征的计算方式,使区块式推论在不增加过多计算量以及区块暂存器220的前提下,依然能大幅降低外部存储器对输入区块数据IB和输出区块数据OB的频宽需求。
请一并参阅图1与图10,其中图10是示出重新计算(Feature-reComputing;FC)、重复利用(Feature-reUsing;FU)及本发明的重新计算并重复利用(FCFU)的比较结果示意图。其参数设定条件为乘积值A设为642,输出影像110的大小为960×540,kWi=kHi=k。乘积值A为区块宽度BW与区块高度BH相乘的数值的最小值。本发明的多层卷积操作具有一标准化吞吐率(Normalized Throughput Ratio;NTR),标准化吞吐率NTR通过卷积深度D与标准化运算率(Normalized Computing Ratio;NCR)运算求得,而标准化运算率通过区块宽度BW、区块高度BH、卷积深度D及变数h运算求得。对于本发明的标准化吞吐率NTR与标准化运算率NCR分别符合下列式子(3)与(4):
Figure BDA0002667195500000162
Figure BDA0002667195500000163
由图10可知,若对于区块暂存器220有区块暂存器大小限制S,则重复利用FU所能支持的最大支援卷积深度Dmax在三者中为最浅;相反地,重新计算FC虽能支持宽广的模型卷积深度范围,但因其需较高的计算复杂度而导致标准化吞吐率NTR大幅降低。而本发明的重新计算并重复利用FCFU不仅较重复利用FU能支持较宽的模型卷积深度范围,而且还能提供较重新计算FC更好的标准化吞吐率NTR。
由上述实施方式可知,本发明具有下列优点:其一,本发明的卷积神经网络的存储器优化的区块式推论方法通过不同方向使用不同特征的计算方式,使区块式推论在不增加过多计算量以及区块暂存器的前提下,依然能大幅降低外部存储器的频宽需求。其二,本发明的卷积神经网络的存储器优化的区块式推论系统通过不同方向使用不同特征的计算方式,使区块式推论在不增加过多计算量以及区块暂存器的前提下,依然能大幅降低外部存储器的频宽需求。其三,本发明的重新计算并重复利用不仅较重复利用能支持较宽的模型卷积深度范围,而且还能提供较重新计算更好的标准化吞吐率。
虽然本发明已以实施方式公开如上,然其并非用以限定本发明,任何本领域技术人员,在不脱离本发明的构思和范围内,当可作各种的变动与润饰,因此本发明的保护范围当视权利要求所界定者为准。

Claims (16)

1.一种卷积神经网络的存储器优化的区块式推论方法,用以处理一输入影像,其特征在于,该卷积神经网络的存储器优化的区块式推论方法包含以下步骤:
一参数设定步骤,是设定一推论参数组,该推论参数组包含一卷积深度、一区块宽度、一区块高度及多层卷积核大小;
一分割步骤,是驱动一运算处理单元依据该卷积深度、该区块宽度、该区块高度及所述多层卷积核大小划分该输入影像成多个输入区块数据,各该输入区块数据具有一输入区块大小;
一区块推论步骤,是驱动该运算处理单元将各该输入区块数据执行一多层卷积操作而产生一输出区块数据,且该多层卷积操作包含:
一第一方向数据选取步骤,是依据该输出区块数据的一位置沿一扫描换行方向选择多个第i层重新计算特征,然后依据该输出区块数据的该位置及所述多个第i层重新计算特征选取出一第i层重新计算输入特征区块数据,其中i为1至该卷积深度的多个正整数的其中一者;
一第二方向数据选取步骤,是依据该第i层重新计算输入特征区块数据沿一区块扫描方向选取出多个第i层重复利用特征,并将该第i层重新计算输入特征区块数据及所述多个第i层重复利用特征组合而产生一第i层重复利用输入特征区块数据;及
一卷积运算步骤,是依据一第i层卷积核大小从该第i层重复利用输入特征区块数据中选取出多个第i层子区块输入特征群,然后对各该第i层子区块输入特征群及一卷积参数组执行一卷积运算而产生一第i层子区块输出特征,并将对应所述多个第i层子区块输入特征群的所述多个第i层子区块输出特征组合而形成一第i层输出特征区块数据;以及
一暂存步骤,是驱动一区块暂存器暂存该第i层输出特征区块数据及所述多个第i层重复利用特征。
2.如权利要求1所述的卷积神经网络的存储器优化的区块式推论方法,其特征在于,
当i等于1时,该第i层重新计算输入特征区块数据等于各该输入区块数据;及
当i等于该卷积深度时,该第i层输出特征区块数据等于该输出区块数据。
3.如权利要求1所述的卷积神经网络的存储器优化的区块式推论方法,其特征在于,该第i层重新计算输入特征区块数据具有一第i层重新计算输入特征区块大小与一第i层重新计算输入特征区块通道数,该第i层输出特征区块数据具有一第i层输出特征区块大小与一第i层输出特征区块通道数,该第i层输出特征区块大小大于该第i层重新计算输入特征区块大小,且该第i层重新计算输入特征区块通道数等于该第i层输出特征区块通道数。
4.如权利要求1所述的卷积神经网络的存储器优化的区块式推论方法,其特征在于,该区块扫描方向垂直于该扫描换行方向,该区块宽度大于该区块高度,且该区块高度的一延伸方向平行于该区块扫描方向。
5.如权利要求1所述的卷积神经网络的存储器优化的区块式推论方法,其特征在于,该卷积深度、该区块宽度及该区块高度均为正整数,该第i层卷积核大小为kWi×kHi,所述多个第i层重复利用特征沿该区块扫描方向具有一重复利用特征数量,且该重复利用特征数量等于kHi-1。
6.如权利要求1所述的卷积神经网络的存储器优化的区块式推论方法,其特征在于,该区块宽度表示为BW,该卷积深度表示为D,该区块高度表示为BH
该输入区块大小等于BW×BH
该输出区块数据具有一输出区块大小,且该输出区块大小等于(BW-2D)×BH
该第i层重新计算输入特征区块数据具有一第i层重新计算输入特征区块大小,且该第i层重新计算输入特征区块大小等于(BW-2i+2)×BH
该第i层重复利用输入特征区块数据具有一第i层重复利用输入特征区块大小,且该第i层重复利用输入特征区块大小等于(BW-2i+2)×(BH+2);
该第i层输出特征区块数据具有一第i层输出特征区块大小,且该第i层输出特征区块大小等于(BW-2i)×BH;及
该卷积深度小于该区块宽度的一半。
7.如权利要求1所述的卷积神经网络的存储器优化的区块式推论方法,其特征在于,
当其中一该第i层子区块输入特征群的多个输入特征的至少一者位于该第i层重复利用输入特征区块数据的一外区域时,该其中一第i层子区块输入特征群的所述多个输入特征包含多个外区块特征及多个第一内区块特征,所述多个外区块特征代表已运算的特征,所述多个第一内区块特征代表未运算的特征;
当其中一该第i层子区块输入特征群的所述多个输入特征均位于该第i层重复利用输入特征区块数据的一内区域时,该其中一第i层子区块输入特征群的所述多个输入特征仅包含多个第二内区块特征;及
该第i层重复利用输入特征区块数据沿该区块扫描方向的排列顺序为该外区域与该内区域。
8.如权利要求7所述的卷积神经网络的存储器优化的区块式推论方法,其特征在于,所述多个外区块特征是存储于该区块暂存器,该区块暂存器具有一暂存空间,该暂存空间通过该第i层重新计算输入特征区块数据的一宽度、该卷积深度、一层数、一通道数及该第i层卷积核大小运算求得,该第i层重新计算输入特征区块数据的该宽度表示为BWi,该卷积深度表示为D,该层数表示为i,该通道数表示为C,该第i层卷积核大小为kWi×kHi,该暂存空间表示为LBS且符合下式:
Figure FDA0002667195490000031
9.一种卷积神经网络的存储器优化的区块式推论系统,用以处理一输入影像,其特征在于,该卷积神经网络的存储器优化的区块式推论系统包含:
一区块暂存器,用以存取一第i层输出特征区块数据及多个第i层重复利用特征;以及
一运算处理单元,电性连接于该区块暂存器,该运算处理单元接收该输入影像并经配置以实施包含以下步骤的操作:
一参数设定步骤,是设定一推论参数组,该推论参数组包含一卷积深度、一区块宽度、一区块高度及多层卷积核大小;
一分割步骤,是依据该卷积深度、该区块宽度、该区块高度及所述多层卷积核大小划分该输入影像成多个输入区块数据,各该输入区块数据具有一输入区块大小;及
一区块推论步骤,是将各该输入区块数据执行一多层卷积操作而产生一输出区块数据,且该多层卷积操作包含:
一第一方向数据选取步骤,是依据该输出区块数据的一位置沿一扫描换行方向选择多个第i层重新计算特征,然后依据该输出区块数据的该位置及所述多个第i层重新计算特征选取出一第i层重新计算输入特征区块数据,其中i为1至该卷积深度的多个正整数的其中一者;
一第二方向数据选取步骤,是依据该第i层重新计算输入特征区块数据沿一区块扫描方向选取出所述多个第i层重复利用特征,并将该第i层重新计算输入特征区块数据及所述多个第i层重复利用特征组合而产生一第i层重复利用输入特征区块数据;及
一卷积运算步骤,是依据一第i层卷积核大小从该第i层重复利用输入特征区块数据中选取出多个第i层子区块输入特征群,然后对各该第i层子区块输入特征群及一卷积参数组执行一卷积运算而产生一第i层子区块输出特征,并将对应所述多个第i层子区块输入特征群的所述多个第i层子区块输出特征组合而形成该第i层输出特征区块数据。
10.如权利要求9所述的卷积神经网络的存储器优化的区块式推论系统,其特征在于,
当i等于1时,该第i层重新计算输入特征区块数据等于各该输入区块数据;及
当i等于该卷积深度时,该第i层输出特征区块数据等于该输出区块数据。
11.如权利要求9所述的卷积神经网络的存储器优化的区块式推论系统,其特征在于,该第i层重新计算输入特征区块数据具有一第i层重新计算输入特征区块大小与一第i层重新计算输入特征区块通道数,该第i层输出特征区块数据具有一第i层输出特征区块大小与一第i层输出特征区块通道数,该第i层输出特征区块大小大于该第i层重新计算输入特征区块大小,且该第i层重新计算输入特征区块通道数等于该第i层输出特征区块通道数。
12.如权利要求9所述的卷积神经网络的存储器优化的区块式推论系统,其特征在于,该区块扫描方向垂直于该扫描换行方向,该区块宽度大于该区块高度,且该区块高度的一延伸方向平行于该区块扫描方向。
13.如权利要求9所述的卷积神经网络的存储器优化的区块式推论系统,其特征在于,该卷积深度、该区块宽度及该区块高度均为正整数,该第i层卷积核大小为kWi×kHi,所述多个第i层重复利用特征沿该区块扫描方向具有一重复利用特征数量,且该重复利用特征数量等于kHi-1。
14.如权利要求9所述的卷积神经网络的存储器优化的区块式推论系统,其特征在于,该区块宽度表示为BW,该卷积深度表示为D,该区块高度表示为BH
该输入区块大小等于BW×BH
该输出区块数据具有一输出区块大小,且该输出区块大小等于(BW-2D)×BH
该第i层重新计算输入特征区块数据具有一第i层重新计算输入特征区块大小,且该第i层重新计算输入特征区块大小等于(BW-2i+2)×BH
该第i层重复利用输入特征区块数据具有一第i层重复利用输入特征区块大小,且该第i层重复利用输入特征区块大小等于(BW-2i+2)×(BH+2);
该第i层输出特征区块数据具有一第i层输出特征区块大小,且该第i层输出特征区块大小等于(BW-2i)×BH;及
该卷积深度小于该区块宽度的一半。
15.如权利要求9所述的卷积神经网络的存储器优化的区块式推论系统,其特征在于,
当其中一该第i层子区块输入特征群的多个输入特征的至少一者位于该第i层重复利用输入特征区块数据的一外区域时,该其中一第i层子区块输入特征群的所述多个输入特征包含多个外区块特征及多个第一内区块特征,所述多个外区块特征代表已运算的特征,所述多个第一内区块特征代表未运算的特征;
当其中一该第i层子区块输入特征群的所述多个输入特征均位于该第i层重复利用输入特征区块数据的一内区域时,该其中一第i层子区块输入特征群的所述多个输入特征仅包含多个第二内区块特征;及
该第i层重复利用输入特征区块数据沿该区块扫描方向的排列顺序为该外区域与该内区域。
16.如权利要求15所述的卷积神经网络的存储器优化的区块式推论系统,其特征在于,所述多个外区块特征是存储于该区块暂存器,该区块暂存器具有一暂存空间,该暂存空间通过该第i层重新计算输入特征区块数据的一宽度、该卷积深度、一层数、一通道数及该第i层卷积核大小运算求得,该第i层重新计算输入特征区块数据的该宽度表示为BWi,该卷积深度表示为D,该层数表示为i,该通道数表示为C,该第i层卷积核大小为kWi×kHi,该暂存空间表示为LBS且符合下式:
Figure FDA0002667195490000061
CN202010922472.8A 2019-10-08 2020-09-04 卷积神经网络的存储器优化的区块式推论方法及其系统 Pending CN112633462A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962912630P 2019-10-08 2019-10-08
US62/912,630 2019-10-08

Publications (1)

Publication Number Publication Date
CN112633462A true CN112633462A (zh) 2021-04-09

Family

ID=75300104

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010922472.8A Pending CN112633462A (zh) 2019-10-08 2020-09-04 卷积神经网络的存储器优化的区块式推论方法及其系统

Country Status (2)

Country Link
CN (1) CN112633462A (zh)
TW (1) TWI765336B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114118389B (zh) * 2022-01-28 2022-05-10 深圳鲲云信息科技有限公司 神经网络数据处理方法、设备及存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017015649A1 (en) * 2015-07-23 2017-01-26 Mireplica Technology, Llc Performance enhancement for two-dimensional array processor
CN106779146A (zh) * 2016-11-15 2017-05-31 广州铁路职业技术学院 一种用于提供推荐旅游路线的旅游服务系统
CN107437110A (zh) * 2017-07-11 2017-12-05 中国科学院自动化研究所 卷积神经网络的分块卷积优化方法及装置
US20180095632A1 (en) * 2016-10-04 2018-04-05 Sas Institute Inc. Interactive visualizations of a convolutional neural network
US20180096249A1 (en) * 2016-10-04 2018-04-05 Electronics And Telecommunications Research Institute Convolutional neural network system using adaptive pruning and weight sharing and operation method thereof
US20180131946A1 (en) * 2016-11-07 2018-05-10 Electronics And Telecommunications Research Institute Convolution neural network system and method for compressing synapse data of convolution neural network
KR101847874B1 (ko) * 2017-06-28 2018-05-25 서경대학교 산학협력단 합성곱 신경망을 이용한 이미지 인식 방법 및 그 기록 매체
CN108415881A (zh) * 2017-02-10 2018-08-17 耐能股份有限公司 卷积神经网络的运算装置及方法
WO2019015144A1 (zh) * 2017-07-21 2019-01-24 北京市商汤科技开发有限公司 图像处理方法和系统、存储介质和计算设备
US20190147319A1 (en) * 2017-11-14 2019-05-16 Samsung Electronics Co., Ltd. Device and method for processing convolution operation using kernel
US20190147332A1 (en) * 2017-11-14 2019-05-16 Advanced Micro Devices, Inc. Memory bandwidth reduction techniques for low power convolutional neural network inference applications
US20190188240A1 (en) * 2017-12-18 2019-06-20 International Business Machines Corporation Processor and memory transparent convolutional lowering and auto zero padding for deep neural network implementations

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10083395B2 (en) * 2015-05-21 2018-09-25 Google Llc Batch processing in a neural network processor
US10878273B2 (en) * 2017-07-06 2020-12-29 Texas Instruments Incorporated Dynamic quantization for deep neural network inference system and method
TWI729352B (zh) * 2018-02-09 2021-06-01 宏達國際電子股份有限公司 卷積神經網路的調整方法及電子裝置
CN110175636A (zh) * 2019-05-08 2019-08-27 深圳欧翼思特科技有限公司 一种物联网深度神经网络分布式判别推论系统及方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017015649A1 (en) * 2015-07-23 2017-01-26 Mireplica Technology, Llc Performance enhancement for two-dimensional array processor
US20180095632A1 (en) * 2016-10-04 2018-04-05 Sas Institute Inc. Interactive visualizations of a convolutional neural network
US20180096249A1 (en) * 2016-10-04 2018-04-05 Electronics And Telecommunications Research Institute Convolutional neural network system using adaptive pruning and weight sharing and operation method thereof
US20180131946A1 (en) * 2016-11-07 2018-05-10 Electronics And Telecommunications Research Institute Convolution neural network system and method for compressing synapse data of convolution neural network
CN106779146A (zh) * 2016-11-15 2017-05-31 广州铁路职业技术学院 一种用于提供推荐旅游路线的旅游服务系统
CN108415881A (zh) * 2017-02-10 2018-08-17 耐能股份有限公司 卷积神经网络的运算装置及方法
KR101847874B1 (ko) * 2017-06-28 2018-05-25 서경대학교 산학협력단 합성곱 신경망을 이용한 이미지 인식 방법 및 그 기록 매체
CN107437110A (zh) * 2017-07-11 2017-12-05 中国科学院自动化研究所 卷积神经网络的分块卷积优化方法及装置
WO2019015144A1 (zh) * 2017-07-21 2019-01-24 北京市商汤科技开发有限公司 图像处理方法和系统、存储介质和计算设备
US20190147319A1 (en) * 2017-11-14 2019-05-16 Samsung Electronics Co., Ltd. Device and method for processing convolution operation using kernel
US20190147332A1 (en) * 2017-11-14 2019-05-16 Advanced Micro Devices, Inc. Memory bandwidth reduction techniques for low power convolutional neural network inference applications
US20190188240A1 (en) * 2017-12-18 2019-06-20 International Business Machines Corporation Processor and memory transparent convolutional lowering and auto zero padding for deep neural network implementations

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CHEN PENG 等: "Finger vein recognition based on scattering convolution network", JOURNAL OF ZHEJIANG UNIVERSITY OF TECHNOLOGY, vol. 46, no. 1, 5 February 2018 (2018-02-05), pages 56 - 60 *
G. LI 等: "Block Convolution: Toward Memory-Efficient Inference of Large-Scale CNNs on FPGA", 2018 DESIGN, AUTOMATION & TEST IN EUROPE CONFERENCE & EXHIBITION (DATE), 23 April 2018 (2018-04-23), pages 1163 - 1166 *
XIAOCONG LIAN 等: "High-Performance FPGA-Based CNN Accelerator With Block-Floating-Point Arithmetic", IEEE TRANSACTIONS ON VERY LARGE SCALE INTEGRATION (VLSI) SYSTEMS, vol. 27, no. 8, 16 May 2019 (2019-05-16), pages 1874, XP011736689, DOI: 10.1109/TVLSI.2019.2913958 *
YAN, JL 等: "GNA: Reconfigurable and Efficient Architecture for Generative Network Acceleration", IEEE-INST ELECTRICAL ELECTRONICS ENGINEERS INC, vol. 37, no. 11, 1 November 2018 (2018-11-01), pages 2519 - 2529, XP011692601, DOI: 10.1109/TCAD.2018.2857258 *
夏松: "Hopfield神经网络构造的联想记忆存储器实现与研究", 中国优秀硕士学位论文全文数据库 (信息科技辑), no. 2010, 15 October 2010 (2010-10-15), pages 140 - 54 *
陆志坚: "基于FPGA的卷积神经网络并行结构研究", 中国博士学位论文全文数据库 (信息科技辑), no. 2014, 15 April 2014 (2014-04-15), pages 140 - 12 *

Also Published As

Publication number Publication date
TW202115624A (zh) 2021-04-16
TWI765336B (zh) 2022-05-21

Similar Documents

Publication Publication Date Title
US10360470B2 (en) Implementation of MobileNet in a CNN based digital integrated circuit
US20180268234A1 (en) Object Detection And Recognition Apparatus Based On CNN Based Integrated Circuits
US10402628B2 (en) Image classification systems based on CNN based IC and light-weight classifier
US10339445B2 (en) Implementation of ResNet in a CNN based digital integrated circuit
CN109063825B (zh) 卷积神经网络加速装置
US20190087725A1 (en) Approximating Fully-Connected Layers With Multiple Arrays Of 3x3 Convolutional Filter Kernels In A CNN Based Integrated Circuit
US9305329B2 (en) Low memory content aware fill
US20180157940A1 (en) Convolution Layers Used Directly For Feature Extraction With A CNN Based Integrated Circuit
US5845017A (en) Digital image processing method for degraining of film images using distance weighted averaging of target pixel code values
US10387772B1 (en) Ensemble learning based image classification systems
US11526723B2 (en) Apparatus and methods of obtaining multi-scale feature vector using CNN based integrated circuits
JP6927320B2 (ja) 推論装置、畳み込み演算実行方法及びプログラム
US11694069B2 (en) Methods for processing data in an efficient convolutional engine with partitioned columns of convolver units
WO2022206556A1 (zh) 图像数据的矩阵运算方法、装置、设备及存储介质
JP2007266699A (ja) 画像データ変換処理装置および画像データ変換処理方法
CN112633462A (zh) 卷积神经网络的存储器优化的区块式推论方法及其系统
US20190318226A1 (en) Deep Learning Image Processing Systems Using Modularly Connected CNN Based Integrated Circuits
US20210103793A1 (en) Block-based inference method for memory-efficient convolutional neural network implementation and system thereof
Vaksman et al. Patch ordering as a regularization for inverse problems in image processing
CN109993293B (zh) 一种适用于堆叠式沙漏网络的深度学习加速器
US20190347812A1 (en) Apparatus and method for image-distance transformation using bi-directional scans
US20070122043A1 (en) Image processing device that produces high-quality reduced image at fast processing speed
CN107111878B (zh) 数据处理方法、装置及系统
KR102453370B1 (ko) 대규모 심층 신경망의 고속 저전력 처리를 위한 방법 및 장치
CN111832585B (zh) 图像处理的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination