CN109002885A - 一种卷积神经网络池化单元及池化计算方法 - Google Patents

一种卷积神经网络池化单元及池化计算方法 Download PDF

Info

Publication number
CN109002885A
CN109002885A CN201810818971.5A CN201810818971A CN109002885A CN 109002885 A CN109002885 A CN 109002885A CN 201810818971 A CN201810818971 A CN 201810818971A CN 109002885 A CN109002885 A CN 109002885A
Authority
CN
China
Prior art keywords
pond
unit
parameter
characteristic pattern
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810818971.5A
Other languages
English (en)
Inventor
聂林川
姜凯
王子彤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinan Inspur Hi Tech Investment and Development Co Ltd
Original Assignee
Jinan Inspur Hi Tech Investment and Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinan Inspur Hi Tech Investment and Development Co Ltd filed Critical Jinan Inspur Hi Tech Investment and Development Co Ltd
Priority to CN201810818971.5A priority Critical patent/CN109002885A/zh
Publication of CN109002885A publication Critical patent/CN109002885A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种卷积神经网络池化单元及池化计算方法,池化单元独立于计算单元,包括输入模块、池化资源池模块和池化结果输出模块。输入模块将待解析的池化参数、待池化的特征图发送给池化资源池模块。池化资源池模块解析池化参数,根据解析出的池化参数配置相应池化计算单元;基于输入通道识别特征图来源以将特征图映射至一池化计算单元中;基于池化计算单元将映射来的特征图进行池化计算处理后输出。池化结果输出模块将处理后的特征图通过相应输出通道输出。池化单元独立设计且可通过配置不同池化参数来重新定义池化电路的功能。因此,本方案能够提高池化单元的通用性。

Description

一种卷积神经网络池化单元及池化计算方法
技术领域
本发明涉及计算机技术领域,特别涉及一种卷积神经网络池化单元及池化计算方法。
背景技术
随着人工智能领域的发展,卷积神经网络得到了充分利用。目前主流卷积神经网络模型具有结构复杂、计算数据量大、各层架构差异大等特点。
目前,实现卷积神经网络计算单元时,通常把池化单元包含在计算单元中,以实现卷积池化强对应的关系。
但是,现有池化单元的通用性不强,易造成资源浪费。
发明内容
本发明提供了一种卷积神经网络池化单元及池化计算方法,能够提高池化单元的通用性。
为了达到上述目的,本发明是通过如下技术方案实现的:
一方面,本发明提供了一种卷积神经网络池化单元,所述卷积神经网络池化单元独立于卷积神经网络计算单元,包括:
输入模块、池化资源池模块、池化结果输出模块;
所述池化资源池模块包括:映射逻辑单元、控制逻辑单元、池化计算逻辑组;
所述输入模块,用于将外部输入的池化参数发送给所述映射逻辑单元;将外部通过一输入通道而输入的特征图发送给所述映射逻辑单元;
所述映射逻辑单元,用于维护映射关系,所述映射关系中的任一特征图来源均对应有输入通道、输出通道和池化计算单元;将接收到的每一个池化参数解析后发送给所述控制逻辑单元,基于解析后的每一个池化参数更新所述映射关系;针对接收到的每一个特征图:根据当前特征图的输入通道识别所述当前特征图的目标特征图来源,将所述当前特征图映射至所述目标特征图来源对应的一池化计算单元中;
所述控制逻辑单元,用于针对接收到的每一个池化参数:在所述池化计算逻辑组中配置与当前池化参数相对应的至少一个池化计算单元;
所述池化计算逻辑组中的每一个池化计算单元,均用于将映射来的每一个特征图进行池化计算处理后输出至所述池化结果输出模块;
所述池化结果输出模块,用于根据所述映射关系,将接收到的每一个处理后的特征图通过其特征图来源对应的输出通道输出。
进一步地,所述池化参数包括:feature map size(特征图大小)、kernel size(内核大小)、stride size(步长)、pad size(焊盘大小)中的任意一种或多种。
进一步地,所述池化参数的取值满足公式一;
所述公式一包括:
OUT=(A-B+2×C)/D+1
其中,OUT为正整数;A为feature map size,A=2N,其中N为正整数;B为kernelsize,B=2或3;C为pad size,C=0、1或2;D为stride size,D=1、2或3。
进一步地,所述池化计算逻辑组中的每一个池化计算单元,具体用于针对映射来的每一个特征图:n≠0时,在当前特征图的外围增加n圈像素点,且增加的每一个像素点的像素值均为0,其中,n为pad size。
进一步地,所述控制逻辑单元,具体用于根据所述当前池化参数、预设卷积神经网络模型的网络结构、所述网络结构的特定层,在所述池化计算逻辑组中配置与所述当前池化参数相对应的至少一个池化计算单元。
另一方面,本发明提供了一种基于上述任一所述卷积神经网络池化单元的池化计算方法,包括:
通过所述映射逻辑单元维护映射关系,所述映射关系中的任一特征图来源均对应有输入通道、输出通道和池化计算单元;
通过所述输入模块将外部输入的池化参数发送给所述映射逻辑单元;
通过所述映射逻辑单元将接收到的每一个池化参数解析后发送给所述控制逻辑单元,基于解析后的每一个池化参数更新所述映射关系;
通过所述控制逻辑单元针对接收到的每一个池化参数:在所述池化计算逻辑组中配置与当前池化参数相对应的至少一个池化计算单元;
通过所述输入模块将外部通过一输入通道而输入的特征图发送给所述映射逻辑单元;
通过所述映射逻辑单元针对接收到的每一个特征图:根据当前特征图的输入通道识别所述当前特征图的目标特征图来源,将所述当前特征图映射至所述目标特征图来源对应的一池化计算单元中;
通过所述池化计算逻辑组中的每一个池化计算单元,将映射来的每一个特征图进行池化计算处理后输出至所述池化结果输出模块;
通过所述池化结果输出模块根据所述映射关系,将接收到的每一个处理后的特征图通过其特征图来源对应的输出通道输出。
进一步地,所述池化参数包括:feature map size、kernel size、stride size、pad size中的任意一种或多种。
进一步地,所述池化参数的取值满足公式一;
所述公式一包括:
OUT=(A-B+2×C)/D+1
其中,OUT为正整数;A为feature map size,A=2N,其中N为正整数;B为kernelsize,B=2或3;C为pad size,C=0、1或2;D为stride size,D=1、2或3。
进一步地,该池化计算方法还包括:通过所述池化计算逻辑组中的每一个池化计算单元,针对映射来的每一个特征图:n≠0时,在当前特征图的外围增加n圈像素点,且增加的每一个像素点的像素值均为0,其中,n为pad size。
进一步地,所述在所述池化计算逻辑组中配置与当前池化参数相对应的至少一个池化计算单元,包括:根据所述当前池化参数、预设卷积神经网络模型的网络结构、所述网络结构的特定层,在所述池化计算逻辑组中配置与所述当前池化参数相对应的至少一个池化计算单元。
本发明提供了一种卷积神经网络池化单元及池化计算方法,池化单元独立于计算单元,包括输入模块、池化资源池模块和池化结果输出模块。输入模块将待解析的池化参数、待池化的特征图发送给池化资源池模块。池化资源池模块解析池化参数,根据解析出的池化参数配置相应池化计算单元;基于输入通道识别特征图来源以将特征图映射至一池化计算单元中;基于池化计算单元将映射来的特征图进行池化计算处理后输出。池化结果输出模块将处理后的特征图通过相应输出通道输出。池化单元独立设计且可通过配置不同池化参数来重新定义池化电路的功能。因此,本发明能够提高池化单元的通用性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的一种卷积神经网络池化单元的示意图;
图2是本发明一实施例提供的一种基于卷积神经网络池化单元的池化计算方法的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供了一种卷积神经网络池化单元,所述卷积神经网络池化单元独立于卷积神经网络计算单元,可以包括:
输入模块101、池化资源池模块102、池化结果输出模块103;
所述池化资源池模块102包括:映射逻辑单元1021、控制逻辑单元1022、池化计算逻辑组1023;
所述输入模块101,用于将外部输入的池化参数发送给所述映射逻辑单元1021;将外部通过一输入通道而输入的特征图发送给所述映射逻辑单元1021;
所述映射逻辑单元1021,用于维护映射关系,所述映射关系中的任一特征图来源均对应有输入通道、输出通道和池化计算单元;将接收到的每一个池化参数解析后发送给所述控制逻辑单元1022,基于解析后的每一个池化参数更新所述映射关系;针对接收到的每一个特征图:根据当前特征图的输入通道识别所述当前特征图的目标特征图来源,将所述当前特征图映射至所述目标特征图来源对应的一池化计算单元中;
所述控制逻辑单元1022,用于针对接收到的每一个池化参数:在所述池化计算逻辑组1023中配置与当前池化参数相对应的至少一个池化计算单元;
所述池化计算逻辑组1023中的每一个池化计算单元,均用于将映射来的每一个特征图进行池化计算处理后输出至所述池化结果输出模块103;
所述池化结果输出模块103,用于根据所述映射关系,将接收到的每一个处理后的特征图通过其特征图来源对应的输出通道输出。
本发明实施例提供了一种卷积神经网络池化单元,池化单元独立于计算单元,包括输入模块、池化资源池模块和池化结果输出模块。输入模块将待解析的池化参数、待池化的特征图发送给池化资源池模块。池化资源池模块解析池化参数,根据解析出的池化参数配置相应池化计算单元;基于输入通道识别特征图来源以将特征图映射至一池化计算单元中;基于池化计算单元将映射来的特征图进行池化计算处理后输出。池化结果输出模块将处理后的特征图通过相应输出通道输出。池化单元独立设计且可通过配置不同池化参数来重新定义池化电路的功能。因此,本发明实施例能够提高池化单元的通用性。
详细地,对于卷积神经网络,池化层一般连接在卷积层之后,可对特征图进行二次特征提取,以起到降低特征图的分辨率、减少数据规模、简化网络结构的作用。池化操作是一种模糊的滤波变化,可增强网络自身抗空间扭曲的能力。
本发明实施例中,选择池化资源池独立于卷积神经网络计算单元设计,这一设计方式可以有效降低卷积神经网络计算单元设计的复杂度,同时在池化计算时,资源池中资源可得到更充分的利用。
可以看出,独立设计的池化单元可以涉及三大块儿,分别为特征图和参数输入模块、池化资源池模块和池化结果输出模块。其中,特征图和参数输入模块主要用于缓存待池化的特征图和需要配置的池化参数;池化资源池主要用于参数解析、数据映射和池化计算;池化计算完成得到的结果输出至池化结果输出模块。
本发明实施例中,输入模块可以缓存待池化的特征图和需要配置的池化参数。
本发明实施例中,池化资源池中主要包含映射逻辑、控制逻辑、池化计算逻辑组,映射逻辑接收来自输入模块的输入数据,解析池化参数,通过输入通道识别特征图来源,然后将输入的特征图映射至池化计算逻辑计算。
在本发明一个实施例中,所述池化参数包括:feature map size、kernel size、stride size、pad size中的任意一种或多种。
在本发明一个实施例中,所述池化参数的取值满足下述公式(1);
OUT=(A-B+2×C)/D+1 (1)
其中,OUT为正整数;A为feature map size,A=2N,其中N为正整数;B为kernelsize,B=2或3;C为pad size,C=0、1或2;D为stride size,D=1、2或3。
可以看出,池化资源池中的池化计算组可以包含以下多种情况,即feature mapsize=2N,其中N为大于0的正整数,kernel size=2或3,stride size=1、2或3,pad size=0、1或2。
优选地,以上参数组合符合池化输出特征图特征点列数为正整数,具体的符合OUT=(feature map size-kernel size+2×pad size)/stride size+1公式计算结果为正整数。
在本发明一个实施例中,池化资源池中的池化计算组中每种参数组合根据解析后输入参数来配置,配置数量需要根据资源和具体卷积神经网络模型而确定。
在本发明一个实施例中,所述池化计算逻辑组1023中的每一个池化计算单元,具体用于针对映射来的每一个特征图:n≠0时,在当前特征图的外围增加n圈像素点,且增加的每一个像素点的像素值均为0,其中,n为pad size。
详细地,对于pad size非0情况,可以对特征图进行外围补零处理,补零处理的执行还与pad size的具体数值有关。基于这一补零处理,池化计算逻辑可以支持整个特征图分块连续计算。
因此,本发明实施例中,对pad size非0情况下,池化计算逻辑支持整个特征图分块连续计算和不连续数据计算。
在本发明一个实施例中,所述控制逻辑单元1022,具体用于根据所述当前池化参数、预设卷积神经网络模型的网络结构、所述网络结构的特定层,在所述池化计算逻辑组1023中配置与所述当前池化参数相对应的至少一个池化计算单元。
详细地,不同的网络结构和同一网络结构不同层的池化计算存在较大差异,为了节省电路资源和功耗,提高池化单元的通用性,在电路设计时,优选采用通用结构设计。本发明实施例中,可通过配置不同池化参数来重新定义池化电路的功能。
详细地,基于池化参数,可以配置相应池化计算单元的个数,以及所配置的各个池化计算单元的具体参数。
本发明实施例中,池化单元设计可有效应对不同模型和不同层池化计算,有效降低电路设计中资源和功耗浪费,并提高了电路通用性。
综上所述,基于池化单元的池化过程可以为:
参数由输入模块输入至池化资源池,映射逻辑解析参数后,控制逻辑配置池化逻辑组参数和数量;
特征图输入至池化资源池,映射逻辑根据输入接口识别输出特征图的来源,然后送至池化计算组进行池化计算;
池化完成的数据送至池化结果输出模块并根据输入接口映射至对应的输出接口。
本发明实施例中,实现卷积神经网络池化单元时,基于统一池化资源池的实现方式,将池化单元针对卷积神经网络计算单元独立设计,以及通过池化资源池映射逻辑和控制逻辑自动配置池化计算逻辑组,充分利用池化逻辑资源,避免全连接实现的复杂度。因此,本发明实施例可以避免卷积池化强对应的关系,池化层中池化参数不固定,可实现通用性以节约资源。
如图2所示,本发明一个实施例提供了一种基于上述任一所述卷积神经网络池化单元的池化计算方法,可以包括以下步骤:
步骤201:通过所述映射逻辑单元维护映射关系,所述映射关系中的任一特征图来源均对应有输入通道、输出通道和池化计算单元。
步骤202:通过所述输入模块将外部输入的池化参数发送给所述映射逻辑单元。
步骤203:通过所述映射逻辑单元将接收到的每一个池化参数解析后发送给所述控制逻辑单元,基于解析后的每一个池化参数更新所述映射关系。
步骤204:通过所述控制逻辑单元针对接收到的每一个池化参数:在所述池化计算逻辑组中配置与当前池化参数相对应的至少一个池化计算单元。
步骤205:通过所述输入模块将外部通过一输入通道而输入的特征图发送给所述映射逻辑单元。
步骤206:通过所述映射逻辑单元针对接收到的每一个特征图:根据当前特征图的输入通道识别所述当前特征图的目标特征图来源,将所述当前特征图映射至所述目标特征图来源对应的一池化计算单元中。
步骤207:通过所述池化计算逻辑组中的每一个池化计算单元,将映射来的每一个特征图进行池化计算处理后输出至所述池化结果输出模块。
步骤208:通过所述池化结果输出模块根据所述映射关系,将接收到的每一个处理后的特征图通过其特征图来源对应的输出通道输出。
在本发明一个实施例中,所述池化参数包括:feature map size、kernel size、stride size、pad size中的任意一种或多种。
在本发明一个实施例中,所述池化参数的取值满足上述公式(1)。
在本发明一个实施例中,该池化计算方法进一步包括:通过所述池化计算逻辑组中的每一个池化计算单元,针对映射来的每一个特征图:n≠0时,在当前特征图的外围增加n圈像素点,且增加的每一个像素点的像素值均为0,其中,n为pad size。
在本发明一个实施例中,所述在所述池化计算逻辑组中配置与当前池化参数相对应的至少一个池化计算单元,包括:根据所述当前池化参数、预设卷积神经网络模型的网络结构、所述网络结构的特定层,在所述池化计算逻辑组中配置与所述当前池化参数相对应的至少一个池化计算单元。
上述方法内的各单元、模块、组件之间的信息交互、执行过程等内容,由于与本发明产品实施例基于同一构思,具体内容可参见本发明产品实施例中的叙述,此处不再赘述。
综上所述,本发明的各个实施例至少具有如下有益效果:
1、本发明实施例中,提供了一种卷积神经网络池化单元,池化单元独立于计算单元,包括输入模块、池化资源池模块和池化结果输出模块。输入模块将待解析的池化参数、待池化的特征图发送给池化资源池模块。池化资源池模块解析池化参数,根据解析出的池化参数配置相应池化计算单元;基于输入通道识别特征图来源以将特征图映射至一池化计算单元中;基于池化计算单元将映射来的特征图进行池化计算处理后输出。池化结果输出模块将处理后的特征图通过相应输出通道输出。池化单元独立设计且可通过配置不同池化参数来重新定义池化电路的功能。因此,本发明实施例能够提高池化单元的通用性。
2、本发明实施例中,实现卷积神经网络池化单元时,基于统一池化资源池的实现方式,将池化单元针对卷积神经网络计算单元独立设计,以及通过池化资源池映射逻辑和控制逻辑自动配置池化计算逻辑组,充分利用池化逻辑资源,避免全连接实现的复杂度。因此,本发明实施例可以避免卷积池化强对应的关系,池化层中池化参数不固定,可实现通用性以节约资源。
需要说明的是,在本文中,诸如第一和第二之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个······”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同因素。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储在计算机可读取的存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质中。
最后需要说明的是:以上所述仅为本发明的较佳实施例,仅用于说明本发明的技术方案,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所做的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (10)

1.一种卷积神经网络池化单元,其特征在于,所述卷积神经网络池化单元独立于卷积神经网络计算单元,包括:
输入模块、池化资源池模块、池化结果输出模块;
所述池化资源池模块包括:映射逻辑单元、控制逻辑单元、池化计算逻辑组;
所述输入模块,用于将外部输入的池化参数发送给所述映射逻辑单元;将外部通过一输入通道而输入的特征图发送给所述映射逻辑单元;
所述映射逻辑单元,用于维护映射关系,所述映射关系中的任一特征图来源均对应有输入通道、输出通道和池化计算单元;将接收到的每一个池化参数解析后发送给所述控制逻辑单元,基于解析后的每一个池化参数更新所述映射关系;针对接收到的每一个特征图:根据当前特征图的输入通道识别所述当前特征图的目标特征图来源,将所述当前特征图映射至所述目标特征图来源对应的一池化计算单元中;
所述控制逻辑单元,用于针对接收到的每一个池化参数:在所述池化计算逻辑组中配置与当前池化参数相对应的至少一个池化计算单元;
所述池化计算逻辑组中的每一个池化计算单元,均用于将映射来的每一个特征图进行池化计算处理后输出至所述池化结果输出模块;
所述池化结果输出模块,用于根据所述映射关系,将接收到的每一个处理后的特征图通过其特征图来源对应的输出通道输出。
2.根据权利要求1所述的卷积神经网络池化单元,其特征在于,
所述池化参数包括:特征图大小feature map size、内核大小kernel size、步长stride size、焊盘大小pad size中的任意一种或多种。
3.根据权利要求2所述的卷积神经网络池化单元,其特征在于,
所述池化参数的取值满足公式一;
所述公式一包括:
OUT=(A-B+2×C)/D+1
其中,OUT为正整数;A为feature map size,A=2N,其中N为正整数;B为kernel size,B=2或3;C为pad size,C=0、1或2;D为stride size,D=1、2或3。
4.根据权利要求2所述的卷积神经网络池化单元,其特征在于,
所述池化计算逻辑组中的每一个池化计算单元,具体用于针对映射来的每一个特征图:n≠0时,在当前特征图的外围增加n圈像素点,且增加的每一个像素点的像素值均为0,其中,n为pad size。
5.根据权利要求1至4中任一所述的卷积神经网络池化单元,其特征在于,
所述控制逻辑单元,具体用于根据所述当前池化参数、预设卷积神经网络模型的网络结构、所述网络结构的特定层,在所述池化计算逻辑组中配置与所述当前池化参数相对应的至少一个池化计算单元。
6.一种基于权利要求1至5中任一所述卷积神经网络池化单元的池化计算方法,其特征在于,包括:
通过所述映射逻辑单元维护映射关系,所述映射关系中的任一特征图来源均对应有输入通道、输出通道和池化计算单元;
通过所述输入模块将外部输入的池化参数发送给所述映射逻辑单元;
通过所述映射逻辑单元将接收到的每一个池化参数解析后发送给所述控制逻辑单元,基于解析后的每一个池化参数更新所述映射关系;
通过所述控制逻辑单元针对接收到的每一个池化参数:在所述池化计算逻辑组中配置与当前池化参数相对应的至少一个池化计算单元;
通过所述输入模块将外部通过一输入通道而输入的特征图发送给所述映射逻辑单元;
通过所述映射逻辑单元针对接收到的每一个特征图:根据当前特征图的输入通道识别所述当前特征图的目标特征图来源,将所述当前特征图映射至所述目标特征图来源对应的一池化计算单元中;
通过所述池化计算逻辑组中的每一个池化计算单元,将映射来的每一个特征图进行池化计算处理后输出至所述池化结果输出模块;
通过所述池化结果输出模块根据所述映射关系,将接收到的每一个处理后的特征图通过其特征图来源对应的输出通道输出。
7.根据权利要求6所述的池化计算方法,其特征在于,
所述池化参数包括:特征图大小feature map size、内核大小kernel size、步长stride size、焊盘大小pad size中的任意一种或多种。
8.根据权利要求7所述的池化计算方法,其特征在于,
所述池化参数的取值满足公式一;
所述公式一包括:
OUT=(A-B+2×C)/D+1
其中,OUT为正整数;A为feature map size,A=2N,其中N为正整数;B为kernel size,B=2或3;C为pad size,C=0、1或2;D为stride size,D=1、2或3。
9.根据权利要求7所述的池化计算方法,其特征在于,
进一步包括:通过所述池化计算逻辑组中的每一个池化计算单元,针对映射来的每一个特征图:n≠0时,在当前特征图的外围增加n圈像素点,且增加的每一个像素点的像素值均为0,其中,n为pad size。
10.根据权利要求6至9中任一所述的池化计算方法,其特征在于,
所述在所述池化计算逻辑组中配置与当前池化参数相对应的至少一个池化计算单元,包括:根据所述当前池化参数、预设卷积神经网络模型的网络结构、所述网络结构的特定层,在所述池化计算逻辑组中配置与所述当前池化参数相对应的至少一个池化计算单元。
CN201810818971.5A 2018-07-24 2018-07-24 一种卷积神经网络池化单元及池化计算方法 Pending CN109002885A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810818971.5A CN109002885A (zh) 2018-07-24 2018-07-24 一种卷积神经网络池化单元及池化计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810818971.5A CN109002885A (zh) 2018-07-24 2018-07-24 一种卷积神经网络池化单元及池化计算方法

Publications (1)

Publication Number Publication Date
CN109002885A true CN109002885A (zh) 2018-12-14

Family

ID=64596859

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810818971.5A Pending CN109002885A (zh) 2018-07-24 2018-07-24 一种卷积神经网络池化单元及池化计算方法

Country Status (1)

Country Link
CN (1) CN109002885A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931927A (zh) * 2020-10-19 2020-11-13 翱捷智能科技(上海)有限公司 一种在npu中减少计算资源占用的方法及装置
US11188796B2 (en) 2019-10-01 2021-11-30 Samsung Electronics Co., Ltd. Method and apparatus with data processing
CN114008678A (zh) * 2019-05-31 2022-02-01 Oppo广东移动通信有限公司 视频理解神经网络系统及其使用方法
CN114372012A (zh) * 2021-12-21 2022-04-19 中国科学院深圳先进技术研究院 一种通用、可配置的高能效池化计算单行输出系统和方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355244A (zh) * 2016-08-30 2017-01-25 深圳市诺比邻科技有限公司 卷积神经网络的构建方法及系统
WO2017185336A1 (zh) * 2016-04-29 2017-11-02 北京中科寒武纪科技有限公司 用于执行pooling运算的装置和方法
CN107329733A (zh) * 2016-04-29 2017-11-07 北京中科寒武纪科技有限公司 用于执行pooling运算的装置和方法
CN107368889A (zh) * 2017-06-01 2017-11-21 北京大学 基于阻变存储器三维交叉阵列的卷积、池化和激活电路
TWI607389B (zh) * 2017-02-10 2017-12-01 耐能股份有限公司 卷積神經網路的池化運算裝置及方法
CN107766292A (zh) * 2017-10-30 2018-03-06 中国科学院计算技术研究所 一种神经网络处理方法及处理系统
CN107862374A (zh) * 2017-10-30 2018-03-30 中国科学院计算技术研究所 基于流水线的神经网络处理系统和处理方法
CN108009631A (zh) * 2017-11-30 2018-05-08 睿视智觉(深圳)算法技术有限公司 一种基于fpga的vgg-16通用处理模块及其控制方法
CN108304925A (zh) * 2018-01-08 2018-07-20 中国科学院计算技术研究所 一种池化计算装置及方法
CN108304926A (zh) * 2018-01-08 2018-07-20 中国科学院计算技术研究所 一种适用于神经网络的池化计算装置及方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017185336A1 (zh) * 2016-04-29 2017-11-02 北京中科寒武纪科技有限公司 用于执行pooling运算的装置和方法
CN107329733A (zh) * 2016-04-29 2017-11-07 北京中科寒武纪科技有限公司 用于执行pooling运算的装置和方法
CN106355244A (zh) * 2016-08-30 2017-01-25 深圳市诺比邻科技有限公司 卷积神经网络的构建方法及系统
TWI607389B (zh) * 2017-02-10 2017-12-01 耐能股份有限公司 卷積神經網路的池化運算裝置及方法
CN107368889A (zh) * 2017-06-01 2017-11-21 北京大学 基于阻变存储器三维交叉阵列的卷积、池化和激活电路
CN107766292A (zh) * 2017-10-30 2018-03-06 中国科学院计算技术研究所 一种神经网络处理方法及处理系统
CN107862374A (zh) * 2017-10-30 2018-03-30 中国科学院计算技术研究所 基于流水线的神经网络处理系统和处理方法
CN108009631A (zh) * 2017-11-30 2018-05-08 睿视智觉(深圳)算法技术有限公司 一种基于fpga的vgg-16通用处理模块及其控制方法
CN108304925A (zh) * 2018-01-08 2018-07-20 中国科学院计算技术研究所 一种池化计算装置及方法
CN108304926A (zh) * 2018-01-08 2018-07-20 中国科学院计算技术研究所 一种适用于神经网络的池化计算装置及方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114008678A (zh) * 2019-05-31 2022-02-01 Oppo广东移动通信有限公司 视频理解神经网络系统及其使用方法
US11188796B2 (en) 2019-10-01 2021-11-30 Samsung Electronics Co., Ltd. Method and apparatus with data processing
CN111931927A (zh) * 2020-10-19 2020-11-13 翱捷智能科技(上海)有限公司 一种在npu中减少计算资源占用的方法及装置
CN111931927B (zh) * 2020-10-19 2021-02-19 翱捷智能科技(上海)有限公司 一种在npu中减少计算资源占用的方法及装置
CN114372012A (zh) * 2021-12-21 2022-04-19 中国科学院深圳先进技术研究院 一种通用、可配置的高能效池化计算单行输出系统和方法
CN114372012B (zh) * 2021-12-21 2024-02-20 中国科学院深圳先进技术研究院 一种通用、可配置的高能效池化计算单行输出系统和方法

Similar Documents

Publication Publication Date Title
CN109002885A (zh) 一种卷积神经网络池化单元及池化计算方法
CN107103113B (zh) 面向神经网络处理器的自动化设计方法、装置及优化方法
WO2021004366A1 (zh) 基于结构化剪枝和低比特量化的神经网络加速器及方法
US20210065058A1 (en) Method, apparatus, device and readable medium for transfer learning in machine learning
CN106447034B (zh) 一种基于数据压缩的神经网络处理器、设计方法、芯片
CN103019656B (zh) 可动态重构的多级并行单指令多数据阵列处理系统
CN107526645B (zh) 一种通信优化方法及系统
CN106951926A (zh) 一种混合架构的深度学习系统方法及装置
CN108053028A (zh) 数据定点化处理方法、装置、电子设备及计算机存储介质
CN110322001A (zh) 深度学习加速器及加快深度学习操作的方法
CN107451659A (zh) 用于位宽分区的神经网络加速器及其实现方法
CN108804630B (zh) 一种面向行业应用的大数据智能分析服务系统
CN104424018B (zh) 分布式计算事务处理方法及装置
CN109871949A (zh) 卷积神经网络加速器及加速方法
US11468145B1 (en) Storage of input values within core of neural network inference circuit
WO2020207393A1 (zh) 算子运算调度方法和装置
CN112529165B (zh) 深度神经网络剪枝方法、装置、终端及存储介质
CN107092961B (zh) 一种基于模式频率统计编码的神经网络处理器及设计方法
CN109754359A (zh) 一种应用于卷积神经网络的池化处理的方法及系统
CN109460821A (zh) 一种神经网络压缩方法、装置、电子设备及存储介质
CN109658330A (zh) 一种发色调整方法及装置
CN109409509A (zh) 一种针对基于fpga的卷积神经网络加速器的数据结构和加速方法
CN110163350A (zh) 一种计算装置及方法
CN109299163A (zh) 一种基于卷积神经网络的降水数据的插值方法及装置
CN108304925A (zh) 一种池化计算装置及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20181214

RJ01 Rejection of invention patent application after publication