CN107832832A - 卷积神经网络的池化运算方法及装置 - Google Patents

卷积神经网络的池化运算方法及装置 Download PDF

Info

Publication number
CN107832832A
CN107832832A CN201710983546.7A CN201710983546A CN107832832A CN 107832832 A CN107832832 A CN 107832832A CN 201710983546 A CN201710983546 A CN 201710983546A CN 107832832 A CN107832832 A CN 107832832A
Authority
CN
China
Prior art keywords
result
shift
pond
weighted factor
weighted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710983546.7A
Other languages
English (en)
Inventor
高灵波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gree Electric Appliances Inc of Zhuhai
Original Assignee
Gree Electric Appliances Inc of Zhuhai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gree Electric Appliances Inc of Zhuhai filed Critical Gree Electric Appliances Inc of Zhuhai
Priority to CN201710983546.7A priority Critical patent/CN107832832A/zh
Publication of CN107832832A publication Critical patent/CN107832832A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种卷积神经网络的池化运算方法及装置。其中,该方法包括:对多个图像数据进行求和运算,得到求和结果;对所述求和结果进行移位运算,得到移位结果;根据所述图像数据的数量以及所述移位运算中移位的位数,确定加权因子;根据所述加权因子,对所述移位结果进行加权运算,得到池化结果。本发明解决了由于现有技术的池化运算需进行除法运算造成的耗能较高的技术问题。

Description

卷积神经网络的池化运算方法及装置
技术领域
本发明涉及图像处理领域,具体而言,涉及一种卷积神经网络的池化运算方法及装置。
背景技术
目前随着人工智能的火热发展,对于图像的处理需求正在逐步的增大。以平均池化运算而言,目前的处理方式是先进行求和,再对求和结果进行除法运算。然而,除法运算需耗费较多的处理器效能,容易造成硬件资源的负担过重。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种卷积神经网络的池化运算方法及装置,以至少解决由于现有技术的池化运算需进行除法运算造成的耗能较高的技术问题。
根据本发明实施例的一个方面,提供了一种卷积神经网络的池化运算方法,包括:对多个图像数据进行求和运算,得到求和结果;对上述求和结果进行移位运算,得到移位结果;根据上述图像数据的数量以及上述移位运算中移位的位数,确定加权因子;根据上述加权因子,对上述移位结果进行加权运算,得到池化结果。
可选地,上述根据上述加权因子,对上述移位结果进行加权运算包括:计算加权因子与上述移位结果的乘积;将上述乘积作为上述池化结果。
可选地,上述加权因子与上述移位运算中移位的位数呈正比,上述加权因子与上述图像数据的数量呈反比。
可选地,上述根据上述图像数据的数量以及上述移位运算中移位的位数,确定加权因子包括:根据上述图像数据的数量、上述移位运算中移位的位数以及滤波器系数,确定上述加权因子;其中,上述滤波器系数为下一层卷积层的滤波器的系数。
可选地,上述加权因子与上述滤波器系数呈正比。
可选地,对多个图像数据进行求和运算,得到求和结果之前,上述方法还包括:获取待处理图像;将上述待处理图像转化为尺寸不同的至少一个子图像;从至少一个子图像中读取的上述图像数据。
根据本发明实施例的另一方面,还提供了一种卷积神经网络的池化运算装置,包括:第一运算单元,用于对多个图像数据进行求和运算,得到求和结果;第二运算单元,用于对上述求和结果进行移位运算,得到移位结果;处理单元,用于根据上述图像数据的数量以及上述移位运算中移位的位数,确定加权因子;第三运算单元,用于根据上述加权因子,对上述移位结果进行加权运算,得到池化结果。
可选地,上述处理单元,用于根据上述图像数据的数量、上述移位运算中移位的位数以及滤波器系数,确定上述加权因子;其中,上述滤波器系数为下一层卷积层的滤波器的系数。
可选地,第三运算单元,用于执行以下步骤根据上述加权因子,对上述移位结果进行加权运算:计算加权因子与上述移位结果的乘积;将上述乘积作为上述池化结果。
根据本发明实施例的另一方面,还提供了一种存储介质,上述存储介质包括存储的程序,其中,上述程序执行上述卷积神经网络的池化运算方法。
在本发明实施例中,采用对多个图像数据进行求和运算,得到求和结果;对求和结果进行移位运算,得到移位结果;根据图像数据的数量以及移位运算中移位的位数,确定加权因子;根据加权因子,对移位结果进行加权运算,得到池化结果的方式,通过仅进行求和运算,以及移位运算和加权运算,而得到最终的池化结果,达到了无需做除法运算也可得到池化结果的目的,从而实现了降低处理器能耗的技术效果,进而解决了由于现有技术的池化运算需进行除法运算造成的耗能较高的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种可选的卷积神经网络的池化运算方法的流程示意图;
图2是根据本发明实施例的一种可选的卷积神经网络的池化运算装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例1
根据本发明实施例,提供了一种卷积神经网络的池化运算方法的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图1是根据本发明实施例的卷积神经网络的池化运算方法,如图1所示,该方法包括如下步骤:
步骤S102,对多个图像数据进行求和运算,得到求和结果。
本申请上述步骤S102中,在卷积层中,在对多个数据进行卷积运算后,生成上述多个图像数据,该多个图像数据作为池化层的输入数据。在进行池化运算的过程中,对该多个图像数据进行求和运算,以得到求和结果。
步骤S104,对求和结果进行移位运算,得到移位结果。
本申请上述步骤S104中,对求和结果进行移位运算可以为但不限于向右移位的运算,移位运算中向右移位的位数可以根据池化窗的规模进行调整,向右移位一个位数相当于除以2,向右移位的位数为n,则相当于除以2的n次方,需要说明的是,2的n次方不超过池化窗的规模。
步骤S106,根据图像数据的数量以及移位运算中移位的位数,确定加权因子。
本实施例上述步骤S106中,加权因子与移位运算中移位的位数呈正比,加权因子与图像数据的数量呈反比。其中,图像数据的数量根据池化窗的规模而定。
可选地,根据图像数据的数量以及移位运算中移位的位数,确定加权因子包括:根据图像数据的数量、移位运算中移位的位数以及滤波器系数,确定加权因子;其中,滤波器系数为下一层卷积层的滤波器的系数。
可选地,加权因子与滤波器系数呈正比。
步骤S108,根据加权因子,对移位结果进行加权运算,得到池化结果。
本实施例上述步骤S108中,对移位结果进行加权运算包括:计算加权因子与移位结果的乘积;将乘积作为池化结果。
例如,有9个图像数据需进行池化运算,先对该9个图像数据进行求和运算得到求和结果,为了避免该求和结果发生溢位的问题,可以对该求和结果进行移位运算,例如将该求和结果向右移两位,得到移位结果,即相当于将该求和结果除以4,再将该移位结果乘以加权因子,得到最终的池化结果。由于移位运算和加权运算不会占用较多的资源,因此,通过进行移位运算和加权运算,能够避免进行除法运算,提高了池化运算的效能。
通过上述步骤,仅进行求和运算,以及移位运算和加权运算,而得到最终的池化结果,达到了无需做除法运算也可得到池化结果的目的,从而实现了降低处理器能耗的技术效果,进而解决了由于现有技术的池化运算需进行除法运算造成的耗能较高的技术问题。
可选地,对多个图像数据进行求和运算,得到求和结果之前,方法还包括:获取待处理图像;将待处理图像转化为尺寸不同的至少一个子图像;从至少一个子图像中读取的图像数据。
在步骤S102之前,本实施例的多个图像数据,是在获取待处理图像;将待处理图像转化为尺寸不同的至少一个子图像;从至少一个子图像中读取的。例如,对于一个给定尺寸为M1×M2大小的图像(即待处理图像),将给定的M1×M2大小的图像进行N等级缩小成为不同尺寸的图像(即至少一个子图像),即尺寸为M11×M12的子图像、M13×M31的子图像,……,M1n×Mn1的子图像。进而,从各个子图像中读取图像数据。
实施例2
本发明实施例还提供了一种卷积神经网络的池化运算装置。需要说明的是,该实施例的卷积神经网络的池化运算装置可以用于执行本发明实施例的卷积神经网络的池化运算方法。
图2是根据本发明实施例的一种卷积神经网络的池化运算装置的示意图。如图2所示,该卷积神经网络的池化运算装置包括:第一运算单元20、第二运算单元22、处理单元24以及第三运算单元26。
其中,第一运算单元20,用于对多个图像数据进行求和运算,得到求和结果;
第二运算单元22,用于对所述求和结果进行移位运算,得到移位结果;
处理单元24,用于根据所述图像数据的数量以及所述移位运算中移位的位数,确定加权因子;
第三运算单元26,用于根据所述加权因子,对所述移位结果进行加权运算,得到池化结果。
可选地,所述处理单元24,用于根据所述图像数据的数量、所述移位运算中移位的位数以及滤波器系数,确定所述加权因子;其中,所述滤波器系数为下一层卷积层的滤波器的系数。
可选地,第三运算单元26,用于执行以下步骤根据所述加权因子,对所述移位结果进行加权运算:
计算加权因子与所述移位结果的乘积;将所述乘积作为所述池化结果。
可选地,所述加权因子与所述移位运算中移位的位数呈正比,所述加权因子与所述图像数据的数量呈反比。
可选地,所述加权因子与所述滤波器系数呈正比。
可选地,本实施例的卷积神经网络的池化运算装置,还包括:获取单元,用于获取待处理图像;转化单元,用于将所述待处理图像转化为尺寸不同的至少一个子图像;读取单元,用于从至少一个子图像中读取的所述图像数据。
本发明实施例还提供了一种终端。需要说明的是,该实施例的终端可以用于执行本发明实施例的卷积神经网络的池化运算方法。该终端包括:
运算电路,用于对多个图像数据进行求和运算,得到求和结果;对所述求和结果进行移位运算,得到移位结果;处理器,所述处理器运行程序,其中,所述程序运行时对于从所述运算电路输出的数据执行如下处理步骤:根据所述图像数据的数量以及所述移位运算中移位的位数,确定加权因子;所述运算电路,还用于根据所述加权因子,对所述移位结果进行加权运算,得到池化结果。
本发明实施例还提供了一种存储介质,所述存储介质包括存储的程序,其中,所述程序上述卷积神经网络的池化运算方法。
在本发明实施例中,采用对多个图像数据进行求和运算,得到求和结果;对求和结果进行移位运算,得到移位结果;根据图像数据的数量以及移位运算中移位的位数,确定加权因子;根据加权因子,对移位结果进行加权运算,得到池化结果的方式,通过仅进行求和运算,以及移位运算和加权运算,而得到最终的池化结果,达到了无需做除法运算也可得到池化结果的目的,从而实现了降低处理器能耗的技术效果,进而解决了由于现有技术的池化运算需进行除法运算造成的耗能较高的技术问题。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种卷积神经网络的池化运算方法,其特征在于,包括:
对多个图像数据进行求和运算,得到求和结果;
对所述求和结果进行移位运算,得到移位结果;
根据所述图像数据的数量以及所述移位运算中移位的位数,确定加权因子;
根据所述加权因子,对所述移位结果进行加权运算,得到池化结果。
2.根据权利要求1所述的方法,其特征在于,所述根据所述加权因子,对所述移位结果进行加权运算包括:
计算加权因子与所述移位结果的乘积;
将所述乘积作为所述池化结果。
3.根据权利要求1所述的方法,其特征在于,所述加权因子与所述移位运算中移位的位数呈正比,所述加权因子与所述图像数据的数量呈反比。
4.根据权利要求1所述的方法,其特征在于,所述根据所述图像数据的数量以及所述移位运算中移位的位数,确定加权因子包括:
根据所述图像数据的数量、所述移位运算中移位的位数以及滤波器系数,确定所述加权因子;
其中,所述滤波器系数为下一层卷积层的滤波器的系数。
5.根据权利要求4所述的方法,其特征在于,所述加权因子与所述滤波器系数呈正比。
6.根据权利要求1至5中任一项所述的方法,其特征在于,对多个图像数据进行求和运算,得到求和结果之前,所述方法还包括:
获取待处理图像;
将所述待处理图像转化为尺寸不同的至少一个子图像;
从至少一个子图像中读取的所述图像数据。
7.一种卷积神经网络的池化运算装置,其特征在于,包括:
第一运算单元,用于对多个图像数据进行求和运算,得到求和结果;
第二运算单元,用于对所述求和结果进行移位运算,得到移位结果;
处理单元,用于根据所述图像数据的数量以及所述移位运算中移位的位数,确定加权因子;
第三运算单元,用于根据所述加权因子,对所述移位结果进行加权运算,得到池化结果。
8.根据权利要求7所述的装置,其特征在于,所述处理单元,用于根据所述图像数据的数量、所述移位运算中移位的位数以及滤波器系数,确定所述加权因子;其中,所述滤波器系数为下一层卷积层的滤波器的系数。
9.根据权利要求7所述的装置,其特征在于,所述第三运算单元,用于执行以下步骤根据所述加权因子,对所述移位结果进行加权运算:
计算加权因子与所述移位结果的乘积;将所述乘积作为所述池化结果。
10.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,所述程序执行权利要求1至6中任意一项所述的卷积神经网络的池化运算方法。
CN201710983546.7A 2017-10-19 2017-10-19 卷积神经网络的池化运算方法及装置 Pending CN107832832A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710983546.7A CN107832832A (zh) 2017-10-19 2017-10-19 卷积神经网络的池化运算方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710983546.7A CN107832832A (zh) 2017-10-19 2017-10-19 卷积神经网络的池化运算方法及装置

Publications (1)

Publication Number Publication Date
CN107832832A true CN107832832A (zh) 2018-03-23

Family

ID=61648596

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710983546.7A Pending CN107832832A (zh) 2017-10-19 2017-10-19 卷积神经网络的池化运算方法及装置

Country Status (1)

Country Link
CN (1) CN107832832A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019184823A1 (zh) * 2018-03-26 2019-10-03 华为技术有限公司 基于卷积神经网络模型的图像处理方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778702A (zh) * 2015-04-15 2015-07-15 中国科学院自动化研究所 基于深度学习的图像隐写检测方法
CN105302520A (zh) * 2015-10-16 2016-02-03 北京中科汉天下电子技术有限公司 一种倒数运算的求解方法及系统
CN106940815A (zh) * 2017-02-13 2017-07-11 西安交通大学 一种可编程卷积神经网络协处理器ip核

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778702A (zh) * 2015-04-15 2015-07-15 中国科学院自动化研究所 基于深度学习的图像隐写检测方法
CN105302520A (zh) * 2015-10-16 2016-02-03 北京中科汉天下电子技术有限公司 一种倒数运算的求解方法及系统
CN106940815A (zh) * 2017-02-13 2017-07-11 西安交通大学 一种可编程卷积神经网络协处理器ip核

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DAWEI LI,XIAOLONG WANG,DEGUANG KONG: "DeepRebirth: Accelerating Deep Neural Network Execution on Mobile Devices", 《ARXIV》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019184823A1 (zh) * 2018-03-26 2019-10-03 华为技术有限公司 基于卷积神经网络模型的图像处理方法和装置

Similar Documents

Publication Publication Date Title
CN106611216A (zh) 基于神经网络的计算方法及装置
CN107145939A (zh) 一种神经网络优化方法及装置
CN107862374A (zh) 基于流水线的神经网络处理系统和处理方法
CN107977414A (zh) 基于深度学习的图像风格迁移方法及其系统
CN106682734A (zh) 一种提升卷积神经网络泛化能力的方法及装置
CN108665063B (zh) 用于bnn硬件加速器的双向并行处理卷积加速系统
CN111176820B (zh) 一种基于深度神经网络的边缘计算任务的分配方法及装置
CN109062611A (zh) 神经网络处理装置及其执行向量缩放指令的方法
CN107977704A (zh) 权重数据存储方法和基于该方法的神经网络处理器
CN107918794A (zh) 基于计算阵列的神经网络处理器
CN107203808B (zh) 一种二值卷积装置及相应的二值卷积神经网络处理器
CN112084038B (zh) 神经网络的内存分配方法及装置
CN109087269A (zh) 弱光图像增强方法及装置
CN111542839B (zh) 一种反卷积神经网络的硬件加速方法、装置和电子设备
CN111815534A (zh) 实时皮肤妆容迁移方法、装置、电子设备和可读存储介质
CN107766932A (zh) 基于神经网络的图像处理方法及装置
CN107749044A (zh) 图像信息的池化方法及装置
CN107944545A (zh) 应用于神经网络的计算方法及计算装置
US11727256B2 (en) Hardware architecture for processing data in neural network
CN109214508B (zh) 信号处理的系统和方法
CN108629406A (zh) 用于卷积神经网络的运算装置
CN110399591A (zh) 基于卷积神经网络的数据处理方法和装置
CN107169566A (zh) 动态神经网络模型训练方法和装置
CN110009644B (zh) 一种特征图行像素分段的方法和装置
CN108122009A (zh) 基于深度学习的珠宝图片分类系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination