CN106447030B - 卷积神经网络的计算资源优化方法及系统 - Google Patents

卷积神经网络的计算资源优化方法及系统 Download PDF

Info

Publication number
CN106447030B
CN106447030B CN201610779212.3A CN201610779212A CN106447030B CN 106447030 B CN106447030 B CN 106447030B CN 201610779212 A CN201610779212 A CN 201610779212A CN 106447030 B CN106447030 B CN 106447030B
Authority
CN
China
Prior art keywords
sub
map
maps
size
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610779212.3A
Other languages
English (en)
Other versions
CN106447030A (zh
Inventor
谌璟
宁迪浩
孙庆新
关艳峰
梁波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Autocruis Technology Co ltd
Original Assignee
Shenzhen Nearbylink Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Nearbylink Technology Co ltd filed Critical Shenzhen Nearbylink Technology Co ltd
Priority to CN201610779212.3A priority Critical patent/CN106447030B/zh
Publication of CN106447030A publication Critical patent/CN106447030A/zh
Application granted granted Critical
Publication of CN106447030B publication Critical patent/CN106447030B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Complex Calculations (AREA)

Abstract

本发明公开了一种卷积神经网络的计算资源优化方法,所述卷积神经网络的计算资源优化方法包括以下步骤:将卷积神经网络的输入Map拆分为包括若干个子Map的子Map矩阵,其中,所述输入Map的尺寸为H×W,H>0,W>0;对每个所述子Map进行单独的卷积操作以得到每个所述子Map的卷积操作的计算结果;根据全部所述子Map的卷积操作的计算结果原位拼接成所述输入Map的卷积操作的计算结果,其中,原位拼接指将所述子Map的卷积操作的结果放在所述子Map在所述输入Map中对应的位置。本发明还公开了一种卷积神经网络的计算资源优化系统。本发明的技术方案可以实现节约计算资源和提高计算实时性的目的。

Description

卷积神经网络的计算资源优化方法及系统
技术领域
本发明涉及机器学习(Machine Learning,ML)和人工智能(ArtificialIntelligence,AI)技术领域,尤其涉及一种卷积神经网络(Convolutional NeuralNetwork,CNN)的计算资源优化方法及系统。
背景技术
深度学习(Deep Learning,DL)是模拟人脑的思维方式和处理问题的方法。人脑的计算神经元数量是百亿量级,即使是一个“小型”的CNN所需要的计算也非常庞大,而且几乎所有的深度学习网络均运行在CPU(或CPU集群),或GPU(或GPU集群)硬件平台之上,所需要的硬件资源非常巨大,导致成本和功耗都非常大,运行速度缓慢,很多CNN在高性能的芯片平台上运行时也只能达到几帧/每秒的速度,无法进行实时处理。
卷积神经网络包括卷基层和全连接层,其计算过程是逐层计算,在卷积神经网络的计算过程可以采用层间复用从而降低对处理器硬件资源的需求,即所有的卷积层依次运行在相同的模块(例如,卷积计算模块)中,所有的全连接层依次运行在相同的模块(全连接层模块)中,在设计卷积层模块和全连接层模块的时候,需要按照所有层的最大资源占用情况来设计相关参数,例如卷积核的尺寸、输入/输入Map的尺寸和数量等,卷积神经网络有一个特点:底层的Map尺寸大,但是数量少,高层的Map尺寸小,但是数量多。在层间复用方案中,需要以最大计算量的Map来设计计算模块。
上述技术方案的弊端是,浪费计算资源且计算实时性差。
发明内容
本发明的主要目的在于提供一种卷积神经网络的计算资源优化方法,旨在避免浪费计算资源且计算实时性差的弊端。
为实现上述目的,本发明提供的卷积神经网络的计算资源优化方法包括以下步骤:
将卷积神经网络的输入Map拆分为包括若干个子Map的子Map矩阵,其中,所述输入Map的尺寸为H×W,H>0,W>0;
对每个所述子Map进行单独的卷积操作以得到每个所述子Map的卷积操作的计算结果;
根据全部所述子Map的卷积操作的计算结果原位拼接成所述输入Map的卷积操作的计算结果,其中,原位拼接指将所述子Map的卷积操作的结果放在所述子Map在所述输入Map中对应的位置。
优选地,所述对每个所述子Map进行单独的卷积操作以得到每个所述子Map的卷积操作的计算结果包括:
对每个所述子Map进行单独的卷积操作的卷积核的尺寸为HC×HC,HC>1。
优选地,所述将卷积神经网络的输入Map拆分为包括若干个子Map的子Map矩阵包括:
根据所述输入Map的尺寸判断是否能将所述输入Map拆分为仅包含第一子Map的子Map矩阵,其中,所述第一子Map的尺寸为预设尺寸h×w,H>h>0,W>w>0,所述第一子Map在所述子Map矩阵中呈m行×n列分布,m=ceil(H/h)=floor(H/h),n=ceil(W/w)=floor(W/w);
若是,则将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵。
优选地,所述根据所述输入Map的尺寸判断是否能将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵还包括:
若否,则将所述输入Map拆分为包括所述第一子Map、第二子Map、第三子Map及第四子Map的子Map矩阵;其中,所述第一子Map、所述第二子Map、所述第三子Map及所述第四子Map呈m’行×n’列排布;所述第二子Map、所述第三子Map及所述第四子Map的尺寸均小于所述预设尺寸;所述子Map矩阵中,第1行至第m’-1行以及第1列至第n’-1列均分布所述第一子Map,第m’行的第1列至第n’-1列均分布所述第二子Map,第n’列的第1至第m’-1行均分布所述第三子Map;第m’行的第n’列分布第四子Map;
若m’=ceil(H/h)>floor(H/h)且n’=ceil(W/w)>floor(W/w),所述第二子Map的尺寸为[H-h×floor(H/h)]×w,所述第三子Map的尺寸为h×[W-w×floor(W/w)],所述第四子Map的尺寸为[H-h×floor(H/h)]×[W-w×floor(W/w)],若m’=ceil(H/h)>floor(H/h)且n’=ceil(W/w)=floor(W/w),则只存在所述第一子Map和所述第二子Map,若m’=ceil(H/h)=floor(H/h)且n’=ceil(W/w)>floor(W/w),则只存在所述第一子Map和所述第三子Map。
优选地,所述将卷积神经网络的输入Map拆分为包括若干个子Map的子Map矩阵之后,还包括:
在所述卷积操作需要保持卷积操作前后的所述子Map尺寸不变时,对位于所述子Map矩阵中第一行、最后一行、第一列和最后一列的所述子Map进行补零操作。
优选地,所述在所述卷积操作需要保持卷积操作前后的所述子Map尺寸不变时,对位于所述子Map矩阵中第一行、最后一行、第一列和最后一列的所述子Map进行补零操作之后,还包括:
对每个所述子Map进行补充相邻元素操作,以使对每个所述子Map的卷积操作能覆盖所述子Map当中的每一个元素,其中,所述补充相邻元素操作指将每个所述子Map的未补零的边缘补充相邻的子Map元素。
此外,请参照图4,为实现上述目的,本发明还提供一种卷积神经网络的计算资源优化系统,所述卷积神经网络的计算资源优化系统包括:
拆分模块10,用于将卷积神经网络的输入Map拆分为包括若干个子Map的子Map矩阵,其中,所述输入Map的尺寸为H×W,H>0,W>0;
子Map计算模块30,用于对每个所述子Map进行单独的卷积操作以得到每个所述子Map的卷积操作的计算结果;
计算结果合成模块50,用于根据全部所述子Map的卷积操作的计算结果原位拼接成所述输入Map的卷积操作的计算结果,其中,原位拼接指将所述子Map的卷积操作的结果放在所述子Map在所述输入Map中对应的位置。
优选地,所述子Map计算模块包括;
卷积核,用于对每个所述子Map进行单独的卷积操作,所述卷积核的尺寸为HC×HC,HC>1。
优选地,所述拆分模块10还包括:
判断单元,用于根据所述输入Map的尺寸判断是否能将所述输入Map拆分为仅包含第一子Map的子Map矩阵,其中,所述第一子Map的尺寸为预设尺寸h×w,H>h>0,W>w>0,所述第一子Map在所述子Map矩阵中呈m行×n列分布,m=ceil(H/h)=floor(H/h),n=ceil(W/w)=floor(W/w);
均匀拆分单元,用于在能将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵时,将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵。
优选地,所述拆分模块10还包括:
非均匀拆分单元,用于在不能将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵时,将所述输入Map拆分为包括所述第一子Map、第二子Map、第三子Map及第四子Map的子Map矩阵;其中,所述第一子Map、第二子Map、第三子Map及第四子Map呈m’行×n’列排布;所述第二子Map、所述第三子Map及所述第四子Map的尺寸均小于所述预设尺寸;所述子Map矩阵中,第1行至第m’-1行以及第1列至第n’-1列均分布所述第一子Map,第m’行的第1列至第n’-1列均分布所述第二子Map,第n’列的第1至第m’-1行均分布所述第三子Map;第m’行的第n’列分布第四子Map;
若m’=ceil(H/h)>floor(H/h)且n’=ceil(W/w)>floor(W/w),所述第二子Map的尺寸为[H-h×floor(H/h)]×w,所述第三子Map的尺寸为h×[W-w×floor(W/w)],所述第四子Map的尺寸为[H-h×floor(H/h)]×[W-w×floor(W/w)],若m’=ceil(H/h)>floor(H/h)且n’=ceil(W/w)=floor(W/w),则只存在所述第一子Map和所述第二子Map,若m’=ceil(H/h)=floor(H/h)且n’=ceil(W/w)>floor(W/w),则只存在所述第一子Map和所述第三子Map。
优选地,所述卷积神经网络的计算资源优化系统还包括:
补零操作模块,用于在所述卷积操作需要保持卷积操作前后的所述子Map尺寸不变时,对位于所述子Map矩阵中第一行、最后一行、第一列和最后一列的所述子Map进行补零操作。
优选地,所述卷积神经网络的计算资源优化系统还包括:
补充相邻元素模块,用于对每个所述子Map进行补充相邻元素操作,以使对每个所述子Map的卷积操作能覆盖所述子Map当中的每一个元素,其中,所述补充相邻元素操作指将每个所述子Map的未补零的边缘补充相邻的子Map元素。
在本发明的技术方案中,先将所述卷积神经网络的输入Map拆分为由若干个子Map构成的子Map矩阵,再对每个所述子Map进行单独处理,得到每个所述子Map的计算结果,拆分后的每个所述子Map的计算量小,因此可以根据计算量最大的所述子Map来设计系统的计算模块,同时,由于每个所述子Map的计算量小,可以设计并行计算,提升计算效率,因此计算实时性好,最后将每个所述子Map的计算结果原位拼接即可合成所述输入Map的计算结果,以实现节约计算资源和提高计算实时性的目的。
附图说明
图1为本发明卷积神经网络的计算资源优化方法第一实施例的流程示意图;
图2为本发明卷积神经网络的计算资源优化方法一实施例的将输入Map拆分为仅包含所述第一子Map的子Map矩阵的示意图;
图3为本发明卷积神经网络的计算资源优化方法另一实施例的流程示意图;
图4为本发明卷积神经网络的计算资源优化系统第一实施例的功能模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种卷积神经网络的计算资源优化方法,所述卷积神经网络包括图像输入层、多个卷积层、至少一个全连接层,并且,每两个所述卷积层中设置一激活层,或每两个所述卷积层中设置一所述激活层和一池化层。一般图像处理的流程是先对每个所述子Map进行卷积操作,再将卷积操作后的输出结果输入至激活层进行激活操作。
在存在所述池化层时,激活操作的结果作为池化层的输入。所述池化层可以有效节约处理器的计算资源和使得卷积神经网络保持平移不变性。
参照图1,在一实施例中,该卷积神经网络的计算资源优化方法包括以下步骤:
步骤S10,将卷积神经网络的输入Map拆分为包括若干个子Map的子Map矩阵,其中,所述输入Map的尺寸为H×W,H>0,W>0;
所述输入Map的尺寸H×W是根据图像分辨率、图像需要反映的物理区域大小及计算资源的大小等因素预先确定的,因此,所述输入Map的尺寸H×W是一个已知尺寸。
通过卷积核对每个所述子Map进行卷积操作,直至完成所述子Map矩阵的卷积操作,卷积操作时,所述卷积核经过所述子Map矩阵的边缘,分为两种情况:所述卷积核不超出所述子Map矩阵的边缘或所述卷积核超出所述子Map矩阵的边缘。
步骤S30,对每个所述子Map进行单独的卷积操作以得到每个所述子Map的卷积操作的计算结果;
步骤S50,根据全部所述子Map的卷积操作的计算结果原位拼接成所述输入Map的卷积操作的计算结果,其中,原位拼接指将所述子Map的卷积操作的结果放在所述子Map在所述输入Map中对应的位置。
例如,将所述输入Map拆分成5×5矩阵,得到25个子Map,对25个子Map进行单独的卷积操作以得到25个所述子Map的卷积操作的计算结果,因此,将25个所述子Map的卷积操作的结果进行原位拼接即可得到H×W的所述输入Map的计算结果。需要说明:原位拼接是指,将子Map的卷积操作的结果放在子Map在输入Map中对应的位置。
在本发明的技术方案中,先将所述卷积神经网络的输入Map拆分为由若干个子Map构成的子Map矩阵,再对每个所述子Map进行单独处理,得到每个所述子Map的计算结果,拆分后的每个所述子Map的计算量小,因此可以根据计算量最大的所述子Map来设计系统的计算模块,同时,由于每个所述子Map的计算量小,可以设计并行计算,提升计算效率,因此计算实时性好,最后将每个所述子Map的计算结果原位拼接即可合成所述输入Map的计算结果,以实现节约计算资源和提高计算实时性的目的。
优选地,所述对每个所述子Map进行单独的卷积操作以得到每个所述子Map的卷积操作的计算结果包括:
步骤S31(图未示),对每个所述子Map进行单独的卷积操作的卷积核的尺寸为HC×HC,HC>1。
请参阅图2,优选地,所述将卷积神经网络的输入Map拆分为包括若干个子Map的子Map矩阵包括:
步骤S11(图未示),根据所述输入Map的尺寸判断是否能将所述输入Map拆分为仅包含第一子Map的子Map矩阵,其中,所述第一子Map的尺寸为预设尺寸h×w,H>h>0,W>w>0,所述第一子Map在所述子Map矩阵中呈m行×n列分布,m=ceil(H/h)=floor(H/h),n=ceil(W/w)=floor(W/w);
m’=ceil(H/h)为对实数H/h做向上取整操作,n’=ceil(W/w)为对实数W/w做向上取整操作,floor(H/h)为对实数H/h做向下取整操作,floor(W/w)为对实数W/w做向下取整操作。
具体的,所述第一子Map的尺寸为预设尺寸h×w,所述预设尺寸是根据硬件资源情况和整个所述卷积神经网络的最小Map的情况设计得到,在对所述子Map矩阵进行拆分时,希望每个所述子Map都能被拆分为预设尺寸,以得到降低硬件资源的效果。
在本实施例中,预设尺寸h×w为64×48,当然,所述预设尺寸不限于此。
根据所述输入Map的尺寸判断是否能将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵,是指判断所述输入Map的尺寸是否能均匀拆分为行数为m,列数为n的第一子Map的矩阵,即判断H是否能被h整除,W是否能被w整除。
步骤S13(图未示),若是,则将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵。
此时,视为对所述输入Map进行均匀拆分。例如,当所述输入Map的尺寸为320×240时,由于320能被64整除,240能被48整除,因此,所述输入Map能被均匀拆分为仅包含尺寸为64×48像素的所述第一子Map的所述子Map矩阵,且所述子Map矩阵的行数m=320/64=5,所述子Map矩阵的列数n=240/48=5,此时判断能将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵。
在本实施例中,所述卷积核的尺寸HC×HC为3×3,将320×240的所述输入Map均匀拆分为5×5的所述子Map矩阵后,每个所述第一子Map的尺寸为64×48。
对每个所述第一子Map进行卷积操作,得到每个所述第一子Map的计算结果,得到每一个64×48的所述第一子Map的卷积操作的计算结果,然后将25个所述第一子Map的卷积操作的计算结果原位拼接起来得到320×240的所述输入Map的卷积结果。
将所述输入Map均匀拆分时,由于每个所述子Map的尺寸相等,因此,系统只需要一套计算模块即可完成所述输入Map的计算过程,节约计算资源的效果显著。
优选地,所述根据所述输入Map的尺寸判断是否能将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵还包括:
步骤S15(图未示),若否,则将所述输入Map拆分为包括所述第一子Map、第二子Map、第三子Map及第四子Map的子Map矩阵;其中,所述第一子Map、所述第二子Map、所述第三子Map及所述第四子Map呈m’行×n’列排布形成;所述第二子Map、所述第三子Map及所述第四子Map的尺寸均小于所述预设尺寸;所述子Map矩阵中,第1行至第m’-1行以及第1列至第n’-1列均分布所述第一子Map,第m’行的第1列至第n’-1列均分布所述第二子Map,第n’列的第1至第m’-1行均分布所述第三子Map;第m’行的第n’列分布第四子Map;
若m’=ceil(H/h)>floor(H/h)且n’=ceil(W/w)>floor(W/w),所述第二子Map的尺寸为[H-h×floor(H/h)]×w,所述第三子Map的尺寸为h×[W-w×floor(W/w)],所述第四子Map的尺寸为[H-h×floor(H/h)]×[W-w×floor(W/w)],若m’=ceil(H/h)>floor(H/h)且n’=ceil(W/w)=floor(W/w),则只存在所述第一子Map和所述第二子Map,若m’=ceil(H/h)=floor(H/h)且n’=ceil(W/w)>floor(W/w),则只存在所述第一子Map和所述第三子Map。
非均匀拆分的情况下,按照行元素是否可以均匀拆分以及列元素是否可以均匀拆分,可以分为三种情况:
分别为:
1、行元素和列元素都非均匀拆分;
2、行元素非均匀拆分,列元素可均匀拆分;
3、行元素均匀拆分,列元素非均匀拆分。
此时,视为对所述输入Map进行非均匀拆分。具体的,当所述输入Map的尺寸为330×250时,由于330不能被64整除,250不能被48整除,判断不能将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵,由于判断结果是否,因此,将所述输入Map进行非均匀拆分。
m’=ceil(H/h)为对实数H/h做向上取整操作,n’=ceil(W/w)为对实数W/w做向上取整操作,floor(H/h)为对实数H/h做向下取整操作,floor(W/w)为对实数W/w做向下取整操作。
在本实施例中,m’=ceil(H/h)=ceil(330/64)=6,n’=ceil(W/w)=ceil(250/48)=6,因此,所述子Map矩阵为6×6矩阵。
所述第一子Map的尺寸同上,为64×48;所述第二子Map的尺寸为[H-h×floor(H/h)]×w=10×48;所述第三子Map的尺寸为h×[W-w×floor(W/w)]=64×10;所述第四子Map的尺寸为[H-h×floor(H/h)]×[W-w×floor(W/w)]=10×10。
此时,所述子Map矩阵的第1行至第5行以及第1列至第5列均分布25个64×48的所述第一子Map,所述子Map矩阵的第6行中的第1列至第5列均分布5个64×10的所述第三子Map,所述子Map矩阵的第6列中的第1行至第5行均分布5个10×48的所述第二子Map,所述子Map矩阵的第6行中的第6列分布1个10×10的所述第四子Map。
由于本实施例中,所述输入Map拆分成了尺寸不同的四种子Map,因此,完成全部的子Map运算需要四种计算模块。
当只有H能被h整除,或者只有W能被w整除时,此时存在三种类型的子Map,但拆分原理相同,仍属于非均匀拆分,不再赘述。
请参阅图3,优选地,所述将卷积神经网络的输入Map拆分为包括若干个子Map的子Map矩阵之后,还包括:
步骤S09,在所述卷积操作需要保持卷积操作前后的所述子Map尺寸不变时,对位于所述子Map矩阵中第一行、最后一行、第一列和最后一列的所述子Map进行补零操作。
其中,补零的行数为(Hc-1)/2,补零的列数为(Hc-1)/2。
补零操作可以为行元素补零或列元素补零,补零的行数为(Hc-1)/2,补零的列数为(Hc-1)/2,在本实施例中Hc=3,因此补零的行数和列数分别为1。
为了便于介绍,此处以包含3行×3列个子Map的子Map矩阵为例进行补零操作的详细介绍,Ai,j表示第i行,第j列个子Map,其中,3≥i≥1,3≥j≥1。
A<sub>1,1</sub> A<sub>1,2</sub> A<sub>1,3</sub>
A<sub>2,1</sub> A<sub>2,2</sub> A<sub>2,3</sub>
A<sub>3,1</sub> A<sub>3,2</sub> A<sub>3,3</sub>
对输入Map进行补零操作,当所述卷积核移动到所述子Map矩阵的边缘时会超出所述子Map矩阵的边缘,此时卷积核的中心可以扫描到所述子Map矩阵的边界像素点,此时,对所述输入Map的边缘位置进行补零操作,以使所述卷积核能得到完整的所述子Map矩阵的扫描结果。
在此子Map矩阵中,位于子Map矩阵边缘的子Map为A1,1,A1,2,A1,3,A2,1,A3,1,A3,2,A2,3,A1,3,因此,需要进行补零操作的为第一行、最后一行、第一列和最后一列的子Map,即A1,1,A1,2,A1,3,A2,1,A3,1,A3,2,A2,3,A1,3
对于A2,2,由于卷积核计算时,卷积核的中心和边缘能始终位于子Map矩阵,因此,不需要对A2,2进行补零操作。
同时,补零操作具体为:对A1,1的第一行以上补充1行零,以及第一列左侧补充1列零;对A1,2的第一行以上补充1列零;对A1,3的第一行以上补充1行零,以及最后一列右侧补充1列零;对A2,1的第一列左侧补充1列零;对A2,3的最后一列右侧补充1列零;对A3,1的最后一列以下补充1列零,以及第一列左侧补充1列零;对A3,2的最后一列以下补充1列零;对A3,3的最后一列以下补充1列零,以及最后一列右侧补充1列零。
优选的,所述在所述卷积操作需要保持卷积操作前后的所述子Map尺寸不变时,对位于所述子Map矩阵中第一行、最后一行、第一列和最后一列的所述子Map进行补零操作之后,还包括:
对每个所述子Map进行补充相邻元素操作,以使对每个所述子Map的卷积操作能覆盖所述子Map当中的每一个元素,其中,所述补充相邻元素操作指将每个所述子Map的未补零的边缘补充相邻的子Map元素。
以上述子Map矩阵Ai,j为例,若要使卷积操作前后的子Map矩阵尺寸不变,对每个子Map进行单独的卷积操作时,需要能对子Map当中的每一个元素进行卷积计算,当卷积核的中心位于子Map矩阵的边缘时,由于卷积核的边缘超出了子Map的元素范围,因此得到的卷积计算结果是不完整的,此时,子Map的已经进行补零操作的边缘可以克服卷积核的边缘超出子Map边缘的情况,只需要对子Map的未补零的边缘进行补充相邻元素操作即可。
补充相邻元素中,补充的相邻行元素为HC-1,补充的相邻列元素为HC-1。
补充相邻元素的操作是为了保证相邻子Map之间的卷积操作的结果是正确的,最终才能将每个所述子Map原位拼接成所述输入Map。
对位于子Map矩阵边缘位置的子Map进行补零操作和补充相邻元素操作,以及对位于子Map矩阵非边缘位置的子Map仅进行补充相邻元素操作后,得到的每个子Map矩阵的尺寸为(h+HC-1)×(w+HC-1)。
在对每个子Map进行卷积操作时,卷积核只需扫描属于每个子Map的元素,并不需要扫描其补零元素、补充的相邻行元素和补充的相邻列元素,补零元素、补充的相邻行元素和补充的相邻列元素只是为了保证对子Map的边缘元素做卷积操作时能够得到正确的计算结果,因为边缘元素的卷积操作需要利用补零元素、补充的相邻行元素或补充的相邻列元素。
应当注意,对所述输入Map进行均匀拆分或非均匀拆分两种情况下,均需要借用相邻子Map的行元素或列元素。
此外,为实现上述目的,本发明还提供一种卷积神经网络的计算资源优化系统,所述卷积神经网络包括图像输入层、多个卷积层、至少一个全连接层,并且,每两个所述卷积层中设置一激活层,或每两个所述卷积层中设置一所述激活层和一池化层。一般图像处理的流程是先对每个所述子Map进行卷积操作,再将卷积操作后的输出结果输入至激活层进行激活操作。
在存在所述池化层时,激活操作的结果作为池化层的输入。所述池化层可以有效节约处理器的计算资源和使得卷积神经网络保持平移不变性。
参照图4,在一实施例中,本发明提供的卷积神经网络的计算资源优化系统包括:
拆分模块10,用于将卷积神经网络的输入Map拆分为包括若干个子Map的子Map矩阵,其中,所述输入Map的尺寸为H×W,H>0,W>0;
所述输入Map的尺寸H×W是根据图像分辨率、图像需要反映的物理区域大小及计算资源的大小等因素预先确定的,因此,所述输入Map的尺寸H×W是一个已知尺寸。
通过卷积核对每个所述子Map进行卷积操作,直至完成所述子Map矩阵的卷积操作,卷积操作时,所述卷积核经过所述子Map矩阵的边缘,分为两种情况:所述卷积核不超出所述子Map矩阵的边缘或所述卷积核超出所述子Map矩阵的边缘。
子Map计算模块30,用于对每个所述子Map进行单独的卷积操作以得到每个所述子Map的卷积操作的计算结果;
计算结果合成模块50,用于根据全部所述子Map的卷积操作的计算结果原位拼接成所述输入Map的卷积操作的计算结果,其中,原位拼接指将所述子Map的卷积操作的结果放在所述子Map在所述输入Map中对应的位置。
例如,将所述输入Map拆分成5×5矩阵,得到25个子Map,对25个子Map进行单独的卷积操作以得到25个所述子Map的卷积操作的计算结果,因此,将25个所述子Map的卷积操作的结果进行原位拼接即可得到H×W的所述输入Map的计算结果。需要说明:原位拼接是指,将子Map的卷积操作的结果放在子Map在输入Map中对应的位置。
在本发明的技术方案中,先将所述卷积神经网络的输入Map拆分为由若干个子Map构成的子Map矩阵,再对每个所述子Map进行单独处理,得到每个所述子Map的计算结果,拆分后的每个所述子Map的计算量小,因此可以根据计算量最大的所述子Map来设计系统的计算模块,同时,由于每个所述子Map的计算量小,可以设计并行计算,提升计算效率,因此计算实时性好,最后将每个所述子Map的计算结果原位拼接即可合成所述输入Map的计算结果,以实现节约计算资源和提高计算实时性的目的。
优选地,所述子Map计算模块包括;
卷积核,用于对每个所述子Map进行单独的卷积操作,所述卷积核的尺寸为HC×HC,HC>1。
优选地,所述拆分模块还包括:
判断单元(图未示),用于根据所述输入Map的尺寸判断是否能将所述输入Map拆分为仅包含第一子Map的子Map矩阵,其中,所述第一子Map的尺寸为预设尺寸h×w,H>h>0,W>w>0,所述第一子Map在所述子Map矩阵中呈m行×n列分布,m=ceil(H/h)=floor(H/h),n=ceil(W/w)=floor(W/w);
具体的,所述第一子Map的尺寸为预设尺寸h×w,所述预设尺寸是根据硬件资源情况和整个所述卷积神经网络的最小Map的情况设计得到,在对所述子Map矩阵进行拆分时,希望每个所述子Map都能被拆分为预设尺寸,以得到降低硬件资源的效果。
在本实施例中,预设尺寸h×w为64×48,当然,所述预设尺寸不限于此。
根据所述输入Map的尺寸判断是否能将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵,是指判断所述输入Map的尺寸是否能均匀拆分为行数为m,列数为n的第一子Map的矩阵,即判断H是否能被h整除,W是否能被w整除。
均匀拆分单元(图未示),用于在能将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵时,将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵。
此时,视为对所述输入Map进行均匀拆分。例如,当所述输入Map的尺寸为320×240时,由于320能被64整除,240能被48整除,因此,所述输入Map能被均匀拆分为仅包含尺寸为64×48像素的所述第一子Map的所述子Map矩阵,且所述子Map矩阵的行数m=320/64=5,所述子Map矩阵的列数n=240/48=5,此时判断能将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵。
在本实施例中,所述卷积核的尺寸HC×HC为3×3,将320×240的所述输入Map均匀拆分为5×5的所述子Map矩阵后,每个所述第一子Map的尺寸为64×48。
对每个所述第一子Map进行卷积操作,得到每个所述第一子Map的计算结果,得到每一个64×48的所述第一子Map的卷积操作的计算结果,然后将25个所述第一子Map的卷积操作的计算结果原位拼接起来得到320×240的所述输入Map的卷积结果。
将所述输入Map均匀拆分时,由于每个所述子Map的尺寸相等,因此,系统只需要一套计算模块即可完成所述输入Map的计算过程,节约计算资源的效果显著。
优选地,所述拆分模块还包括:
非均匀拆分单元(图未示),用于在不能将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵时,将所述输入Map拆分为包括所述第一子Map、第二子Map、第三子Map及第四子Map的子Map矩阵;其中,所述第一子Map、所述第二子Map、所述第三子Map及所述第四子Map呈m’行×n’列排布形成;所述第二子Map、所述第三子Map及所述第四子Map的尺寸均小于所述预设尺寸;所述子Map矩阵中,第1行至第m’-1行以及第1列至第n’-1列均分布所述第一子Map,第m’行的第1列至第n’-1列均分布所述第二子Map,第n’列的第1至第m’-1行均分布所述第三子Map;第m’行的第n’列分布第四子Map;
若m’=ceil(H/h)>floor(H/h)且n’=ceil(W/w)>floor(W/w),所述第二子Map的尺寸为[H-h×floor(H/h)]×w,所述第三子Map的尺寸为h×[W-w×floor(W/w)],所述第四子Map的尺寸为[H-h×floor(H/h)]×[W-w×floor(W/w)],若m’=ceil(H/h)>floor(H/h)且n’=ceil(W/w)=floor(W/w),则只存在所述第一子Map和所述第二子Map,若m’=ceil(H/h)=floor(H/h)且n’=ceil(W/w)>floor(W/w),则只存在所述第一子Map和所述第三子Map。
非均匀拆分的情况下,按照行元素是否可以均匀拆分以及列元素是否可以均匀拆分,可以分为三种情况:
分别为:
1、行元素和列元素都非均匀拆分;
2、行元素非均匀拆分,列元素可均匀拆分;
3、行元素均匀拆分,列元素非均匀拆分。
此时,视为对所述输入Map进行非均匀拆分。具体的,当所述输入Map的尺寸为330×250时,由于330不能被64整除,250不能被48整除,判断不能将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵,由于判断结果是否,因此,将所述输入Map进行非均匀拆分。
m’=ceil(H/h)为对实数H/h做向上取整操作,n’=ceil(W/w)为对实数W/w做向上取整操作,floor(H/h)为对实数H/h做向下取整操作,floor(W/w)为对实数W/w做向下取整操作。
在本实施例中,m’=ceil(H/h)=ceil(330/64)=6,n’=ceil(W/w)=ceil(250/48)=6,因此,所述子Map矩阵为6×6矩阵。
所述第一子Map的尺寸同上,为64×48;所述第二子Map的尺寸为[H-h×floor(H/h)]×w=10×48;所述第三子Map的尺寸为h×[W-w×floor(W/w)]=64×10;所述第四子Map的尺寸为[H-h×floor(H/h)]×[W-w×floor(W/w)]=10×10。
此时,所述子Map矩阵的第1行至第5行以及第1列至第5列均分布25个64×48的所述第一子Map,所述子Map矩阵的第6行中的第1列至第5列均分布5个64×10的所述第三子Map,所述子Map矩阵的第6列中的第1行至第5行均分布5个10×48的所述第二子Map,所述子Map矩阵的第6行中的第6列分布1个10×10的所述第四子Map。
由于本实施例中,所述输入Map拆分成了尺寸不同的四种子Map,因此,完成全部的子Map运算需要四种计算模块。
当只有H能被h整除,或者只有W能被w整除时,此时存在三种类型的子Map,但拆分原理相同,仍属于非均匀拆分,不再赘述。
优选地,所述卷积神经网络的计算资源优化系统还包括:
补零操作模块(图未示),用于在所述卷积操作需要保持卷积操作前后的所述子Map尺寸不变时,对位于所述子Map矩阵中第一行、最后一行、第一列和最后一列的所述子Map进行补零操作。
其中,补零的行数为(Hc-1)/2,补零的列数为(Hc-1)/2。
补零操作可以为行元素补零或列元素补零,补零的行数为(Hc-1)/2,补零的列数为(Hc-1)/2,在本实施例中Hc=3,因此补零的行数和列数分别为1。
为了便于介绍,此处以包含3行×3列个子Map的子Map矩阵为例进行补零操作的详细介绍,Ai,j表示第i行,第j列个子Map,其中,3≥i≥1,3≥j≥1。
A<sub>1,1</sub> A<sub>1,2</sub> A<sub>1,3</sub>
A<sub>2,1</sub> A<sub>2,2</sub> A<sub>2,3</sub>
A<sub>3,1</sub> A<sub>3,2</sub> A<sub>3,3</sub>
对输入Map进行补零操作,当所述所述卷积核移动到所述子Map矩阵的边缘时会超出所述子Map矩阵的边缘,此时卷积核的中心可以扫描到所述子Map矩阵的边界像素点,此时,对所述输入Map的边缘位置进行补零操作,以使所述卷积核能得到完整的所述子Map矩阵的扫描结果。
在此子Map矩阵中,位于子Map矩阵边缘的子Map为A1,1,A1,2,A1,3,A2,1,A3,1,A3,2,A2,3,A1,3,因此,需要进行补零操作的为第一行、最后一行、第一列和最后一列的子Map,即A1,1,A1,2,A1,3,A2,1,A3,1,A3,2,A2,3,A1,3
对于A2,2,由于卷积核计算时,卷积核的中心和边缘始终能位于子Map矩阵,因此,不需要对A2,2进行补零操作。
同时,补零操作具体为:对A1,1的第一行以上补充1行零,以及第一列左侧补充1列零;对A1,2的第一行以上补充1列零;对A1,3的第一行以上补充1行零,以及最后一列右侧补充1列零;对A2,1的第一列左侧补充1列零;对A2,3的最后一列右侧补充1列零;对A3,1的最后一列以下补充1列零,以及第一列左侧补充1列零;对A3,2的最后一列以下补充1列零;对A3,3的最后一列以下补充1列零,以及最后一列右侧补充1列零。
优选地,所述卷积神经网络的计算资源优化系统还包括:
补充相邻元素模块,用于对每个所述子Map进行补充相邻元素操作,以使对每个所述子Map的卷积操作能覆盖所述子Map当中的每一个元素,其中,所述补充相邻元素操作指将每个所述子Map的未补零的边缘补充相邻的子Map元素。
以上述子Map矩阵Ai,j为例,若要使卷积操作前后的子Map矩阵尺寸不变,对每个子Map进行单独的卷积操作时,需要能对子Map当中的每一个元素进行卷积计算,当卷积核的中心位于子Map矩阵的边缘时,由于卷积核的边缘超出了子Map的元素范围,因此得到的卷积计算结果是不完整的,此时,子Map的已经进行补零操作的边缘可以克服卷积核的边缘超出子Map边缘的情况,只需要对子Map的未补零的边缘进行补充相邻元素操作即可。
每个子Map补充的相邻行元素为HC-1,补充的相邻列元素为HC-1。
补充相邻元素的操作是为了保证相邻子Map之间的卷积操作的结果是正确的,最终才能将每个所述子Map原位拼接成所述输入Map。
对位于子Map矩阵边缘位置的子Map进行补零操作和补充相邻元素操作,以及对位于子Map矩阵非边缘位置的子Map进行补充相邻元素操作,得到的每个子Map矩阵的尺寸为(h+HC-1)×(w+HC-1)。
在对每个子Map进行卷积操作时,重叠元素共同组成第一'子Map卷积核只需扫描属于每个子Map的元素,并不需要扫描其补零元素、补充的相邻行元素和补充的相邻列元素,补零元素、补充的相邻行元素和补充的相邻列元素只是为了保证对子Map的边缘元素做卷积操作时能够得到正确的计算结果,因为边缘元素的卷积操作需要利用补零元素、补充的相邻行元素或补充的相邻列元素。
应当注意,对所述输入Map进行均匀拆分或非均匀拆分两种情况下,均需要借用相邻子Map的行元素或列元素。
对于如何根据子Map的卷积计算结果合成输入Map的卷积计算结果,请参考如下实施例:
原始彩色图像12×12(H×W)的R G B三通道图像:
R通道图像为:
117 193 17 250 186 126 86 96 169 12 248 208
206 115 131 81 167 6 47 200 252 186 169 63
195 27 238 77 37 13 104 13 101 115 202 134
241 49 56 91 164 41 148 97 122 128 197 223
71 65 86 64 156 249 251 161 227 87 115 28
38 244 25 208 24 228 208 125 122 129 34 5
135 249 209 152 156 41 253 193 56 218 110 79
208 142 59 183 59 69 221 128 188 236 195 101
50 119 160 40 21 34 74 154 132 60 206 26
152 114 19 135 107 173 69 254 6 216 247 13
51 189 137 232 173 234 239 246 160 198 81 105
185 103 56 195 27 113 171 32 215 17 30 41
G通道图像为:
179 193 231 117 78 224 182 73 150 174 109 185
3 7 184 125 112 42 230 45 138 196 225 91
161 89 226 232 75 216 244 100 156 192 152 184
57 89 104 48 195 113 226 128 156 77 57 96
8 204 149 37 217 191 157 66 176 107 102 127
92 142 179 222 167 188 79 141 47 71 147 227
75 216 65 39 244 103 136 109 218 141 192 91
36 17 38 250 185 103 204 47 116 220 40 228
220 148 40 103 207 16 85 217 234 23 212 142
130 183 170 116 24 140 214 93 83 212 63 117
12 83 240 170 26 210 112 121 232 169 129 103
96 227 136 175 196 241 105 156 229 183 29 122
B通道图像为:
Figure BDA0001101925090000181
Figure BDA0001101925090000191
对应的灰度图像为:
153 185 146 143 107 173 141 85 162 120 144 173
88 62 162 123 133 36 173 86 180 179 194 97
157 86 207 159 73 131 191 65 137 159 151 163
110 72 98 60 186 85 197 125 131 102 112 137
41 157 125 57 192 189 170 91 186 113 119 88
81 168 117 209 117 189 136 133 65 97 113 162
93 210 114 84 198 97 160 134 153 154 165 83
99 67 68 207 139 102 189 93 126 223 84 175
145 130 88 88 132 21 92 191 203 32 191 93
128 151 113 124 73 135 159 147 66 213 112 78
32 112 197 188 87 193 142 168 212 161 125 99
138 182 99 167 130 185 132 106 206 119 50 87
卷积核3×3,Hc=3:
-0.14138190 0.09305570 0.02294120
-0.14868330 0.14467020 -0.01020310
0.01026590 -0.12336460 -0.16269930
直接对输入Map(灰度图像)进行卷积过程如下:
1、进行补零:
0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 153 185 146 143 107 173 141 85 162 120 144 173 0
0 88 62 162 123 133 36 173 86 180 179 194 97 0
0 157 86 207 159 73 131 191 65 137 159 151 163 0
0 110 72 98 60 186 85 197 125 131 102 112 137 0
0 41 157 125 57 192 189 170 91 186 113 119 88 0
0 81 168 117 209 117 189 136 133 65 97 113 162 0
0 93 210 114 84 198 97 160 134 153 154 165 83 0
0 99 67 68 207 139 102 189 93 126 223 84 175 0
0 145 130 88 88 132 21 92 191 203 32 191 93 0
0 128 151 113 124 73 135 159 147 66 213 112 78 0
0 32 112 197 188 87 193 142 168 212 161 125 99 0
0 138 182 99 167 130 185 132 106 206 119 50 87 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0
2、进行卷积操作:
Figure BDA0001101925090000192
Figure BDA0001101925090000201
例如:卷积操作中左上角第一个“像素”为-1,其计算过程为:
0×(-0.1413819)+0×0.0930557+0×0.0229412×0×(-0.1486833)+153×0.1446702+185×(-0.0102031)+0×0.0102659+88×(-0.1233646)+62×(-0.1626993)=-0.6964734,取整后为-1,可以不取整。其他“像素”值类似,即卷积核在补零后的输入Map上以步长为1进行滑动,并做卷积计算。
补零操作的主要目的是保持卷积操作后的结果与输入Map尺寸相同,便于处理,卷积层的卷积操作也可以不补零,但卷积操作的输出结果的尺寸会变小。
直接对输入Map进行卷积操作,需要较多的硬件资源才能实现,为了在只用较少,或只有较少资源时实现大的Map的卷积操作,可以对输入Map进行拆分,对拆分后的子Map做卷积操作,然后合成输入Map的卷积操作的结果。
将输入Map拆分成多个子Map,子Map大小为6×6(即h×w),则m=H/h=2,n=W/w=2,即均匀拆分为4个子Map;
第1个子Map:
153 185 146 143 107 173
88 62 162 123 133 36
157 86 207 159 73 131
110 72 98 60 186 85
41 157 125 57 192 189
81 168 117 209 117 189
第2个子Map:
Figure BDA0001101925090000202
Figure BDA0001101925090000211
第3个子Map:
93 210 114 84 198 97
99 67 68 207 139 102
145 130 88 88 132 21
128 151 113 124 73 135
32 112 197 188 87 193
138 182 99 167 130 185
第4个子Map:
160 134 153 154 165 83
189 93 126 223 84 175
92 191 203 32 191 93
159 147 66 213 112 78
142 168 212 161 125 99
132 106 206 119 50 87
对每个子Map进行补零和补充相邻元素后,进行卷积操作,补零是为了保持卷积操作的计算结果与子Map的尺寸相同,此外,补充相邻元素则是为了保证子Map边缘元素的卷积操作的计算结果正确,从而能够合成输入Map的计算结果。相邻数据的列数和行数等于Hc-1=2;
第1个子Map补零和补充相邻元素后:
0 0 0 0 0 0 0 0
0 153 185 146 143 107 173 141
0 88 62 162 123 133 36 173
0 157 86 207 159 73 131 191
0 110 72 98 60 186 85 197
0 41 157 125 57 192 189 170
0 81 168 117 209 117 189 136
0 93 210 114 84 198 97 160
第2个子Map补零和补充相邻元素后:
Figure BDA0001101925090000212
Figure BDA0001101925090000221
第3个子Map补零和补充相邻元素后:
0 81 168 117 209 117 189 136
0 93 210 114 84 198 97 160
0 99 67 68 207 139 102 189
0 145 130 88 88 132 21 92
0 128 151 113 124 73 135 159
0 32 112 197 188 87 193 142
0 138 182 99 167 130 185 132
0 0 0 0 0 0 0 0
第4个子Map补零和补充相邻元素后:
189 136 133 65 97 113 162 0
97 160 134 153 154 165 83 0
102 189 93 126 223 84 175 0
21 92 191 203 32 191 93 0
135 159 147 66 213 112 78 0
193 142 168 212 161 125 99 0
185 132 106 206 119 50 87 0
0 0 0 0 0 0 0 0
第1个子Map与第2个子Map之间的列相邻元素=2,相邻数据为:
0 0
173 141
36 173
131 191
85 197
189 170
189 136
97 160
第1个子Map与第3个子Map之间的行相邻元素=2,相邻数据为:
0 81 168 117 209 117 189 136
0 93 210 114 84 198 97 160
对第1个子Map运用同一个卷积核做卷积操作,计算结果为:
-1 -31 -47 -37 -29 -24
-3 -50 -47 -42 -34 -59
6 -40 4 -54 -55 -46
1 -56 -9 -45 -29 -60
-21 -30 -52 -37 -15 -61
-28 -21 -45 -38 -41 -33
可见,这与直接在输入Map上做卷积运算的结果是一致的,将4个子Map的卷积操作的结果按照子Map在输入Map上的位置合并,即可得到输入Map的卷积操作的计算结果。
非均匀拆分与均匀拆分的原理相同,只是子Map的尺寸不完全一致。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (12)

1.一种卷积神经网络的计算资源优化方法,其特征在于,所述卷积神经网络的计算资源优化方法包括以下步骤:
将卷积神经网络的输入Map拆分为包括若干个子Map的子Map矩阵,其中,所述输入Map的尺寸为H×W,H>0,W>0,其中所述输入Map的尺寸H×W是根据图像分辨率、图像需要反映的物理区域大小及计算资源的大小因素预先确定的;
对每个所述子Map进行单独的卷积操作以得到每个所述子Map的卷积操作的计算结果;
根据全部所述子Map的卷积操作的计算结果原位拼接成所述输入Map的卷积操作的计算结果,其中,原位拼接指将所述子Map的卷积操作的结果放在所述子Map在所述输入Map中对应的位置。
2.如权利要求1所述的卷积神经网络的计算资源优化方法,其特征在于,所述对每个所述子Map进行单独的卷积操作以得到每个所述子Map的卷积操作的计算结果包括:
对每个所述子Map进行单独的卷积操作的卷积核的尺寸为HC×HC,HC>1。
3.如权利要求1所述的卷积神经网络的计算资源优化方法,其特征在于,所述将卷积神经网络的输入Map拆分为包括若干个子Map的子Map矩阵包括:
根据所述输入Map的尺寸判断是否能将所述输入Map拆分为仅包含第一子Map的子Map矩阵,其中,所述第一子Map的尺寸为预设尺寸h×w,H>h>0,W>w>0,所述第一子Map在所述子Map矩阵中呈m行×n列分布,m= ceil(H/h)= floor(H/h),n= ceil(W/w)= floor(W/w);
若是,则将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵。
4.如权利要求3所述的卷积神经网络的计算资源优化方法,其特征在于,所述根据所述输入Map的尺寸判断是否能将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵还包括:
若否,则将所述输入Map拆分为包括所述第一子Map、第二子Map、第三子Map及第四子Map的子Map矩阵;其中,所述第一子Map、所述第二子Map、所述第三子Map及所述第四子Map呈m’行×n’列排布;所述第二子Map、所述第三子Map及所述第四子Map的尺寸均小于所述预设尺寸;所述子Map矩阵中,第1行至第m’-1行以及第1列至第n’-1列均分布所述第一子Map,第m’行的第1列至第n’-1列均分布所述第二子Map,第n’列的第1至第m’-1行均分布所述第三子Map;第m’行的第n’列分布第四子Map;
若m’=ceil(H/h)> floor(H/h)且n’=ceil(W/w)> floor(W/w),所述第二子Map的尺寸为[H-h×floor(H/h)]×w,所述第三子Map的尺寸为h×[W-w×floor(W/w)],所述第四子Map的尺寸为[H-h×floor(H/h)]×[W-w×floor(W/w)],若m’=ceil(H/h)> floor(H/h)且n’=ceil(W/w)= floor(W/w),则只存在所述第一子Map和所述第二子Map,若m’=ceil(H/h)=floor(H/h)且n’=ceil(W/w)> floor(W/w),则只存在所述第一子Map和所述第三子Map。
5.如权利要求1至4中任意一项所述的卷积神经网络的计算资源优化方法,其特征在于,所述将卷积神经网络的输入Map拆分为包括若干个子Map的子Map矩阵之后,还包括:
在所述卷积操作需要保持卷积操作前后的所述子Map尺寸不变时,对位于所述子Map矩阵中第一行、最后一行、第一列和最后一列的所述子Map进行补零操作。
6.如权利要求5所述的卷积神经网络的计算资源优化方法,其特征在于,所述在所述卷积操作需要保持卷积操作前后的所述子Map尺寸不变时,对位于所述子Map矩阵中第一行、最后一行、第一列和最后一列的所述子Map进行补零操作之后,还包括:
对每个所述子Map进行补充相邻元素操作,以使对每个所述子Map的卷积操作能覆盖所述子Map当中的每一个元素,其中,所述补充相邻元素操作指将每个所述子Map的未补零的边缘补充相邻的子Map元素。
7.一种卷积神经网络的计算资源优化系统,其特征在于,所述卷积神经网络的计算资源优化系统包括:
拆分模块,用于将卷积神经网络的输入Map拆分为包括若干个子Map的子Map矩阵,其中,所述输入Map的尺寸为H×W,H>0,W>0,其中所述输入Map的尺寸H×W是根据图像分辨率、图像需要反映的物理区域大小及计算资源的大小因素预先确定的;
子Map计算模块,用于对每个所述子Map进行单独的卷积操作以得到每个所述子Map的卷积操作的计算结果;
计算结果合成模块,用于根据全部所述子Map的卷积操作的计算结果原位拼接成所述输入Map的卷积操作的计算结果,其中,原位拼接指将所述子Map的卷积操作的结果放在所述子Map在所述输入Map中对应的位置。
8.如权利要求7所述的卷积神经网络的计算资源优化系统,其特征在于,所述子Map计算模块包括;
卷积核,用于对每个所述子Map进行单独的卷积操作,所述卷积核的尺寸为HC×HC,HC>1。
9.如权利要求7所述的卷积神经网络的计算资源优化系统,其特征在于,所述拆分模块还包括:
判断单元,用于根据所述输入Map的尺寸判断是否能将所述输入Map拆分为仅包含第一子Map的子Map矩阵,其中,所述第一子Map的尺寸为预设尺寸h×w,H>h>0,W>w>0,所述第一子Map在所述子Map矩阵中呈m行×n列分布,m= ceil(H/h)= floor(H/h),n= ceil(W/w)=floor(W/w);
均匀拆分单元,用于在能将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵时,将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵。
10.如权利要求9所述的卷积神经网络的计算资源优化系统,其特征在于,所述拆分模块还包括:
非均匀拆分单元,用于在不能将所述输入Map拆分为仅包含所述第一子Map的子Map矩阵时,将所述输入Map拆分为包括所述第一子Map、第二子Map、第三子Map及第四子Map的子Map矩阵;其中,所述第一子Map、第二子Map、第三子Map及第四子Map呈m’行×n’列排布;所述第二子Map、所述第三子Map及所述第四子Map的尺寸均小于所述预设尺寸;所述子Map矩阵中,第1行至第m’-1行以及第1列至第n’-1列均分布所述第一子Map,第m’行的第1列至第n’-1列均分布所述第二子Map,第n’列的第1至第m’-1行均分布所述第三子Map;第m’行的第n’列分布第四子Map;
若m’=ceil(H/h) > floor(H/h)且n’=ceil(W/w) > floor(W/w),所述第二子Map的尺寸为[H-h×floor(H/h)]×w,所述第三子Map的尺寸为h×[W-w×floor(W/w)],所述第四子Map的尺寸为[H-h×floor(H/h)]×[W-w×floor(W/w)],若m’=ceil(H/h)> floor(H/h)且n’=ceil(W/w)= floor(W/w),则只存在所述第一子Map和所述第二子Map,若m’=ceil(H/h)=floor(H/h)且n’=ceil(W/w)> floor(W/w),则只存在所述第一子Map和所述第三子Map。
11.如权利要求7至10中任意一项所述卷积神经网络的计算资源优化系统,其特征在于,所述卷积神经网络的计算资源优化系统还包括:
补零操作模块,用于在所述卷积操作需要保持卷积操作前后的所述子Map尺寸不变时,对位于所述子Map矩阵中第一行、最后一行、第一列和最后一列的所述子Map进行补零操作。
12.如权利要求11所述卷积神经网络的计算资源优化系统,其特征在于,所述卷积神经网络的计算资源优化系统还包括:
补充相邻元素模块,用于对每个所述子Map进行补充相邻元素操作,以使对每个所述子Map的卷积操作能覆盖所述子Map当中的每一个元素,其中,所述补充相邻元素操作指将每个所述子Map的未补零的边缘补充相邻的子Map元素。
CN201610779212.3A 2016-08-30 2016-08-30 卷积神经网络的计算资源优化方法及系统 Active CN106447030B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610779212.3A CN106447030B (zh) 2016-08-30 2016-08-30 卷积神经网络的计算资源优化方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610779212.3A CN106447030B (zh) 2016-08-30 2016-08-30 卷积神经网络的计算资源优化方法及系统

Publications (2)

Publication Number Publication Date
CN106447030A CN106447030A (zh) 2017-02-22
CN106447030B true CN106447030B (zh) 2021-09-21

Family

ID=58090406

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610779212.3A Active CN106447030B (zh) 2016-08-30 2016-08-30 卷积神经网络的计算资源优化方法及系统

Country Status (1)

Country Link
CN (1) CN106447030B (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107451654B (zh) * 2017-07-05 2021-05-18 深圳市自行科技有限公司 卷积神经网络的加速运算方法、服务器及存储介质
CN107316079A (zh) * 2017-08-08 2017-11-03 珠海习悦信息技术有限公司 终端卷积神经网络的处理方法、装置、存储介质及处理器
CN107894957B (zh) * 2017-11-14 2020-09-01 河南鼎视智能科技有限公司 面向卷积神经网络的存储器数据访问与插零方法及装置
CN107729994B (zh) 2017-11-28 2020-05-26 南京地平线机器人技术有限公司 执行卷积神经网络中的卷积层的运算的方法和装置
CN109872275B (zh) * 2017-12-04 2023-05-23 北京金山安全软件有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN111247527B (zh) * 2017-12-20 2023-08-22 华为技术有限公司 在卷积神经网络模型中确定特征图像的方法和装置
CN109313663B (zh) * 2018-01-15 2023-03-31 深圳鲲云信息科技有限公司 人工智能计算辅助处理装置、方法、存储介质、及终端
DE102018200534A1 (de) * 2018-01-15 2019-07-18 Robert Bosch Gmbh Verfahren zum Betreiben eines künstlichen neuronalen Netzes
CN108647776A (zh) * 2018-05-08 2018-10-12 济南浪潮高新科技投资发展有限公司 一种卷积神经网络卷积膨胀处理电路及方法
CN110555334B (zh) * 2018-05-30 2022-06-07 东华软件股份公司 人脸特征确定方法、装置、存储介质及电子设备
CN111563586B (zh) * 2019-02-14 2022-12-09 上海寒武纪信息科技有限公司 一种神经网络模型的拆分方法及相关产品
CN109948790A (zh) * 2019-03-27 2019-06-28 苏州浪潮智能科技有限公司 一种神经网络处理方法、装置、设备及存储介质
CN110188863B (zh) * 2019-04-30 2021-04-09 杭州电子科技大学 一种适用于资源受限设备的卷积神经网络的卷积核压缩方法
CN110633153A (zh) * 2019-09-24 2019-12-31 上海寒武纪信息科技有限公司 一种用多核处理器实现神经网络模型拆分方法及相关产品
WO2021255514A1 (en) 2020-06-15 2021-12-23 Universidade Do Porto Padding method for convolutional neural network layers adapted to perform multivariate time series analysis
CN111967935B (zh) * 2020-08-12 2021-06-01 张代军 网上交易平台
CN117976567B (zh) * 2024-04-01 2024-06-18 华羿微电子股份有限公司 一种双芯连划map取片产品的加工方法及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104915322A (zh) * 2015-06-09 2015-09-16 中国人民解放军国防科学技术大学 一种卷积神经网络硬件加速方法及其axi总线ip核
CN105389596A (zh) * 2015-12-21 2016-03-09 长沙网动网络科技有限公司 卷积神经网络适用于识别多种尺寸图片的方法
CN105825509A (zh) * 2016-03-17 2016-08-03 电子科技大学 基于3d卷积神经网络的脑血管分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104915322A (zh) * 2015-06-09 2015-09-16 中国人民解放军国防科学技术大学 一种卷积神经网络硬件加速方法及其axi总线ip核
CN105389596A (zh) * 2015-12-21 2016-03-09 长沙网动网络科技有限公司 卷积神经网络适用于识别多种尺寸图片的方法
CN105825509A (zh) * 2016-03-17 2016-08-03 电子科技大学 基于3d卷积神经网络的脑血管分割方法

Also Published As

Publication number Publication date
CN106447030A (zh) 2017-02-22

Similar Documents

Publication Publication Date Title
CN106447030B (zh) 卷积神经网络的计算资源优化方法及系统
KR102275499B1 (ko) 컨볼루션 신경망에서 컨볼루션 층들의 연산을 수행하기 위한 방법 및 장치
US11468301B2 (en) Method and apparatus for performing operation of convolutional layer in convolutional neural network
US10394929B2 (en) Adaptive execution engine for convolution computing systems
US20190340510A1 (en) Sparsifying neural network models
US11500958B2 (en) Method and apparatus for performing convolution operation on folded feature data
CN107862650A (zh) 加速计算二维图像cnn卷积的方法
JP2021509747A (ja) ハードウェアベースのプーリングのシステムおよび方法
CN107704921A (zh) 基于Neon指令的卷积神经网络的算法优化方法及装置
CN109313663B (zh) 人工智能计算辅助处理装置、方法、存储介质、及终端
CN111738276A (zh) 基于多核卷积神经网络的图像处理方法、装置及设备
US11164032B2 (en) Method of performing data processing operation
CN113344172A (zh) 将卷积映射到通道卷积引擎
CN112215345B (zh) 一种基于Tensorcore的卷积神经网络运转方法和装置
KR20230081697A (ko) 팽창 컨볼루션 계산 가속화 방법 및 장치
CN112633470A (zh) 优化神经网络卷积残差结构的方法、系统、设备及介质
CN110009644B (zh) 一种特征图行像素分段的方法和装置
CN113435569A (zh) 使用每通道卷积运算的流水线逐点卷积
CN117413280A (zh) 具有内核扩展和张量累积的卷积
US12061967B2 (en) Processing data for a layer of a neural network
US20230065725A1 (en) Parallel depth-wise processing architectures for neural networks
US20240135677A1 (en) Method, system and storage media for training a graphics processing neural network with a patch-based approach
CN110930290B (zh) 一种数据处理方法及装置
CN113221896B (zh) 目标检测方法、装置、神经形态器件及介质
CN116415641A (zh) 一种基于神经网络的点云数据的处理方法和系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230419

Address after: 518055 Building 1, Block C 604, Section 1, Chuangzhi Yuncheng, Liuxian Avenue, Xili Community, Xili Street, Nanshan District, Shenzhen City, Guangdong Province

Patentee after: SHENZHEN AUTOCRUIS TECHNOLOGY CO.,LTD.

Address before: 518066 Room 601, 6th floor, zone a, entrepreneurship Park, University Town, Lishan Road, Taoyuan Street, Nanshan District, Shenzhen, Guangdong

Patentee before: SHENZHEN NEARBYLINK TECHNOLOGY CO.,LTD.

TR01 Transfer of patent right