CN113591025A - 特征图的处理方法、装置、卷积神经网络加速器和介质 - Google Patents

特征图的处理方法、装置、卷积神经网络加速器和介质 Download PDF

Info

Publication number
CN113591025A
CN113591025A CN202110885650.9A CN202110885650A CN113591025A CN 113591025 A CN113591025 A CN 113591025A CN 202110885650 A CN202110885650 A CN 202110885650A CN 113591025 A CN113591025 A CN 113591025A
Authority
CN
China
Prior art keywords
batch
feature maps
convolution operation
operation result
batches
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110885650.9A
Other languages
English (en)
Inventor
梁猷强
张斌
胡峰
刘钊含
余蓓
沈小勇
吕江波
贾佳亚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Smartmore Technology Co Ltd
Shanghai Smartmore Technology Co Ltd
Original Assignee
Shenzhen Smartmore Technology Co Ltd
Shanghai Smartmore Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Smartmore Technology Co Ltd, Shanghai Smartmore Technology Co Ltd filed Critical Shenzhen Smartmore Technology Co Ltd
Priority to CN202110885650.9A priority Critical patent/CN113591025A/zh
Publication of CN113591025A publication Critical patent/CN113591025A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Neurology (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Complex Calculations (AREA)

Abstract

本申请涉及人工智能技术领域,提供一种特征图的处理方法、装置、卷积神经网络加速器和存储介质。包括:获取多批特征图,将各批特征图依批次输入卷积运算单元进行卷积运算,得到各批特征图的卷积运算结果;将各批特征图的卷积运算结果依批次输入加法器,得到各批特征图的相加运算结果;卷积运算结果为首批特征图的卷积运算结果时,加法器将首批特征图的卷积运算结果与选择器提供的偏置相加得到首批特征图的相加运算结果;卷积运算结果为非首批特征图的卷积运算结果时,加法器将非首批特征图的卷积运算结果与选择器提供的前一批特征图的相加运算结果相加得到非首批特征图的相加运算结果,降低对加法器的控制逻辑复杂度且提高对加法器的利用率。

Description

特征图的处理方法、装置、卷积神经网络加速器和介质
技术领域
本申请涉及人工智能技术领域,特别是涉及一种特征图的处理方法、装置、卷积神经网络加速器和存储介质。
背景技术
在人工智能时代,卷积神经网络应用在各种各样的场景中。然而卷积神经网络在部署时需要大量的算力,算力不足致使运算时间远远超过传统的算法,应用落地就无从谈起。因此,针对卷积神经网络运算的加速器应运而生。其中,卷积神经网络加速器对特征图的处理主要包括卷积运算、偏置运算和特征图的卷积运算结果的累加。为实现对特征图的偏置运算和卷积运算结果的累加处理,卷积神经网络加速器上部署较多加法器,不仅对加法器的控制逻辑较为复杂且对加法器的利用率较低。
发明内容
基于此,有必要针对上述技术问题,提供一种特征图的处理方法、装置、卷积神经网络加速器和存储介质。
一种特征图的处理方法,所述方法包括:
获取按照卷积运算单元的输入通道数量对多通道特征图进行批划分得到的多批特征图,将各批特征图依批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果;
将所述各批特征图的卷积运算结果依批次输入加法器,得到所述各批特征图的相加运算结果;
其中,所述卷积运算结果为首批特征图的卷积运算结果时,所述加法器将所述首批特征图的卷积运算结果与选择器提供的偏置相加得到所述首批特征图的相加运算结果;所述卷积运算结果为非首批特征图的卷积运算结果时,所述加法器将所述非首批特征图的卷积运算结果与所述选择器提供的前一批特征图的相加运算结果相加得到所述非首批特征图的相加运算结果。
在其中一个实施例中,所述将各批特征图依批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果,包括:
获取所述各批特征图各自对应的批权重;
将所述各批特征图和所述各批特征图各自对应的批权重作为同一批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果。
在其中一个实施例中,所述各批特征图的通道数量与所述输入通道数量一致。
一种特征图的处理装置,所述装置包括:
卷积运算模块,用于获取按照卷积运算单元的输入通道数量对多通道特征图进行批划分得到的多批特征图,将各批特征图依批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果;
相加运算模块,用于将所述各批特征图的卷积运算结果依批次输入加法器,得到所述各批特征图的相加运算结果;
其中,所述卷积运算结果为首批特征图的卷积运算结果时,所述加法器将所述首批特征图的卷积运算结果与选择器提供的偏置相加得到所述首批特征图的相加运算结果;所述卷积运算结果为非首批特征图的卷积运算结果时,所述加法器将所述非首批特征图的卷积运算结果与所述选择器提供的前一批特征图的相加运算结果相加得到所述非首批特征图的相加运算结果。
在其中一个实施例中,所述相加运算模块,还用于获取所述各批特征图各自对应的批权重;将所述各批特征图和所述各批特征图各自对应的批权重作为同一批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果。
在其中一个实施例中,所述各批特征图的通道数量与所述输入通道数量一致。
一种卷积神经网络加速器,包括:控制器、卷积运算单元、加法器和选择器;
所述控制器,用于获取按照卷积运算单元的输入通道数量对多通道特征图进行批划分得到的多批特征图,将各批特征图依批次输入所述卷积运算单元;
所述卷积运算单元,用于依批次对所述各批特征图进行卷积运算,得到所述各批特征图的卷积运算结果,并将所述各批特征图的卷积运算结果依批次输入加法器;
所述加法器,用于依批次对所述各批特征图的卷积运算结果进行相加运算,得到所述各批特征图的相加运算结果;
其中,所述卷积运算结果为首批特征图的卷积运算结果时,所述加法器将所述首批特征图的卷积运算结果与选择器提供的偏置相加得到所述首批特征图的相加运算结果;所述卷积运算结果为非首批特征图的卷积运算结果时,所述加法器将所述非首批特征图的卷积运算结果与所述选择器提供的前一批特征图的相加运算结果相加得到所述非首批特征图的相加运算结果。
在其中一个实施例中,
所述控制器,还用于获取所述各批特征图各自对应的批权重,并将所述各批特征图和所述各批特征图各自对应的批权重作为同一批次输入所述卷积运算单元;
所述卷积运算单元,用于对所述各批特征图和所述各自对应的批权重进行卷积运算,得到所述各批特征图的卷积运算结果。
在其中一个实施例中,所述各批特征图的通道数量与所述输入通道数量一致。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被控制器执行时实现如下方法:
获取按照卷积运算单元的输入通道数量对多通道特征图进行批划分得到的多批特征图,将各批特征图依批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果;
将所述各批特征图的卷积运算结果依批次输入加法器,得到所述各批特征图的相加运算结果;
其中,所述卷积运算结果为首批特征图的卷积运算结果时,所述加法器将所述首批特征图的卷积运算结果与选择器提供的偏置相加得到所述首批特征图的相加运算结果;所述卷积运算结果为非首批特征图的卷积运算结果时,所述加法器将所述非首批特征图的卷积运算结果与所述选择器提供的前一批特征图的相加运算结果相加得到所述非首批特征图的相加运算结果。
在其中一个实施例中,所述计算机程序被控制器执行时实现如下方法:
获取所述各批特征图各自对应的批权重;
将所述各批特征图和所述各批特征图各自对应的批权重作为同一批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果。
在其中一个实施例中,所述各批特征图的通道数量与所述输入通道数量一致。
上述特征图的处理方法、装置、卷积神经网络加速器和存储介质中,获取按照卷积运算单元的输入通道数量对多通道特征图进行批划分得到的多批特征图,将各批特征图依批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果;将所述各批特征图的卷积运算结果依批次输入加法器,得到所述各批特征图的相加运算结果;其中,所述卷积运算结果为首批特征图的卷积运算结果时,所述加法器将所述首批特征图的卷积运算结果与选择器提供的偏置相加得到所述首批特征图的相加运算结果;所述卷积运算结果为非首批特征图的卷积运算结果时,所述加法器将所述非首批特征图的卷积运算结果与所述选择器提供的前一批特征图的相加运算结果相加得到所述非首批特征图的相加运算结果。本申请中,仅需在卷积神经网络加速器上部署一个加法器,即可实现偏置运算和特征图的卷积运算结果的累加,降低对加法器的控制逻辑复杂度且提高对加法器的利用率。
附图说明
图1为一个实施例中特征图的处理方法的应用环境图;
图2为一个实施例中特征图的处理方法的流程示意图;
图3为一个实施例中特征图的处理方法的流程示意图;
图4为一个实施例中特征图的处理装置的结构框图;
图5为一个实施例中卷积神经网络加速器的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本申请所描述的实施例可以与其它实施例相结合。
以下结合图1和图2介绍本申请提供的特征图的处理方法,该方法包括:
步骤S201,获取按照卷积运算单元的输入通道数量对多通道特征图进行批划分得到的多批特征图,将各批特征图依批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果。
步骤S202,将所述各批特征图的卷积运算结果依批次输入加法器,得到所述各批特征图的相加运算结果。
示例性地,卷积运算单元的输入通道数量为32,控制器可以将64通道特征图划分为两批特征图;其中,每批特征图的通道数量与输入通道数量一致,均为32;由于这两批特征图均要输入卷积运算单元进行卷积运算,因此这两批特征图可以称为输入特征图。
接着,控制器先将第一批特征图输入卷积运算单元进行卷积运算,得到第一批特征图的卷积运算结果,并控制卷积运算单元将第一批特征图的卷积运算结果输入加法器;控制器控制选择器将偏置输入加法器;所述加法器对第一批特征图的卷积运算结果和预设偏置进行相加得到的相加运算结果(即为图1的SUM)并将第一批特征图的相加运算结果输入选择器保存。
然后,控制器将第二批特征图输入卷积运算单元进行卷积运算,得到第二批特征图的卷积运算结果,控制所述卷积运算单元将第二批特征图的卷积运算结果输入加法器;控制器控制所述选择器将第一批特征图的相加运算结果输入所述加法器;所述加法器对所述第二批特征图的卷积运算结果和第一批特征图的相加运算结果进行相加得到的第二批特征图的相加运算结果。
按照卷积运算单元的32输入通道数量划分64通道特征图,形成两批特征图,因此,第二批特征图的相加运算结果可以作为64通道特征图的输出特征图进行输出。
可以理解的是,如果对多通道特征图进行批划分形成三批特征图,那么对第三批特征图的处理方式与对第二批特征图的处理方式一致。
上述特征图的处理方法中,仅需在卷积神经网络加速器上部署一个加法器,即可实现偏置运算和特征图的卷积运算结果的累加,降低对加法器的控制逻辑复杂度且提高对加法器的利用率。
进一步地,如图3所示,上述将各批特征图依批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果,具体可以包括:步骤S301,获取所述各批特征图各自对应的批权重;步骤S302,将所述各批特征图和所述各批特征图各自对应的批权重作为同一批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果。
仍以卷积运算单元的输入通道数量为32且64通道特征图为例介绍:控制器按照卷积运算单元的输入通道数量将64通道特征图划分为两批特征图,每批特征图具有各自对应的权重,因此形成两批权重。如图1所示,控制器将第一批特征图和第一批特征图对应的批权重输入卷积运算单元进行卷积运算,得到第一批特征图的卷积运算结果。
上述方式中,将各批特征图和所述各批特征图各自对应的批权重作为同一批次输入所述卷积运算单元进行卷积运算,保证卷积运算的正确性。
应该理解的是,虽然图1至图3的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1至图3中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图4所示,提供了一种特征图的处理装置,包括:
卷积运算模块401,用于获取按照卷积运算单元的输入通道数量对多通道特征图进行批划分得到的多批特征图,将各批特征图依批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果;
相加运算模块402,用于将所述各批特征图的卷积运算结果依批次输入加法器,得到所述各批特征图的相加运算结果;
其中,所述卷积运算结果为首批特征图的卷积运算结果时,所述加法器将所述首批特征图的卷积运算结果与选择器提供的偏置相加得到所述首批特征图的相加运算结果;所述卷积运算结果为非首批特征图的卷积运算结果时,所述加法器将所述非首批特征图的卷积运算结果与所述选择器提供的前一批特征图的相加运算结果相加得到所述非首批特征图的相加运算结果。
在其中一个实施例中,所述相加运算模块402,还用于获取所述各批特征图各自对应的批权重;将所述各批特征图和所述各批特征图各自对应的批权重作为同一批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果。
在其中一个实施例中,所述各批特征图的通道数量与所述输入通道数量一致。
关于特征图的处理装置的具体限定可以参见上文中对于特征图的处理方法的限定,在此不再赘述。上述特征图的处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的控制器中,也可以以软件形式存储于计算机设备中的存储器中,以便于控制器调用执行以上各个模块对应的操作。
在一个实施例中,如图5所示,提供了一种卷积神经网络加速器,包括:控制器、卷积运算单元、加法器和选择器;
所述控制器,用于获取按照卷积运算单元的输入通道数量对多通道特征图进行批划分得到的多批特征图,将各批特征图依批次输入所述卷积运算单元;
所述卷积运算单元,用于依批次对所述各批特征图进行卷积运算,得到所述各批特征图的卷积运算结果,并将所述各批特征图的卷积运算结果依批次输入加法器;
所述加法器,用于依批次对所述各批特征图的卷积运算结果进行相加运算,得到所述各批特征图的相加运算结果;
其中,所述卷积运算结果为首批特征图的卷积运算结果时,所述加法器将所述首批特征图的卷积运算结果与选择器提供的偏置相加得到所述首批特征图的相加运算结果;所述卷积运算结果为非首批特征图的卷积运算结果时,所述加法器将所述非首批特征图的卷积运算结果与所述选择器提供的前一批特征图的相加运算结果相加得到所述非首批特征图的相加运算结果。
在其中一个实施例中,所述控制器,还用于获取所述各批特征图各自对应的批权重,并将所述各批特征图和所述各批特征图各自对应的批权重作为同一批次输入所述卷积运算单元;所述卷积运算单元,用于对所述各批特征图和所述各自对应的批权重进行卷积运算,得到所述各批特征图的卷积运算结果。
在其中一个实施例中,所述各批特征图的通道数量与所述输入通道数量一致。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被控制器执行时实现如下方法:
获取按照卷积运算单元的输入通道数量对多通道特征图进行批划分得到的多批特征图,将各批特征图依批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果;
将所述各批特征图的卷积运算结果依批次输入加法器,得到所述各批特征图的相加运算结果;
其中,所述卷积运算结果为首批特征图的卷积运算结果时,所述加法器将所述首批特征图的卷积运算结果与选择器提供的偏置相加得到所述首批特征图的相加运算结果;所述卷积运算结果为非首批特征图的卷积运算结果时,所述加法器将所述非首批特征图的卷积运算结果与所述选择器提供的前一批特征图的相加运算结果相加得到所述非首批特征图的相加运算结果。
在其中一个实施例中,所述计算机程序被控制器执行时实现如下方法:
获取所述各批特征图各自对应的批权重;
将所述各批特征图和所述各批特征图各自对应的批权重作为同一批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果。
在其中一个实施例中,所述各批特征图的通道数量与所述输入通道数量一致。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上的实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种特征图的处理方法,其特征在于,所述方法包括:
获取按照卷积运算单元的输入通道数量对多通道特征图进行批划分得到的多批特征图,将各批特征图依批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果;
将所述各批特征图的卷积运算结果依批次输入加法器,得到所述各批特征图的相加运算结果;
其中,所述卷积运算结果为首批特征图的卷积运算结果时,所述加法器将所述首批特征图的卷积运算结果与选择器提供的偏置相加得到所述首批特征图的相加运算结果;所述卷积运算结果为非首批特征图的卷积运算结果时,所述加法器将所述非首批特征图的卷积运算结果与所述选择器提供的前一批特征图的相加运算结果相加得到所述非首批特征图的相加运算结果。
2.根据权利要求1所述的方法,其特征在于,所述将各批特征图依批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果,包括:
获取所述各批特征图各自对应的批权重;
将所述各批特征图和所述各批特征图各自对应的批权重作为同一批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果。
3.根据权利要求1所述的方法,其特征在于,所述各批特征图的通道数量与所述输入通道数量一致。
4.一种特征图的处理装置,其特征在于,所述装置包括:
卷积运算模块,用于获取按照卷积运算单元的输入通道数量对多通道特征图进行批划分得到的多批特征图,将各批特征图依批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果;
相加运算模块,用于将所述各批特征图的卷积运算结果依批次输入加法器,得到所述各批特征图的相加运算结果;
其中,所述卷积运算结果为首批特征图的卷积运算结果时,所述加法器将所述首批特征图的卷积运算结果与选择器提供的偏置相加得到所述首批特征图的相加运算结果;所述卷积运算结果为非首批特征图的卷积运算结果时,所述加法器将所述非首批特征图的卷积运算结果与所述选择器提供的前一批特征图的相加运算结果相加得到所述非首批特征图的相加运算结果。
5.根据权利要求4所述的装置,其特征在于,所述相加运算模块,还用于获取所述各批特征图各自对应的批权重;将所述各批特征图和所述各批特征图各自对应的批权重作为同一批次输入所述卷积运算单元进行卷积运算,得到所述各批特征图的卷积运算结果。
6.根据权利要求4所述的装置,其特征在于,所述各批特征图的通道数量与所述输入通道数量一致。
7.一种卷积神经网络加速器,其特征在于,包括:控制器、卷积运算单元、加法器和选择器;
所述控制器,用于获取按照卷积运算单元的输入通道数量对多通道特征图进行批划分得到的多批特征图,将各批特征图依批次输入所述卷积运算单元;
所述卷积运算单元,用于依批次对所述各批特征图进行卷积运算,得到所述各批特征图的卷积运算结果,并将所述各批特征图的卷积运算结果依批次输入加法器;
所述加法器,用于依批次对所述各批特征图的卷积运算结果进行相加运算,得到所述各批特征图的相加运算结果;
其中,所述卷积运算结果为首批特征图的卷积运算结果时,所述加法器将所述首批特征图的卷积运算结果与选择器提供的偏置相加得到所述首批特征图的相加运算结果;所述卷积运算结果为非首批特征图的卷积运算结果时,所述加法器将所述非首批特征图的卷积运算结果与所述选择器提供的前一批特征图的相加运算结果相加得到所述非首批特征图的相加运算结果。
8.根据权利要求7所述的卷积神经网络加速器,其特征在于,
所述控制器,还用于获取所述各批特征图各自对应的批权重,并将所述各批特征图和所述各批特征图各自对应的批权重作为同一批次输入所述卷积运算单元;
所述卷积运算单元,用于对所述各批特征图和所述各自对应的批权重进行卷积运算,得到所述各批特征图的卷积运算结果。
9.根据权利要求7所述的卷积神经网络加速器,其特征在于,所述各批特征图的通道数量与所述输入通道数量一致。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被控制器执行时实现权利要求1至3中任一项所述的方法。
CN202110885650.9A 2021-08-03 2021-08-03 特征图的处理方法、装置、卷积神经网络加速器和介质 Pending CN113591025A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110885650.9A CN113591025A (zh) 2021-08-03 2021-08-03 特征图的处理方法、装置、卷积神经网络加速器和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110885650.9A CN113591025A (zh) 2021-08-03 2021-08-03 特征图的处理方法、装置、卷积神经网络加速器和介质

Publications (1)

Publication Number Publication Date
CN113591025A true CN113591025A (zh) 2021-11-02

Family

ID=78254303

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110885650.9A Pending CN113591025A (zh) 2021-08-03 2021-08-03 特征图的处理方法、装置、卷积神经网络加速器和介质

Country Status (1)

Country Link
CN (1) CN113591025A (zh)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105681628A (zh) * 2016-01-05 2016-06-15 西安交通大学 一种卷积网络运算单元及可重构卷积神经网络处理器和实现图像去噪处理的方法
CN106203617A (zh) * 2016-06-27 2016-12-07 哈尔滨工业大学深圳研究生院 一种基于卷积神经网络的加速处理单元及阵列结构
US20180157969A1 (en) * 2016-12-05 2018-06-07 Beijing Deephi Technology Co., Ltd. Apparatus and Method for Achieving Accelerator of Sparse Convolutional Neural Network
CN108537330A (zh) * 2018-03-09 2018-09-14 中国科学院自动化研究所 应用于神经网络的卷积计算装置及方法
US10083375B1 (en) * 2017-10-13 2018-09-25 StradVision, Inc. Method and device for performing activation and convolution operation at the same time and learning method and learning device for the same
CN108805266A (zh) * 2018-05-21 2018-11-13 南京大学 一种可重构cnn高并发卷积加速器
CN109034249A (zh) * 2018-07-27 2018-12-18 广州大学 基于分解径向对称卷积核的卷积优化方法、装置、终端设备及计算机可读存储介质
CN109284824A (zh) * 2018-09-04 2019-01-29 复旦大学 一种基于可重构技术的用于加速卷积和池化运算的装置
US20190114536A1 (en) * 2017-10-17 2019-04-18 Mediatek Inc. Hybrid non-uniform convolution transform engine for deep learning applications
CN109993297A (zh) * 2019-04-02 2019-07-09 南京吉相传感成像技术研究院有限公司 一种负载均衡的稀疏卷积神经网络加速器及其加速方法
CN110070178A (zh) * 2019-04-25 2019-07-30 北京交通大学 一种卷积神经网络计算装置及方法
CN110334798A (zh) * 2019-03-13 2019-10-15 北京地平线机器人技术研发有限公司 特征数据提取方法及装置、指令生成方法及装置
CN111047008A (zh) * 2019-11-12 2020-04-21 天津大学 一种卷积神经网络加速器及加速方法
CN111667051A (zh) * 2020-05-27 2020-09-15 上海赛昉科技有限公司 适用边缘设备的神经网络加速器及神经网络加速计算方法
CN111831254A (zh) * 2019-04-15 2020-10-27 阿里巴巴集团控股有限公司 图像处理加速方法、图像处理模型存储方法及对应装置
CN112334915A (zh) * 2018-06-25 2021-02-05 奥林巴斯株式会社 运算处理装置
CN113033794A (zh) * 2021-03-29 2021-06-25 重庆大学 基于深度可分离卷积的轻量级神经网络硬件加速器

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105681628A (zh) * 2016-01-05 2016-06-15 西安交通大学 一种卷积网络运算单元及可重构卷积神经网络处理器和实现图像去噪处理的方法
CN106203617A (zh) * 2016-06-27 2016-12-07 哈尔滨工业大学深圳研究生院 一种基于卷积神经网络的加速处理单元及阵列结构
US20180157969A1 (en) * 2016-12-05 2018-06-07 Beijing Deephi Technology Co., Ltd. Apparatus and Method for Achieving Accelerator of Sparse Convolutional Neural Network
US10083375B1 (en) * 2017-10-13 2018-09-25 StradVision, Inc. Method and device for performing activation and convolution operation at the same time and learning method and learning device for the same
US20190114536A1 (en) * 2017-10-17 2019-04-18 Mediatek Inc. Hybrid non-uniform convolution transform engine for deep learning applications
CN108537330A (zh) * 2018-03-09 2018-09-14 中国科学院自动化研究所 应用于神经网络的卷积计算装置及方法
CN108805266A (zh) * 2018-05-21 2018-11-13 南京大学 一种可重构cnn高并发卷积加速器
CN112334915A (zh) * 2018-06-25 2021-02-05 奥林巴斯株式会社 运算处理装置
CN109034249A (zh) * 2018-07-27 2018-12-18 广州大学 基于分解径向对称卷积核的卷积优化方法、装置、终端设备及计算机可读存储介质
CN109284824A (zh) * 2018-09-04 2019-01-29 复旦大学 一种基于可重构技术的用于加速卷积和池化运算的装置
CN110334798A (zh) * 2019-03-13 2019-10-15 北京地平线机器人技术研发有限公司 特征数据提取方法及装置、指令生成方法及装置
CN109993297A (zh) * 2019-04-02 2019-07-09 南京吉相传感成像技术研究院有限公司 一种负载均衡的稀疏卷积神经网络加速器及其加速方法
CN111831254A (zh) * 2019-04-15 2020-10-27 阿里巴巴集团控股有限公司 图像处理加速方法、图像处理模型存储方法及对应装置
CN110070178A (zh) * 2019-04-25 2019-07-30 北京交通大学 一种卷积神经网络计算装置及方法
CN111047008A (zh) * 2019-11-12 2020-04-21 天津大学 一种卷积神经网络加速器及加速方法
CN111667051A (zh) * 2020-05-27 2020-09-15 上海赛昉科技有限公司 适用边缘设备的神经网络加速器及神经网络加速计算方法
CN113033794A (zh) * 2021-03-29 2021-06-25 重庆大学 基于深度可分离卷积的轻量级神经网络硬件加速器

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
李炳剑;秦国轩;朱少杰;裴智慧;: "面向卷积神经网络的FPGA加速器架构设计", 计算机科学与探索, no. 03 *
蒋佩卿;吴丽君;: "基于FPGA的改进二值化卷积层设计", 电气开关, no. 06 *
金光海: "快速浮点加法器的全定制设计", 计算机与现代化, no. 03, 30 March 2004 (2004-03-30) *

Similar Documents

Publication Publication Date Title
CN110197270B (zh) 集成电路芯片装置及相关产品
EP4115342A1 (en) Parallel computing scheme generation for neural networks
CN108304926B (zh) 一种适用于神经网络的池化计算装置及方法
CN111062467B (zh) 一种应用于ai异构编译器的自动切分神经网络子图方法
CN111523648B (zh) 含有聚类拓扑耦合的神经网络脉冲同步方法及系统
CN113031920B (zh) 一种芯片和用于芯片的批量模运算方法
CN111651137B (zh) 排序方法、装置、电子装置以及计算机设备
CN113312183B (zh) 面向深度神经网络的边缘计算方法
CN113591025A (zh) 特征图的处理方法、装置、卷积神经网络加速器和介质
CN114065121A (zh) 一种求解伊辛模型的计算方法及设备
CN115130672B (zh) 一种软硬件协同优化卷积神经网络计算的方法及装置
CN110197274B (zh) 集成电路芯片装置及相关产品
CN113342719B (zh) 一种运算加速单元及其运算方法
JP7104183B2 (ja) ニューラルネットワークの縮約装置
CN111142840A (zh) 基于fpga的数据计算方法和装置
CN107808687B (zh) 医疗数据获取方法、处理方法、集群处理系统及方法
EP4072025A1 (en) Decoding method and device, apparatus, and storage medium
Parrilla et al. Nondeterministic AND-EXOR minimisation by using rewrite rules and simulated annealing
US20230035876A1 (en) Method, apparatus, and storage medium for dividing neural network
Perepelkin et al. Planning and distribution algorithm of heterogeneous resources in industrial telecommunication networks with ordered sets of tasks
KR102143562B1 (ko) Ab 곱셈 및 ab^2 곱셈의 멀티 연산 장치 및 방법
CN117151002A (zh) 一种使用线性规划动态组网的方法、装置及存储介质
CN110998610B (zh) 一种信号处理方法及装置
Tashev et al. Computer simulation of the throughput of crossbar switch with modified Chang's model for load traffic
CN115604262A (zh) 一种多方计算方法及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Liang Youqiang

Inventor after: Zhang Bin

Inventor after: Hu Feng

Inventor after: Liu Zhaohan

Inventor after: Shen Xiaoyong

Inventor after: Lv Jiangbo

Inventor before: Liang Youqiang

Inventor before: Zhang Bin

Inventor before: Hu Feng

Inventor before: Liu Zhaohan

Inventor before: Yu Bei

Inventor before: Shen Xiaoyong

Inventor before: Lv Jiangbo

Inventor before: Jia Jiaya

CB03 Change of inventor or designer information