CN110674934B - 一种神经网络池化层及其运算方法 - Google Patents

一种神经网络池化层及其运算方法 Download PDF

Info

Publication number
CN110674934B
CN110674934B CN201910792663.4A CN201910792663A CN110674934B CN 110674934 B CN110674934 B CN 110674934B CN 201910792663 A CN201910792663 A CN 201910792663A CN 110674934 B CN110674934 B CN 110674934B
Authority
CN
China
Prior art keywords
characteristic data
pooling
padding
memory
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910792663.4A
Other languages
English (en)
Other versions
CN110674934A (zh
Inventor
陈小柏
赖青松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201910792663.4A priority Critical patent/CN110674934B/zh
Publication of CN110674934A publication Critical patent/CN110674934A/zh
Application granted granted Critical
Publication of CN110674934B publication Critical patent/CN110674934B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/20Handling requests for interconnection or transfer for access to input/output bus
    • G06F13/28Handling requests for interconnection or transfer for access to input/output bus using burst mode transfer, e.g. direct memory access DMA, cycle steal
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Complex Calculations (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明公开了一种神经网络池化层及其运算方法,其中所述神经网络池化层包括直接内存访问模块DMA,用于读取存储器的特征数据;本实施例所述的存储器为DDR3;池化运算模块,用于对读取存储器的特征数据进行池化运算,并将运算结果返回DMA中;控制器controller模块,用于控制DMA从存储器中搬运特征数据传输给池化运算模块进行运算处理和监控池化运算模块的状态。本发明能减少运算量,提高运算速度,同时读取控制简单。

Description

一种神经网络池化层及其运算方法
技术领域
本发明涉及集成电路技术领域,更具体的,涉及一种神经网络池化层及其运 算方法。
背景技术
卷积神经网络(CNN)是深度学习的重要算法,在计算机视觉特别是图像识 别领域有着非常广泛的应用。目前几乎所有的识别和检测问题都把卷积神经网络 作为首选方法,世界上各个IT巨头也都争相展开了相关研究。
从计算机的角度来看,图像实际上是一个二维矩阵,卷积神经网络所做的工 作就是采用卷积、池化等操作从二维数组中提取特征,并对图像进行识别。理论 上来说,只要是能转换成二维矩阵的特征,都可以利用卷积神经网络来识别和检 测。比如声音文件,可以分割成很短的分段,每段音阶的高低可以转换成数字, 这样整段的声音文件就可以转换为二维矩阵,类似的还有自然语言中的文本特 征,医药实验中的化学特征等等,都可以利用卷积神经网络来实现识别和检测。
卷积是用来提取图像的局部特征,而池化则是对提取出来的局部特征进行压 缩。池化的英文是pooling,还有一种叫法是down sampling(下采样),池化就 是将特征矩阵划分为若干小块,从每个子矩阵中选取一个值替代该子矩阵,这样 做的目的是压缩特征矩阵,简化接下来的计算。池化有两种方式:Max Pooling (最大值池化)和Average Pooling(平均值池化),前者是从子矩阵中取最大值, 后者是取平均值,子矩阵的大小为size。如图1所示,size=2,子矩阵的大小是 2x2,展示了Max Pooling和Average Pooling原理图。
特征Feature通常是存储在外部DDR3存储器里面,传统做法是一个通道一 个通道从DDR3读出进行池化运算,比如当size=3时,每次需要从DDR3读取9 个特征进行Max最大值或Average平均值运算,该方法运算速度慢、从DDR3 读取控制复杂,并且运算量大。
中国专利号:201810284999.5,公开了《一种神经网络的池化层加速运算的方法与电路》,该专利可以降低运算量,但是该专利没有提出多通道的处理办法,也 没有提出padding的处理办法,与实际应用不符,没有实用性,并且需要对宽度 W方向分割,这对DDR3的控制及其复杂。
发明内容
本发明为了解决现有技术运算速度慢,且读取控制复杂的问题,提供了一种 神经网络池化层及其运算方法,其能减少运算量,提高运算速度,同时读取控制 简单。
为实现上述本发明目的,采用的技术方案如下:一种神经网络池化层,包括 直接内存访问模块DMA,用于读取存储器的特征数据;
池化运算模块,用于对读取存储器的特征数据进行池化运算,并将运算结果 返回DMA中;
控制器controller模块,用于控制DMA从存储器中搬运特征数据传输给池 化运算模块进行运算处理和监控池化运算模块的状态。
本发明直接通过池化层中的DMA读取存储器的特征数据,该方法控制神经 网络池化层读取存储器中的特征数据操作更简单。
优选地,所述DMA与存储器之间采用AXI接口通信。
本发明基于以上所述的一种神经网络池化层,还提供了一种神经网络池化层 的运算方法,所述DMA每个时钟周期会读取N个特征数据传输到池化运算模块, 所述池化运算模块首先对特征数据进行宽度方向运算,有N个宽度方向运算单 元并行运算N个通道;
然后再对特征数据进行高度方向池化运算,同样有N个高度方向运算单元 并行运算N个通道;
完成池化运算,最后将运算结果通过DMA写入存储器。
本发明通过先进行宽度方向运算,再进行高度方向运算,减小运算量,同时 采用多通道并行运算的方式进行算法加速,从而提高了运算速度。
进一步地,所述控制器模块将特征数据在存储器的起始地址和字节数量传输 给DMA,所述DMA根据起始地址,从存储器读取相应字节数量的特征数据, 传输到池化运算模块。
再进一步地,所述特征数据在存储器内部按照N通道排列方式进行存储, 所述的特征数据为三维矩阵,其宽度为Wi,高度为Hi,通道数量为C,排列顺 序按N通道排列,且每N个通道的特征数据在存储器里面按连续地址存储;所 有N的累加和等于C。
再进一步地,所述的N为2的次幂。
再进一步地,所述宽度方向的特征数据是以一个点为单位进行运算。
再进一步地,在对特征数据进行宽度方向池化运算之前,通过公式 Wi=Wo*size,判断当Wi和size不是整数倍关系时,需要对特征数据进行填充, 也就是补零操作;其中Wi表示输入特征数据的宽度,Wo表示输出特征数据的 宽度,size表示子矩阵的大小,为正整数;
所述补零操作是在特征feature四周填充零数据,填充个数为padding,其中padding大于正整数,使Wi+2*padding=Wo*size,当需要补零时,池化运算需要 在宽度方向上每一行计算第1个输出或最后1个输出时,与(size-padding)个输 入数据进行运算。
再进一步地,所述高度方向的特征数据是以一行为单位进行运算,并采用一 个FIFO缓存一行特征数据用于与下一行特征数据进行运算操作。
再进一步地,在对特征数据进行高度方向池化运算之前,通过公式 Hi=Ho*size,判断当Wi和size不是整数倍关系时,需要对特征数据进行填充, 也就是补零操作;其中,Hi表示输入特征数据的高度,Ho表示输出特征数据的 高度,size表示子矩阵的大小,为正整数;
所述补零操作是在特征feature四周填充零数据,填充个数为padding,其中padding大于正整数,使Hi+2*padding=Ho*size,当需要补零时,池化运算需要 在高度方向上每一列计算第1个输出或最后1个输出时,与(size-padding)个输 入数据进行运算。
本发明的有益效果如下:
1.本发明通过直接采用DMA读取存储器,从而获取特征数据,相比传统中 央处理器(CPU)控制DMA的方式,本发明控制读取方式更加简单,快速高效。
2.本发明通过采用多通道并行运算的方式进行算法加速,对特征数据先进行 宽度方向池化运算,再进行高度方向池化运算,减小运算量。同时本发明存储在 存储器的特征数据无需分割,只需要一次性从头到尾读出来即可,从而有效地加 快了运算速度。
附图说明
图1是展示最大值池化和平均值池化的原理图。
图2是本实施例所述神经网络层的结构示意图。
图3是本实施例所述特征数据按N通道排列存储的示意图。
图4是本实施例所述宽度方向不补零的示意图。
图5是本实施例所述宽度方向补1个零的示意图。
图6是本实施例所述宽度方向补2个零的示意图。
图7是本实施例所述宽度方向运算结果的示意图。
图8是本实施例所述高度方向不补零的示意图。
图9是本实施例所述高度方向补1个零的示意图。
图10是本实施例所述高度方向补2个零的示意图。
图11是本实施例所述高度方向运算结果的示意图。
具体实施方式
下面结合附图和具体实施方式对本发明做详细描述。
实施例1
如图2所示,一种神经网络池化层,包括直接内存访问模块DMA,用于读 取存储器的特征数据;本实施例所述的存储器为DDR3;
池化运算模块,用于对读取存储器的特征数据进行池化运算,并将运算结果 返回DMA中;
控制器controller模块,用于控制DMA从存储器中搬运特征数据传输给池 化运算模块进行运算处理和监控池化运算模块的状态。
本实施例直接通过池化层中的DMA读取存储器的特征数据,该方法控制神 经网络池化层读取存储器中的特征数据操作更简单。
本实施例所述DMA与存储器之间采用AXI接口通信。控制器模块控制DMA 从DDR3搬运特征数据给到池化运算模块,控制很简单,只需要将特征数据在 DDR3的起始地址和字节数量传输给DMA,然后DMA根据该起始地址从DDR3 读取相应字节数量的特征数据,无需分割操作。
本实施例基于以上所述的一种神经网络池化层,还提供了一种神经网络池化 层的运算方法,所述DMA每个时钟周期会读取N个特征数据传输到池化运算模 块,所述池化运算模块首先对特征数据进行宽度方向运算,有N个宽度方向运 算单元并行运算N个通道;
然后再对特征数据进行高度方向池化运算,同样有N个高度方向运算单元 并行运算N个通道;
完成池化运算,最后将运算结果通过DMA写入存储器。
本实施例通过先进行宽度方向运算,再进行高度方向运算,减小运算量,同 时采用多通道并行运算的方式进行算法加速,从而提高了运算速度。
本实施例所述控制器模块将特征数据在存储器的起始地址和字节数量传输 给DMA,所述DMA根据起始地址,从存储器读取相应字节数量的特征数据, 传输到池化运算模块。
所述的特征Feature数据在DDR3内部的存储结构按照N通道排列方式存储 在DDR3,存储方式由整个神经网络确定,在最初的卷积运算已经排列好,无需 池化层额外花时间排列。如图3所示,特征Feature总通道数量为C,按N通道 排列,每N个通道的特征Feature在DDR3里面按连续地址存储。所有N的累加 和等于C。N通常为2的次幂,例如2、4、8、16、32等,按N通道排列的好处 有两点,第一是DDR3读写操作是突发传输的,必须要字节对齐,通常是8字节、 16字节、32字节对齐,单个特征Feature数据的数量有时不是字节对齐,但是N 通道的特征Feature数据总和一定是字节对齐的;第二是池化层运算可以并行运 算N个特征数据,非常利于算法的加速。
本实施例所述DDR3存储器存储的特征Feature数据,所述的特征数据为三 维矩阵,其宽度为Wi,高度为Hi,通道数量为C,排列顺序按N通道排列,第 1个N通道的特征Feature存储在第一部分连续地址,第2个N通道Feature存 储在第二部分连续地址,依次类推。
本本实施例所述的池化运算就是将特征数据矩阵划分为若干小块,每个小块 为一个子矩阵,从每个子矩阵中选取一个值替代该子矩阵,从而达到压缩特征矩 阵的目的,通过简化矩阵再进行计算。所述的池化运算有两种方式:Max Pooling (最大值池化)和Average Pooling(平均值池化),前者是从子矩阵中取最大值, 后者是取平均值,子矩阵的大小为size。
本实施例所述宽度方向的特征数据是以一个点为单位进行运算。
本实施例在对特征数据进行宽度方向池化运算之前,通过公式 Wi=Wo*size,判断当Wi和size不是整数倍关系时,需要对特征数据进行填充, 也就是补零操作;其中Wi表示输入特征数据的宽度,Wo表示输出特征数据的 宽度,size表示子矩阵的大小,为正整数;
所述补零操作是在特征feature四周填充零数据,填充个数为padding,其中padding大于正整数,使Wi+2*padding=Wo*size,当需要补零时,池化运算需要 在宽度方向上每一行计算第1个输出或最后1个输出时,与(size-padding)个输 入数据进行运算。
本实施例以size=3为例进行说明,所述的池化运算为最大值池化,分三种情 况,不补零、补1个零、补2个零,如图4、图5、图6所示。图中所述的comp_start 表示一个数据的池化运算开始,comp_end表示一个数据的池化运算结束, comp_end的下一个时钟周期得出一个运算结果。不补零时,最右侧会多出数据, 直接丢弃;补1个零时,只需要在最右侧补零,实际上不是真正的补零,只是在 最右侧对剩余2个数据也做一次池化运算;补2个零时,同样的道理,在最左侧 对开始2个数据做一次池化运算,在最右侧对剩余2个数据做一次池化运算,达 到了补零的效果。经过本实施例所述的运算方法,得到如图7所示效果,Wo表 示输出Feature的宽度。
本实施例所述高度方向的特征数据是以一行为单位进行运算,并采用一个 FIFO缓存一行特征数据用于与下一行特征数据进行运算操作。
在对特征数据进行高度方向池化运算之前,通过公式Hi=Ho*size,判断当 Wi和size不是整数倍关系时,需要对特征数据进行填充,也就是补零操作;其 中,Hi表示输入特征数据的高度,Ho表示输出特征数据的高度,size表示子矩 阵的大小,为正整数;
所述补零操作是在特征feature四周填充零数据,填充个数为padding,其中padding大于正整数,使Hi+2*padding=Ho*size,当需要补零时,池化运算需要 在高度方向上每一列计算第1个输出或最后1个输出时,与(size-padding)个输 入数据进行运算。
本实施例以size=3为例说明,所述的池化运算为最大值池化,分三种情况, 不补零、补1个零、补2个零,如图4、图5、图6所示。图中comp_start表示 一行数据的池化运算开始,comp_end表示一行数据的池化运算结束,fifo_wr表 示需要存入FIFO的信号,comp_end的下一个时钟周期得出一行运算结果。不补 零时,最下侧会多出数据,直接丢弃;补1个零时,只需要在最下侧补零,实际 上不是真正的补零,只是在最下侧对剩余2行数据做一次池化运算;补2个零时, 同样的道理,在最上侧对开始2行数据做一次池化运算,在最下侧对剩余2行数 据做一次池化运算,达到了补零的效果。本实施例经过运算,得到如图7所示效果,Ho表示输出特征Feature的高度
经过高度方向运算后也就完成了整个池化运算,最后通过DMA写入DDR3, 写完之后通过中断将完成运算信息发送给中央处理器(CPU)。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非 是对本发明的实施方式的限定。凡在本发明的精神和原则之内所作的任何修改、 等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (8)

1.一种神经网络池化层运算系统,其特征在于:包括直接内存访问模块DMA,用于读取存储器的特征数据;
池化运算模块,用于对读取存储器的特征数据进行池化运算,并将运算结果返回DMA中;
控制器模块,用于控制DMA从存储器中搬运特征数据传输给池化运算模块进行运算处理和监控池化运算模块的状态;
所述的神经网络池化层的运算方法,如下:所述DMA每个时钟周期会读取N个特征数据传输到池化运算模块,所述池化运算模块首先对特征数据进行宽度方向运算,有N个宽度方向运算单元并行运算N个通道;
然后再对特征数据进行高度方向池化运算,同样有N个高度方向运算单元并行运算N个通道;
完成池化运算,最后将运算结果通过DMA写入存储器;
在对特征数据进行宽度方向池化运算之前,通过公式 Wi=Wo*size,判断当Wi和size不是整数倍关系时,需要对特征数据进行填充,也就是补零操作;其中Wi表示输入特征数据的宽度,Wo表示输出特征数据的宽度,size表示子矩阵的大小,为正整数;
所述补零操作是在特征四周填充零数据,填充个数为padding,其中padding大于正整数,使 Wi+2*padding=Wo*size,当需要补零时,池化运算需要在宽度方向上每一行计算第1个输出或最后1个输出时,与(size-padding)个输入数据进行运算。
2.根据权利要求1所述的神经网络池化层运算系统,其特征在于:所述DMA与存储器之间采用AXI接口通信。
3.根据权利要求1所述的神经网络池化层运算系统,其特征在于:所述控制器模块将特征数据在存储器的起始地址和字节数量传输给DMA,所述DMA根据起始地址,从存储器读取相应字节数量的特征数据,传输到池化运算模块。
4.根据权利要求3所述的神经网络池化层运算系统,其特征在于:所述特征数据在存储器内部按照N通道排列方式进行存储,所述的特征数据为三维矩阵,其宽度为Wi,高度为Hi,通道数量为C,排列顺序按N通道排列,且每N个通道的特征数据在存储器里面按连续地址存储;所有N的累加和等于C。
5.根据权利要求3所述的神经网络池化层运算系统,其特征在于:所述的N为2的次幂。
6.根据权利要求3所述的神经网络池化层运算系统,其特征在于:所述宽度方向的特征数据是以一个点为单位进行运算。
7.根据权利要求3所述的神经网络池化层运算系统,其特征在于:所述高度方向的特征数据是以一行为单位进行运算,并采用一个FIFO缓存一行特征数据用于与下一行特征数据进行运算操作。
8. 根据权利要求6所述的神经网络池化层运算系统,其特征在于:在对特征数据进行高度方向池化运算之前,通过公式 Hi=Ho*size,判断当Wi和size不是整数倍关系时,需要对特征数据进行填充,也就是补零操作;其中,Hi表示输入特征数据的高度,Ho表示输出特征数据的高度,size表示子矩阵的大小,为正整数;
所述补零操作是在特征feature四周填充零数据,填充个数为padding,其中padding大于正整数,使 Hi+2*padding=Ho*size,当需要补零时,池化运算需要在高度方向上每一列计算第1个输出或最后1个输出时,与(size-padding)个输入数据进行运算。
CN201910792663.4A 2019-08-26 2019-08-26 一种神经网络池化层及其运算方法 Active CN110674934B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910792663.4A CN110674934B (zh) 2019-08-26 2019-08-26 一种神经网络池化层及其运算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910792663.4A CN110674934B (zh) 2019-08-26 2019-08-26 一种神经网络池化层及其运算方法

Publications (2)

Publication Number Publication Date
CN110674934A CN110674934A (zh) 2020-01-10
CN110674934B true CN110674934B (zh) 2023-05-09

Family

ID=69075719

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910792663.4A Active CN110674934B (zh) 2019-08-26 2019-08-26 一种神经网络池化层及其运算方法

Country Status (1)

Country Link
CN (1) CN110674934B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114372012B (zh) * 2021-12-21 2024-02-20 中国科学院深圳先进技术研究院 一种通用、可配置的高能效池化计算单行输出系统和方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107704923A (zh) * 2017-10-19 2018-02-16 珠海格力电器股份有限公司 卷积神经网络运算电路
CN109034373A (zh) * 2018-07-02 2018-12-18 鼎视智慧(北京)科技有限公司 卷积神经网络的并行处理器及处理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107704923A (zh) * 2017-10-19 2018-02-16 珠海格力电器股份有限公司 卷积神经网络运算电路
CN109034373A (zh) * 2018-07-02 2018-12-18 鼎视智慧(北京)科技有限公司 卷积神经网络的并行处理器及处理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
aLIGO CDS Real-time Sequencer Software;LIGO Laboratory;《LASER INTERFEROMETER GRAVITATIONAL WAVE OBSERVATORY》;20101231;第1-21页 *

Also Published As

Publication number Publication date
CN110674934A (zh) 2020-01-10

Similar Documents

Publication Publication Date Title
CN101276152B (zh) 绘图装置
CN109886395B (zh) 一种面向多核图像处理卷积神经网络的数据读取方法
CN116541647A (zh) 运算加速器、处理方法及相关设备
CN111758107A (zh) 用于基于硬件的池化的系统和方法
CN109840585B (zh) 一种面向稀疏二维卷积的运算方法和系统
CN110688616B (zh) 一种基于乒乓ram的条带阵列的卷积模块及其运算方法
CN110032538B (zh) 一种数据读取系统和方法
US11386533B2 (en) Image processing method and related device
CN109146065B (zh) 二维数据的卷积运算方法及装置
CN110489428B (zh) 多维稀疏矩阵压缩方法、解压缩方法、装置、设备及介质
KR20180052069A (ko) 콘볼루션 신경망 시스템 그리고 콘볼루션 신경망의 시냅스 데이터를 압축하는 방법
CN113673701A (zh) 神经网络模型的运行方法、可读介质和电子设备
CN109145107B (zh) 基于卷积神经网络的主题提取方法、装置、介质和设备
CN110674934B (zh) 一种神经网络池化层及其运算方法
CN111783967B (zh) 一种适用于专用神经网络加速器的数据双层缓存方法
CN110647978B (zh) 在卷积神经网络中提取卷积窗的系统和方法
CN106849956A (zh) 压缩方法、解压缩方法、装置和数据处理系统
CN111191774B (zh) 面向精简卷积神经网络的低代价加速器架构及其处理方法
CN107894957B (zh) 面向卷积神经网络的存储器数据访问与插零方法及装置
US20230267310A1 (en) Neural network processing apparatus, information processing apparatus, information processing system, electronic device, neural network processing method, and program
CN114760662A (zh) 一种低时延速率匹配方法、装置、电子设备及存储介质
CN114330687A (zh) 数据处理方法及装置、神经网络处理装置
CN110503193B (zh) 一种基于roi的池化运算方法和电路
WO2021031154A1 (zh) 神经网络的特征图装载方法及设备
JP4920559B2 (ja) データ処理装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant