CN108805285B - 一种卷积神经网络池化单元设计方法 - Google Patents

一种卷积神经网络池化单元设计方法 Download PDF

Info

Publication number
CN108805285B
CN108805285B CN201810538876.XA CN201810538876A CN108805285B CN 108805285 B CN108805285 B CN 108805285B CN 201810538876 A CN201810538876 A CN 201810538876A CN 108805285 B CN108805285 B CN 108805285B
Authority
CN
China
Prior art keywords
pooling
state
module
jump
register
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810538876.XA
Other languages
English (en)
Other versions
CN108805285A (zh
Inventor
聂林川
姜凯
王子彤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Inspur Scientific Research Institute Co Ltd
Original Assignee
Shandong Inspur Scientific Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Inspur Scientific Research Institute Co Ltd filed Critical Shandong Inspur Scientific Research Institute Co Ltd
Priority to CN201810538876.XA priority Critical patent/CN108805285B/zh
Publication of CN108805285A publication Critical patent/CN108805285A/zh
Application granted granted Critical
Publication of CN108805285B publication Critical patent/CN108805285B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种卷积神经网络池化单元设计方法,涉及神经网络技术实现领域;建立卷积神经网络池化单元设计系统,其中特征图和参数输入模块用于缓存待池化的特征图和需要配置的池化参数,参数解析和映射模块接收来自特征图和参数输入模块的池化参数,对池化参数进行解析,根据解析后的参数配置寄存器组,同时构造状态机组模块中的状态机组的跳转初始状态,状态机组模块根据状态机组的跳转状态,采用电路复用和池化参数融合的方法,调用池化计算模块实现不同池化参数的池化计算,将结果输出至池化结果输出模块;利用所述系统进行卷积神经网络池化单元的设计。

Description

一种卷积神经网络池化单元设计方法
技术领域
本发明公开一种单元设计方法,涉及神经网络技术实现领域,具体地说是一种卷积神经网络池化单元设计方法。
背景技术
随着人工智能(AI)领域的发展,卷积神经网络(CNN)得到了充分利用,目前主流卷积神经网络模型不但结构复杂,计算数据量大,而且各层架构差异也很大,硬件电路实现高性能同时实现高通用性并不轻松,既要考虑资源利用率,又要考虑能效比。池化层一般连接在卷积层之后,是对特征映射图的二次特征提取,起到降低特征映射图的分辨率,减少数据规模,简化网络结构的作用。池化操作是一种模糊的滤波变化,可增强网络自身抗空间扭曲的能力。池化层最主要的运算操作就是进行数据下采样,包括最大采样、均值采样和随机采样等。不同的网络结构和同一网络结构不同层的池化计算存在较大差异。本发明提供一种卷积神经网络池化单元设计方法,通过配置不同池化参数来重新定义池化电路的功能,可有效应对不同模型和不同层池化计算,有效降低电路设计中资源和功耗浪费,并提高了电路通用性。
发明内容
本发明针对现有技术的问题,提供一种卷积神经网络池化单元设计方法,可有效应对不同模型和不同层池化计算,有效降低电路设计中资源和功耗浪费,并提高了电路通用性。
本发明提出的具体方案是:
一种卷积神经网络池化单元设计系统,
包括特征图和参数输入模块、参数解析和映射模块、状态机组模块、池化计算模块、池化结果输出模块,
特征图和参数输入模块用于缓存待池化的特征图和需要配置的池化参数,
参数解析和映射模块接收来自特征图和参数输入模块的池化参数,对池化参数进行解析,根据解析后的参数配置寄存器组,同时构造状态机组模块中的状态机组的跳转初始状态,
状态机组模块根据状态机组的跳转状态,采用电路复用和池化参数融合的方法,调用池化计算模块实现不同池化参数的池化计算,将结果输出至池化结果输出模块。
一种卷积神经网络池化单元设计方法:
建立卷积神经网络池化单元设计系统,其中所述系统包括特征图和参数输入模块、参数解析和映射模块、状态机组模块、池化计算模块、池化结果输出模块,
特征图和参数输入模块用于缓存待池化的特征图和需要配置的池化参数,
参数解析和映射模块接收来自特征图和参数输入模块的池化参数,对池化参数进行解析,根据解析后的参数配置寄存器组,同时构造状态机组模块中的状态机组的跳转初始状态,
状态机组模块根据状态机组的跳转状态,采用电路复用和池化参数融合的方法,调用池化计算模块实现不同池化参数的池化计算,将结果输出至池化结果输出模块;
利用所述系统进行卷积神经网络池化单元的设计。
所述的方法中进行解析的池化参数主要包括feature map size、kernel size、stride size、pad size。
所述的方法中参数解析和映射模块构造状态机组模块中的状态机组的有5种跳转状态,分别是跳转初始状态0,跳转状态1,跳转状态2,跳转状态3,跳转状态4,跳转状态5;
跳转状态1和跳转状态2,针对stride size和kernel size相同,pad size为0的池化参数情况,跳转状态1针对特征图奇数行操作,跳转状态2针对特征图偶数行操作;
跳转状态3、跳转状态4、跳转状态5,针对stride size和kernel size不相同,padsize不为0的池化参数情况,跳转状态3、跳转状态4针对特征图每行计算结尾两拍的延迟操作,跳转状态5针对循环计算整张特征图。
所述的方法中系统复位,清空寄存器组和指示信息,指示状态机组跳转初始状态0下,状态机组模块根据状态机组在跳转初始状态0下,读取池化参数信息,判断特征图像素点指示是否有效,若有效则将其赋值给寄存器组第一个寄存器,否则该寄存器保持原值;根据池化参数信息和特征图像素点指示,判断下一跳转状态方向。
所述的方法中所述若池化参数stride size和kernel size相同,pad size为0,状态机组跳转状态为1,则状态机组模块判断该行特征图像素点指示是否有效,若有效调用池化计算模块将寄存器组第一个寄存器值和输入的第二个像素点进行比较后赋值给第一个寄存器,无效则该寄存器保持原值,以此类推将特征图该行的奇偶位像素点比较完成并缓存至寄存器组,然后状态机组到跳转状态2,进行下一行计算。
所述的方法中状态机组在跳转状态2下,状态机组模块判断特征图像素点指示是否有效,若有效则将寄存器组第一个寄存器值和该行输入的第一个像素点进行比较后赋值给第一个寄存器,否则该寄存器保持原值,然后将第一个寄存器值和第二个像素点进行比较后赋值给第一个寄存器值,至此该特征图池化输出第一个结果;依次遍历完该行所有像素点,得到该特征图第一行池化结果,之后状态机跳转状态1,继续池化计算,直到遍历完整张特征图。
所述的方法中若池化参数stride size和kernel size不相同,pad size不为0,状态机组跳转状态为3,则状态机组模块调用池化计算模块比较第一个寄存器值和第二个像素点,得到该行前两个像素点较大值赋值给第一个寄存器值,比较第二个像素点和第一个像素点,较大值暂存第二个寄存器值中,同时状态机组模块判断当前计算的是首行还是非首行,首行时无需输出,非首行时需要延迟输出跳转状态5计算的上一行尾的倒数第一拍结果。
所述的方法中若池化参数stride size和kernel size不相同,pad size不为0,状态机组跳转状态为4,则状态机组模块调用池化计算模块比较第二个寄存器值和第三个像素点,得到该行前两个像素点较大值赋值给第二个寄存器值,比较第三个像素点和第二个像素点,较大值暂存第三个寄存器值;同时判断当前计算的是首行还是非首行,首行时无需输出,非首行时比较上一行第一个寄存器和下一行第三个寄存器的到该轮计算的第一个输出结果。
所述的方法中若池化参数stride size和kernel size不相同,pad size不为0,状态机组跳转状态为5,则状态机组模块调用池化计算模块比较第三个寄存器值和第四个像素点,得到该行前两个像素点较大值赋值给第三个寄存器值,比较第四个像素点和第三个像素点,较大值暂存第四个寄存器值;同时判断当前计算的是首行还是非首行,首行时无需输出,非首行时比较上一行第二个寄存器和下一行第四个寄存器的到该轮计算的第二个输出结果,依次计算除倒数第一、二像素点结果,然后状态机组到跳转状态0。
本发明的有益之处是:
本发明提供一种卷积神经网络池化单元设计方法,建立卷积神经网络池化单元设计系统,利用系统各部分模块通过配置不同池化参数来重新定义池化电路的功能,可有效应对不同模型和不同层池化计算,有效降低电路设计中资源和功耗浪费,并提高了电路通用性。
附图说明
图1是本发明方法流程示意图。
图2是状态机组模块的状态机组跳转状态示意图。
具体实施方式
本发明提供一种卷积神经网络池化单元设计系统,
包括特征图和参数输入模块、参数解析和映射模块、状态机组模块、池化计算模块、池化结果输出模块,
特征图和参数输入模块用于缓存待池化的特征图和需要配置的池化参数,
参数解析和映射模块接收来自特征图和参数输入模块的池化参数,对池化参数进行解析,根据解析后的参数配置寄存器组,同时构造状态机组模块中的状态机组的跳转初始状态,
状态机组模块根据状态机组的跳转状态,采用电路复用和池化参数融合的方法,调用池化计算模块实现不同池化参数的池化计算,将结果输出至池化结果输出模块。
同时提供与上述方法相对应的一种卷积神经网络池化单元设计方法:
建立卷积神经网络池化单元设计系统,其中所述系统包括特征图和参数输入模块、参数解析和映射模块、状态机组模块、池化计算模块、池化结果输出模块,
特征图和参数输入模块用于缓存待池化的特征图和需要配置的池化参数,
参数解析和映射模块接收来自特征图和参数输入模块的池化参数,对池化参数进行解析,根据解析后的参数配置寄存器组,同时构造状态机组模块中的状态机组的跳转初始状态,
状态机组模块根据状态机组的跳转状态,采用电路复用和池化参数融合的方法,调用池化计算模块实现不同池化参数的池化计算,将结果输出至池化结果输出模块;
利用所述系统进行卷积神经网络池化单元的设计。
利用本发明方法及系统,结合附图对本发明做进一步说明。
本发明系统中参数解析和映射模块主要对池化参数包括feature map size、kernel size、stride size、pad size等进行解析,根据解析后的池化参数对寄存器组的宽度和深度进行配置,同时构造状态机组运行时的跳转状态,状态机组主要调用池化计算模块进行特征图像素点比较,然后将结果输出至池化结果输出模块,其中本发明主要提及了池化计算模块采用比较器进行组合逻辑实现的二输入比较器函数进行特征图像素点比较的计算方法,而比较器只是池化算法的一种,其它如均值池化和随机池化等均可替换比较器功能实现不同的池化单元。
以最大池化,池化参数分别为第一组:feature map size=512、kernel size=2、stride size=2、pad size=2,第二组feature map size=32、kernel size=3、stride size=1、pad size=1,为例进行说明:
系统复位,清空寄存器组和指示为信息,指示状态机跳转初始状态。
初始状态0下:状态机读取池化参数信息;判断特征图像素点In[0]指示是否有效,若有效则将其赋值给寄存器组第一个寄存器D0,否则该寄存器保持原值;判断是否需要延迟输出上一跳转状态5的倒数第二拍结果;根据池化参数信息和特征图像素点指示,判断下一跳转状态跳转方向,不同的跳转方向实现的池化算法有较大差别,无法电路复用。
跳转状态1和2,针对stride size和kernelsize相同,pad size为0的情况,其中跳转状态1针对特征图奇数行,跳转状态2针对特征图偶数行。
跳转状态1下,首先判断该行特征图像素点指示是否有效,若有效则调用比较器函数将寄存器组第一个寄存器值D0和输入的第二个像素点In[1]进行比较后赋值给第一个寄存器D0,否则该寄存器保持原值,以此类推将特征图该行的奇偶位像素点比较完成并缓存至寄存器组,然后跳转状态机跳转跳转状态2,进行下一行计算;其中,设置单行像素点计数器fix_cout[8:0],寄存器组计数器reg_count[7:0],且reg_count=fix_cout[8:0]+1’b1>>1’b1,也即fix_cout变化两次触发reg_count变化一次;
跳转状态2下,首先判断特征图像素点指示是否有效,若有效则将寄存器组第一个寄存器值D0和该行输入的第1个像素点In[0]进行比较后赋值给第一个寄存器D0,否则该寄存器保持原值,然后将D0和第二个像素点进行比较后赋值给D0,至此该特征图池化输出第一个结果;依次遍历完该行所有像素点,得到该特征图第一行池化结果。之后跳转状态机跳转跳转状态1,继续池化计算,直到遍历完整张特征图。
跳转状态3、4和5,针对stride size和kernelsize不相同,pad size不为0的情况,其中跳转状态3、4主要用于对每行计算结尾两拍的延迟,同时得到D0和D1,跳转状态5主要用于循环计算整张特征图。
跳转状态3,比较D0和In[1]得到该行前两个像素点较大值赋值给D0,比较In[1]和In[0]较大值暂存D1;同时判断当前计算的是首行还是非首行,首行时无需输出,非首行时需要延迟输出跳转状态机5计算的上一行尾的倒数第一拍结果。
跳转状态4,比较D1和In[2]得到该行前两个像素点较大值赋值给D1,比较In[2]和In[1]较大值暂存D2;同时判断当前计算的是首行还是非首行,首行时无需输出,非首行时比较上一行D0和下一行第三个寄存器D32的到该轮计算的第一个输出结果。
跳转状态5,比较D2和In[3]得到该行前两个像素点较大值赋值给D2,比较In[3]和In[2]较大值暂存D3;同时判断当前计算的是首行还是非首行,首行时无需输出,非首行时比较上一行D1和下一行第四个寄存器D33的到该轮计算的第二个输出结果,依次计算除倒数第一、二像素点结果,然后跳转跳转状态0;
继续池化计算,直到遍历完整张特征图,得到池化单元。
通过上面具体实施方式,所述技术领域的技术人员可容易的实现本发明。但是应当理解,本发明并不限于上述的具体实施方式。在公开的实施方式的基础上,所述技术领域的技术人员可任意组合不同的技术特征,从而实现不同的技术方案。
除说明书所述的技术特征外,均为本专业技术人员的已知技术。

Claims (8)

1.一种卷积神经网络池化单元设计系统,其特征是
包括特征图和参数输入模块、参数解析和映射模块、状态机组模块、池化计算模块、池化结果输出模块,
特征图和参数输入模块用于缓存待池化的特征图和需要配置的池化参数,
参数解析和映射模块接收来自特征图和参数输入模块的池化参数,对池化参数进行解析,进行解析的池化参数主要包括feature map size、kernel size、stride size、padsize,
根据解析后的参数配置寄存器组,同时构造状态机组模块中的状态机组的跳转状态,所述状态机组的跳转状态,分别是跳转初始状态0,跳转状态1,跳转状态2,跳转状态3,跳转状态4,跳转状态5;
跳转状态1和跳转状态2,针对stride size和kernel size相同,pad size为0的池化参数情况,跳转状态1针对特征图奇数行操作,跳转状态2针对特征图偶数行操作;
跳转状态3、跳转状态4、跳转状态5,针对stride size和kernel size不相同,pad size不为0的池化参数情况,跳转状态3、跳转状态4针对特征图每行计算结尾两拍的延迟操作,跳转状态5针对循环计算整张特征图;
状态机组模块根据状态机组的跳转状态,采用电路复用和池化参数融合的方法,调用池化计算模块实现不同池化参数的池化计算,将结果输出至池化结果输出模块。
2.一种卷积神经网络池化单元设计方法,其特征是
建立卷积神经网络池化单元设计系统,其中所述系统包括特征图和参数输入模块、参数解析和映射模块、状态机组模块、池化计算模块、池化结果输出模块,
特征图和参数输入模块用于缓存待池化的特征图和需要配置的池化参数,
参数解析和映射模块接收来自特征图和参数输入模块的池化参数,对池化参数进行解析,进行解析的池化参数主要包括feature map size、kernel size、stride size、padsize,
根据解析后的参数配置寄存器组,同时构造状态机组模块中的状态机组的跳转状态,所述状态机组的跳转状态,分别是跳转初始状态0,跳转状态1,跳转状态2,跳转状态3,跳转状态4,跳转状态5;
跳转状态1和跳转状态2,针对stride size和kernel size相同,pad size为0的池化参数情况,跳转状态1针对特征图奇数行操作,跳转状态2针对特征图偶数行操作;
跳转状态3、跳转状态4、跳转状态5,针对stride size和kernel size不相同,pad size不为0的池化参数情况,跳转状态3、跳转状态4针对特征图每行计算结尾两拍的延迟操作,跳转状态5针对循环计算整张特征图;
状态机组模块根据状态机组的跳转状态,采用电路复用和池化参数融合的方法,调用池化计算模块实现不同池化参数的池化计算,将结果输出至池化结果输出模块;
利用所述系统进行卷积神经网络池化单元的设计。
3.根据权利要求2所述的方法,其特征是系统复位,清空寄存器组和指示信息,指示状态机组跳转初始状态0下,状态机组模块根据状态机组在跳转初始状态0下,读取池化参数信息,判断特征图像素点指示是否有效,若有效则将其赋值给寄存器组第一个寄存器,否则该寄存器保持原值;根据池化参数信息和特征图像素点指示,判断下一跳转状态方向。
4. 根据权利要求2或3所述的方法,其特征是若池化参数stride size和kernel size相同,pad size为0,状态机组跳转状态为1,则状态机组模块判断该行特征图像素点指示是否有效,若有效调用池化计算模块将寄存器组第一个寄存器值和输入的第二个像素点进行比较后赋值给第一个寄存器,无效则该寄存器保持原值,以此类推将特征图该行的奇偶位像素点比较完成并缓存至寄存器组,然后状态机组到跳转状态2,进行下一行计算。
5.根据权利要求4所述的方法,其特征是状态机组在跳转状态2下,状态机组模块判断特征图像素点指示是否有效,若有效则将寄存器组第一个寄存器值和该行输入的第一个像素点进行比较后赋值给第一个寄存器,否则该寄存器保持原值,然后将第一个寄存器值和第二个像素点进行比较后赋值给第一个寄存器值,至此该特征图池化输出第一个结果;依次遍历完该行所有像素点,得到该特征图第一行池化结果,之后状态机跳转状态1,继续池化计算,直到遍历完整张特征图。
6. 根据权利要求5所述的方法,其特征是若池化参数stride size和kernel size不相同,pad size不为0,状态机组跳转状态为3,则状态机组模块调用池化计算模块比较第一个寄存器值和第二个像素点,得到该行前两个像素点较大值赋值给第一个寄存器值,比较第二个像素点和第一个像素点,较大值暂存第二个寄存器值中,同时状态机组模块判断当前计算的是首行还是非首行,首行时无需输出,非首行时需要延迟输出跳转状态5计算的上一行尾的倒数第一拍结果。
7. 根据权利要求6所述的方法,其特征是若池化参数stride size和kernel size不相同,pad size不为0,状态机组跳转状态为4,则状态机组模块调用池化计算模块比较第二个寄存器值和第三个像素点,得到该行前两个像素点较大值赋值给第二个寄存器值,比较第三个像素点和第二个像素点,较大值暂存第三个寄存器值;同时判断当前计算的是首行还是非首行,首行时无需输出,非首行时比较上一行第一个寄存器和下一行第三个寄存器的到该轮计算的第一个输出结果。
8. 根据权利要求6或7所述的方法,其特征是若池化参数stride size和kernel size不相同,pad size不为0,状态机组跳转状态为5,则状态机组模块调用池化计算模块比较第三个寄存器值和第四个像素点,得到该行前两个像素点较大值赋值给第三个寄存器值,比较第四个像素点和第三个像素点,较大值暂存第四个寄存器值;同时判断当前计算的是首行还是非首行,首行时无需输出,非首行时比较上一行第二个寄存器和下一行第四个寄存器的到该轮计算的第二个输出结果,依次计算除倒数第一、二像素点结果,然后状态机组到跳转状态0。
CN201810538876.XA 2018-05-30 2018-05-30 一种卷积神经网络池化单元设计方法 Active CN108805285B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810538876.XA CN108805285B (zh) 2018-05-30 2018-05-30 一种卷积神经网络池化单元设计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810538876.XA CN108805285B (zh) 2018-05-30 2018-05-30 一种卷积神经网络池化单元设计方法

Publications (2)

Publication Number Publication Date
CN108805285A CN108805285A (zh) 2018-11-13
CN108805285B true CN108805285B (zh) 2022-03-29

Family

ID=64089414

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810538876.XA Active CN108805285B (zh) 2018-05-30 2018-05-30 一种卷积神经网络池化单元设计方法

Country Status (1)

Country Link
CN (1) CN108805285B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110503193B (zh) * 2019-07-25 2022-02-22 瑞芯微电子股份有限公司 一种基于roi的池化运算方法和电路
CN111832717B (zh) * 2020-06-24 2021-09-28 上海西井信息科技有限公司 芯片及用于卷积计算的处理装置
CN113240103B (zh) * 2021-06-25 2022-10-04 清华大学 神经网络池化电路
CN114372012B (zh) * 2021-12-21 2024-02-20 中国科学院深圳先进技术研究院 一种通用、可配置的高能效池化计算单行输出系统和方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1556593A (zh) * 2003-12-31 2004-12-22 中兴通讯股份有限公司 一种光同步数字传输系统中的数字接口电路及其数据解复用方法
CN103762991A (zh) * 2013-12-20 2014-04-30 记忆科技(深圳)有限公司 一种bch码译码方法及系统
US8963581B1 (en) * 2012-09-28 2015-02-24 Altera Corporation Pipelined direct drive routing fabric
CN104601860A (zh) * 2014-12-05 2015-05-06 中国航空工业集团公司第六三一研究所 一种格式容错数字视频采集处理电路结构
CN105678379A (zh) * 2016-01-12 2016-06-15 腾讯科技(深圳)有限公司 一种cnn的处理方法和装置
CN107239824A (zh) * 2016-12-05 2017-10-10 北京深鉴智能科技有限公司 用于实现稀疏卷积神经网络加速器的装置和方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2517438B1 (en) * 2009-12-23 2016-11-30 Citrix Systems Inc. Systems and methods for managing ports for rtsp across cores in a multi-core system
JP2018005420A (ja) * 2016-06-29 2018-01-11 富士通株式会社 情報処理装置、学習ネットワーク学習値算出プログラムおよび学習ネットワーク学習値算出方法
CN106778910B (zh) * 2017-01-12 2020-06-16 张亮 基于本地训练的深度学习系统和方法
CN106875012B (zh) * 2017-02-09 2019-09-20 武汉魅瞳科技有限公司 一种基于fpga的深度卷积神经网络的流水化加速系统
CN106940815B (zh) * 2017-02-13 2020-07-28 西安交通大学 一种可编程卷积神经网络协处理器ip核
CN107451653A (zh) * 2017-07-05 2017-12-08 深圳市自行科技有限公司 深度神经网络的计算方法、装置及可读存储介质
CN107292823A (zh) * 2017-08-20 2017-10-24 平安科技(深圳)有限公司 电子装置、发票分类的方法及计算机可读存储介质
CN107784291A (zh) * 2017-11-03 2018-03-09 北京清瑞维航技术发展有限公司 基于红外视频的目标检测跟踪方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1556593A (zh) * 2003-12-31 2004-12-22 中兴通讯股份有限公司 一种光同步数字传输系统中的数字接口电路及其数据解复用方法
US8963581B1 (en) * 2012-09-28 2015-02-24 Altera Corporation Pipelined direct drive routing fabric
CN103762991A (zh) * 2013-12-20 2014-04-30 记忆科技(深圳)有限公司 一种bch码译码方法及系统
CN104601860A (zh) * 2014-12-05 2015-05-06 中国航空工业集团公司第六三一研究所 一种格式容错数字视频采集处理电路结构
CN105678379A (zh) * 2016-01-12 2016-06-15 腾讯科技(深圳)有限公司 一种cnn的处理方法和装置
CN107239824A (zh) * 2016-12-05 2017-10-10 北京深鉴智能科技有限公司 用于实现稀疏卷积神经网络加速器的装置和方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"基于并行多池化CNN的生物医学事件抽取";秦美越等;《中国优秀硕士学位论文全文数据库》;20180415(第4期);第I140-91页 *

Also Published As

Publication number Publication date
CN108805285A (zh) 2018-11-13

Similar Documents

Publication Publication Date Title
CN108805285B (zh) 一种卷积神经网络池化单元设计方法
CN108171317B (zh) 一种基于soc的数据复用卷积神经网络加速器
CN111242289B (zh) 一种规模可扩展的卷积神经网络加速系统与方法
CN110046702B (zh) 神经网络计算加速器及其执行的方法
CN111783971B (zh) 一种用于深度神经网络的可高度灵活配置的数据后处理器
CN107832839B (zh) 执行卷积神经网络中的运算的方法和装置
CN109409512B (zh) 一种可灵活配置的神经网络计算单元、计算阵列及其构建方法
CN110991362A (zh) 一种基于注意力机制的行人检测模型
CN104317738B (zh) 一种基于MapReduce的增量计算方法
CN110058882B (zh) 一种用于cnn加速的opu指令集定义方法
CN110347180A (zh) 计算无人机集群重新编队的最短编队距离的方法
CN112905530A (zh) 片上架构、池化计算加速器阵列、单元以及控制方法
CN110209627A (zh) 一种面向智能终端的ssd硬件加速方法
CN116225696B (zh) 用于流处理系统的算子并发度调优方法及装置
KR20190030564A (ko) 양방향 프로세싱 엘리먼트 어레이를 포함하는 신경망 가속기
CN113746763A (zh) 一种数据处理的方法、装置和设备
CN115640825A (zh) 智能体的多样性行为强化学习方法、装置、智能体及介质
CN112905526B (zh) 一种多种类型卷积的fpga实现方法
CN111563580B (zh) 一种卷积神经网络实现装置及方法
CN113191493A (zh) 一种基于fpga并行度自适应的卷积神经网络加速器
CN111340224B (zh) 适用于低资源嵌入式芯片的cnn网络的加速设计方法
CN110163793B (zh) 卷积计算加速方法和装置
CN112001492A (zh) 关于二值权重DenseNet模型的混合流水式加速架构及加速方法
CN113902088A (zh) 神经网络结构搜索的方法、装置与系统
CN107688471B (zh) 一种动态调整数据流架构的资源带宽的计算系统及其方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20220309

Address after: 250100 building S02, No. 1036, Langchao Road, high tech Zone, Jinan City, Shandong Province

Applicant after: Shandong Inspur Scientific Research Institute Co.,Ltd.

Address before: 250100 First Floor of R&D Building 2877 Kehang Road, Sun Village Town, Jinan High-tech Zone, Shandong Province

Applicant before: JINAN INSPUR HIGH-TECH TECHNOLOGY DEVELOPMENT Co.,Ltd.

GR01 Patent grant
GR01 Patent grant