CN108805285A - 一种卷积神经网络池化单元设计方法 - Google Patents

一种卷积神经网络池化单元设计方法 Download PDF

Info

Publication number
CN108805285A
CN108805285A CN201810538876.XA CN201810538876A CN108805285A CN 108805285 A CN108805285 A CN 108805285A CN 201810538876 A CN201810538876 A CN 201810538876A CN 108805285 A CN108805285 A CN 108805285A
Authority
CN
China
Prior art keywords
state
pond
parameter
redirects
register
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810538876.XA
Other languages
English (en)
Other versions
CN108805285B (zh
Inventor
聂林川
姜凯
王子彤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Inspur Scientific Research Institute Co Ltd
Original Assignee
Jinan Inspur Hi Tech Investment and Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinan Inspur Hi Tech Investment and Development Co Ltd filed Critical Jinan Inspur Hi Tech Investment and Development Co Ltd
Priority to CN201810538876.XA priority Critical patent/CN108805285B/zh
Publication of CN108805285A publication Critical patent/CN108805285A/zh
Application granted granted Critical
Publication of CN108805285B publication Critical patent/CN108805285B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

本发明公开一种卷积神经网络池化单元设计方法,涉及神经网络技术实现领域;建立卷积神经网络池化单元设计系统,其中特征图和参数输入模块用于缓存待池化的特征图和需要配置的池化参数,参数解析和映射模块接收来自特征图和参数输入模块的池化参数,对池化参数进行解析,根据解析后的参数配置寄存器组,同时构造状态机组模块中的状态机组的跳转初始状态,状态机组模块根据状态机组的跳转状态,采用电路复用和池化参数融合的方法,调用池化计算模块实现不同池化参数的池化计算,将结果输出至池化结果输出模块;利用所述系统进行卷积神经网络池化单元的设计。

Description

一种卷积神经网络池化单元设计方法
技术领域
本发明公开一种单元设计方法,涉及神经网络技术实现领域,具体地说是一种卷积神经网络池化单元设计方法。
背景技术
随着人工智能(AI)领域的发展,卷积神经网络(CNN)得到了充分利用,目前主流卷积神经网络模型不但结构复杂,计算数据量大,而且各层架构差异也很大,硬件电路实现高性能同时实现高通用性并不轻松,既要考虑资源利用率,又要考虑能效比。池化层一般连接在卷积层之后,是对特征映射图的二次特征提取,起到降低特征映射图的分辨率,减少数据规模,简化网络结构的作用。池化操作是一种模糊的滤波变化,可增强网络自身抗空间扭曲的能力。池化层最主要的运算操作就是进行数据下采样,包括最大采样、均值采样和随机采样等。不同的网络结构和同一网络结构不同层的池化计算存在较大差异。本发明提供一种卷积神经网络池化单元设计方法,通过配置不同池化参数来重新定义池化电路的功能,可有效应对不同模型和不同层池化计算,有效降低电路设计中资源和功耗浪费,并提高了电路通用性。
发明内容
本发明针对现有技术的问题,提供一种卷积神经网络池化单元设计方法,可有效应对不同模型和不同层池化计算,有效降低电路设计中资源和功耗浪费,并提高了电路通用性。
本发明提出的具体方案是:
一种卷积神经网络池化单元设计系统,
包括特征图和参数输入模块、参数解析和映射模块、状态机组模块、池化计算模块、池化结果输出模块,
特征图和参数输入模块用于缓存待池化的特征图和需要配置的池化参数,
参数解析和映射模块接收来自特征图和参数输入模块的池化参数,对池化参数进行解析,根据解析后的参数配置寄存器组,同时构造状态机组模块中的状态机组的跳转初始状态,
状态机组模块根据状态机组的跳转状态,采用电路复用和池化参数融合的方法,调用池化计算模块实现不同池化参数的池化计算,将结果输出至池化结果输出模块。
一种卷积神经网络池化单元设计方法:
建立卷积神经网络池化单元设计系统,其中所述系统包括特征图和参数输入模块、参数解析和映射模块、状态机组模块、池化计算模块、池化结果输出模块,
特征图和参数输入模块用于缓存待池化的特征图和需要配置的池化参数,
参数解析和映射模块接收来自特征图和参数输入模块的池化参数,对池化参数进行解析,根据解析后的参数配置寄存器组,同时构造状态机组模块中的状态机组的跳转初始状态,
状态机组模块根据状态机组的跳转状态,采用电路复用和池化参数融合的方法,调用池化计算模块实现不同池化参数的池化计算,将结果输出至池化结果输出模块;
利用所述系统进行卷积神经网络池化单元的设计。
所述的方法中进行解析的池化参数主要包括feature map size、kernel size、stride size、pad size。
所述的方法中参数解析和映射模块构造状态机组模块中的状态机组的有5种跳转状态,分别是跳转初始状态0,跳转状态1,跳转状态2,跳转状态3,跳转状态4,跳转状态5;
跳转状态1和跳转状态2,针对stride size和kernel size相同,pad size为0的池化参数情况,跳转状态1针对特征图奇数行操作,跳转状态2针对特征图偶数行操作;
跳转状态3、跳转状态4、跳转状态5,针对stride size和kernel size不相同,pad size不为0的池化参数情况,跳转状态3、跳转状态4针对特征图每行计算结尾两拍的延迟操作,跳转状态5针对循环计算整张特征图。
所述的方法中系统复位,清空寄存器组和指示信息,指示状态机组跳转初始状态0下,状态机组模块根据状态机组在跳转初始状态0下,读取池化参数信息,判断特征图像素点指示是否有效,若有效则将其赋值给寄存器组第一个寄存器,否则该寄存器保持原值;根据池化参数信息和特征图像素点指示,判断下一跳转状态方向。
所述的方法中所述若池化参数stride size和kernel size相同,pad size为0,状态机组跳转状态为1,则状态机组模块判断该行特征图像素点指示是否有效,若有效调用池化计算模块将寄存器组第一个寄存器值和输入的第二个像素点进行比较后赋值给第一个寄存器,无效则该寄存器保持原值,以此类推将特征图该行的奇偶位像素点比较完成并缓存至寄存器组,然后状态机组到跳转状态2,进行下一行计算。
所述的方法中状态机组在跳转状态2下,状态机组模块判断特征图像素点指示是否有效,若有效则将寄存器组第一个寄存器值和该行输入的第一个像素点进行比较后赋值给第一个寄存器,否则该寄存器保持原值,然后将第一个寄存器值和第二个像素点进行比较后赋值给第一个寄存器值,至此该特征图池化输出第一个结果;依次遍历完该行所有像素点,得到该特征图第一行池化结果,之后状态机跳转状态1,继续池化计算,直到遍历完整张特征图。
所述的方法中若池化参数stride size和kernel size不相同,pad size不为0,状态机组跳转状态为3,则状态机组模块调用池化计算模块比较第一个寄存器值和第二个像素点,得到该行前两个像素点较大值赋值给第一个寄存器值,比较第二个像素点和第一个像素点,较大值暂存第二个寄存器值中,同时状态机组模块判断当前计算的是首行还是非首行,首行时无需输出,非首行时需要延迟输出跳转状态5计算的上一行尾的倒数第一拍结果。
所述的方法中若池化参数stride size和kernel size不相同,pad size不为0,状态机组跳转状态为4,则状态机组模块调用池化计算模块比较第二个寄存器值和第三个像素点,得到该行前两个像素点较大值赋值给第二个寄存器值,比较第三个像素点和第二个像素点,较大值暂存第三个寄存器值;同时判断当前计算的是首行还是非首行,首行时无需输出,非首行时比较上一行第一个寄存器和下一行第三个寄存器的到该轮计算的第一个输出结果。
所述的方法中若池化参数stride size和kernel size不相同,pad size不为0,状态机组跳转状态为5,则状态机组模块调用池化计算模块比较第三个寄存器值和第四个像素点,得到该行前两个像素点较大值赋值给第三个寄存器值,比较第四个像素点和第三个像素点,较大值暂存第四个寄存器值;同时判断当前计算的是首行还是非首行,首行时无需输出,非首行时比较上一行第二个寄存器和下一行第四个寄存器的到该轮计算的第二个输出结果,依次计算除倒数第一、二像素点结果,然后状态机组到跳转状态0。
本发明的有益之处是:
本发明提供一种卷积神经网络池化单元设计方法,建立卷积神经网络池化单元设计系统,利用系统各部分模块通过配置不同池化参数来重新定义池化电路的功能,可有效应对不同模型和不同层池化计算,有效降低电路设计中资源和功耗浪费,并提高了电路通用性。
附图说明
图1是本发明方法流程示意图。
图2是状态机组模块的状态机组跳转状态示意图。
具体实施方式
本发明提供一种卷积神经网络池化单元设计系统,
包括特征图和参数输入模块、参数解析和映射模块、状态机组模块、池化计算模块、池化结果输出模块,
特征图和参数输入模块用于缓存待池化的特征图和需要配置的池化参数,
参数解析和映射模块接收来自特征图和参数输入模块的池化参数,对池化参数进行解析,根据解析后的参数配置寄存器组,同时构造状态机组模块中的状态机组的跳转初始状态,
状态机组模块根据状态机组的跳转状态,采用电路复用和池化参数融合的方法,调用池化计算模块实现不同池化参数的池化计算,将结果输出至池化结果输出模块。
同时提供与上述方法相对应的一种卷积神经网络池化单元设计方法:
建立卷积神经网络池化单元设计系统,其中所述系统包括特征图和参数输入模块、参数解析和映射模块、状态机组模块、池化计算模块、池化结果输出模块,
特征图和参数输入模块用于缓存待池化的特征图和需要配置的池化参数,
参数解析和映射模块接收来自特征图和参数输入模块的池化参数,对池化参数进行解析,根据解析后的参数配置寄存器组,同时构造状态机组模块中的状态机组的跳转初始状态,
状态机组模块根据状态机组的跳转状态,采用电路复用和池化参数融合的方法,调用池化计算模块实现不同池化参数的池化计算,将结果输出至池化结果输出模块;
利用所述系统进行卷积神经网络池化单元的设计。
利用本发明方法及系统,结合附图对本发明做进一步说明。
本发明系统中参数解析和映射模块主要对池化参数包括feature map size、kernel size、stride size、pad size等进行解析,根据解析后的池化参数对寄存器组的宽度和深度进行配置,同时构造状态机组运行时的跳转状态,状态机组主要调用池化计算模块进行特征图像素点比较,然后将结果输出至池化结果输出模块,其中本发明主要提及了池化计算模块采用比较器进行组合逻辑实现的二输入比较器函数进行特征图像素点比较的计算方法,而比较器只是池化算法的一种,其它如均值池化和随机池化等均可替换比较器功能实现不同的池化单元。
以最大池化,池化参数分别为第一组:feature map size=512、kernel size=2、stride size=2、pad size=2,第二组feature map size=32、kernel size=3、stride size=1、pad size=1,为例进行说明:
系统复位,清空寄存器组和指示为信息,指示状态机跳转初始状态。
初始状态0下:状态机读取池化参数信息;判断特征图像素点In[0]指示是否有效,若有效则将其赋值给寄存器组第一个寄存器D0,否则该寄存器保持原值;判断是否需要延迟输出上一跳转状态5的倒数第二拍结果;根据池化参数信息和特征图像素点指示,判断下一跳转状态跳转方向,不同的跳转方向实现的池化算法有较大差别,无法电路复用。
跳转状态1和2,针对stride size和kernelsize相同,pad size为0的情况,其中跳转状态1针对特征图奇数行,跳转状态2针对特征图偶数行。
跳转状态1下,首先判断该行特征图像素点指示是否有效,若有效则调用比较器函数将寄存器组第一个寄存器值D0和输入的第二个像素点In[1]进行比较后赋值给第一个寄存器D0,否则该寄存器保持原值,以此类推将特征图该行的奇偶位像素点比较完成并缓存至寄存器组,然后跳转状态机跳转跳转状态2,进行下一行计算;其中,设置单行像素点计数器fix_cout[8:0],寄存器组计数器reg_count[7:0],且reg_count=fix_cout[8:0]+1’b1>>1’b1,也即fix_cout变化两次触发reg_count变化一次;
跳转状态2下,首先判断特征图像素点指示是否有效,若有效则将寄存器组第一个寄存器值D0和该行输入的第1个像素点In[0]进行比较后赋值给第一个寄存器D0,否则该寄存器保持原值,然后将D0和第二个像素点进行比较后赋值给D0,至此该特征图池化输出第一个结果;依次遍历完该行所有像素点,得到该特征图第一行池化结果。之后跳转状态机跳转跳转状态1,继续池化计算,直到遍历完整张特征图。
跳转状态3、4和5,针对stride size和kernelsize不相同,pad size不为0的情况,其中跳转状态3、4主要用于对每行计算结尾两拍的延迟,同时得到D0和D1,跳转状态5主要用于循环计算整张特征图。
跳转状态3,比较D0和In[1]得到该行前两个像素点较大值赋值给D0,比较In[1]和In[0]较大值暂存D1;同时判断当前计算的是首行还是非首行,首行时无需输出,非首行时需要延迟输出跳转状态机5计算的上一行尾的倒数第一拍结果。
跳转状态4,比较D1和In[2]得到该行前两个像素点较大值赋值给D1,比较In[2]和In[1]较大值暂存D2;同时判断当前计算的是首行还是非首行,首行时无需输出,非首行时比较上一行D0和下一行第三个寄存器D32的到该轮计算的第一个输出结果。
跳转状态5,比较D2和In[3]得到该行前两个像素点较大值赋值给D2,比较In[3]和In[2]较大值暂存D3;同时判断当前计算的是首行还是非首行,首行时无需输出,非首行时比较上一行D1和下一行第四个寄存器D33的到该轮计算的第二个输出结果,依次计算除倒数第一、二像素点结果,然后跳转跳转状态0;
继续池化计算,直到遍历完整张特征图,得到池化单元。
通过上面具体实施方式,所述技术领域的技术人员可容易的实现本发明。但是应当理解,本发明并不限于上述的具体实施方式。在公开的实施方式的基础上,所述技术领域的技术人员可任意组合不同的技术特征,从而实现不同的技术方案。
除说明书所述的技术特征外,均为本专业技术人员的已知技术。

Claims (10)

1.一种卷积神经网络池化单元设计系统,其特征是
包括特征图和参数输入模块、参数解析和映射模块、状态机组模块、池化计算模块、池化结果输出模块,
特征图和参数输入模块用于缓存待池化的特征图和需要配置的池化参数,
参数解析和映射模块接收来自特征图和参数输入模块的池化参数,对池化参数进行解析,根据解析后的参数配置寄存器组,同时构造状态机组模块中的状态机组的跳转初始状态,
状态机组模块根据状态机组的跳转状态,采用电路复用和池化参数融合的方法,调用池化计算模块实现不同池化参数的池化计算,将结果输出至池化结果输出模块。
2.一种卷积神经网络池化单元设计方法,其特征是
建立卷积神经网络池化单元设计系统,其中所述系统包括特征图和参数输入模块、参数解析和映射模块、状态机组模块、池化计算模块、池化结果输出模块,
特征图和参数输入模块用于缓存待池化的特征图和需要配置的池化参数,
参数解析和映射模块接收来自特征图和参数输入模块的池化参数,对池化参数进行解析,根据解析后的参数配置寄存器组,同时构造状态机组模块中的状态机组的跳转初始状态,
状态机组模块根据状态机组的跳转状态,采用电路复用和池化参数融合的方法,调用池化计算模块实现不同池化参数的池化计算,将结果输出至池化结果输出模块;
利用所述系统进行卷积神经网络池化单元的设计。
3.根据权利要求2所述的方法,其特征是进行解析的池化参数主要包括feature mapsize、kernel size、stride size、pad size。
4.根据权利要求3所述的方法,其特征是参数解析和映射模块构造状态机组模块中的状态机组的有5种跳转状态,分别是跳转初始状态0,跳转状态1,跳转状态2,跳转状态3,跳转状态4,跳转状态5;
跳转状态1和跳转状态2,针对stride size和kernel size相同,pad size为0的池化参数情况,跳转状态1针对特征图奇数行操作,跳转状态2针对特征图偶数行操作;
跳转状态3、跳转状态4、跳转状态5,针对stride size和kernel size不相同,pad size不为0的池化参数情况,跳转状态3、跳转状态4针对特征图每行计算结尾两拍的延迟操作,跳转状态5针对循环计算整张特征图。
5.根据权利要求4所述的方法,其特征是系统复位,清空寄存器组和指示信息,指示状态机组跳转初始状态0下,状态机组模块根据状态机组在跳转初始状态0下,读取池化参数信息,判断特征图像素点指示是否有效,若有效则将其赋值给寄存器组第一个寄存器,否则该寄存器保持原值;根据池化参数信息和特征图像素点指示,判断下一跳转状态方向。
6.根据权利要求4或5所述的方法,其特征是若池化参数stride size和kernel size相同,pad size为0,状态机组跳转状态为1,则状态机组模块判断该行特征图像素点指示是否有效,若有效调用池化计算模块将寄存器组第一个寄存器值和输入的第二个像素点进行比较后赋值给第一个寄存器,无效则该寄存器保持原值,以此类推将特征图该行的奇偶位像素点比较完成并缓存至寄存器组,然后状态机组到跳转状态2,进行下一行计算。
7.根据权利要求6所述的方法,其特征是状态机组在跳转状态2下,状态机组模块判断特征图像素点指示是否有效,若有效则将寄存器组第一个寄存器值和该行输入的第一个像素点进行比较后赋值给第一个寄存器,否则该寄存器保持原值,然后将第一个寄存器值和第二个像素点进行比较后赋值给第一个寄存器值,至此该特征图池化输出第一个结果;依次遍历完该行所有像素点,得到该特征图第一行池化结果,之后状态机跳转状态1,继续池化计算,直到遍历完整张特征图。
8.根据权利要求4所述的方法,其特征是若池化参数stride size和kernel size不相同,pad size不为0,状态机组跳转状态为3,则状态机组模块调用池化计算模块比较第一个寄存器值和第二个像素点,得到该行前两个像素点较大值赋值给第一个寄存器值,比较第二个像素点和第一个像素点,较大值暂存第二个寄存器值中,同时状态机组模块判断当前计算的是首行还是非首行,首行时无需输出,非首行时需要延迟输出跳转状态5计算的上一行尾的倒数第一拍结果。
9.根据权利要求8所述的方法,其特征是若池化参数stride size和kernel size不相同,pad size不为0,状态机组跳转状态为4,则状态机组模块调用池化计算模块比较第二个寄存器值和第三个像素点,得到该行前两个像素点较大值赋值给第二个寄存器值,比较第三个像素点和第二个像素点,较大值暂存第三个寄存器值;同时判断当前计算的是首行还是非首行,首行时无需输出,非首行时比较上一行第一个寄存器和下一行第三个寄存器的到该轮计算的第一个输出结果。
10.根据权利要求8或9所述的方法,其特征是若池化参数stride size和kernel size不相同,pad size不为0,状态机组跳转状态为5,则状态机组模块调用池化计算模块比较第三个寄存器值和第四个像素点,得到该行前两个像素点较大值赋值给第三个寄存器值,比较第四个像素点和第三个像素点,较大值暂存第四个寄存器值;同时判断当前计算的是首行还是非首行,首行时无需输出,非首行时比较上一行第二个寄存器和下一行第四个寄存器的到该轮计算的第二个输出结果,依次计算除倒数第一、二像素点结果,然后状态机组到跳转状态0。
CN201810538876.XA 2018-05-30 2018-05-30 一种卷积神经网络池化单元设计方法 Active CN108805285B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810538876.XA CN108805285B (zh) 2018-05-30 2018-05-30 一种卷积神经网络池化单元设计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810538876.XA CN108805285B (zh) 2018-05-30 2018-05-30 一种卷积神经网络池化单元设计方法

Publications (2)

Publication Number Publication Date
CN108805285A true CN108805285A (zh) 2018-11-13
CN108805285B CN108805285B (zh) 2022-03-29

Family

ID=64089414

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810538876.XA Active CN108805285B (zh) 2018-05-30 2018-05-30 一种卷积神经网络池化单元设计方法

Country Status (1)

Country Link
CN (1) CN108805285B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110503193A (zh) * 2019-07-25 2019-11-26 福州瑞芯微电子股份有限公司 一种基于roi的池化运算方法和电路
CN111832717A (zh) * 2020-06-24 2020-10-27 上海西井信息科技有限公司 芯片结构及用于卷积计算的处理模块
CN113240103A (zh) * 2021-06-25 2021-08-10 清华大学 神经网络池化电路
CN114372012A (zh) * 2021-12-21 2022-04-19 中国科学院深圳先进技术研究院 一种通用、可配置的高能效池化计算单行输出系统和方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1556593A (zh) * 2003-12-31 2004-12-22 中兴通讯股份有限公司 一种光同步数字传输系统中的数字接口电路及其数据解复用方法
CN102763393A (zh) * 2009-12-23 2012-10-31 思杰系统有限公司 用于在多核系统中管理跨越核的rtsp的端口的系统和方法
CN103762991A (zh) * 2013-12-20 2014-04-30 记忆科技(深圳)有限公司 一种bch码译码方法及系统
US8963581B1 (en) * 2012-09-28 2015-02-24 Altera Corporation Pipelined direct drive routing fabric
CN104601860A (zh) * 2014-12-05 2015-05-06 中国航空工业集团公司第六三一研究所 一种格式容错数字视频采集处理电路结构
CN105678379A (zh) * 2016-01-12 2016-06-15 腾讯科技(深圳)有限公司 一种cnn的处理方法和装置
CN106778910A (zh) * 2017-01-12 2017-05-31 张亮 基于本地训练的深度学习系统和方法
CN106875012A (zh) * 2017-02-09 2017-06-20 武汉魅瞳科技有限公司 一种基于fpga的深度卷积神经网络的流水化加速系统
CN106940815A (zh) * 2017-02-13 2017-07-11 西安交通大学 一种可编程卷积神经网络协处理器ip核
CN107239824A (zh) * 2016-12-05 2017-10-10 北京深鉴智能科技有限公司 用于实现稀疏卷积神经网络加速器的装置和方法
CN107292823A (zh) * 2017-08-20 2017-10-24 平安科技(深圳)有限公司 电子装置、发票分类的方法及计算机可读存储介质
CN107451653A (zh) * 2017-07-05 2017-12-08 深圳市自行科技有限公司 深度神经网络的计算方法、装置及可读存储介质
US20180005113A1 (en) * 2016-06-29 2018-01-04 Fujitsu Limited Information processing apparatus, non-transitory computer-readable storage medium, and learning-network learning value computing method
CN107784291A (zh) * 2017-11-03 2018-03-09 北京清瑞维航技术发展有限公司 基于红外视频的目标检测跟踪方法和装置

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1556593A (zh) * 2003-12-31 2004-12-22 中兴通讯股份有限公司 一种光同步数字传输系统中的数字接口电路及其数据解复用方法
CN102763393A (zh) * 2009-12-23 2012-10-31 思杰系统有限公司 用于在多核系统中管理跨越核的rtsp的端口的系统和方法
US8963581B1 (en) * 2012-09-28 2015-02-24 Altera Corporation Pipelined direct drive routing fabric
CN103762991A (zh) * 2013-12-20 2014-04-30 记忆科技(深圳)有限公司 一种bch码译码方法及系统
CN104601860A (zh) * 2014-12-05 2015-05-06 中国航空工业集团公司第六三一研究所 一种格式容错数字视频采集处理电路结构
CN105678379A (zh) * 2016-01-12 2016-06-15 腾讯科技(深圳)有限公司 一种cnn的处理方法和装置
US20180005113A1 (en) * 2016-06-29 2018-01-04 Fujitsu Limited Information processing apparatus, non-transitory computer-readable storage medium, and learning-network learning value computing method
CN107239824A (zh) * 2016-12-05 2017-10-10 北京深鉴智能科技有限公司 用于实现稀疏卷积神经网络加速器的装置和方法
CN106778910A (zh) * 2017-01-12 2017-05-31 张亮 基于本地训练的深度学习系统和方法
CN106875012A (zh) * 2017-02-09 2017-06-20 武汉魅瞳科技有限公司 一种基于fpga的深度卷积神经网络的流水化加速系统
CN106940815A (zh) * 2017-02-13 2017-07-11 西安交通大学 一种可编程卷积神经网络协处理器ip核
CN107451653A (zh) * 2017-07-05 2017-12-08 深圳市自行科技有限公司 深度神经网络的计算方法、装置及可读存储介质
CN107292823A (zh) * 2017-08-20 2017-10-24 平安科技(深圳)有限公司 电子装置、发票分类的方法及计算机可读存储介质
CN107784291A (zh) * 2017-11-03 2018-03-09 北京清瑞维航技术发展有限公司 基于红外视频的目标检测跟踪方法和装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
王琳等: ""结合金字塔池化模块的YOLOv2的井下行人检测"", 《计算机工程与应用》 *
秦美越等: ""基于并行多池化CNN的生物医学事件抽取"", 《中国优秀硕士学位论文全文数据库》 *
赵博然等: ""传输触发架构的可编程神经网络处理器设计"", 《西安电子科技大学学报》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110503193A (zh) * 2019-07-25 2019-11-26 福州瑞芯微电子股份有限公司 一种基于roi的池化运算方法和电路
CN111832717A (zh) * 2020-06-24 2020-10-27 上海西井信息科技有限公司 芯片结构及用于卷积计算的处理模块
CN111832717B (zh) * 2020-06-24 2021-09-28 上海西井信息科技有限公司 芯片及用于卷积计算的处理装置
CN113240103A (zh) * 2021-06-25 2021-08-10 清华大学 神经网络池化电路
CN113240103B (zh) * 2021-06-25 2022-10-04 清华大学 神经网络池化电路
CN114372012A (zh) * 2021-12-21 2022-04-19 中国科学院深圳先进技术研究院 一种通用、可配置的高能效池化计算单行输出系统和方法
CN114372012B (zh) * 2021-12-21 2024-02-20 中国科学院深圳先进技术研究院 一种通用、可配置的高能效池化计算单行输出系统和方法

Also Published As

Publication number Publication date
CN108805285B (zh) 2022-03-29

Similar Documents

Publication Publication Date Title
CN108805285A (zh) 一种卷积神经网络池化单元设计方法
Liu et al. Neu-NoC: A high-efficient interconnection network for accelerated neuromorphic systems
CN106951961B (zh) 一种粗粒度可重构的卷积神经网络加速器及系统
CN110334799A (zh) 基于存算一体的神经网络推理与训练加速器及其运行方法
CN106951926A (zh) 一种混合架构的深度学习系统方法及装置
CN108537331A (zh) 一种基于异步逻辑的可重构卷积神经网络加速电路
US11544525B2 (en) Systems and methods for artificial intelligence with a flexible hardware processing framework
CN107239420A (zh) 具有散布处理器dma‑fifo的处理系统
CN108647777A (zh) 一种实现并行卷积计算的数据映射系统及方法
CN105426918B (zh) 归一化相关图像模板匹配高效实现方法
CN104281489B (zh) Soa架构下的多线程请求方法及系统
WO2019214128A1 (zh) 一种动态可重构的智能计算集群及其配置方法
CN108304925A (zh) 一种池化计算装置及方法
CN109615071A (zh) 一种高能效的神经网络处理器、加速系统及方法
CN105847385B (zh) 一种基于运行时长的云计算平台虚拟机调度方法
CN110209627A (zh) 一种面向智能终端的ssd硬件加速方法
CN105530206B (zh) 一种具有双接入结构的Torus网络系统及其工作方法
CN107920025A (zh) 一种面向cpu‑gpu异构片上网络的动态路由方法
CN107749805A (zh) 一种虚拟机部署方法及装置
CN107807901A (zh) 一种可扩展的可重构多核处理器连接方法
CN109472734B (zh) 一种基于fpga的目标检测网络及其实现方法
CN112306628B (zh) 一种基于多核服务器的虚拟网络功能资源管理系统
CN111653317B (zh) 基因比对加速装置、方法及系统
CN117217274A (zh) 向量处理器、神经网络加速器、芯片及电子设备
CN104468379B (zh) 基于最短逻辑距离的虚拟Hadoop集群节点选择方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20220309

Address after: 250100 building S02, No. 1036, Langchao Road, high tech Zone, Jinan City, Shandong Province

Applicant after: Shandong Inspur Scientific Research Institute Co.,Ltd.

Address before: 250100 First Floor of R&D Building 2877 Kehang Road, Sun Village Town, Jinan High-tech Zone, Shandong Province

Applicant before: JINAN INSPUR HIGH-TECH TECHNOLOGY DEVELOPMENT Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant