CN109447254A - 一种卷积神经网络推理硬件加速方法及其装置 - Google Patents

一种卷积神经网络推理硬件加速方法及其装置 Download PDF

Info

Publication number
CN109447254A
CN109447254A CN201811294922.2A CN201811294922A CN109447254A CN 109447254 A CN109447254 A CN 109447254A CN 201811294922 A CN201811294922 A CN 201811294922A CN 109447254 A CN109447254 A CN 109447254A
Authority
CN
China
Prior art keywords
module
convolution
dimension
channel
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811294922.2A
Other languages
English (en)
Other versions
CN109447254B (zh
Inventor
王子彤
姜凯
于治楼
李朋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inspur Group Co Ltd
Original Assignee
Jinan Inspur Hi Tech Investment and Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinan Inspur Hi Tech Investment and Development Co Ltd filed Critical Jinan Inspur Hi Tech Investment and Development Co Ltd
Priority to CN201811294922.2A priority Critical patent/CN109447254B/zh
Publication of CN109447254A publication Critical patent/CN109447254A/zh
Priority to PCT/CN2019/096752 priority patent/WO2020087991A1/zh
Application granted granted Critical
Publication of CN109447254B publication Critical patent/CN109447254B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Abstract

本发明公开了一种卷积神经网络推理硬件加速方法及其装置,方法为控制模块将残差变换信息发送给通路选择模块,通路选择模块将特征图数据送入维度变换模块和/或通路缓冲模块;通路缓冲模块暂存输入特征图数据;维度变换模块根据控制模块给出的变换通道数对输入特征图数据进行通道数变换;纵深卷积模块对原始卷积进行加速优化,减少卷积和参数及计算量;通路缓冲模块将暂存的输入特征图数据发送至残差计算模块;卷积结果经过维度变换模块送入残差计算模块;残差计算模块将来自通路缓冲模块和维度变换模块的两组特征图数据进行同维度求和计算;完成卷积加速流程。本发明和现有技术相比使得神经网络在移动端推理时能得到更大程度的加速效果。

Description

一种卷积神经网络推理硬件加速方法及其装置
技术领域
本发明涉及人工智能数据处理技术领域,具体地说是一种卷积神经网络推理硬件加速方法及其装置。
背景技术
作为人工智能当前发展阶段中较为重要的一个分支,卷积神经网络正在不断得到高速更新与优化。随着神经网络模型深度与复杂度的增加,训练集准确率在达到峰值饱和后甚至会出现急剧下降的现象,这是由于深度增加导致的梯度爆炸,使得神经网络无法收敛,由此提出了残差网络的概念,使得深层网络中传递的不再是单纯上一层的结果,而是当前输入与之前某层结果的残差值,使得误差梯度在网络中传输降到零值,从而可在提高深度的前提下,使得网络可收敛。
神经网络在移动端的部署仍需占用大量计算与存储资源,这是由其卷积核深度较大,数目较多引起。若能使用专用硬件电路对网络模型计算进行加速,同时在算法上减少参数数目,将使得神经网络的部署难度大大降低。
发明内容
本发明的技术任务是针对以上不足之处,提供一种卷积神经网络推理硬件加速方法及其装置。
本发明解决其技术问题所采用的技术方案是: 一种卷积神经网络推理硬件加速装置,包括通路选择模块、通路缓冲模块、维度变换模块、纵深卷积模块、残差计算模块及参数池和控制模块;
所述的通路选择模块,用于根据控制模块给出的残差变换信息将输入特征图数据送入维度变换模块和/或通路缓冲模块;
所述的通路缓冲模块,用于暂存输入特征图数据,并在卷积计算结束后将暂存内容送至所述的残差计算模块;
所述的维度变换模块,用于根据控制模块给出的变换通道数对输入特征图数据进行通道数变换;
所述的纵深卷积模块,用于对原始卷积进行加速优化,减少卷积核参数及计算量,卷积结果经所述维度变换模块送入所述残差计算模块;
所述的残差计算模块,用于对来自所述通路缓冲模块及维度变换模块的两组特征图数据进行同纬度求和计算;
所述的参数池,用于存储卷积操作是需要的参数;
所述的控制模块,用于控制各模块,完成卷积加速流程。
进一步的,优选的结构为,
所述的纵深卷积模块包括滤波单元和卷积计算单元;
所述的滤波单元,用于使用一定量的蒙板对输入数据进行一次或多次滤波,不对输入通道维度造成改变,仅在每个通道上对各临近输入数据进行变更;
所述的卷积计算单元,用于对结果进行一定次数卷积计算,完成纵深卷积过程。
进一步的,优选的结构为,
所述的蒙板的量等于3x3x输入通道数;所述的卷积计算单元的卷积计算次数等于1x1x通道数。
进一步的,优选的结构为,
所述的维度变换模块,用于将输入特征图数据进行若干次卷积;维度变换模块成对出现,置于纵深卷积模块前后。
进一步的,优选的结构为,
所述的维度变换模块和纵深卷积模块中的1x1的卷积操作硬件资源可复用。
一种卷积神经网络推理硬件加速方法,方法包括:
控制模块将残差变换信息发送给通路选择模块,通路选择模块将特征图数据送入维度变换模块和/或通路缓冲模块;
通路缓冲模块暂存输入特征图数据;
维度变换模块根据控制模块给出的变换通道数对输入特征图数据进行通道数变换;
纵深卷积模块对原始卷积进行加速优化,减少卷积和参数及计算量;通路缓冲模块将暂存的输入特征图数据发送至残差计算模块;
卷积结果经过维度变换模块送入残差计算模块;
残差计算模块将来自通路缓冲模块和维度变换模块的两组特征图数据进行同维度求和计算;完成卷积加速流程。
进一步的,优选的方法为,
纵深卷积模块对原始卷积进行加速优化的方法如下:
首先使用若干的蒙板对输入数据进行一次或多次滤波,不对输入通道的维度造成改变,仅在每个通道上对各临近输入数据进行变更;然后对结果进行若干次卷积计算,完成纵深卷积过程;
其中,所述的蒙板的量等于3x3x输入通道数;所述的卷积计算单元的卷积计算次数等于1x1x通道数。
进一步的,优选的方法为,
所述的维度变换模块将输入特征图数据进行若干次卷积来实现通道数的增加、减少和保持;
若卷积处理之前为通道增加,则在卷积处理之后为通道减少;若卷积处理之前为通道减少,则在卷积处理之后为通道增加;
当残差计算模块两输入通道数不一致时,对通道数较小的输入进行整通道0填充,使得二者通道数一致;当两者长宽参数不一致时,对长宽较小的进行0填充。
进一步的,优选的方法为,
当两者长宽参数不一致时,对长宽较小的进行0填充,所述的0填充包括边界填充和内部插值填充。
一种基于卷积神经网络推理硬件加速方法的服务器,包括一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求6-9中任一所述的方法。
本发明的一种卷积神经网络推理硬件加速方法及其装置和现有技术相比,有益效果如下:
1、维度变换模块的引入,使得在移动端神经网络部署时,可实时根据资源及算法要求进行特征图数据的升维或降维操作,在保证模型表达能力的前提下,对输入数据进行精简压缩,使得模型特征信息更加集中于缩减后的通道中。
2、纵深卷积模块相较于普通卷积,更多采用1x1的卷积操作,大大减少计算和参数量,逻辑结构简单,存储资源需求降低,易于硬件实现,同时乘操作可复用,提高运算效率,使得神经网络在移动端推理时能得到更大程度的加速效果。
附图说明
下面结合附图对本发明进一步说明。
附图1为一种卷积神经网络推理硬件加速装置的原理示意图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明。
本发明为一种卷积神经网络推理硬件加速方法及其装置,使用专用硬件电路对网络模型计算进行加速,同时在算法上减少参数数目,将使得神经网络的部署难度大大降低;引入了纵深卷积模块和维度变换模块,使得神经网络在移动端推理时能得到更大程度的加速效果。
实施例1:
本发明公开了一种卷积神经网络推理硬件加速装置,包括通路选择模块,通路缓冲模块,维度变换模块,纵深卷积模块,残差计算模块,参数池与控制模块。
所述通路选择模块,用于根据控制模块给出的残差变换信息将输入特征图数据送入所述维度变换模块和/或通路缓冲模块;所述通路缓冲模块用于暂存输入特征图数据,并在卷积计算结束后将暂存内容送至所述残差计算模块;所述维度变换模块,用于根据控制模块给出的变换通道数对输入特征图数据进行通道数变换;所述纵深卷积模块,用于以特定方式对原始卷积进行加速优化,减少卷积核参数及计算量,卷积结果经所述维度变换模块送入所述残差计算模块;所述残差计算模块,用于对来自所述通路缓冲模块及维度变换模块的两组特征图数据进行同维度求和计算;所述参数池用于存储卷积操作时需要的参数;所述控制模块用于给出各模块控制信息,完成卷积加速流程;
所述纵深卷积模块,首先使用若干(3x3x输入通道数)的蒙板对输入数据进行一次或多次滤波,不对输入通道维度造成改变,仅在每个通道上对各临近输入数据进行变更;然后对结果进行若干次(1x1x通道数)卷积计算,完成纵深卷积过程;
所述维度变换模块包括通道增加、通道减少与通道数保持,变换方式为将输入特征图数据进行若干次(1x1x原始通道数)卷积;维度变换模块成对出现,置于所述纵深卷积模块前后;若卷积处理之前为通道增加,则在卷积处理之后为通道减少;反之,若卷积处理之前为通道减少,则在卷积处理之后为通道增加;
当所述残差计算模块两输入通道数不一致时,对通道数较小的输入进行整通道‘0’填充,使得二者通道数一致;当二者长宽参数不一致时,对长宽较小的进行‘0’填充,包括边界填充和内部插值填充;
维度变换模块和纵深卷积模块中的(1x1)卷积操作硬件资源可复用;
本发明还保护一种卷积神经网络推理硬件加速方法,方法包括:
控制模块将残差变换信息发送给通路选择模块,通路选择模块将特征图数据送入维度变换模块和/或通路缓冲模块;通路缓冲模块暂存输入特征图数据;
维度变换模块根据控制模块给出的变换通道数对输入特征图数据进行通道数变换;纵深卷积模块对原始卷积进行加速优化,减少卷积和参数及计算量;通路缓冲模块将暂存的输入特征图数据发送至残差计算模块;卷积结果经过维度变换模块送入残差计算模块;残差计算模块将来自通路缓冲模块和维度变换模块的两组特征图数据进行同维度求和计算;完成卷积加速流程。
其中,纵深卷积模块对原始卷积进行加速优化的方法如下:首先使用若干的蒙板对输入数据进行一次或多次滤波,不对输入通道的维度造成改变,仅在每个通道上对各临近输入数据进行变更;然后对结果进行若干次卷积计算,完成纵深卷积过程;其中,所述的蒙板的量等于3x3x输入通道数;所述的卷积计算单元的卷积计算次数等于1x1x通道数。
所述的维度变换模块将输入特征图数据进行若干次卷积来实现通道数的增加、减少和保持;若卷积处理之前为通道增加,则在卷积处理之后为通道减少;若卷积处理之前为通道减少,则在卷积处理之后为通道增加;当残差计算模块两输入通道数不一致时,对通道数较小的输入进行整通道‘0’填充,使得二者通道数一致;当两者长宽参数不一致时,对长宽较小的进行‘0’填充。所述的‘0’填充包括边界填充和内部插值填充。
一种基于卷积神经网络推理硬件加速方法的服务器,包括一个或多个处理器;存储装置,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求6-9中任一所述的方法。
维度变换模块的引入,使得在移动端神经网络部署时,可实时根据资源及算法要求进行特征图数据的升维或降维操作,在保证模型表达能力的前提下,对输入数据进行精简压缩,使得模型特征信息更加集中于缩减后的通道中。纵深卷积模块相较于普通卷积,更多采用1x1的卷积操作,大大减少计算和参数量,逻辑结构简单,存储资源需求降低,易于硬件实现,同时乘操作可复用,提高运算效率,使得神经网络在移动端推理时能得到更大程度的加速效果。
通过上面具体实施方式,所述技术领域的技术人员可容易的实现本发明。但是应当理解,本发明并不限于上述的几种具体实施方式。在公开的实施方式的基础上,所述技术领域的技术人员可任意组合不同的技术特征,从而实现不同的技术方案。

Claims (10)

1.一种卷积神经网络推理硬件加速装置,其特征在于,包括通路选择模块、通路缓冲模块、维度变换模块、纵深卷积模块、残差计算模块及参数池和控制模块;
所述的通路选择模块,用于根据控制模块给出的残差变换信息将输入特征图数据送入维度变换模块和/或通路缓冲模块;
所述的通路缓冲模块,用于暂存输入特征图数据,并在卷积计算结束后将暂存内容送至所述的残差计算模块;
所述的维度变换模块,用于根据控制模块给出的变换通道数对输入特征图数据进行通道数变换;
所述的纵深卷积模块,用于对原始卷积进行加速优化,减少卷积核参数及计算量,卷积结果经所述维度变换模块送入所述残差计算模块;
所述的残差计算模块,用于对来自所述通路缓冲模块及维度变换模块的两组特征图数据进行同纬度求和计算;
所述的参数池,用于存储卷积操作是需要的参数;
所述的控制模块,用于控制各模块,完成卷积加速流程。
2.根据权利要求1所述的一种卷积神经网络推理硬件加速装置,其特征在于,
所述的纵深卷积模块包括滤波单元和卷积计算单元;
所述的滤波单元,用于使用一定量的蒙板对输入数据进行一次或多次滤波,不对输入通道维度造成改变,仅在每个通道上对各临近输入数据进行变更;
所述的卷积计算单元,用于对结果进行一定次数卷积计算,完成纵深卷积过程。
3.根据权利要求2所述的一种卷积神经网络推理硬件加速装置,其特征在于,所述的蒙板的量等于3x3x输入通道数;所述的卷积计算单元的卷积计算次数等于1x1x通道数。
4.根据权利要求1所述的一种卷积神经网络推理硬件加速装置,其特征在于,所述的维度变换模块,用于将输入特征图数据进行若干次卷积;维度变换模块成对出现,置于纵深卷积模块前后。
5.根据权利要求1所述的一种卷积神经网络推理硬件加速装置,其特征在于,所述的维度变换模块和纵深卷积模块中的1x1的卷积操作硬件资源可复用。
6.一种卷积神经网络推理硬件加速方法,其特征在于,方法包括:
控制模块将残差变换信息发送给通路选择模块,通路选择模块将特征图数据送入维度变换模块和/或通路缓冲模块;
通路缓冲模块暂存输入特征图数据;
维度变换模块根据控制模块给出的变换通道数对输入特征图数据进行通道数变换;
纵深卷积模块对原始卷积进行加速优化,减少卷积和参数及计算量;通路缓冲模块将暂存的输入特征图数据发送至残差计算模块;
卷积结果经过维度变换模块送入残差计算模块;
残差计算模块将来自通路缓冲模块和维度变换模块的两组特征图数据进行同维度求和计算;完成卷积加速流程。
7.根据权利要求6所述的一种卷积神经网络推理硬件加速方法,其特征在于, 纵深卷积模块对原始卷积进行加速优化的方法如下:
首先使用若干的蒙板对输入数据进行一次或多次滤波,不对输入通道的维度造成改变,仅在每个通道上对各临近输入数据进行变更;然后对结果进行若干次卷积计算,完成纵深卷积过程;
其中,所述的蒙板的量等于3x3x输入通道数;所述的卷积计算单元的卷积计算次数等于1x1x通道数。
8.根据权利要求6所述的一种卷积神经网络推理硬件加速方法,其特征在于,所述的维度变换模块将输入特征图数据进行若干次卷积来实现通道数的增加、减少和保持;
若卷积处理之前为通道增加,则在卷积处理之后为通道减少;若卷积处理之前为通道减少,则在卷积处理之后为通道增加;
当残差计算模块两输入通道数不一致时,对通道数较小的输入进行整通道0填充,使得二者通道数一致;当两者长宽参数不一致时,对长宽较小的进行0填充。
9.根据权利要求8所述的一种卷积神经网络推理硬件加速方法,其特征在于,当两者长宽参数不一致时,对长宽较小的进行0填充,所述的0填充包括边界填充和内部插值填充。
10.一种基于卷积神经网络推理硬件加速方法的服务器,其特征在于,
包括一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求6-9中任一所述的方法。
CN201811294922.2A 2018-11-01 2018-11-01 一种卷积神经网络推理硬件加速方法及其装置 Active CN109447254B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201811294922.2A CN109447254B (zh) 2018-11-01 2018-11-01 一种卷积神经网络推理硬件加速方法及其装置
PCT/CN2019/096752 WO2020087991A1 (zh) 2018-11-01 2019-07-19 一种卷积神经网络推理硬件加速方法及其装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811294922.2A CN109447254B (zh) 2018-11-01 2018-11-01 一种卷积神经网络推理硬件加速方法及其装置

Publications (2)

Publication Number Publication Date
CN109447254A true CN109447254A (zh) 2019-03-08
CN109447254B CN109447254B (zh) 2021-03-16

Family

ID=65549438

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811294922.2A Active CN109447254B (zh) 2018-11-01 2018-11-01 一种卷积神经网络推理硬件加速方法及其装置

Country Status (2)

Country Link
CN (1) CN109447254B (zh)
WO (1) WO2020087991A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111898608A (zh) * 2020-07-04 2020-11-06 西北工业大学 一种基于边界预测的自然场景多语言文字检测方法
CN112862079A (zh) * 2021-03-10 2021-05-28 中山大学 一种流水式卷积计算架构设计方法及残差网络加速系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111856287B (zh) * 2020-07-17 2021-07-13 上海交通大学 基于堆叠残差因果卷积神经网络的锂电池健康状态检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874898A (zh) * 2017-04-08 2017-06-20 复旦大学 基于深度卷积神经网络模型的大规模人脸识别方法
CN107657581A (zh) * 2017-09-28 2018-02-02 中国人民解放军国防科技大学 一种卷积神经网络cnn硬件加速器及加速方法
CN108197705A (zh) * 2017-12-29 2018-06-22 国民技术股份有限公司 卷积神经网络硬件加速装置及卷积计算方法及存储介质
US20180181864A1 (en) * 2016-12-27 2018-06-28 Texas Instruments Incorporated Sparsified Training of Convolutional Neural Networks

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160379109A1 (en) * 2015-06-29 2016-12-29 Microsoft Technology Licensing, Llc Convolutional neural networks on hardware accelerators
CN108108809B (zh) * 2018-03-05 2021-03-02 山东领能电子科技有限公司 一种针对卷积神经元网络进行推理加速的硬件架构及其工作方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180181864A1 (en) * 2016-12-27 2018-06-28 Texas Instruments Incorporated Sparsified Training of Convolutional Neural Networks
CN106874898A (zh) * 2017-04-08 2017-06-20 复旦大学 基于深度卷积神经网络模型的大规模人脸识别方法
CN107657581A (zh) * 2017-09-28 2018-02-02 中国人民解放军国防科技大学 一种卷积神经网络cnn硬件加速器及加速方法
CN108197705A (zh) * 2017-12-29 2018-06-22 国民技术股份有限公司 卷积神经网络硬件加速装置及卷积计算方法及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ALESSANDRO AIMAR ET AL.: "NullHop: A Flexible Convolutional Neural Network Accelerator Based on Sparse Representations of Feature Maps", 《HTTPS://ARXIV.ORG/ABS/1706.01406》 *
李申煜: "基于Zynq的卷积神经网络加速器设计", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111898608A (zh) * 2020-07-04 2020-11-06 西北工业大学 一种基于边界预测的自然场景多语言文字检测方法
CN112862079A (zh) * 2021-03-10 2021-05-28 中山大学 一种流水式卷积计算架构设计方法及残差网络加速系统
CN112862079B (zh) * 2021-03-10 2023-04-28 中山大学 一种流水式卷积计算架构设计方法及残差网络加速系统

Also Published As

Publication number Publication date
CN109447254B (zh) 2021-03-16
WO2020087991A1 (zh) 2020-05-07

Similar Documents

Publication Publication Date Title
CN109447254A (zh) 一种卷积神经网络推理硬件加速方法及其装置
CN106447034B (zh) 一种基于数据压缩的神经网络处理器、设计方法、芯片
CN108416755A (zh) 一种基于深度学习的图像去噪方法及系统
CN111553484A (zh) 联邦学习的方法、装置及系统
CN107341544A (zh) 一种基于可分割阵列的可重构加速器及其实现方法
CN104199536B (zh) 一种基于bp神经网络的fpga动态功耗估算方法
CN108280514A (zh) 基于fpga的稀疏神经网络加速系统和设计方法
CN107578098A (zh) 基于脉动阵列的神经网络处理器
CN109214990A (zh) 一种基于Inception模型的深度卷积神经网络图像去噪方法
CN107451658A (zh) 浮点运算定点化方法及系统
CN111242289A (zh) 一种规模可扩展的卷积神经网络加速系统与方法
CN107092960A (zh) 一种改进的并行通道卷积神经网络训练方法
CN107330516A (zh) 模型参数训练方法、装置及系统
CN109472356A (zh) 一种可重构神经网络算法的加速装置及方法
CN107886164A (zh) 一种卷积神经网络训练、测试方法及训练、测试装置
CN107861916A (zh) 一种用于针对神经网络执行非线性运算的方法和装置
CN104680236B (zh) 核函数极限学习机分类器的fpga实现方法
CN109615068A (zh) 一种对模型中的特征向量进行量化的方法和装置
CN106373160A (zh) 一种基于深度强化学习的摄像机主动目标定位方法
CN109754079A (zh) 一种基于参数重要性克服灾难性遗忘的方法
CN110245753A (zh) 一种基于幂指数量化的神经网络压缩方法
CN110458247A (zh) 图像识别模型的训练方法及装置、图像识别方法及装置
CN108665475A (zh) 神经网络训练、图像处理方法、装置、存储介质和电子设备
Gao et al. Vacl: Variance-aware cross-layer regularization for pruning deep residual networks
CN113449878B (zh) 数据分布式的增量学习方法、系统、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20190614

Address after: No. 1036, Shandong high tech Zone wave road, Ji'nan, Shandong

Applicant after: Inspur Group Co., Ltd.

Address before: 250100 First Floor of R&D Building 2877 Kehang Road, Sun Village Town, Jinan High-tech Zone, Shandong Province

Applicant before: Ji'nan wave high and New Technology Investment Development Co., Ltd.

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20190718

Address after: 250100 North Sixth Floor, S05 Building, No. 1036 Tidal Road, Jinan High-tech Zone, Shandong Province

Applicant after: Shandong Wave Artificial Intelligence Research Institute Co., Ltd.

Address before: 250100 Ji'nan high tech Zone, Shandong, No. 1036 wave road

Applicant before: Inspur Group Co., Ltd.

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210223

Address after: No. 1036, Shandong high tech Zone wave road, Ji'nan, Shandong

Applicant after: INSPUR GROUP Co.,Ltd.

Address before: North 6th floor, S05 building, Langchao Science Park, 1036 Langchao Road, hi tech Zone, Jinan City, Shandong Province, 250100

Applicant before: SHANDONG INSPUR ARTIFICIAL INTELLIGENCE RESEARCH INSTITUTE Co.,Ltd.

GR01 Patent grant
GR01 Patent grant