CN111860826A - 一种低计算能力处理设备的图像数据处理方法及装置 - Google Patents

一种低计算能力处理设备的图像数据处理方法及装置 Download PDF

Info

Publication number
CN111860826A
CN111860826A CN202010483570.6A CN202010483570A CN111860826A CN 111860826 A CN111860826 A CN 111860826A CN 202010483570 A CN202010483570 A CN 202010483570A CN 111860826 A CN111860826 A CN 111860826A
Authority
CN
China
Prior art keywords
neuron
network layer
pruned
neurons
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010483570.6A
Other languages
English (en)
Other versions
CN111860826B (zh
Inventor
王乃岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Tusimple Technology Co Ltd
Original Assignee
Beijing Tusimple Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Tusimple Technology Co Ltd filed Critical Beijing Tusimple Technology Co Ltd
Priority to CN202010483570.6A priority Critical patent/CN111860826B/zh
Publication of CN111860826A publication Critical patent/CN111860826A/zh
Application granted granted Critical
Publication of CN111860826B publication Critical patent/CN111860826B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Medicines Containing Material From Animals Or Micro-Organisms (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明公开了一种低计算能力处理设备的图像数据处理方法和装置。在实时的计算机视觉处理过程中,低计算能力的处理设备获取图像数据;处理设备使用预先设置的神经网络对获取到的图像数据进行计算机视觉处理,得到计算机视觉处理结果;其中,神经网络包括多个网络层,其中的一个网络层是通过如下处理得到的:根据待剪枝网络层中神经元的激活值,确定神经元的重要度值;根据待剪枝网络层中神经元与下一个网络层中神经元的连接权重,确定神经元的多样性值;根据待剪枝网络层中的神经元的重要度值和多样性值,采用体积最大化神经元选取策略从待剪枝网络层中选取保留的神经元;将待剪枝网络层中的其他神经元剪掉,得到剪枝网络层。

Description

一种低计算能力处理设备的图像数据处理方法及装置
技术领域
本发明涉及计算机领域,特别涉及一种低计算能力处理设备的图像数据处理方法及装置。
背景技术
目前,深度神经网络在计算机视觉领域取得了巨大的成功,如图像分类、目标检测、图像分割等。效果较好的深度神经网络往往有着数量较大的模型参数,不仅计算量大而且在实际部署中模型占据较大一部分空间,导致在一些需要实时运算的应用场景无法在低计算能力的处理设备(诸如嵌入式设备、集成硬件设备)上正常应用。可见,在低功耗、低计算能力的设备上设置深度神经网络进行实时处理,存在计算量大、处理速度慢的问题。
目前,对深度神经网络的处理速度进行提速的方法包括进行压缩和加速的方式,这一方式主要是通过网络剪枝的方式实现,例如,Song Han等人发表的论文“Learningboth Weights and Connections for Efficient Neural Network”中提出了一种基于权重的网络剪枝技术,以及Zelda Mariet等人发表的论文“Diversity Networks”中提出了一种基于行列式点过程的神经网络剪枝技术。然而目前的网络剪枝技术的效果不理想,仍然存在压缩、加速和精度不能同时兼顾的技术问题。从而使得设置有深度神经网络的低计算能力处理设备执行实时计算机视觉处理的速度受限、无法满足实时计算的需求。
发明内容
鉴于上述问题,本发明提供一种低计算能力处理设备的图像数据处理方法及装置,以解决现有技术中设置有深度神经网络的低计算能力处理设备执行实时计算机视觉处理的速度受限、无法满足实时计算的需求的问题。
本发明一方面,提供一种低计算能力处理设备的图像数据处理方法,方法包括:
在实时的计算机视觉处理过程中,低计算能力的处理设备获取图像数据;
所述处理设备使用预先设置的神经网络对获取到的图像数据进行计算机视觉处理,得到计算机视觉处理结果;其中,所述神经网络包括多个网络层,其中的一个网络层是通过如下处理得到的:
根据待剪枝网络层中神经元的激活值,确定神经元的重要度值;
根据所述待剪枝网络层中神经元与下一个网络层中神经元的连接权重,确定神经元的多样性值;
根据所述待剪枝网络层中的神经元的重要度值和多样性值,采用体积最大化神经元选取策略从所述待剪枝网络层中选取保留的神经元;
将所述待剪枝网络层中的其他神经元剪掉,得到剪枝网络层。
另一方面,本发明实施例还提供一种低计算能力处理设备的图像数据处理装置,在实时的计算机视觉处理过程中,低计算能力的处理设备获取图像数据;所述计算机视觉处理装置使用预先设置的神经网络对获取到的图像数据进行计算机视觉处理,得到计算机视觉处理结果;其中,所述神经网络包括多个网络层,其中的一个网络层是通过所述图像数据处理装置获得的,所述图像数据处理装置包括:
重要度值确定单元,用于根据待剪枝网络层中神经元的激活值,确定神经元的重要度值;
多样性值确定单元,用于根据所述待剪枝网络层中神经元与下一个网络层中神经元的连接权重,确定神经元的多样性值;
神经元选取单元,用于根据所述待剪枝网络层中的神经元的重要度值和多样性值,采用体积最大化神经元选取策略从所述待剪枝网络层中选取保留的神经元;
剪枝单元,用于将所述待剪枝网络层中的其他神经元剪掉,得到剪枝网络层。
在本发明实施例提供的低计算能力处理设备的图像数据处理方法中,低计算能力的处理设备在实时的计算机视觉处理过程中,获取图像数据,并使用预设的神经网络对图像数据进行计算机视觉处理,得到计算机视觉处理结果。在获得预设神经网络的一个网络层时,首先,针对待剪枝网络层中的每一个神经元,根据所述神经元的激活值确定其重要度值以及根据该神经元与下一个网络层中神经元的连接权重确定其多样性值;再根据待剪枝网络层中神经元的重要度值和多样性值,采用体积最大化神经元选取策略从待剪枝中选取保留的神经元。本发明技术方案,神经元的重要性值反映神经元对神经网络输出结果的影响程度,神经元的多样性反映神经元的表达能力,因此,采用体积最大神经元选取策略选取出的神经元对神经网络的输出结果的贡献作用和表达能力较强,剪掉的神经元为对神经网络输出结果贡献较弱且表达能力较差的神经元,因此,剪枝后的神经网络与剪枝前的神经网络相比,不仅得到了很好的压缩和加速效果,而且与剪枝前相比其精度损失较小,因此,本发明实施例提供的方法能够在确保神经网络精度的同时取得了较好的压缩和加速效果,从而能够在低计算能力处理设备执行实时的计算机处理过程中,提高图像数据的实时处理速度,满足实时性要求。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中神经网络剪枝方法的流程图之一;
图2为本发明实施例中确定神经元的重要度值的方法流程图;
图3为本发明实施例中从所述待剪枝网络层中选取保留的神经元的方法流程图之一;
图4为本发明实施例中从所述待剪枝网络层中选取保留的神经元的方法流程图之二;
图5为本发明实施例中采用贪心求解方法选取神经元的方法流程图;
图6为本发明实施例中神经网络剪枝方法的流程图之二;
图7为本发明实施例中神经网络剪枝方法的流程图之三;
图8为本发明实施例中神经网络剪枝装置的结构示意图之一;
图9为本发明实施例中重要度值确定单元的结构示意图;
图10为本发明实施例中神经元选取单元的结构示意图之一;
图11为本发明实施例中神经元选取单元的结构示意图之二;
图12为本发明实施例中神经网络剪枝装置的结构示意图之二;
图13为本发明实施例中神经网络剪枝装置的结构示意图之三。
具体实施方式
为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
以上是本发明的核心思想,为了使本技术领域的人员更好地理解本发明实施例中的技术方案,并使本发明实施例的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明实施例中技术方案作进一步详细的说明。
本发明技术方案,在低功耗、低计算能力的处理设备上预先设置神经网络,在实时的计算机视觉处理过程中,低计算能力的处理设备获取图像数据,通过设置的神经网络进行计算机视觉处理,得到计算机视觉处理结果。计算机视觉处理可以包括图像分类、目标检测、图像分割等处理。在预先设置神经网络时,神经网络可以包括多个网络层,可以根据实际应用需求确定神经网络中的哪些网络层需要剪枝(后续称为待剪枝网络层),既可以单独对神经网络中的部分网络层进行剪枝,也可以对神经网络中的所有网络层进行剪枝。在实际应用中,例如,可根据网络层的计算量大小确定是否对该网络层进行剪枝,以及可权衡剪枝后神经网络要求的速度和精度(如精度不低于剪枝前的90%)来确定剪枝的网络层数量以及每一个待剪枝网络层需要剪掉的神经元数量,各待剪枝网络层剪掉的神经元数量可以相同也可以不相同,本领域技术人员可以根据实际应用的需求灵活选定,本申请不做严格限定。
本申请实施例提供的低计算能力处理设备的图像数据处理方法包括:
步骤S1、在实时的计算机视觉处理过程中,低计算能力的处理设备获取图像数据;
步骤S2、处理设备使用预先设置的神经网络对获取到的图像数据进行计算机视觉处理,得到计算机视觉处理结果;其中,所述神经网络包括多个网络层。
在上述处理过程中的神经网络可以是预先设置得到的,神经网络可以包括多个网络层,其中的一个或者多个网络层可以通过本申请实施例提供的神经网络剪枝方法处理获得到。
图1为本发明实施例提供的一种神经网络剪枝方法的流程图,对神经网络中的每一个待剪枝网络层均可采用图1所示的方法流程,该方法包括:
步骤101、根据待剪枝网络层中神经元的激活值,确定神经元的重要度值。
步骤102、根据所述待剪枝网络层中神经元与下一个网络层中神经元的连接权重,确定神经元的多样性值。
步骤103、根据所述待剪枝网络层中的神经元的重要度值和多样性值,采用体积最大化神经元选取策略从所述待剪枝网络层中选取保留的神经元。
步骤104、将所述待剪枝网络层中的其他神经元剪掉,得到剪枝网络层。
以下对前述图1所示的各个步骤的具体实现方式进行详细的描述,以便本领域技术人员理解本申请技术方案。具体实现方式仅仅是一个示例,本领域技术人员基于该示例想到的其他替代方式或等同方式均在本申请保护的范围内。
本发明实施例中,均以待剪枝网络层为神经网络中的第l层为例进行描述。
优选地,前述步骤101可通过如图2所示的方法流程实现,方法包括:
步骤101a、通过神经网络对输入数据进行一次前向操作,得到所述待剪枝网络层中每个神经元的激活值向量;
步骤101b、计算各神经元的激活值向量的方差;
步骤101c、根据各神经元的方差得到所述待剪枝网络层的神经元方差重要性向量;
步骤101d、根据所述神经元方差重要性向量,分别对各神经元的方差进行归一化处理,得到神经元的重要度值。
假设待剪枝网络层为神经网络的第l层,待剪枝网络层包含的神经元总数为nl,神经网络的训练数据为T=[t1,t2,...,tN],
Figure BDA0002518042010000061
表示在输入数据tj时(其中1≤j≤N),第l层中第i个神经元的激活值(其中1≤i≤nl)。
通过前述步骤101a可得到待剪枝网络层中各神经元的激活值向量可如下式(1)所示:
Figure BDA0002518042010000062
式(1)中,
Figure BDA0002518042010000063
为待剪枝网络层中第i个神经元的激活值向量。
前述步骤101b中,通过以下式(2)计算各神经元的激活值向量的方差:
Figure BDA0002518042010000064
式(2)中,
Figure BDA0002518042010000065
为待剪枝网络层中第i个神经元的激活值向量的方差。
前述步骤101c中,得到的神经元方差重要性向量可表示为
Figure BDA0002518042010000066
前述步骤101d具体可通过以下式(3)对各神经元的方差进行归一化处理:
Figure BDA0002518042010000067
式(3)中,
Figure BDA0002518042010000068
为待剪枝网络层中第i个神经元的激活值向量的方差,Ql为待剪枝神经网络层的神经元方差重要性向量。
本发明实施例中,当神经元的激活值向量方差很小时,表明该神经元针对不同的输入数据其激活值均不会产生明显的变化(例如神经元的激活值均为0时表明该神经元对网络的输出结果没有影响),即激活值向量方差越小的神经元对神经网络的输出结果的影响力越小,反之,激活值向量方差越大的神经元对神经网络的输出结果的影响力越大,因此通过神经元的激活值向量方差即可反映该神经元对于神经网络的重要性。若神经元的激活值一直保持同一个非0值,则该神经元可以融合至其他神经元中。
当然,本申请用于表示神经元的重要性值不仅限于采用神经元的激活值向量方差,本领域技术人员还可以采用神经元的激活值均值、激活值标准差或激活值梯度均值等表示神经元的重要性,本申请不做严格限定。
优选地,本发明实施例中,前述步骤102具体实现可如下:针对待剪枝网络层中的每个神经元,根据所述神经元与下一个网络层中神经元的连接权重,构建所述神经元的权重向量,并将所述权重向量的方向向量确定为所述神经元的多样性值。
构建神经元的权重向量如式(4)所示:
Figure BDA0002518042010000071
式(4)中
Figure BDA0002518042010000072
表示待剪枝网络层中第i个神经元的权重向量,
Figure BDA0002518042010000073
表示待剪枝网络层中第i个神经元与其下一个网络层(即第l+1层)中第j个神经元之间的连接权重,nl+1为第l+1层包含的神经元的总数量,其中1≤j≤nl+1
神经元的权重向量的方向向量表示为
Figure BDA0002518042010000074
优选地,本发明实施例中,前述步骤103具体实现可通过图3或图4所示的方法流程实现。
如图3所示,为本发明实施例中从所述待剪枝网络层中选取保留的神经元的方法流程图,该方法包括:
步骤103a、针对待剪枝网络层中的每个神经元,将所述神经元的重要度值与多样性值的乘积确定为所述神经元的特征向量;
本发明实施例中,神经元的特征向量可如下式(6)所示:
Figure BDA0002518042010000075
式(6)中
Figure BDA0002518042010000076
表示待剪枝网络层中第i个神经元的特征向量。
步骤103b、从所述待剪枝网络层中的神经元中选取多组包含k个神经元的组合,所述k为预置的正整数;
优选地,为确保对尽可能多的包含k个神经元的组合进行比对,以进一步确保最终选取保留的神经元更优,本发明实施例中,在前述步骤103b中,可选取
Figure BDA0002518042010000077
个组合,其中nl表示待剪枝网络层包含的神经元总数,kl表示确定保留的神经元数量,即前述的k。
步骤103c、计算每个组合包含的神经元的特征向量所组成的平行六面体的体积,选取体积最大的组合作为保留的神经元。
在得到神经元的特征向量之后,神经元之间的夹角θij的余弦值可以作为神经元之间相似程度的衡量值,即
Figure BDA0002518042010000081
越大则表明待剪枝网络层中的第i个神经元和第j个神经元越相似,例如
Figure BDA0002518042010000082
时则表明第i个神经元和第j个神经元完全相同;反之,
Figure BDA0002518042010000083
越小则表明第i个神经元和第j个神经元越相似差别越大,由该两个神经元构成的集合的多样性越大。基于此原理,在选取神经元时,选取重要性高且相似度越低的神经元,则选取的神经元构成的集合的多样性越大。以选取两个神经元为例,选取
Figure BDA0002518042010000084
较大且
Figure BDA0002518042010000085
较小的两个神经元,方便优化,可采用
Figure BDA0002518042010000086
替代
Figure BDA0002518042010000087
即最大化
Figure BDA0002518042010000088
即可,而最大化
Figure BDA0002518042010000089
即为最大化第i个神经元和第j个神经元的
Figure BDA00025180420100000810
Figure BDA00025180420100000811
两个向量构成的平行四边形的面积。基于该原理拓展到选取k个神经元上即为MAX-VOL问题,即在
Figure BDA00025180420100000812
矩阵中寻找一个子矩阵
Figure BDA00025180420100000813
使得该k个向量组成的平行六面体的体积最大。
如图4所示,为本发明实施例中从所述待剪枝网络层中选取保留的神经元的方法流程图,该方法包括:
步骤401、针对待剪枝网络层中的每个神经元,将所述神经元的重要度值与多样性值的乘积确定为所述神经元的特征向量;
前述步骤401的实现方式可参见前述步骤301,在此不再赘述。
步骤402、采用贪心求解方法,从所述待剪枝网络层中的神经元中选取k个神经元作为保留的神经元。
本发明实施例中,前述步骤402中,采用贪心求解方法选取神经元具体实现可如图5所示的方法流程:
步骤402a、初始化神经元集合为空集合C;
步骤402b、根据所述待剪枝网络层中的神经元的特征向量构建特征矩阵;
本发明实施例中,构建的特征矩阵如
Figure BDA00025180420100000814
其中Bl为特征矩阵,
Figure BDA00025180420100000815
为第l层第i个神经元的特征向量。
步骤402c、采用多轮以下选取方式选取k个神经元:
从本轮选取的特征矩阵Bl中选取模长最大的特征向量
Figure BDA00025180420100000816
并将所述模长最大的特征向量
Figure BDA00025180420100000817
对应的神经元添加至所述神经元集合C中;
判断所述神经元集合中的神经元数量是否达到k,若是则结束;
若否,则:从本轮选取的特征矩阵Bl中去掉所述模长最大的特征向量在其他特征向量中的投影,得到下一轮选取的特征矩阵Bl,并进行下一轮选取。
本发明技术方案,神经元的重要性值反映神经元对神经网络输出结果的影响程度,神经元的多样性反映神经元的表达能力,因此,采用体积最大神经元选取策略选取出的神经元对神经网络的输出结果的贡献作用和表达能力较强,剪掉的神经元为对神经网络输出结果贡献较弱且表达能力较差的神经元,因此,剪枝后的神经网络与剪枝前的神经网络相比,不仅得到了很好的压缩和加速效果,而且与剪枝前相比其精度损失较小,因此,本发明实施例提供的剪枝方法能够在确保神经网络精度的同时取得了较好的压缩和加速效果。从而,本发明实施例提供的技术方案能够提高低计算能力处理设备在实时的计算机处理过程中,对图像数据的实时处理速度,满足实时性要求。
优选地,对待剪枝网络层进行剪枝后会损失网络精度,因此,为提高剪枝后的神经网络的精度,本发明实施例在对待剪枝网络层进行剪枝之后,采用权重融合策略对该剪枝网络层中神经元与下一个网络层的神经元之间的连接权重进行调整。另外,由于进行权重融合后可能会导致剪枝网络层的下一层网络得到的激活值与剪枝前不相同,会存在一定的误差,剪枝网络层位于神经网络的浅层时,该误差由于后续网络层的操作会产生误差累积,因此,为进一步提高神经网络的精度,本发明实施例还对剪枝网络层之后的所有网络层均调整该网络层与其下一个网络层的神经元的连接权重。
因此,在前述图1所示的步骤104之后,还包括步骤105,如图6所示:
步骤105、以剪枝网络层开始,采用权重融合策略,对各网络层的神经元与其下一个网络层的神经元之间的连接权重进行调整。
本发明实施例中,采用权重融合策略对各网络层的神经元与其下一个网络层的神经元之间的连接权进行调整,具体实现可如下。
1)针对剪枝网络层,采用以下公式(7)得到剪枝网络层(即第l层)与其下一个网络层(即第l+1层)中的连接权重。
Figure BDA0002518042010000091
式(7)中,
Figure BDA0002518042010000101
为第l层第i个神经元与第l+1层中第j个神经元之间调整后的连接权重,
Figure BDA0002518042010000102
为融合增量,
Figure BDA0002518042010000103
为第l层第i个神经元与第l+1层中第j个神经元之间调整前的连接权重。
通过求解以下式子得到
Figure BDA0002518042010000104
Figure BDA0002518042010000105
求解结果为:
Figure BDA0002518042010000106
其中,αir l
Figure BDA0002518042010000107
的最小二乘解。
2)针对剪枝网络层之后的网络层,采用以下公式(8)调整网络层的神经元与其下一个网络层的神经元之间的连接权重:
Figure BDA0002518042010000108
其中,k>l式(8)
式(8)中,
Figure BDA0002518042010000109
为第k层第i个神经元与第k+1层中第j个神经元之间调整后的连接权重,
Figure BDA00025180420100001010
为融合增量,
Figure BDA00025180420100001011
为第k层第i个神经元与第k+1层中第j个神经元之间调整前的连接权重。
通过求解以下式子得到
Figure BDA00025180420100001012
Figure BDA00025180420100001013
以上式子中,
Figure BDA00025180420100001014
为第k层第i个神经元调整后的激活值向量;
Figure BDA00025180420100001015
为第k层第i个神经元调整前的激活值向量。
Figure BDA00025180420100001016
可通过最小二乘法求解得到,原理同前述内容,在此不再赘述。
优选地,为进一步提高剪枝后的神经网络的精度,本发明实施例还可以在前述图6所示的方法流程中包含步骤106,如图7所示:
步骤106、采用预置的训练数据对权重调整后的神经网络进行训练。
本发明实施例中,对权重调整后的神经网络进行训练,可采用现有技术的训练方式,在此不再赘述。本发明实施例中,可以权重调整后的神经网络为初始网络模型,设定较低的学习率在原始训练数据T上进行重新训练,即可进一步提高剪枝后的神经网络的网络精度。
本发明实施例中,每对神经网络中的某一待剪枝网络层进行剪枝后,即进行前述步骤105和步骤106;再以步骤106训练后的神经网络进行下一个待剪枝网络层的剪枝操作。
基于前述方法相同的构思,本发明实施例还提供了一种低计算能力处理设备的图像数据处理装置,在实时的计算机视觉处理过程中,低计算能力处理设备的图像数据处理装置获取图像数据;所述装置使用预先设置的神经网络对获取到的图像数据进行计算机视觉处理,得到计算机视觉处理结果;其中,所述神经网络包括多个网络层。该图像数据处理装置还可以包括一个神经网络剪枝装置。
在本发明实施例中,预设的神经网络中的一个或者多个网络层是通过本发明实施例提供的神经网络剪枝装置获得的,该装置的结构如图8所示,该装置包括:
重要度值确定单元81,用于根据待剪枝网络层中神经元的激活值,确定神经元的重要度值;
多样性值确定单元82,用于根据所述待剪枝网络层中神经元与下一个网络层中神经元的连接权重,确定神经元的多样性值;
神经元选取单元83,用于根据所述待剪枝网络层中的神经元的重要度值和多样性值,采用体积最大化神经元选取策略从所述待剪枝网络层中选取保留的神经元;
剪枝单元84,用于将所述待剪枝网络层中的其他神经元剪掉,得到剪枝网络层。
优选地,重要度值确定单元81的结构如图9所示,包括:
激活值向量确定模块811,用于通过神经网络对输入数据进行一次前向操作,得到该待剪枝网络层中每个神经元的激活值向量;
计算模块812,用于计算各神经元的激活值向量的方差;
神经元方差重要性向量确定模块813,用于根据各神经元的方差得到所述待剪枝网络层的神经元方差重要性向量;
重要度值确定模块814,用于根据所述神经元方差重要性向量,分别对各神经元的方差进行归一化处理,得到神经元的重要度值。
优选地,所述多样性值确定单元82,具体用于:针对待剪枝网络层中的每个神经元,根据所述神经元与下一个网络层中神经元的连接权重,构建所述神经元的权重向量,并将所述权重向量的方向向量确定为所述神经元的多样性值。
优选地,神经元选取单元83的结构如图10所示,包括:
第一特征向量确定模块831,用于针对待剪枝网络层中的每个神经元,将所述神经元的重要度值与多样性值的乘积确定为所述神经元的特征向量;
组合模块832,用于从所述待剪枝网络层中的神经元中选取多组包含k个神经元的组合,所述k为预置的正整数;
第一选取模块833,用于计算每个组合包含的神经元的特征向量所组成的平行六面体的体积,选取体积最大的组合作为保留的神经元。
优选地,前述神经元选取单元83的另一种结构如图11所示,包括:
第二特征向量确定模块834,用于针对待剪枝网络层中的每个神经元,将所述神经元的重要度值与多样性值的乘积确定为所述神经元的特征向量;
第二选取模块835,用于采用贪心求解方法,从所述待剪枝网络层中的神经元中选取k个神经元作为保留的神经元。
优选地,本发明实施例中,图8~11所示的装置还可以包括权重调整单元85,如图12所示为在图8所示的装置中包括权重调整单元85:
权重调整单元85,用于以剪枝网络层开始,采用权重融合策略,对各网络层的神经元与其下一个网络层的神经元之间的连接权重进行调整。
优选地,本发明实施例中,还可进一步在图11所示的装置中包括训练单元86,如图13所示:
训练单元86,用于采用预置的训练数据对权重调整后的神经网络进行训练。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (16)

1.一种低计算能力处理设备的图像数据处理方法,其特征在于,在实时的计算机视觉处理过程中,低计算能力的处理设备获取图像数据;所述计算机视觉处理装置使用预先设置的神经网络对获取到的图像数据进行计算机视觉处理,得到计算机视觉处理结果;其中,所述神经网络包括多个网络层,其中的一个网络层是通过如下处理得到的:
根据待剪枝网络层中神经元的激活值,确定神经元的重要度值;
根据所述待剪枝网络层中神经元与下一个网络层中神经元的连接权重,确定神经元的多样性值;
根据所述待剪枝网络层中的神经元的重要度值和多样性值,采用体积最大化神经元选取策略从所述待剪枝网络层中选取保留的神经元;
将所述待剪枝网络层中的其他神经元剪掉,得到剪枝网络层。
2.根据权利要求1所述的方法,其特征在于,所述根据待剪枝网络层中神经元的激活值,确定神经元的重要度值,包括:
通过神经网络对输入数据进行一次前向操作,得到该待剪枝网络层中每个神经元的激活值向量;
计算各神经元的激活值向量的方差;
根据各神经元的方差得到所述待剪枝网络层的神经元方差重要性向量;
根据所述神经元方差重要性向量,分别对各神经元的方差进行归一化处理,得到神经元的重要度值。
3.根据权利要求2所述的方法,其特征在于,采用以下公式对各神经元的方差进行归一化处理:
Figure FDA0002518040000000011
其中
Figure FDA0002518040000000012
式中,qi为待剪枝网络层中第i个神经元的激活值向量的方差,Q为待剪枝网络层的神经元方差重要性向量。
4.根据权利要求1所述的方法,其特征在于,根据所述待剪枝网络层中神经元与下一个网络层中神经元的连接权重,确定神经元的多样性值,包括:
针对待剪枝网络层中的每个神经元,根据所述神经元与下一个网络层中神经元的连接权重,构建所述神经元的权重向量,并将所述权重向量的方向向量确定为所述神经元的多样性值。
5.根据权利要求1所述的方法,其特征在于,所述根据所述待剪枝网络层中的神经元的重要度值和多样性值,采用体积最大化神经元选取策略从所述待剪枝网络层中选取保留的神经元,包括:
针对待剪枝网络层中的每个神经元,将所述神经元的重要度值与多样性值的乘积确定为所述神经元的特征向量;
从所述待剪枝网络层中的神经元中选取多组包含k个神经元的组合,所述k为预置的正整数;
计算每个组合包含的神经元的特征向量所组成的平行六面体的体积,选取体积最大的组合作为保留的神经元。
6.根据权利要求1所述的方法,其特征在于,所述根据所述待剪枝网络层中的神经元的重要度值和多样性值,采用体积最大化神经元选取策略从所述待剪枝网络层中选取保留的神经元,包括:
针对待剪枝网络层中的每个神经元,将所述神经元的重要度值与多样性值的乘积确定为所述神经元的特征向量;
采用贪心求解方法,从所述待剪枝网络层中的神经元中选取k个神经元作为保留的神经元。
7.根据权利要求6所述的方法,其特征在于,采用贪心求解方法,从所述待剪枝网络层中的神经元中选取k个神经元作为保留的神经元,包括:
初始化神经元集合为空集合;
根据所述待剪枝网络层中的神经元的特征向量构建特征矩阵;
采用多轮以下选取方式选取k个神经元:
从本轮选取的特征矩阵中选取模长最大的特征向量,并将所述模长最大的特征向量对应的神经元添加至所述神经元集合中;
判断所述神经元集合中的神经元数量是否达到k,若是则结束;
若否,则:从本轮选取的特征矩阵中去掉所述模长最大的特征向量在其他特征向量中的投影,得到下一轮选取的特征矩阵,并进行下一轮选取。
8.根据权利要求1~7任一项所述的方法,其特征在于,得到剪枝网络层之后,所述方法还包括:
以剪枝网络层开始,采用权重融合策略,对各网络层的神经元与其下一个网络层的神经元之间的连接权重进行调整。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:采用预置的训练数据对权重调整后的神经网络进行训练。
10.一种低计算能力处理设备的图像数据处理装置,其特征在于,在实时的计算机视觉处理过程中,低计算能力的处理设备获取图像数据;所述计算机视觉处理装置使用预先设置的神经网络对获取到的图像数据进行计算机视觉处理,得到计算机视觉处理结果;其中,所述神经网络包括多个网络层,其中的一个网络层是通过所述图像数据处理装置获得的,所述图像数据处理装置包括:
重要度值确定单元,用于根据待剪枝网络层中神经元的激活值,确定神经元的重要度值;
多样性值确定单元,用于根据所述待剪枝网络层中神经元与下一个网络层中神经元的连接权重,确定神经元的多样性值;
神经元选取单元,用于根据所述待剪枝网络层中的神经元的重要度值和多样性值,采用体积最大化神经元选取策略从所述待剪枝网络层中选取保留的神经元;
剪枝单元,用于将所述待剪枝网络层中的其他神经元剪掉,得到剪枝网络层。
11.根据权利要求10所述的装置,其特征在于,所述重要度值确定单元,包括:
激活值向量确定模块,用于通过神经网络对输入数据进行一次前向操作,得到该待剪枝网络层中每个神经元的激活值向量;
计算模块,用于计算各神经元的激活值向量的方差;
神经元方差重要性向量确定模块,用于根据各神经元的方差得到所述待剪枝网络层的神经元方差重要性向量;
重要度值确定模块,用于根据所述神经元方差重要性向量,分别对各神经元的方差进行归一化处理,得到神经元的重要度值。
12.根据权利要求10所述的装置,其特征在于,多样性值确定单元,具体用于:
针对待剪枝网络层中的每个神经元,根据所述神经元与下一个网络层中神经元的连接权重,构建所述神经元的权重向量,并将所述权重向量的方向向量确定为所述神经元的多样性值。
13.根据权利要求10所述的装置,其特征在于,神经元选取单元,包括:
第一特征向量确定模块,用于针对待剪枝网络层中的每个神经元,将所述神经元的重要度值与多样性值的乘积确定为所述神经元的特征向量;
组合模块,用于从所述待剪枝网络层中的神经元中选取多组包含k个神经元的组合,所述k为预置的正整数;
第一选取模块,用于计算每个组合包含的神经元的特征向量所组成的平行六面体的体积,选取体积最大的组合作为保留的神经元。
14.根据权利要求10所述的装置,其特征在于,所述神经元选取单元,包括:
第二特征向量确定模块,用于针对待剪枝网络层中的每个神经元,将所述神经元的重要度值与多样性值的乘积确定为所述神经元的特征向量;
第二选取模块,用于采用贪心求解方法,从所述待剪枝网络层中的神经元中选取k个神经元作为保留的神经元。
15.根据权利要求10~14任一项所述的装置,其特征在于,所述装置,还包括:
权重调整单元,用于以剪枝网络层开始,采用权重融合策略,对各网络层的神经元与其下一个网络层的神经元之间的连接权重进行调整。
16.根据权利要求15所述的装置,其特征在于,所述装置,还包括:
训练单元,用于采用预置的训练数据对权重调整后的神经网络进行训练。
CN202010483570.6A 2016-11-17 2016-11-17 一种神经网络剪枝方法及装置 Active CN111860826B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010483570.6A CN111860826B (zh) 2016-11-17 2016-11-17 一种神经网络剪枝方法及装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010483570.6A CN111860826B (zh) 2016-11-17 2016-11-17 一种神经网络剪枝方法及装置
CN201611026107.9A CN106548234A (zh) 2016-11-17 2016-11-17 一种神经网络剪枝方法及装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201611026107.9A Division CN106548234A (zh) 2016-11-17 2016-11-17 一种神经网络剪枝方法及装置

Publications (2)

Publication Number Publication Date
CN111860826A true CN111860826A (zh) 2020-10-30
CN111860826B CN111860826B (zh) 2024-08-13

Family

ID=58395187

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202010483570.6A Active CN111860826B (zh) 2016-11-17 2016-11-17 一种神经网络剪枝方法及装置
CN201611026107.9A Pending CN106548234A (zh) 2016-11-17 2016-11-17 一种神经网络剪枝方法及装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201611026107.9A Pending CN106548234A (zh) 2016-11-17 2016-11-17 一种神经网络剪枝方法及装置

Country Status (3)

Country Link
US (1) US20190279089A1 (zh)
CN (2) CN111860826B (zh)
WO (1) WO2018090706A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113806754A (zh) * 2021-11-17 2021-12-17 支付宝(杭州)信息技术有限公司 一种后门防御方法和系统
WO2023019899A1 (zh) * 2021-08-20 2023-02-23 中国科学院计算技术研究所 神经网络实时剪枝方法、系统及神经网络加速器

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860826B (zh) * 2016-11-17 2024-08-13 北京图森智途科技有限公司 一种神经网络剪枝方法及装置
US11195094B2 (en) * 2017-01-17 2021-12-07 Fujitsu Limited Neural network connection reduction
US20180293486A1 (en) * 2017-04-07 2018-10-11 Tenstorrent Inc. Conditional graph execution based on prior simplified graph execution
WO2018214913A1 (zh) * 2017-05-23 2018-11-29 上海寒武纪信息科技有限公司 处理方法及加速装置
CN110175673B (zh) * 2017-05-23 2021-02-09 上海寒武纪信息科技有限公司 处理方法及加速装置
CN108334934B (zh) * 2017-06-07 2021-04-13 赛灵思公司 基于剪枝和蒸馏的卷积神经网络压缩方法
CN109102074B (zh) * 2017-06-21 2021-06-01 上海寒武纪信息科技有限公司 一种训练装置
CN107247991A (zh) * 2017-06-15 2017-10-13 北京图森未来科技有限公司 一种构建神经网络的方法及装置
CN107688850B (zh) * 2017-08-08 2021-04-13 赛灵思公司 一种深度神经网络压缩方法
CN107967516A (zh) * 2017-10-12 2018-04-27 中科视拓(北京)科技有限公司 一种基于迹范数约束的神经网络的加速与压缩方法
CN107862380A (zh) * 2017-10-19 2018-03-30 珠海格力电器股份有限公司 人工神经网络运算电路
CN109754077B (zh) * 2017-11-08 2022-05-06 杭州海康威视数字技术股份有限公司 深度神经网络的网络模型压缩方法、装置及计算机设备
CN108052862B (zh) * 2017-11-09 2019-12-06 北京达佳互联信息技术有限公司 年龄预估方法和装置
CN108229533A (zh) * 2017-11-22 2018-06-29 深圳市商汤科技有限公司 图像处理方法、模型剪枝方法、装置及设备
CN107944555B (zh) * 2017-12-07 2021-09-17 广州方硅信息技术有限公司 神经网络压缩和加速的方法、存储设备和终端
US20190197406A1 (en) * 2017-12-22 2019-06-27 Microsoft Technology Licensing, Llc Neural entropy enhanced machine learning
US11423312B2 (en) * 2018-05-14 2022-08-23 Samsung Electronics Co., Ltd Method and apparatus for universal pruning and compression of deep convolutional neural networks under joint sparsity constraints
CN108764471B (zh) * 2018-05-17 2020-04-14 西安电子科技大学 基于特征冗余分析的神经网络跨层剪枝方法
CN108898168B (zh) * 2018-06-19 2021-06-01 清华大学 用于目标检测的卷积神经网络模型的压缩方法和系统
CN109086866B (zh) * 2018-07-02 2021-07-30 重庆大学 一种适用于嵌入式设备的部分二值卷积方法
CN109063835B (zh) * 2018-07-11 2021-07-09 中国科学技术大学 神经网络的压缩装置及方法
US11544551B2 (en) * 2018-09-28 2023-01-03 Wipro Limited Method and system for improving performance of an artificial neural network
CN109615858A (zh) * 2018-12-21 2019-04-12 深圳信路通智能技术有限公司 一种基于深度学习的智能停车行为判断方法
JP7099968B2 (ja) * 2019-01-31 2022-07-12 日立Astemo株式会社 演算装置
CN110232436A (zh) * 2019-05-08 2019-09-13 华为技术有限公司 卷积神经网络的修剪方法、装置及存储介质
CN110222842B (zh) * 2019-06-21 2021-04-06 数坤(北京)网络科技有限公司 一种网络模型训练方法、装置及存储介质
CN110472736B (zh) * 2019-08-26 2022-04-22 联想(北京)有限公司 一种裁剪神经网络模型的方法和电子设备
US11816574B2 (en) 2019-10-25 2023-11-14 Alibaba Group Holding Limited Structured pruning for machine learning model
CN111079930B (zh) * 2019-12-23 2023-12-19 深圳市商汤科技有限公司 数据集质量参数的确定方法、装置及电子设备
CN111079691A (zh) * 2019-12-27 2020-04-28 中国科学院重庆绿色智能技术研究院 一种基于双流网络的剪枝方法
CN113392953A (zh) * 2020-03-12 2021-09-14 澜起科技股份有限公司 用于对神经网络中卷积层进行剪枝的方法和装置
CN111523710A (zh) * 2020-04-10 2020-08-11 三峡大学 基于pso-lssvm在线学习的电力设备温度预测方法
CN111582471A (zh) * 2020-04-17 2020-08-25 中科物栖(北京)科技有限责任公司 一种神经网络模型压缩方法及装置
CN111553477A (zh) * 2020-04-30 2020-08-18 深圳市商汤科技有限公司 图像处理方法、装置及存储介质
CN112036564B (zh) * 2020-08-28 2024-01-09 腾讯科技(深圳)有限公司 图片识别方法、装置、设备及存储介质
CN112183747B (zh) * 2020-09-29 2024-07-02 华为技术有限公司 神经网络训练的方法、神经网络的压缩方法以及相关设备
JP7502972B2 (ja) 2020-11-17 2024-06-19 株式会社日立ソリューションズ・テクノロジー プルーニング管理装置、プルーニング管理システム及びプルーニング管理方法
KR20220071713A (ko) 2020-11-24 2022-05-31 삼성전자주식회사 뉴럴 네트워크 가중치 압축 방법 및 장치
EP4334850A1 (en) 2021-05-07 2024-03-13 HRL Laboratories, LLC Neuromorphic memory circuit and method of neurogenesis for an artificial neural network
CN114358254B (zh) * 2022-01-05 2024-08-20 腾讯科技(深圳)有限公司 模型处理方法以及相关产品
WO2024098375A1 (en) * 2022-11-11 2024-05-16 Nvidia Corporation Techniques for pruning neural networks
CN116684480B (zh) * 2023-07-28 2023-10-31 支付宝(杭州)信息技术有限公司 信息推送模型的确定及信息推送的方法及装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1378855A2 (en) * 2002-07-05 2004-01-07 Honda Research Institute Europe GmbH Exploiting ensemble diversity for automatic feature extraction
WO2007147166A2 (en) * 2006-06-16 2007-12-21 Quantum Leap Research, Inc. Consilence of data-mining
US20080065575A1 (en) * 2006-09-11 2008-03-13 Eors Szathmary Evolutionary neural network and method of generating an evolutionary neural network
CN101968832A (zh) * 2010-10-26 2011-02-09 东南大学 基于构造-剪枝混合优化rbf网络的煤灰熔点预测方法
CN102708404A (zh) * 2012-02-23 2012-10-03 北京市计算中心 一种基于机器学习的多核下mpi最优运行时的参数预测方法
CN102799627A (zh) * 2012-06-26 2012-11-28 哈尔滨工程大学 一种基于一阶逻辑和神经网络的数据对应方法
CN105389599A (zh) * 2015-10-12 2016-03-09 上海电机学院 基于神经模糊网络的特征选择方法
CN105512723A (zh) * 2016-01-20 2016-04-20 南京艾溪信息科技有限公司 一种用于稀疏连接的人工神经网络计算装置和方法
CN105740906A (zh) * 2016-01-29 2016-07-06 中国科学院重庆绿色智能技术研究院 一种基于深度学习的车辆多属性联合分析方法
CN105975984A (zh) * 2016-04-29 2016-09-28 吉林大学 基于证据理论的网络质量评价方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6404923B1 (en) * 1996-03-29 2002-06-11 Microsoft Corporation Table-based low-level image classification and compression system
US5734797A (en) * 1996-08-23 1998-03-31 The United States Of America As Represented By The Secretary Of The Navy System and method for determining class discrimination features
JP4546157B2 (ja) * 2004-06-03 2010-09-15 キヤノン株式会社 情報処理方法、情報処理装置、撮像装置
CN105160396B (zh) * 2015-07-06 2018-04-24 东南大学 一种利用现场数据建立神经网络模型的方法
CN111860826B (zh) * 2016-11-17 2024-08-13 北京图森智途科技有限公司 一种神经网络剪枝方法及装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1378855A2 (en) * 2002-07-05 2004-01-07 Honda Research Institute Europe GmbH Exploiting ensemble diversity for automatic feature extraction
WO2007147166A2 (en) * 2006-06-16 2007-12-21 Quantum Leap Research, Inc. Consilence of data-mining
US20080065575A1 (en) * 2006-09-11 2008-03-13 Eors Szathmary Evolutionary neural network and method of generating an evolutionary neural network
CN101968832A (zh) * 2010-10-26 2011-02-09 东南大学 基于构造-剪枝混合优化rbf网络的煤灰熔点预测方法
CN102708404A (zh) * 2012-02-23 2012-10-03 北京市计算中心 一种基于机器学习的多核下mpi最优运行时的参数预测方法
CN102799627A (zh) * 2012-06-26 2012-11-28 哈尔滨工程大学 一种基于一阶逻辑和神经网络的数据对应方法
CN105389599A (zh) * 2015-10-12 2016-03-09 上海电机学院 基于神经模糊网络的特征选择方法
CN105512723A (zh) * 2016-01-20 2016-04-20 南京艾溪信息科技有限公司 一种用于稀疏连接的人工神经网络计算装置和方法
CN105740906A (zh) * 2016-01-29 2016-07-06 中国科学院重庆绿色智能技术研究院 一种基于深度学习的车辆多属性联合分析方法
CN105975984A (zh) * 2016-04-29 2016-09-28 吉林大学 基于证据理论的网络质量评价方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
NAN LI 等: "Diversity Regularized Ensemble Pruning", 《NETWORK PRUNING DIVERSITY IMPORTANCE》, 31 December 2012 (2012-12-31), pages 330 - 345 *
SONG HAN 等: "Learning both Weights and Connections for Efficient Neural Networks", 《ARXIV:1506.02626》, 30 October 2015 (2015-10-30), pages 1 - 9 *
ZELDA MARIET 等: "Diversity Networks: Neural Network Compression Using Determinantal Point Processes", 《ARXIV:1511.05077》, 3 February 2016 (2016-02-03), pages 1 - 12 *
李草苍: "基于RBF神经网络序贯学习算法的单神经元PID控制", 《中国优秀硕士学位论文全文数据库 信息科技辑》, 15 September 2014 (2014-09-15), pages 140 - 115 *
李龙杰: "复杂网络中链接预测与角色相似性计算方法研究", 《中国博士论文全文数据库 基础科学辑》, 15 March 2015 (2015-03-15), pages 002 - 22 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023019899A1 (zh) * 2021-08-20 2023-02-23 中国科学院计算技术研究所 神经网络实时剪枝方法、系统及神经网络加速器
CN113806754A (zh) * 2021-11-17 2021-12-17 支付宝(杭州)信息技术有限公司 一种后门防御方法和系统

Also Published As

Publication number Publication date
US20190279089A1 (en) 2019-09-12
CN111860826B (zh) 2024-08-13
CN106548234A (zh) 2017-03-29
WO2018090706A1 (zh) 2018-05-24

Similar Documents

Publication Publication Date Title
CN111860826A (zh) 一种低计算能力处理设备的图像数据处理方法及装置
CN108229555B (zh) 样本权重分配方法、模型训练方法、电子设备及存储介质
CN108846826B (zh) 物体检测方法、装置、图像处理设备及存储介质
CN109460793A (zh) 一种节点分类的方法、模型训练的方法及装置
CN108446676B (zh) 基于有序编码及多层随机投影的人脸图像年龄判别方法
WO2023160162A1 (zh) 预测碰撞仿真结果的方法、装置、设备及存储介质
EP3871155A1 (en) Artificial neural network and method of training an artificial neural network with epigenetic neurogenesis
CN108960053A (zh) 归一化处理方法及装置、客户端
CN104899578B (zh) 一种人脸识别的方法及装置
CN110647992A (zh) 卷积神经网络的训练方法、图像识别方法及其对应的装置
CN113093721B (zh) 一种自动并发船舶避碰测试方法及系统
CN110298394A (zh) 一种图像识别方法和相关装置
CN108197669A (zh) 卷积神经网络的特征训练方法及装置
CN116402876A (zh) 双目深度估计方法、装置、嵌入式设备和可读存储介质
CN112001067A (zh) 基于不确定性度量的复杂装备仿真系统可信度评估方法
CN108846420B (zh) 网络结构以及客户端
CN104573737A (zh) 特征点定位的方法及装置
CN112862095A (zh) 基于特征分析的自蒸馏学习方法、设备以及可读存储介质
CN114429192B (zh) 一种图像匹配方法、装置和电子设备
CN106845561B (zh) 一种基于点云vfh描述子和神经网络的复杂曲面物体分类方法
CN115861705A (zh) 一种剔除恶意客户端的联邦学习方法
CN111310823B (zh) 目标分类方法、装置和电子系统
CN110222734A (zh) 贝叶斯网络学习方法、智能设备及存储装置
CN109814067A (zh) 一种三维节点定位方法及装置
CN113255839B (zh) 基于隐马尔可夫模型的目标检测模型的搜索方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant