CN113159296A - 一种二值神经网络的构建方法 - Google Patents

一种二值神经网络的构建方法 Download PDF

Info

Publication number
CN113159296A
CN113159296A CN202110462157.6A CN202110462157A CN113159296A CN 113159296 A CN113159296 A CN 113159296A CN 202110462157 A CN202110462157 A CN 202110462157A CN 113159296 A CN113159296 A CN 113159296A
Authority
CN
China
Prior art keywords
neural network
binary
weight
binarization
input data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110462157.6A
Other languages
English (en)
Other versions
CN113159296B (zh
Inventor
周贤中
黄智豪
赵曜
王帅
杨帆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202110462157.6A priority Critical patent/CN113159296B/zh
Publication of CN113159296A publication Critical patent/CN113159296A/zh
Application granted granted Critical
Publication of CN113159296B publication Critical patent/CN113159296B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种二值神经网络的构建方法,包括以下步骤:S1:构建初始的神经网络;S2:分别对所述神经网络的权重和输入数据进行二值化处理,得到二值化权重和二值化输入数据;S3:根据二值化输入数据和二值化权重对所述神经网络进行训练,得到优化的神经网络;S4:判断优化的神经网络是否收敛;若是,则执行步骤S6;若否,则执行步骤S5;S5:更新神经网络的参数,得到新的二值化权重,并返回步骤S3;S6:得到二值神经网络。本发明提供一种二值神经网络的构建方法,通过将权重和输入数据二值化,可以在小内存和没有GPU的便携式设备中实现实时推算,解决了目前基于卷积神经网络的识别系统需要大量的内存和计算能力,不适用于便携式设备的问题。

Description

一种二值神经网络的构建方法
技术领域
本发明涉及人工智能的技术领域,更具体的,涉及一种二值神经网络的构建方法。
背景技术
随着深度学习理论的提出和数值计算设备的改进,卷积神经网络发展迅速,并被应用于计算机视觉和语音识别等多个领域,其在目标识别和检测方面具有高效、可靠的优点。
近年来,虚拟现实、增强现实和智能可穿戴设备也得到了快速的发展,人们开始探寻神经网络和便携式设备的结合方式。然而,基于卷积神经网络的识别系统需要大量的内存和计算能力,适用于昂贵的基于GPU的设备上,但不适用于如手机和嵌入式电子产品等便携式设备。例如,AlexNet有61M参数,执行1.5B的高精度操作对一个图像进行分类。对于更深层次的,例如VGG,这些参数甚至更高。然而目前所有的便携式设备都只能提供有限的计算能力,以及容量并不算大的片上存储。卷积神经网络在便携式设备上的移植变得越来越艰难。庞大的计算量采用浮点数作为操作数运行在轻量级芯片上,传统浮点神经网络的计算效率低、能耗大、速度慢,无疑已经超出便携式设备的能力范围,同时也很难达到比较好的实时效果。
现有技术中,如2019-07-30公开的专利,一种基于二值化深度神经网络的手写数字图像识别分类方法,公开号为CN110070119A,基于BinaryConnect二值化深度神经网络,并通过公式推导得出最优权重缩放因子α,将该因子α在前向传播过程中与权重W相乘,以达到增强网络表达能力、提高训练精度的目的,但不适用于便携式设备。
发明内容
本发明为克服目前基于卷积神经网络的识别系统需要大量的内存和计算能力,不适用于便携式设备的技术缺陷,提供一种二值神经网络的构建方法。
为解决上述技术问题,本发明的技术方案如下:
一种二值神经网络的构建方法,包括以下步骤:
S1:构建初始的神经网络;
S2:分别对所述神经网络的权重和输入数据进行二值化处理,得到二值化权重和二值化输入数据;
S3:根据二值化输入数据和二值化权重对所述神经网络进行训练,得到优化的神经网络;
S4:判断优化的神经网络的所有权重和输入数据是否全部收敛为+1或-1;
若是,则执行步骤S6;
若否,则执行步骤S5;
S5:更新神经网络的参数,得到新的二值化权重,并返回步骤S3;
S6:得到二值神经网络。
优选的,所述神经网络包括二值归一化层、二值激活层、二值卷积层和池化层。
优选的,所述神经网络的计算顺序依次为:二值归一化层、二值激活层、二值卷积层、池化层;
其中,在二值归一化层对输入数据进行标准化,使之均值为0,在二值卷积层后插入一个非二进制激活函数。
优选的,所述非二进制激活函数为ReLU函数。
优选的,在步骤S2中,利用二值矩阵B和第一尺度因子α∈R+代替所述神经网络的权重W。
优选的,通过以下步骤求得二值矩阵B和第一尺度因子α∈R+的最优值:
用I*W表示卷积层的操作,其中,I表示输入数据,W表示权重,维度是c*w*h,c表示通道数,w表示宽度,h表示高度,
令W贴近B时得到:
Figure BDA0003042688110000021
其中,
Figure BDA0003042688110000022
表示不含任何乘法的卷积,
得到优化目标函数:
J(B,α)=||W-αB||2
Figure BDA0003042688110000023
其中,nin()为取最小值函数,arg()为取自变量函数;
将优化目标函数展开为:
J(B,α)=α2BTB-2αWTB+WTW
其中,B是一个1*n的向量,取-1或者1,BTB=n,即为一个常量,
结合可得B的最优值计算公式:
Figure BDA0003042688110000031
B∈{+1,-1}n
B*=sign(W)
B的最优值即决定W的符号,
根据优化目标函数展开式对第一尺度因子α求导,从而得到α的最优值计算公式:
Figure BDA0003042688110000032
结合B*=sign(W)求得α最终的最优值计算公式:
Figure BDA0003042688110000033
其中,α的最优值是W的每个元素的绝对值之和的均值,||W||表示l1范数。
优选的,在步骤S2中,利用β和H近似表示输入数据I,其中,β为第二尺度因子,H为二值卷积核,H∈{+1,-1}n,β∈R+
期望得到β、H、α和B使得
ITW≈βHTαB
优化表达式为:
Figure BDA0003042688110000034
其中,⊙表示点乘,
用Y表示IW,C表示HB,γ表示βα,得到
Figure BDA0003042688110000035
因此,得到C和γ的计算公式:
C*=sign(Y)=sign(I)⊙sign(W)=H*⊙B*
Figure BDA0003042688110000036
其中,|Ii|和|Wi|是相互独立的,
根据C和γ的计算公式求得β、H、α和B的最优值。
优选的,使用二值操作近似得到输入数据I和权重W的卷积结果:
Figure BDA0003042688110000041
其中,
Figure BDA0003042688110000042
表示只使用同或和点乘操作;
通过对输入数据I在通道求绝对值的均值A,A和卷积核k卷积得到
K=A*k
其中,二维张量k中的每一个元素
Figure BDA0003042688110000043
优选的,在步骤S3中,对所述神经网络进行训练包括以下步骤:
S3.1:前向传播:使用二值化权重W≈αB进行前向传播;
其中,B为二值矩阵,α为第一尺度因子;
S3.2:反向传播:使用宽松化函数Htanh(x)对前向数据处理进行反向传播:
Htanh(x)=Clip(x,-1,1)=max(-1,min(1,x))
其中,x为前向数据。
优选的,在步骤S5中,通过对二值化前的权重进行更新得到新的权重Wi,由Wi得到新的α和B,进而得到新的二值化权重
Figure BDA0003042688110000044
实现神经网络的参数更新。
与现有技术相比,本发明技术方案的有益效果是:
本发明提供了一种二值神经网络的构建方法,通过将权重和输入数据二值化,实现有效的卷积操作,减小内存占用,降低功耗,减小面向深度学习的硬件的开销,可以在小内存和没有GPU的便携式设备中实现实时推算,能够获得与标准网络相似的分类精度,同时能够提高效率。
附图说明
图1为本发明的技术方案实施流程图;
图2为本发明中所述二值神经网络的应用示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种二值神经网络的构建方法,包括以下步骤:
S1:构建初始的神经网络;
S2:分别对所述神经网络的权重和输入数据进行二值化处理,得到二值化权重和二值化输入数据;
S3:根据二值化输入数据和二值化权重对所述神经网络进行训练,得到优化的神经网络;
S4:判断优化的神经网络的所有权重和输入数据是否全部收敛为+1或-1;
在实际实施时,如权重是一组(3,-2,2,0.5)(2,3,4,-0.5),一次训练处理一行数据(1,-1,1,1)(2,3,4,-0.5),最后训练好的权重是(1,-1,1,1)(1,1,1,-1);
若是,则执行步骤S6;
若否,则执行步骤S5;
S5:更新神经网络的参数,得到新的二值化权重,并返回步骤S3;
S6:得到二值神经网络。
实施例2
更具体的,所述神经网络包括二值归一化层、二值激活层、二值卷积层和池化层。
在具体实施过程中,所述神经网络内的32位浮点数乘加运算可以被1位二值同或计算操作代替,将权重和输入值都用二值来表示,也即是说权重的值要么为-1,要么为1。在神经网络的前向传播和反向传播中一直遵循这个规则。
更具体的,所述神经网络的计算顺序依次为:二值归一化层、二值激活层、二值卷积层、池化层;
其中,在二值归一化层对输入数据进行标准化,使之均值为0,在二值卷积层后插入一个非二进制激活函数。
在具体实施过程中,如果直接把输入数据转化成-1或+1,再进行操作会丢失许多信息。为了减少二值化带来的信息损失,把二值归一化层放到二值激活层前确保了数据保持零均值,阈值为零可以减少量化误差。
更具体的,所述非二进制激活函数为ReLU函数。
更具体的,在步骤S2中,利用二值矩阵B和第一尺度因子α∈R+代替所述神经网络的权重W。
更具体的,通过以下步骤求得二值矩阵B和第一尺度因子α∈R+的最优值:
用I*W表示卷积层的操作,其中,I表示输入数据,W表示权重,维度是c*w*h,c表示通道数,w表示宽度,h表示高度,
令W贴近B时得到:
Figure BDA0003042688110000061
其中,
Figure BDA0003042688110000062
表示不含任何乘法的卷积,用二值矩阵B和第一尺度因子α来代替原来的权重W,前者尽可能等于后者,由于权重是二值化的,所以实现了只有加法和减法的卷积,二值化权重的卷积核相比于单精度浮点数内存占用减少了32倍,
得到优化目标函数:
J(B,α)=||W-αB||2
Figure BDA0003042688110000063
其中,min()为取最小值函数,arg()为取自变量函数;
将优化目标函数展开为:
J(B,α)=α2BTB-2αWTB+WTW
其中,B是一个1*n的向量,取-1或者1,BTB=n,即为一个常量,
结合可得B的最优值计算公式:
Figure BDA0003042688110000064
B∈{+1,-1}n
B*=sign(W)
B的最优值即决定W的符号,
根据优化目标函数展开式对第一尺度因子α求导,从而得到α的最优值计算公式:
Figure BDA0003042688110000065
结合B*=sign(W)求得α最终的最优值计算公式:
Figure BDA0003042688110000071
其中,α的最优值是W的每个元素的绝对值之和的均值,||W||表示l1范数。
在具体实施过程中,通过上述步骤得到二值化权重sign(W)。
更具体的,在步骤S2中,利用β和H近似表示输入数据I,其中,β为第二尺度因子,H为二值卷积核,H∈{+1,-1}n,β∈R+
期望得到β、H、α和B使得
ITW≈βHTαB
优化表达式为:
Figure BDA0003042688110000072
其中,⊙表示点乘,
用Y表示IW,C表示HB,γ表示βα,得到
Figure BDA0003042688110000073
因此,得到C和γ的计算公式:
C*=sign(Y)=sign(I)⊙sign(W)=H*⊙B*
Figure BDA0003042688110000074
其中,|Ii|和|Wi|是相互独立的,以上两个等式右边的结果就是参数β、H、α和B的最优解,
根据C和γ的计算公式求得β、H、α和B的最优值。
在具体实施过程中,通过上述步骤得到二值化输入数据sign(I)。
更具体的,使用二值操作近似得到输入数据I和权重W的卷积结果:
Figure BDA0003042688110000075
其中,
Figure BDA0003042688110000076
表示只使用同或和点乘操作,即两个二值矩阵之间的点乘可以将点乘换成⊙,将32位float数之间的操作变成1位的同或门操作;
通过对输入数据I在通道求绝对值的均值A,A和卷积核k卷积得到
K=A*k
其中,二维张量k中的每一个元素
Figure BDA0003042688110000081
更具体的,在步骤S3中,对所述神经网络进行训练包括以下步骤:
S3.1:前向传播:使用二值化权重W≈αB进行前向传播;
其中,B为二值矩阵,α为第一尺度因子;
S3.2:反向传播:使用宽松化函数Htanh(x)对前向数据处理进行反向传播:
Htanh(x)=Clip(x,-1,1)=max(-1,min(1,x))
其中,x为前向数据。
更具体的,在步骤S5中,通过对二值化前的权重进行更新得到新的权重Wi,由Wi得到新的α和B,进而得到新的二值化权重
Figure BDA0003042688110000082
实现神经网络的参数更新。
实施例3
如图2所示,通过python语言配置好参数建立相应API将训练好的二值神经网络存储,并将二值神经网络配置成便携式设备端可接受参数,实现便携式设备对二值神经网络的存储及运用。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (10)

1.一种二值神经网络的构建方法,其特征在于,包括以下步骤:
S1:构建初始的神经网络;
S2:分别对所述神经网络的权重和输入数据进行二值化处理,得到二值化权重和二值化输入数据;
S3:根据二值化输入数据和二值化权重对所述神经网络进行训练,得到优化的神经网络;
S4:判断优化的神经网络的所有权重和输入数据是否全部收敛为+1或-1;
若是,则执行步骤S6;
若否,则执行步骤S5;
S5:更新神经网络的参数,得到新的二值化权重,并返回步骤S3;
S6:得到二值神经网络。
2.根据权利要求1所述的一种二值神经网络的构建方法,其特征在于,所述神经网络包括二值归一化层、二值激活层、二值卷积层和池化层。
3.根据权利要求2所述的一种二值神经网络的构建方法,其特征在于,所述神经网络的计算顺序依次为:二值归一化层、二值激活层、二值卷积层、池化层;
其中,在二值归一化层对输入数据进行标准化,使之均值为0,在二值卷积层后插入一个非二进制激活函数。
4.根据权利要求3所述的一种二值神经网络的构建方法,其特征在于,所述非二进制激活函数为ReLU函数。
5.根据权利要求2所述的一种二值神经网络的构建方法,其特征在于,在步骤S2中,利用二值矩阵B和第一尺度因子α∈R+代替所述神经网络的权重W。
6.根据权利要求5所述的一种二值神经网络的构建方法,其特征在于,通过以下步骤求得二值矩阵B和第一尺度因子α∈R+的最优值:
用I*W表示卷积层的操作,其中,I表示输入数据,W表示权重,维度是c*w*h,c表示通道数,w表示宽度,h表示高度,
令W贴近B时得到:
I*W≈(I⊕B)α
其中,⊕表示不含任何乘法的卷积,
得到优化目标函数:
J(B,α)=||W-αB||2
Figure FDA0003042688100000021
其中,min()为取最小值函数,arg()为取自变量函数;
将优化目标函数展开为:
J(B,α)=α2BTB-2αWTB+WTW
其中,B是一个1*n的向量,取-1或者1,BTB=n,即为一个常量,
结合可得B的最优值计算公式:
Figure FDA0003042688100000022
B∈{+1,-1}n
B*=sign(W)
B的最优值即决定W的符号,
根据优化目标函数展开式对第一尺度因子α求导,从而得到α的最优值计算公式:
Figure FDA0003042688100000023
结合B*=sign(W)求得α最终的最优值计算公式:
Figure FDA0003042688100000024
其中,α的最优值是W的每个元素的绝对值之和的均值,||W||表示l1范数。
7.根据权利要求6所述的一种二值神经网络的构建方法,其特征在于,在步骤S2中,利用β和H近似表示输入数据I,其中,β为第二尺度因子,H为二值卷积核,H∈{+1,-1}n,β∈R+
期望得到β、H、α和B使得
ITW≈βHTαB
优化表达式为:
Figure FDA0003042688100000025
其中,⊙表示点乘,
用Y表示IW,C表示HB,γ表示βα,得到
Figure FDA0003042688100000031
因此,得到C和γ的计算公式:
C*=sign(Y)=sign(I)⊙sign(W)=H*⊙B*
Figure FDA0003042688100000032
其中,|Ii|和|Wi|是相互独立的,
根据C和γ的计算公式求得β、H、α和B的最优值。
8.根据权利要求6所述的一种二值神经网络的构建方法,其特征在于,使用二值操作近似得到输入数据I和权重W的卷积结果:
Figure FDA0003042688100000035
其中,
Figure FDA0003042688100000036
表示只使用同或和点乘操作;
通过对输入数据I在通道求绝对值的均值A,A和卷积核k卷积得到
K=A*k
其中,二维张量k中的每一个元素
Figure FDA0003042688100000033
9.根据权利要求1所述的一种二值神经网络的构建方法,其特征在于,在步骤S3中,对所述神经网络进行训练包括以下步骤:
S3.1:前向传播:使用二值化权重W≈αB进行前向传播;
其中,B为二值矩阵,α为第一尺度因子;
S3.2:反向传播:使用宽松化函数Htanh(x)对前向数据处理进行反向传播:
Htanh(x)=Clip(x,-1,1)=max(-1,min(1,x))
其中,x为前向数据。
10.根据权利要求6所述的一种二值神经网络的构建方法,其特征在于,在步骤S5中,通过对二值化前的权重进行更新得到新的权重Wi,由Wi得到新的α和B,进而得到新的二值化权重
Figure FDA0003042688100000034
实现神经网络的参数更新。
CN202110462157.6A 2021-04-27 2021-04-27 一种二值神经网络的构建方法 Active CN113159296B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110462157.6A CN113159296B (zh) 2021-04-27 2021-04-27 一种二值神经网络的构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110462157.6A CN113159296B (zh) 2021-04-27 2021-04-27 一种二值神经网络的构建方法

Publications (2)

Publication Number Publication Date
CN113159296A true CN113159296A (zh) 2021-07-23
CN113159296B CN113159296B (zh) 2024-01-16

Family

ID=76871945

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110462157.6A Active CN113159296B (zh) 2021-04-27 2021-04-27 一种二值神经网络的构建方法

Country Status (1)

Country Link
CN (1) CN113159296B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115456860A (zh) * 2022-11-09 2022-12-09 深圳市唯特视科技有限公司 基于fpga的图像增强方法、装置、头盔、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784488A (zh) * 2019-01-15 2019-05-21 福州大学 一种适用于嵌入式平台的二值化卷积神经网络的构建方法
CN110837887A (zh) * 2019-11-12 2020-02-25 西安微电子技术研究所 一种深度卷积神经网络的压缩及加速方法、神经网络模型及其应用
CN110929852A (zh) * 2019-11-29 2020-03-27 中国科学院自动化研究所 深度二值神经网络训练方法及系统
CN112446431A (zh) * 2020-11-27 2021-03-05 鹏城实验室 特征点提取与匹配方法、网络、设备及计算机存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784488A (zh) * 2019-01-15 2019-05-21 福州大学 一种适用于嵌入式平台的二值化卷积神经网络的构建方法
CN110837887A (zh) * 2019-11-12 2020-02-25 西安微电子技术研究所 一种深度卷积神经网络的压缩及加速方法、神经网络模型及其应用
CN110929852A (zh) * 2019-11-29 2020-03-27 中国科学院自动化研究所 深度二值神经网络训练方法及系统
CN112446431A (zh) * 2020-11-27 2021-03-05 鹏城实验室 特征点提取与匹配方法、网络、设备及计算机存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘美菊;运勃;: "深度卷积网络压缩算法在焊缝识别中的应用", 激光与光电子学进展, no. 05 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115456860A (zh) * 2022-11-09 2022-12-09 深圳市唯特视科技有限公司 基于fpga的图像增强方法、装置、头盔、设备及介质

Also Published As

Publication number Publication date
CN113159296B (zh) 2024-01-16

Similar Documents

Publication Publication Date Title
CN108133188B (zh) 一种基于运动历史图像与卷积神经网络的行为识别方法
WO2018058509A1 (en) Dynamic neural network surgery
CN110414344B (zh) 一种基于视频的人物分类方法、智能终端及存储介质
CN107273458B (zh) 深度模型训练方法及装置、图像检索方法及装置
CN114067153B (zh) 基于并行双注意力轻量残差网络的图像分类方法及系统
CN111639692A (zh) 一种基于注意力机制的阴影检测方法
CN111340814A (zh) 一种基于多模态自适应卷积的rgb-d图像语义分割方法
CN113505792B (zh) 面向非均衡遥感图像的多尺度语义分割方法及模型
CN110135460B (zh) 基于vlad卷积模块的图像信息强化方法
CN110738241A (zh) 一种基于神经网络的双目立体视觉匹配方法及其运算框架
CN110942471A (zh) 一种基于时空约束的长时目标跟踪方法
CN116580257A (zh) 特征融合模型训练及样本检索方法、装置和计算机设备
CN114255474A (zh) 一种基于多尺度、多粒度行人重识别方法
CN113962281A (zh) 基于Siamese-RFB的无人机目标跟踪方法
CN112150497A (zh) 基于二值神经网络的局部激活方法与系统
CN113159296B (zh) 一种二值神经网络的构建方法
CN115222754A (zh) 一种基于知识蒸馏和对抗学习的镜面图像分割方法
CN114202473A (zh) 一种基于多尺度特征和注意力机制的图像复原方法及装置
CN112308213A (zh) 一种基于全局特征关系的卷积神经网络压缩方法
CN109583406B (zh) 基于特征关注机制的人脸表情识别方法
US20230143985A1 (en) Data feature extraction method and related apparatus
CN113691863B (zh) 一种提取视频关键帧的轻量化方法
CN116091792A (zh) 视觉注意力预测模型的构建方法、系统、终端及介质
CN115471718A (zh) 基于多尺度学习的轻量级显著性目标检测模型的构建和检测方法
CN113239215B (zh) 多媒体资源的分类方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant