CN116912636B - 目标识别方法及装置 - Google Patents
目标识别方法及装置 Download PDFInfo
- Publication number
- CN116912636B CN116912636B CN202311169064.XA CN202311169064A CN116912636B CN 116912636 B CN116912636 B CN 116912636B CN 202311169064 A CN202311169064 A CN 202311169064A CN 116912636 B CN116912636 B CN 116912636B
- Authority
- CN
- China
- Prior art keywords
- network
- layer
- feature
- target
- recognition model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000000605 extraction Methods 0.000 claims abstract description 65
- 230000004913 activation Effects 0.000 claims abstract description 31
- 238000004364 calculation method Methods 0.000 claims description 23
- 238000011176 pooling Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 17
- 230000000873 masking effect Effects 0.000 claims description 15
- 208000006440 Open Bite Diseases 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 3
- 241000196324 Embryophyta Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及目标识别技术领域,提供了一种目标识别方法及装置。该方法包括:串行连接第一激活层和第一注意力层,得到掩码分支网络;串行连接第二激活层和第二注意力层,得到非掩码分支网络;将特征提取网络和特征处理网络串行连接,将掩码分支网络和非掩码分支网络并行连接到特征处理网络之后,将遮挡分类网络串行连接到掩码分支网络之后,将目标分类网络串行连接到非掩码分支网络之后,得到目标识别模型;对目标识别模型进行训练,利用训练后的目标识别模型进行目标识别。采用上述技术手段,解决现有技术中,遮挡场景下目标识别准确率低的问题。
Description
技术领域
本公开涉及目标识别技术领域,尤其涉及一种目标识别方法及装置。
背景技术
现实场景下的目标识别,存在遮挡已经成为常态,当遮挡区域过大时,会对图片特征产生较大的损伤,因此会影响目标识别的准确率。现有目标识别算法为了解决遮挡场景下的目标识别问题,通常从会训练数据角度出发,通过使用添加遮挡的训练数据对目标识别模型进行训练,以提高遮挡场景下的目标识别的准确率,这种方法对目标识别准确率的提升有限。
发明内容
有鉴于此,本公开实施例提供了一种目标识别方法、装置、电子设备及计算机可读存储介质,以解决现有技术中,遮挡场景下目标识别准确率低的问题。
本公开实施例的第一方面,提供了一种目标识别方法,包括:串行连接第一激活层和第一注意力层,得到掩码分支网络,其中,第一激活层用于实现Sigmoid计算,第一注意力层还与特征提取网络存在连接,第一注意力层用于对特征提取网络和第一激活层的输出进行相乘运算;串行连接第二激活层和第二注意力层,得到非掩码分支网络,其中,第二激活层用于实现1-Sigmoid计算,第二注意力层还与特征提取网络存在连接,第二注意力层用于对特征提取网络和第二激活层的输出进行相乘运算;将特征提取网络和特征处理网络串行连接,将掩码分支网络和非掩码分支网络并行连接到特征处理网络之后,将遮挡分类网络串行连接到掩码分支网络之后,将目标分类网络串行连接到非掩码分支网络之后,得到目标识别模型,其中,目标分类网络和遮挡分类网络均由全局平均池化层、卷积层和全连接层串行连接得到,特征处理网络由卷积层和全局平均池化层串行连接得到;对目标识别模型进行训练,利用训练后的目标识别模型进行目标识别。
本公开实施例的第二方面,提供了一种目标识别装置,包括:第一构建模块,被配置为串行连接第一激活层和第一注意力层,得到掩码分支网络,其中,第一激活层用于实现Sigmoid计算,第一注意力层还与特征提取网络存在连接,第一注意力层用于对特征提取网络和第一激活层的输出进行相乘运算;第二构建模块,被配置为串行连接第二激活层和第二注意力层,得到非掩码分支网络,其中,第二激活层用于实现1-Sigmoid计算,第二注意力层还与特征提取网络存在连接,第二注意力层用于对特征提取网络和第二激活层的输出进行相乘运算;第三构建模块,被配置为将特征提取网络和特征处理网络串行连接,将掩码分支网络和非掩码分支网络并行连接到特征处理网络之后,将遮挡分类网络串行连接到掩码分支网络之后,将目标分类网络串行连接到非掩码分支网络之后,得到目标识别模型,其中,目标分类网络和遮挡分类网络均由全局平均池化层、卷积层和全连接层串行连接得到,特征处理网络由卷积层和全局平均池化层串行连接得到;训练模块,被配置为对目标识别模型进行训练,利用训练后的目标识别模型进行目标识别。
本公开实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本公开实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本公开实施例与现有技术相比存在的有益效果是:因为本公开实施例通过串行连接第一激活层和第一注意力层,得到掩码分支网络,其中,第一激活层用于实现Sigmoid计算,第一注意力层还与特征提取网络存在连接,第一注意力层用于对特征提取网络和第一激活层的输出进行相乘运算;串行连接第二激活层和第二注意力层,得到非掩码分支网络,其中,第二激活层用于实现1-Sigmoid计算,第二注意力层还与特征提取网络存在连接,第二注意力层用于对特征提取网络和第二激活层的输出进行相乘运算;将特征提取网络和特征处理网络串行连接,将掩码分支网络和非掩码分支网络并行连接到特征处理网络之后,将遮挡分类网络串行连接到掩码分支网络之后,将目标分类网络串行连接到非掩码分支网络之后,得到目标识别模型,其中,目标分类网络和遮挡分类网络均由全局平均池化层、卷积层和全连接层串行连接得到,特征处理网络由卷积层和全局平均池化层串行连接得到;对目标识别模型进行训练,利用训练后的目标识别模型进行目标识别。采用上述技术手段,可以解决现有技术中,遮挡场景下目标识别准确率低的问题,进而提高目标识别的准确率。
附图说明
为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本公开实施例提供的一种目标识别方法的流程示意图;
图2是本公开实施例提供的一种目标识别模型的示意图;
图3是本公开实施例提供的一种目标识别装置的结构示意图;
图4是本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
下面将结合附图详细说明根据本公开实施例的一种目标识别方法和装置。
图1是本公开实施例提供的一种目标识别方法的流程示意图。图1的目标识别方法可以由计算机或服务器,或者计算机或服务器上的软件执行。如图1所示,该目标识别方法包括:
S101,串行连接第一激活层和第一注意力层,得到掩码分支网络,其中,第一激活层用于实现Sigmoid计算,第一注意力层还与特征提取网络存在连接,第一注意力层用于对特征提取网络和第一激活层的输出进行相乘运算;
S102,串行连接第二激活层和第二注意力层,得到非掩码分支网络,其中,第二激活层用于实现1-Sigmoid计算,第二注意力层还与特征提取网络存在连接,第二注意力层用于对特征提取网络和第二激活层的输出进行相乘运算;
S103,将特征提取网络和特征处理网络串行连接,将掩码分支网络和非掩码分支网络并行连接到特征处理网络之后,将遮挡分类网络串行连接到掩码分支网络之后,将目标分类网络串行连接到非掩码分支网络之后,得到目标识别模型,其中,目标分类网络和遮挡分类网络均由全局平均池化层、卷积层和全连接层串行连接得到,特征处理网络由卷积层和全局平均池化层串行连接得到;
S104,对目标识别模型进行训练,利用训练后的目标识别模型进行目标识别。
在构建的目标识别模型中,特征提取网络提取图片的特征;特征处理网络对特征提取网络提取特征进行卷积和全局平均池化处理(该全局平均池化处理可以是在通道维度上进行的);掩码分支网络是从特征提取网络提取的特征和特征处理网络处理得到的特征中提取到图片中遮挡部分对应的特征;非掩码分支网络从特征提取网络提取的特征和特征处理网络处理得到的特征中提取到图片中待识别目标部分(非遮挡部分)对应的特征;遮挡分类网络基于遮挡部分对应的特征进行识别,得到关于遮挡部分对应的识别结果,该识别结果包括有遮挡和无遮挡;目标分类网络基于待识别目标部分对应的特征进行识别,得到关于目标部分对应的识别结果,该识别结果是关于目标的标记。
目标识别包括人脸识别、行人重识别、动物种类识别、植物种类识别等。
根据本公开实施例提供的技术方案,串行连接第一激活层和第一注意力层,得到掩码分支网络,其中,第一激活层用于实现Sigmoid计算,第一注意力层还与特征提取网络存在连接,第一注意力层用于对特征提取网络和第一激活层的输出进行相乘运算;串行连接第二激活层和第二注意力层,得到非掩码分支网络,其中,第二激活层用于实现1-Sigmoid计算,第二注意力层还与特征提取网络存在连接,第二注意力层用于对特征提取网络和第二激活层的输出进行相乘运算;将特征提取网络和特征处理网络串行连接,将掩码分支网络和非掩码分支网络并行连接到特征处理网络之后,将遮挡分类网络串行连接到掩码分支网络之后,将目标分类网络串行连接到非掩码分支网络之后,得到目标识别模型,其中,目标分类网络和遮挡分类网络均由全局平均池化层、卷积层和全连接层串行连接得到,特征处理网络由卷积层和全局平均池化层串行连接得到;对目标识别模型进行训练,利用训练后的目标识别模型进行目标识别。本申请实施例对目标识别模型进行结构上的改进,使得关于遮挡的训练也可以优化目标识别模型的模型参数,所以可以解决现有技术中,遮挡场景下目标识别准确率低的问题,进而提高目标识别的准确率。
进一步地,对目标识别模型进行训练,包括:获取训练数据集,将训练数据集中的训练样本输入目标识别模型:通过特征提取网络对训练样本进行处理,得到第一样本特征;通过特征处理网络对第一样本特征进行处理,得到第二样本特征;分别通过掩码分支网络和非掩码分支网络对第一样本特征和第二样本特征进行处理,得到遮挡区域特征和非遮挡区域特征;通过遮挡分类网络对遮挡区域特征进行处理,得到遮挡分类结果;通过目标分类网络对非遮挡区域特征进行处理,得到目标分类结果;依据遮挡分类结果和目标分类结果优化目标识别模型的模型参数,以完成对目标识别模型的训练。
将训练样本输入目标识别模型,目标识别模型内部按照如下步骤处理训练样本:将训练样本输入特征提取网络,输出第一样本特征;将第一样本特征输入特征处理网络,输出第二样本特征;将第一样本特征和第二样本特征输入掩码分支网络,输出遮挡区域特征;将遮挡区域特征输入遮挡分类网络,输出遮挡分类结果;将第一样本特征和第二样本特征输入非掩码分支网络,输出非遮挡区域特征;将非遮挡区域特征输入目标分类网络,输出目标分类结果。
遮挡区域特征就是训练样本中遮挡部分对应的特征,非遮挡区域特征就是训练样本中待识别目标部分对应的特征。
更进一步地,依据遮挡分类结果和目标分类结果优化目标识别模型的模型参数,以完成对目标识别模型的训练,包括:利用交叉熵损失函数计算遮挡分类结果和训练样本对应的遮挡标签之间的第一损失值;利用余弦损失函数计算目标分类结果和训练样本对应的目标标签之间的第二损失值;依据第一损失值和第二损失值优化目标识别模型的模型参数,以完成对目标识别模型的训练。
遮挡标签包括有遮挡和无遮挡两种,目标标签是关于训练样本中目标的标识。
更进一步地,依据第一损失值和第二损失值优化目标识别模型的模型参数,以完成对目标识别模型的训练,包括:依据第一损失值优化目标识别模型中的特征提取网络、特征处理网络、掩码分支网络和遮挡分类网络的模型参数;依据第二损失值优化目标识别模型中的特征提取网络、特征处理网络、非掩码分支网络和目标分类网络的模型参数。
第一损失值是计算的遮挡分类结果和训练样本对应的遮挡标签之间的损失值,所以第一损失值不用优化非掩码分支网络和目标分类网络的模型参数;第二损失值是计算的非遮挡分类结果和训练样本对应的目标标签之间的损失值,所以第二损失值不用优化掩码分支网络和遮挡分类网络的模型参数;因为特征提取网络和特征处理网络是两个分支网络公共部分的网络(掩码分支网络和非掩码分支网络),所以第一损失值和第二损失值均优化特征提取网络和特征处理网络。
更进一步地,通过掩码分支网络对第一样本特征和第二样本特征进行处理,得到遮挡区域特征,包括:通过第一激活层对第二样本特征进行Sigmoid计算,得到掩码注意力特征;通过第一注意力层对掩码注意力特征和第一样本特征进行相乘运算,得到遮挡区域特征。
第二样本特征输入到第一激活层,输出掩码注意力特征;第一样本特征和掩码注意力特征输入到第一注意力层,输出遮挡区域特征。
更进一步地,通过非掩码分支网络对第一样本特征和第二样本特征进行处理,得到非遮挡区域特征,包括:通过第二激活层对第二样本特征进行1-Sigmoid计算,得到非掩码注意力特征;通过第二注意力层对非掩码注意力特征和第一样本特征进行相乘运算,得到非遮挡区域特征。
第二样本特征输入到第二激活层,输出非掩码注意力特征;第一样本特征和非掩码注意力特征输入到第二注意力层,输出非遮挡区域特征。
进一步地,利用训练后的目标识别模型进行目标识别之前,方法还包括:将掩码分支网络和遮挡分类网络从目标识别模型中剔除,以精简目标识别模型的模型结构;使用精简后的目标识别模型进行目标识别。
精简后的目标识别模型内部依次是特征提取网络、特征处理网络、非掩码分支网络和目标分类网络。
图2是本公开实施例提供的一种目标识别模型的示意图。如图3所示,该目标识别模型内部依次是:特征提取网络、特征处理网络、掩码分支网络、非掩码分支网络、遮挡分类网络和目标分类网络。掩码分支网络由第一激活层和第一注意力层组成,非掩码分支网络由第二激活层和第二注意力层组成。
将一个待识别的图片输入目标识别模型,目标识别模型内部工作流程如下:将图片输入特征提取网络,输出提取到的特征;将提取到的特征输入特征处理网络,输出处理后的特征;将提取到的特征和处理后的特征输入掩码分支网络,输出图片中遮挡区域的特征;将遮挡区域的特征输入遮挡分类网络,输出图片中遮挡的分类结果;将提取到的特征和处理后的特征输入非掩码分支网络,输出图片中非遮挡区域的特征;将图片中非遮挡区域的特征输入目标分类网络,输出图片中目标的分类结果。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图3是本公开实施例提供的一种目标识别装置的示意图。如图3所示,该目标识别装置包括:
第一构建模块301,被配置为串行连接第一激活层和第一注意力层,得到掩码分支网络,其中,第一激活层用于实现Sigmoid计算,第一注意力层还与特征提取网络存在连接,第一注意力层用于对特征提取网络和第一激活层的输出进行相乘运算;
第二构建模块302,被配置为串行连接第二激活层和第二注意力层,得到非掩码分支网络,其中,第二激活层用于实现1-Sigmoid计算,第二注意力层还与特征提取网络存在连接,第二注意力层用于对特征提取网络和第二激活层的输出进行相乘运算;
第三构建模块303,被配置为将特征提取网络和特征处理网络串行连接,将掩码分支网络和非掩码分支网络并行连接到特征处理网络之后,将遮挡分类网络串行连接到掩码分支网络之后,将目标分类网络串行连接到非掩码分支网络之后,得到目标识别模型,其中,目标分类网络和遮挡分类网络均由全局平均池化层、卷积层和全连接层串行连接得到,特征处理网络由卷积层和全局平均池化层串行连接得到;
训练模块304,被配置为对目标识别模型进行训练,利用训练后的目标识别模型进行目标识别。
根据本公开实施例提供的技术方案,串行连接第一激活层和第一注意力层,得到掩码分支网络,其中,第一激活层用于实现Sigmoid计算,第一注意力层还与特征提取网络存在连接,第一注意力层用于对特征提取网络和第一激活层的输出进行相乘运算;串行连接第二激活层和第二注意力层,得到非掩码分支网络,其中,第二激活层用于实现1-Sigmoid计算,第二注意力层还与特征提取网络存在连接,第二注意力层用于对特征提取网络和第二激活层的输出进行相乘运算;将特征提取网络和特征处理网络串行连接,将掩码分支网络和非掩码分支网络并行连接到特征处理网络之后,将遮挡分类网络串行连接到掩码分支网络之后,将目标分类网络串行连接到非掩码分支网络之后,得到目标识别模型,其中,目标分类网络和遮挡分类网络均由全局平均池化层、卷积层和全连接层串行连接得到,特征处理网络由卷积层和全局平均池化层串行连接得到;对目标识别模型进行训练,利用训练后的目标识别模型进行目标识别。本申请实施例对目标识别模型进行结构上的改进,使得关于遮挡的训练也可以优化目标识别模型的模型参数,所以可以解决现有技术中,遮挡场景下目标识别准确率低的问题,进而提高目标识别的准确率。
在一些实施例中,训练模块304还被配置为获取训练数据集,将训练数据集中的训练样本输入目标识别模型:通过特征提取网络对训练样本进行处理,得到第一样本特征;通过特征处理网络对第一样本特征进行处理,得到第二样本特征;分别通过掩码分支网络和非掩码分支网络对第一样本特征和第二样本特征进行处理,得到遮挡区域特征和非遮挡区域特征;通过遮挡分类网络对遮挡区域特征进行处理,得到遮挡分类结果;通过目标分类网络对非遮挡区域特征进行处理,得到目标分类结果;依据遮挡分类结果和目标分类结果优化目标识别模型的模型参数,以完成对目标识别模型的训练。
在一些实施例中,训练模块304还被配置为利用交叉熵损失函数计算遮挡分类结果和训练样本对应的遮挡标签之间的第一损失值;利用余弦损失函数计算目标分类结果和训练样本对应的目标标签之间的第二损失值;依据第一损失值和第二损失值优化目标识别模型的模型参数,以完成对目标识别模型的训练。
在一些实施例中,训练模块304还被配置为依据第一损失值优化目标识别模型中的特征提取网络、特征处理网络、掩码分支网络和遮挡分类网络的模型参数;依据第二损失值优化目标识别模型中的特征提取网络、特征处理网络、非掩码分支网络和目标分类网络的模型参数。
在一些实施例中,训练模块304还被配置为通过第一激活层对第二样本特征进行Sigmoid计算,得到掩码注意力特征;通过第一注意力层对掩码注意力特征和第一样本特征进行相乘运算,得到遮挡区域特征。
在一些实施例中,训练模块304还被配置为通过第二激活层对第二样本特征进行1-Sigmoid计算,得到非掩码注意力特征;通过第二注意力层对非掩码注意力特征和第一样本特征进行相乘运算,得到非遮挡区域特征。
在一些实施例中,训练模块304还被配置为将掩码分支网络和遮挡分类网络从目标识别模型中剔除,以精简目标识别模型的模型结构;使用精简后的目标识别模型进行目标识别。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。
图4是本公开实施例提供的电子设备4的示意图。如图4所示,该实施例的电子设备4包括:处理器401、存储器402以及存储在该存储器402中并且可在处理器401上运行的计算机程序403。处理器401执行计算机程序403时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403时实现上述各装置实施例中各模块/单元的功能。
电子设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备4可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者不同的部件。
处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
存储器402可以是电子设备4的内部存储单元,例如,电子设备4的硬盘或内存。存储器402也可以是电子设备4的外部存储设备,例如,电子设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器402还可以既包括电子设备4的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及电子设备所需的其它程序和数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。
Claims (10)
1.一种目标识别方法,其特征在于,包括:
串行连接第一激活层和第一注意力层,得到掩码分支网络,其中,所述第一激活层用于实现Sigmoid计算,所述第一注意力层还与特征提取网络存在连接,所述第一注意力层用于对所述特征提取网络和所述第一激活层的输出进行相乘运算;
串行连接第二激活层和第二注意力层,得到非掩码分支网络,其中,所述第二激活层用于实现1-Sigmoid计算,所述第二注意力层还与所述特征提取网络存在连接,所述第二注意力层用于对所述特征提取网络和所述第二激活层的输出进行所述相乘运算;
将所述特征提取网络和特征处理网络串行连接,将所述掩码分支网络和所述非掩码分支网络并行连接到所述特征处理网络之后,将遮挡分类网络串行连接到所述掩码分支网络之后,将目标分类网络串行连接到所述非掩码分支网络之后,得到目标识别模型,其中,所述目标分类网络和所述遮挡分类网络均由全局平均池化层、卷积层和全连接层串行连接得到,所述特征处理网络由所述卷积层和所述全局平均池化层串行连接得到;
对所述目标识别模型进行训练,利用训练后的所述目标识别模型进行目标识别。
2.根据权利要求1所述的方法,其特征在于,对所述目标识别模型进行训练,包括:
获取训练数据集,将所述训练数据集中的训练样本输入所述目标识别模型:
通过所述特征提取网络对所述训练样本进行处理,得到第一样本特征;
通过所述特征处理网络对所述第一样本特征进行处理,得到第二样本特征;
分别通过所述掩码分支网络和所述非掩码分支网络对所述第一样本特征和所述第二样本特征进行处理,得到遮挡区域特征和非遮挡区域特征;
通过所述遮挡分类网络对所述遮挡区域特征进行处理,得到遮挡分类结果;
通过所述目标分类网络对所述非遮挡区域特征进行处理,得到目标分类结果;
依据所述遮挡分类结果和所述目标分类结果优化所述目标识别模型的模型参数,以完成对所述目标识别模型的训练。
3.根据权利要求2所述的方法,其特征在于,依据所述遮挡分类结果和所述目标分类结果优化所述目标识别模型的模型参数,以完成对所述目标识别模型的训练,包括:
利用交叉熵损失函数计算所述遮挡分类结果和所述训练样本对应的遮挡标签之间的第一损失值;
利用余弦损失函数计算所述目标分类结果和所述训练样本对应的目标标签之间的第二损失值;
依据所述第一损失值和所述第二损失值优化所述目标识别模型的模型参数,以完成对所述目标识别模型的训练。
4.根据权利要求3所述的方法,其特征在于,依据所述第一损失值和所述第二损失值优化所述目标识别模型的模型参数,以完成对所述目标识别模型的训练,包括:
依据所述第一损失值优化所述目标识别模型中的所述特征提取网络、所述特征处理网络、所述掩码分支网络和所述遮挡分类网络的模型参数;
依据所述第二损失值优化所述目标识别模型中的所述特征提取网络、所述特征处理网络、所述非掩码分支网络和所述目标分类网络的模型参数。
5.根据权利要求2所述的方法,其特征在于,通过所述掩码分支网络对所述第一样本特征和所述第二样本特征进行处理,得到遮挡区域特征,包括:
通过所述第一激活层对所述第二样本特征进行Sigmoid计算,得到掩码注意力特征;
通过所述第一注意力层对所述掩码注意力特征和所述第一样本特征进行所述相乘运算,得到所述遮挡区域特征。
6.根据权利要求2所述的方法,其特征在于,通过所述非掩码分支网络对所述第一样本特征和所述第二样本特征进行处理,得到非遮挡区域特征,包括:
通过所述第二激活层对所述第二样本特征进行1-Sigmoid计算,得到非掩码注意力特征;
通过所述第二注意力层对所述非掩码注意力特征和所述第一样本特征进行所述相乘运算,得到所述非遮挡区域特征。
7.根据权利要求1所述的方法,其特征在于,利用训练后的所述目标识别模型进行目标识别之前,所述方法还包括:
将所述掩码分支网络和所述遮挡分类网络从所述目标识别模型中剔除,以精简所述目标识别模型的模型结构;
使用精简后的所述目标识别模型进行目标识别。
8.一种目标识别装置,其特征在于,包括:
第一构建模块,被配置为串行连接第一激活层和第一注意力层,得到掩码分支网络,其中,所述第一激活层用于实现Sigmoid计算,所述第一注意力层还与特征提取网络存在连接,所述第一注意力层用于对所述特征提取网络和所述第一激活层的输出进行相乘运算;
第二构建模块,被配置为串行连接第二激活层和第二注意力层,得到非掩码分支网络,其中,所述第二激活层用于实现1-Sigmoid计算,所述第二注意力层还与所述特征提取网络存在连接,所述第二注意力层用于对所述特征提取网络和所述第二激活层的输出进行所述相乘运算;
第三构建模块,被配置为将所述特征提取网络和特征处理网络串行连接,将所述掩码分支网络和所述非掩码分支网络并行连接到所述特征处理网络之后,将遮挡分类网络串行连接到所述掩码分支网络之后,将目标分类网络串行连接到所述非掩码分支网络之后,得到目标识别模型,其中,所述目标分类网络和所述遮挡分类网络均由全局平均池化层、卷积层和全连接层串行连接得到,所述特征处理网络由所述卷积层和所述全局平均池化层串行连接得到;
训练模块,被配置为对所述目标识别模型进行训练,利用训练后的所述目标识别模型进行目标识别。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311169064.XA CN116912636B (zh) | 2023-09-12 | 2023-09-12 | 目标识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311169064.XA CN116912636B (zh) | 2023-09-12 | 2023-09-12 | 目标识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116912636A CN116912636A (zh) | 2023-10-20 |
CN116912636B true CN116912636B (zh) | 2023-12-12 |
Family
ID=88356918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311169064.XA Active CN116912636B (zh) | 2023-09-12 | 2023-09-12 | 目标识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116912636B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117372818B (zh) * | 2023-12-06 | 2024-04-12 | 深圳须弥云图空间科技有限公司 | 目标重识别方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114549962A (zh) * | 2022-03-07 | 2022-05-27 | 重庆锐云科技有限公司 | 一种园林植物叶病分类方法 |
CN115620304A (zh) * | 2022-10-11 | 2023-01-17 | 浙江大华技术股份有限公司 | 文本识别模型的训练方法、文本识别方法及相关装置 |
WO2023044663A1 (en) * | 2021-09-23 | 2023-03-30 | Intel Corporation | Methods and apparatus for team classification in sports analysis |
CN116012344A (zh) * | 2023-01-29 | 2023-04-25 | 东北林业大学 | 一种基于掩码自编码器CNN-Transformer的心脏磁共振图像配准方法 |
CN116403250A (zh) * | 2022-12-30 | 2023-07-07 | 北京龙智数科科技服务有限公司 | 存在遮挡的人脸识别方法及装置 |
WO2023137915A1 (zh) * | 2022-01-18 | 2023-07-27 | 平安科技(深圳)有限公司 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
-
2023
- 2023-09-12 CN CN202311169064.XA patent/CN116912636B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023044663A1 (en) * | 2021-09-23 | 2023-03-30 | Intel Corporation | Methods and apparatus for team classification in sports analysis |
WO2023137915A1 (zh) * | 2022-01-18 | 2023-07-27 | 平安科技(深圳)有限公司 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
CN114549962A (zh) * | 2022-03-07 | 2022-05-27 | 重庆锐云科技有限公司 | 一种园林植物叶病分类方法 |
CN115620304A (zh) * | 2022-10-11 | 2023-01-17 | 浙江大华技术股份有限公司 | 文本识别模型的训练方法、文本识别方法及相关装置 |
CN116403250A (zh) * | 2022-12-30 | 2023-07-07 | 北京龙智数科科技服务有限公司 | 存在遮挡的人脸识别方法及装置 |
CN116012344A (zh) * | 2023-01-29 | 2023-04-25 | 东北林业大学 | 一种基于掩码自编码器CNN-Transformer的心脏磁共振图像配准方法 |
Non-Patent Citations (1)
Title |
---|
以图搜图_基于显著性注意力的美容产品检索网络;孙乾 等;《计算机辅助设计与图形学学报》;第35卷(第3期);第383-391页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116912636A (zh) | 2023-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110781784A (zh) | 基于双路注意力机制的人脸识别方法、装置及设备 | |
CN116912636B (zh) | 目标识别方法及装置 | |
CN113015022A (zh) | 行为识别方法、装置、终端设备及计算机可读存储介质 | |
CN114612987A (zh) | 一种表情识别方法及装置 | |
CN112116567A (zh) | 一种无参考图像质量评价方法、装置及存储介质 | |
CN116403250A (zh) | 存在遮挡的人脸识别方法及装置 | |
CN115100717A (zh) | 特征提取模型的训练方法、卡通对象的识别方法及装置 | |
CN116912632B (zh) | 基于遮挡的目标追踪方法及装置 | |
CN116912635B (zh) | 目标追踪方法及装置 | |
CN116844006A (zh) | 一种目标识别方法、装置、电子设备及可读存储介质 | |
CN116912634B (zh) | 目标追踪模型的训练方法及装置 | |
CN117372818B (zh) | 目标重识别方法及装置 | |
CN118038016A (zh) | 基于局部特征和全局特征联合优化的目标重识别方法及装置 | |
CN117475215A (zh) | 目标识别模型的训练方法及装置 | |
CN116912889B (zh) | 行人重识别方法及装置 | |
CN116912633B (zh) | 目标追踪模型的训练方法及装置 | |
CN116935167B (zh) | 目标追踪模型的训练方法及装置 | |
CN117953346A (zh) | 基于特征一致性的目标重识别模型的训练方法及装置 | |
CN117893790A (zh) | 基于特征对齐的目标重识别方法及装置 | |
CN117474037B (zh) | 基于空间距离对齐的知识蒸馏方法及装置 | |
CN116630639B (zh) | 对象图像的识别方法及装置 | |
CN116580063B (zh) | 目标追踪方法、装置、电子设备及存储介质 | |
CN116912920B (zh) | 表情识别方法及装置 | |
CN111382603B (zh) | 一种轨迹计算装置、方法 | |
CN116052215A (zh) | 基于知识蒸馏的人体检测模型训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |