CN116597384A - 基于小样本训练的空间目标识别方法、装置及计算机设备 - Google Patents
基于小样本训练的空间目标识别方法、装置及计算机设备 Download PDFInfo
- Publication number
- CN116597384A CN116597384A CN202310650721.6A CN202310650721A CN116597384A CN 116597384 A CN116597384 A CN 116597384A CN 202310650721 A CN202310650721 A CN 202310650721A CN 116597384 A CN116597384 A CN 116597384A
- Authority
- CN
- China
- Prior art keywords
- sample
- target
- query
- image
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 101
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000004927 fusion Effects 0.000 claims abstract description 43
- 238000000605 extraction Methods 0.000 claims abstract description 37
- 238000005259 measurement Methods 0.000 claims abstract description 26
- 230000006870 function Effects 0.000 claims description 53
- 230000036544 posture Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 11
- 238000011524 similarity measure Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 2
- 239000000523 sample Substances 0.000 claims 53
- 239000012468 concentrated sample Substances 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 7
- 239000010410 layer Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 238000007499 fusion processing Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000012512 characterization method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012634 optical imaging Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种基于小样本训练的空间目标识别方法、装置及计算机设备,通过根据特征提取单元、特征交叉融合单元以及相似性度量分类单元构建得到目标识别网络,将每次输入网络中的训练数据分为包括多个类别多张样本图像的支持集和只包含一张样本图像的查询集,通过训练使得网络具有将查询集中样本图像的类别从支持集中的多个目标类别选取出来,在训练过程中,还根据由特征提取单元输出的特征图像采用全连接分类器对查询集图像进行识别预测,并基于该结果计算损失函数,同时还根据相似性度量分类单元输出的预测结果计算损失函数,另外在计算总损失函数时还加入了标签权重。采用本方法可有效提高小样本空间目标识别的准确率。
Description
技术领域
本申请涉及空间目标识别技术领域,特别是涉及一种基于小样本训练的空间目标识别方法、装置及计算机设备。
背景技术
在空间监视领域,空间目标识别是空间监视的基础任务,同时也是后续特性研判任务的首要前提。传统的空间目标识别手段以轨道测量为主,即通过目标在轨位置确认其身份,近年来,航天活动日趋复杂,目标轨道机动频繁发生,这种方法往往难以准确、唯一地辨别目标身份,需要更为丰富的特性数据支撑识别任务。依托于监视卫星平台的天基光学成像手段为目标发生机动后如何确定身份引入了天基光学图像的新信息,成为空间监视体系的新兴技术。
目前基于天基光学成像手段受限于成像环境及成像条件,所积累的图像数据稀少,难以满足大数据驱动的传统目标识别网络,因而使用小样本识别技术进行空间目标识别。现有的小样本识别技术无法解决以下针对空间目标识别的问题:(1)空间目标不同姿态下图像变化剧烈,同一类目标差异较大,小样本识别网络特征提取难、关联难。(2)空间目标积累的观测图像数据库中类内姿态分布不均衡,导致分类器过多关注姿态密集的样本,潜在增加了小样本网络识别结果的偏差。
发明内容
基于此,有必要针对上述技术问题,提供一种能够至少解决上述一个问题的基于小样本训练的空间目标识别方法、装置及计算机设备。
一种基于小样本训练的空间目标识别方法,所述方法包括:
获取训练样本数据集,所述训练样本数据集中包括多个目标类别的样本图像,且每一个类别均包括呈现空间目标不同姿态的多张样本图像;
在所述训练样本数据集中,随机选取预设数量目标类别的多张样本图像,且各类别的样本图像数量均为预设张数作为支持集,并在选取的目标类别中抽取一张样本图像作为查询集;
将所述支持集及和查询集输入目标识别网络中,得到所述查询集中样本图像目标类别的第一预测结果,其中所述目标识别网络包括依次连接的特征提取单元、基于自注意力的特征交叉融合单元、基于互注意力的特征交叉融合单元以及相似性度量分类单元;
输入所述目标识别网络中的支持集和查询集通过所述特征提取单元提取得到对应的支持集特征图以及查询集特征图,将提取出查询集特征图通过全连接层分类单元对所述查询集中样本图像的目标类别进行预测,得到第二预测结果;
根据当前查询集中的样本图像计算样本标签权重,根据所述第一预测结果、第二预测结果、样本标签权重以及当前查询集中的样本图像的类别标签构建得到总损失函数;
根据所述总损失函数对所述目标识别网络进行迭代训练,直至所述总损失函数收敛,则得到训练后的目标识别网络;
获取待识别的空间目标图像,将样本库中所有目标类别对应的预设张样本图像与所述空间目标图像输入所述训练后的目标识别网络,以对所述空间目标图像中的目标进行识别。
在其中一实施例中,在对所述目标识别网络进行训练的过程中,每一次迭代训练,均根据所述训练样本数据集构建新的支持集以及查询集。
在其中一实施例中,将所述支持集和查询集输入到所述目标识别网络中后:
所述支持集和查询集通过所述特征提取单元提取得到对应的支持集特征图以及查询集特征图;
对所述支持集特征图以及查询集特征图转换为序列格式,得到对应的支持局部描述子序列以及查询局部描述子序列,并对各序列加上位置编码;
将加上位置编码的所述支持局部描述子序列以及查询局部描述子序列输入至所述基于自注意力的特征交叉融合单元,得到加权特征融合后的支持局部描述子序列以及查询局部描述子序列;
将加权特征融合后的支持局部描述子序列以及查询局部描述子序列输入至所述基于互注意力的特征交叉融合单元,得到交叉关注后的支持局部描述子序列以及查询局部描述子序列;
将交叉关注后的支持局部描述子序列以及查询局部描述子序列输入所述相似性度量分类单元,得到所述第一预测结果。
在其中一实施例中,所述第一预测结果为所述查询集中样本图像中目标为各类别的相似性得分,采用以下公式计算得到:
在上式中,FAs表示所述交叉关注后的支持局部描述子序列,FAq表示所述交叉关注后的查询局部描述子序列,Asi表示FAs中的元素,Aqi表示FAq中的元素,m表示所述局部描述子序列中的元素个数。
在其中一实施例中,所述根据当前查询集中的样本图像计算样本标签权重,根据所述第一预测结果、第二预测结果、样本标签权重以及当前查询集中的样本图像的类别标签构建得到总损失函数包括:
根据所述第一预测结果以及当前查询集中的样本图像的类别标签进行计算得到相似性度量分类损失;
根据所述第二预测结果以及当前查询集中的样本图像的类别标签进行计算得到全连接分类损失;
根据所述相似性度量分类损失、全连接分类损失以及所述样本标签权重进行计算,得到所述总损失函数。
在其中一实施例中,所述样本标签权重根据当前查询集中的样本图像采用以下公式计算得到:
其中,
在上式中,γ表示超参数,表示图像表征向量之间的欧式距离,I(·)表示当dist(x,xi)≤d时取1,dist(x,xi)>d时取0,x表示当前查询集中的样本图像的向量,d表示欧式距离阈值,y表示当前查询集中的样本图像所属类别中的图像样本,Di表示训练样本数据集中某一类目标类别对应的所有样本图像。
在其中一实施例中,所述总损失函数表示为:
L=weight*(λLsim+Lfc)
在上式中,weight表示所述样本标签权重,λ表示所述相似性度量分类损失和全连接分类损失的权重比,Lsim表示所述相似性度量分类损失,Lfc表示所述全连接分类损失。
在其中一实施例中,所述支持集中包括5个目标类别的样本图像,且各目标类别对应的样本图像数量均为张数一致的多张或1张;
在采用训练好的目标识别网络对待识别的空间目标图像进行识别时,从所述样本库中挑选各目标类别的样本图像数量与训练该目标识别网络时所述支持集中对应各目标类别的样本图像数量一致。
一种基于小样本训练的空间目标识别装置,所述装置包括:
数据集获取模块,用于获取训练样本数据集,所述训练样本数据集中包括多个目标类别的样本图像,且每一个类别均包括呈现空间目标不同姿态的多张样本图像;
训练集构建模块,用于在所述训练样本数据集中,随机选取预设数量目标类别的多张样本图像,且各类别的样本图像数量均为预设张数作为支持集,并在选取的目标类别中抽取一张样本图像作为查询集;
第一预测结果得到模块,用于将所述支持集和查询集输入目标识别网络中,得到所述查询集中样本图像目标类别的第一预测结果,其中所述目标识别网络包括依次连接的特征提取单元、基于自注意力的特征交叉融合单元、基于互注意力的特征交叉融合单元以及相似性度量分类单元;
第二预测结果得到模块,用于输入所述目标识别网络中的支持集和查询集通过所述特征提取单元提取得到对应的支持集特征图以及查询集特征图,将提取出查询集特征图通过全连接层分类单元对所述查询集中样本图像的目标类别进行预测,得到第二预测结果;
总损失函数计算模块,用于根据当前查询集中的样本图像计算样本标签权重,根据所述第一预测结果、第二预测结果、样本标签权重以及当前查询集中的样本图像的类别标签构建得到总损失函数;
目标识别网络训练模块,用于根据所述总损失函数对所述目标识别网络进行迭代训练,直至所述总损失函数收敛,则得到训练后的目标识别网络;
图像目标识别模块,用于获取待识别的空间目标图像,将样本库中所有目标类别对应的预设张样本图像与所述空间目标图像输入所述训练后的目标识别网络,以对所述空间目标图像中的目标进行识别。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取训练样本数据集,所述训练样本数据集中包括多个目标类别的样本图像,且每一个类别均包括呈现空间目标不同姿态的多张样本图像;
在所述训练样本数据集中,随机选取预设数量目标类别的多张样本图像,且各类别的样本图像数量均为预设张数作为支持集,并在选取的目标类别中抽取一张样本图像作为查询集;
将所述支持集及和查询集输入目标识别网络中,得到所述查询集中样本图像目标类别的第一预测结果,其中所述目标识别网络包括依次连接的特征提取单元、基于自注意力的特征交叉融合单元、基于互注意力的特征交叉融合单元以及相似性度量分类单元;
输入所述目标识别网络中的支持集和查询集通过所述特征提取单元提取得到对应的支持集特征图以及查询集特征图,并将提取出来的查询集特征图通过全连接层分类单元对所述查询集中样本图像的目标类别进行预测,得到第二预测结果;
根据当前查询集中的样本图像计算样本标签权重,根据所述第一预测结果、第二预测结果、样本标签权重以及当前查询集中的样本图像的类别标签构建得到总损失函数;
根据所述总损失函数对所述目标识别网络进行迭代训练,直至所述总损失函数收敛,则得到训练后的目标识别网络;
获取待识别的空间目标图像,将样本库中所有目标类别对应的预设张样本图像与所述空间目标图像输入所述训练后的目标识别网络,以对所述空间目标图像中的目标进行识别。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取训练样本数据集,所述训练样本数据集中包括多个目标类别的样本图像,且每一个类别均包括呈现空间目标不同姿态的多张样本图像;
在所述训练样本数据集中,随机选取预设数量目标类别的多张样本图像,且各类别的样本图像数量均为预设张数作为支持集,并在选取的目标类别中抽取一张样本图像作为查询集;
将所述支持集及和查询集输入目标识别网络中,得到所述查询集中样本图像目标类别的第一预测结果,其中所述目标识别网络包括依次连接的特征提取单元、基于自注意力的特征交叉融合单元、基于互注意力的特征交叉融合单元以及相似性度量分类单元;
输入所述目标识别网络中的支持集和查询集通过所述特征提取单元提取得到对应的支持集特征图以及查询集特征图,并将提取出来的查询集特征图通过全连接层分类单元对所述查询集中样本图像的目标类别进行预测,得到第二预测结果;
根据当前查询集中的样本图像计算样本标签权重,根据所述第一预测结果、第二预测结果、样本标签权重以及当前查询集中的样本图像的类别标签构建得到总损失函数;
根据所述总损失函数对所述目标识别网络进行迭代训练,直至所述总损失函数收敛,则得到训练后的目标识别网络;
获取待识别的空间目标图像,将样本库中所有目标类别对应的预设张样本图像与所述空间目标图像输入所述训练后的目标识别网络,以对所述空间目标图像中的目标进行识别。
上述基于小样本训练的空间目标识别方法、装置及计算机设备,通过根据特征提取单元、基于自注意力的特征交叉融合单元、基于互注意力的特征交叉融合单元以及相似性度量分类单元构建得到目标识别网络,并且在训练该目标识别网络时,将每次输入网络中的训练数据分为包括多个类别多张样本图像的支持集和只包含一张样本图像的查询集,通过训练使得网络学习将查询集中样本图像映射到支持集中类别之一的能力
,在对网络进行训练过程中,还根据由特征提取单元输出的特征图像采用全连接分类器对查询集样本图像进行识别预测,并根据预测结果计算损失函数,同时还根据相似性度量分类单元输出的类别预测结果计算损失函数,另外在计算总损失函数时还加入了标签权重。采用本方法可有效提高小样本空间目标识别的准确率。
附图说明
图1为一个实施例中基于小样本训练的空间目标识别方法的流程示意图;
图2为一个实施例中目标识别网络的结构示意图;
图3为一个实施例中基于自注意力的特征交叉融合单元结构示意图;
图4为另一个实施例中基于互注意力的特征交叉融合单元结构示意图;
图5为一个实施例中基于小样本训练的空间目标识别装置的结构框图;
图6为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
针对现有技术中,空间目标不同姿态下图像变化剧烈,同一类目标差异较大,小样本识别网络特征提取难、关联难,以及空间目标积累的观测图像数据库中类内姿态分布不均衡,导致分类器过多关注姿态密集的样本,潜在增加了小样本网络识别结果的偏差。如图1所示,提供了一种基于小样本训练的空间目标识别方法,包括以下步骤:
步骤S100,获取训练样本数据集,该训练样本数据集中包括多个目标类别的样本图像,且每一个类别均包括呈现空间目标不同姿态的多张样本图像;
步骤S110,在训练样本数据集中,随机选取预设数量目标类别的多张样本图像,且各类别的样本图像数量均为预设张数作为支持集,并在选取的目标类别中抽取一张样本图像作为查询集;
步骤S120,将支持集及和查询集输入目标识别网络中,得到查询集中样本图像目标类别的第一预测结果,其中目标识别网络包括依次连接的特征提取单元、基于自注意力的特征交叉融合单元、基于互注意力的特征交叉融合单元以及相似性度量分类单元;
步骤S130,输入目标识别网络中的支持集和查询集通过所述特征提取单元提取得到对应的支持集特征图以及查询集特征图,并将提取出来的查询集特征图通过全连接层分类单元对所述查询集中样本图像的目标类别进行预测,得到第二预测结果;
步骤S140,根据当前查询集中的样本图像计算样本标签权重,根据所述第一预测结果、第二预测结果、样本标签权重以及当前查询集中的样本图像的类别标签构建得到总损失函数;
步骤S150,根据所述总损失函数对所述目标识别网络进行迭代训练,直至所述总损失函数收敛,则得到训练后的目标识别网络;
步骤S160,获取待识别的空间目标图像,将样本库中所有目标类别对应的预设张样本图像与所述空间目标图像输入所述训练后的目标识别网络,以对所述空间目标图像中的目标进行识别。
在本实施例中,提出了一种由特征提取单元、基于自注意力的特征交叉融合单元、基于互注意力的特征交叉融合单元以及相似性度量分类单元构建的目标识别网络,其结构如图2所示。其中,基于自注意力的特征交叉融合单元可以自适应地学习并增强特征图像上不同空间位置之间的特征相关关系,以提高特征的辨识性和姿态鲁棒性。而基于互注意力的特征交叉融合单元通过学习支持集和查询集之间的局部特征相关关系,改善目标在不同姿态下由于表征差异造成的局部特征难以关联的问题。同时,本方法中还包括对该目标识别网络进行训练的过程,其中,采用基于邻域密度的样本标签权重的损失函数均衡化方法,解决训练数据姿态不均衡带来的网络识别偏差问题。
在步骤S100中,获取的训练数据集中包括多种目标类别不同的样本图像,且对应每一个类别均有多张关于同一类别目标或同一目标的不同姿态的样本图像。在这里需要说明的是,在训练数据集中,各类别目标的不同姿态对应的样本图像是不均衡的。
在步骤S110中,根据训练数据集中的样本图像构建支持集和查询集,其中支持集中包括预设数量类别的样本图像,且每一个类别对应的图像样本数量是相同的。实际上支持集中的不同类别的数量以及各类别对应的图像样本的数量是可以根据实际情况进行调整的,为了后续对本方法说明时更为清楚,在这里以支持集中有5个类别的样本图像,且各类别均包括5张样本图像为例进行说明。再从当前支持集中多个类别中随机选择一个类别对应的样本图像。
在后续,将构建好的支持集和查询集输入目标识别图像中进行迭代训练时,每一次迭代训练,均根据训练样本数据集中的样本图像随机构建新的支持集以及查询集。
具体的,将已有的空间目标数据集(即训练数据集)划分为训练数据Dtrain和测试数据Dtest,分别含有Ctrain和Ctest个类别,且类别不重合。Dtrain和Dtest都由一个查询集Q和一个支持集S组成。在N-way K-shot的实验设置中,在训练过程中,从Dtrain中随机抽取N个类,每类取K个构建支持集,剩余的抽取做查询集,训练模型学习从图像到标签的映射。而在测试过程中,同样从Dtest中选取N个类别,每个类提供K个样本有标签做支持集,使用模型学习到的映射将查询集分类为支持集的N个类之一。在本文中,仅对训练过程进行详细说明。
在本实施例中,N和K均为5,则支持集可以表示为S=[S1,S2,S3,S4,S5],且支持集和查询集均满足:S,Q∈RH×W×C。
在本实施例中,将支持集和查询集输入到所述目标识别网络中后:支持集和查询集首先通过特征提取单元提取得到对应的支持集特征图以及查询集特征图,接着,对支持集特征图以及查询集特征图转换为序列格式,得到对应的支持局部描述子序列以及查询局部描述子序列,并对各序列加上位置编码,再将加上位置编码的支持局部描述子序列以及查询局部描述子序列输入至基于自注意力的特征交叉融合单元,得到加权特征融合后的支持局部描述子序列以及查询局部描述子序列,紧接着,将加权特征融合后的输出融合后的支持局部描述子序列以及查询局部描述子序列输入至基于互注意力的特征交叉融合单元,得到交叉关注后的支持局部描述子序列以及查询局部描述子序列,最后将交叉关注后的支持局部描述子序列以及查询局部描述子序列输入相似性度量分类单元,得到第一预测结果。
在本实施例中,特征提取单元采用ResNet-12的卷积网络结构。将支持集S和查询集Q经过预处理送入特征提取单元,得到支持集特征图FS以及查询集特征图FQ,且FS,FQ∈Rh ×w×c,其中,h=5,w=5,c=640。
再将特征图输入到下一个单元之前,还将两个特征图进行展开看作是两组m个d维(m=h×w,d=c)的局部描述子序列:FS=[s1,...,sm]∈Rd×m,FQ=[q1,...,qm]∈Rd×m。
由于将特征图像转换为序列后就丢失了位置特征,所以需要对转换后的序列加上位置编码:
在公式(1)中,表示特征图中的位置是(x,y)的图像局部描述子中第i个特征通道的编码信息,i为特征通道索引,/>
接着,将加上编码位置的支持局部描述子序列以及查询局部描述子序列时输入至基于自注意力的特征交叉融合单元中,以有效增强判别特征,准确定位更具辨识性和姿态鲁棒性的深层特征。
如图3所示,为基于自注意力的特征交叉融合过程,通过多头注意力衡量各个局部描述子的重要程度,并在特征融合过程中进行加权,提高特征的辨识性。
定义输入基于自注意力的特征交叉融合单元的序列为X,则注意力机制可表示为:
Attention(q,k,v)=softmax(q·kT)v (3)
则多头注意力机制可表示为:
在公式(5)中,
在本实施例中,d=640,k=8,dk=d/k=80。
经过基于自注意力的交叉融合单元后支持集和查询集用FS'、FQ'即加权特征融合后的支持局部描述子序列以及查询局部描述子序列表示:
F′S=FS+MultiHeadAttention(FS,FS,FS) (6)
F′Q=FQ+MultiHeadAttention(FQ,FQ,FQ) (7)
接下来将F′S、F′Q输入至基于互注意力的特征交叉融合单元,其融合过程如图4所示,基于互注意力的特征交叉融合通过对支持集和查询集的图像局部特征序列进行交叉关注,可挖掘出支持集和查询集之间的局部特征相关性。经过基于互注意力交叉融合模块的支持集和查询集用FAs、FAq表示:
FAs=F′S+MultiHeadAttention(F′S,F′Q,F′Q) (8)
FAq=F′Q+MultiHeadAttention(F′Q,FAs,FAs) (9)
接着,将FAs、FAq输入相似性度量单元来计算支持集和查询集的相似度得到,经过特征提取和特征交叉融合之后可得到FAs=[As1,...,Asm]∈Rd×m,FAq=[Aq1,...,Aqm]∈Rd ×m。相似性度量单元计算相似性得分采用以下公式:
在公式(10)中,FAs表示交叉关注后的支持局部描述子序列,FAq表示交叉关注后的查询局部描述子序列,Asi表示FAs中的元素,Aqi表示FAq中的元素,m表示局部描述子序列中的元素个数。
而第一预测结果也就是查询集中样本图像中目标的类别与支持集中各类别样本图像的相似度,其中相似度最高的类别即可认为查询集中样本图像的目标类别。
而在对该目标识别网络进行训练时,采用相似性度量分类器和全连接层分类器两个分类器,两个分类损失联合优化网络。而在训练好的目标识别网络中仅使用相似性度量分类器进行预测。
首先,可根据第一预测结果以及当前查询集中的样本图像的类别标签进行计算得到相似性度量分类损失。具体的,输入网络的支持集有N类,每类有K个样本,经过特征提取与注意力模块得到嵌入向量S'={(FAs_1,...,FAs_k),(FAs_2,...,FAs_2k),...,(FAs_N,...,FAs_Nk)},将同类样本的嵌入向量取平均值作为该类的表征,即类原型中心S'pro={Fs1,Fs2,...,FsN},相似性度量分类单元输出查询集FAq与N个类别的相似度即预测值利用softmax函数求得相似性度量分类损失。相似性度量分类器的损失函数计算如下:
在公式(11)中,yi表示当前查询集样本图像中的类别标签,即真实值,只有正确类别yi=1,其他N-1个类别为yi=0。τ为温度系数,在本实施例中,该值可取0.01。
进一步的,可根据第二预测结果以及当前查询集中的样本图像的类别标签进行计算得到全连接分类损失。
具体的,在特征提取单元后设置单层的全连接分类器,引入全连接分类损失帮助特征提取模块提取更准确的特征帮助识别目标。查询集经过特征提取模块得到特征图,通过一个全连接层,得到对每个类别的预测概率值,进而对预测概率进行softmax归一化,得到最终的分类结果。全连接分类器的损失函数如下:
在公式(12)中,Wi、bi是第i个类别的权值矩阵和偏置,一共Ctrain个类别。yi为真实值,只有正确类别yi=1,其他N-1个类别为yi=0。
此外,在根据相似性度量分类损失以及全连接分类损失对总损失函数进行计算时,还加入了样本标签权重。
在本实施例中,引入一种基于邻域密度的样本标签权重来自适应均衡损失函数。训练数据集Dtrain某一类数据子集为Di(i∈[1,Ctrain]),其中一个样本的向量为x,欧式距离阈值为d,可以用以下公式表示以x为中心,同一类内与x的欧式距离小于d的图像样本数量为:
在公式(13)中,表示图像表征向量之间的欧式距离,I(·)表示当dist(x,xi)≤d时取1,dist(x,xi)>d时取0。y表示当前查询集中的样本图像所属类别中的图像样本,Di表示训练样本数据集中某一类目标类别对应的所有样本图像。与每张图像相似的样本数量和该图像在类内姿态属性空间的密度成反比,给姿态属性密集的图像更小的损失权重,姿态属性稀疏的图像更大的损失权重,人为的纠正网络对多数样本的关注偏差,权重计算如下:
在公式(14)中,γ表示超参数。在本实施例中,γ取2,d取600。
最终目标识别网络的总损失函数加上基于邻域密度的样本标签权重,表示为:
L=weight*(λLsim+Lfc) (15)
在公式(15)中,weight表示样本标签权重,λ表示相似性度量分类损失和全连接分类损失的权重比,Lsim表示相似性度量分类损失,Lfc表示全连接分类损失。
在其中一实施例中,λ可设置为0.75。
通过上述的总损失函数对目标识别网络进行迭代训练后,直至该总损失函数收敛,则得到训练好的目标识别网络,此时,该网络具备将查询集样本图像的类别从支持集中各类别中选取出来的能力。在利用训练好的目标识别网络对待识别目标图像进行识别时,同时将样本库中的所有类别的样本图像一起输入训练好的目标识别网络中。
为了使得识别效果更好,可从样本库中挑选出来的各个类别对应的样本图像数量可以与训练该网络时支持集中各类别对应的样本图像数量一致。
在本文中,为了验证本文方法的有效性,还根据本方法进行仿真实验。仿真实验采用的自然数据集是CUB-200数据集,表1展示了本文方法在5-way1-shot和5-way5-shot设置下的与现在主流小样本识别方法的仿真实验对比结果。
本文方法针对的是姿态不均衡空间目标数据集,因而本文将开源的姿态均衡的空间目标数据集BUAA-SID1.0删去一部分姿态图像,制作出一个姿态不均衡的数据集BUAA_unbalanced以验证本文方法的有效性。表2展示了本文方法在5-way1-shot和5-way5-shot设置下的仿真实验结果。通过分析实验结果可知,本方法所提算法有效。
表1不同方法在CUB-200数据集上的分类精度
网络模型 | 5way1shot/% | 5way5shot/% |
DN4[1] | 46.84±0.81 | 74.92±0.64 |
DeepEMD[2] | 75.65±0.83 | 88.69±0.50 |
LMPNet[3] | 65.59±0.13 | 68.19±0.23 |
RENet[4] | 79.49±0.44 | 91.11±0.24 |
本文方法 | 81.14±1.02 | 91.35±0.54 |
表2在BUAA_unbalanced上的权重消融实验
实验设置 | 未加权重acc/% | 加权重acc/% |
5way1shot | 70.770 | 74.200 |
5way5shot | 87.110 | 88.393 |
上述基于小样本训练的空间目标识别方法中,通过提出了基于自注意力的局部特征交叉融合模块,自适应地学习并增强不同空间位置之间的特征相关关系,提高特征的辨识性和姿态鲁棒性,同时,提出了基于互注意力的局部特征交叉融合模块,通过学习支持集和查询集之间的局部特征相关关系,改善在不同姿态下由于表征差异造成的局部特征难以关联的问题,还提出了基于邻域密度的样本标签权重的损失函数均衡化方法,解决训练数据姿态不均衡带来的网络识别偏差问题。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图5所示,提供了一种基于小样本训练的空间目标识别装置,包括:数据集获取模块200、训练集构建模块210、第一预测结果得到模块220、第二预测结果得到模块230、总损失函数计算模块240、目标识别网络训练模块250和图像目标识别模块260,其中:
数据集获取模块200,用于获取训练样本数据集,所述训练样本数据集中包括多个目标类别的样本图像,且每一个类别均包括呈现空间目标不同姿态的多张样本图像;
训练集构建模块210,用于在所述训练样本数据集中,随机选取预设数量目标类别的多张样本图像,且各类别的样本图像数量均为预设张数作为支持集,并在选取的目标类别中抽取一张样本图像作为查询集;
第一预测结果得到模块220,用于将所述支持集及和查询集输入目标识别网络中,得到所述查询集中样本图像目标类别的第一预测结果,其中所述目标识别网络包括依次连接的特征提取单元、基于自注意力的特征交叉融合单元、基于互注意力的特征交叉融合单元以及相似性度量分类单元;
第二预测结果得到模块230,用于输入所述目标识别网络中的支持集和查询集通过所述特征提取单元提取得到对应的支持集特征图以及查询集特征图,并将提取出来的查询集特征图通过全连接层分类单元对所述查询集中样本图像的目标类别进行预测,得到第二预测结果;
总损失函数计算模块240,用于根据当前查询集中的样本图像计算样本标签权重,根据所述第一预测结果、第二预测结果、样本标签权重以及当前查询集中的样本图像的类别标签构建得到总损失函数;
目标识别网络训练模块250,用于根据所述总损失函数对所述目标识别网络进行迭代训练,直至所述总损失函数收敛,则得到训练后的目标识别网络;
图像目标识别模块260,用于获取待识别的空间目标图像,将样本库中所有目标类别对应的预设张样本图像与所述空间目标图像输入所述训练后的目标识别网络,以对所述空间目标图像中的目标进行识别。
关于基于小样本训练的空间目标识别装置的具体限定可以参见上文中对于基于小样本训练的空间目标识别方法的限定,在此不再赘述。上述基于小样本训练的空间目标识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于小样本训练的空间目标识别方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图6中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取训练样本数据集,所述训练样本数据集中包括多个目标类别的样本图像,且每一个类别均包括呈现空间目标不同姿态的多张样本图像;
在所述训练样本数据集中,随机选取预设数量目标类别的多张样本图像,且各类别的样本图像数量均为预设张数作为支持集,并在选取的目标类别中抽取一张样本图像作为查询集;
将所述支持集及和查询集输入目标识别网络中,得到所述查询集中样本图像目标类别的第一预测结果,其中所述目标识别网络包括依次连接的特征提取单元、基于自注意力的特征交叉融合单元、基于互注意力的特征交叉融合单元以及相似性度量分类单元;
输入所述目标识别网络中的支持集和查询集通过所述特征提取单元提取得到对应的支持集特征图以及查询集特征图,并将提取出来的查询集特征图通过全连接层分类单元对所述查询集中样本图像的目标类别进行预测,得到第二预测结果;
根据当前查询集中的样本图像计算样本标签权重,根据所述第一预测结果、第二预测结果、样本标签权重以及当前查询集中的样本图像的类别标签构建得到总损失函数;
根据所述总损失函数对所述目标识别网络进行迭代训练,直至所述总损失函数收敛,则得到训练后的目标识别网络;
获取待识别的空间目标图像,将样本库中所有目标类别对应的预设张样本图像与所述空间目标图像输入所述训练后的目标识别网络,以对所述空间目标图像中的目标进行识别。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取训练样本数据集,所述训练样本数据集中包括多个目标类别的样本图像,且每一个类别均包括呈现空间目标不同姿态的多张样本图像;
在所述训练样本数据集中,随机选取预设数量目标类别的多张样本图像,且各类别的样本图像数量均为预设张数作为支持集,并在选取的目标类别中抽取一张样本图像作为查询集;
将所述支持集及和查询集输入目标识别网络中,得到所述查询集中样本图像目标类别的第一预测结果,其中所述目标识别网络包括依次连接的特征提取单元、基于自注意力的特征交叉融合单元、基于互注意力的特征交叉融合单元以及相似性度量分类单元;
输入所述目标识别网络中的支持集和查询集通过所述特征提取单元提取得到对应的支持集特征图以及查询集特征图,并将提取出来的查询集特征图通过全连接层分类单元对所述查询集中样本图像的目标类别进行预测,得到第二预测结果;
根据当前查询集中的样本图像计算样本标签权重,根据所述第一预测结果、第二预测结果、样本标签权重以及当前查询集中的样本图像的类别标签构建得到总损失函数;
根据所述总损失函数对所述目标识别网络进行迭代训练,直至所述总损失函数收敛,则得到训练后的目标识别网络;
获取待识别的空间目标图像,将样本库中所有目标类别对应的预设张样本图像与所述空间目标图像输入所述训练后的目标识别网络,以对所述空间目标图像中的目标进行识别。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.基于小样本训练的空间目标识别方法,其特征在于,所述方法包括:
获取训练样本数据集,所述训练样本数据集中包括多个目标类别的样本图像,且每一个类别均包括呈现空间目标不同姿态的多张样本图像;
在所述训练样本数据集中,随机选取预设数量目标类别的多张样本图像,且各类别的样本图像数量均为预设张数作为支持集,并在选取的目标类别中抽取一张样本图像作为查询集;
将所述支持集及和查询集输入目标识别网络中,得到所述查询集中样本图像目标类别的第一预测结果,其中所述目标识别网络包括依次连接的特征提取单元、基于自注意力的特征交叉融合单元、基于互注意力的特征交叉融合单元以及相似性度量分类单元;
输入所述目标识别网络中的支持集和查询集通过所述特征提取单元提取得到对应的支持集特征图以及查询集特征图,将提取出查询集特征图通过全连接层分类单元对所述查询集中样本图像的目标类别进行预测,得到第二预测结果;
根据当前查询集中的样本图像计算样本标签权重,根据所述第一预测结果、第二预测结果、样本标签权重以及当前查询集中的样本图像的类别标签构建得到总损失函数;
根据所述总损失函数对所述目标识别网络进行迭代训练,直至所述总损失函数收敛,则得到训练后的目标识别网络;
获取待识别的空间目标图像,将样本库中所有目标类别对应的预设张样本图像与所述空间目标图像输入所述训练后的目标识别网络,以对所述空间目标图像中的目标进行识别。
2.根据权利要求1所述的空间目标识别方法,其特征在于,在对所述目标识别网络进行训练的过程中,每一次迭代训练,均根据所述训练样本数据集构建新的支持集以及查询集。
3.根据权利要求2所述的空间目标识别方法,其特征在于,将所述支持集和查询集输入到所述目标识别网络中后:
所述支持集和查询集通过所述特征提取单元提取得到对应的支持集特征图以及查询集特征图;
对所述支持集特征图以及查询集特征图转换为序列格式,得到对应的支持局部描述子序列以及查询局部描述子序列,并对各序列加上位置编码;
将加上位置编码的所述支持局部描述子序列以及查询局部描述子序列输入至所述基于自注意力的特征交叉融合单元,得到加权特征融合后的支持局部描述子序列以及查询局部描述子序列;
将加权特征融合后的支持局部描述子序列以及查询局部描述子序列输入至所述基于互注意力的特征交叉融合单元,得到交叉关注后的支持局部描述子序列以及查询局部描述子序列;
将交叉关注后的支持局部描述子序列以及查询局部描述子序列输入所述相似性度量分类单元,得到所述第一预测结果。
4.根据权利要求3所述的空间目标识别方法,其特征在于,所述第一预测结果为所述查询集中样本图像中目标为各类别的相似性得分,采用以下公式计算得到:
在上式中,FAs表示所述交叉关注后的支持局部描述子序列,FAq表示所述交叉关注后的查询局部描述子序列,Asi表示FAs中的元素,Aqi表示FAq中的元素,m表示所述局部描述子序列中的元素个数。
5.根据权利要求4所述的空间目标识别方法,其特征在于,所述根据当前查询集中的样本图像计算样本标签权重,根据所述第一预测结果、第二预测结果、样本标签权重以及当前查询集中的样本图像的类别标签构建得到总损失函数包括:
根据所述第一预测结果以及当前查询集中的样本图像的类别标签进行计算得到相似性度量分类损失;
根据所述第二预测结果以及当前查询集中的样本图像的类别标签进行计算得到全连接分类损失;
根据所述相似性度量分类损失、全连接分类损失以及所述样本标签权重进行计算,得到所述总损失函数。
6.根据权利要求5所述的空间目标识别方法,其特征在于,所述样本标签权重根据当前查询集中的样本图像采用以下公式计算得到:
其中,
在上式中,γ表示超参数,表示图像表征向量之间的欧式距离,I(·)表示当dist(x,xi)≤d时取1,dist(x,xi)>d时取0,x表示当前查询集中的样本图像的向量,d表示欧式距离阈值,y表示当前查询集中的样本图像所属类别中的图像样本,Di表示训练样本数据集中某一类目标类别对应的所有样本图像。
7.根据权利要求6所述的空间目标识别方法,其特征在于,所述总损失函数表示为:
L=weight*(λLsim+Lfc)
在上式中,weight表示所述样本标签权重,λ表示所述相似性度量分类损失和全连接分类损失的权重比,Lsim表示所述相似性度量分类损失,Lfc表示所述全连接分类损失。
8.根据权利要求1-7任一项所述的空间目标识别方法,其特征在于,所述支持集中包括5个目标类别的样本图像,且各目标类别对应的样本图像数量均为张数一致的多张或1张;
在采用训练好的目标识别网络对待识别的空间目标图像进行识别时,从所述样本库中挑选各目标类别的样本图像数量与训练该目标识别网络时所述支持集中对应各目标类别的样本图像数量一致。
9.基于小样本训练的空间目标识别装置,其特征在于,所述装置包括:
数据集获取模块,用于获取训练样本数据集,所述训练样本数据集中包括多个目标类别的样本图像,且每一个类别均包括呈现空间目标不同姿态的多张样本图像;
训练集构建模块,用于在所述训练样本数据集中,随机选取预设数量目标类别的多张样本图像,且各类别的样本图像数量均为预设张数作为支持集,并在选取的目标类别中抽取一张样本图像作为查询集;
第一预测结果得到模块,用于将所述支持集和查询集输入目标识别网络中,得到所述查询集中样本图像目标类别的第一预测结果,其中所述目标识别网络包括依次连接的特征提取单元、基于自注意力的特征交叉融合单元、基于互注意力的特征交叉融合单元以及相似性度量分类单元;
第二预测结果得到模块,用于输入所述目标识别网络中的支持集和查询集通过所述特征提取单元提取得到对应的支持集特征图以及查询集特征图,将提取出查询集特征图通过全连接层分类单元对所述查询集中样本图像的目标类别进行预测,得到第二预测结果;
总损失函数计算模块,用于根据当前查询集中的样本图像计算样本标签权重,根据所述第一预测结果、第二预测结果、样本标签权重以及当前查询集中的样本图像的类别标签构建得到总损失函数;
目标识别网络训练模块,用于根据所述总损失函数对所述目标识别网络进行迭代训练,直至所述总损失函数收敛,则得到训练后的目标识别网络;
图像目标识别模块,用于获取待识别的空间目标图像,将样本库中所有目标类别对应的预设张样本图像与所述空间目标图像输入所述训练后的目标识别网络,以对所述空间目标图像中的目标进行识别。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310650721.6A CN116597384B (zh) | 2023-06-02 | 2023-06-02 | 基于小样本训练的空间目标识别方法、装置及计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310650721.6A CN116597384B (zh) | 2023-06-02 | 2023-06-02 | 基于小样本训练的空间目标识别方法、装置及计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116597384A true CN116597384A (zh) | 2023-08-15 |
CN116597384B CN116597384B (zh) | 2024-03-05 |
Family
ID=87600690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310650721.6A Active CN116597384B (zh) | 2023-06-02 | 2023-06-02 | 基于小样本训练的空间目标识别方法、装置及计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116597384B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116843998A (zh) * | 2023-08-29 | 2023-10-03 | 四川省分析测试服务中心 | 一种光谱样本加权方法及系统 |
CN116994076A (zh) * | 2023-09-28 | 2023-11-03 | 中国海洋大学 | 一种基于双分支相互学习特征生成的小样本图像识别方法 |
CN117392449A (zh) * | 2023-10-24 | 2024-01-12 | 青岛美迪康数字工程有限公司 | 基于进镜图像特征的肠镜部位识别方法、装置和设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221987A (zh) * | 2021-04-30 | 2021-08-06 | 西北工业大学 | 一种基于交叉注意力机制的小样本目标检测方法 |
CN114548104A (zh) * | 2022-02-08 | 2022-05-27 | 南华大学 | 基于特征和类别干预的少样本实体识别方法与模型 |
CN114676769A (zh) * | 2022-03-22 | 2022-06-28 | 南通大学 | 一种基于视觉Transformer的小样本昆虫图像识别方法 |
CN114740441A (zh) * | 2022-03-04 | 2022-07-12 | 四川九洲电器集团有限责任公司 | 一种基于小样本的低慢小目标雷达回波识别方法 |
CN115359316A (zh) * | 2022-08-17 | 2022-11-18 | 中国科学院计算技术研究所 | 一种基于增量学习的图像分类模型训练方法及分类方法 |
WO2022258666A1 (en) * | 2021-06-08 | 2022-12-15 | Deepmind Technologies Limited | Multimodal few-shot learning with frozen language models |
CN116188995A (zh) * | 2023-04-13 | 2023-05-30 | 国家基础地理信息中心 | 一种遥感图像特征提取模型训练方法、检索方法及装置 |
-
2023
- 2023-06-02 CN CN202310650721.6A patent/CN116597384B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221987A (zh) * | 2021-04-30 | 2021-08-06 | 西北工业大学 | 一种基于交叉注意力机制的小样本目标检测方法 |
WO2022258666A1 (en) * | 2021-06-08 | 2022-12-15 | Deepmind Technologies Limited | Multimodal few-shot learning with frozen language models |
CN114548104A (zh) * | 2022-02-08 | 2022-05-27 | 南华大学 | 基于特征和类别干预的少样本实体识别方法与模型 |
CN114740441A (zh) * | 2022-03-04 | 2022-07-12 | 四川九洲电器集团有限责任公司 | 一种基于小样本的低慢小目标雷达回波识别方法 |
CN114676769A (zh) * | 2022-03-22 | 2022-06-28 | 南通大学 | 一种基于视觉Transformer的小样本昆虫图像识别方法 |
CN115359316A (zh) * | 2022-08-17 | 2022-11-18 | 中国科学院计算技术研究所 | 一种基于增量学习的图像分类模型训练方法及分类方法 |
CN116188995A (zh) * | 2023-04-13 | 2023-05-30 | 国家基础地理信息中心 | 一种遥感图像特征提取模型训练方法、检索方法及装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116843998A (zh) * | 2023-08-29 | 2023-10-03 | 四川省分析测试服务中心 | 一种光谱样本加权方法及系统 |
CN116843998B (zh) * | 2023-08-29 | 2023-11-14 | 四川省分析测试服务中心 | 一种光谱样本加权方法及系统 |
CN116994076A (zh) * | 2023-09-28 | 2023-11-03 | 中国海洋大学 | 一种基于双分支相互学习特征生成的小样本图像识别方法 |
CN116994076B (zh) * | 2023-09-28 | 2024-01-19 | 中国海洋大学 | 一种基于双分支相互学习特征生成的小样本图像识别方法 |
CN117392449A (zh) * | 2023-10-24 | 2024-01-12 | 青岛美迪康数字工程有限公司 | 基于进镜图像特征的肠镜部位识别方法、装置和设备 |
Also Published As
Publication number | Publication date |
---|---|
CN116597384B (zh) | 2024-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116597384B (zh) | 基于小样本训练的空间目标识别方法、装置及计算机设备 | |
CN110705489B (zh) | 目标识别网络的训练方法、装置、计算机设备和存储介质 | |
CN111291264A (zh) | 基于机器学习的访问对象预测方法、装置和计算机设备 | |
CN111401473B (zh) | 基于注意力机制卷积神经网络的红外目标分类方法 | |
CN114119460A (zh) | 半导体图像缺陷识别方法、装置、计算机设备和存储介质 | |
CN116129219A (zh) | 一种基于知识稳健-重平衡网络的sar目标类增量识别方法 | |
CN114255381A (zh) | 图像识别模型的训练方法、图像识别方法、装置及介质 | |
CN111783088B (zh) | 一种恶意代码家族聚类方法、装置和计算机设备 | |
CN111340748A (zh) | 电池缺陷识别方法、装置、计算机设备和存储介质 | |
CN117251813A (zh) | 一种网络流量异常检测方法和系统 | |
CN116958809A (zh) | 一种特征库迁移的遥感小样本目标检测方法 | |
CN114422450B (zh) | 基于多源网络流量数据的网络流量分析方法和装置 | |
CN115345257A (zh) | 飞行轨迹分类模型训练方法、分类方法、装置及存储介质 | |
CN113505716B (zh) | 静脉识别模型的训练方法、静脉图像的识别方法及装置 | |
CN113657145B (zh) | 一种基于汗孔特征及神经网络的指纹检索方法 | |
CN112859034B (zh) | 自然环境雷达回波幅度模型分类方法和装置 | |
CN112862002A (zh) | 多尺度目标检测模型的训练方法、目标检测方法和装置 | |
Jun et al. | Two-view correspondence learning via complex information extraction | |
CN113076823A (zh) | 一种年龄预测模型的训练方法、年龄预测方法及相关装置 | |
CN114548225B (zh) | 基于fcm的态势数据离群样本处理方法、装置和设备 | |
CN113743448B (zh) | 模型训练数据获取方法、模型训练方法和装置 | |
CN117671508B (zh) | 基于sar图像的高陡边坡滑坡检测方法及系统 | |
CN115841596B (zh) | 多标签图像分类方法及其模型的训练方法、装置 | |
CN111340239B (zh) | 多模态机器学习目标识别的犹豫迭代计算方法及装置 | |
CN112419413B (zh) | 终端设备的运动方向监测方法、介质、装置和计算设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |