CN117132818A - 基于小样本的sar目标识别方法、装置及计算机设备 - Google Patents

基于小样本的sar目标识别方法、装置及计算机设备 Download PDF

Info

Publication number
CN117132818A
CN117132818A CN202311091512.9A CN202311091512A CN117132818A CN 117132818 A CN117132818 A CN 117132818A CN 202311091512 A CN202311091512 A CN 202311091512A CN 117132818 A CN117132818 A CN 117132818A
Authority
CN
China
Prior art keywords
target
class
sar
training
target recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311091512.9A
Other languages
English (en)
Inventor
赵凌君
赵琰
张思乾
熊博莅
唐涛
雷琳
计科峰
匡纲要
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202311091512.9A priority Critical patent/CN117132818A/zh
Publication of CN117132818A publication Critical patent/CN117132818A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种基于小样本的SAR目标识别方法、装置及计算机设备,通过利用训练好的特征提取器对待进行目标识别的SAR图像的进行特征提取,并将其映射至格拉斯曼流形空间中,通过该空间中的多个与已知目标类别对应子空间进行分类,从而达到对SAR图像中目标进行识别的目的,当该图像中的目标类别为未知类别时,则实时的将其输入目标识别网络中对其进行在线小样本训练,在训练的过程中通过利用语义边距分离损失函数、无结构遗忘损失函数以及深度子空间分离损失函数分别对特征提取器以及格拉斯曼流形空间的参数进行调整直至收敛,使其具备识别该未知目标类别的能力。采用本方法可在公开的非合作场景中不断观察,利用小样本数据学习到新的目标类型,并且有效提高类别预测的精准度。

Description

基于小样本的SAR目标识别方法、装置及计算机设备
技术领域
本申请涉及SAR目标识别技术领域,特别是涉及一种基于小样本的SAR目标识别方法、装置及计算机设备。
背景技术
合成孔径雷达(SAR)在几乎所有的天气和光照条件下都具有卓越和稳定的成像能力,在各种应用中发挥着不可或缺的作用。作为SAR图像解释的一项基本且具有挑战性的任务,SAR自动目标识别(SAR ATR)几十年来一直受到长期和广泛的关注。特别是在深度学习(DL)技术的推动下,SAR ATR达到了前所未有的繁荣。
但是在现有技术中,观察新类别的目标时,在大多数非合作情况下,受成像条件的限制,感兴趣的目标可能包含很少有信息线索的少数镜头实例。因此,当前基于DL的SARATR方法迫切需要促进小样本类增量学习(FSCIL)的能力以满足实际场景。
发明内容
基于此,有必要针对上述技术问题,提供一种能够对小样本的未知类别目标进行在线学习的基于小样本的SAR目标识别方法、装置及计算机设备。
一种基于小样本的SAR目标识别方法,所述方法包括:
获取待进行目标识别的SAR图像;
将所述SAR图像输入训练后的目标识别网络中,在所述目标识别网络中由特征提取器对所述SAR图像的特征进行提取,将提取得到的特征映射至格拉斯曼流形空间中,通过该空间中包含的对应各种已知类别目标的子空间对提取得到的特征进行分类;
若所述SAR图像中的目标为未知类别,则将所述SAR图像作为小样本训练数据对所述目标识别网络进行在线迭代训练,进行在线迭代训练过程中,还通过利用语义边距分离损失函数以及无结构遗忘损失函数对所述特征提取器中的参数进行调整,利用深度子空间分离损失函数对所述格拉斯曼流形空间的参数进行调整,直至各损失函数均收敛,则得到具备识别该未知类别目标能力的目标识别网络;
若所述SAR图像中目标为已知类别,则输出目标的预测结果,以实现对所述SAR图像中的目标的识别。
在其中一实施例中,在利用目标类别未知的SAR图像对所述目标识别网络进行在线训练后,所述目标识别网络中的格拉斯曼流形空间中包含对应该未知类别的子空间。
在其中一实施例中,所述语义边距分离损失函数根据由所述特征提取器分别对已知类别目标的SAR图像和未知类别目标的SAR图像进行提取得到的特征构建得到,具体表示为:
其中,
在上式中,Et-1表示在第t个学习阶段已经存储的旧类别范例,表示当前阶段用于训练的新类别数据集合,xa表示从/>所选取的锚点样本,xi和xj分别为从/>所中所选择的正样本和从Et-1所选择的负样本,d(xa,xi)表示锚点与正样本的余弦距离,d(xa,xj)代表锚点与负样本的余弦距离,fφ表示可训练的特征提取器。
在其中一实施例中,所述无结构遗忘损失函数根据前一次在线迭代训练前的目标识别网络中特征提取器提取的特征,与当前目标识别网络中特征提取器提取的特征构建得到,具体表示为:
其中,
在上式中,与/>分别定义为空间与全局损失约束,st-1(xi)与st(xi)分别代表由第t个和第t-1个阶段的特征提取器针对样本xi所输出的空间特征,/>与/>代表输出的全局特征值,其中,在第t个阶段,样本xi选自当前所有训练样本集合
在其中一实施例中,所述深度子空间分离损失函数根据所述格拉斯曼流形空间中新建立的未知类别目标对应的子空间与所有已知类别目标对应的子空间进行构建得到,具体表示为:
其中,
在上式中,表示第t个阶段的新类别集,/>表示历史类别集,dP(Yj,Yk)计算了两个子空间Yj与Yk的流形空间距离,其中,Yk表示在格拉斯曼流形空间中已存在的已知类别目标对应的子空间,Yj表示在格拉斯曼流形空间中新建的未知类别目标对应的子空间。
在其中一实施例中,所述特征提取器采用CNN神经网络。
在其中一实施例中,所述基于小样本的SAR目标识别方法还包括在获取待进行目标识别的SAR图像之前对所述目标识别网络进行训练,包括:
获取SAR训练数据集,所述SAR训练数据集中包括多个已知类别目标的SAR训练图像集,且各已知类别目标对应的训练图像集中包括多张SAR训练图像;
根据所述SAR训练数据集构建一个用于基类训练阶段的基类训练数据集,以及多个用于小样本增量学习阶段的小样本训练数据集;
在基类训练阶段,将所述基类训练数据集输入至所述目标识别网络中对其进行迭代训练,并采用余弦交叉熵损失函数在每一次迭代训练中对所述目标识别网络中的特征提取器的参数进行调整,直至收敛,则得到具备识别基类目标能力的目标识别网络,且此时目标识别网络中的格拉斯曼流形空间包含各基类目标对应的子空间;
根据方位角感知范例选择策略在所述基类训练数据集中进行样本挑选,将挑选得到的样本构建历史样本数据集;
在小样本增量学习阶段,将多个小样本训练数据集依次输入至所述具备识别基类目标能力的目标识别网络中对其进行训练;
在利用第一个小样本训练数据集对所述具备识别基类目标能力的目标识别网络进行训练前,还将该小样本训练数据集与所述历史样本数据集进行合并,将合并后的训练数据集输入所述具备识别基类目标能力的目标识别网络中,直至目标识别网络收敛,再采用下一个小样本训练数据集对所述目标识别网络进行训练,直至所有小样本训练数据集均对所述目标识别网络进行训练后,得到训练后的目标识别网络。
在其中一实施例中,在小样本增量学习阶段,还采用所述语义边距分离损失函数、无结构遗忘损失函数以及深度子空间分离损失函数对所述目标识别网络进行训练。
一种基于小样本的SAR目标识别装置,所述装置包括:
SAR图像获取模块,用于获取待进行目标识别的SAR图像;
目标识别网络预测模块,用于将所述SAR图像输入训练后的目标识别网络中,在所述目标识别网络中由特征提取器对所述SAR图像的特征进行提取,将提取得到的特征映射至格拉斯曼流形空间中,通过该空间中包含的对应各种已知类别目标的子空间对提取得到的特征进行分类;
未知类别目标在线学习模块,用于若所述SAR图像中的目标为未知类别,则将所述SAR图像作为小样本训练数据对所述目标识别网络进行在线迭代训练,进行在线迭代训练过程中,还通过利用语义边距分离损失函数以及无结构遗忘损失函数对所述特征提取器中的参数进行调整,利用深度子空间分离损失函数对所述格拉斯曼流形空间的参数进行调整,直至各损失函数均收敛,则得到具备识别该未知类别目标能力的目标识别网络;
已知类别目标识别模块,用于若所述SAR图像中目标为已知类别,则输出目标的预测结果,以实现对所述SAR图像中的目标的识别。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待进行目标识别的SAR图像;
将所述SAR图像输入训练后的目标识别网络中,在所述目标识别网络中由特征提取器对所述SAR图像的特征进行提取,将提取得到的特征映射至格拉斯曼流形空间中,通过该空间中包含的对应各种已知类别目标的子空间对提取得到的特征进行分类;
若所述SAR图像中的目标为未知类别,则将所述SAR图像作为小样本训练数据对所述目标识别网络进行在线迭代训练,进行在线迭代训练过程中,还通过利用语义边距分离损失函数以及无结构遗忘损失函数对所述特征提取器中的参数进行调整,利用深度子空间分离损失函数对所述格拉斯曼流形空间的参数进行调整,直至各损失函数均收敛,则得到具备识别该未知类别目标能力的目标识别网络;
若所述SAR图像中目标为已知类别,则输出目标的预测结果,以实现对所述SAR图像中的目标的识别。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待进行目标识别的SAR图像;
将所述SAR图像输入训练后的目标识别网络中,在所述目标识别网络中由特征提取器对所述SAR图像的特征进行提取,将提取得到的特征映射至格拉斯曼流形空间中,通过该空间中包含的对应各种已知类别目标的子空间对提取得到的特征进行分类;
若所述SAR图像中的目标为未知类别,则将所述SAR图像作为小样本训练数据对所述目标识别网络进行在线迭代训练,进行在线迭代训练过程中,还通过利用语义边距分离损失函数以及无结构遗忘损失函数对所述特征提取器中的参数进行调整,利用深度子空间分离损失函数对所述格拉斯曼流形空间的参数进行调整,直至各损失函数均收敛,则得到具备识别该未知类别目标能力的目标识别网络;
若所述SAR图像中目标为已知类别,则输出目标的预测结果,以实现对所述SAR图像中的目标的识别。
上述基于小样本的SAR目标识别方法、装置及计算机设备,通过利用训练好的特征提取器对待进行目标识别的SAR图像的特征进行提取,将提取得到的特征映射至格拉斯曼流形空间中,通过该空间中已存在的多个与已知目标类别对应子空间对特征进行分类,从而达到对SAR图像中目标进行识别的目的,当该图像中的目标类别为未知类别时,还实时的将其输入目标识别网络中对其进行在线小样本训练,在训练的过程中通过利用语义边距分离损失函数、无结构遗忘损失函数以及深度子空间分离损失函数分别对特征提取器以及格拉斯曼流形空间的参数进行调整直至收敛,使其具备识别该未知目标类别的能力。采用本方法可在公开的非合作场景中不断观察,利用小样本数据学习到新的目标类型,并且有效提高类别预测的精准度。
附图说明
图1为一个实施例中基于小样本的SAR目标识别方法的流程示意图;
图2为一个实施例中目标识别网络训练方法的流程示意图;
图3为一个实施例中目标识别网络进行训练的整体框架示意图;
图4为一个实施例中语义边际分离损失示意图;
图5为一个实施例中结构遗忘约束损失示意图;
图6为一个实施例中基于小样本的SAR目标识别装置的结构框图;
图7为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在现有技术中,基于深度学习技术实现SAR自动目标识别是一个重要技术手段,但是,在SAR目标识别的实际应用场景中,非合作情况下,受SAR成像条件的限制,用于深度学习训练的样本很少,且样本中感兴趣目标包含的有效信息也较少,使得将小样本类增量学习应用在本场景中尤为重要。
针对以上问题,如图1所示,本申请提供的基于小样本的SAR目标识别方法,包括以下步骤:
步骤S100,获取待进行目标识别的SAR图像;
步骤S110,将SAR图像输入训练后的目标识别网络中,在目标识别网络中由特征提取器对所述SAR图像的特征进行提取,将提取得到的特征映射至格拉斯曼流形空间中,通过该空间中包含的对应各种已知类别目标的子空间对提取得到的特征进行分类;
步骤S120,若SAR图像中的目标为未知类别,则将SAR图像作为小样本训练数据对目标识别网络进行在线迭代训练,进行在线迭代训练过程中,还通过利用语义边距分离损失函数以及无结构遗忘损失函数对所述特征提取器中的参数进行调整,利用深度子空间分离损失函数对格拉斯曼流形空间的参数进行调整,直至各损失函数均收敛,则得到具备识别该未知类别目标能力的目标识别网络;
步骤S130,若SAR图像中目标为已知类别,则输出目标的预测结果,以实现对所述SAR图像中的目标的识别。
在本实施例中,提供了针对小样本训练数据进行在线知识学习的SAR目标识别方法,首先利用训练好的目标识别网络对待进行识别的SAR图像进行处理,其中,采用特征提取器对SAR图像的特征进行提取,再将提取得到的特征投射至格拉斯曼流形空间中,通过计算该特征与空间中各已知目标类别的子空间之间的距离,对其进行分类。而针对该待进行识别的SAR图像中的目标类别为未知类别的情况,在本方法中,则利用该未知类别目标的SAR图像对目标识别网络进行实时的在线训练,在训练的过程中通过语义边际分离损失函数(SMS)、深度子空间分离损失函数(DSS)和结构遗忘约束损失函数(SLF)对目标识别网络在网络内部的稳定性、子空间的正交性以及目标空间和全局结构的语义漂移方面进行约束,使得该目标识别网络具备利用小样本数据就可对未知目标类别进行学习的能力。
在本实施例中,训练好的目标识别网络中格拉斯曼流形空间中已包含多个已知类别目标的子空间,当输入的SAR图像中目标为已知类别,则可对其类别进行精准预测,当输入的SAR图像中的目标为未知类别,也就是该目标的类别在格拉斯曼流形空间中并没有对应的子空间时,经过实时的在线学习,在格拉斯曼流形空间中构建对应该未知类别的子空间,使目标识别网络具备识别该未知类别的能力。也就是,在利用目标类别未知的SAR图像对目标识别网络进行在线训练后,目标识别网络中的格拉斯曼流形空间中包含对应该未知类别的子空间。
在本实施例中,通过格拉斯曼流形空间对提取得到的特征进行类别预测,实际上是通过计算提取的得到的特征与空间中各子空间之间的投影距离,如欧几里得和余弦或线性分类器,寻却投影距离最近的子空间作为该SAR图像的目标类别预测结果。
在本实施例中,上面步骤S100至步骤S130所展示的方法步骤实际为利用训练好的目标识别网络对SAR图像进行目标识别的过程,而使得该网络具备目标识别能力以及小样本学习能力的训练方法也是本方法中尤为重要的部分,由于在对目标识别网络进行实时在线训练过程中所应用的损失函数在对其进行训练时也应用到了,所以为了避免重复说明,则在接下来在对训练方法进行阐述时,再对损失函数进行说明。
在本实施例中,基于小样本的SAR目标识别方法还包括在获取待进行目标识别的SAR图像之前对目标识别网络进行训练,如图2所述,包括:
步骤S200,获取SAR训练数据集,该SAR训练数据集中包括多个已知类别目标的SAR训练图像集,且各已知类别目标对应的训练图像集中包括多张SAR训练图像;
步骤S210,根据SAR训练数据集构建一个用于基类训练阶段的基类训练数据集,以及多个用于小样本增量学习阶段的小样本训练数据集;
步骤S220,在基类训练阶段,将基类训练数据集输入至目标识别网络中对其进行迭代训练,并采用余弦交叉熵损失函数在每一次迭代训练中对目标识别网络中的特征提取器的参数进行调整,直至收敛,则得到具备识别基类目标能力的目标识别网络,且此时目标识别网络中的格拉斯曼流形空间包含各基类目标对应的子空间;
步骤S230,根据方位角感知范例选择策略在基类训练数据集中进行样本挑选,将挑选得到的样本构建历史样本数据集;
步骤S240,在小样本增量学习阶段,将多个小样本训练数据集依次输入至具备识别基类目标能力的目标识别网络中对其进行训练;
步骤S250,在利用第一个小样本训练数据集对所述具备识别基类目标能力的目标识别网络进行训练前,还将该小样本训练数据集与所述历史样本数据集进行合并,将合并后的训练数据集输入所述具备识别基类目标能力的目标识别网络中,直至目标识别网络收敛,再采用下一个小样本训练数据集对所述目标识别网络进行训练,直至所有小样本训练数据集均对所述目标识别网络进行训练后,得到训练后的目标识别网络。
在本实施例中,实际上采用了小样本类增量学习(Few-Shot Class-IncrementalLearning(FSCIL))对目标识别网络进行训练,为了使其能够从少量样本中不断学习新知识,并且不会忘记之前学习过的知识。为了模仿实际的学习场景,在小样本增量学习中,通过包括两个训练阶段,一个是基类训练阶段,使其网络具备已知目标类别的识别能力,而是小样本增量学习阶段,使网络具备利用小样本进行新知识学习的能力。
具体的,基类训练阶段采用大规模训练数据以模仿合作情况下的离线学习,特征提取器通过余弦交叉熵(CE)损失进行训练,以建立语义超球体来捕获目标结构细节。然后,在格拉斯曼流形空间中保存基类的子空间以供后续进行已知目标的识别。
具体的,在小样本增量训练阶段中,仅提供少量样本来模拟在线学习过程,损失函数涵盖投影和语义级别,其中包含语义边距分离损失函数(SMS)、深度子空间分离损失函数(DSS)和无结构遗忘损失函数(SLF)被用来缓解网络模型内在的困境和特定领域的挑战。其中,对于网络模型的可塑性,SMS损失旨在扩大决策边界周围目标语义特征的差异,以实现新旧类别之间的清晰分离。DSS损失考虑了从格拉斯曼流形的主角导出的投影度量,引入了使子空间尽可能正交以进行知识分离。为了模型的稳定性,旧类的知识通过约束空间和全局目标结构的语义漂移来保留,这些语义漂移由以前的固定模型和当前可训练模型在SLF损失中映射。
在本实施例中,考虑到目标后向散射特征随着方位角变化而显着的周期性和波动性,提出了一种方位角感知样本选择(AES)策略来选择互补和有代表性的样本,以有效地保存旧类的知识。该策略应用在当目标识别网络完成基类训练阶段后,采用该策略在大规模训练数据中选取具有代表性的样本图像,在小样本增量训练阶段中,将选取出来的样本图像与少量样本进行合并后对目标网络进行训练,使其不会在学习新知识的同时将之前学习过的知识进行遗忘。
在对目标识别网络进行训练之前,还需要对训练数据进行构建。
在步骤S200中,首先准备大量带标签的数据集D1,D2,...,Dt,其中包含M对样本xi和相应的标签yi。各数据集D1,D2,...,Dt分别为不同目标类别的样本数据。
接着在步骤S210中,设定对于一直成立的情况下,将第一个数据集D1表示基础会话数据,提供大规模的基础类训练样本,其中包括了多个目标类别,且各类别均包括多张样本图像。而数据集/>为增量会话数据,包含一些新类别的小样本,即N个类别,每个类别K个数据,N和K的值都很小。
在每一次训练i,网络通过基于CNN的骨干网η和解耦分类器φ进行参数化,并在数据集Di和之前训练中可能保留下来的一些旧类样本(即E1,E2,...,Ei-1)上进行优化。在训练i的干扰阶段,模型需要能够区分之前会话中包括当前会话在内的所有可见类。小样本类增量学习是一个实际且具有挑战性的问题,需要通过保留旧类知识并整合新类知识,来实现模型稳定性和可塑性的平衡。
如图3所示,为对目标识别网络进行训练的整体框架示意图。
在步骤S220中,在基类训练阶段(t=1),首先训练一个基于CNN的特征提取器fφ对基类进行分类,并在以后的小样本增量训练中提取新类的泛化性特征。考虑到该网络在余弦特征空间对目标方位感知结构表征的准确性,采用余弦交叉熵损失在该阶段对目标识别网络中的特征提取器进行优化,直至其收敛,以完成基类训练阶段的训练。
然后,在步骤S230中,在基类的范例集E1通过所提出的方位角感知范例选择(AES)策略来选择以进行后续增量学习时的知识回顾。同时,采用E1中的类别样本,构建在格拉斯曼流形中的表示各已知类别目标的子空间,即
接着,在步骤S240中,小样本增量学习阶段(t>1),以第二个(t=2)为例,首先将当前的新类数据D2与先前保存的旧类范例集E1合并为该学习阶段所需的训练数据集。为了平衡模型对新知识适应的可塑性和旧知识保存的稳定性,设计了涵盖原始语义空间和格拉斯曼流形的语义边界分离(SMS)、结构化遗忘约束(SLF)和深度子空间分离(DSS)损失。首先,为约束模型可塑性,采用SMS损失来扩大基于余弦距离的当前类别与其他类别之间的距离。
特别是,考虑到保存的样本和新类样本的知识有限,只考虑具有相似方位感知结构的新旧类目标的语义边缘,以避免不适当的知识迁移。DSS损失基于格拉斯曼几何中的投影度量理论,约束所构建的子空间的正交性。为缓解模型对旧知识的遗忘,在SLF损失中采用知识蒸馏技术,约束由前一个学习阶段得到的模型和当前可训练模型产生的空间和全局目标特征的漂移,从而维持不同阶段模型对旧类别目标细节性与全局性结构输出信号的一致性。
在本实施例中,不仅在完成基类训练阶段之后,采用AES策略在训练数据集中挑选样本数据应用一下阶段的训练,在多次的小样本增量训练阶段中,当每完成一次训练后,都采用该策略在这一次的训练集中挑选样本数据,与下一个小样本增量训练集进行合并后在进行训练,每一次小样本采用AES策略在特征级相关性和能量的平衡之后选择新类的互补和代表性范例,以进行有效的知识回顾和子空间构建。
在本实施例中,在小样本增量训练阶段中,利用每一个小样本增量训练集对目标网络模型进行迭代训练直至收敛后,再利用下一个小样本增量训练集对该网络进行训练,直至全部的训练集都训练完后,则完成目标识别网络的训练。
在图3所示的训练整体框架中,还包括对训练后的目标识别网络进行测试的部分。
在本实施例中,对目标识别网络进行训练的算法过程如算法(Algorithm)1如下所示:
接下来,对小样本增量训练阶段以及在利用训练好后的目标识别网络进行在线训练时,采用的三个损失函数进行介绍。
在本实施例中,为了释放模型的可塑性,应特别考虑语义特征空间中新旧类之间的明显分离。特别是,由于小样本提供的识别目标信息的稀缺性,通过交叉熵(CE)损失训练的目特征提取网络的新类的目标特征容易产生偏差,泛化能力弱,也会造成严重的失真在学习类别的特征空间上。考虑到余弦准则下语义特征的相位感知与目标方位感知结构之间的紧密关系,在本方法中提出了语义边距分离(SMS)损失以基于特定样本对自适应地学习新知识。
具体的,语义边距分离损失函数根据由所述特征提取器分别对已知类别目标的SAR图像和未知类别目标的SAR图像进行提取得到的特征构建得到,具体表示为:
其中,
在公式(1)中,Et-1表示在第t个学习阶段已经存储的旧类别范例,表示当前阶段用于训练的新类别数据集合,xa表示从/>所选取的锚点样本,xi和xj分别为从/>所中所选择的正样本和从Et-1所选择的负样本,d(xa,xi)表示锚点与正样本的余弦距离,d(xa,xj)代表锚点与负样本的余弦距离,fφ表示可训练的特征提取器。
其中,xa与xi锚点之间的余弦距离可有公式(2)计算得到,而xa与xj锚点之间的距离是所有异类样本中最近的,m是控制正负对之间分离的系数。m的值越大,新旧类之间的差异越明显。SMS损失可以表示为图4。通过SMS损失训练的模型可以学习新概念,同时避免不必要的参数更新。
在本实施例中,根据格拉斯曼流形空间的主角(Principle Angle)定义,基于余弦的主角cosθk是基于来自不同子空间的两个基向量的最近归一化相似性计算的,这隐含地表达了异类子空间关键特征的相关关系。该值越小,类间的差异越明显。因此,可通过降低异类子空间所对应的基之间的余弦相似性,从而提升异类的分离性,从而提升模型对类别的判别能力。为此,我们基于格拉斯曼几何中的投影度量理论,提升了深度子空间分离损失(DSS)。一般来讲,格拉斯曼流形上两个子空间Yj和Yk之间的距离dP(Yj,Yk)可定义为公式(3),它是主角正弦的L2范数。进一步,其可形式化为公式(4),表示为格拉斯曼流形空间中类别子空间的矩阵范数。因此,扩大异类子空间的距离,等价于最小化公式(4)中的第二项。基于以上理论,我们所设计的DSS损失如公式(5)所示,其充分考虑了新类别与所有历史类别之间的正交性约束,以提升类间差异性。
具体的,深度子空间分离损失函数根据格拉斯曼流形空间中新建立的未知类别目标对应的子空间与所有已知类别目标对应的子空间进行构建得到,具体表示为:
在公式(3)至公式(5)中,表示第t个阶段的新类别集,/>表示历史类别集,dP(Yj,Yk)计算了两个子空间Yj与Yk的流形空间距离,其中,Yk表示在格拉斯曼流形空间中已存在的已知类别目标对应的子空间,Yj表示在格拉斯曼流形空间中新建的未知类别目标对应的子空间。
在本实施例中,由于矩阵分解的非唯一性和子空间对目标细节性信息表征的有限性,在流形空间约束模型对旧知识的保持是不准确且不充分。特别是,考虑目标局部散射特征的多样化特点和全局散射特征的泛化识别性,在本方法中设计了如图5所示的SLF损失,以对局部和全局目标语义信息进行约束,实现对旧知识的保留。
具体的,无结构遗忘损失函数根据前一次在线迭代训练前的目标识别网络中特征提取器提取的特征,与当前目标识别网络中特征提取器提取的特征构建得到,具体表示为:
在公式(6)中,与/>分别定义为空间与全局损失约束,st-1(xi)与st(xi)分别代表由第t个和第t-1个阶段的特征提取器针对样本xi所输出的空间特征,/>代表输出的全局特征值,其中,在第t个阶段,样本xi选自当前所有训练样本集合特征提取器/>对样本xi的特征提取过程可解耦为/>其中st(·)是指用于提取空间特征的堆栈卷积操作,g是用于获取聚合特征的全局平均池化操作。st(xi)和g(st(xi))分别具有丰富的局部和全局目标特征。在SLF损失中,通过约束由先前固化模型/>和当前可训练模型/>对样本在局部和全局的特征一致性,从而实现对旧知识的保留。所提出的SLF损失函数可形式化为公式(6),其是历史和当前模型产生的空间和全局特征的蒸馏项的叠加。
在这里需要进行说明的是,在公式(2)和公式(6)中,fφ均是指代特征提取器。其中,fφ用来指代特征提取器,但是因为算法是存在很多序列化的学习过程的,在第t个学习过程,其特征提取器具体的写作/>同时由于该损失函数涉及到需要用两个时刻t,t-1的fφ来参与运算,这两个不同时刻,具体可写作/>
在本实施例中,考虑到SAR图像中目标的方位角依赖性和部分稀疏性,还提供了一种基于方位角感知样本选择(AES)策略以选择兼具代表性和互补性的旧类别样本。
在基于方位角感知样本选择(AES)策略选取出来的样本以具代表性以及互补性为标准。其中,满足代表性的样本图像通常具有高能量值,并且在质量和数量上包含更多可辨别的目标特征,其与类内多种方位角成像下的样本具有普遍较高的相关性。然而,根据该标准选择的样本可能会聚集在一个小的方位角区域内,这可能无法代表大多数姿态下目标的一般特征。
而满足互补性的样本可以覆盖更多不常见的目标特征,而不会涉及太多冗余,为知识保存提供完整的信息。然而,仅在标准下选择样本可能包含很多特定信息,从而阻碍了模型对目标泛化特征的表达。
因此,将代表性与互补性结合起来对范例的选择至关重要。特别是考虑到代表性与目标散射能量的关联以及与类内相关性的互补性,在本方法中引入了方位角感知样本选择(AES)策略,以有效地保留旧类的知识。
在本实施例中,算法(Algorithm)2如下所示,详细说明了在第t个增量学习阶段,该策略对类别c范例样本选择的具体过程。
上述基于小样本的SAR目标识别方法中,针对在高分辨率SAR图像快速获取过程中,新类别目标持续出现且样本量有限的实际SAR ATR应用场景,在本方法中首次将小样本类别增量(FSCIL)引入到SAR ATR任务中。考虑到格拉斯曼流形空间对目标信息表征的紧凑性,良好的类间分离性以及对背景干扰的鲁棒性,提出了一个方位角感知子空间分类器(AASC)即目标识别网络。针对FSCIL的可塑性和稳定性的困境以及SAR ATR领域特有挑战,在本方法中,结合目标自身散射点的方位角依赖性与部件稀疏性特点,设计了涵盖语义空间和子空间流形的损失函数(SMS,DSS,SLF)以及方位角感知样本选择策略(AES)。对于模型(目标识别网络)的可塑性,SMS扩大了新类对旧类的样本级的语义边界,DSS在流形中保持了类子空间的正交性。对于模型的稳定性,SLF约束了模型对样本特征空间和全局结构的一致性。考虑到目标方位角感知特征的周期性和波动性,AES策略旨在选择具有代表性和互补性的样本。采用本方法可更好的应用于更为实际的SAR识别场景中,同时对于目标的识别更为精准。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图6所示,提供了一种基于小样本的SAR目标识别装置,包括:SAR图像获取模块300、目标识别网络预测模块310、未知类别目标在线学习模块320和已知类别目标识别模块330,其中:
SAR图像获取模块300,用于获取待进行目标识别的SAR图像;
目标识别网络预测模块310,用于将所述SAR图像输入训练后的目标识别网络中,在所述目标识别网络中由特征提取器对所述SAR图像的特征进行提取,将提取得到的特征映射至格拉斯曼流形空间中,通过该空间中包含的对应各种已知类别目标的子空间对提取得到的特征进行分类;
未知类别目标在线学习模块320,用于若所述SAR图像中的目标为未知类别,则将所述SAR图像作为小样本训练数据对所述目标识别网络进行在线迭代训练,进行在线迭代训练过程中,还通过利用语义边距分离损失函数以及无结构遗忘损失函数对所述特征提取器中的参数进行调整,利用深度子空间分离损失函数对所述格拉斯曼流形空间的参数进行调整,直至各损失函数均收敛,则得到具备识别该未知类别目标能力的目标识别网络;
已知类别目标识别模块330,用于若所述SAR图像中目标为已知类别,则输出目标的预测结果,以实现对所述SAR图像中的目标的识别。
关于基于小样本的SAR目标识别装置的具体限定可以参见上文中对于基于小样本的SAR目标识别方法的限定,在此不再赘述。上述基于小样本的SAR目标识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于小样本的SAR目标识别方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取待进行目标识别的SAR图像;
将所述SAR图像输入训练后的目标识别网络中,在所述目标识别网络中由特征提取器对所述SAR图像的特征进行提取,将提取得到的特征映射至格拉斯曼流形空间中,通过该空间中包含的对应各种已知类别目标的子空间对提取得到的特征进行分类;
若所述SAR图像中的目标为未知类别,则将所述SAR图像作为小样本训练数据对所述目标识别网络进行在线迭代训练,进行在线迭代训练过程中,还通过利用语义边距分离损失函数以及无结构遗忘损失函数对所述特征提取器中的参数进行调整,利用深度子空间分离损失函数对所述格拉斯曼流形空间的参数进行调整,直至各损失函数均收敛,则得到具备识别该未知类别目标能力的目标识别网络;
若所述SAR图像中目标为已知类别,则输出目标的预测结果,以实现对所述SAR图像中的目标的识别。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取待进行目标识别的SAR图像;
将所述SAR图像输入训练后的目标识别网络中,在所述目标识别网络中由特征提取器对所述SAR图像的特征进行提取,将提取得到的特征映射至格拉斯曼流形空间中,通过该空间中包含的对应各种已知类别目标的子空间对提取得到的特征进行分类;
若所述SAR图像中的目标为未知类别,则将所述SAR图像作为小样本训练数据对所述目标识别网络进行在线迭代训练,进行在线迭代训练过程中,还通过利用语义边距分离损失函数以及无结构遗忘损失函数对所述特征提取器中的参数进行调整,利用深度子空间分离损失函数对所述格拉斯曼流形空间的参数进行调整,直至各损失函数均收敛,则得到具备识别该未知类别目标能力的目标识别网络;
若所述SAR图像中目标为已知类别,则输出目标的预测结果,以实现对所述SAR图像中的目标的识别。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.基于小样本的SAR目标识别方法,其特征在于,所述方法包括:
获取待进行目标识别的SAR图像;
将所述SAR图像输入训练后的目标识别网络中,在所述目标识别网络中由特征提取器对所述SAR图像的特征进行提取,将提取得到的特征映射至格拉斯曼流形空间中,通过该空间中包含的对应各种已知类别目标的子空间对提取得到的特征进行分类;
若所述SAR图像中的目标为未知类别,则将所述SAR图像作为小样本训练数据对所述目标识别网络进行在线迭代训练,进行在线迭代训练过程中,还通过利用语义边距分离损失函数以及无结构遗忘损失函数对所述特征提取器中的参数进行调整,利用深度子空间分离损失函数对所述格拉斯曼流形空间的参数进行调整,直至各损失函数均收敛,则得到具备识别该未知类别目标能力的目标识别网络;
若所述SAR图像中目标为已知类别,则输出目标的预测结果,以实现对所述SAR图像中的目标的识别。
2.根据权利要求1所述的SAR目标识别方法,其特征在于,在利用目标类别未知的SAR图像对所述目标识别网络进行在线训练后,所述目标识别网络中的格拉斯曼流形空间中包含对应该未知类别的子空间。
3.根据权利要求1所述的SAR目标识别方法,其特征在于,所述语义边距分离损失函数根据由所述特征提取器分别对已知类别目标的SAR图像和未知类别目标的SAR图像进行提取得到的特征构建得到,具体表示为:
其中,
在上式中,Et-1表示在第t个学习阶段已经存储的旧类别范例,表示当前阶段用于训练的新类别数据集合,xa表示从/>所选取的锚点样本,xi和xj分别为从/>所中所选择的正样本和从Et-1所选择的负样本,d(xa,xi)表示锚点与正样本的余弦距离,d(xa,xj)代表锚点与负样本的余弦距离,fφ表示可训练的特征提取器。
4.根据权利要求3所述的SAR目标识别方法,其特征在于,所述无结构遗忘损失函数根据前一次在线迭代训练前的目标识别网络中特征提取器提取的特征,与当前目标识别网络中特征提取器提取的特征构建得到,具体表示为:
其中,
在上式中,与/>分别定义为空间与全局损失约束,st-1(xi)与st(xi)分别代表由第t个和第t-1个阶段的特征提取器针对样本xi所输出的空间特征,/>与/>代表输出的全局特征值,其中,在第t个阶段,样本xi选自当前所有训练样本集合/>
5.根据权利要求4所述的SAR目标识别方法,其特征在于,所述深度子空间分离损失函数根据所述格拉斯曼流形空间中新建立的未知类别目标对应的子空间与所有已知类别目标对应的子空间进行构建得到,具体表示为:
其中,
在上式中,表示第t个阶段的新类别集,/>表示历史类别集,dP(Yj,Yk)计算了两个子空间Yj与Yk的流形空间距离,其中,Yk表示在格拉斯曼流形空间中已存在的已知类别目标对应的子空间,Yj表示在格拉斯曼流形空间中新建的未知类别目标对应的子空间。
6.根据权利要求1-5任一项所述的SAR目标识别方法,其特征在于,所述特征提取器采用CNN神经网络。
7.根据权利要求6所述的SAR目标识别方法,其特征在于,所述基于小样本的SAR目标识别方法还包括在获取待进行目标识别的SAR图像之前对所述目标识别网络进行训练,包括:
获取SAR训练数据集,所述SAR训练数据集中包括多个已知类别目标的SAR训练图像集,且各已知类别目标对应的训练图像集中包括多张SAR训练图像;
根据所述SAR训练数据集构建一个用于基类训练阶段的基类训练数据集,以及多个用于小样本增量学习阶段的小样本训练数据集;
在基类训练阶段,将所述基类训练数据集输入至所述目标识别网络中对其进行迭代训练,并采用余弦交叉熵损失函数在每一次迭代训练中对所述目标识别网络中的特征提取器的参数进行调整,直至收敛,则得到具备识别基类目标能力的目标识别网络,且此时目标识别网络中的格拉斯曼流形空间包含各基类目标对应的子空间;
根据方位角感知范例选择策略在所述基类训练数据集中进行样本挑选,将挑选得到的样本构建历史样本数据集;
在小样本增量学习阶段,将多个小样本训练数据集依次输入至所述具备识别基类目标能力的目标识别网络中对其进行训练;
在利用第一个小样本训练数据集对所述具备识别基类目标能力的目标识别网络进行训练前,还将该小样本训练数据集与所述历史样本数据集进行合并,将合并后的训练数据集输入所述具备识别基类目标能力的目标识别网络中,直至目标识别网络收敛,再采用下一个小样本训练数据集对所述目标识别网络进行训练,直至所有小样本训练数据集均对所述目标识别网络进行训练后,得到训练后的目标识别网络。
8.根据权利要求7所述的SAR目标识别方法,其特征在于,在小样本增量学习阶段,还采用所述语义边距分离损失函数、无结构遗忘损失函数以及深度子空间分离损失函数对所述目标识别网络进行训练。
9.基于小样本的SAR目标识别装置,其特征在于,所述装置包括:
SAR图像获取模块,用于获取待进行目标识别的SAR图像;
目标识别网络预测模块,用于将所述SAR图像输入训练后的目标识别网络中,在所述目标识别网络中由特征提取器对所述SAR图像的特征进行提取,将提取得到的特征映射至格拉斯曼流形空间中,通过该空间中包含的对应各种已知类别目标的子空间对提取得到的特征进行分类;
未知类别目标在线学习模块,用于若所述SAR图像中的目标为未知类别,则将所述SAR图像作为小样本训练数据对所述目标识别网络进行在线迭代训练,进行在线迭代训练过程中,还通过利用语义边距分离损失函数以及无结构遗忘损失函数对所述特征提取器中的参数进行调整,利用深度子空间分离损失函数对所述格拉斯曼流形空间的参数进行调整,直至各损失函数均收敛,则得到具备识别该未知类别目标能力的目标识别网络;
已知类别目标识别模块,用于若所述SAR图像中目标为已知类别,则输出目标的预测结果,以实现对所述SAR图像中的目标的识别。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求7至8中任一项所述方法的步骤。
CN202311091512.9A 2023-08-28 2023-08-28 基于小样本的sar目标识别方法、装置及计算机设备 Pending CN117132818A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311091512.9A CN117132818A (zh) 2023-08-28 2023-08-28 基于小样本的sar目标识别方法、装置及计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311091512.9A CN117132818A (zh) 2023-08-28 2023-08-28 基于小样本的sar目标识别方法、装置及计算机设备

Publications (1)

Publication Number Publication Date
CN117132818A true CN117132818A (zh) 2023-11-28

Family

ID=88852280

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311091512.9A Pending CN117132818A (zh) 2023-08-28 2023-08-28 基于小样本的sar目标识别方法、装置及计算机设备

Country Status (1)

Country Link
CN (1) CN117132818A (zh)

Similar Documents

Publication Publication Date Title
CN111950329B (zh) 目标检测及模型训练方法、装置、计算机设备和存储介质
WO2019100723A1 (zh) 训练多标签分类模型的方法和装置
WO2019100724A1 (zh) 训练多标签分类模型的方法和装置
US20200160124A1 (en) Fine-grained image recognition
CN113628244B (zh) 基于无标注视频训练的目标跟踪方法、系统、终端及介质
CN109886077A (zh) 图像识别方法、装置、计算机设备和存储介质
CN116597384B (zh) 基于小样本训练的空间目标识别方法、装置及计算机设备
CN110705489B (zh) 目标识别网络的训练方法、装置、计算机设备和存储介质
CN111832581B (zh) 肺部特征识别方法、装置、计算机设备及存储介质
US10115208B2 (en) Image characteristic estimation method and device
Zhang et al. Graph-regularized structured support vector machine for object tracking
CN110245683A (zh) 一种少样本目标识别的残差关系网络构建方法及应用
CN114036326B (zh) 一种图像检索与分类方法、系统、终端及存储介质
CN114155388B (zh) 一种图像识别方法、装置、计算机设备和存储介质
KR102306319B1 (ko) 포즈 추정 매핑 데이터를 생성하는 방법, 프로그램 및 컴퓨팅 장치
Zhang et al. Semi-Supervised SAR ATR via Epoch-and Uncertainty-Aware Pseudo-Label Exploitation
CN117315090A (zh) 基于跨模态风格学习的图像生成方法及装置
CN116958809A (zh) 一种特征库迁移的遥感小样本目标检测方法
CN116630708A (zh) 基于主动领域自适应的图像分类方法、系统、设备及介质
CN113743448B (zh) 模型训练数据获取方法、模型训练方法和装置
CN117132818A (zh) 基于小样本的sar目标识别方法、装置及计算机设备
CN113657145B (zh) 一种基于汗孔特征及神经网络的指纹检索方法
CN113610106B (zh) 模型间的特征兼容学习方法、装置、电子设备及介质
CN114116456A (zh) 测试用例生成方法、系统及计算机可读存储介质
Liu et al. AIO2: Online Correction of Object Labels for Deep Learning with Incomplete Annotation in Remote Sensing Image Segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination