CN116664940A - 一种合成孔径雷达自动目标识别的方法 - Google Patents
一种合成孔径雷达自动目标识别的方法 Download PDFInfo
- Publication number
- CN116664940A CN116664940A CN202310669769.1A CN202310669769A CN116664940A CN 116664940 A CN116664940 A CN 116664940A CN 202310669769 A CN202310669769 A CN 202310669769A CN 116664940 A CN116664940 A CN 116664940A
- Authority
- CN
- China
- Prior art keywords
- layer
- model
- network
- sar
- densenet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 28
- 238000011156 evaluation Methods 0.000 claims abstract description 7
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 239000010410 layer Substances 0.000 claims description 50
- 230000006870 function Effects 0.000 claims description 14
- 230000007704 transition Effects 0.000 claims description 12
- 238000005516 engineering process Methods 0.000 claims description 6
- 230000006835 compression Effects 0.000 claims description 5
- 238000007906 compression Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 239000002356 single layer Substances 0.000 claims description 4
- 239000002131 composite material Substances 0.000 claims description 2
- 238000013526 transfer learning Methods 0.000 abstract description 24
- 238000013527 convolutional neural network Methods 0.000 abstract description 8
- 238000002474 experimental method Methods 0.000 abstract description 7
- 230000008034 disappearance Effects 0.000 abstract description 5
- 238000012360 testing method Methods 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000007123 defense Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 102100024506 Bone morphogenetic protein 2 Human genes 0.000 description 1
- 101000762366 Homo sapiens Bone morphogenetic protein 2 Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011112 process operation Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种合成孔径雷达自动目标识别的方法,属于雷达自动目标识别技术领域;包括以下步骤:步骤1:预训练DenseNet模型,通过使用ImageNet数据集学习一般图像特征;步骤2:初始化孪生网络,使用预训练DenseNet模型的权值进行初始化;步骤3:成对SAR图像输入,获取相似度得分;步骤4:建立二分类器,通过相似度评分建立模型并输出模型评价指标;步骤5:微调模型网络,在SAR数据集上对整个孪生网络和二分类器的参数进行微调;本发明在SAR自动目标识别方面具有更少的参数量、运算量和更高的识别正确率,同时与其他卷积神经网络的实验对比表明基于孪生网络和迁移学习的DenseNet模在MSTAR数据集上复杂度和整体识别正确率上都具有优越性,此外,还解决了模型的梯度消失问题。
Description
技术领域
本发明涉及雷达自动目标识别技术领域,具体是一种合成孔径雷达自动目标识别的方法。
背景技术
合成孔径雷达(SyntheticApertureRadar,SAR)是一种有源微波遥感技术,利用脉冲压缩等信号处理技术,准确地获得目标范围和方位角的高分辨率图像。通过使用较长的脉冲宽度和快速移动或移动的平台,SAR可以实现较长的合成孔径,这反过来又可以实现高分辨率的成像。合成孔径雷达自动目标识别是遥感中的一项重要任务,旨在从SAR图像中识别特定的目标。它有广泛的应用,如军事侦察、环境监测和灾害管理。SAR图像的独特特点,如高分辨率和全天候成像能力,使其适用于许多依赖于精确物体识别的应用。
近年来,深度学习在SAR自动目标识别方面取得了显著的成功。在卷积神经网络(CNNs)的帮助下,深度学习在SAR图像的检测和分类目标方面显示出了优秀的结果。然而,由于数据收集和处理的成本很高,SAR图像数据集的数量往往很有限。这使得用传统的深度学习方法建立一个准确的目标识别模型具有挑战性,因为它需要大量标记数据来避免过拟合。在样本匮乏的图像分类任务中引入孪生网络,通过训练两个具有共享权值和结构的相同网络来减少过拟合和增强泛化能力。其思想是迫使两个网络从训练数据中学习判别特征,减少类内差异性和类间相似性。该模型已被证明在SAR自动目标识别中是有效的。此外,迁移学习是另一种强大的方法,它利用大数据集上预先训练的模型来解决有限样本的新任务。其思想是利用从源域学到的知识来初始化模型参数,然后在目标域上对它们进行微调。迁移学习已成功地应用于各种计算机视觉应用,如目标检测、分割和识别。
上述用于SAR识别的方法虽然具有一定的有效性,囿于SAR样本的获取难度及标注数据的成本,样本量往往很有限,使用卷积神经网络会造成过拟合及梯度消失现象,进而影响识别效果。
以上背景技术内容的公开仅用于辅助理解本发明的构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
针对上述存在的问题,本发明尝试对孪生网络和迁移学习方法进行融合,提出了基于SNTLDenseNet的合成孔径雷达自动目标识别的方法。通过利用孪生网络和迁移学习来解决与SAR自动目标识别相关的有限样本挑战,其中需要使用孪生网络架构指导一个识别模型对SAR图像低维部分进行学习。为了进一步解决SAR图像数据集中有限的样本问题,采用迁移学习来利用从大规模图像数据集学习知识。利用绝对值函数来表征类内紧凑以及类间分散,并建立了一个二分类器捕获这些特征。在公开数据集MSTAR中进行实验,研究减缓网络梯度消失现象的方法。
本发明采用的技术方案是:
一种合成孔径雷达自动目标识别的方法,包括以下步骤:
步骤1:预训练DenseNet模型,通过使用ImageNet数据集学习一般图像特征;
步骤2:初始化孪生网络,使用预训练DenseNet模型的权值进行初始化;
步骤3:成对SAR图像输入,获取相似度得分;
步骤4:建立二分类器,通过相似度评分建立模型并输出模型评价指标;
步骤5:微调模型网络,在SAR数据集上对整个孪生网络和二分类器的参数进行微调。
其中,步骤1:在DenseNet模型的预训练过程中,独热编码是一种在机器学习算法中易于理解的格式来表示数据类别的方法。它涉及到为长度等于类别数量k(对于ImageNet数据集,k=1000)的标签创建一个二进制向量y(n),其中向量中的每个元素都对应于一个类别y(n)。真实类别对应的类别设置为1,其他类别设置为0。这种编码允许在分类数据点之间进行比较和计算。DenseNet模型中权重θ记为fθ,将输入x(n)转换为长度等于类别数k的二进制向量z(n),即z(n)=fθ(x(n))。模型在预训练过程中的交叉熵损失为:
步骤2:初始化孪生网络,预训练的模型权值进行初始化;
采用预先训练的DenseNet模型以样本对标签(x′(i),x′(j),y′(n))作为输入。
步骤3:成对SAR图像输入,获取相似度得分;
采用绝对值函数来得到样本对的相似度分数,即:
z′(n)=|fθ(x′(i))-fθ(x′(j))| (2)
步骤4:建立二分类器,通过相似度评分建立模型并输出模型评价指标;
建立一个基于单层全连接网络的二分类器,该网络有k个输入节点和1个输出节点,以z′(n)作为输入。设fθ为具有可训练权值θ的二分类器。应用Sigmoid函数S激活二分类器的输出,建立二元交叉熵损失来训练二分类器。二元交叉熵损失可以写为:
步骤5:微调模型网络。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:本发明提出的基于孪生网络和迁移学习的DenseNet121模型(SNTLDenseNet)在SAR自动目标识别方面具有更少的参数量、运算量和更高的识别正确率,同时与其他卷积神经网络的实验对比表明基于孪生网络和迁移学习的DenseNet模型(SNTLDenseNet)在MSTAR数据集上复杂度和整体识别正确率上都具有优越性。在使用迁移学习的情况下,各模型的收敛速度和收敛状态均显著优于非迁移学习模型,解决了模型的梯度消失问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1所示为本实施例中基于SNTLDenseNet的SAR目标识别方法的整体结构;
图2所示为本实施例中SAR样本集内容;
图3所示为模型对比实验数据图;
图4所示为DenseNet的结构示意图;
图5所示为DenseBlock内部结构示意图。
具体实施方式
现在将详细提及本发明的具体实施方案。尽管结合这些具体的实施方案描述本发明,但应认识到不打算限制本发明到这些具体实施方案。相反,这些实施方案意欲覆盖可包括在由权利要求限定的发明精神和范围内的替代、改变或等价实施方案。在下面的描述中,阐述了大量具体细节以便提供对本发明的全面理解。本发明可在没有部分或全部这些具体细节的情况下被实施。在其它情况下,为了不使本发明不必要地模糊,没有详细描述熟知的工艺操作。
当与本说明书和附加权利要求中的“包括”、“方法包括”、或类似语言联合使用时,单数形式“某”、“某个”、“该”包括复数引用,除非上下文另外清楚指明。除非另外定义,本文中使用的所有技术和科学术语具有本发明所属技术领域的普通技术人员通常理解的相同含义。
本文的任务是识别一对SAR图像是否属于同一类别。设训练样本的总数为N。传统的深度学习方法使用样本-标签对(x(n),y(n))(n∈{1,2,...,N})来训练神经网络,本文使用的样本-标签对是(x′(i),x′(j),y′(n))(i,j∈{1,2,...,N},i≠j)来训练神经网络。在(x(n),y(n))中,x(n)表示一个样本;而对于本文的SAR目标识别任务,x(n)为一个二维矩阵,y(n)表示样本x(n)对应的标签,一般范围为{1,2,...,K-1},其中K为目标类别数。但是,在(x′(i),x′(j),y′(n))中,x′(i)和x′(j)表示不同的样本,如果x′(i)和x′(j)属于同一类则y′(n)=1,否则y′(n)=0。在本文中随机划分训练集和测试集的样本对,并使用训练集中的样本对对神经网络模型进行训练。然后,使用测试集的样本对测试训练后的模型是否能够有效地识别出未知的样本对,以及能区分是否属于同一类别进行验证。因此,准确性和损失值等指标是基于样本对来定义的。
参照图1-5,本发明基于此提出了基于DenseNet121(TL)的SAR的一种合成孔径雷达自动目标识别的方法,包括以下步骤:
步骤1:预训练DenseNet模型,通过使用ImageNet数据集学习一般图像特征;
步骤2:初始化孪生网络,使用预训练DenseNet模型的权值进行初始化;
步骤3:成对SAR图像输入,获取相似度得分;
步骤4:建立二分类器,通过相似度评分建立模型并输出模型评价指标;
步骤5:微调模型网络,在SAR数据集上对整个孪生网络和二分类器的参数进行微调。
优选地,所述的预训练DenseNet模型包括稠密块和过渡层;
(1)稠密块
在稠密块模块中,任意两层之间有着密切的联系;将所有层的特征进行相互拼接,即对任意一层之前的所有层的输出结果进行叠加作为该层的输入,然后把该层的结果和之前层的输出结果作为下一层的输入传输下去。假若某网络有L层,DenseNet共有L(L+1)/2个连接;
对于L层网络而言,第l层的输入由公式(4)得出:
xl=H([x0,x1,...,xl-1]) (4)
其中:
1)x0,x1,...,xl-1分别表示第0层到第l-1层所对应的特征图;
2)[x0,x1,...,xl-1]表示对第0层到第l-1层的所对应的特征图进行级联;
3)Hl(·)表示包含BN,Relu和Conv三种操作的复合函数。
在稠密块模块中每个复合函数Hl(·)可以输出k个特征图,则第l层会输入k0+k*(l-1)特征图,其中k0表示输入层的的通道数;k是一个超参数也称为网络的生长率;在密集块中加入瓶颈层,即在3*3卷积之前引入1*1卷积来降维,加入瓶颈层后的稠密块结构为:BN+Relu+Conv(1*1)+BN+Relu+Conv(3*3);
(2)过渡层
所述过渡层用于连接两个相邻的稠密块,通过池化来降低特征图的大小,使模型变得更紧凑;引入压缩因子θ,取值范围为(0,1];密集块输出m个特征图时,过渡层通过卷积可以产生θ*m个特征;当θ小于1时,特征图数目压缩为原来的θ倍;当θ取1时,不压缩;引入超参数θ后的过渡层结构为:
BN-Relu-Conv(1*1)(filternum:θ*m)-droupout-Pooling(2*2)。
优选地,在步骤3中SAR图像:通过有源微波遥感技术,利用脉冲压缩等信号处理技术,准确地获得目标范围和方位角的高分辨率图像;其中,所述SAR图像采用的是公开数据集MSTAR。
优选地,在步骤3中相似度得分计算函数为:z′(n)=|fθ(x′(i))-fθ(x′(j))|;其中:fθ为DenseNet模型中权重θ,将输入x(n)转换为长度等于类别数k的二进制向量z(n)。
优选地,在步骤4中,所述的二分类器是指建立一个基于单层全连接网络的二分类器,该网络有k个输入节点和1个输出节点,以z′(n)作为输入;设fθ为具有可训练权值θ的二分类器,应用Sigmoid函数S激活二分类器的输出,建立二元交叉熵损失公式来训练二分类器。
优选地,二元交叉熵损失的公式为:
具体的来说:
网络结构整体设计:
SNTLDenseNet包括三个阶段:对DenseNet模型进行预训练,用预训练模型的权值初始化孪生网络,以及对孪生网络进行微调以进行SAR目标识别。首先,在一个大规模的自然图像数据集上预先训练一个DenseNet模型,如ImageNet,以学习一般的图像特征。然后,建立一个孪生网络,并利用预先训练好的DenseNet的权值进行初始化,孪生网络以成对的SAR图像作为输入,输出其相似度得分。接下来,在相似度评分之上建立一个二分类器,并输出一个分类分数。最后,在有限样本SAR数据集上微调整个孪生网络和二分类器,使其适应SAR特定的特征并提高其性能。SNTLDenseNet的总体框架如图1所示。
基于DenseNet的迁移学习模型
特征提取在SAR目标识别中起着重要的作用,它有效地将高维数据从图像域转换为低维特征域,然后实现分类。在有限样本识别任务中,由于训练样本不足,传统的监督学习模型无法使用。为了克服这一困难,本文提出了一个新的特征提取模型,该模型结合了从不同样本中学习相似性的能力,从而增强了目标识别效果。该模型中设计了一个基于孪生网络的特征嵌入结构,以检测不同样本在低维特征域之间的差异性。本文提出了一种基于孪生结构的特征嵌入网络的权重共享方法。本文采用DenseNet作为特征提取的网络模型,实验中对不同模型进行对比分析,如EfficientNetV2、MobileNetV3、ResNet50、ResNet152、ResNeXt50和ShuffleNetV2。由于DenseNet模型容易在小数据集上过拟合,因此将迁移学习引入这个框架模型中。首先利用大规模的ImageNet数据集训练DenseNet模型,然后利用预先训练的DenseNet模型构建孪生网络,将知识从源域的ImageNet转移到目标域的SAR图像。ImageNet的图像尺寸为224×224,本文SAR图像尺寸为100×100,如图1所示。
在基于DenseNet的模型的预训练过程中,独热编码是一种在机器学习算法中易于理解的格式来表示数据类别的方法。它涉及到为长度等于类别数量K(对于ImageNet数据集,K=1000)的标签创建一个二进制向量y(n),其中向量中的每个元素都对应于一个类别y(n)。真实类别对应的类别设置为1,其他类别设置为0。这种编码允许在分类数据点之间进行比较和计算。DenseNet模型中权重θ记为fθ,将输入x(n)转换为长度等于类别数K的二进制向量z(n),即z(n)=fθ(x(n))。模型预训练过程的交叉熵损失可以写为
二分类器
由于采用预先训练的DenseNet模型以样本对标签(x′(i),x′(j),y′(n))作为输入,为了更好地描述类内紧凑和类间分散,采用绝对值函数来得到样本对的相似度分数,即:z′(n)=|fθ(x′(i))-fθ(x′(j))|
建立一个基于单层全连接网络的二分类器,该网络有K个输入节点和1个输出节点,以z′(n)作为输入。
设fθ为具有可训练权值Θ的二分类器。应用Sigmoid函数S激活二分类器的输出,建立二元交叉熵损失来训练二分类器。二元交叉熵损失可以写为:
实验及结果
1、实验数据
为了评估SNTLDenseNet,本文使用公开数据集MSTAR作为评估基准,该数据集是在美国国防高等研究计划署(DARPA)和美国国防高等研究计划署(AFRL)支持下收集的。该项目由圣地亚国家实验室实施收集,通过飞行实验,获取大量目标数据,该数据集就是此项目的子集。如图2所示,MSTAR数据集拥有十类不同地面军用车辆目标(自行火炮:2S1;装甲车:BMP2、BRDM2、BTR60和BTR70;坦克:T62、T72;自行高炮:ZSU234;推土机:D7;军用卡车:ZIL131)。每类车辆的SAR图像都是从0°到360°,间隔5°到6°改变方位角获得,空间分辨率为0.3m×0.3m,如表1所示。
表1基准测试数据集的汇总表
2、实验设置
对于基于DenseNet的模型进行实验,并与EfficientNetV2、ResNet50、ResNet152、ResNeXt50和ShuffleNetV2进行对比实验,使用同一数据集ImageNet进行预训练。为了评估不同有限样本场景下的融合模型,随机选择表1中的部分训练数据集来训练孪生网络,并引入一个超参数γ来表示所选样本在训练数据集之间的比例。使用的深度学习平台使用的是Ubuntu22.04.2LTS系统,语言选用Python3.9,深度学习架构是Pytorch2.0.0,电脑硬件配置内存126GB, Xeon(R)Gold6230RCPU@2.10GHz×104和GPU英伟达特斯拉T416GB×8。优化器Adam用于默认训练,批处理大小为32,epoch为1000。
3、与其它深度学习方法的对比实验
为了在不同的有限样本场景下对模型进行评估,设置参数γ=0.25,0.5,1.0。实验结果如图3所示,其中“TL”是指“迁移学习”,说明这个基于CNN的模型是用ImageNet训练的权重初始化的;没有标记“TL”的基于CNN的模型是从头训练的,它是随机初始化的。
如图3所示,在经过1000个周期的训练后,所有模型基本达到收敛状态。在使用迁移学习时,各模型的收敛速度和收敛状态均显著优于非迁移学习模型。其中,迁移学习网络的训练和测试精度曲线具有较高的水平渐近线,训练和测试损失函数曲线具有较低的水平渐近线。因此,可以看出,使用迁移学习可以显著提高基于孪生网络的SAR目标识别模型的性能。在没有迁移学习的情况下,MobileNetV3、ResNet152和EfficientNetV2等模型出现梯度消失现象,导致模型在一定训练次数后不在更新。然而,在使用迁移学习后,该模型在1000个训练批次内没有出现梯度消失现象。因此,使用迁移学习可以有效地缓解梯度消失情况。
基于孪生网络的SAR目标识别问题。此外,DenseNet、ResNet50和ResNeXt50在不使用迁移学习的情况下,仍然能较好收敛。这表明这四种模型都适用于基于孪生网络的SAR目标识别。其中,DenseNet在不同γ值下的测试集识别准确度都具有较高的水平渐近线,因此在SAR目标识别的性能方面,DenseNet是最优模型。
表2不同基于CNN模型的复杂度和测试精度
为了进一步全面比较不同模型的复杂度和识别性能,统计模型参数总量(Params)、内存使用情况(Memory)、浮点运算次数(FLOPs)、乘加运算次数(MAdd)、和有无迁移学习(TL)的测试集准确值。如表2所示,DenseNet的识别性能最好,且计算复杂度在几个模型中最低。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制;尽管参照较佳实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者对部分技术特征进行等同替换。而不脱离本发明技术方案的精神,其均应涵盖在本发明请求保护的技术方案范围当中。
Claims (6)
1.一种合成孔径雷达自动目标识别的方法,其特征在于:包括以下步骤:
步骤1:预训练DenseNet模型,通过使用ImageNet数据集学习一般图像特征;
步骤2:初始化孪生网络,使用预训练DenseNet模型的权值进行初始化;
步骤3:成对SAR图像输入,获取相似度得分;
步骤4:建立二分类器,通过相似度评分建立模型并输出模型评价指标;
步骤5:微调模型网络,在SAR数据集上对整个孪生网络和二分类器的参数进行微调。
2.根据权利要求1所述的合成孔径雷达自动目标识别的方法,其特征在于:所述的预训练DenseNet模型包括稠密块和过渡层;
(1)稠密块
在稠密块模块中,任意两层之间有着密切的联系;将所有层的特征进行相互拼接,即对任意一层之前的所有层的输出结果进行叠加作为该层的输入,然后把该层的结果和之前层的输出结果作为下一层的输入传输下去;假若某网络有L层,DenseNet共有L(L+1)/2个连接;
对于L层网络而言,第l层的输入由公式(1)得出:
xl=H([x0,x1,...,xl-1]) (1)
其中:
1)x0,x1,...,xl-1分别表示第0层到第l-1层所对应的特征图;
2)[x0,x1,...,xl-1]表示对第0层到第l-1层的所对应的特征图进行级联;
3)Hl(·)表示包含BN,Relu和Conv三种操作的复合函数;
在稠密块模块中每个复合函数Hl(·)可以输出k个特征图,则第l层会输入k0+k*(l-1)特征图,其中k0表示输入层的的通道数;k是一个超参数也称为网络的生长率;在密集块中加入瓶颈层,即在3*3卷积之前引入1*1卷积来降维,加入瓶颈层后的稠密块结构为:BN+Relu+Conv(1*1)+BN+Relu+Conv(3*3);
(2)过渡层
所述过渡层用于连接两个相邻的稠密块,通过池化来降低特征图的大小,使模型变得更紧凑;引入压缩因子θ,取值范围为(0,1];密集块输出m个特征图时,过渡层通过卷积可以产生θ*m个特征;当θ小于1时,特征图数目压缩为原来的θ倍;当θ取1时,不压缩;引入超参数θ后的过渡层结构为:
BN-Relu-Conv(1*1)(filternum:θ*m)-droupout-Pooling(2*2)。
3.根据权利要求2所述的合成孔径雷达自动目标识别的方法,其特征在于:在步骤3中SAR图像:通过有源微波遥感技术,利用脉冲压缩等信号处理技术,准确地获得目标范围和方位角的高分辨率图像;其中,所述SAR图像采用的是公开数据集MSTAR。
4.根据权利要求3所述的合成孔径雷达自动目标识别的方法,其特征在于:在步骤3中相似度得分计算函数为:
z′(n)=|fθ(x′(i))-fθ(x′(j))| (2);
其中:fθ为DenseNet模型中权重θ,将输入x(n)转换为长度等于类别数k的二进制向量z(n)。
5.根据权利要求4所述的合成孔径雷达自动目标识别的方法,其特征在于:在步骤4中,所述的二分类器是指建立一个基于单层全连接网络的二分类器,该网络有k个输入节点和1个输出节点,以z′(n)作为输入;设fθ为具有可训练权值θ的二分类器,应用Sigmoid函数S激活二分类器的输出,建立二元交叉熵损失公式来训练二分类器。
6.根据权利要求5所述的合成孔径雷达自动目标识别的方法,其特征在于:二元交叉熵损失的公式为:
其中:长度等于类别数量k(对于ImageNet数据集,k=1000)的标签创建一个二进制向量y(n),向量中的每个元素都对应于一个类别y(n)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310669769.1A CN116664940A (zh) | 2023-06-07 | 2023-06-07 | 一种合成孔径雷达自动目标识别的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310669769.1A CN116664940A (zh) | 2023-06-07 | 2023-06-07 | 一种合成孔径雷达自动目标识别的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116664940A true CN116664940A (zh) | 2023-08-29 |
Family
ID=87725868
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310669769.1A Pending CN116664940A (zh) | 2023-06-07 | 2023-06-07 | 一种合成孔径雷达自动目标识别的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116664940A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117437530A (zh) * | 2023-10-12 | 2024-01-23 | 中国科学院声学研究所 | 合成孔径声纳感兴趣小目标孪生匹配识别方法及系统 |
-
2023
- 2023-06-07 CN CN202310669769.1A patent/CN116664940A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117437530A (zh) * | 2023-10-12 | 2024-01-23 | 中国科学院声学研究所 | 合成孔径声纳感兴趣小目标孪生匹配识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Min et al. | A gradually distilled CNN for SAR target recognition | |
Zhang et al. | Convolutional neural network with attention mechanism for SAR automatic target recognition | |
Chen et al. | Target classification using the deep convolutional networks for SAR images | |
Othman et al. | Domain adaptation network for cross-scene classification | |
Zhong et al. | SAR target image classification based on transfer learning and model compression | |
CN112446270B (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
Chen et al. | SAR target recognition based on deep learning | |
Bai et al. | Subset based deep learning for RGB-D object recognition | |
Akram et al. | A deep heterogeneous feature fusion approach for automatic land-use classification | |
CN114220124A (zh) | 一种近红外-可见光跨模态双流行人重识别方法及系统 | |
AlDahoul et al. | Real‐Time Human Detection for Aerial Captured Video Sequences via Deep Models | |
Huang et al. | Lightweight two-stream convolutional neural network for SAR target recognition | |
CN111160217B (zh) | 一种行人重识别系统对抗样本生成方法及系统 | |
Li et al. | Pedestrian detection based on deep learning model | |
Wang et al. | Segmenting neuronal structure in 3D optical microscope images via knowledge distillation with teacher-student network | |
CN112990334A (zh) | 基于改进原型网络的小样本sar图像目标识别方法 | |
CN108416270B (zh) | 一种基于多属性联合特征的交通标志识别方法 | |
Ren et al. | Ship recognition based on Hu invariant moments and convolutional neural network for video surveillance | |
Pavel et al. | Recurrent convolutional neural networks for object-class segmentation of RGB-D video | |
CN111832580B (zh) | 结合少样本学习与目标属性特征的sar目标识别方法 | |
CN116664940A (zh) | 一种合成孔径雷达自动目标识别的方法 | |
Abdelrazik et al. | Efficient hybrid algorithm for human action recognition | |
EP3881225A1 (en) | Coordinate estimation on n-spheres with spherical regression | |
CN112084897A (zh) | 一种gs-ssd的交通大场景车辆目标快速检测方法 | |
Wang | Remote sensing image semantic segmentation algorithm based on improved ENet network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |