CN109871902B - 一种基于超分辨率对抗生成级联网络的sar小样本识别方法 - Google Patents
一种基于超分辨率对抗生成级联网络的sar小样本识别方法 Download PDFInfo
- Publication number
- CN109871902B CN109871902B CN201910177075.XA CN201910177075A CN109871902B CN 109871902 B CN109871902 B CN 109871902B CN 201910177075 A CN201910177075 A CN 201910177075A CN 109871902 B CN109871902 B CN 109871902B
- Authority
- CN
- China
- Prior art keywords
- network
- image
- resolution
- super
- sar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明属于雷达数据处理领域,具体涉及一种基于超分辨率对抗生成级联网络的SAR小样本识别方法。针对SAR目标图像分辨率低所导致的目标特征不明显,受环境影响较大,数据样本易混淆的问题,提出一个基于深度学习的超分辨率网络,对低分辨率的SAR的小样本图像进行放大。让分类网络能够提取到更多的特征。与传统超分辨率方法不同,利用GAN进行的图像超分辨率能够有效的提取到图像的特征,生成非过度平滑的逼真的高分辨率图像。针对SAR小样本图像具有的低分辨率,特征模糊,样本容易混淆的特点,针对SAR图像固有特点的GAN超分辨率模型。将实现一个4倍放大因子的超分模型,可以将原图像的像素数量放大到原来的16倍。这样可以提供给分类器更多的内容和特征。
Description
技术领域
本发明属于雷达数据处理领域,具体涉及一种基于超分辨率对抗生成级联网络的SAR小样本识别方法。
背景技术
合成孔径雷达即SAR,是一种主动式微波成像传感器,通过发射宽带信号,结合合成孔径技术,SAR能在距离向和方位向上同时获得二维高分辨率图像。与传统光学遥感和高光谱遥感相比,SAR具备全天候、全天时的成像能力,还有一定的穿透性,获得的图像能够反映目标微波散射特性,是人类获取地物信息的一种重要技术手段。SAR已被广泛应用于民生领域,是实现自然资源普查、自然灾害监测等的重要技术手段。
随着SAR技术的日益成熟,其在自然灾害监测等领域得到了较为广泛的应用,具有较高的研究价值。通过对SAR图像目标的分类识别,可以快速有效地获取目标信息。SAR图像反映了电磁波后向散射强度,同时具有几何特征及电磁特征,是一种高分辨率雷达图像。因此,SAR图像解释是一项复杂工程,而利用人工对SAR图像进行判别将耗费大量资源,这说明在SAR自动目标识别领域需要高效的算法。
SAR目标识别是指对目标散射回波信号进行分析,从中提取信号特征与目标属性特征,并对目标的类别与属性进行判别。SAR图像不似光学图像那样直观、边缘易于检测,需要通过计算机对获取的目标信息进行处理,再与数据库中已知的目标特征行比较与测量,从而达到自动识别目标的目的。近十几年来,SAR目标识别技术在理论研究方面已取得众多成果,但距实际应用还有很大差距。
这是因为虽然SAR图像往往拥有超高的分辨率,但是因为SAR的囊括的空间尺度巨大,对高分辨率的SAR图像进行目标分割后所产生出的目标图像极小,分辨率低。而且由于环境复杂,以及SAR存在的相干斑噪声等因素,当需要对图像中的目标进行识别时,通常无法使用常规方法,需要对复杂环境的SAR图像进行降噪,并使用目标分割技术将目标从高分辨率SAR图像中分割出来,进行相应的目标识别。
目前,深度学习技术的发展,其在诸多领域都取得了令人瞩目的成果,这也加快了深度学习技术在更多复杂场景的应用。而计算机视觉领域的相关问题更是在深度学习技术的加持下取得了长足的发展。深度学习技术是以神经网络为基础的机器学习技术,较为经典的深度学习网络如深度卷积神经网络即CNN,其网络结构使得模型具备了强大的特征提取和分类的能力,已能较好的实现一般情况下的目标的检测与识别。而基于深度学习技术的SAR图像分析处理也成为了当前的研究热点,许多研究正利用CNN,来尝试解决SAR小样本识别中,低分辨率条件下的目标识别问题。虽然在部分领域取得了较好的效果,但是仍然存在很多不足。这是因为SAR小样本识别中存在特征模糊,目标易混淆的特性。
生成式对抗网络,是近年来复杂分布上无监督学习最具前景的方法之一。生成式对抗网络包含两个基本模块:生成模型G和判别模型D;模型的输入为随机高斯白噪声信号z,该噪声信号经由生成模型G映射到某个新的数据空间,得到生成数据G(z);接下来,由判别网络D根据真实数据x与生成数据G(z)的输入来分别输出一个概率值,表示D判断输入是真实数据还是生成其他数据的置信度,以此判断G的产生数据的性能好坏。
本发明创新地提出一种基于超分辨率对抗生成级联网络的SAR小样本识别方法。本发明设计一个超分辨率对抗生成网络即SRGAN,生成对抗网络模型用于分别用于提升SAR小样本识别中图像的分辨率,以及一个针对SAR图像特点的Inception-ResNet-V2深度神经网络进行目标识别,在提高样本质量的同时,提高SAR小样本识别的准确度。
发明内容
为解决SAR小样本识别问题中图像分辨率低,识别准确度低的问题。本发明提供一种基于超分辨率对抗生成级联网络的SAR小样本识别方法。
一种基于超分辨率对抗生成级联网络的SAR小样本识别方法,该方法包括以下步骤:
步骤1:通过大量的无标签SAR地图数据库对SRGAN预训练进行训练;
步骤2:通过现有的目标识别识别数据库对Inception目标识别网络进行预训练;
步骤3:将超分辨率网络和分类网络级联之后,再次使用带有标签的数据对整体网络进行训练;
步骤4:新的SAR目标样本通过该网络得到识别结果。
步骤2所述的通过现有的目标识别识别数据库对Inception目标识别网络进行预训练,训练生成函数{G(z)}用于生成指定LR输入的HR输出图像,训练Inception网络用做感知网络用于提取最终HR图像中的高级特征,包括以下步骤:
步骤1.1:将低分辨率图像LR输入至生成网络中,得到生成的高分辨率图像SR;
步骤1.2:将高分辨率图像SR和原始真实图像HR共同输入至判别网络中,得到判别网络识别图像样本真假的准确率,即识别原始真实图像HR和高分辨率图像SR的准确率;
步骤1.3:反馈至生成模型中;
步骤1.4:生成模型网络和判别模型网络形成对抗。
步骤1.2所述的将高分辨率图像SR和原始真实图像HR共同输入至判别网络中,其中超分辨率使用基于像素的MSE损失来训练,基于像素的MSE损失的计算方法表示为:
其中,r是放大倍数,W为图像的长像素值,H为图像的宽像素值,是原始图像的(x,y)坐标点的像素值,是生成图像的(x,y)坐标点的像素值。步骤1.3所述的反馈至生成模型中,在每个生成模型中引入了对抗损失,同时使用对抗损失训练了一个判别网络,除了判别模型的损失之外,基于所有训练样本上的判别网络的概率来定义对抗性损失,对抗性损失表示为:
步骤2所述的通过现有的目标识别识别数据库对Inception目标识别网络进行预训练,利用Inception损失来预测感知损失,表示为:
其中,Wi,j和Hi,j分别表示Inception网络中各自特征的维度,φi,j表示在第i个Inception模块之后第j个Inception模块之前所提取的样本特征,其中IHR表示高清图片,ILR表示低清图片,x,y示图像上的(x,y)坐标点的像素值。
步骤3所述的将超分辨率网络和分类网络级联之后,再次使用带有标签的数据对整体网络进行训练,其中基于Inception的感知网络以中间层输出作为输入,目标识别网络以超分辨率生成式对抗网络输出的超分辨图片作为输入,利用超分生成对抗网络以及Inception-ReNet-V2网络,Inception-ResNet-V2网络包括Inception-A、Inception-B和Inception-C三种Inception结构,Inception-ResNet-V2网络包括Stem层、4个Inception-A层,Reduction-A层、7个Inception-B层、Reduction-B层、3个Inception-C层,最后通过Average pooling层,即平均池化层,和Softmax输出结果,同时在网络中使用Dropout,认证损失的交叉熵损失计算表示为:
其中,P(m)表示模型输出的标签为m的时候的概率,假设y为真实的ID标签,因此对于所有的m≠y,有q(y)=1,q(m)=0,最终,所有的损失函数合并在一块,表示为:
本发明的有益效果在于:
利用超分生成对抗网络以及Inception-ReNet-V2网络,优化其网络结构以及损失函数,使得在提高样本质量的同时,提高SAR小样本识别的准确度。
附图说明
图1为本发明的总体技术路线。
图2(a)为本发明的超分辨率生成模型网络。
图2(b)为本发明超分辨率判别模型网络示意图。
图3为Inception初始结构。
图4为Inception-ResNet-V2网络结构图。
图5(a)为Inception-A网络结构示意图。
图5(b)为Inception-B网络结构示意图。
图5(c)为Inception-C网络结构示意图。
图6为基于超分辨率对抗生成级联网络的SAR小样本识别方法流程图。
具体实施方式
下面结合附图对本发明做进一步描述。
为解决SAR小样本识别问题中图像分辨率低,识别准确度低的问题。本发明提供一种基于超分辨率对抗生成级联网络的SAR小样本识别方法。其具体实施方案如下:
(1)通过大量的无标签SAR地图数据库对SRGAN预训练进行训练,具体实施步骤如下:
①将低分辨率图像(LR)输入至生成网络中,得到生成的高分辨率图像(SR)。生成模型结构参考了ResNet网络结构。本发明提出的生成模型G,相比前人提出的模型,具有更深的网络结构。共使用了16个具有相同结构的参数块(Residual blocks),首先使用了两个卷积核大小为3×3,64个特征映射的卷积层,在每一个卷积层后使用ParametricReLU作为激活函数。
②进一步地,将高分辨率图像(SR)和原始真实图像(HR)共同输入至判别网络中,得到判别网络识别图像样本真假的准确率。判别模型D的网络结构包含8个卷积层,每个卷积层采用3×3大小的卷积核,在每一个卷积层后采用批规范化来防止梯度消失,同时加强模型的收敛速度;并采用LeakyReLU(α=0.2,设定α为一个可通过反向传播算法学习的变量)作为激活函数。在得到512大小的Feature map后,经过两个全连接层,通过一个Sigmoid激活函数,最终获得样本分类的概率,也就是样本是实际图像而不是生成图像的概率。基于像素的MSE损失的计算方法如下:
反馈至生成模型中,使生成模型生成图像能力得到提高。
对抗损失:除了上面描述的图像内容的损失之外,本发明添加了一个生成组件。除了判别模型的损失之外,基于所有训练样本上的判别网络的概率来定义对抗性损失。它表示为:
③进而,生成模型网络和判别模型网络形成对抗,互相提升。其中在判别器判别时,会产生判别损失,具体如下:
对于生成模型G,它用来生成SAR小样本的高分辨率图像(SR)。判别模型D用来评估生成模型G所生成的图像的视觉质量。
(2)通过现有的目标识别识别数据库对Inception目标识别网络进行预训练。具体网络模型如图3。
利用Inception损失以期达到感知上的相似。感知损失如式:
其中,Wi,j和Hi,j分别表示Inception网络中各自特征的维度,φi,j表示在第i个Inception模块之后第j个Inception模块之前所提取的样本特征,其中IHR表示高清图片,ILR表示低清图片,x,y示图像上的(x,y)坐标点的像素值。
(3)将超分辨率网络和分类网络级联之后,再次使用带有标签的数据对整体网络进行训练。利用超分生成对抗网络以及Inception-ReNet-V2网络,具体网络模型如图4。Inception-ResNet-V2网络,其中包括Inception-A、Inception-B和Inception-C三种Inception结构,如图5(a)、图5(b)和图5(c)。
相比最初版本的Inception结构,Inception-ResNet-V2主要有以下几点不同:
a)在每个Inception结构中的卷积层前增加了一个1×1大小的卷积层,从而减少权重大小和特征维度;
b)使用两个3×3大小的卷积层代替了原有Inception中5×5的卷积层,从而实现网络深度的增加;
c)提出了卷积分解,将7×7的卷积核分解为1×7和7×1两个卷积核,这样使得网络深度进一步增加,同时增加了网络的非线性;
d)对于Inception结构中每一个卷积结构,都使用了残差连接,使得训练加速,收敛速度更快,精度更高。
Inception-ResNet-V2网络包括Stem层、4个Inception-A层,Reduction-A层、7个Inception-B层、Reduction-B层、3个Inception-C层,最后通过Average pooling层(平均池化层)和Softmax输出结果,同时为了减小过拟合的风险,在网络中使用Dropout。
为了简化这一方程,本发明忽略了m和I之间的关联。认证损失的交叉熵损失计算如式:
其中P(m)表示模型输出的标签为m的时候的概率,假设y为真实的ID标签,因此对于所有的m≠y,有q(y)=1,q(m)=0。在这种情况下,最小化识别损失等同于最大化被分配到真实样本类的可能性。
为了方便,这些损失之间的权重本发明采用一样的均值来平衡。
(3)新的SAR目标样本通过该网络得到识别结果。
本发明首先通过大量的无标签SAR地图数据库对SRGAN预训练,之后通过现有的目标识别识别数据库对基于Inception的目标识别网络进行预训练,将超分辨率网络和分类网络级联之后,再次使用带有标签的数据对整体网络进行训练。其中基于Inception的感知网络以中间层输出作为输入,目标识别网络以超分辨率生成式对抗网络输出的超分辨图片作为输入。
本发明利用超分生成对抗网络以及Inception-ReNet-V2网络,优化其网络结构以及损失函数,使得在提高样本质量的同时,提高SAR小样本识别的准确度。
Claims (1)
1.一种基于超分辨率对抗生成级联网络的SAR小样本识别方法,其特征在于,该方法包括以下步骤:
步骤1:通过无标签SAR地图数据库对超分辨率对抗生成网络SRGAN预训练;
步骤1.1:将低分辨率图像LR输入至生成网络中,得到高分辨率图像SR;
所述生成网络采用16个具有相同结构的参数块、两个大小为3×3的卷积核、64个特征映射的卷积层,在每一个卷积层后使用ParametricReLU作为激活函数;
步骤1.2:将高分辨率图像SR和原始真实图像HR共同输入至判别网络中,得到判别网络识别图像样本真假的准确率;
所述判别网络包含8个卷积层,每个卷积层采用3×3大小的卷积核,在每一个卷积层后采用批规范化来防止梯度消失,同时加强模型的收敛速度;判别网络采用LeakyReLU作为激活函数,在得到512大小的Feature map后,经过两个全连接层,通过一个Sigmoid激活函数,最终获得样本分类的概率,也就是样本是实际图像而不是生成图像的概率;
步骤1.4:生成网络和判别网络形成对抗,互相提升;在判别器判别时,会产生判别损失,具体为:
步骤2:通过目标识别数据库对Inception目标识别网络进行预训练;
利用Inception损失以期达到感知上的相似,感知损失为:
其中,Wi,j和Hi,j分别表示Inception网络中各自特征的维度;φi,j表示在第i个Inception模块之后第j个Inception模块之前所提取的样本特征;IHR表示高清图片;ILR表示低清图片;x,y示图像上的(x,y)坐标点的像素值;
步骤3:将超分辨率对抗生成网络SRGAN和Inception目标识别网络级联,使用带有标签的数据对整体网络进行训练;
所述Inception目标识别网络包括Stem层、4个Inception-A层,Reduction-A层、7个Inception-B层、Reduction-B层、3个Inception-C层,最后通过Average pooling层和Softmax输出结果,同时为了减小过拟合的风险,在网络中使用Dropout;
训练整体网络的损失函数为:
步骤4:将待识别的SAR目标样本输入至训练好的由超分辨率对抗生成网络SRGAN和Inception目标识别网络组成的整体网络中,得到识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910177075.XA CN109871902B (zh) | 2019-03-08 | 2019-03-08 | 一种基于超分辨率对抗生成级联网络的sar小样本识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910177075.XA CN109871902B (zh) | 2019-03-08 | 2019-03-08 | 一种基于超分辨率对抗生成级联网络的sar小样本识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109871902A CN109871902A (zh) | 2019-06-11 |
CN109871902B true CN109871902B (zh) | 2022-12-13 |
Family
ID=66920071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910177075.XA Active CN109871902B (zh) | 2019-03-08 | 2019-03-08 | 一种基于超分辨率对抗生成级联网络的sar小样本识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109871902B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110322418A (zh) * | 2019-07-11 | 2019-10-11 | 北京航空航天大学 | 一种超分辨率图像生成对抗网络的训练方法及装置 |
CN110363792A (zh) * | 2019-07-19 | 2019-10-22 | 广东工业大学 | 一种基于光照不变性特征提取的遥感图像变化检测方法 |
CN110490802B (zh) * | 2019-08-06 | 2021-01-19 | 北京观微科技有限公司 | 一种基于超分辨率的卫星影像飞机目标型号识别方法 |
CN110570355B (zh) * | 2019-09-12 | 2020-09-01 | 杭州海睿博研科技有限公司 | 多尺度自动聚焦超分辨率处理系统和方法 |
CN110866472A (zh) * | 2019-11-04 | 2020-03-06 | 西北工业大学 | 一种无人机地面运动目标识别与图像增强系统及方法 |
CN111104967B (zh) * | 2019-12-02 | 2023-12-22 | 精锐视觉智能科技(上海)有限公司 | 图像识别网络训练方法、图像识别方法、装置及终端设备 |
CN111242087A (zh) * | 2020-01-21 | 2020-06-05 | 华为技术有限公司 | 物体识别方法及装置 |
CN111339969B (zh) * | 2020-03-02 | 2023-06-20 | 深圳市瑞立视多媒体科技有限公司 | 人体姿势估计方法、装置、设备及存储介质 |
CN112200055B (zh) * | 2020-09-30 | 2024-04-30 | 深圳市信义科技有限公司 | 联合对抗生成网络的行人属性识别方法、系统及装置 |
CN112200721B (zh) * | 2020-10-10 | 2021-11-09 | 广州云从人工智能技术有限公司 | 一种图像处理方法、系统、设备及介质 |
CN114359667B (zh) * | 2021-12-30 | 2024-01-30 | 西安交通大学 | 一种基于生成式对抗网络的强度相干识别方法及设备 |
CN115410083B (zh) * | 2022-08-24 | 2024-04-30 | 南京航空航天大学 | 一种基于对抗域适应的小样本sar目标分类方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537743B (zh) * | 2018-03-13 | 2022-05-20 | 杭州电子科技大学 | 一种基于生成对抗网络的面部图像增强方法 |
CN109410239B (zh) * | 2018-11-07 | 2021-11-16 | 南京大学 | 一种基于条件生成对抗网络的文本图像超分辨率重建方法 |
-
2019
- 2019-03-08 CN CN201910177075.XA patent/CN109871902B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109871902A (zh) | 2019-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109871902B (zh) | 一种基于超分辨率对抗生成级联网络的sar小样本识别方法 | |
CN110472627B (zh) | 一种端到端的sar图像识别方法、装置及存储介质 | |
Wen et al. | A novel automatic change detection method for urban high-resolution remotely sensed imagery based on multiindex scene representation | |
Lei et al. | Multiscale superpixel segmentation with deep features for change detection | |
CN110097101B (zh) | 一种基于改进可靠性因子的遥感图像融合与海岸带分类方法 | |
CN111898633B (zh) | 一种基于高光谱图像的海上舰船目标检测方法 | |
Liu et al. | Remote sensing image change detection based on information transmission and attention mechanism | |
CN111160120A (zh) | 基于迁移学习的Faster R-CNN物品检测方法 | |
CN109657610A (zh) | 一种高分辨率多源遥感影像的土地利用变化检测方法 | |
CN111242061B (zh) | 一种基于注意力机制的合成孔径雷达舰船目标检测方法 | |
CN109635726B (zh) | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 | |
CN108805057B (zh) | 一种基于联合显著性分析的sar图像油库区检测方法 | |
CN112949380B (zh) | 一种基于激光雷达点云数据的智能水下目标识别系统 | |
CN116740758A (zh) | 一种防止误判的鸟类图像识别方法及系统 | |
CN112270285B (zh) | 一种基于稀疏表示和胶囊网络的sar图像变化检测方法 | |
CN112330562B (zh) | 一种异构遥感图像变换方法及系统 | |
CN113313128A (zh) | 一种基于改进YOLOv3网络的SAR图像目标检测方法 | |
Zou et al. | Sonar Image Target Detection for Underwater Communication System Based on Deep Neural Network. | |
CN116778341A (zh) | 一种雷达图像多视角特征提取与鉴别方法 | |
CN112784777A (zh) | 基于对抗学习的无监督高光谱图像变化检测方法 | |
CN111460943A (zh) | 一种遥感影像地物分类方法及系统 | |
Wang et al. | FPA-DNN: a forward propagation acceleration based deep neural network for ship detection | |
CN109934103A (zh) | 基于暗通道先验和区域协方差检测图像中显著物体的方法 | |
CN115272882A (zh) | 一种基于遥感影像的离散建筑物检测方法及系统 | |
CN114283336A (zh) | 一种基于混合注意力的无锚框遥感图像小目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |