CN109871902A - 一种基于超分辨率对抗生成级联网络的sar小样本识别方法 - Google Patents

一种基于超分辨率对抗生成级联网络的sar小样本识别方法 Download PDF

Info

Publication number
CN109871902A
CN109871902A CN201910177075.XA CN201910177075A CN109871902A CN 109871902 A CN109871902 A CN 109871902A CN 201910177075 A CN201910177075 A CN 201910177075A CN 109871902 A CN109871902 A CN 109871902A
Authority
CN
China
Prior art keywords
network
inception
resolution
super
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910177075.XA
Other languages
English (en)
Other versions
CN109871902B (zh
Inventor
关键
孙建国
袁野
龙云飞
吴嘉恒
林尤添
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201910177075.XA priority Critical patent/CN109871902B/zh
Publication of CN109871902A publication Critical patent/CN109871902A/zh
Application granted granted Critical
Publication of CN109871902B publication Critical patent/CN109871902B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明属于雷达数据处理领域,具体涉及一种基于超分辨率对抗生成级联网络的SAR小样本识别方法。针对SAR目标图像分辨率低所导致的目标特征不明显,受环境影响较大,数据样本易混淆的问题,提出一个基于深度学习的超分辨率网络,对低分辨率的SAR的小样本图像进行放大。让分类网络能够提取到更多的特征。与传统超分辨率方法不同,利用GAN进行的图像超分辨率能够有效的提取到图像的特征,生成非过度平滑的逼真的高分辨率图像。针对SAR小样本图像具有的低分辨率,特征模糊,样本容易混淆的特点,针对SAR图像固有特点的GAN超分辨率模型。将实现一个4倍放大因子的超分模型,可以将原图像的像素数量放大到原来的16倍。这样可以提供给分类器更多的内容和特征。

Description

一种基于超分辨率对抗生成级联网络的SAR小样本识别方法
技术领域
本发明属于雷达数据处理领域,具体涉及一种基于超分辨率对抗生成级联网络的SAR小样本识别方法。
背景技术
合成孔径雷达即SAR,是一种主动式微波成像传感器,通过发射宽带信号,结合合成孔径技术,SAR能在距离向和方位向上同时获得二维高分辨率图像。与传统光学遥感和高光谱遥感相比,SAR具备全天候、全天时的成像能力,还有一定的穿透性,获得的图像能够反映目标微波散射特性,是人类获取地物信息的一种重要技术手段。SAR已被广泛应用于民生领域,是实现自然资源普查、自然灾害监测等的重要技术手段。
随着SAR技术的日益成熟,其在自然灾害监测等领域得到了较为广泛的应用,具有较高的研究价值。通过对SAR图像目标的分类识别,可以快速有效地获取目标信息。SAR图像反映了电磁波后向散射强度,同时具有几何特征及电磁特征,是一种高分辨率雷达图像。因此,SAR图像解释是一项复杂工程,而利用人工对SAR图像进行判别将耗费大量资源,这说明在SAR自动目标识别领域需要高效的算法。
SAR目标识别是指对目标散射回波信号进行分析,从中提取信号特征与目标属性特征,并对目标的类别与属性进行判别。SAR图像不似光学图像那样直观、边缘易于检测,需要通过计算机对获取的目标信息进行处理,再与数据库中已知的目标特征行比较与测量,从而达到自动识别目标的目的。近十几年来,SAR目标识别技术在理论研究方面已取得众多成果,但距实际应用还有很大差距。
这是因为虽然SAR图像往往拥有超高的分辨率,但是因为SAR的囊括的空间尺度巨大,对高分辨率的SAR图像进行目标分割后所产生出的目标图像极小,分辨率低。而且由于环境复杂,以及SAR存在的相干斑噪声等因素,当需要对图像中的目标进行识别时,通常无法使用常规方法,需要对复杂环境的SAR图像进行降噪,并使用目标分割技术将目标从高分辨率SAR图像中分割出来,进行相应的目标识别。
目前,深度学习技术的发展,其在诸多领域都取得了令人瞩目的成果,这也加快了深度学习技术在更多复杂场景的应用。而计算机视觉领域的相关问题更是在深度学习技术的加持下取得了长足的发展。深度学习技术是以神经网络为基础的机器学习技术,较为经典的深度学习网络如深度卷积神经网络即CNN,其网络结构使得模型具备了强大的特征提取和分类的能力,已能较好的实现一般情况下的目标的检测与识别。而基于深度学习技术的SAR图像分析处理也成为了当前的研究热点,许多研究正利用CNN,来尝试解决SAR小样本识别中,低分辨率条件下的目标识别问题。虽然在部分领域取得了较好的效果,但是仍然存在很多不足。这是因为SAR小样本识别中存在特征模糊,目标易混淆的特性。
生成式对抗网络,是近年来复杂分布上无监督学习最具前景的方法之一。生成式对抗网络包含两个基本模块:生成模型G和判别模型D;模型的输入为随机高斯白噪声信号z,该噪声信号经由生成模型G映射到某个新的数据空间,得到生成数据G(z);接下来,由判别网络D根据真实数据x与生成数据G(z)的输入来分别输出一个概率值,表示D判断输入是真实数据还是生成其他数据的置信度,以此判断G的产生数据的性能好坏。
本发明创新地提出一种基于超分辨率对抗生成级联网络的SAR小样本识别方法。本发明设计一个超分辨率对抗生成网络即SRGAN,生成对抗网络模型用于分别用于提升SAR小样本识别中图像的分辨率,以及一个针对SAR图像特点的Inception-ResNet-V2深度神经网络进行目标识别,在提高样本质量的同时,提高SAR小样本识别的准确度。
发明内容
为解决SAR小样本识别问题中图像分辨率低,识别准确度低的问题。本发明提供一种基于超分辨率对抗生成级联网络的SAR小样本识别方法。
一种基于超分辨率对抗生成级联网络的SAR小样本识别方法,该方法包括以下步骤:
步骤1:通过大量的无标签SAR地图数据库对SRGAN预训练进行训练;
步骤2:通过现有的目标识别识别数据库对Inception目标识别网络进行预训练;
步骤3:将超分辨率网络和分类网络级联之后,再次使用带有标签的数据对整体网络进行训练;
步骤4:新的SAR目标样本通过该网络得到识别结果。
步骤2所述的通过现有的目标识别识别数据库对Inception目标识别网络进行预训练,训练生成函数{G(z)}用于生成指定LR输入的HR输出图像,训练Inception网络用做感知网络用于提取最终HR图像中的高级特征,包括以下步骤:
步骤1.1:将低分辨率图像LR输入至生成网络中,得到生成的高分辨率图像SR;
步骤1.2:将高分辨率图像SR和原始真实图像HR共同输入至判别网络中,得到判别网络识别图像样本真假的准确率,即识别原始真实图像HR和高分辨率图像SR的准确率;
步骤1.3:反馈至生成模型中;
步骤1.4:生成模型网络和判别模型网络形成对抗。
步骤1.2所述的将高分辨率图像SR和原始真实图像HR共同输入至判别网络中,其中超分辨率使用基于像素的MSE损失来训练,基于像素的MSE损失的计算方法表示为:
其中,r是放大倍数,W为图像的长像素值,H为图像的宽像素值,是原始图像的(x,y)坐标点的像素值,是生成图像的(x,y)坐标点的像素值。步骤1.3所述的反馈至生成模型中,在每个生成模型中引入了对抗损失,同时使用对抗损失训练了一个判别网络,除了判别模型的损失之外,基于所有训练样本上的判别网络的概率来定义对抗性损失,对抗性损失表示为:
其中,是超分辨率图像被对抗网络判定为真实图像的概率。步骤1.4所述的生成模型网络和判别模型网络形成对抗,其中在判别器判别时,会产生判别损失,损失计算表示为下式:
其中,是超分辨率图像被对抗网络判定为真实图像的概率,是原始图像被判别为真实图像的概率。
步骤2所述的通过现有的目标识别识别数据库对Inception目标识别网络进行预训练,利用Inception损失来预测感知损失,表示为:
其中,Wi,j和Hi,j分别表示Inception网络中各自特征的维度,φi,j表示在第i个Inception模块之后第j个Inception模块之前所提取的样本特征,其中IHR表示高清图片,ILR表示低清图片,x,y示图像上的(x,y)坐标点的像素值。
步骤3所述的将超分辨率网络和分类网络级联之后,再次使用带有标签的数据对整体网络进行训练,其中基于Inception的感知网络以中间层输出作为输入,目标识别网络以超分辨率生成式对抗网络输出的超分辨图片作为输入,利用超分生成对抗网络以及Inception-ReNet-V2网络,Inception-ResNet-V2网络包括Inception-A、Inception-B和Inception-C三种Inception结构,Inception-ResNet-V2网络包括Stem层、4个Inception-A层,Reduction-A层、7个Inception-B层、Reduction-B层、3个Inception-C层,最后通过Average pooling层,即平均池化层,和Softmax输出结果,同时在网络中使用Dropout,认证损失的交叉熵损失计算表示为:
其中,P(m)表示模型输出的标签为m的时候的概率,假设y为真实的ID标签,因此对于所有的m≠y,有q(y)=1,q(m)=0,最终,所有的损失函数合并在一块,表示为:
本发明的有益效果在于:
利用超分生成对抗网络以及Inception-ReNet-V2网络,优化其网络结构以及损失函数,使得在提高样本质量的同时,提高SAR小样本识别的准确度。
附图说明
图1为本发明的总体技术路线。
图2(a)为本发明的超分辨率生成模型网络。
图2(b)为本发明超分辨率判别模型网络示意图。
图3为Inception初始结构。
图4为Inception-ResNet-V2网络结构图。
图5(a)为Inception-A网络结构示意图。
图5(b)为Inception-B网络结构示意图。
图5(c)为Inception-C网络结构示意图。
图6为基于超分辨率对抗生成级联网络的SAR小样本识别方法流程图。
具体实施方式
下面结合附图对本发明做进一步描述。
为解决SAR小样本识别问题中图像分辨率低,识别准确度低的问题。本发明提供一种基于超分辨率对抗生成级联网络的SAR小样本识别方法。其具体实施方案如下:
(1)通过大量的无标签SAR地图数据库对SRGAN预训练进行训练,具体实施步骤如下:
①将低分辨率图像(LR)输入至生成网络中,得到生成的高分辨率图像(SR)。生成模型结构参考了ResNet网络结构。本发明提出的生成模型G,相比前人提出的模型,具有更深的网络结构。共使用了16个具有相同结构的参数块(Residual blocks),首先使用了两个卷积核大小为3×3,64个特征映射的卷积层,在每一个卷积层后使用ParametricReLU作为激活函数。
②进一步地,将高分辨率图像(SR)和原始真实图像(HR)共同输入至判别网络中,得到判别网络识别图像样本真假的准确率。判别模型D的网络结构包含8个卷积层,每个卷积层采用3×3大小的卷积核,在每一个卷积层后采用批规范化来防止梯度消失,同时加强模型的收敛速度;并采用LeakyReLU(α=0.2,设定α为一个可通过反向传播算法学习的变量)作为激活函数。在得到512大小的Feature map后,经过两个全连接层,通过一个Sigmoid激活函数,最终获得样本分类的概率,也就是样本是实际图像而不是生成图像的概率。基于像素的MSE损失的计算方法如下:
其中r是放大倍数,W,H图像的长宽像素值,表示图像上的(x,y)坐标点的像素值,只是是原始图像的,是生成图像的。
反馈至生成模型中,使生成模型生成图像能力得到提高。
对抗损失:除了上面描述的图像内容的损失之外,本发明添加了一个生成组件。除了判别模型的损失之外,基于所有训练样本上的判别网络的概率来定义对抗性损失。它表示为:
此处是超分辨率图像被对抗网络判定为真实图像的概率。为了更好的梯度下降表现,本发明将最小化来代替
③进而,生成模型网络和判别模型网络形成对抗,互相提升。其中在判别器判别时,会产生判别损失,具体如下:
当判断真实图像为正或者超分辨图像为负时,需要最小化D的损失。然后,总损失计算如式:
此处是超分辨率图像被对抗网络判定为真实图像的概率。是原始图像被判别为真实图像的概率。为了更好的梯度下降表现,本发明将最小来代替
对于生成模型G,它用来生成SAR小样本的高分辨率图像(SR)。判别模型D用来评估生成模型G所生成的图像的视觉质量。
(2)通过现有的目标识别识别数据库对Inception目标识别网络进行预训练。具体网络模型如图3。
利用Inception损失以期达到感知上的相似。感知损失如式:
其中,Wi,j和Hi,j分别表示Inception网络中各自特征的维度,φi,j表示在第i个Inception模块之后第j个Inception模块之前所提取的样本特征,其中IHR表示高清图片,ILR表示低清图片,x,y示图像上的(x,y)坐标点的像素值。
(3)将超分辨率网络和分类网络级联之后,再次使用带有标签的数据对整体网络进行训练。利用超分生成对抗网络以及Inception-ReNet-V2网络,具体网络模型如图4。Inception-ResNet-V2网络,其中包括Inception-A、Inception-B和Inception-C三种Inception结构,如图5(a)、图5(b)和图5(c)。
相比最初版本的Inception结构,Inception-ResNet-V2主要有以下几点不同:
a)在每个Inception结构中的卷积层前增加了一个1×1大小的卷积层,从而减少权重大小和特征维度;
b)使用两个3×3大小的卷积层代替了原有Inception中5×5的卷积层,从而实现网络深度的增加;
c)提出了卷积分解,将7×7的卷积核分解为1×7和7×1两个卷积核,这样使得网络深度进一步增加,同时增加了网络的非线性;
d)对于Inception结构中每一个卷积结构,都使用了残差连接,使得训练加速,收敛速度更快,精度更高。
Inception-ResNet-V2网络包括Stem层、4个Inception-A层,Reduction-A层、7个Inception-B层、Reduction-B层、3个Inception-C层,最后通过Average pooling层(平均池化层)和Softmax输出结果,同时为了减小过拟合的风险,在网络中使用Dropout。
给出一个原始图像或者超分图像I,目标识别网络的输出是这里m是目标的ID,因此每个ID标签m的概率计算方式是:
为了简化这一方程,本发明忽略了m和I之间的关联。认证损失的交叉熵损失计算如式:
其中P(m)表示模型输出的标签为m的时候的概率,假设y为真实的ID标签,因此对于所有的m≠y,有q(y)=1,q(m)=0。在这种情况下,最小化识别损失等同于最大化被分配到真实样本类的可能性。
最后,基于Inception网络的目标识别网络用作目标判别网络训练的时候使用了交叉熵损失最终,所有的损失函数合并在一块,如式:
为了方便,这些损失之间的权重本发明采用一样的均值来平衡。
(3)新的SAR目标样本通过该网络得到识别结果。
本发明首先通过大量的无标签SAR地图数据库对SRGAN预训练,之后通过现有的目标识别识别数据库对基于Inception的目标识别网络进行预训练,将超分辨率网络和分类网络级联之后,再次使用带有标签的数据对整体网络进行训练。其中基于Inception的感知网络以中间层输出作为输入,目标识别网络以超分辨率生成式对抗网络输出的超分辨图片作为输入。
本发明利用超分生成对抗网络以及Inception-ReNet-V2网络,优化其网络结构以及损失函数,使得在提高样本质量的同时,提高SAR小样本识别的准确度。

Claims (7)

1.一种基于超分辨率对抗生成级联网络的SAR小样本识别方法,其特征在于,该方法包括以下步骤:
步骤1:通过大量的无标签SAR地图数据库对SRGAN预训练进行训练;
步骤2:通过现有的目标识别识别数据库对Inception目标识别网络进行预训练;
步骤3:将超分辨率网络和分类网络级联之后,再次使用带有标签的数据对整体网络进行训练;
步骤4:新的SAR目标样本通过该网络得到识别结果。
2.根据权利要求1所述的一种基于超分辨率对抗生成级联网络的SAR小样本识别方法,其特征在于,步骤2所述的通过现有的目标识别识别数据库对Inception目标识别网络进行预训练,训练生成函数{G(z)}用于生成指定LR输入的HR输出图像,训练Inception网络用做感知网络用于提取最终HR图像中的高级特征,包括以下步骤:
步骤1.1:将低分辨率图像LR输入至生成网络中,得到生成的高分辨率图像SR;
步骤1.2:将高分辨率图像SR和原始真实图像HR共同输入至判别网络中,得到判别网络识别图像样本真假的准确率,即识别原始真实图像HR和高分辨率图像SR的准确率;
步骤1.3:反馈至生成模型中;
步骤1.4:生成模型网络和判别模型网络形成对抗。
3.根据权利要求2所述的一种基于超分辨率对抗生成级联网络的SAR小样本识别方法,其特征在于,步骤1.2所述的将高分辨率图像SR和原始真实图像HR共同输入至判别网络中,其中超分辨率使用基于像素的MSE损失来训练,基于像素的MSE损失的计算方法表示为:
其中,r是放大倍数,W为图像的长像素值,H为图像的宽像素值,是原始图像的(x,y)坐标点的像素值,是生成图像的(x,y)坐标点的像素值。
4.根据权利要求2所述的一种基于超分辨率对抗生成级联网络的SAR小样本识别方法,其特征在于,步骤1.3所述的反馈至生成模型中,在每个生成模型中引入了对抗损失,同时使用对抗损失训练了一个判别网络,除了判别模型的损失之外,基于所有训练样本上的判别网络的概率来定义对抗性损失,对抗性损失表示为:
其中,是超分辨率图像被对抗网络判定为真实图像的概率。
5.根据权利要求2所述的一种基于超分辨率对抗生成级联网络的SAR小样本识别方法,其特征在于,步骤1.4所述的生成模型网络和判别模型网络形成对抗,其中在判别器判别时,会产生判别损失,损失计算表示为下式:
其中,是超分辨率图像被对抗网络判定为真实图像的概率,是原始图像被判别为真实图像的概率。
6.根据权利要求1所述的一种基于超分辨率对抗生成级联网络的SAR小样本识别方法,其特征在于:步骤2所述的通过现有的目标识别识别数据库对Inception目标识别网络进行预训练,利用Inception损失来预测感知损失,表示为:
其中,Wi,j和Hi,j分别表示Inception网络中各自特征的维度,φi,j表示在第i个Inception模块之后第j个Inception模块之前所提取的样本特征,其中IHR表示高清图片,ILR表示低清图片,x,y示图像上的(x,y)坐标点的像素值。
7.根据权利要求1所述的一种基于超分辨率对抗生成级联网络的SAR小样本识别方法,其特征在于:步骤3所述的将超分辨率网络和分类网络级联之后,再次使用带有标签的数据对整体网络进行训练,其中基于Inception的感知网络以中间层输出作为输入,目标识别网络以超分辨率生成式对抗网络输出的超分辨图片作为输入,利用超分生成对抗网络以及Inception-ReNet-V2网络,Inception-ResNet-V2网络包括Inception-A、Inception-B和Inception-C三种Inception结构,Inception-ResNet-V2网络包括Stem层、4个Inception-A层,Reduction-A层、7个Inception-B层、Reduction-B层、3个Inception-C层,最后通过Average pooling层,即平均池化层,和Softmax输出结果,同时在网络中使用Dropout,认证损失的交叉熵损失计算表示为:
其中,P(m)表示模型输出的标签为m的时候的概率,假设y为真实的ID标签,因此对于所有的m≠y,有q(y)=1,q(m)=0,最终,所有的损失函数合并在一块,表示为:
CN201910177075.XA 2019-03-08 2019-03-08 一种基于超分辨率对抗生成级联网络的sar小样本识别方法 Active CN109871902B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910177075.XA CN109871902B (zh) 2019-03-08 2019-03-08 一种基于超分辨率对抗生成级联网络的sar小样本识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910177075.XA CN109871902B (zh) 2019-03-08 2019-03-08 一种基于超分辨率对抗生成级联网络的sar小样本识别方法

Publications (2)

Publication Number Publication Date
CN109871902A true CN109871902A (zh) 2019-06-11
CN109871902B CN109871902B (zh) 2022-12-13

Family

ID=66920071

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910177075.XA Active CN109871902B (zh) 2019-03-08 2019-03-08 一种基于超分辨率对抗生成级联网络的sar小样本识别方法

Country Status (1)

Country Link
CN (1) CN109871902B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110322418A (zh) * 2019-07-11 2019-10-11 北京航空航天大学 一种超分辨率图像生成对抗网络的训练方法及装置
CN110363792A (zh) * 2019-07-19 2019-10-22 广东工业大学 一种基于光照不变性特征提取的遥感图像变化检测方法
CN110490802A (zh) * 2019-08-06 2019-11-22 北京观微科技有限公司 一种基于超分辨率的卫星影像飞机目标型号识别方法
CN110570355A (zh) * 2019-09-12 2019-12-13 杭州海睿博研科技有限公司 多尺度自动聚焦超分辨率处理系统和方法
CN110866472A (zh) * 2019-11-04 2020-03-06 西北工业大学 一种无人机地面运动目标识别与图像增强系统及方法
CN111242087A (zh) * 2020-01-21 2020-06-05 华为技术有限公司 物体识别方法及装置
CN111339969A (zh) * 2020-03-02 2020-06-26 深圳市瑞立视多媒体科技有限公司 人体姿势估计方法、装置、设备及存储介质
CN112200721A (zh) * 2020-10-10 2021-01-08 广州云从人工智能技术有限公司 一种图像处理方法、系统、设备及介质
CN112200055A (zh) * 2020-09-30 2021-01-08 深圳市信义科技有限公司 联合对抗生成网络的行人属性识别方法、系统及装置
CN114359667A (zh) * 2021-12-30 2022-04-15 西安交通大学 一种基于生成式对抗网络的强度相干识别方法及设备
CN115410083A (zh) * 2022-08-24 2022-11-29 南京航空航天大学 一种基于对抗域适应的小样本sar目标分类方法及装置
CN111104967B (zh) * 2019-12-02 2023-12-22 精锐视觉智能科技(上海)有限公司 图像识别网络训练方法、图像识别方法、装置及终端设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537743A (zh) * 2018-03-13 2018-09-14 杭州电子科技大学 一种基于生成对抗网络的面部图像增强方法
CN109410239A (zh) * 2018-11-07 2019-03-01 南京大学 一种基于条件生成对抗网络的文本图像超分辨率重建方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537743A (zh) * 2018-03-13 2018-09-14 杭州电子科技大学 一种基于生成对抗网络的面部图像增强方法
CN109410239A (zh) * 2018-11-07 2019-03-01 南京大学 一种基于条件生成对抗网络的文本图像超分辨率重建方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LONG GANG WANG等: "Super-resolution SAR Image Reconstruction via Generative Adversarial Network", 《THE 12TH INTERNATIONAL SYMPOSIUM ANTENNAS, PROPAGATION, AND EM THEORY》 *
XIAORAN SHI等: "Automatic Target Recognition for Synthetic Aperture Radar Images Based on Super-Resolution Generative Adversarial Network and Deep Convolutional Neural Network", 《REMOTE SENSING》 *
汶茂宁: "基于轮廓波 CNN 和选择性注意机制的高分辨 SAR 目标检测和分类", 《中国优秀硕士学位论文数据库 信息科技辑》 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110322418A (zh) * 2019-07-11 2019-10-11 北京航空航天大学 一种超分辨率图像生成对抗网络的训练方法及装置
CN110363792A (zh) * 2019-07-19 2019-10-22 广东工业大学 一种基于光照不变性特征提取的遥感图像变化检测方法
CN110490802B (zh) * 2019-08-06 2021-01-19 北京观微科技有限公司 一种基于超分辨率的卫星影像飞机目标型号识别方法
CN110490802A (zh) * 2019-08-06 2019-11-22 北京观微科技有限公司 一种基于超分辨率的卫星影像飞机目标型号识别方法
CN110570355A (zh) * 2019-09-12 2019-12-13 杭州海睿博研科技有限公司 多尺度自动聚焦超分辨率处理系统和方法
CN110570355B (zh) * 2019-09-12 2020-09-01 杭州海睿博研科技有限公司 多尺度自动聚焦超分辨率处理系统和方法
CN110866472A (zh) * 2019-11-04 2020-03-06 西北工业大学 一种无人机地面运动目标识别与图像增强系统及方法
CN111104967B (zh) * 2019-12-02 2023-12-22 精锐视觉智能科技(上海)有限公司 图像识别网络训练方法、图像识别方法、装置及终端设备
CN111242087A (zh) * 2020-01-21 2020-06-05 华为技术有限公司 物体识别方法及装置
CN111242087B (zh) * 2020-01-21 2024-06-07 华为技术有限公司 物体识别方法及装置
CN111339969A (zh) * 2020-03-02 2020-06-26 深圳市瑞立视多媒体科技有限公司 人体姿势估计方法、装置、设备及存储介质
CN111339969B (zh) * 2020-03-02 2023-06-20 深圳市瑞立视多媒体科技有限公司 人体姿势估计方法、装置、设备及存储介质
CN112200055A (zh) * 2020-09-30 2021-01-08 深圳市信义科技有限公司 联合对抗生成网络的行人属性识别方法、系统及装置
CN112200055B (zh) * 2020-09-30 2024-04-30 深圳市信义科技有限公司 联合对抗生成网络的行人属性识别方法、系统及装置
CN112200721A (zh) * 2020-10-10 2021-01-08 广州云从人工智能技术有限公司 一种图像处理方法、系统、设备及介质
CN114359667B (zh) * 2021-12-30 2024-01-30 西安交通大学 一种基于生成式对抗网络的强度相干识别方法及设备
CN114359667A (zh) * 2021-12-30 2022-04-15 西安交通大学 一种基于生成式对抗网络的强度相干识别方法及设备
CN115410083B (zh) * 2022-08-24 2024-04-30 南京航空航天大学 一种基于对抗域适应的小样本sar目标分类方法及装置
CN115410083A (zh) * 2022-08-24 2022-11-29 南京航空航天大学 一种基于对抗域适应的小样本sar目标分类方法及装置

Also Published As

Publication number Publication date
CN109871902B (zh) 2022-12-13

Similar Documents

Publication Publication Date Title
CN109871902A (zh) 一种基于超分辨率对抗生成级联网络的sar小样本识别方法
CN110909690B (zh) 一种基于区域生成的遮挡人脸图像检测方法
CN110210362A (zh) 一种基于卷积神经网络的交通标志检测方法
CN110458038B (zh) 基于双链深度双流网络的小数据跨域动作识别方法
WO2021228088A1 (zh) 一种雾霾图像的雾浓度识别方法
CN109753929A (zh) 一种图库联合的高铁绝缘子巡检图像识别方法
CN110097145A (zh) 一种基于cnn和特征金字塔的交通违禁品识别方法
CN110060273B (zh) 基于深度神经网络的遥感影像滑坡测图方法
CN106485214A (zh) 一种基于卷积神经网络的眼睛和嘴部状态识别方法
CN103218831A (zh) 一种基于轮廓约束的视频运动目标分类识别方法
CN112418041B (zh) 一种基于人脸正面化的多姿态人脸识别方法
CN108764298A (zh) 基于单分类器的电力图像环境影响识别方法
CN103034868B (zh) 一种针对小样本以及高维图像的分类方法
CN108921215A (zh) 一种基于局部极值共生模式和能量分析的烟雾检测
CN107016366A (zh) 一种基于自适应滑动窗口和卷积神经网络的路牌检测方法
CN106600613B (zh) 基于嵌入式gpu的改进lbp红外目标检测方法
CN108961358A (zh) 一种获得样本图片的方法、装置及电子设备
CN109635726A (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN109598681A (zh) 一种对称唐卡修复后图像的无参考质量评价方法
CN109800768A (zh) 半监督gan的散列特征表示学习方法
CN106570885A (zh) 基于亮度和纹理融合阈值的背景建模方法
CN110210415A (zh) 基于图结构的车载激光点云道路标线识别方法
CN108830222A (zh) 一种基于信息性和代表性主动学习的微表情识别方法
Sakthimohan et al. Detection and Recognition of Face Using Deep Learning
CN110097524A (zh) 基于融合卷积神经网络的sar图像目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant