CN110163802A - 一种基于神经网络的sar图像超分辨方法 - Google Patents
一种基于神经网络的sar图像超分辨方法 Download PDFInfo
- Publication number
- CN110163802A CN110163802A CN201910421056.7A CN201910421056A CN110163802A CN 110163802 A CN110163802 A CN 110163802A CN 201910421056 A CN201910421056 A CN 201910421056A CN 110163802 A CN110163802 A CN 110163802A
- Authority
- CN
- China
- Prior art keywords
- image
- layer
- resolution
- neural network
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000013507 mapping Methods 0.000 claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 25
- 238000005457 optimization Methods 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 14
- 238000003475 lamination Methods 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 4
- 230000007480 spreading Effects 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims 1
- 239000010410 layer Substances 0.000 description 78
- 230000008034 disappearance Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
- G06T3/4076—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种基于神经网络的SAR图像超分辨方法,属于图像超分辨领域。本发明针对设定的神经网络结构,利用预测值与真实值间均方误差构建损失函数,将模型映射问题转换成损失函数的优化问题,确定神经网络各层的权重与偏置值,最终得到低分辨率‑高分辨率的映射关系;然后,将待处理的SAR图像输入网络即可得到超分辨结果。相比于现有技术,本发明能够有效加强特征传播,提高训练速度,得到更高质量的SAR图像超分辨结果。
Description
技术领域
本发明属于图像超分辨领域,特别涉及一种基于神经网络的SAR图像超分辨方法。
背景技术
合成孔径雷达(SAR)是一种具有高测绘分辨率的成像雷达。比起传统光学遥感,SAR具有全天时、全天候的工作特点,而且可以穿透某些障碍,在军事和民用领域均应用广泛。而就SAR图像而言,其所能得到的图像分辨率决定着其在应用方面的广度和深度,因而SAR图像超分辨研究具有重要的意义。
现有的图像超分辨方法有很多,大致可以分为三类:基于插值的方法,基于重建的方法,基于学习的方法。其中基于学习的方法,即利用低分辩率-高分辨率(LowResolution-High Resolution,LR-HR)图像对应的数据集,学习得到关于LR-HR的映射关系,进而对输入的低分辨率图像进行重建,能获得更加丰富的细节信息。
现有技术中,有使用神经网络进行图像超分辨重建的方法,但该方法的网络较浅,不足以充分学习到LR图像到HR图像之间的非线性映射关系;且网络的单向传播使图像的初步特征在靠后的层中十分微弱,影响到训练结果的质量;还有一种通过对多个中间结果的同时监督以及加权重建的方法,提升了训练效果和性能,但由于层间传播仅利用了前一层的信息,仍存在特征传播不充分等问题。
发明内容
本发明的目的在于克服现有技术的不足,通过在非线性映射层添加加权稠密连接,将该部分每一层的特征都输入给之后的层,从而有助于使整个网络减轻梯度消失,加强特征传播,支持特征复用,进而提高训练速度以及超分辨性能。
一种基于神经网络的SAR图像超分辨方法,包括以下步骤:
S1、获取训练集中的高分辨图像HR,对所述高分辨图像进行降采样,并将降采样后的图像扩展为所述高分辨图像的尺寸,得到低分辨图像LR,形成LR-HR图像对;
S2、将训练集中每一张HR和LR划分为固定大小的图像块,并将所述图像块随机打乱顺序,并保持LR-HR的对应关系不变,作为神经网络的训练数据;
S3、构建神经网络,输入训练数据,对所述神经网络进行训练;
S4、将待处理的SAR图像输入至训练好的神经网络中,输出得到超分辨结果。
进一步地,所述步骤S1包括:
对训练集中每一张高分辨图像HR按预设的scale进行降采样,得到大小为原HR图像1/scale2的图像,采用插值将图像扩展为与原HR图像相同的尺寸大小,得到低分辨图像LR,高分辨图像HR作为LR的标签,形成LR-HR一一对应的图像对。
进一步地,所述步骤S2包括:
将训练集中每一张LR和HR按照预设的batch size划分为固定大小的图像块,将图像块随机打乱顺序,并保持LR-HR对应关系不变。
进一步地,所述步骤S3包括:
S31、构建神经网络,设置网络结构;
S32、构造损失函数;
S33、网络参数设置。
进一步地,所述步骤S31包括:
所述神经网络包括特征提取、非线性映射、图像重建三个部分;
所述特征提取部分包括两个相连的卷积层,第1层卷积层的输出作为第2层卷积层的输入,第1层卷积层输入的低分辨图像通过两个卷积层进行特征提取,卷积层计算关系为
H-1=σ(ω-1x+b-1)
H0=σ(ω0H-1+b0)
其中,x表示低分辨图像,ωi(i=-1,0)分别表示特征提取第1层和第2层的权重,bi(i=-1,0)分别表示第1层和第2层卷积层的偏置值,σ表示激活函数,H-1和H0分别表示经过特征提取部分第1层和第2层卷积运算后输出的特征;
所述非线性映射部分包括N个依次相连的卷积层,每个卷积层在依次相连并添加加权稠密连接,每一层卷积层的输出以不同比例输入至之后的卷积层,即每一层卷积层以不同比例接收之前所有卷积层的输出,加权稠密连接的计算关系为
Hi=σ(ωixi+bi),i=1,2,...,N
其中,xi表示第i个非线性映射层的输入,Hi表示第i个非线性映射层的输出特征,aij表示第j层的输出特征传递给第i层输入的加权融合权重值;
所述图像重建部分包括两个重建层,将所述非线性映射部分的每一层卷积层得到的输出特征在第1个重建层进行卷积运算,得到N个重建结果,在N个重建结果中引入全局残差,并在第2个重建层中进行卷积运算,得到N个卷积重建结果,将所述卷积重建结果进行加权融合,得到输出图像,计算关系为
HFi=σ(ωFHi+bF)
xSi=HFi+x
HSi=σ(ωSxSi+bS)
其中,Hi表示第i个非线性映射层的输出特征,ωF和ωS分别表示第1个和第2个重建层的权重,bF和bS分别表示第1个和第2个重建层的偏置值,HFi和HSi分别表示第i个非线性特征层经过第1个和第2个重建层后的输出,xSi表示第2个重建层的第i个输出,Wi表示对N个重建结果进行加权相加的权值,Y为输出图像。
进一步地,所述步骤S32包括:
采用均方误差进行Loss函数设置
其中,y表示高分辨图像,Hi表示非线性映射部分第i层的输出特征,Y表示网络最终的输出图像,α表示权值衰减。
进一步地,所述步骤S33包括:
初始化学习速率、终止学习速率、学习率衰减倍数、超分辨倍数scale、batchsize;
采用Adam优化方法对Loss函数进行优化,确定所述神经网络的权重值和偏置值,确定超分辨映射关系。
本发明的有益效果:本发明提供了一种基于神经网络的SAR图像超分辨方法,本发明采用深层的卷积神经网络进行图像的超分辨率重构,利用加权稠密连接与全局残差相结合的方式,充分发挥残差学习和特征融合的优点,重建出具有丰富高频信息的高分辨率SAR图像。相比于现有技术,能有效地减轻梯度消失,提升了网络训练速度,提高了输出的超分辨效果。
附图说明
图1为本发明实施例的流程图。
图2为本发明实施例的神经网络结构图。
图3为待处理的SAR图。
图4为待处理的SAR图插值预处理后的结果图。
图5为本发明实施例的超分辨处理结果图。
具体实施方式
下面结合附图对本发明的实施例做进一步的说明。
请参阅图1,本发明提出了一种基于神经网络的SAR图像超分辨方法,通过以下步骤实现:
S1、获取训练集中的高分辨图像HR,对高分辨图像进行降采样,并将降采样后的图像扩展为高分辨图像的尺寸,得到低分辨图像LR,形成LR-HR图像对。
本实施例中,步骤S1为数据预处理。对训练集中每一张高分辨图像HR按设定的scale进行降采样,得到大小为原HR图像1/scale2的图像,采用数次插值将图像扩展为与原HR图像相同的尺寸大小,得到低分辨图像LR,高分辨图像HR作为LR的标签,形成LR-HR一一对应的图像对。
优选地,超分辨倍数scale设定为4,也可以为其他数值。
S2、将训练集中每一张HR和LR划分为固定大小的图像块,并将图像块随机打乱顺序,并保持LR-HR的对应关系不变,作为神经网络的训练数据。
本实施例中,将训练集中每一张LR和HR按照预设的batch size划分为batch size×batch size的图像块,将图像块随机打乱顺序,并保持LR-HR对应关系不变。
优选地,batch size设定为41,也可以为其他数值。
S3、构建神经网络,输入训练数据,对神经网络进行训练。
本实施例中,在进行神经网络前,需要进行网络结构设置,损失函数的设定及参数设置,具体为:
S31、构建神经网络,设置网络结构。
本实施例中,采用使用神经网络来学习LR-HR之间的映射关系需要提取出输入图像中包含的特征信息,进而构建非线性映射,最后重建HR图像,构建的神经网络包括特征提取、非线性映射、图像重建三个部分,如图2所示。
特征提取部分
对于使用神经网络来学习端到端的映射,需要首先提取图像的特征信息,这里对输入网络的低分辨率图像通过两个卷积层进行特征提取。如图2中①所示,特征提取部分包括两个依次相连的卷积层,第1层卷积层的输出作为第2层卷积层的输入,第1层卷积层输入的低分辨图像通过两个卷积层进行特征提取,卷积层计算关系为
H-1=σ(ω-1x+b-1)
H0=σ(ω0H-1+b0)
其中,x表示经过预处理后的低分辨图像,ωi(i=-1,0)分别表示特征提取第1层和第2层的权重,bi(i=-1,0)分别表示第1层和第2层卷积层的偏置值,σ表示激活函数,H-1和H0分别表示经过特征提取部分第1层和第2层卷积运算后输出的特征。
优选地,本发明实施例中激活函数采用线性修正单元(ReLU),也可以选用其它激活函数。
非线性映射部分
为了解决网络层数加深带来的梯度消失,训练困难等问题,本发明在非线性映射部分添加了加权稠密连接,在每个卷积层依次相连的基础上,添加加权稠密连接,结构如图2中②所示。非线性映射部分包括N个依次相连的卷积层,每个卷积层在依次相连并添加加权稠密连接,每一层卷积层的输出以不同比例输入至之后的卷积层,即每一层卷积层以不同比例接收之前所有卷积层的输出,加权稠密连接的计算关系为
Hi=σ(ωixi+bi),i=1,2,...,N
其中,xi表示第i个非线性映射层的输入,Hi表示第i个非线性映射层的输出特征,aij表示第j层的输出特征传递给第i层输入的加权融合权重值,ωi(i=1,2,...,N)分别表示非线性映射第1层、第2层至第N层的权重。
优选地,本发明实施例中的非线性映射部分由10个这样连接的卷积层组成,即N=10,N也可以为其它数值。
图像重建部分
本实施例中,先将非线性映射部分的每一卷积层得到的特征经过两个重建层进行重建,在重建过程中加入全局残差,随后将这N个经过重建的结果加权融合,得到高分辨率图像。
具体地,图像重建部分包括两个重建层,将非线性映射部分的每一层卷积层得到的输出特征在第1个重建层进行卷积运算,得到N个重建结果,在N个重建结果中引入全局残差,并在第2个重建层中进行卷积运算,得到N个卷积重建结果,将卷积重建结果进行加权融合,得到输出图像,计算关系为
HFi=σ(ωFHi+bF)
xSi=HFi+x
HSi=σ(ωSxSi+bS)
其中,Hi表示第i个非线性映射层的输出特征,ωF和ωS分别表示第1个和第2个重建层的权重,bF和bS分别表示第1个和第2个重建层的偏置值,HFi和HSi分别表示第i个非线性特征层经过第1个和第2个重建层后的输出,xSi表示第2个重建层的第i个输出,Wi表示对N个重建结果进行加权相加的权值,Y为输出图像。
S32、构造损失函数。
本实施例中,本发明是要构建一个低分辨(LR)图像到高分辨(HR)图像之间的映射,因此目的在于最小化本网络输出图像Y与原高分辨率图像HR之间的差异,这就是本发明中构造损失函数的依据,采用均方误差进行Loss函数设置
其中,y表示高分辨图像,Hi表示非线性映射部分第i层的输出特征,Y表示网络最终的输出图像,α表示权值衰减,初始值为1,此时Loss函数只有前面项,优化算法致力于优化非线性映射每一卷积层的输出特征与真实图像之间的差异,随着训练进行,Loss不断减小,此时令α按照设定的衰减速率进行衰减,则Loss函数的优化逐渐转移到后边项,即使用优化算法来减小最终输出Y与真实图像的差异。
S33、网络参数设置。
初始化学习速率ε设定为0.001,当学习速率衰减到终止学习速率εe=0.00001时训练结束,学习率衰减倍数εd设定为0.5,超分辨倍数scale设定为4,batch size设定为41。
采用Adam优化方法对Loss函数进行优化,确定神经网络的权重值和偏置值,确定低分辨率-高分辨率的超分辨映射关系。
S4、将待处理的SAR图像输入至训练好的神经网络中,输出得到超分辨结果。
本实施例中,将图3所示的待处理SAR图像输入至训练好的网络中,图4为其插值预处理所得结果,图5为超分辨结果。
本领域的普通技术人员将会意识到,这里的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
Claims (7)
1.一种基于神经网络的SAR图像超分辨方法,其特征在于,包括以下步骤:
S1、获取训练集中的高分辨图像HR,对所述高分辨图像进行降采样,并将降采样后的图像扩展为所述高分辨图像的尺寸,得到低分辨图像LR,形成LR-HR图像对;
S2、将训练集中每一张HR和LR划分为固定大小的图像块,并将所述图像块随机打乱顺序,并保持LR-HR的对应关系不变,作为神经网络的训练数据;
S3、构建神经网络,输入训练数据,对所述神经网络进行训练;
S4、将待处理的SAR图像输入至训练好的神经网络中,输出得到超分辨结果。
2.如权利要求1所述的基于神经网络的SAR图像超分辨方法,其特征在于,所述步骤S1包括:
对训练集中每一张高分辨图像HR按预设的scale进行降采样,得到大小为原HR图像1/scale2的图像,采用插值将图像扩展为与原HR图像相同的尺寸大小,得到低分辨图像LR,高分辨图像HR作为LR的标签,形成LR-HR一一对应的图像对。
3.如权利要求1所述的基于神经网络的SAR图像超分辨方法,其特征在于,所述步骤S2包括:
将训练集中每一张LR和HR按照预设的batch size划分为固定大小的图像块,将图像块随机打乱顺序,并保持LR-HR对应关系不变。
4.如权利要求1所述的基于神经网络的SAR图像超分辨方法,其特征在于,所述步骤S3包括:
S31、构建神经网络,设置网络结构;
S32、构造损失函数;
S33、网络参数设置。
5.如权利要求4所述的基于神经网络的SAR图像超分辨方法,其特征在于,所述步骤S31包括:
所述神经网络包括特征提取、非线性映射、图像重建三个部分;
所述特征提取部分包括两个相连的卷积层,第1层卷积层的输出作为第2层卷积层的输入,第1层卷积层输入的低分辨图像通过两个卷积层进行特征提取,卷积层计算关系为
H-1=σ(ω-1x+b-1)
H0=σ(ω0H-1+b0)
其中,x表示低分辨图像,ωi(i=-1,0)分别表示特征提取第1层和第2层的权重,bi(i=-1,0)分别表示第1层和第2层卷积层的偏置值,σ表示激活函数,H-1和H0分别表示经过特征提取部分第1层和第2层卷积运算后输出的特征;
所述非线性映射部分包括N个依次相连的卷积层,每个卷积层在依次相连并添加加权稠密连接,每一层卷积层的输出以不同比例输入至之后的卷积层,即每一层卷积层以不同比例接收之前所有卷积层的输出,加权稠密连接的计算关系为
Hi=σ(ωixi+bi),i=1,2,...,N
其中,xi表示第i个非线性映射层的输入,Hi表示第i个非线性映射层的输出特征,aij表示第j层的输出特征传递给第i层输入的加权融合权重值;
所述图像重建部分包括两个重建层,将所述非线性映射部分的每一层卷积层得到的输出特征在第1个重建层进行卷积运算,得到N个重建结果,在N个重建结果中引入全局残差,并在第2个重建层中进行卷积运算,得到N个卷积重建结果,将所述卷积重建结果进行加权融合,得到输出图像,计算关系为
HFi=σ(ωFHi+bF)
xSi=HFi+x
HSi=σ(ωSxSi+bS)
其中,Hi表示第i个非线性映射层的输出特征,ωF和ωS分别表示第1个和第2个重建层的权重,bF和bS分别表示第1个和第2个重建层的偏置值,HFi和HSi分别表示第i个非线性特征层经过第1个和第2个重建层后的输出,xSi表示第2个重建层的第i个输出,Wi表示对N个重建结果进行加权相加的权值,Y为输出图像。
6.如权利要求5所述的基于神经网络的SAR图像超分辨方法,其特征在于,所述步骤S32包括:
采用均方误差进行Loss函数设置
其中,y表示高分辨图像,Hi表示非线性映射部分第i层的输出特征,Y表示网络最终的输出图像,α表示权值衰减。
7.如权利要求6所述的基于神经网络的SAR图像超分辨方法,其特征在于,所述步骤S33包括:
初始化学习速率、终止学习速率、学习率衰减倍数、超分辨倍数scale、batch size;
采用Adam优化方法对Loss函数进行优化,确定所述神经网络的权重值和偏置值,确定超分辨映射关系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910421056.7A CN110163802B (zh) | 2019-05-20 | 2019-05-20 | 一种基于神经网络的sar图像超分辨方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910421056.7A CN110163802B (zh) | 2019-05-20 | 2019-05-20 | 一种基于神经网络的sar图像超分辨方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110163802A true CN110163802A (zh) | 2019-08-23 |
CN110163802B CN110163802B (zh) | 2020-09-01 |
Family
ID=67631457
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910421056.7A Active CN110163802B (zh) | 2019-05-20 | 2019-05-20 | 一种基于神经网络的sar图像超分辨方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110163802B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111340088A (zh) * | 2020-02-21 | 2020-06-26 | 苏州工业园区服务外包职业学院 | 图像特征训练方法、模型、装置和计算机存储介质 |
CN112435162A (zh) * | 2020-11-13 | 2021-03-02 | 中国科学院沈阳自动化研究所 | 一种基于复数域神经网络的太赫兹图像超分辨重建方法 |
CN112488924A (zh) * | 2020-12-21 | 2021-03-12 | 深圳大学 | 一种图像超分辨率模型训练方法、重建方法及装置 |
CN113421190A (zh) * | 2021-06-24 | 2021-09-21 | 深圳大学 | 一种超分辨率方法、装置、计算机设备及存储介质 |
CN113538307A (zh) * | 2021-06-21 | 2021-10-22 | 陕西师范大学 | 基于多视角超分辨深度网络的合成孔径成像方法 |
CN114545405A (zh) * | 2022-02-24 | 2022-05-27 | 电子科技大学 | 一种基于神经网络的实波束扫描雷达角超分辨方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3259916A1 (en) * | 2015-02-19 | 2017-12-27 | Magic Pony Technology Limited | Visual processing using sub-pixel convolutions |
CN108765290A (zh) * | 2018-05-29 | 2018-11-06 | 天津大学 | 一种基于改进的稠密卷积神经网络的超分辨率重建方法 |
CN109102015A (zh) * | 2018-08-06 | 2018-12-28 | 西安电子科技大学 | 一种基于复数神经网络的sar图像变化检测方法 |
CN109101905A (zh) * | 2018-07-27 | 2018-12-28 | 河海大学 | 基于深度卷积神经网络的sar图像地物分类识别方法 |
CN109325947A (zh) * | 2018-09-20 | 2019-02-12 | 北京航空航天大学 | 一种基于深度学习的sar图像铁塔目标检测方法 |
CN109359631A (zh) * | 2018-11-30 | 2019-02-19 | 南京大学 | 一种基于卷积神经网络的海冰类型遥感分类方法 |
-
2019
- 2019-05-20 CN CN201910421056.7A patent/CN110163802B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3259916A1 (en) * | 2015-02-19 | 2017-12-27 | Magic Pony Technology Limited | Visual processing using sub-pixel convolutions |
CN108765290A (zh) * | 2018-05-29 | 2018-11-06 | 天津大学 | 一种基于改进的稠密卷积神经网络的超分辨率重建方法 |
CN109101905A (zh) * | 2018-07-27 | 2018-12-28 | 河海大学 | 基于深度卷积神经网络的sar图像地物分类识别方法 |
CN109102015A (zh) * | 2018-08-06 | 2018-12-28 | 西安电子科技大学 | 一种基于复数神经网络的sar图像变化检测方法 |
CN109325947A (zh) * | 2018-09-20 | 2019-02-12 | 北京航空航天大学 | 一种基于深度学习的sar图像铁塔目标检测方法 |
CN109359631A (zh) * | 2018-11-30 | 2019-02-19 | 南京大学 | 一种基于卷积神经网络的海冰类型遥感分类方法 |
Non-Patent Citations (1)
Title |
---|
ZELING WU 等: "Super-resolution Reconstruction of SAR Image based on Non-Local Means Denoising Combined with BP Neural Network", 《RESEARCHGATE》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111340088A (zh) * | 2020-02-21 | 2020-06-26 | 苏州工业园区服务外包职业学院 | 图像特征训练方法、模型、装置和计算机存储介质 |
CN112435162A (zh) * | 2020-11-13 | 2021-03-02 | 中国科学院沈阳自动化研究所 | 一种基于复数域神经网络的太赫兹图像超分辨重建方法 |
CN112488924A (zh) * | 2020-12-21 | 2021-03-12 | 深圳大学 | 一种图像超分辨率模型训练方法、重建方法及装置 |
CN112488924B (zh) * | 2020-12-21 | 2023-10-27 | 深圳大学 | 一种图像超分辨率模型训练方法、重建方法及装置 |
CN113538307A (zh) * | 2021-06-21 | 2021-10-22 | 陕西师范大学 | 基于多视角超分辨深度网络的合成孔径成像方法 |
CN113421190A (zh) * | 2021-06-24 | 2021-09-21 | 深圳大学 | 一种超分辨率方法、装置、计算机设备及存储介质 |
CN114545405A (zh) * | 2022-02-24 | 2022-05-27 | 电子科技大学 | 一种基于神经网络的实波束扫描雷达角超分辨方法 |
CN114545405B (zh) * | 2022-02-24 | 2023-05-02 | 电子科技大学 | 一种基于神经网络的实波束扫描雷达角超分辨方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110163802B (zh) | 2020-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163802A (zh) | 一种基于神经网络的sar图像超分辨方法 | |
CN111259898B (zh) | 基于无人机航拍图像的农作物分割方法 | |
CN108564611A (zh) | 一种基于条件生成对抗网络的单目图像深度估计方法 | |
CN112580782B (zh) | 基于通道增强的双注意力生成对抗网络及图像生成方法 | |
CN109509152A (zh) | 一种基于特征融合的生成对抗网络的图像超分辨率重建方法 | |
CN109685716B (zh) | 一种基于高斯编码反馈的生成对抗网络的图像超分辨率重建方法 | |
CN109829855A (zh) | 一种基于融合多层次特征图的超分辨率重建方法 | |
CN109086700A (zh) | 基于深度卷积神经网络的雷达一维距离像目标识别方法 | |
CN109214989B (zh) | 基于多方向特征预测先验的单幅图像超分辨率重建方法 | |
CN108416755A (zh) | 一种基于深度学习的图像去噪方法及系统 | |
CN106981080A (zh) | 基于红外图像和雷达数据的夜间无人车场景深度估计方法 | |
CN107133919A (zh) | 基于深度学习的时间维视频超分辨率方法 | |
CN109584162A (zh) | 一种基于生成网络的图像超分辨率重构的方法 | |
CN107784628A (zh) | 一种基于重建优化和深度神经网络的超分辨率实现方法 | |
CN110210524A (zh) | 一种图像增强模型的训练方法、图像增强方法及装置 | |
CN109544457A (zh) | 基于致密链接神经网络的图像超分辨率方法、存储介质和终端 | |
CN110675462A (zh) | 一种基于卷积神经网络的灰度图像彩色化方法 | |
CN113343705A (zh) | 一种基于文本语义的细节保持图像生成方法及系统 | |
CN110148091A (zh) | 基于非局部注意力机制的神经网络模型及图像超分辨方法 | |
CN107103285A (zh) | 基于卷积神经网络的人脸深度预测方法 | |
CN112818777B (zh) | 一种基于密集连接与特征增强的遥感图像目标检测方法 | |
CN111861924B (zh) | 一种基于进化gan的心脏磁共振图像数据增强方法 | |
CN110363770A (zh) | 一种边缘引导式红外语义分割模型的训练方法及装置 | |
CN109447897A (zh) | 一种真实场景图像合成方法及系统 | |
CN107590775A (zh) | 一种利用回归树场的图像超分辨率放大方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |