CN110930343A - 基于sr-mdcnn的遥感图像融合方法 - Google Patents

基于sr-mdcnn的遥感图像融合方法 Download PDF

Info

Publication number
CN110930343A
CN110930343A CN201911153419.XA CN201911153419A CN110930343A CN 110930343 A CN110930343 A CN 110930343A CN 201911153419 A CN201911153419 A CN 201911153419A CN 110930343 A CN110930343 A CN 110930343A
Authority
CN
China
Prior art keywords
image
network
remote sensing
model
mdcnn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911153419.XA
Other languages
English (en)
Inventor
张秀再
宫浩
胡敬锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN201911153419.XA priority Critical patent/CN110930343A/zh
Publication of CN110930343A publication Critical patent/CN110930343A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于SR‑MDCNN的遥感图像融合方法,属于人工智能图像融合领域,首先将获取到的遥感图像进行均匀分割,使图片的尺寸满足网络设定的输入图像;接下来将裁剪后的图像进行双三次插值再下采样得到低质量图像,将低质量图像作为输入,高质量图像作为目标图像的标签制作训练数据集,将图像输入超分辨率多尺度空洞卷积神经网络的遥感图像进行训练;在网络模型loss值达到预期要求后导出模型;再将测试集图片输入到训练好的模型中,根据模型的输出得到高质量的多光谱图像,最后使用SFIM算法对高质量的多光谱图像和全色图像进行融合,优点在于借助了卷积神经网络处理图像的准确性和稳定性,相较于传统的图像融合算法,该网络模型具有较好的融合效果。

Description

基于SR-MDCNN的遥感图像融合方法
技术领域
本发明涉及遥感图像,涉及一种基于SR-MDCNN的遥感图像融合方法。
背景技术
传统的遥感图像融合方法主要是对全色(PAN)图像的图像空间细节和多光谱(MS)图像的光谱信息的组合。
但仅对MS图像进行简单的插值放大,会丢失多光谱图像中大量空间细节信息,从而在融合时产生一定的光谱失真。Jinying Zhong等在2016年提出一种结合人工神经网络对遥感图像进行先增强再融合的方法,其算法主要分为两个部分:首先使用超分辨率卷积神经网络(SRCNN)对低分辨率MS图像进行增强;再使用Gram-Schmidt方法对增强后的MS图像以及原有的PAN图像进行融合。其融合结果相较使用原MS图像的融合结果,细节信息的保留得到了一定提升。但由于SRCNN的增强任务是针对自然图像,且拟合性效果不好,融合后的图像会出现空间信息丢失以及光谱失真的现象。
发明内容
发明目的:本发明的目的是提供一种基于SR-MDCNN的遥感图像融合方法,对数据拟合效果差和对图像增强能力弱的缺点,提供了基于超分辨率多尺度空洞卷积神经网络的遥感图像融合方法,对经典网络的滤波器进行更换,简化网络结构,再结合批量归一化,以提加快网络的训练速度和提高对遥感图像识别的准确率。
技术方案:本发明所述的基于SR-MDCNN的遥感图像融合方法,包括以下步骤
1)将从网络上获取到的图片裁剪成适合输入模型尺寸并生成新的图像;
2)将步骤1)中生成新的图像中的I通道单独拿出,经双三次插值及下采样后与步骤1)中的新的图像一一对应生成训练集;
3)将步骤2)中的数据集放入神经网络中训练得到训练后的模型;
4)将待待融合图像输入步骤3)中生成的模型,通过模型得到增强后的多光谱图像;
5)将增强后的多光谱图像与全色图像通过SFIM算法进行融合,得到融合收的图像。
有益效果:本发明针对遥感图像丰富的影像细节,利用卷积神经网络在超分辨率恢复中的优势,基于超分辨率多尺度空洞卷积神经网络研究了一种基于多尺度扩张卷积神经网络与SFIM算法结合的遥感融合算法。在6层卷积层的神经网络中加入了多尺度扩张卷积模块以及残差学习单元,有效降低了网络的loss值,提高了网络的拟合能力,针对图像的增强较其他神经网络相比,有较好的效果;结合SFIM算法后,能有效地对遥感图像进行处理。
附图说明
图1为算法主要流程
图2为超分辨率空洞多尺度卷积神经网络(SR-MDCNN)结构;
图3为加入跳跃链接对网络拟合的影响;
图4为网络主要结构;
图5为Relu激活函数与PRelu激活函数;
图6为各算法对WorldView-2卫星建筑物融合图像对比;
图7为各算法对WorldView-2卫星建筑物融合图像残差对比;
图8为各算法对WorldView-2卫星复杂场景融合图像对比;
图9为各算法对Quick-bird卫星简单场景融合图像对比;
图10为各算法对Quick-bird卫星简单场景融合图像残差对比;
图11为各算法对Quick-bird卫星复杂场景融合图像对比。
具体实施方式
1算法流程
包括以下步骤:
1)将从网络上获取到的图片裁剪成适合输入模型尺寸并生成新的图像;
2)将步骤1)中生成新的图像中的I通道单独拿出,经双三次插值及上采样后与步骤1)中的新的图像一一对应生成训练集;
3)将步骤2)中的数据集放入神经网络中训练得到训练后的模型;
4)将待待融合图像输入步骤3)中生成的模型,通过模型得到增强后的多光谱图像;
5)将增强后的多光谱图像与全色图像通过SFIM算法进行融合,得到融合后的图像。
具体为首先将低分辨率的MS图像上采样至PAN图像大小,再将MS图像中的RGB通道转换到YCBCR空间,通过神经网络对其中的Y通道进行增强,再将被强化后的Y通道转换到RGB空间以获得增强后的MS图像。最后使用SFIM算法对增强后的MS图像和PAN图像融合。
SFIM算法是一种通过改变波段图像的DN值完成图像融合的一种算法。其简化公式如下:
Figure BDA0002284184200000021
其中DNlow是是经过配准的低空间分辨率图像像元的灰度值;DNhigh是高空间分辨率图像像元的灰度值;DNmean是一个模拟的低分辨率图像的像元的灰度值,它是在一个大小与低分辨率图像的空间分辨率相同的邻域采用平滑滤波方法从高分辨率图像中提取出的。
2 CNN网络结构
卷积核是CNN的模型的核心组成部分,使用更深的网络可以实现较为复杂的非线性映射,但伴随网络层数的增加,也会形成网络退化的现象。由于遥感图像样本数量的限制,为避免较深网络产生的过拟合现象,本使用6层网络进行训练,超分辨率空洞多尺度卷积神经网络(SR-MDCNN)结构如图2所示。网络为进一步提高网络的拟合能力,在网络中加入了残差学习单元。
2.1残差学习单元
残差学习单元可以通过将降级的卷积直接拟合到相应的残余分量来形成。而跳跃连接是另一种引入残差表示的方法可以直接形成输入到输出的连接。网络使用跳跃连接来引入整体残差学习策略,可以在模型中补偿丢失的细节。为了进一步验证所提出模型中残差学习的效率,从本网络模型中删除了跳跃连接,使用网络loss值作为评价标准,加入跳跃链接对网络拟合的影响如图3所示。
由图3可知,在网络中引入残差单元后,loss值相较使用残差单元前的网络有所下降,网络对于数据集的学习能增强了,提高了网络的拟合能力,有效地避免了网络的退化。
2.2多尺度空洞卷积
图像相邻像素信息的获取有助于对整体图像的恢复,为此采取较大的卷积核和增加堆叠效应可以有效提升对图像细节信息的提取。但伴随着卷积核的增大,会引入较大的卷积核,增加网络的参数,提高计算成本和计算负担。因此使用适当的卷积核成为搭建网络的关键。作为感受野和网络复杂性之间的权衡,扩张卷积(Multiscale ConvolutionBlock)被提出。扩张卷积以其感受野的扩展能力而不会引入额外的计算复杂性著称。对于基本的3×3卷积,具有扩张因子s(s-DConv)的扩张滤波器可以被解释为大小为(2s+1)×(2s+1)的稀疏滤波器。扩张过滤器的感受野相当于2s+1,而只有9个固定位置的入口是非零。网络主要结构如图4(a)所示。
在网络的第一层到第三层分别使用了扩张多尺度空洞卷积。目的是为了在前面的卷积层使用多种卷积核对图像不同细节的捕捉的同时,网络的数据量仍保持原水平。既可以很好地恢复出高质量的遥感图像也不会增加计算成本。
由于卷积神经网络是通过多个卷积层堆叠形成的,随着网络的深入,对于特征提取可能会存在退化。为充分提取网络信息本提出了多尺度空洞卷积(Multilevel Dilatedblock)的方法,取得了较好的效果,其结构如图4(b)所示。针对三种网络结构的拟合效果,每1000次取一次loss值共计训练3×104次。
3实验
3.1数据集
遥感图像数据集源于遥感图像数据集,数据集可以在线获取
(http://www.digitalglobe.com/resources/product-samples)。在实验中,处理数据集时通过遵循Wald方法对MS图像进行下采样以产生缩小的比例对。在这种情况下,将原始MS图像作为训练标签的原始图像(Groundtruth),将经过上采样的MS图像作为被训练的图像输入神经网络。实验采用windows操作系统下的Caffe开源框架及CUDA-GPU加速方案。将数据集裁剪制作完成后,储存到后一级深度学习计算机中,再通过一块Nvidia GTX1080运算单元执行Caffe框架。
3.2激活函数及损失函数
ReLU(Rectified Linear Units)是Alex等在2012年提出的激活函数。如图5(a)所示,当x<0时,PReLU函数硬饱和,而当x>0时,则不存在饱和问题。所以,ReLU能够在x>0时保持梯度不衰减,从而缓解梯度消失问题。在直接以监督的方式训练深度神经网络时无需依赖无监督的逐层预训练。随着训练的推进,部分输入会落入硬饱和区,导致对应权重无法更新。这种现象被称为“神经元死亡”。与sigmoid类似,ReLU的输出均值也大于0,偏移现象和神经元死亡会共同影响网络的收敛性。如图5(b)所示,Kaiming He等人在2015年提出了PRelu激活函数,在激活函数中引入了学习率等权重更新系数,可以有效解决权重无法更新的现象,其公式如下
Figure BDA0002284184200000041
其中ai为预设为0.25的常数,其更新公式为
Figure BDA0002284184200000042
其中μ为动量,ε为学习率。
SR-MDCNN使用随机梯度下降法对网络进行更新,初始学习率ε设为0.01,,动量μ设为0.9。同时由于图像的特殊性,在训练时使用梯度裁剪,以防止梯度爆炸的现象出现。由于网络层数较浅,本共训练3×104次,每1000次测试一次,每10000次导出一次训练模型。
3.3有效性分析
对遥感图像融合的主观评价主要从对全色图像空间信息的插入和对原多光谱图像中光谱信息的保留。选取IHS、SRCNN+GS、PCA、PRACS、Brovey五种方法作为对比算法。分别选取单一场景的遥感图像和复杂场景的图像做实验。其对图像融合的结果如图6和图8所示。在图6与图8中,(a)、(b)、(c)分别为PAN图像、上采样之前的MS图像以及上采样后的LMS图像,以其做为参考标准对各算法进行主观评价。在图6中各算法对图像融合细节恢复直观上都比较好,基本可以对空间信息完整地保留。在比较单一的场景下各算法的主观评价都较为接近,只有IHS算法融合的图像出现较为严重的光谱失真。
对于细节恢复得较好的图像,使用融合后的图像与GT作差可以较为清楚地看出算法恢复出图像光谱的失真以及空间信息的丢失。图7即为各图像与GT的残差显示。
图7中(a)与(b)分别为对缺失光谱信息的PAN图像和缺失空间信息的LMS图像所做的残差。PAN的残差轮廓较为清晰,没有零星的斑点,但是整体背景较亮是缺失光谱的现象。以此标准判断,PCA、IHS、Brovey以及SRCNN+GS四种算法对于光谱的恢复都有较大的偏差,具体表现可以从白顶建筑物的残差图像中看出。PRACS和本算法都有较好的光谱恢复效果。但是本算法的残差图中零星白色光斑要少于PRACS算法,所以在单一场景的影响融合中本算法要优于其他几种算法。
由于各类物体对于光的反射率不同,在对场景较为复杂的图像融合时会出现较为严重的光谱失真和难以解决的混元现象。在进行实验时,选取了一组比图6场景更为复杂的图像实验。由于场景信息较为复杂图8中各算法对图像的融合效果相较于图6中较差。
在图8中基于PCA变换的融合方法展现出的效果最差。其对于光谱和细节的恢复都比较差,图像中不仅无法辨认出建筑物的轮廓,还在全图的植被部分出现了大量的混元现象。由于实验图像中植被和建筑混杂,实验结果中的光谱信息和空间信息基本已无法辨认。IHS算法对细节的恢复比较好,相较于PCA算法对图像中混元的现象处理得不错,这点与的Brovey算法较为类似。SRCNN+GS方法、PRACS以及本文提出的算法对图像融合的效果整体都都比较好。SRCNN+GS方法与PRACS都存在对图像细节恢复不够的问题。图8(g)、(h)中右下角和左上角的建筑物轮廓已经无法看清。相较于SRCNN+GS方法PRACS与提出的算法对于图像中的森林部分的恢复有较好的效果。但PRACS方法整体色彩过于明艳,且部分森林地带已出现高斯模糊的现象。相较之下,本文提出的算法在视觉效果上有较大的优势。
图8中各算法对融合后图像的各项指标如表1所示。由表1可知,PCA在两类评价标准(光谱和结构)中的表现都不好,各项参考标准都是最低的。Brovey方法对于光谱的恢复以及图像结构的重构在数据上都优于其他三种对比算法,这与主观评价标准存在较大的出入。主要由于图像中的森林隐藏了大部分无法辨识的结构畸变,导致主观评价标准与客观评价标准存在一定的出入。本文提出的算法在光谱以及图像结构上都优于其他几种比较的算法,这点与主观评价标准一致。本文提出的算法无论在主观评价标准还是在客观评价标准都优于其他几种对比算法,所以基于空洞多尺度卷积神经网络的遥感图像融合算法与其他的算法相比具有较大的优势。
表1各算法对WorldView-2卫星遥感图像的融合的客观评价
Figure BDA0002284184200000061
3.4泛化性能
由于卫星型号的差异,其传感器的成像方式也存在较大的不同。不同成像方式会造成获取到的遥感图像在处理时需要使用不同的方法,否则会引起较大的光谱失真。现分别选取Quick-bird卫星简单场景和复杂场景的两组遥感图像作为实验对象,其实验结果如图9和图10所示。
由图9可知,由于遥感图像的场景较为简单,直观上无法较为清晰地看出各算法的优劣程度,故做残差图如图10所示。由图10可知,很明显PCA、IHS、Brovey以及SRCNN+GS的零星光点都比较多,对于细节的恢复都比较差。尤其是IHS、Brovey以及SRCNN+GS算法,在图像的右侧出现大面积光点。本算法和PRACS的效果相较来说要好一些。但也存在一些细节的丢失,这点和在Worldview-2卫星的图像上的实验结果存在一些差距。
由图11可知,各算法对于图像恢复得效果都比较差,其中PCA、IHS、Brovey和SRCNN+GS方法中出现大量光谱信息丢失。PRACS方法在植被部分的颜色过于鲜艳,出现了过增的现象,整体效果相对于前四种算法效果较好。本算法在光谱信息的保留相对来说要优于PCA、IHS、Brovey和SRCNN+GS方法,但仍旧存在一些问题,比如对植被光谱的保留上效果也不好。
综上所述,本算法针对Quick-bird卫星图像融合有一定的泛化性,对于简单场景的遥感图像可以较好地注入空间细节保留光谱信息。但对于比较复杂的场景,算法的效果比较一般。

Claims (5)

1.一种基于SR-MDCNN的遥感图像融合方法,其特征在于包括以下步骤:
1)将从网络上获取到的图片裁剪成适合输入模型尺寸并生成新的图像;
2)将步骤1)中生成新的图像中的Y通道单独拿出,经双三次插值与上采样后与步骤1)中的新的图像一一对应生成训练集;
3)将步骤2)中的数据集放入神经网络中训练得到训练后的模型;
4)将待待融合图像输入步骤3)中生成的模型,通过模型得到增强后的多光谱图像;
5)将增强后的多光谱图像与全色图像通过SFIM算法进行融合,得到融合收的图像。
2.根据权利要求1所述的基于SR-MDCNN的遥感图像融合方法,其特征在于在步骤1)中,将从网络上获取到的图像上采样至PAN图像大小,再将从网络上获取到的图像中的RGB通道转换到YCBCR空间,通过神经网络对其中的Y通道进行增强,再将被强化后的Y通道转换到RGB空间以获得新的图像,新的图像相比于从网络上获取到的图像质量得到增强。
3.根据权利要求1所述的基于SR-MDCNN的遥感图像融合方法,其特征在于在步骤2)中,该模型为CNN的模型,其神经网络中使用6层网络进行训练以避免较深网络产生的过拟合现象。
4.根据权利要求2所述的基于SR-MDCNN的遥感图像融合方法,其特征在于在神经网络中加入通过将降级的卷积直接拟合到相应的残余分量来形成的残差学习单元,残差学习单元以补偿在模型中丢失的细节。
5.根据权利要求2所述的基于SR-MDCNN的遥感图像融合方法,其特征在于该模型的核心组成部分为扩张卷积,在神经网络的第一层到第三层分别使用了扩张多尺度空洞卷积。
CN201911153419.XA 2019-11-22 2019-11-22 基于sr-mdcnn的遥感图像融合方法 Pending CN110930343A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911153419.XA CN110930343A (zh) 2019-11-22 2019-11-22 基于sr-mdcnn的遥感图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911153419.XA CN110930343A (zh) 2019-11-22 2019-11-22 基于sr-mdcnn的遥感图像融合方法

Publications (1)

Publication Number Publication Date
CN110930343A true CN110930343A (zh) 2020-03-27

Family

ID=69851606

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911153419.XA Pending CN110930343A (zh) 2019-11-22 2019-11-22 基于sr-mdcnn的遥感图像融合方法

Country Status (1)

Country Link
CN (1) CN110930343A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112508832A (zh) * 2020-12-03 2021-03-16 中国矿业大学 一种面向对象的遥感影像数据时空融合方法、系统及设备
WO2022222352A1 (zh) * 2021-04-22 2022-10-27 海南大学 基于残差网络的遥感全色和多光谱图像分布式融合方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105303542A (zh) * 2015-09-22 2016-02-03 西北工业大学 基于梯度加权的自适应sfim图像融合算法
CN109272010A (zh) * 2018-07-27 2019-01-25 吉林大学 基于卷积神经网络的多尺度遥感图像融合方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105303542A (zh) * 2015-09-22 2016-02-03 西北工业大学 基于梯度加权的自适应sfim图像融合算法
CN109272010A (zh) * 2018-07-27 2019-01-25 吉林大学 基于卷积神经网络的多尺度遥感图像融合方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FISHER YU等: "Multi-scale Context Aggregation by Dilated Convolutions", 《IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
JINYING ZHONG等: "Remote Sensing Image Fusion with Convolutional Neural Network", 《SENSING AND IMAGING》 *
KAIMING HE等: "Deep Residual Learning for Image Recognition", 《IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112508832A (zh) * 2020-12-03 2021-03-16 中国矿业大学 一种面向对象的遥感影像数据时空融合方法、系统及设备
CN112508832B (zh) * 2020-12-03 2024-02-13 中国矿业大学 一种面向对象的遥感影像数据时空融合方法、系统及设备
WO2022222352A1 (zh) * 2021-04-22 2022-10-27 海南大学 基于残差网络的遥感全色和多光谱图像分布式融合方法

Similar Documents

Publication Publication Date Title
CN109003282B (zh) 一种图像处理的方法、装置及计算机存储介质
CN110889813B (zh) 基于红外信息的低光图像增强方法
CN111784602B (zh) 一种生成对抗网络用于图像修复的方法
Huang et al. Deep hyperspectral image fusion network with iterative spatio-spectral regularization
CN111915525B (zh) 基于改进深度可分离生成对抗网络的低照度图像增强方法
CN110443763B (zh) 一种基于卷积神经网络的图像阴影去除方法
CN110473185A (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN112884776B (zh) 一种基于合成数据集增广的深度学习抠图方法
CN113129391B (zh) 基于多曝光图像特征分布权重的多曝光融合方法
CN114119378A (zh) 图像融合方法、图像融合模型的训练方法和装置
CN112184554A (zh) 一种基于残差混合膨胀卷积的遥感图像融合方法
CN113450290B (zh) 基于图像修补技术的低照度图像增强方法及系统
CN109255758A (zh) 基于全1*1卷积神经网络的图像增强方法
CN112785534A (zh) 一种动态场景下去鬼影多曝光图像融合方法
Ye et al. Depth super-resolution with deep edge-inference network and edge-guided depth filling
CN113870124B (zh) 基于弱监督的双网络互激励学习阴影去除方法
CN114038006A (zh) 一种抠图网络训练方法及抠图方法
CN111626951A (zh) 一种基于内容感知信息的图像阴影消除方法
CN110930343A (zh) 基于sr-mdcnn的遥感图像融合方法
CN115082328A (zh) 用于图像校正的方法和设备
CN116645569A (zh) 一种基于生成对抗网络的红外图像彩色化方法和系统
CN113284061A (zh) 一种基于梯度网络的水下图像增强方法
CN104504672A (zh) 基于NormLV特征的低秩稀疏邻域嵌入超分辨方法
CN114067018B (zh) 一种基于扩张残差生成对抗网络的红外图像彩色化方法
CN112508814B (zh) 一种基于无人机低空视角下的图像色调修复型去雾增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination