CN110211046B - 一种基于生成对抗网络的遥感图像融合方法、系统和终端 - Google Patents
一种基于生成对抗网络的遥感图像融合方法、系统和终端 Download PDFInfo
- Publication number
- CN110211046B CN110211046B CN201910509396.5A CN201910509396A CN110211046B CN 110211046 B CN110211046 B CN 110211046B CN 201910509396 A CN201910509396 A CN 201910509396A CN 110211046 B CN110211046 B CN 110211046B
- Authority
- CN
- China
- Prior art keywords
- image
- fusion
- original
- generator
- remote sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 22
- 230000004927 fusion Effects 0.000 claims abstract description 75
- 238000000034 method Methods 0.000 claims abstract description 24
- 238000005070 sampling Methods 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 238000001228 spectrum Methods 0.000 abstract description 12
- 230000000694 effects Effects 0.000 abstract description 5
- 238000007499 fusion processing Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000008485 antagonism Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10036—Multispectral image; Hyperspectral image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于生成对抗网络的遥感图像融合方法,包括:采用差分算子提取原始全色图像的空间结构信息,采样原始的多光谱图像;将空间结构信息与采样的多光谱图像在特征域拼接,得样本图像;将样本图像输入生成对抗网络的生成器,生成融合图像;将融合图像和真实图像输入生成对抗网络的判别器进行判别区分,在生成器与判别器间建立对抗规则及融合目标函数,优化融合图像。采用本发明所公开的基于生成对抗网络的遥感图像融合方法,采用差分算子保留了原始全色图像的空间结构信息,采样方法保留了原始低分辨率多光谱图像的光谱信息,有效减少了融合过程中细节信息的丢失;此外,通过在生成器和判别器间建立对抗规则及融合目标函数,大大优化了融合的效果。
Description
技术领域
本发明涉及遥感图像处理技术领域,尤其涉及一种基于生成对抗网络的遥感图像融合方法、系统和终端。
背景技术
随着现代科技的不断进步,遥感技术广泛应用于灾害预警、军事侦测、海洋气象预测和土地资源分类等领域。遥感作为一种探测目标的信息载体,通过各种传感器获取信息,然而,现有技术中,由于受遥感卫星的硬件技术的限制,遥感卫星只能够获取高分辨率的全色图像和低分辨率的多光谱图像,再通过融合方法得到高分辨率、高质量的多光谱图像。
目前,遥感图像融合方法主要包括以下几种:一是基于分量替换的算法,将低分辨率的多光谱图像转化到另一个空间,再将原有的空间信息和光谱信息分离,最后通过替换的方式融合,该种融合算法虽然计算效率高,但容易产生光谱扭曲;二是基于多分辨率分析的算法,将全色图像的空间细节通过多分辨率分解注入到上采样的低分辨率多光谱图像的每一个波段中,该种融合方法虽然能够保留良好的光谱信息,但由于经过多分辨分解,全色图像中将丢失结构细节信息,容易造成融合图像的空间信息不足;三是利用光谱频带之间相关空间细节建立优化模型的算法,该种融合方法在求解模型时,迭代次数和模型中的超参很难精确设定,容易影响融合图像的精准性;四是基于神经网络进行遥感融合的算法,直接求解输入图像到输出图像的映射,本质上仍是通过最小化融合图像的和参考图像之间的欧几里德距离来训练网络,该种融合方法也会导致光谱信息的不足和结构信息的改变。
发明内容
本发明所要解决的技术问题在于,提供一种遥感图像融合方法,解决融合图像光谱信息不足和结构信息改变的问题,保留全色图像的空间结构信息,减少融合过程中细节信息的丢失,保留原始低分辨率多光谱图像的光谱信息,优化了融合的效果。
为了解决上述技术问题,本发明提供了一种基于生成对抗网络的遥感图像融合方法,所述遥感图像融合方法包括:
获取原始全色图像及对应的原始多光谱图像;
采用差分算子提取所述原始全色图像的空间结构信息,并采样所述原始的多光谱图像;
将所述空间结构信息与采样的所述多光谱图像在特征域拼接,得到样本图像;
将所述样本图像输入生成对抗网络的生成器,生成融合图像;
将所述融合图像和真实图像输入生成对抗网络的判别器进行判别区分,在生成器与判别器间建立对抗规则及融合目标函数,优化融合图像。
具体地,所述原始全色图像为高分辨率的全色图像;所述原始多光谱图像为低分辨率的多光谱图像。
进一步地,所述优化融合图像的步骤包括:
所述判别器判别所述融合图像是否为真实图像;
若否,则通过融合目标函数最小化所述融合图像与所述真实图像间的差距,并将判别结果反馈至所述生成器;
根据所述判别结果,调整所述生成器的融合规则,优化所述融合图像;
若是,则所述融合图像为最优融合图像。
其中,
其中,P表示全色图像的大小,Y表示低分辨率多光谱图像,b=1,2,…B表示低分辨率多光谱图像的通道数,Y↑为上采样后的低分辨率多光谱图像,X=(X1,X2,…XB)表示真实图像的大小,分别表示全色图像在水平方向和垂直方向的梯度信息。
进一步地,提取所述原始全色图像的空间结构信息的步骤为:
采用差分算子提取所述原始全色图像的空间结构信息;
所述空间结构信息包括水平方向的梯度信息和垂直方向的梯度信息,其中,所述空间结构信息中的关键信息以稀疏的形式表现。
进一步地,采样所述多光谱图像的步骤为:
上采样所述原始的多光谱图像,使得采样的多光谱图像的大小与所述原始全色图像的大小一致。
进一步地,将所述空间结构信息与采样的所述多光谱图像拼接输入生成器之前,所述遥感图像融合方法还包括:
构成生成器和判别器;所述生成器采用多流融合架构。
相应地,本发明提供了一种基于生成对抗网络的遥感图像融合系统,所述遥感图像融合系统包括:
原始图像获取模块:用于获取原始全色图像及对应的原始多光谱图像;
空间结构信息提取模块:用于提取所述原始全色图像的空间结构信息;
采样模块:用于采样所述原始多光谱图像;
融合模块:用于生成融合图像;
优化模块:用于优化融合图像。
进一步地,所述融合模块包括:
拼接模块:用于拼接成样本图像。
进一步地,所述遥感图像融合系统还包括:
构造模块:用于构造生成器和判别器。
相应地,本发明提供了一种基于生成对抗网络的遥感图像融合终端,所述遥感图像融合终端包括:
处理器,用于执行一条或一条以上的可读性指令;
存储器,存储有一条或一条以上的可读性指令,所述一条或一条以上的可读性指令适用于所述处理器加载并执行以实现上述所述的基于生成对抗网络的遥感图像融合方法。
实施本发明实施例,具有如下有益效果:
采用本发明所公开的基于生成对抗网络的遥感图像融合方法,采用差分算子保留了原始全色图像的空间结构信息,采样方法保留了原始低分辨率多光谱图像的光谱信息,有效减少了融合过程中细节信息的丢失;此外,通过在生成器和判别器间建立对抗规则及融合目标函数,大大优化了融合的效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1是本发明实施例所提供的一种基于生成对抗网络的遥感图像融合方法的流程示意图;
图2是本发明实施例中原始全色图像的示意图;
图3是本发明实施例中差分算子提取的原始全色图像的垂直方向的梯度信息的结构示意图;
图4是本发明实施例中差分算子提取的原始全色图像的水平方向的梯度信息的结构示意图;
图5是本发明实施例中所提供的对抗网络的结构框图;
图6是本发明实施例所提供的一种基于生成对抗网络的遥感图像融合系统的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述。显然,所描述的实施例仅仅是本发明一个实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
需要说明的是,此处所称的“一个实施例”或“实施例”是指可包含于本发明至少一个实现方式中的特定特征、结构或特性。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
此外,本发明的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
请参考图1,其所示为本发明实施例提供的一种基于生成对抗网络的遥感图像融合方法的流程示意图,本说明书提供了一种如实施例或流程图所述的方法操作步骤,但基于常规或无创造性的劳动可以包括更多或者更少的步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序,在实际遥感融合图像操作过程中,可以按照实施顺序或附图所示的方法顺序执行。具体的如图1所示,所述遥感图像融合方法包括:
S110获取原始全色图像及对应的原始多光谱图像;
需要说明的是,在本说明书实施例中,所述原始全色图像为高分辨率的全色图像;所述原始多光谱图像为低分辨率的多光谱图像。
S120采用差分算子提取所述原始全色图像的空间结构信息,并采样所述原始的多光谱图像;
在本说明书实施例中,所述空间结构信息包括原始全色图像的水平方向梯度信息和垂直方向梯度信息,其中,所述空间结构信息中的关键信息以稀疏的形式表现,以保留原始全色图像的空间结构信息;
请参考图2-图4,其所示为本发明实施例中差分算子提取结构信息的结果示意图,在本发明实施例中,所述差分算子包含垂直和水平两个方向。
在本说明书实施例中,上采样所述原始的多光谱图像,使得采样的多光谱图像的大小与所述原始全色图像的大小一致。
S130将所述空间结构信息与采样的所述多光谱图像在特征域拼接,得到样本图像;
在本说明书实施例中,将所述空间结构信息与采样的所述多光谱图像在特征域拼接之前,所述遥感图像融合方法还包括构成生成器和判别器;
在本说明书实施例中,所述生成器采用多流融合架构。
S140将所述样本图像输入生成对抗网络的生成器,生成融合图像;
S150将所述融合图像和真实图像输入生成对抗网络的判别器进行判别区分,在生成器与判别器间建立对抗规则,优化融合图像。
请参考图5,其所示为本发明实施例中所提供的对抗网络的结构框图,在本说明书实施例中,所述优化融合图像的步骤包括:
所述判别器判别所述融合图像是否为真实图像;
若否,则通过融合目标函数最小化所述融合图像与所述真实图像间的差距,并将判别结果反馈至所述生成器;
根据所述判别结果,调整所述生成器的融合规则,优化所述融合图像;
若是,则所述融合图像为最优融合图像。
其中,
其中,P表示全色图像的大小,Y表示低分辨率多光谱图像,b=1,2,…B表示低分辨率多光谱图像的通道数,Y↑为上采样后的低分辨率多光谱图像,X=(X1,X2,…XB)表示真实图像的大小,分别表示全色图像在水平方向和垂直方向的梯度信息。
采用本发明所公开的基于生成对抗网络的遥感图像融合方法,采用差分算子保留了原始全色图像的空间结构信息,采样方法保留了原始低分辨率多光谱图像的光谱信息,有效减少了融合过程中细节信息的丢失;此外,通过在生成器和判别器间建立对抗网络及融合目标函数,大大优化了融合的效果。
请参考图6,其所示为本发明实施例提供了一种基于生成对抗网络的遥感图像融合系统的结构示意图,本说明书提供了如实施例所述的系统结构。实施例中列举的结构仅仅为众多结构的一种,不代表位移的结构,在实际装置中,可以按照附图所示的结构组成。具体的图6所示,所述遥感图像融合系统包括:
原始图像获取模块210:用于获取原始全色图像及对应的原始多光谱图像;
需要说明的是,在本说明书实施例中,所述原始全色图像为高分辨率的全色图像;所述原始多光谱图像为低分辨率的多光谱图像。
空间结构信息提取模块220:用于提取所述原始全色图像的空间结构信息;
在本说明书实施例中,所述空间结构信息包括原始全色图像的水平方向梯度信息和垂直方向梯度信息,其中,所述空间结构信息中的关键信息以稀疏的形式表现,以保留原始全色图像的空间结构信息。
采样模块230:用于采样所述原始多光谱图像;
构造模块240:用于构造生成器和判别器;
融合模块250:用于生成融合图像;
在本发明实施例中,所述融合模块包括:拼接模块:用于拼接成样本图像。
优化模块260:用于优化融合图像。
本发明实施例提供了一种基于生成对抗网络的遥感图像融合终端,所述遥感图像融合终端包括:
处理器,用于执行一条或一条以上的可读性指令;
存储器,存储有一条或一条以上的可读性指令,所述一条或一条以上的可读性指令适用于所述处理器加载并执行以实现如上所述的基于生成对抗网络的遥感图像融合方法。
存储器可用于存储软件程序及单元,处理器通过运行存储在存储器的软件程序及单元,从而执行各种功能应用以及数据处理。存储器主要包括程序存储区和数据存储区,其中,程序存储区可存储操作系统、功能所需的应用程序等;数据存储区可存储根据所述装置的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少可以包括一个磁盘存储器、闪存器件、或其他易失性固态存储器件。相应地,存储器还可以包括存储器控制器,以提供处理器对存储器的访问。
利用本发明实施例提供的技术方案,采用差分算子保留了原始全色图像的空间结构信息,采样方法保留了原始低分辨率多光谱图像的光谱信息,有效减少了融合过程中细节信息的丢失;此外,通过在生成器和判别器间建立对抗规则及融合目标函数,大大优化了融合的效果。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣,且上述本说明书特定实施例进行了描述,其他实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或者步骤可以按照不同于实施例中的顺序来执行并且能够实现期望的结果。另外,在附图中描绘的过程不一定要求示出特定顺序或者连续顺序才能够实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的均为与其他实施例的不同之处。尤其,对于装置和终端的实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本领域普通技术人员可以理解实现上述实施例的全部或者部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述程序可以存储于一种计算机可读介质中。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (8)
1.一种基于生成对抗网络的遥感图像融合方法,其特征在于,所述遥感图像融合方法包括:
获取原始全色图像及对应的原始多光谱图像;
采用差分算子提取所述原始全色图像的空间结构信息,并上采样所述原始的多光谱图像;
将所述空间结构信息与上采样的所述多光谱图像在特征域拼接,得到样本图像;
将所述样本图像输入生成对抗网络的生成器,生成融合图像;
将所述融合图像和真实图像输入生成对抗网络的判别器进行判别区别,在生成器与判别器间建立对抗规则,优化融合图像;所述优化融合图像的步骤包括:
所述判别器判别所述融合图像是否为真实图像;
若否,则通过融合目标函数最小化所述融合图像与所述真实图像间的差距,并将判别结果反馈至所述生成器;所述融合目标函数为:
其中,
G为生成器,D为判别器,P表示全色图像,Y表示低分辨率多光谱图像,b=1,2,…B表示低分辨率多光谱图像的通道数,Y↑为上采样后的低分辨率多光谱图像,X=(X1,X2,…XB)表示真实图像的大小,分别表示全色图像在水平方向和垂直方向的梯度信息;
根据所述判别结果,调整所述生成器的融合规则,优化所述融合图像;
若是,则所述融合图像为最优融合图像。
2.根据权利要求1所述的一种基于生成对抗网络的遥感图像融合方法,其特征在于,提取所述原始全色图像的空间结构信息的步骤为:
采用差分算子提取所述原始全色图像的空间结构信息;
所述空间结构信息包括水平方向的梯度信息和垂直方向的梯度信息。
3.根据权利要求1所述的一种基于生成对抗网络的遥感图像融合方法,其特征在于,采样所述多光谱图像的步骤为:
上采样所述原始的多光谱图像,使得采样的多光谱图像的大小与所述原始全色图像的大小一致。
4.根据权利要求1所述的一种基于生成对抗网络的遥感图像融合方法,其特征在于,将所述空间结构信息与采样的所述多光谱图像拼接输入生成器之前,所述遥感图像融合方法还包括:
构成生成器和判别器;
所述生成器采用多流融合架构。
5.一种基于生成对抗网络的遥感图像融合系统,其特征在于,所述遥感图像融合系统包括:
原始图像获取模块:用于获取原始全色图像及对应的原始多光谱图像;
空间结构信息提取模块:用于提取所述原始全色图像的空间结构信息;
采样模块:用于上采样所述原始多光谱图像;
融合模块:用于生成融合图像;
优化模块:用于优化融合图像;所述优化融合图像的步骤包括:
判别器判别所述融合图像是否为真实图像;
若否,则通过融合目标函数最小化所述融合图像与所述真实图像间的差距,并将判别结果反馈至生成器;所述融合目标函数为:
其中,
G为生成器,D为判别器,P表示全色图像,Y表示低分辨率多光谱图像,b=1,2,…B表示低分辨率多光谱图像的通道数,Y↑为上采样后的低分辨率多光谱图像,X=(X1,X2,…XB)表示真实图像的大小,分别表示全色图像在水平方向和垂直方向的梯度信息;
根据所述判别结果,调整所述生成器的融合规则,优化所述融合图像;
若是,则所述融合图像为最优融合图像。
6.根据权利要求5所述的一种基于生成对抗网络的遥感图像融合系统,其特征在于,所述融合模块包括:
拼接模块:用于拼接成样本图像。
7.根据权利要求5所述的一种基于生成对抗网络的遥感图像融合系统,其特征在于,所述遥感图像融合系统还包括:
构造模块:用于构造生成器和判别器。
8.一种基于生成对抗网络的遥感图像融合终端,其特征在于,所述遥感图像融合终端包括:
处理器,用于执行一条或一条以上的可读性指令;
存储器,存储有一条或一条以上的可读性指令,所述一条或一条以上的可读性指令适用于所述处理器加载并执行以实现如权利要求1-4任意一项所述的基于生成对抗网络的遥感图像融合方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019104802729 | 2019-06-03 | ||
CN201910480272 | 2019-06-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110211046A CN110211046A (zh) | 2019-09-06 |
CN110211046B true CN110211046B (zh) | 2023-07-14 |
Family
ID=67792346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910509396.5A Active CN110211046B (zh) | 2019-06-03 | 2019-06-12 | 一种基于生成对抗网络的遥感图像融合方法、系统和终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110211046B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110660038B (zh) * | 2019-09-09 | 2023-06-09 | 山东工商学院 | 一种基于生成对抗网络的多光谱图像与全色图像融合方法 |
CN111160128B (zh) * | 2019-12-11 | 2023-07-18 | 中国四维测绘技术有限公司 | 一种基于对抗神经网络模型的遥感图像处理方法及系统 |
CN111340080B (zh) * | 2020-02-19 | 2024-03-29 | 济南大学 | 一种基于互补卷积特征的高分辨率遥感影像融合方法及系统 |
CN110991430B (zh) * | 2020-03-02 | 2020-06-23 | 中科星图股份有限公司 | 基于遥感图像的地物识别及覆盖率计算方法及系统 |
CN113344846B (zh) * | 2021-04-20 | 2023-02-21 | 山东师范大学 | 基于生成对抗网络和压缩感知的遥感图像融合方法及系统 |
CN112991186B (zh) * | 2021-04-27 | 2021-07-27 | 湖南大学 | 一种无人机大视场高光谱图像生成方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101930604A (zh) * | 2010-09-08 | 2010-12-29 | 中国科学院自动化研究所 | 基于低频相关性分析的全色图像与多光谱图像融合方法 |
CN108537742A (zh) * | 2018-03-09 | 2018-09-14 | 天津大学 | 一种基于生成对抗网络的遥感图像全色锐化方法 |
CN108615226A (zh) * | 2018-04-18 | 2018-10-02 | 南京信息工程大学 | 一种基于生成式对抗网络的图像去雾方法 |
CN109118467A (zh) * | 2018-08-31 | 2019-01-01 | 武汉大学 | 基于生成对抗网络的红外与可见光图像融合方法 |
CN109325931A (zh) * | 2018-08-22 | 2019-02-12 | 中北大学 | 基于生成对抗网络和超分辨率网络的多模态图像融合方法 |
CN109509160A (zh) * | 2018-11-28 | 2019-03-22 | 长沙理工大学 | 一种利用逐层迭代超分辨率的分层次遥感图像融合方法 |
CN109615582A (zh) * | 2018-11-30 | 2019-04-12 | 北京工业大学 | 一种基于属性描述生成对抗网络的人脸图像超分辨率重建方法 |
CN109635748A (zh) * | 2018-12-14 | 2019-04-16 | 中国公路工程咨询集团有限公司 | 高分辨率影像中道路特征的提取方法 |
CN109636768A (zh) * | 2018-12-12 | 2019-04-16 | 中国科学院深圳先进技术研究院 | 遥感影像融合方法、装置及电子设备 |
CN109726644A (zh) * | 2018-12-14 | 2019-05-07 | 重庆邮电大学 | 一种基于生成对抗网络的细胞核分割方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014197818A2 (en) * | 2013-06-07 | 2014-12-11 | The General Hospital Corporation | Small molecule activators of nrf2 pathway |
CN106470901B (zh) * | 2014-02-26 | 2019-12-03 | 克拉克·艾默生·科恩 | 改进性能和成本的全球导航卫星系统架构 |
EP3073296B1 (en) * | 2015-03-27 | 2020-09-23 | CGG Services SAS | Full waveform inversion method for seismic data processing using preserved amplitude reverse time migration |
-
2019
- 2019-06-12 CN CN201910509396.5A patent/CN110211046B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101930604A (zh) * | 2010-09-08 | 2010-12-29 | 中国科学院自动化研究所 | 基于低频相关性分析的全色图像与多光谱图像融合方法 |
CN108537742A (zh) * | 2018-03-09 | 2018-09-14 | 天津大学 | 一种基于生成对抗网络的遥感图像全色锐化方法 |
CN108615226A (zh) * | 2018-04-18 | 2018-10-02 | 南京信息工程大学 | 一种基于生成式对抗网络的图像去雾方法 |
CN109325931A (zh) * | 2018-08-22 | 2019-02-12 | 中北大学 | 基于生成对抗网络和超分辨率网络的多模态图像融合方法 |
CN109118467A (zh) * | 2018-08-31 | 2019-01-01 | 武汉大学 | 基于生成对抗网络的红外与可见光图像融合方法 |
CN109509160A (zh) * | 2018-11-28 | 2019-03-22 | 长沙理工大学 | 一种利用逐层迭代超分辨率的分层次遥感图像融合方法 |
CN109615582A (zh) * | 2018-11-30 | 2019-04-12 | 北京工业大学 | 一种基于属性描述生成对抗网络的人脸图像超分辨率重建方法 |
CN109636768A (zh) * | 2018-12-12 | 2019-04-16 | 中国科学院深圳先进技术研究院 | 遥感影像融合方法、装置及电子设备 |
CN109635748A (zh) * | 2018-12-14 | 2019-04-16 | 中国公路工程咨询集团有限公司 | 高分辨率影像中道路特征的提取方法 |
CN109726644A (zh) * | 2018-12-14 | 2019-05-07 | 重庆邮电大学 | 一种基于生成对抗网络的细胞核分割方法 |
Non-Patent Citations (5)
Title |
---|
Image-to-Image Translation with Conditional Adversarial Networks;Phillip Isola等;《2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;20171109;全文 * |
Progressive Learning for Person Re-Identification With One Example;Yu Wu等;《IEEE Transactions on Image Processing》;20190110;第28卷(第6期);全文 * |
一种国产高分卫星遥感影像变分融合方法;尹峰等;《国土资源遥感》;20180631;第30卷(第02期);第100-106页 * |
基于小波变换的自适应图像融合算法;张永梅等;《高技术通讯》;20100225(第02期);全文 * |
多尺度分解算法与融合规则优化组合的双模态红外图像融合;吕胜等;《中国科技论文》;20170123(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110211046A (zh) | 2019-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110211046B (zh) | 一种基于生成对抗网络的遥感图像融合方法、系统和终端 | |
Zhang et al. | Canet: Class-agnostic segmentation networks with iterative refinement and attentive few-shot learning | |
CN108229490B (zh) | 关键点检测方法、神经网络训练方法、装置和电子设备 | |
CN111145131A (zh) | 一种基于多尺度生成式对抗网络的红外和可见光图像融合方法 | |
Ren et al. | Unsupervised change detection in satellite images with generative adversarial network | |
Akey Sungheetha | Classification of remote sensing image scenes using double feature extraction hybrid deep learning approach | |
Han et al. | HANet: A hierarchical attention network for change detection with bi-temporal very-high-resolution remote sensing images | |
US20160078634A1 (en) | Methods and systems for image matting and foreground estimation based on hierarchical graphs | |
CN113838064B (zh) | 一种基于分支gan使用多时相遥感数据的云去除方法 | |
Toriya et al. | SAR2OPT: Image alignment between multi-modal images using generative adversarial networks | |
Xiao et al. | Deep learning-based spatiotemporal fusion of unmanned aerial vehicle and satellite reflectance images for crop monitoring | |
Li et al. | Crossgeonet: A framework for building footprint generation of label-scarce geographical regions | |
Long et al. | Dual self-attention Swin transformer for hyperspectral image super-resolution | |
Wang et al. | Hybrid cgan: Coupling global and local features for sar-to-optical image translation | |
Liu et al. | A novel semisupervised framework for multiple change detection in hyperspectral images | |
Li et al. | Hyperspectral image super-resolution with spectral mixup and heterogeneous datasets | |
CN113971760B (zh) | 基于深度学习的高质量准稠密互补特征提取方法 | |
CN113705358B (zh) | 一种基于特征映射的多角度侧脸正面化方法 | |
Wen et al. | Change diffusion: Change detection map generation based on difference-feature guided ddpm | |
CN111008555B (zh) | 一种无人机图像弱小目标增强提取方法 | |
Mu et al. | Integration of gradient guidance and edge enhancement into super‐resolution for small object detection in aerial images | |
Zou et al. | AF-net: All-scale feature fusion network for road extraction from remote sensing images | |
Wu et al. | Robust Camera Model Identification Over Online Social Network Shared Images via Multi-Scenario Learning | |
CN113435384B (zh) | 中低分辨率光学遥感图像的目标检测方法、装置及设备 | |
Zhao et al. | A Two-step Spatio-Temporal satellite image Fusion Model for temporal changes of various LULC under one-pair prior images scenario |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |