CN115631428A - 一种基于结构纹理分解的无监督图像融合方法和系统 - Google Patents
一种基于结构纹理分解的无监督图像融合方法和系统 Download PDFInfo
- Publication number
- CN115631428A CN115631428A CN202211353890.5A CN202211353890A CN115631428A CN 115631428 A CN115631428 A CN 115631428A CN 202211353890 A CN202211353890 A CN 202211353890A CN 115631428 A CN115631428 A CN 115631428A
- Authority
- CN
- China
- Prior art keywords
- image
- fusion
- structural
- texture
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于结构纹理分解的无监督图像融合方法和系统,涉及遥感影像处理技术领域。所述方法利用结构纹理分解模型将原始输入图像分解得到各图像的结构分量和纹理分量,然后利用编码网络结构提取图像的多尺度深层特征,并采用密集连接结构的融合网络进行特征融合,再利用解码网络进行重建,最后构建损失函数训练融合网络模型。本发明可利用更细致的图像纹理特征和结构特征建立融合网络的训练条件,并有效的对融合网络进行可靠反馈和调整,使最终的融合结果同时能具备原始图像的纹理信息和结构信息,最大程度集成光学和SAR图像的互补特征,从而获得更优的图像融合效果。本发明的技术方案可以为目标检测、图像分类等应用提供高质量的图像数据。
Description
技术领域
本发明涉及遥感影像处理技术领域,尤其是一种基于结构纹理分解的无监督图像融合方法和系统,用于对光学图像和SAR图像进行有效融合。
背景技术
对于遥感影像的获取,在同一场景中不同传感器所获取的遥感图像可以反映地面物体的互补内容,这些多传感器遥感影像按照一定的规律进行组织、关联和合成,实现信息互补。高质量的遥感影像融合可以满足不同的应用需求,如物体识别、变化检测、影像分类等。另一方面,光学图像可以获得有关表面特征的相关信息,例如真实纹理和灰度信息,但光学图像容易受到云层或其他极端天气条件的影响。相反,SAR(合成孔径雷达)具有很强的穿透能力,不受气候和环境的影响。因此,融合光学图像和SAR图像能够广泛应用于更多的场景。尽管现有技术中已经开发出许多算法来融合这两类图像,但没有研究专注于如何有效地结合光学图像和SAR图像的互补信息。
现有技术中,光学图像与SAR图像融合的方法包括不需要采用深度学习技术的传统方法和基于深度学习的方法。传统方法一般包括分量替代法、多尺度分解法和基于模型的方法,这些传统的融合方法不可避免地需要复杂的图像转换或特定的融合规则设计。基于深度学习的方法可以从图像中自动提取大量高级语义信息,相比传统方法就有更好的普适性。然而现阶段只存在极少的方法来研究深度学习用于光学图像与SAR图像的融合,并且均为监督学习方法或者半监督学习方法,这些方法需要一定量的带有真值标签的样本作为训练数据,成本等因素限制了该类方法的实际应用。
发明内容
本发明的发明目的在于:克服上述现有技术的不足,提供了基于结构-纹理分解的无监督SAR和光学图像融合方法。该方法提取影像深度特征用于有效融合,高效精确、无需训练真值。一方面,本发明提供了一种基于结构纹理分解的无监督图像融合方法,首先建立第一图像与第二图像的待融合数据集,将第一图像和第二图像利用融合网络进行第一次融合,得到第一融合图像;然后利用结构纹理分解模型将第一图像、第二图像、第一融合图像进行结构纹理分解,分别得到各图像的结构分量和纹理分量;之后将结构分量和纹理分量用于计算损失函数并反向传播,更新融合网络的参数并对第一融合图像进行融合调整,得到最终的融合网络模型。
另一方面,本发明还提供了一种基于结构纹理分解的无监督图像融合系统,所述系统包括:用于建立第一图像与第二图像的待融合数据集的预处理模块;用于将第一图像和第二图像利用融合网络进行第一次融合得到第一融合图像的第一融合模块;用于将第一图像、第二图像、第一融合图像进行结构纹理分解,分别得到各图像的结构分量和纹理分量的分解单元;用于将结构分量和纹理分量计算损失函数并反向传播,更新融合网络的参数并对第一融合图像进行融合调整,得到融合网络模型的反向调整单元。
综上所述,由于采用了上述基于结构纹理分解的无监督图像融合技术方案,本发明的有益效果是:
本发明设计了一种端对端的无监督的图像融合网络,以及利用该融合网络进行多源图像的融合方法与系统。该融合网络结构主要由编解码结构与稠密连接结构组成。所述融合方法首先利用结构纹理分解模型将原始输入影像进行分解,分别得到各图像的结构分量和纹理分量,然后利用编码网络结构提取图像的多尺度深层特征,并采用密集连接结构的融合网络进行特征融合,再利用解码网络进行影像重建,将重建网络同样进行分解得到初步融合的结构分量与纹理分量。最后利用源图像和重建图像的结构纹理分量构建一种基于结构和纹理联合约束的损失函数训练融合网络模型,使最终的融合结果同时能具备原始图像的纹理信息和结构信息,最大程度的集成光学和SAR图像的互补特征。
通过本发明所构建的图像融合方法和系统,可利用更细致的图像纹理特征和结构特征建立融合网络的训练条件,并有效的对融合网络进行可靠反馈和调整,从而获得更优的图像融合效果。本发明技术方案的技术方案可以为目标检测、图像分类等应用提供高质量的图像数据。
附图说明
图1是本发明实施例提供的整体流程图。
图2是本发明实施例提供的不同类型图像的示意图。
图3是本发明实施例提供的的融合网络模型结构图。
图4是本发明实施例提供的结构-纹理分解及调整过程的示意图。
图5为本发明实施例提供的图像融合结果对比图。
具体实施方式
为了使本领域的人员更好地理解本发明的技术方案,下面结合本发明的附图,对本发明的技术方案进行清楚、完整的描述,基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的其它类同实施例,都应当属于本申请保护的范围。
如图1所示,为一种基于结构-纹理分解的无监督图像融合方法,用于对SAR图像和光学图像进行有效融合,包括以下步骤:
步骤S01,获取第一图像与第二图像,并对第一图像与第二图像进行预处理,建立第一图像与第二图像的待融合数据集。
在一个优选实施例中,所述第一图像为光学图像,第二图像为SAR图像。所述第一图像和第二图像是同一个场景下采用不同类型的传感器获取得到的不同类型的图像对,为图像处理系统输入的源图像。
所述待融合数据集作为训练数据集,用于训练融合网络模型。在一个实施例中也可以用同样的图像获取方式获取若干包含第一图像与第二图像的图像对,作为训练后的融合网络模型的测试数据集。
根据获取的第一图像和第二图像的分辨率信息,判断两组图像的大小和分辨率是否一致,一致则进行后续处理,不一致则将这两组图像进行图像配准、重采样、裁剪等预处理,使得预处理后的第一图像与第二图像的分辨率和大小均保持一致,从而形成一一对应的融合数据集。
以光学图像与SAR图像为实施例对步骤S01作进一步说明,如图2所示,其中图(a)为光学图像,图(b)为SAR图像。将该光学图像与SAR图像均进行配准,然后采样至同一分辨率,最后裁剪成256*256固定大小的块。固定分辨率的光学图像IOpt与其对应的SAR图像ISAR作为输入图像,经本发明实施例中的方法实现融合得到融合图像(c)。其融合结果包含与光学图像最相似的纹理细节信息以及与SAR图像最相似的结构轮廓信息,且有效去除斑点噪声。光学图像与SAR图像融合数据集中包含多对类似上述光学图像Iopt和SAR图像ISAR。
步骤S02,将第一图像和第二图像利用融合网络进行第一次融合,得到第一融合图像。
以光学图像与SAR图像为实施例作进一步说明,在本步骤中首先在通道方向上,将光学图像和SAR图像进行叠置拼接,将叠置后的图像通过编码器网络产生多尺度特征;然后将多尺度特征分别通过各个融合网络经融合网络输出各个尺度的特征融合结果;再将各个尺度输出的特征融合结果采用对应的解码器网络进行重建,得到第一融合影像。用于进行特征融合的融合网络包括但不限于Transformer网络、DenseNet网络等。
如图3所示,本实施例中的融合网络模型包括编码器网络、融合网络和解码器网络三部分。
所述编码器网络由n组相互连接的卷积块和最大池化层组成,简称编码块。每个卷积块由相互连接的卷积层、局部响应归一化层、线性单元激活函数层组成,n的取值可根据影像大小及分辨率设定,本发明对此不进行限定。在图3所示优选实施例中,组数n=4。
用于进行特征提取的所述编码器网络包括但不限于U-Net网络、DenseNet网络等。并且在系统初始化时所述编码器网络可以采用默认参数或初始参数的初始编码器网络。应当理解,本发明对编码器提取特征部分并不做出形式上和参数上的限定,凡采用叠置影像的输入方式,经各种形式和参数的卷积神经网络提取出通道方向上的高维特征、输出多尺度深度特征的方案,均在本发明的保护范围之内。
将编码器网络提取的n个尺度的多模态深度特征分别输入各个密集连接结构的融合网络,经融合网络输出各个尺度的特征融合结果。所述融合网络的数目与编码器的编码块数目n相同,且各融合网络之间除了输入数据的参数不同外其余均相同。本发明对融合网络部分不做形式上和参数上的限定,凡采用端到端的且最大保留源图像信息的密集连接网络并用于融合数据的网络方案均在本发明的保护范围之内。
采用对应的解码器网络进行重建第一融合图像,本实施例中优选采用的简化Unet++网络结构,从而更轻更有效地重建第一融合图像。所述解码器网络包括六个解码器卷积块,每个解码器卷积块包括两个卷积层。在每一行中,这些解码器卷积块通过短连接方式进行连接,并且相邻行中的卷积块通过跨层连接方式连接来自融合特征网络中的多尺度深度特征。所述解码器网络的输出是从融合的多尺度特征重构的第一融合图像。在其他实施例中,也可采用类似的跨层的连接方式作为解码器网络,本发明对此不进行限定。
步骤S03,采用结构纹理分解模型将第一图像、第二图像、第一融合图像进行结构纹理分解,分别得到各图像的结构分量和纹理分量。
为了给融合网络模型提供重要的约束,特别是基于结构信息和纹理信息的约束,本发明实施例采用一种卡通纹理分解(Cartoon-Texture)的图像分解方法,能够将图像分解为结构部分和纹理部分,以实现对图像的有效分割和增强。
结构分量和纹理分量的提取过程如下:
Istr=W(λ)·(Icon-Iraw)+Iraw
其中Iraw表示原始图像,Icon表示高斯卷积后的图像,Istr表示结构图像,Itex表示通过原始图像和结构图像的简单减法产生的纹理图像,局部总变异LTV(·)表示在图像梯度上执行高斯卷积的LTV过程,W(·)用于归一化,参数λ是LTV降低率的指标。
以光学图像与SAR图像为实施例作进一步说明,如图4所示,显示了图像分解的示例,采用结构纹理分解方法将输入的光学图像IOpt和SAR图像ISAR进行结构纹理分解,分别分解成光学纹理图IOpt-T、光学结构图IOpt-S、SAR纹理图ISAR-T、SAR结构图ISAR-S。,即分别得到光学图像和SAR图像的结构分量和纹理分量,以实现图像的有效分割和增强。
同时对特征重建之后的第一融合图像IO也进行结构纹理分解,分解成第一融合图像的纹理图IO-T、结构图IO-S,如图4所示。
本实施例采用的分解方法为卡通纹理分解(Cartoon-Texture),在其他实施例中也可采用其他纹理分解方法,以完成对目标图像的纹理和结构分量的分解即可,本发明对此不进行限定。
所述步骤S02和步骤S03在不同的计算实施例中可以交换处理顺序,也可以并行进行计算处理,以不影响后续步骤中的参数计算和融合调整为准。
步骤S04,基于结构分量和纹理分量计算损失函数并反向传播,更新融合网络的参数并对第一融合图像进行融合调整,得到融合网络模型。
本实施例中的融合调整过程采用二阶段训练方案,其中在第一个阶段使用特定的损失函数训练一个自动编解码器网络,其中自动编码器网络被训练用于提取源图像多尺度深度特征,自动解码器网络用于重构输入图像的多尺度深度特征。所述自动编解码器训练完成之后,固定其网络参数不变。第二阶段将特征分解中得到的结构分量和纹理分量引入损失函数来约束融合图像中的结构分量和纹理分量,即计算光学图像与输出的第一融合图像的像素值差值的二范数的平方、纹理分量差值的一范数,以及SAR图像与输出的第一融合图像的结构分量差值的一范数作为损失函数,以反向传播至融合网络,从而更新融合网络的参数,当损失函数降至较低值并收敛时,完成输入光学图像与SAR图像的最佳融合,保存此时的融合网络模型参数,用于融合和校正测试集影像数据。
具体包括:
步骤S401,使用特定的第一损失函数训练一个自动编解码器网络,所述自动编码器网络被训练用于提取源图像多尺度深度特征,所述自动解码器网络被训练用于重构输入图像的多尺度深度特征。所述自动编解码器网络训练完成之后,固定自动编解码器网络的参数不变。
所述自动编解码器的第一损失函数Laoto定义如下:
Laoto=Lpixel+λLssim;
Lpixel和Lssim分别表示输入图像与输出图像之间的第一像素损失函数和第一结构损失函数,λ是Lpixel和Lssim之间的平衡参数。
所述第一像素损失函数Lpixel定义如下:
其中||||F表示F范数,第一像素损失函数Lpixel是约束输出图像在像素级上与输入图像的相似性。
所述第一结构损失函数Lssim定义如下:
Lssim=1-SSIM(Output,Input)
其中SSIM()表示结构相似性度量,第一结构损失函数Lssim用来约束输出图像与输入图像的结构相似性。
步骤S402,将步骤S03中分解得到的结构分量IOpt-T和纹理分量ISAR-S引入第二损失函数中,用于约束步骤S02中第一融合图像中的结构分量IO-T和纹理分量IO-S,即计算光学图像与输出的第一融合图像的像素值差值的二范数的平方、纹理分量差值的一范数,以及SAR图像与输出的第一融合图像的结构分量差值的一范数作为第二损失函数,以反向传播并更新融合网络模型的参数。当第二损失函数降至较低值并收敛时,完成输入的第一图像与第二图像的融合。保存此时的融合网络模型的参数,并将该融合网络模型用于融合和校正测试集图像数据。
将步骤S401中第一阶段训练完成并使第一损失函数降至最低之后,固定对应的自动编解码器网络结构及参数,在S402中整个第二阶段将不再训练自动编解码器结构。此时设计第二损失函数训练融合特征网络部分。以本实施例为例,第二损失函数的设计仅适用于不同的融合网络模块,即对融合网络模块参数进行反向调整可以使其获得的预测结果更优。考虑到输入的SAR图像的斑点噪声,本申请实施例中还引入了三个关键约束:像素约束、纹理约束、结构约束,以逐渐捕获光学图像和SAR图像的互补特征,并使融合结果包含尽可能少的噪声。由于第二损失函数中的像素损失占比较大,结构损失仅作用于结构部分,对SAR图像有细节抑制,使得融合结果的背景更接近光学图像,并滤除SAR图像的部分噪声。
具体而言,第二损失函数Ltotal定义为:
Ltotal=LP+α1LS+α2LT,
其中Ltotal是指融合过程中的总损失。LS和LT分别表示第二结构损失函数和第二纹理损失函数。α1和α2分别表示两个损失函数的权重。
为了保持来自光学图像的真实信息,使融合结果的背景更类似于原始光学图像,本实施例定义第二像素损失函数LP:
其中IO是第一融合图像,IOpt是输入的光学图像。像素损失由第一融合图像IO和光学图像IOpt之间像素差值的二范数确定。
通过步骤S03所述的过程提取第一图像和第二图像的结构信息和纹理信息后,将提取的两类信息引入目标函数中以约束和调整第一融合图像的结构信息和纹理信息。因此将第二结构损失函数LS和第二纹理损失函数LT定义如下:
LS=‖IO-S-ISAR-S‖1,LT=||IO-T-IOpt-T||1,
结构损失和纹理损失由结构分量和纹理分量之间差异的一范数决定,并分别来自第一融合图像和原始输入的第一/第二图像。
当第二损失函数降至一个较低值并收敛时,整个融合网络模型具有最优的参数,此时可输出最佳的融合图像,完成了将训练数据集中的光学图像与SAR图像融合的任务。保存此时的融合网络模型参数,并将该融合网络模型以及模型参数用于融合和校正测试数据集。
在另一个实施例中,本发明还提供了一种基于结构纹理的无监督图像融合系统,所述图像融合系统是基于前述任一图像融合方法实施例的步骤实现的,该系统包括:
预处理模块,用于获取第一图像与第二图像,并对第一图像与第二图像进行预处理,建立第一图像与第二图像的待融合数据集;
第一融合模块,用于将第一图像和第二图像利用融合网络进行第一次融合,得到第一融合图像;
分解单元,用于将第一图像、第二图像、第一融合图像进行结构纹理分解,分别得到各图像的结构分量和纹理分量;
反向调整单元,基于结构分量和纹理分量计算损失函数并反向传播,更新融合网络的参数并对第一融合图像进行融合调整,得到融合网络模型。
如图5所示,为本申请技术方案的融合效果与现有技术中一些图像融合方法的效果进行比较的对比图。其中第一列为SAR图像,第二列为光学OPT图像,第3列-第8列分别为现有技术中的HIS、HPF、DWT、LP、NestFuse、U2Fusion方法进行图像融合结果,第9列为利用本申请技术方案对光学图像和SAR图像进行有效融合后的结果图像,可以看出,本申请技术方案融合得到的图像比现有技术得到的融合图像结果都更能融合源图像的互补信息且有效去除噪声。
以上为本发明具体实施方式的说明,通过本发明所构建的图像融合方法和系统,可利用更细致的图像纹理特征和结构特征建立融合网络的训练条件,并有效的对融合网络进行可靠反馈和调整,从而获得更优的图像融合效果。本发明的技术方案可以为目标检测、图像分类等应用提供高质量的图像数据。
本发明并不局限于前述的具体实施方式。本发明扩展到任何在本说明书中披露的新特征或任何新的组合,以及披露的任一新的方法或过程的步骤或任何新的组合。
Claims (11)
1.一种基于结构纹理分解的无监督图像融合方法,其特征在于,包括下列步骤:
步骤S01,获取第一图像与第二图像,对第一图像与第二图像进行预处理,建立包含第一图像与第二图像的待融合数据集;
步骤S02,将第一图像和第二图像利用融合网络进行第一次融合,得到第一融合图像;
步骤S03,采用结构纹理分解模型将第一图像、第二图像、第一融合图像进行结构纹理分解,分别得到各图像的结构分量和纹理分量;
步骤S04,基于结构分量和纹理分量计算损失函数并反向传播,更新融合网络的参数并对第一融合图像进行融合调整,得到融合网络模型。
2.如权利要求1所述的基于结构纹理分解的无监督图像融合方法,其特征在于,所述第一图像和第二图像是对同一个场景采用不同类型的传感器获取得到的不同类型的图像对。
3.如权利要求1所述的基于结构纹理分解的无监督图像融合方法,其特征在于,所述预处理是将第一图像和第二图像进行处理后的分辨率和大小保持一致。
4.如权利要求1所述的基于结构纹理分解的无监督图像融合方法,其特征在于,所述步骤S02包括:
将第一图像和第二图像进行叠置,将叠置图像通过编码器网络产生多尺度特征;然后将多尺度特征分别通过各融合网络,经融合网络输出各个尺度的特征融合结果;再将各个尺度输出的特征融合结果采用对应的解码器网络进行重建,得到第一融合影像。
6.如权利要求1所述的基于结构纹理分解的无监督图像融合方法,其特征在于,所述步骤S04包括:
步骤S401,使用特定的第一损失函数训练自动编解码器网络,所述自动编码器网络被训练用于提取源图像的多尺度深度特征,所述自动解码器网络被训练用于重构输入图像的多尺度深度特征;所述自动编解码器网络训练完成之后,固定自动编解码器网络的参数不变;
步骤S402,计算第一图像与输出的第一融合图像的像素值差值的二范数的平方、纹理分量差值的一范数,以及第二图像与输出的第一融合图像的结构分量差值的一范数作为第二损失函数,以反向传播并更新融合网络模型的参数。
7.如权利要求5所述的基于结构纹理分解的无监督图像融合方法,其特征在于,所述步骤S402还包括:
当第二损失函数降至较低值并收敛时,完成第一图像与第二图像的融合调整;保存此时的融合网络模型与对应参数,并将该融合网络模型用于图像的融合和校正。
8.如权利要求5所述的基于结构纹理分解的无监督图像融合方法,其特征在于,所述步骤S401中,所述自动编解码器的第一损失函数Laoto定义如下:
Laoto=Lpixel+λLssim;
Lpixel和Lssim分别表示输入图像与输出图像之间的第一像素损失函数和第一结构损失函数,λ是Lpixel和Lssim之间的平衡参数;
所述第一像素损失函数Lpixel定义如下:
其中|| ||F表示F范数,第一像素损失函数Lpixel是约束输出图像在像素级上与输入图像的相似性;
所述第一结构损失函数Lssim定义如下:
Lssim=1-SSIM(Output,Input)
其中SSIM()表示结构相似性度量,第一结构损失函数Lssim用于约束输出图像与输入图像的结构相似性。
9.如权利要求5所述的基于结构纹理分解的无监督图像融合方法,其特征在于,所述步骤S402中第二损失函数Ltotal定义为:
Ltotal=LP+α1LS+α2LT,
其中Ltotal是指融合过程中的总损失,LS和LT分别表示第二结构损失函数和第二纹理损失函数,α1和α2分别表示两个损失函数的权重,LP表示第二像素损失函数。
10.如权利要求8所述的基于结构纹理分解的无监督图像融合方法,其特征在于,所述第二纹理损失函数LT由第一融合图像的纹理分量和第一图像的纹理分量之间的差异的一范数确定;所述第二结构损失函数LS由第一融合图像的结构分量和第二图像的结构分量之间的差异的一范数确定;所述第二像素损失函数LP由第一融合图像和第一图像之间的像素差值的二范数确定。
11.一种基于结构纹理分解的无监督图像融合系统,其特征在于,所述系统包括:
预处理模块,用于获取第一图像与第二图像,并对第一图像与第二图像进行预处理,建立第一图像与第二图像的待融合数据集;
第一融合模块,用于将第一图像和第二图像利用融合网络进行第一次融合,得到第一融合图像;
分解单元,用于将第一图像、第二图像、第一融合图像进行结构纹理分解,分别得到各图像的结构分量和纹理分量;
反向调整单元,基于结构分量和纹理分量计算损失函数并反向传播,更新融合网络的参数并对第一融合图像进行融合调整,得到融合网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211353890.5A CN115631428B (zh) | 2022-11-01 | 2022-11-01 | 一种基于结构纹理分解的无监督图像融合方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211353890.5A CN115631428B (zh) | 2022-11-01 | 2022-11-01 | 一种基于结构纹理分解的无监督图像融合方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115631428A true CN115631428A (zh) | 2023-01-20 |
CN115631428B CN115631428B (zh) | 2023-08-11 |
Family
ID=84907994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211353890.5A Active CN115631428B (zh) | 2022-11-01 | 2022-11-01 | 一种基于结构纹理分解的无监督图像融合方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115631428B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117218170A (zh) * | 2023-11-09 | 2023-12-12 | 中国科学院空天信息创新研究院 | 基于联合任务约束的遥感基础模型的图像处理方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104899562A (zh) * | 2015-05-29 | 2015-09-09 | 河南理工大学 | 基于纹理分割融合的雷达遥感影像人工建筑识别算法 |
US9595115B1 (en) * | 2011-09-19 | 2017-03-14 | Amazon Technologies, Inc. | Visualizing change in augmented reality environments |
CN109345494A (zh) * | 2018-09-11 | 2019-02-15 | 中国科学院长春光学精密机械与物理研究所 | 基于潜在低秩表示和结构张量的图像融合方法及装置 |
CN111223049A (zh) * | 2020-01-07 | 2020-06-02 | 武汉大学 | 一种基于结构-纹理分解的遥感图像变分融合方法 |
CN112561846A (zh) * | 2020-12-23 | 2021-03-26 | 维沃移动通信有限公司 | 训练图像融合模型的方法、装置和电子设备 |
US20220245775A1 (en) * | 2019-10-31 | 2022-08-04 | Peking University Shenzhen Graduate School | Tone mapping method and electronic device |
CN115170915A (zh) * | 2022-08-10 | 2022-10-11 | 上海理工大学 | 一种基于端到端注意力网络的红外与可见光图像融合方法 |
-
2022
- 2022-11-01 CN CN202211353890.5A patent/CN115631428B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9595115B1 (en) * | 2011-09-19 | 2017-03-14 | Amazon Technologies, Inc. | Visualizing change in augmented reality environments |
CN104899562A (zh) * | 2015-05-29 | 2015-09-09 | 河南理工大学 | 基于纹理分割融合的雷达遥感影像人工建筑识别算法 |
CN109345494A (zh) * | 2018-09-11 | 2019-02-15 | 中国科学院长春光学精密机械与物理研究所 | 基于潜在低秩表示和结构张量的图像融合方法及装置 |
US20220245775A1 (en) * | 2019-10-31 | 2022-08-04 | Peking University Shenzhen Graduate School | Tone mapping method and electronic device |
CN111223049A (zh) * | 2020-01-07 | 2020-06-02 | 武汉大学 | 一种基于结构-纹理分解的遥感图像变分融合方法 |
CN112561846A (zh) * | 2020-12-23 | 2021-03-26 | 维沃移动通信有限公司 | 训练图像融合模型的方法、装置和电子设备 |
CN115170915A (zh) * | 2022-08-10 | 2022-10-11 | 上海理工大学 | 一种基于端到端注意力网络的红外与可见光图像融合方法 |
Non-Patent Citations (3)
Title |
---|
JIANGYANG ZHANG 等: "Adaptive Directional Total-Variation Model for Latent Fingerprint Segmentation", 《RESEARCHGATE》 * |
YINGYING KONG 等: "A Fusion Method of Optical Image and SAR Image Based on Dense-UGAN and Gram–Schmidt Transformation", 《REMOTE SENSING》 * |
王宇航 等: "基于面向对象的 QUICKBIRD 数据和 SAR 数据融合的地物分类", 《东北林业大学学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117218170A (zh) * | 2023-11-09 | 2023-12-12 | 中国科学院空天信息创新研究院 | 基于联合任务约束的遥感基础模型的图像处理方法及装置 |
CN117218170B (zh) * | 2023-11-09 | 2024-03-01 | 中国科学院空天信息创新研究院 | 基于联合任务约束的遥感基础模型的图像处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN115631428B (zh) | 2023-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116258652B (zh) | 基于结构注意和文本感知的文本图像修复模型及方法 | |
CN115471437B (zh) | 一种基于卷积神经网络的影像融合方法以及遥感影像融合方法 | |
CN116311254B (zh) | 一种恶劣天气情况下的图像目标检测方法、系统及设备 | |
CN114048822A (zh) | 一种图像的注意力机制特征融合分割方法 | |
CN113807356B (zh) | 一种端到端的低能见度图像语义分割方法 | |
CN116071650A (zh) | 一种融合卷积神经网络与Transformer的遥感影像建筑物提取方法 | |
CN115631428A (zh) | 一种基于结构纹理分解的无监督图像融合方法和系统 | |
CN116309107A (zh) | 基于Transformer和生成式对抗网络的水下图像增强方法 | |
CN117274760A (zh) | 一种基于多尺度混合变换器的红外与可见光图像融合方法 | |
CN114638768B (zh) | 一种基于动态关联学习网络的图像去雨方法、系统及设备 | |
CN115631107A (zh) | 边缘引导的单幅图像噪声去除 | |
Zhang et al. | Dense haze removal based on dynamic collaborative inference learning for remote sensing images | |
CN111833282A (zh) | 一种基于改进的DDcGAN模型的图像融合方法 | |
CN116310394A (zh) | 显著性目标检测方法及装置 | |
CN114494387A (zh) | 一种生成数据集网络模型及雾图生成方法 | |
CN114511798A (zh) | 基于transformer的驾驶员分心检测方法及装置 | |
CN116452469B (zh) | 一种基于深度学习的图像去雾处理方法及装置 | |
CN113537322A (zh) | 一种跨模态语义增强生成对抗网络的零样本视觉分类方法 | |
CN117456330A (zh) | 一种基于MSFAF-Net的低照度目标检测方法 | |
CN116051984B (zh) | 一种基于Transformer的弱小目标检测方法 | |
Gao et al. | TEGAN: Transformer embedded generative adversarial network for underwater image enhancement | |
CN113870162A (zh) | 一种融合光照和反射的低光图像增强方法 | |
CN114140361A (zh) | 融合多级特征的生成式对抗网络图像去雾方法 | |
CN114663292A (zh) | 超轻量级图片去雾及识别网络模型、图片去雾及识别方法 | |
CN117036893B (zh) | 一种基于局部跨阶段和快速下采样的图像融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |