CN106897986B - 一种基于多尺度分析的可见光图像与远红外图像融合方法 - Google Patents
一种基于多尺度分析的可见光图像与远红外图像融合方法 Download PDFInfo
- Publication number
- CN106897986B CN106897986B CN201710050787.6A CN201710050787A CN106897986B CN 106897986 B CN106897986 B CN 106897986B CN 201710050787 A CN201710050787 A CN 201710050787A CN 106897986 B CN106897986 B CN 106897986B
- Authority
- CN
- China
- Prior art keywords
- image
- far infrared
- infrared image
- levels
- detail
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
本发明公开了一种基于多尺度分析的可见光图像与远红外图像融合方法。在图像多尺度分解的过程中,考虑到远红外图像条纹噪声对最终融合结果的影响,针对远红外图像条纹噪声特点,使用混合全变分多尺度分析处理可见光图像与远红外图像,在获得子带图像的同时对远红外噪声进行了抑制;然后根据人类视觉显著性分布特性,对子带图像的融合规则进行调整,将可见光图像与远红外细节图像进行融合;最后根据实际应用对融合结果的需求,调整重建参数,获得融合结果。本发明方法能在图像多尺度分解过程中对远红外图像中的条纹噪声进行有效抑制,并根据人类视觉显著性特点结合可见光图像与远红外图像各自特点,提供了有效信息更丰富、图像质量更好的融合结果。
Description
技术领域
本发明属于图像处理领域,尤其涉及一种基于多尺度分析的可见光图像与远红外图像融合方法。
背景技术
随着传感器技术的不断进步,图像源呈现出多元化的趋势。可见光,近红外,远红外,雷达等不同传感器采集的图像具有不同的成像原理,提供真实目标的不同方面的特征信息。这些来自不同传感器的数据具有不同的时间、空间、光谱分辨率和不同的极化方式。由于单一传感器提供的数据量有限,难以满足应用需求,在此种背景下,多传感器数据融合与分析技术应运而生。在地球科学、军事侦察、医学图像、计算机视觉等领域有着广泛的应用。图像融合是这一领域的重要分支,通过图像融合,可以将同一场景的多个不同传感器获取的图像融合成新的图像,融合的新图像具有更好的可理解性,较少的模糊以及更高的可信度,更适合人眼视觉,计算机检测、分类、识别、理解等处理。
在多传感器图像采集的过程中,尤其是远红外图像的获取过程中,由于成像原理,硬件水平以及实验环境限制,红外热像仪的噪声可以极大地降低图像的质量和限制对低对比度目标的探测能力。因此,如何在图像融合的同时对远红外图像噪声进行抑制,是一个很有实际应用意义的课题。
发明内容
本发明的目的是在可见光图像同远红外图像融合的过程中,针对远红外图像噪声特点,在多尺度分解过程中对噪声进行抑制,并通过视觉显著性分析提取可见光图像与远红外图像各自的目标特征,最终提升融合结果的图像质量以及融合结果所含信息的准确性和有效性。
本发明的目的是通过以下技术方案来实现的:一种基于多尺度分析的可见光图像与远红外图像融合方法,该方法包括以下步骤:
(1)将可见光图像与远红外图像分别进行融合前处理,分别得到可见光图像的三个细节层和远红外图像的三个细节层,具体是:
(1.1)计算图像的梯度图,并对梯度图进行高斯模糊;
(1.2)根据1.1处理后的梯度图中的每一个像素点的灰度值以及阈值th,获得权重矩阵W;
(1.3)根据原始图像以及2.2中计算的权重矩阵W,利用三个不同的迭代次数分别对原始图像进行混合单向全变分平滑处理,得到三个子带图像;其中,可见光图像三个子带图像分别为Vn1,Vn2,Vn3,远红外图像的三个子带图像分别为Im1,Im2,Im3,n1,n2,n3分别为可见光图像的三个迭代次数,m1,m2,m3分别为红外图像的三个迭代次数,且n1<n2<n3,m1<m2<m3;
(1.4)将原始图像(迭代次数为0)以及三个子带图像按照迭代次数进行排序,相邻的图像相减获取一个细节层,可见光图像的三个细节层分别为V1,V2,V3,其中,V1为可见光原始图像与Vn1相减后得到的细节层,V2为Vn1与Vn2相减后得到的细节层,V3为Vn2与Vn3相减后得到的细节层,同理,远红外图像的三个细节层分别为I1,I2,I3,其中,I1为可见光原始图像与In1相减后得到的细节层,I2为In1与In2相减后得到的细节层,I3为In2与In3相减后得到的细节层。
(2)对步骤1得到的六个细节层以及Vn3与Im3分别进行行和列的延拓,然后运用视觉显著性计算公式计算每一个点的视觉显著性值,分别得到一个显著性矩阵,即V1′,V2′,V3′,Vn3′以及I1′,I2′,I3′,Im3′;
(3)将V1′和I1′矩阵中,相互对应的两个点进行归一化处理,分别得到归一化权重矩阵Wv1,WI1,按照同样方法对V2′和I2′、V3′和I3′、Vn3′和Im3′进行处理,分别得到Wv2,WI2,Wv3,WI3,Wvn3,WIn3,;
(4)计算各细节层图像以及迭代次数最大的两个子带图像的灰度融合结果,具体如下:
P0=Vn3*Wvn3+Im3*WIm3
P1=V1*Wv1+I1*WI1
P2=V2*Wv2+I2*WI2
P3=V3*Wv3+I3*WI3
(5)将每一层的融合结果进行再融合,所述权重分别为0.75、0.60、0.31、0.32,得到最终融合结果:
FR=0.75P0+0.60P1+0.31P2+0.32P3
进一步地,步骤1.1中,高斯模糊核大小为3×7,σ=1。
进一步地,步骤1.2中,th=0.5。
进一步地,步骤1.3中,所述不同迭代次数分别为1、2、3。
进一步地,步骤5中,所述权重分别为0.75、0.60、0.31、0.32。
本发明的有益效果:在基于多尺度分析的可见光图像与远红外图像融合过程中,首先,采用混合单向全变分平滑方法对可见光图像与远红外图像分别进行平滑处理,此种平滑方法,可以有效抑制远红外图像中轻条纹噪声以及重条纹噪声,为最终融合图像质量的提升打下基础;然后,采用基于人类视觉显著性分析的细节子带融合权重计算方法,可以有效地提取可见光图像以及远红外图像中各自的突出目标,提升融合结果的特征显著性以及有效性;最后,灵活的多尺度重建过程,可以为获取不同特点的融合结果提供简便有效的调节手段,有利于进一步研究与效果比对。
附图说明
图1为本发明方法示意图。
图2为被条纹噪声污染图像。
图3为本发明所用去条纹方法效果同其他方法效果比较,(a)wavelet-FFT、(b)SLD、(c)UTV、(d)l1-UTV、(e)HUTV、(f)HUTV随迭代次数变化的目标函数值。
图4为a)可见光图像、(b)红外图像、(c)可见光图像的人类视觉权重分布图、(d)红外图像的人类视觉权重分布图。
图5为构建多尺度细节子带过程。
图6为用来检验本发明方法的测试图像组Uncamp图像、Trees图像、Flow-er图像、City图像。
图7Uncamp图像组的融合结果。
图8Trees图像组的融合结果。
图9City图像组的融合结果。
图10lower图像组的融合结果。
具体实施方式
以下结合附图对本发明作进一步说明。
本发明提供的一种基于多尺度分析的可见光图像与远红外图像融合方法,主要包括多尺度分解的权重矩阵计算、多尺度子带图像的计算、细节层融合权重矩阵计算、融合图像重建等几个步骤,如图1所示。
步骤1.将可见光图像与远红外图像分别进行融合前处理,分别得到可见光图像的三个细节层和远红外图像的三个细节层
1-1计算图像的梯度图,并对梯度图进行高斯模糊;
1-2根据1.1处理后的梯度图中的每一个像素点的灰度值以及阈值th,获得权重矩阵W;
1-3根据原始图像以及2.2中计算的权重矩阵W,利用三个不同的迭代次数分别对原始图像进行混合单向全变分平滑处理,得到三个子带图像;其中,可见光图像三个子带图像分别为Vn1,Vn2,Vn3,远红外图像的三个子带图像分别为Im1,Im2,Im3,n1,n2,n3分别为可见光图像的三个迭代次数,m1,m2,m3分别为红外图像的三个迭代次数,且n1<n2<n3,m1<m2<m3;
1-4将原始图像(迭代次数为0)以及三个子带图像按照迭代次数进行排序,相邻的图像相减获取一个细节层,可见光图像的三个细节层分别为V1,V2,V3,其中,V1为可见光原始图像与Vn1相减后得到的细节层,V2为Vn1与Vn2相减后得到的细节层,V3为Vn2与Vn3相减后得到的细节层,同理,远红外图像的三个细节层分别为I1,I2,I3,其中,I1为可见光原始图像与In1相减后得到的细节层,I2为In1与In2相减后得到的细节层,I3为In2与In3相减后得到的细节层。
权重矩阵W具有非常高的重要性,必须根据图像的空域特性调整权重矩阵W。权重矩阵通过计算图像在y方向的绝对差来计算。对于当前像素点ux,y,其在y方向的绝对差如下所示:
dy(ux,y)=max(|ux,y+1-ux,y|,|ux,y-1-ux,y|) (1)
权重矩阵W的定义如下所示
Gσ代表参数为σ的高斯核(3x7,σ=1),代表卷积操作符,的定义如下所示:
上式中Th是一个正的小阈值,用来区分重条纹噪声和轻条纹噪声。
我们用如下公式表示多尺度分解的子带图像:
f=S(f′,λ,W,iteration) (4)
在上式中,f′即为原图像,我们用不同的迭代次数iteration达到获取不同平滑程度子图像的目的。
通过使用HUTV对一幅图像进行分解,可以获得估计子带以及细节子带。获得估计子带后,通过源图像减去估计子带可以获得细节子带。本发明中,不同模糊程度的图像是通过不同的迭代次数获取的。
fi=S(f′,λ,W,iterationi) (5)
di=fi-1-fi (6)
步骤2.对步骤1得到的六个细节层以及Vn3与Im3分别进行行和列的延拓,上下左右各延拓出一行或者一列,然后运用视觉显著性计算公式计算每一个点的视觉显著性值,分别得到一个显著性矩阵,即V1′,V2′,V3′,Vn3′以及I1′,I2′,I3′,Im3′;
步骤3.将V1′和I1′矩阵中,相互对应的两个点进行归一化处理,分别得到归一化权重矩阵Wv1,WI1,按照同样方法对V2′和I2′、V3′和I3′、Vn3′和Im3′进行处理,分别得到Wv2,WI2,Wv3,WI3,Wvn3,WIn3,;
采用像素灰度对比值作为衡量显著性的一种方式
p是目标像素q代表图像f中的任意像素。F(p,q)衡量了像素p和q之间的距离。此项由图像的灰度值决定。
F(p,q)=|fp-fq| (9)
根据公式(8)和(9),我们发现两个具有相同灰度值的像素点具有等量的显著性。对于灰度值为p的任意像素fp,
M为图像的灰度等级,N是图像中包含像素的个数,i为灰度值,Ni代表灰度值为i的像素个数。
我们使用公式(10)计算图像f中的每一个像素,之后我们得到图像的显著性分布图Mf。该分布图为同图像f大小相同的二维矩阵。经过归一化处理,我们得到图像f的视觉权重分布图。正如此分布图的名字所指,该图描绘了图像各个部分对人类注意力的吸引程度。
步骤4.计算各细节层图像以及迭代次数最大的两个子带图像的灰度融合结果,具体如下:
P0=Vn3*Wvn3+Im3*WIm3 (11)
P1=V1*Wv1+I1*WI1 (12)
P2=V2*Wv2+I2*WI2 (13)
P3=V3*Wv3+I3*WI3 (14)
有了图像的视觉权重分布图,我们就可以认为较大的权重对应了图像的细节。根据(12-14),每个尺度上的可见光同红外光的融合将基于人类视觉权重分布图。
同时,估计图像也可以用同样的方法进行融合,如公式(11)所示。
通过将视觉权重分布图引入子带融合过程,红外图像高温目标以及可见光图像场景细节可以被同时保留。
步骤5.将每一层的融合结果进行再融合,所述权重分别为0.75、0.60、0.31、0.32,得到最终融合结果:
FR=0.75P0+0.60P1+0.31P2+0.32P3 (15)
在不同尺度的子带融合之后,不同子带融合结果将被赋予不同的权重。重建规则如下所示
U=β11U1+β2U2+…+βn+1Un+1 (16)
U是最终结果,βk∈[0,1],(k=1,2…n+1)表示根据不同子带融合结果变化的权重。参数n一般不会大于5。在本发明中,我们选择3作为参数n的值。本文提出的方法由于可供调整和选择的参数βk而变得相当灵活。比如,通过挑选较大的β1,我们可以保留更多的原始图像的细节。相反,如果想要获得一个更加平滑的结果,我们可以通过一个较大的参数βn获取。
本发明方法能在保留可见光丰富细节和远红外图像高温目标的同时对远红外图像噪声进行有效抑制,显著提升融合图像质量。如附图7、8、9、10所示,从图中可以看出,本发明方法能更好地实现可见光图像和远红外图像的融合。
Claims (4)
1.一种基于多尺度分析的可见光图像与远红外图像融合方法,其特征在于,该方法包括以下步骤:
(1)将可见光图像与远红外图像分别进行融合前处理,分别得到可见光图像的三个细节层和远红外图像的三个细节层,具体是:
(1.1)计算图像的梯度图,并对梯度图进行高斯模糊;
(1.2)根据1.1处理后的梯度图中的每一个像素点的灰度值以及阈值th,获得权重矩阵W;
(1.3)根据原始图像以及权重矩阵W,其中原始图像包括可见光图像和远红外图像,利用三个不同的迭代次数分别对原始图像进行混合单向全变分平滑处理,得到三个子带图像;其中,可见光图像三个子带图像分别为Vn1,Vn2,Vn3,远红外图像的三个子带图像分别为Im1,Im2,Im3,n1,n2,n3分别为可见光图像的三个迭代次数,m1,m2,m3分别为红外图像的三个迭代次数,且n1<n2<n3,m1<m2<m3;
(1.4)原始图像的迭代次数为0,将三个子带图像按照迭代次数进行排序,相邻的图像相减获取一个细节层,可见光图像的三个细节层分别为V1,V2,V3,其中,V1为可见光原始图像与Vn1相减后得到的细节层,V2为Vn1与Vn2相减后得到的细节层,V3为Vn2与Vn3相减后得到的细节层,同理,远红外图像的三个细节层分别为I1,I2,I3,其中,I1为可见光原始图像与In1相减后得到的细节层,I2为In1与In2相减后得到的细节层,I3为In2与In3相减后得到的细节层;
(2)对步骤1得到的六个细节层以及Vn3与Im3分别进行行和列的延拓,然后运用视觉显著性计算公式计算每一个点的视觉显著性值,分别得到一个显著性矩阵,即V1',V2',V3',Vn3'以及I1',I2',I3',Im3';
(3)将V1'和I1'矩阵中,相互对应的两个点进行归一化处理,分别得到归一化权重矩阵Wv1,WI1,按照同样方法对V2'和I2'、V3'和I3'、Vn3'和Im3'进行处理,分别得到Wv2,WI2,Wv3,WI3,Wvn3,WIn3,;
(4)计算各细节层图像以及迭代次数最大的两个子带图像的灰度融合结果,具体如下:
P0=Vn3*Wvn3+Im3*WIm3
P1=V1*Wv1+I1*WI1
P2=V2*Wv2+I2*WI2
P3=V3*Wv3+I3*WI3
(5)将每一层的融合结果进行再融合,得到最终融合结果:
FR=0.75P0+0.60P1+0.31P2+0.32P3,其中0.75、0.60、0.31、0.32分别为权重。
2.根据权利要求1所述基于多尺度分析的可见光图像与远红外图像融合方法,其特征在于,步骤1.1中,高斯模糊核大小为3×7,σ=1。
3.根据权利要求1所述基于多尺度分析的可见光图像与远红外图像融合方法,其特征在于,步骤1.2中,th=0.5。
4.根据权利要求1所述基于多尺度分析的可见光图像与远红外图像融合方法,其特征在于,步骤1.3中,所述可见光图像与远红外图像的迭代次数分别为1、2、3。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710050787.6A CN106897986B (zh) | 2017-01-23 | 2017-01-23 | 一种基于多尺度分析的可见光图像与远红外图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710050787.6A CN106897986B (zh) | 2017-01-23 | 2017-01-23 | 一种基于多尺度分析的可见光图像与远红外图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106897986A CN106897986A (zh) | 2017-06-27 |
CN106897986B true CN106897986B (zh) | 2019-08-20 |
Family
ID=59198741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710050787.6A Expired - Fee Related CN106897986B (zh) | 2017-01-23 | 2017-01-23 | 一种基于多尺度分析的可见光图像与远红外图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106897986B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945145A (zh) * | 2017-11-17 | 2018-04-20 | 西安电子科技大学 | 基于梯度置信变分模型的红外图像融合增强方法 |
CN107909112B (zh) * | 2017-11-27 | 2020-08-18 | 中北大学 | 一种红外光强与偏振图像多类变元组合的融合方法 |
CN108171679B (zh) * | 2017-12-27 | 2022-07-22 | 合肥君正科技有限公司 | 一种图像融合方法、系统及设备 |
CN109215006B (zh) * | 2018-09-11 | 2020-10-13 | 中国科学院长春光学精密机械与物理研究所 | 基于显著性总变分模型与l2-范数优化的图像融合方法 |
CN110246108B (zh) * | 2018-11-21 | 2023-06-20 | 浙江大华技术股份有限公司 | 一种图像处理方法、装置及计算机可读存储介质 |
CN110852947B (zh) * | 2019-10-30 | 2021-07-20 | 浙江大学 | 一种基于边缘锐化的红外图像超分辨方法 |
CN112233079B (zh) * | 2020-10-12 | 2022-02-11 | 东南大学 | 多传感器图像融合的方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103325098A (zh) * | 2013-07-02 | 2013-09-25 | 南京理工大学 | 基于多尺度处理的高动态红外图像增强方法 |
CN103366353A (zh) * | 2013-05-08 | 2013-10-23 | 北京大学深圳研究生院 | 一种基于显著性区域分割的红外与可见光图像融合方法 |
CN104200452A (zh) * | 2014-09-05 | 2014-12-10 | 西安电子科技大学 | 基于谱图小波变换的红外与可见光图像融合方法及其装置 |
CN104463821A (zh) * | 2014-11-28 | 2015-03-25 | 中国航空无线电电子研究所 | 一种红外图像与可见光图像的融合方法 |
CN104504673A (zh) * | 2014-12-30 | 2015-04-08 | 武汉大学 | 基于nsst的可见光与红外图像融合方法及系统 |
CN104809734A (zh) * | 2015-05-11 | 2015-07-29 | 中国人民解放军总装备部军械技术研究所 | 一种基于引导滤波的红外图像与可见光图像融合的方法 |
-
2017
- 2017-01-23 CN CN201710050787.6A patent/CN106897986B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103366353A (zh) * | 2013-05-08 | 2013-10-23 | 北京大学深圳研究生院 | 一种基于显著性区域分割的红外与可见光图像融合方法 |
CN103325098A (zh) * | 2013-07-02 | 2013-09-25 | 南京理工大学 | 基于多尺度处理的高动态红外图像增强方法 |
CN104200452A (zh) * | 2014-09-05 | 2014-12-10 | 西安电子科技大学 | 基于谱图小波变换的红外与可见光图像融合方法及其装置 |
CN104463821A (zh) * | 2014-11-28 | 2015-03-25 | 中国航空无线电电子研究所 | 一种红外图像与可见光图像的融合方法 |
CN104504673A (zh) * | 2014-12-30 | 2015-04-08 | 武汉大学 | 基于nsst的可见光与红外图像融合方法及系统 |
CN104809734A (zh) * | 2015-05-11 | 2015-07-29 | 中国人民解放军总装备部军械技术研究所 | 一种基于引导滤波的红外图像与可见光图像融合的方法 |
Non-Patent Citations (4)
Title |
---|
Infrared and visible image fusion using multiscale directional nonlocal means filter;XIANG YAN 等;《Applied Optics》;20150501;第54卷(第13期);第4299-4308页 |
The multiscale directional bilateral filter and its application to multisensor image fusion;Jianwen Hu 等;《Information Fusion》;20110126;第196-206页 |
基于多尺度几何分析方法的图像融合方法研究;曲锋 等;《红外与激光工程》;20091130;第38卷;第373-376页 |
基于改进多尺度分析的红外与可见光图像融合方法研究;吴雪;《中国优秀硕士学位论文全文数据库 信息科技辑》;20140715(第07期);全文 |
Also Published As
Publication number | Publication date |
---|---|
CN106897986A (zh) | 2017-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106897986B (zh) | 一种基于多尺度分析的可见光图像与远红外图像融合方法 | |
Santo et al. | Deep photometric stereo network | |
Xia et al. | Infrared small target detection based on multiscale local contrast measure using local energy factor | |
Gu et al. | Integration of spatial–spectral information for resolution enhancement in hyperspectral images | |
CN111340944B (zh) | 基于隐式函数和人体模板的单图像人体三维重建方法 | |
CN111429391B (zh) | 一种红外和可见光图像融合方法、融合系统及应用 | |
CN110349117B (zh) | 一种红外图像与可见光图像融合方法、装置及存储介质 | |
CN108564606A (zh) | 基于图像转换的异源图像块匹配方法 | |
CN108537788A (zh) | 迷彩伪装效果评测方法及装置、计算机设备及存储介质 | |
CN104732546B (zh) | 区域相似性和局部空间约束的非刚性sar图像配准方法 | |
Guo et al. | An image super-resolution reconstruction method with single frame character based on wavelet neural network in internet of things | |
Liang et al. | GIFM: An image restoration method with generalized image formation model for poor visible conditions | |
CN114120176A (zh) | 远红外与可见光视频图像融合的行为分析方法 | |
CN111862040B (zh) | 人像图片质量评价方法、装置、设备及存储介质 | |
CN113592018A (zh) | 基于残差密集网络和梯度损失的红外光与可见光图像融合方法 | |
Pan et al. | DenseNetFuse: A study of deep unsupervised DenseNet to infrared and visual image fusion | |
CN109766896B (zh) | 一种相似度度量方法、装置、设备和存储介质 | |
CN108510484A (zh) | 一种ect图像数据采集、图像重建及评估系统 | |
Shang et al. | Spatiotemporal reflectance fusion using a generative adversarial network | |
CN104111080B (zh) | 一种凝视卫星面阵ccd相机的mtf在轨检测方法 | |
Chen et al. | Change detection of multispectral remote-sensing images using stationary wavelet transforms and integrated active contours | |
CN113034371A (zh) | 一种基于特征嵌入的红外与可见光图像融合方法 | |
CN113610746A (zh) | 一种图像处理方法、装置、计算机设备及存储介质 | |
Luo et al. | Infrared and visible image fusion based on VPDE model and VGG network | |
CN115239607A (zh) | 一种红外和可见光图像自适应融合的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190820 Termination date: 20200123 |