CN113222877A - 红外和可见光图像融合方法及其在机载光电视频中的应用 - Google Patents

红外和可见光图像融合方法及其在机载光电视频中的应用 Download PDF

Info

Publication number
CN113222877A
CN113222877A CN202110617056.1A CN202110617056A CN113222877A CN 113222877 A CN113222877 A CN 113222877A CN 202110617056 A CN202110617056 A CN 202110617056A CN 113222877 A CN113222877 A CN 113222877A
Authority
CN
China
Prior art keywords
image
layer
fusion
visible light
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110617056.1A
Other languages
English (en)
Other versions
CN113222877B (zh
Inventor
李伟
徐奔
陶然
吴鑫
马鹏阁
揭斐然
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Luoyang Institute of Electro Optical Equipment AVIC
Zhengzhou University of Aeronautics
Original Assignee
Beijing Institute of Technology BIT
Luoyang Institute of Electro Optical Equipment AVIC
Zhengzhou University of Aeronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT, Luoyang Institute of Electro Optical Equipment AVIC, Zhengzhou University of Aeronautics filed Critical Beijing Institute of Technology BIT
Priority to CN202110617056.1A priority Critical patent/CN113222877B/zh
Publication of CN113222877A publication Critical patent/CN113222877A/zh
Application granted granted Critical
Publication of CN113222877B publication Critical patent/CN113222877B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

本发明公开了红外和可见光图像融合方法及其在机载光电视频中的应用。其中所述融合方法包括:将经过目标提取预处理得到预处理后红外图像,与经过视觉增强预处理得到的预处理后可见光图像通过融合模型进行融合,其中所述融合模型基于含有多层各向异性扩散滤波器的多尺度分析模型构建。本发明所得融合图像在高分辨、高清晰度的同时具有夜间成像效果好、环境影响小、集成信息量大、融合效率高等特点,特别适用于在机载嵌入式平台实时融合多源光电图像。

Description

红外和可见光图像融合方法及其在机载光电视频中的应用
技术领域
本发明涉及多源图像融合技术领域。
背景技术
不同类型的成像传感器的成像机理和应用场景各异,其中,由于技术手段等的限制,单一成像传感器得到的单源图像仅可以满足一些特定的应用需求,无法适应环境更复杂、用途更广泛的场景。为了得到目标和背景清晰、语义信息充足、应用范围广泛和更符合人类视觉以及机器识别的图像,同时避免因使用多个单一成像传感器而产生的信息冗余和损耗,相关应用中更多采用了多源图像融合技术。
多源图像融合技术旨在利用多源图像的冗余性和互补性,综合不同成像传感器的图像数据特点,取长补短,提供具有更高可信度,较少的不确定性以及更好的可理解性的目标和图像信息,从而反应出对事物更客观、更丰富、更本质的认识,达到改善图像视觉效果、强化图像有用信息、增加图像可理解性、使系统更具鲁棒性的目的。根据应用方向的不同,多源图像融合可分为医学图像融合、多聚焦图像融合、遥感图像融合、多曝光图像融合、可见光和红外图像融合等。其中,可见光和红外图像融合是机载视景增强和机载辅助驾驶等系统中的关键技术。这些系统利用红外和可见光传感器拍摄飞机前方区域场景,并通过多源图像融合技术生成视景图像供飞行员观察和辅助导航。
在可见光与红外图像融合技术中,可见光图像可提供纹理细节信息和与人类视觉系统一致的高空间分辨率和清晰度,红外图像则由于其波长和热成像等特性,可提供在雾天或光照不足等条件下的良好成像优势,同时,可见光图像可弥补红外无法对机场指示灯和航空障碍灯等冷光源成像的缺陷,通过两者的融合有效改善复杂气候条件下的成像效果,减少视觉盲点,提升态势感知能力,大幅提高飞行和着陆安全性。
现有的红外和可见光图像融合技术多使用基于多尺度分析的方法和基于神经网络的方法。其中,多尺度分析又被称为多分辨率分析,其基本思想是将图像经过多尺度变换之后得到不同尺度空间下的子图像,然后在各个尺度空间下根据特定的规则融合多源图像的子图像,最后用多尺度逆变换恢复到原来的空间。多尺度分析可在尺度空间中挖掘图像的底层特征语义,如图像的纹理细节、边缘轮廓等,但是,一方面,该方法通常只能提取图像的全局特征而非局部特征,且在复杂场景下提取图像全局特征时,易出现将目标和其他噪声混淆的情况;另一方面,该方法在尺度空间中的融合规则存在泛用性低的问题,如不适用多个昼夜及温度环境的情况,导致获得的目标显著度不高、图像纹理背景不均匀、光照不均匀、前景不够突出等问题,融合效果较差。
在神经网络方面,包括CNN、GAN等在内的一些深度学习模型被应用到了可见光与红外图像融合上,但深度学习需要大量的数据进行训练,在数据量较少的情况下难以使用,另外,图像融合中常缺少先验信息,导致融合策略对融合结果的影响过大。
发明内容
本发明的目的在于提出一种红外和可见光图像融合方法,其所得融合图像在保持较好的与人眼视觉图像一致的高分辨、高清晰度的特性同时又综合红外热成像夜视范围广、受环境影响小的特定信息,集成信息量大、效率高,便于目标检测识别等后续处理,并特别适用于在机载嵌入式平台实时融合多源光电图像。
本发明首先提供了如下的技术方案:
红外和可见光图像融合方法,其包括:
S1对待融合的红外图像进行目标提取预处理,得到含有目标区域红外特征分量的预处理后红外图像;
S2对待融合的可见光图像进行视觉增强预处理,得到视觉增强后的可见光图像;
S3将预处理后红外图像与预处理后的可见光图像输入融合模型进行融合;
其中,所述融合模型基于含有多层各向异性扩散滤波器的多尺度分析模型构建。
根据本发明的一种具体实施方式,所述目标提取预处理包括:
S11对待融合的红外图像进行顶帽变换,获得差异化图像;
S12通过最大类间方差法获得所得差异化图像的阈值灰度级,根据阈值灰度级进行像素点分类,通过掩膜去除其中灰度级在阈值灰度级以下的像素点;
S13将掩膜处理后的图像与红外及可见光图像的灰度差值矩阵进行作差处理,并将所得差值规范到0~255的灰度值,得到目标区域红外特征分量。
优选的,其还包括:
S14通过所述目标区域红外特征分量与抑制比的相乘,获得压缩后的目标区域红外特征分量。
根据本发明的一种具体实施方式,所述步骤S12中:
通过以下模型获得所得差异化图像的阈值灰度级k*
Figure BDA0003098314340000031
Figure BDA0003098314340000032
Figure BDA0003098314340000033
Figure BDA0003098314340000034
Figure BDA0003098314340000035
Figure BDA0003098314340000036
Figure BDA0003098314340000037
Figure BDA0003098314340000038
其中,i、k表示灰度级,k∈{0,1,2,……,L-1},其中{0,1,2,……,L-1}表示所得差异化图像的L个不同的灰度级;a(k)表示灰度从0到k级的像素累加均值;aG表示图像的全局像素均值;P1(k)表示灰度级低于k的像素点在所有像素点中的占比,P2(k)表示灰度级高于k的像素点在所有像素点中的占比。
根据本发明的一种具体实施方式,通过以下掩膜mask(x,y)对差异化图像That(IR)进行处理:
Figure BDA0003098314340000041
其中,k*表示阈值灰度级,f(x,y)表示差异化图像That(IR)的灰度值矩阵,x、y表示像素点的横坐标和纵坐标且1≤x≤M,1≤y≤N。
根据本发明的一种具体实施方式,所述步骤S13中:
对通过下式获得所述差值矩阵:
r(x,y)=vis(x,y)-ir(x,y) 1≤x≤M,1≤y≤N (16)
其中,ir(x,y)表示待融合红外图像的灰度值矩阵,vis(x,y)表示可见光图像的灰度值矩阵,r(x,y)表示vis(x,y)和ir(x,y)的差值矩阵。
根据本发明的一种具体实施方式,通过下式进行所述差值规范:
Figure BDA0003098314340000042
其中,I3(x,y)=I2(x,y)-r(x,y)1≤x≤M,1≤y≤N表示经掩膜处理后的图像I2与差值矩阵r(x,y)的差,I2=f(x,y)mask(x,y),1≤x≤M,1≤y≤N表示经所述掩膜mask(x,y)处理后的图像。
根据本发明的一种具体实施方式,所述视觉增强预处理包括:
S21将待融合可见光图像通过引导滤波器,获得通过滤波器后的图像;
S22将所述待融合可见光图像和所得滤波后图像分别进行非线性变换,对应得到变换后的图像及图像矩阵;
S23将所述变换后的图像及图像矩阵进行作差,得到非线性变换域上的差值矩阵;
S24对所述变换后的图像矩阵和所述非线性变换域上的差值矩阵进行加权加和,得到非线性变换域中视觉增强后的可见光图像:
S25通过非线性变换的逆变换将所述非线性变换域中视觉增强后的可见光图像恢复到原始域,得到增强图像。
根据本发明的一种具体实施方式,所述视觉增强预处理中:
所述非线性变换为:
g(I)=log(I(x,y)+ξ),1≤x≤M,1≤y≤N (18),
其中,I(x,y)表示待处理图像I的像素矩阵,ξ表示为避免像素值为0导致非线性变换无法完成而添加的常数;
所述加权加和为:
Figure BDA0003098314340000051
Figure BDA0003098314340000052
其中,
Figure BDA0003098314340000053
表示所述变换后的图像矩阵,
Figure BDA0003098314340000054
表示所述非线性变换域上的差值矩阵,
Figure BDA0003098314340000055
Figure BDA0003098314340000056
分别表示
Figure BDA0003098314340000057
灰度矩阵中的最大值和最小值,
Figure BDA0003098314340000058
表示所述非线性变换域中视觉增强后的可见光图像,β表示动态压缩系数,由下式确定:
Figure BDA0003098314340000059
其中T表示对照系数。
根据本发明的一种具体实施方式,所述融合模型包括两个并列的图像处理模块、即第一图像处理模块和第二图像处理模块,与两个图像处理模块均相连的一个图像融合模块及与图像融合模块相连的一个图像重构模块;其中每个图像处理模块包括三个滤波层、即第一滤波层、第二滤波层和第三滤波层,每个滤波层含有一个各向异性扩散滤波器;所述图像融合模块包括四个图像融合层、即第一图像融合层-第四图像融合层;其中两个图像处理模块通过其三个滤波层对所述预处理后的可见光图像和所述预处理后的红外图像分别进行滤波处理,包括:输入预处理后的图像,图像通过所述第一滤波层后得到第一基础层和第一细节层,所述第一基础层通过所述第二滤波层后得到第二基础层和第二细节层,所述第二基础层通过所述第三滤波层后得到第三基础层和第三细节层;在通过两个图像处理模块分别得到红外图像第三基础层、第一-第三细节层,可见光图像第三基础层、第一-第三细节层后,由所述图像融合模块进行融合,包括:通过所述第一-第四图像融合层分别进行红外图像第三基础层与可见光图像第三基础层的融合,红外图像第一细节层与可见光图像第一细节层的融合,红外图像第二细节层与可见光图像第二细节层的融合,红外图像第三细节层与可见光图像第三细节层的融合,并对应得到融合基础层、第一融合细节层、第二融合细节层、第三融合细节层;由所述图像重构模块将所述融合基础层、所述第一融合细节层、所述第二融合细节层、所述第三融合细节层进行融合,即得到重构后的图像。
根据本发明的一种具体实施方式,所述各向异性扩散滤波器通过以下滤波模型进行滤波:
Figure BDA0003098314340000061
其中,It和It+1分别表示第t次和第t+1次迭代的图像,λ表示稳定性常数且满足0≤λ≤1/4,
Figure BDA0003098314340000062
分别表示图像在北、南、东、西方向的最近领域差分,如下:
Figure BDA0003098314340000063
Figure BDA0003098314340000064
Figure BDA0003098314340000065
Figure BDA0003098314340000066
cNx,y、cSx,y、cEx,y、cWx,y分别表示图像在北、南、东、西四个方向上的传导系数,如下:
Figure BDA0003098314340000067
Figure BDA0003098314340000068
Figure BDA0003098314340000071
Figure BDA0003098314340000072
k表示设定的导热系数,
I(x,y)表示待处理图像I的像素矩阵,其中,x、y表示像素点的横坐标和纵坐标。
根据本发明的一种具体实施方式,所述步骤S3包括:
通过两个并列的图像处理模块分别对红外及可见光图像进行处理,在每个图像处理模块中,通过其第一个各向异性扩散滤波器对输入图像I0进行滤波,得到滤波后的基础层和细节层,如下:
Figure BDA0003098314340000073
Figure BDA0003098314340000074
其中,ad(I0)表示待处理图像I通过各向异性扩散滤波器,
Figure BDA0003098314340000075
Figure BDA0003098314340000076
分别表示图像I的第一基础层和第一细节层;
其后,第n层的基础层
Figure BDA0003098314340000077
由上一层的基础层
Figure BDA0003098314340000078
通过第n个各向异性扩散滤波器得到,第n层的细节层
Figure BDA0003098314340000079
由上一层的基础层
Figure BDA00030983143400000710
与本层的基础层
Figure BDA00030983143400000711
作差分得到,如下:
Figure BDA00030983143400000712
Figure BDA00030983143400000713
其中,n≥2;
其后,通过如下的模型获得最终的融合图像F:
Figure BDA00030983143400000714
其中,
Figure BDA00030983143400000715
表示经n个红外图像和可见光图像基础层融合后得到的最终基础层,
Figure BDA00030983143400000716
表示每个红外图像细节层与可见光图像细节层的融合细节层,如下:
Figure BDA0003098314340000081
Figure BDA0003098314340000082
其中,
Figure BDA0003098314340000083
表示经过n个可见光图像基础层融合后得到的可见光图像最终基础层,
Figure BDA0003098314340000084
表示经过n个红外图像基础层融合后得到的红外图像最终基础层,
Figure BDA0003098314340000085
表示每个红外图像细节层,
Figure BDA0003098314340000086
表示每个可见光图像细节层,Wi和1-Wi表示大小为M×N的加权系数矩阵,其中:
Figure BDA0003098314340000087
Figure BDA0003098314340000088
其中,abs表示对一个图像矩阵中所有元素取绝对值操作,称为图像的显著图。
本发明进一步提出了上述融合方法的一种应用,为将其用于机载光电视频上。
本发明具备以下有益效果:
本发明的融合方法包括对红外图像的目标提取预处理和可见光图像的视觉增强预处理,特别适用于机载光电视频或具有类似特点的其它图像源;同时考虑到机载平台或其他类似平台的对于实时采集源图像并生成融合图像的计算资源限制,提出了一种轻量化图像融合方法,其视觉改善效果好、图像有用信息利用率高、系统鲁棒性高。
本发明的目标提取预处理中,根据红外图像热成像和环境辐射强度差异的特性和实际情况,以亮度高的区域为目标,亮度低的区域为背景,通过保留阈值以上的像素点、舍弃阈值以下的像素点的方法对原始红外图像进行了高效、准确的目标特征提取,滤除了图像背景信息。其中,在阈值分类之前对图像进行的顶帽变换可扩大目标和背景的灰度值差异,提高二分类的精度。该预处理可有效解决融合图像噪声多、背景亮度低、目标识别度低的问题,对红外图像中的背景噪声和其他冗余信息的抑制是有效的。
在机载光电视频图像多源数据的应用场景中,可见光图像背景中的颜色、纹理等是希望得到保留的部分,而相对的,红外图像中的背景部分被视为冗余信息。传统融合方法中,对图像融合是进行的全局处理,即图像的目标区域和背景区域使用了相同的融合策略,且不管是基于多尺度分析和深度学习的方法,或者是像素级融合和特征值融合,融合策略多为一比一的加权方法,在这种情况下,希望保留的可见光图像背景会受到红外图像背景的噪声干扰和抑制。另一方面,因可见光图像具有目标不突出、不明显、与环境之间的对比度低的特点,因此在机载光电视频图像多源数据的应用场景中,引入带有少量颜色纹理信息但具有高环境对比度的红外图像是更优选的选择,但在传统方法中,类似的,红外图像中的目标会受到可见光图像中低清晰度目标的抑制,尤其当红外和可见光图像中目标灰度值差异较大时,这种抑制更加明显,造成融合图像的目标依然不清晰的问题。本发明对红外图像的目标提取预处理过滤了红外图像背景,并在其后的融合中准确保留了可见光图像的背景信息,有效克服了上述问题,经测试,其在机载平台的夜晚应用场景中表现优良。
本发明的可见光图像视觉增强预处理可对红外图像预处理进行有效补充,如,通过红外图像预处理很好地保留了可见光图像提供的大部分背景和颜色纹理信息,但是就机载平台场景而言,其存在昼夜、温度、天气环境条件复杂,光照不充足、不均匀的客观条件,若直接使用未处理的可见光图像,难以得到高质量的融合效果。
本发明的融合方法使用各向异性扩散滤波,将图像视为热量场,并按照热量场内热传导方程以热能运动的观点处理图像,具有现实的物理意义,相较于传统的高斯滤波器,该过程基于偏微分方程perona-malik模型,因具有各向异性的特点,滤波效果更加平滑,保边效果更好,有效消除了通过最大类间方差法提取特征可能产生的边缘噪声,且核窗口为十字形,而非N×N的矩阵,对一些不规则形状的小目标更为敏感。
本发明的融合方法基于各向异性扩散滤波的多尺度融合模型,可进一步挖掘出图像中的深度特征,相对于传统的两尺度融合模型,可获得更佳的平滑融合图像。
附图说明
图1为具体实施方式所述融合方法的过程示意图。
图2为具体实施方式所述目标预处理过程示意图。
图3为具体实施方式所述视觉增强预处理过程示意图。
图4为具体实施方式所述各向异性扩散滤波过程示意图;
图5为具体实施方式所述多源图像多尺度分析融合过程示意图。
具体实施方式
根据本发明的技术方案,一种具体的实施方式包括如附图1所示的过程,如下:
S1:对待融合的红外图像进行目标提取预处理,得到含有目标区域红外特征分量的预处理后红外图像;
在一种具体实施方式中,如附图2所示,所述目标提取预处理包括:
S11对待融合的红外图像进行top-hat顶帽变换,获得差异化图像;
S12通过最大类间方差法获得所得差异化图像的阈值灰度级,根据阈值灰度级进行像素点分类,通过掩膜去除其中灰度级在阈值灰度级以下的像素点;
S13将掩膜处理后的图像与红外及可见光灰度差值矩阵进行作差处理,并将差值规范到0~255的灰度值,得到目标区域红外特征分量;
S14优选的,通过增加抑制比,获得压缩后的目标区域红外特征分量。
更具体的,步骤S11可包括:
S110
通过下式对红外图像IR进行灰度级形态学腐蚀处理:
Figure BDA0003098314340000101
其中,IR表示大小为M×N的红外图像;b表示红外图像IR的结构元(SE),优选的,b为边长为n个像素的方形结构元;x和y表示图像的横坐标和纵坐标,s和t表示取值在结构元b内的横坐标和纵坐标,⊙表示结构元b对图像的腐蚀操作。
S111
通过下式对腐蚀后的红外图像IR'进行灰度级形态学膨胀处理:
Figure BDA0003098314340000111
其中,
Figure BDA0003098314340000112
表示结构元b对图像的膨胀操作。
即,通过下式对IR进行先腐蚀、后膨胀的开运算处理:
Figure BDA0003098314340000113
其中,
Figure BDA0003098314340000114
表示开运算处理后所得图像。
S112
通过下式对开运算处理后所得图像进行top-hat顶帽变换,得到变换后的差异化图像That(IR):
Figure BDA0003098314340000115
其中,-表示作差。
更具体的,步骤S12可包括:
S121通过最大类间方差法获得所得差异化图像的阈值灰度级,如下:
设该M×N的IR图像得到的差异化图像That(IR)包括L个不同的灰度级{0,1,2,……,L-1},其中灰度级为i的图像含有ni个像素数,则图像像素总数为MN=n0+n1+n2+……+nL-1,将ni归一化,有:
Figure BDA0003098314340000116
其中,pi表示灰度级为i的像素数在总像素中的比例,即pi=ni/MN。
设灰度级k、0<k<L-1为阈值灰度级,由灰度级在区间[0,k]中的所有像素组成C1类像素集,由灰度级在区间[k+1,L-1]中所有像素组成C2类像素集,其像素比例分别为:
Figure BDA0003098314340000117
Figure BDA0003098314340000118
其中,P1(k)表示C1类像素在所有像素中的占比,P2(k)表示C2类像素在所有像素中的占比,根据式(5),可知P1(k)+P2(k)=1。
则C1类像素的平均灰度值为:
Figure BDA0003098314340000121
C2类像素的平均灰度值为:
Figure BDA0003098314340000122
则图像中灰度从0到k级的像素累加均值及图像全局像素均值可分别表示为:
Figure BDA0003098314340000123
Figure BDA0003098314340000124
其中,a(k)表示灰度从0到k级的像素累加均值,aG表示图像的全局像素均值。
则可得到不同像素分类C1和C2的类间方差如下:
Figure BDA0003098314340000125
其中,aG、P1(k)、a(k)分别由式(11)、(6)、(10)确定,
Figure BDA0003098314340000126
的取值与阈值灰度k(0<k<L-1)有关。
根据Ostu方法,取使
Figure BDA0003098314340000127
最大的灰度作为阈值灰度级k*,即:
Figure BDA0003098314340000128
S122设置如下的差异化图像That(IR)掩膜mask(x,y):
Figure BDA0003098314340000129
其中,f(x,y)表示That(IR)的灰度值矩阵,x、y表示像素点的横坐标和纵坐标,且1≤x≤M,1≤y≤N;
通过掩膜mask(x,y)对That(IR)进行处理,保留阈值以上灰度级的像素点,舍弃阈值以下灰度级的像素点,得到处理后的图像I2,如下:
I2=f(x,y)mask(x,y) 1≤x≤M,1≤y≤N (15)。
更具体的,步骤S13可包括:
S131对待融合红外图像与可见光图像进行灰度值作差处理,如下:
r(x,y)=vis(x,y)-ir(x,y) 1≤x≤M,1≤y≤N (16)
其中,ir(x,y)表示待融合红外图像的灰度值矩阵,vis(x,y)表示可见光图像的灰度值矩阵,r(x,y)表示vis(x,y)和ir(x,y)的差值矩阵。
通常情况下可见光图像比红外图像对应更亮的区域属于背景,因此通过差值矩阵r(x,y)估计红外图像中的背景部分。
S132将掩膜处理后的图像I2与差值矩阵r(x,y)进行作差处理,将差值规范到0~255的灰度值,得到红外特征分量,如下:
I3(x,y)=I2(x,y)-r(x,y) 1≤x≤M,1≤y≤N
Figure BDA0003098314340000131
其中,规范后的I3 *(x,y)差值矩阵即为红外特征分量,其可在保留原始可见光细节的同时避免融合结果过度曝光或噪声放大。
更具体的,步骤S13可包括:
将所得红外特征分量I3(x,y)乘以抑制比α,优选的,所述抑制比α可根据实际情况取0.5~1,进一步压缩红外特征分量,得到预处理之后的红外图像。
S2:对待融合的可见光图像进行视觉增强预处理,得到视觉增强后的可见光图像Vout(x,y)。
在一种具体实施方式中,如附图3所示,所述视觉增强预处理包括:
定义如下的非线性变换g,对任意的大小为M×N的图像I,有:
g(I)=log(I(x,y)+ξ),1≤x≤M,1≤y≤N (18)
其中,I(x,y)表示图像I的像素矩阵,ξ表示为避免像素值为0导致非线性变换无法完成而添加的常数。
S21将待融合可见光图像V(x,y)通过引导滤波器,获得通过滤波器后的图像V1(x,y);
S22将所述待融合可见光图像V(x,y)和所得滤波后图像V1(x,y)分别通过上述非线性变换g进行变换,对应得到变换后的图像及图像矩阵
Figure BDA0003098314340000141
Figure BDA0003098314340000142
S23将所述变换后的图像及图像矩阵
Figure BDA0003098314340000143
进行作差,得到非线性变换域上的差值矩阵
Figure BDA0003098314340000144
如下:
Figure BDA0003098314340000145
其中,
Figure BDA0003098314340000146
在非线性变换域,进行反变换后可得其原始域的对应矩阵V2(x,y);
S24对变换后的图像矩阵
Figure BDA0003098314340000147
和所得差值矩阵
Figure BDA0003098314340000148
进行如下的加权处理,得到非线性变换域中视觉增强后的可见光图像
Figure BDA0003098314340000149
Figure BDA00030983143400001410
Figure BDA00030983143400001411
其中,β表示动态压缩系数,由下式确定:
Figure BDA00030983143400001412
其中,
Figure BDA00030983143400001413
Figure BDA00030983143400001414
表示非线性变换域中
Figure BDA00030983143400001415
灰度矩阵中的最大值和最小值,两者之差表示图像灰度的动态范围,值越大表示图像灰度范围越大,在一些程度上说明图像的背景越暗,相应地,作为补偿,1-β的值就越大,可对图像的对比度作自适应的调节;T表示对照系数,可通过人为选取确定,一般令T取较小的值,以适应大多数的实际情况。
其中,
Figure BDA0003098314340000151
Figure BDA0003098314340000152
经过动态压缩系数β压缩后恢复至原对比度的结果。
Figure BDA0003098314340000153
为非线性变换域中视觉增强后的可见光图像。
其中,
Figure BDA0003098314340000154
带有原始可见光图像的整体明暗、对比度、结构信息,通过其对
Figure BDA0003098314340000155
进行对比度增强处理,可保留
Figure BDA0003098314340000156
中的细节信息不变。
S25通过非线性变换g的逆变换将
Figure BDA0003098314340000157
恢复到原始域,得到可见光图像增强结果Vout(x,y)。
S3:将预处理后红外图像与预处理后的可见光图像输入基于多层各向异性扩散滤波的多尺度分析多源图像融合模型进行融合。
其中所述基于多层各向异性扩散滤波的多尺度分析多源图像融合模型一种具体实施方式如附图4及附图5所示,其包括两个并列的图像处理模块、一个图像融合模块及一个图像重构模块。其中,每个图像处理模块包括三个滤波层,每个滤波层由一个各向异性扩散滤波器组成,图像在通过第一个滤波层后得到第一基础层和第一细节层,将第一基础层通过第二个滤波层后得到第二基础层和第二细节层,将第二基础层通过第三个滤波层后得到第三基础层和第三细节层,如附图4所示。在得到红外图像第三基础层、第一-第三细节层,可见光图像第三基础层、第一-第三细节层后,再通过融合模块进行融合,所述融合模块包括四个融合层,分别进行红外图像第三基础层与可见光图像第三基础层的融合,红外图像第一细节层与可见光图像第一细节层的融合,红外图像第二细节层与可见光图像第二细节层的融合,红外图像第三细节层与可见光图像第三细节层的融合,并对应得到融合基础层、第一融合细节层、第二融合细节层、第三融合细节层,如附图5所示,在得到该融合结果后,将融合基础层、第一融合细节层、第二融合细节层、第三融合细节层输入所述图像重构模块中(即附图4中“重构输入图像”部分),得到最终融合重构后的图像。
其中,每个各向异性扩散滤波器通过如下的各向异性扩散方程实现各向异性扩散滤波:
Figure BDA0003098314340000158
其中,I表示来自不同源的输入图像,如经目标提取预处理后的红外图像或经视觉增强预处理后的可见光图像;c(x,y,t)表示通量函数,其中t表示迭代次数;Δ表示拉普拉斯算子,
Figure BDA0003098314340000161
表示梯度算子。
上述各向异性扩散方程引入了热力学中场的概念,将整幅图像视为一个热量场,将各个像素视为热流(热通量,heat flux)。
通过各向异性扩散滤波克服了各向同性扩散滤波的缺点,后者运用区域间平滑方法但无法保留边缘信息。作为对比,各向异性扩散滤波利用偏微分方程(PDE)在保持非齐次区域(即边缘)的同时平滑齐次区域(即非边缘),运用区域间平滑的方式粗糙、平滑图像,在边缘处则保留尖锐的细节信息。
在一种具体实施方式中,可通过下式获得式(22)的迭代解,即具体的滤波模型:
Figure BDA0003098314340000162
其中,It和It+1分别表示第t次和第t+1次迭代的图像,λ表示稳定性常数且满足0≤λ≤1/4,
Figure BDA0003098314340000163
分别表示图像在北、南、东、西方向的最近领域差分,如下:
Figure BDA0003098314340000164
Figure BDA0003098314340000165
Figure BDA0003098314340000166
Figure BDA0003098314340000167
cNx,y、cSx,y、cEx,y、cWx,y分别表示图像在北、南、东、西四个方向上的传导系数,如下:
Figure BDA0003098314340000168
在边界区域,各方向的传导系数小。各向异性扩散滤波是区域平滑和边界保留的一个平衡,各向异性扩散滤波中,迭代次数t、导热系数e稳定性系数λ可根据实际需求人为设定,一般情况下,e取值越大图像平滑效果越好,λ取值越大图像平滑效果越好。
在上述模型下,两个并列的图像处理模块分别对红外及可见光图像进行处理,在每个图像处理模块中,输入图像经过第一个各向异性扩散滤波器后,滤波器输出作为第一基础层,输入图像与第一基础层做差作为第一细节层,其后第一基础层作为第二个各向异性扩散滤波器的输入,经其滤波后得到第二基础层和第二细节层,其后第二基础层作为第三个各向异性扩散滤波器的输入,经其滤波后得到第三基础层和第三细节层。
其中,所述基础层及细节层的具体获得过程如下:
通过融合模型的第一个各向异性扩散滤波器对输入图像I0进行滤波,得到滤波后的基础层和细节层,如下:
Figure BDA0003098314340000171
Figure BDA0003098314340000172
其中,ad(I0)表示通过各向异性扩散滤波器后的图像I,
Figure BDA0003098314340000173
Figure BDA0003098314340000174
分别表示图像I的第一基础层和第一细节层。
其后,第n层的基础层
Figure BDA0003098314340000175
由上一层的基础层
Figure BDA0003098314340000176
通过第n个各向异性扩散滤波器得到,第n层的细节层
Figure BDA0003098314340000177
由上一层的基础层
Figure BDA0003098314340000178
与本层的基础层
Figure BDA0003098314340000179
作差分得到,如下:
Figure BDA00030983143400001710
Figure BDA00030983143400001711
其中,n≥2。
在经过图像处理模块处理后,再经两个基础融合层分别对全部基础层及全部细节层进行融合,最终经总融合得到融合图像,如下:
Figure BDA00030983143400001712
其中,
Figure BDA00030983143400001713
表示经n个红外图像和可见光图像基础层融合后得到的最终基础层,
Figure BDA00030983143400001714
表示每个红外图像细节层与可见光图像细节层的融合细节层。
优选的,本发明通过如下的模型获得最终基础层和每个细节层:
Figure BDA0003098314340000181
Figure BDA0003098314340000182
其中,
Figure BDA0003098314340000183
表示经过n个可见光图像基础层融合后得到的可见光图像最终基础层,
Figure BDA0003098314340000184
表示经过n个红外图像基础层融合后得到的红外图像最终基础层,
Figure BDA0003098314340000185
表示每个红外图像细节层,
Figure BDA0003098314340000186
表示每个可见光图像细节层,Wi和1-Wi表示大小为M×N的加权系数矩阵。
进一步的,Wi和1-Wi设置如下:
Figure BDA0003098314340000187
Figure BDA0003098314340000188
其中,abs表示对一个图像矩阵中所有元素取绝对值操作,称为图像的显著图。
通过融合后得到的
Figure BDA0003098314340000189
Figure BDA00030983143400001810
按照式(28)n层的多尺度各向异性扩散滤波融合,即可得到融合图像F。
实施例1
通过具体实施方式所述的融合方法的优选方案对由机载光电视频获得的红外图像进行预处理,其中:
输入的红外图像IR大小为450×620,通道数为1,结构元b为边长为35个像素的方形结构元,根据式(4)顶帽变换后得到的图像That(IR)大小为450×620,通道数为1。
对That(IR)进行最大类间方差二分类时,选择灰度级比例0.3804,即38.04%的像素归为类别一,其余归为类别二,使图像That(IR)阈值化为两类C1和C2,即:P1(k)=0.3804,P2(k)=0.6196。继续求得掩膜mask(x,y),进而得到阈值化处理图像I2。根据式(16)、(17),求得红外特征分量I3(x,y)。令抑制比α=0.75,得到红外预处理图像。
实施例2
通过具体实施方式所述的融合方法的优选方案对由机载光电视频获得的可见光图像进行预处理,其中:
输入可见光图像V(x,y)大小为450×620,通道数为3,取式(18)中非线性变换g中的ξ=1。将V(x,y)通过引导滤波器,所用引导滤波器的参数为:引导图=V(x,y)自身及如下的局部窗口半径r:
r=floor(0.04max(M,N)) (32)
其中,floor表示向负无穷大方向取整,max表示取大;正则化参数=0.01,下采样系数=r/4,在该实施例中,可求得r=24,下采样系数=6,由式(19)求得可见光图像的差值矩阵。
设置对照系数T=4,由式(21)求得动态压缩系数β=0.4140。在变换域中,由式(20)求得可见光图像增强结果
Figure BDA0003098314340000191
最后通过非线性变换g的反变换将
Figure BDA0003098314340000192
恢复到原始域,得到可见光图像增强结果Vout(x,y)。
实施例3
通过具体实施方式所述的融合方法的优选方案对预处理后的由机载光电视频获得的可见光图像及红外图像进行多层各向异性扩散滤波并融合,其中:
各向异性扩散滤波器的参数为:迭代次数t=10,稳定性常数λ=0.15,热传导系数k=30。
多尺度分解的层数为n=3,通过式(26)、(27)、(28)进行基于各向异性扩散滤波的图像多尺度分解和重构。
多源图像数为2,红外图像IR、可见光图像VIS分别经过3层的多尺度各向异性扩散滤波分解过程,得到1层基础层和3层细节层,由式(29)、(30)、(31),得到融合图像。
以上实施例仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例。凡属于本发明思路下的技术方案均属于本发明的保护范围。应该指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下的改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.红外和可见光图像融合方法,其特征在于:包括:
S1对待融合的红外图像进行目标提取预处理,得到含有目标区域红外特征分量的预处理后红外图像;
S2对待融合的可见光图像进行视觉增强预处理,得到视觉增强后的可见光图像;
S3将预处理后红外图像与预处理后的可见光图像输入融合模型进行融合;
其中,所述融合模型基于含有多层各向异性扩散滤波器的多尺度分析模型构建。
2.根据权利要求1所述的融合方法,其特征在于:所述目标提取预处理包括:
S11对待融合的红外图像进行顶帽变换,获得差异化图像;
S12通过最大类间方差法获得所得差异化图像的阈值灰度级,根据阈值灰度级进行像素点分类,通过掩膜去除其中灰度级在阈值灰度级以下的像素点;
S13将掩膜处理后的图像与红外及可见光图像的灰度差值矩阵进行作差处理,并将所得差值规范到0~255的灰度值,得到目标区域红外特征分量;
优选的,其还包括:
S14通过所述目标区域红外特征分量与抑制比的相乘,获得压缩后的目标区域红外特征分量。
3.根据权利要求2所述的融合方法,其特征在于:所述步骤S12中:
通过以下模型获得所得差异化图像的阈值灰度级k*
Figure FDA0003098314330000011
Figure FDA0003098314330000012
Figure FDA0003098314330000013
Figure FDA0003098314330000014
Figure FDA0003098314330000015
Figure FDA0003098314330000021
Figure FDA0003098314330000022
Figure FDA0003098314330000023
P1(k)+P2(k)=1,
其中,i、k表示灰度级,k∈{0,1,2,……,L-1},其中{0,1,2,……,L-1}表示所得差异化图像的L个不同的灰度级;a(k)表示灰度从0到k级的像素累加均值;aG表示图像的全局像素均值;P1(k)表示灰度级低于k的像素点在所有像素点中的占比,P2(k)表示灰度级高于k的像素点在所有像素点中的占比;
和/或,通过以下掩膜mask(x,y)对差异化图像That(IR)进行处理:
Figure FDA0003098314330000024
其中,k*表示阈值灰度级,f(x,y)表示差异化图像That(IR)的灰度值矩阵,x、y表示像素点的横坐标和纵坐标且1≤x≤M,1≤y≤N。
4.根据权利要求3所述的融合方法,其特征在于:所述步骤S13中:
通过下式获得所述差值矩阵:
r(x,y)=vis(x,y)-ir(x,y) 1≤x≤M,1≤y≤N (16)
其中,ir(x,y)表示待融合红外图像的灰度值矩阵,vis(x,y)表示可见光图像的灰度值矩阵,r(x,y)表示vis(x,y)和ir(x,y)的差值矩阵;
通过下式进行所述差值规范:
Figure FDA0003098314330000025
其中,I3(x,y)=I2(x,y)-r(x,y),1≤x≤M,1≤y≤N表示经掩膜处理后的图像I2与差值矩阵r(x,y)的差,I2=f(x,y)mask(x,y),1≤x≤M,1≤y≤N表示经所述掩膜mask(x,y)处理后的图像。
5.根据权利要求1所述的融合方法,其特征在于:所述视觉增强预处理包括:
S21将待融合可见光图像通过引导滤波器,获得通过滤波器后的图像;
S22将所述待融合可见光图像和所得滤波后图像分别进行非线性变换,对应得到变换后的图像及图像矩阵;
S23将所述变换后的图像及图像矩阵进行作差,得到非线性变换域上的差值矩阵;
S24对所述变换后的图像矩阵和所述非线性变换域上的差值矩阵进行加权加和,得到非线性变换域中视觉增强后的可见光图像:
S25通过非线性变换的逆变换将所述非线性变换域中视觉增强后的可见光图像恢复到原始域,得到增强图像。
6.根据权利要求5所述的融合方法,其特征在于:所述视觉增强预处理中:
所述非线性变换为:
g(I)=log(I(x,y)+ξ),1≤x≤M,1≤y≤N (18),
其中,I(x,y)表示待处理图像I的像素矩阵,ξ表示为避免像素值为0导致非线性变换无法完成而添加的常数;
所述加权加和为:
Figure FDA0003098314330000031
Figure FDA0003098314330000032
其中,
Figure FDA0003098314330000033
表示所述变换后的图像矩阵,
Figure FDA0003098314330000034
表示所述非线性变换域上的差值矩阵,
Figure FDA0003098314330000035
Figure FDA0003098314330000036
分别表示
Figure FDA0003098314330000037
灰度矩阵中的最大值和最小值,
Figure FDA0003098314330000038
表示所述非线性变换域中视觉增强后的可见光图像,β表示动态压缩系数,由下式确定:
Figure FDA0003098314330000039
其中T表示对照系数。
7.根据权利要求1所述的融合方法,其特征在于:所述融合模型包括两个并列的图像处理模块、即第一图像处理模块和第二图像处理模块,与两个图像处理模块均相连的一个图像融合模块及与图像融合模块相连的一个图像重构模块;其中每个图像处理模块包括三个滤波层、即第一滤波层、第二滤波层和第三滤波层,每个滤波层含有一个各向异性扩散滤波器;所述图像融合模块包括四个图像融合层、即第一图像融合层-第四图像融合层;其中两个图像处理模块通过其三个滤波层对所述预处理后的可见光图像和所述预处理后的红外图像分别进行滤波处理,包括:输入预处理后的图像,图像通过所述第一滤波层后得到第一基础层和第一细节层,所述第一基础层通过所述第二滤波层后得到第二基础层和第二细节层,所述第二基础层通过所述第三滤波层后得到第三基础层和第三细节层;在通过两个图像处理模块分别得到红外图像第三基础层、第一-第三细节层,可见光图像第三基础层、第一-第三细节层后,由所述图像融合模块进行融合,包括:通过所述第一-第四图像融合层分别进行红外图像第三基础层与可见光图像第三基础层的融合,红外图像第一细节层与可见光图像第一细节层的融合,红外图像第二细节层与可见光图像第二细节层的融合,红外图像第三细节层与可见光图像第三细节层的融合,并对应得到融合基础层、第一融合细节层、第二融合细节层、第三融合细节层;由所述图像重构模块将所述融合基础层、所述第一融合细节层、所述第二融合细节层、所述第三融合细节层进行融合,即得到重构后的图像。
8.根据权利要求7所述的融合方法,其特征在于:所述各向异性扩散滤波器通过以下滤波模型进行滤波:
It+1=It+λ(cNx,yN(It)+cSx,yS(It)+cEx,yE(It)+cWx,yW(It)) (23)
其中,It和It+1分别表示第t次和第t+1次迭代的图像,λ表示稳定性常数且满足0≤λ≤1/4,▽N、▽S、▽E、▽W分别表示图像在北、南、东、西方向的最近领域差分,如下:
N(I(x,y))=I(x-1,y)-I(x,y)
S(I(x,y))=I(x+1,y)-I(x,y)
E(I(x,y))=I(x,y+1)-I(x,y)
W(I(x,y))=I(x,y-1)-I(x,y) (24),
cNx,y、cSx,y、cEx,y、cWx,y分别表示图像在北、南、东、西四个方向上的传导系数,如下:
cNx,y=exp(-||▽N(I)||2/k2)
cSx,y=exp(-||▽S(I)||2/k2)
cEx,y=exp(-||▽E(I)||2/k2)
cWx,y=exp(-||▽W(I)||2/k2) (25),
k表示设定的导热系数,
I(x,y)表示待处理图像I的像素矩阵,其中,x、y表示像素点的横坐标和纵坐标。
9.根据权利要求7所述的融合方法,其特征在于:所述步骤S3包括:
通过两个并列的图像处理模块分别对红外及可见光图像进行处理,在每个图像处理模块中,通过其第一个各向异性扩散滤波器对输入图像I0进行滤波,得到滤波后的基础层和细节层,如下:
Figure FDA0003098314330000051
Figure FDA0003098314330000052
其中,ad(I0)表示待处理图像I通过各向异性扩散滤波器,
Figure FDA0003098314330000053
Figure FDA0003098314330000054
分别表示图像I的第一基础层和第一细节层;
其后,第n层的基础层
Figure FDA0003098314330000055
由上一层的基础层
Figure FDA0003098314330000056
通过第n个各向异性扩散滤波器得到,第n层的细节层
Figure FDA0003098314330000057
由上一层的基础层
Figure FDA0003098314330000058
与本层的基础层
Figure FDA0003098314330000059
作差分得到,如下:
Figure FDA00030983143300000510
Figure FDA00030983143300000511
其中,n≥2;
其后,通过如下的模型获得最终的融合图像F:
Figure FDA00030983143300000512
其中,
Figure FDA00030983143300000513
表示经n个红外图像和可见光图像基础层融合后得到的最终基础层,
Figure FDA00030983143300000514
Figure FDA00030983143300000515
表示每个红外图像细节层与可见光图像细节层的融合细节层,如下:
Figure FDA0003098314330000061
Figure FDA0003098314330000062
其中,
Figure FDA0003098314330000063
表示经过n个可见光图像基础层融合后得到的可见光图像最终基础层,
Figure FDA0003098314330000064
表示经过n个红外图像基础层融合后得到的红外图像最终基础层,
Figure FDA0003098314330000065
表示每个红外图像细节层,
Figure FDA0003098314330000066
表示每个可见光图像细节层,Wi和1-Wi表示大小为M×N的加权系数矩阵,其中:
Figure FDA0003098314330000067
Figure FDA0003098314330000068
其中,abs表示对一个图像矩阵中所有元素取绝对值。
10.权利要求1-9中任一项所述的融合方法在机载光电视频上的应用。
CN202110617056.1A 2021-06-03 2021-06-03 红外和可见光图像融合方法及其在机载光电视频中的应用 Active CN113222877B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110617056.1A CN113222877B (zh) 2021-06-03 2021-06-03 红外和可见光图像融合方法及其在机载光电视频中的应用

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110617056.1A CN113222877B (zh) 2021-06-03 2021-06-03 红外和可见光图像融合方法及其在机载光电视频中的应用

Publications (2)

Publication Number Publication Date
CN113222877A true CN113222877A (zh) 2021-08-06
CN113222877B CN113222877B (zh) 2023-04-11

Family

ID=77082477

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110617056.1A Active CN113222877B (zh) 2021-06-03 2021-06-03 红外和可见光图像融合方法及其在机载光电视频中的应用

Country Status (1)

Country Link
CN (1) CN113222877B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114202679A (zh) * 2021-12-01 2022-03-18 昆明理工大学 一种基于gan网络的异源遥感图像自动化标注方法
CN114544004A (zh) * 2022-02-25 2022-05-27 浙江天铂云科光电股份有限公司 一种用于红外热像仪的自动聚焦方法
CN115797244A (zh) * 2023-02-07 2023-03-14 中国科学院长春光学精密机械与物理研究所 基于多尺度方向共现滤波器与强度传递的图像融合方法
CN115953566A (zh) * 2023-03-15 2023-04-11 深圳市普雷德科技有限公司 一种用于红外热成像仪的特征分析方法、系统及介质
CN117218048A (zh) * 2023-11-07 2023-12-12 天津市测绘院有限公司 基于三层稀疏光滑模型的红外与可见光图像融合方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106952246A (zh) * 2017-03-14 2017-07-14 北京理工大学 基于视觉注意特性的可见光红外图像增强彩色融合方法
US20180227509A1 (en) * 2015-08-05 2018-08-09 Wuhan Guide Infrared Co., Ltd. Visible light image and infrared image fusion processing system and fusion method
AU2020100178A4 (en) * 2020-02-04 2020-03-19 Huang, Shuying DR Multiple decision maps based infrared and visible image fusion
CN111429391A (zh) * 2020-03-23 2020-07-17 西安科技大学 一种红外和可见光图像融合方法、融合系统及应用
CN112288663A (zh) * 2020-09-24 2021-01-29 山东师范大学 一种红外与可见光图像融合方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180227509A1 (en) * 2015-08-05 2018-08-09 Wuhan Guide Infrared Co., Ltd. Visible light image and infrared image fusion processing system and fusion method
CN106952246A (zh) * 2017-03-14 2017-07-14 北京理工大学 基于视觉注意特性的可见光红外图像增强彩色融合方法
AU2020100178A4 (en) * 2020-02-04 2020-03-19 Huang, Shuying DR Multiple decision maps based infrared and visible image fusion
CN111429391A (zh) * 2020-03-23 2020-07-17 西安科技大学 一种红外和可见光图像融合方法、融合系统及应用
CN112288663A (zh) * 2020-09-24 2021-01-29 山东师范大学 一种红外与可见光图像融合方法及系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HUI HUANG等: "Fusion algorithm of visible and infrared image based on anisotropic diffusion and image enhancement", 《RESEARCH ARTICLE》 *
HUI LI等: "DenseFuse:A Fusion Approach to Infrared and Visible Images", 《ARXIV:1804.08361V8 [CS.CV]》 *
MINGJING ZHAO等: "Infrared Small-Target Detection Based on Multiple Morphological Profiles", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》 *
倪钏等: "基于整体变分的红外和可见光图像融合", 《红外》 *
张鹏辉等: "基于视觉认知的红外目标分割算法", 《应用光学》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114202679A (zh) * 2021-12-01 2022-03-18 昆明理工大学 一种基于gan网络的异源遥感图像自动化标注方法
CN114544004A (zh) * 2022-02-25 2022-05-27 浙江天铂云科光电股份有限公司 一种用于红外热像仪的自动聚焦方法
CN115797244A (zh) * 2023-02-07 2023-03-14 中国科学院长春光学精密机械与物理研究所 基于多尺度方向共现滤波器与强度传递的图像融合方法
CN115953566A (zh) * 2023-03-15 2023-04-11 深圳市普雷德科技有限公司 一种用于红外热成像仪的特征分析方法、系统及介质
CN117218048A (zh) * 2023-11-07 2023-12-12 天津市测绘院有限公司 基于三层稀疏光滑模型的红外与可见光图像融合方法
CN117218048B (zh) * 2023-11-07 2024-03-08 天津市测绘院有限公司 基于三层稀疏光滑模型的红外与可见光图像融合方法

Also Published As

Publication number Publication date
CN113222877B (zh) 2023-04-11

Similar Documents

Publication Publication Date Title
CN113222877B (zh) 红外和可见光图像融合方法及其在机载光电视频中的应用
Li et al. Image dehazing using residual-based deep CNN
Ren et al. Single image dehazing via multi-scale convolutional neural networks with holistic edges
Xu et al. Review of video and image defogging algorithms and related studies on image restoration and enhancement
CN108090888B (zh) 基于视觉注意模型的红外图像和可见光图像的融合检测方法
CN111915530B (zh) 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法
CN108537756B (zh) 基于图像融合的单幅图像去雾方法
KR102261532B1 (ko) 단일 스케일 영상 융합에 기반한 안개 제거 시스템 및 방법
CN109993804A (zh) 一种基于条件生成对抗网络的道路场景去雾方法
CN112365414B (zh) 一种基于双路残差卷积神经网络的图像去雾方法
CN111709888B (zh) 一种基于改进的生成对抗网络的航拍图像去雾方法
Bansal et al. A review of image restoration based image defogging algorithms
Lepcha et al. A deep journey into image enhancement: A survey of current and emerging trends
CN104318528A (zh) 基于多尺度wls滤波的雾天图像恢复方法
CN112164010A (zh) 一种多尺度融合卷积神经网络图像去雾方法
Wei et al. An image fusion dehazing algorithm based on dark channel prior and retinex
Wang et al. Haze removal algorithm based on single-images with chromatic properties
Fu et al. An anisotropic Gaussian filtering model for image de-hazing
Zhao et al. A multi-scale U-shaped attention network-based GAN method for single image dehazing
CN111311503A (zh) 一种夜晚低亮度图像增强系统
Zhuang et al. Image enhancement by deep learning network based on derived image and Retinex
CN116596792B (zh) 一种面向智能船舶的内河雾天场景恢复方法、系统及设备
Singh et al. Multiscale reflection component based weakly illuminated nighttime image enhancement
CN116309233A (zh) 一种基于夜视增强的红外与可见光图像融合方法
Ding et al. Sparse codes fusion for context enhancement of night video surveillance

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant