CN113222877A - 红外和可见光图像融合方法及其在机载光电视频中的应用 - Google Patents
红外和可见光图像融合方法及其在机载光电视频中的应用 Download PDFInfo
- Publication number
- CN113222877A CN113222877A CN202110617056.1A CN202110617056A CN113222877A CN 113222877 A CN113222877 A CN 113222877A CN 202110617056 A CN202110617056 A CN 202110617056A CN 113222877 A CN113222877 A CN 113222877A
- Authority
- CN
- China
- Prior art keywords
- image
- layer
- fusion
- visible light
- infrared
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 26
- 230000004927 fusion Effects 0.000 claims abstract description 115
- 238000009792 diffusion process Methods 0.000 claims abstract description 38
- 238000007781 pre-processing Methods 0.000 claims abstract description 21
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 238000004458 analytical method Methods 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 58
- 238000012545 processing Methods 0.000 claims description 42
- 238000001914 filtration Methods 0.000 claims description 39
- 230000009466 transformation Effects 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 28
- 230000000007 visual effect Effects 0.000 claims description 27
- 239000000126 substance Substances 0.000 claims description 14
- 230000006835 compression Effects 0.000 claims description 6
- 238000007906 compression Methods 0.000 claims description 6
- 238000009825 accumulation Methods 0.000 claims description 4
- 230000001629 suppression Effects 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 9
- 238000003384 imaging method Methods 0.000 abstract description 8
- 230000007613 environmental effect Effects 0.000 abstract description 4
- 230000004438 eyesight Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000000354 decomposition reaction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000005764 inhibitory process Effects 0.000 description 3
- 238000001931 thermography Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 230000003628 erosive effect Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000003706 image smoothing Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000005693 optoelectronics Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005530 etching Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000009394 selective breeding Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
本发明公开了红外和可见光图像融合方法及其在机载光电视频中的应用。其中所述融合方法包括:将经过目标提取预处理得到预处理后红外图像,与经过视觉增强预处理得到的预处理后可见光图像通过融合模型进行融合,其中所述融合模型基于含有多层各向异性扩散滤波器的多尺度分析模型构建。本发明所得融合图像在高分辨、高清晰度的同时具有夜间成像效果好、环境影响小、集成信息量大、融合效率高等特点,特别适用于在机载嵌入式平台实时融合多源光电图像。
Description
技术领域
本发明涉及多源图像融合技术领域。
背景技术
不同类型的成像传感器的成像机理和应用场景各异,其中,由于技术手段等的限制,单一成像传感器得到的单源图像仅可以满足一些特定的应用需求,无法适应环境更复杂、用途更广泛的场景。为了得到目标和背景清晰、语义信息充足、应用范围广泛和更符合人类视觉以及机器识别的图像,同时避免因使用多个单一成像传感器而产生的信息冗余和损耗,相关应用中更多采用了多源图像融合技术。
多源图像融合技术旨在利用多源图像的冗余性和互补性,综合不同成像传感器的图像数据特点,取长补短,提供具有更高可信度,较少的不确定性以及更好的可理解性的目标和图像信息,从而反应出对事物更客观、更丰富、更本质的认识,达到改善图像视觉效果、强化图像有用信息、增加图像可理解性、使系统更具鲁棒性的目的。根据应用方向的不同,多源图像融合可分为医学图像融合、多聚焦图像融合、遥感图像融合、多曝光图像融合、可见光和红外图像融合等。其中,可见光和红外图像融合是机载视景增强和机载辅助驾驶等系统中的关键技术。这些系统利用红外和可见光传感器拍摄飞机前方区域场景,并通过多源图像融合技术生成视景图像供飞行员观察和辅助导航。
在可见光与红外图像融合技术中,可见光图像可提供纹理细节信息和与人类视觉系统一致的高空间分辨率和清晰度,红外图像则由于其波长和热成像等特性,可提供在雾天或光照不足等条件下的良好成像优势,同时,可见光图像可弥补红外无法对机场指示灯和航空障碍灯等冷光源成像的缺陷,通过两者的融合有效改善复杂气候条件下的成像效果,减少视觉盲点,提升态势感知能力,大幅提高飞行和着陆安全性。
现有的红外和可见光图像融合技术多使用基于多尺度分析的方法和基于神经网络的方法。其中,多尺度分析又被称为多分辨率分析,其基本思想是将图像经过多尺度变换之后得到不同尺度空间下的子图像,然后在各个尺度空间下根据特定的规则融合多源图像的子图像,最后用多尺度逆变换恢复到原来的空间。多尺度分析可在尺度空间中挖掘图像的底层特征语义,如图像的纹理细节、边缘轮廓等,但是,一方面,该方法通常只能提取图像的全局特征而非局部特征,且在复杂场景下提取图像全局特征时,易出现将目标和其他噪声混淆的情况;另一方面,该方法在尺度空间中的融合规则存在泛用性低的问题,如不适用多个昼夜及温度环境的情况,导致获得的目标显著度不高、图像纹理背景不均匀、光照不均匀、前景不够突出等问题,融合效果较差。
在神经网络方面,包括CNN、GAN等在内的一些深度学习模型被应用到了可见光与红外图像融合上,但深度学习需要大量的数据进行训练,在数据量较少的情况下难以使用,另外,图像融合中常缺少先验信息,导致融合策略对融合结果的影响过大。
发明内容
本发明的目的在于提出一种红外和可见光图像融合方法,其所得融合图像在保持较好的与人眼视觉图像一致的高分辨、高清晰度的特性同时又综合红外热成像夜视范围广、受环境影响小的特定信息,集成信息量大、效率高,便于目标检测识别等后续处理,并特别适用于在机载嵌入式平台实时融合多源光电图像。
本发明首先提供了如下的技术方案:
红外和可见光图像融合方法,其包括:
S1对待融合的红外图像进行目标提取预处理,得到含有目标区域红外特征分量的预处理后红外图像;
S2对待融合的可见光图像进行视觉增强预处理,得到视觉增强后的可见光图像;
S3将预处理后红外图像与预处理后的可见光图像输入融合模型进行融合;
其中,所述融合模型基于含有多层各向异性扩散滤波器的多尺度分析模型构建。
根据本发明的一种具体实施方式,所述目标提取预处理包括:
S11对待融合的红外图像进行顶帽变换,获得差异化图像;
S12通过最大类间方差法获得所得差异化图像的阈值灰度级,根据阈值灰度级进行像素点分类,通过掩膜去除其中灰度级在阈值灰度级以下的像素点;
S13将掩膜处理后的图像与红外及可见光图像的灰度差值矩阵进行作差处理,并将所得差值规范到0~255的灰度值,得到目标区域红外特征分量。
优选的,其还包括:
S14通过所述目标区域红外特征分量与抑制比的相乘,获得压缩后的目标区域红外特征分量。
根据本发明的一种具体实施方式,所述步骤S12中:
通过以下模型获得所得差异化图像的阈值灰度级k*:
其中,i、k表示灰度级,k∈{0,1,2,……,L-1},其中{0,1,2,……,L-1}表示所得差异化图像的L个不同的灰度级;a(k)表示灰度从0到k级的像素累加均值;aG表示图像的全局像素均值;P1(k)表示灰度级低于k的像素点在所有像素点中的占比,P2(k)表示灰度级高于k的像素点在所有像素点中的占比。
根据本发明的一种具体实施方式,通过以下掩膜mask(x,y)对差异化图像That(IR)进行处理:
其中,k*表示阈值灰度级,f(x,y)表示差异化图像That(IR)的灰度值矩阵,x、y表示像素点的横坐标和纵坐标且1≤x≤M,1≤y≤N。
根据本发明的一种具体实施方式,所述步骤S13中:
对通过下式获得所述差值矩阵:
r(x,y)=vis(x,y)-ir(x,y) 1≤x≤M,1≤y≤N (16)
其中,ir(x,y)表示待融合红外图像的灰度值矩阵,vis(x,y)表示可见光图像的灰度值矩阵,r(x,y)表示vis(x,y)和ir(x,y)的差值矩阵。
根据本发明的一种具体实施方式,通过下式进行所述差值规范:
其中,I3(x,y)=I2(x,y)-r(x,y)1≤x≤M,1≤y≤N表示经掩膜处理后的图像I2与差值矩阵r(x,y)的差,I2=f(x,y)mask(x,y),1≤x≤M,1≤y≤N表示经所述掩膜mask(x,y)处理后的图像。
根据本发明的一种具体实施方式,所述视觉增强预处理包括:
S21将待融合可见光图像通过引导滤波器,获得通过滤波器后的图像;
S22将所述待融合可见光图像和所得滤波后图像分别进行非线性变换,对应得到变换后的图像及图像矩阵;
S23将所述变换后的图像及图像矩阵进行作差,得到非线性变换域上的差值矩阵;
S24对所述变换后的图像矩阵和所述非线性变换域上的差值矩阵进行加权加和,得到非线性变换域中视觉增强后的可见光图像:
S25通过非线性变换的逆变换将所述非线性变换域中视觉增强后的可见光图像恢复到原始域,得到增强图像。
根据本发明的一种具体实施方式,所述视觉增强预处理中:
所述非线性变换为:
g(I)=log(I(x,y)+ξ),1≤x≤M,1≤y≤N (18),
其中,I(x,y)表示待处理图像I的像素矩阵,ξ表示为避免像素值为0导致非线性变换无法完成而添加的常数;
所述加权加和为:
根据本发明的一种具体实施方式,所述融合模型包括两个并列的图像处理模块、即第一图像处理模块和第二图像处理模块,与两个图像处理模块均相连的一个图像融合模块及与图像融合模块相连的一个图像重构模块;其中每个图像处理模块包括三个滤波层、即第一滤波层、第二滤波层和第三滤波层,每个滤波层含有一个各向异性扩散滤波器;所述图像融合模块包括四个图像融合层、即第一图像融合层-第四图像融合层;其中两个图像处理模块通过其三个滤波层对所述预处理后的可见光图像和所述预处理后的红外图像分别进行滤波处理,包括:输入预处理后的图像,图像通过所述第一滤波层后得到第一基础层和第一细节层,所述第一基础层通过所述第二滤波层后得到第二基础层和第二细节层,所述第二基础层通过所述第三滤波层后得到第三基础层和第三细节层;在通过两个图像处理模块分别得到红外图像第三基础层、第一-第三细节层,可见光图像第三基础层、第一-第三细节层后,由所述图像融合模块进行融合,包括:通过所述第一-第四图像融合层分别进行红外图像第三基础层与可见光图像第三基础层的融合,红外图像第一细节层与可见光图像第一细节层的融合,红外图像第二细节层与可见光图像第二细节层的融合,红外图像第三细节层与可见光图像第三细节层的融合,并对应得到融合基础层、第一融合细节层、第二融合细节层、第三融合细节层;由所述图像重构模块将所述融合基础层、所述第一融合细节层、所述第二融合细节层、所述第三融合细节层进行融合,即得到重构后的图像。
根据本发明的一种具体实施方式,所述各向异性扩散滤波器通过以下滤波模型进行滤波:
cNx,y、cSx,y、cEx,y、cWx,y分别表示图像在北、南、东、西四个方向上的传导系数,如下:
k表示设定的导热系数,
I(x,y)表示待处理图像I的像素矩阵,其中,x、y表示像素点的横坐标和纵坐标。
根据本发明的一种具体实施方式,所述步骤S3包括:
通过两个并列的图像处理模块分别对红外及可见光图像进行处理,在每个图像处理模块中,通过其第一个各向异性扩散滤波器对输入图像I0进行滤波,得到滤波后的基础层和细节层,如下:
其中,n≥2;
其后,通过如下的模型获得最终的融合图像F:
其中,表示经过n个可见光图像基础层融合后得到的可见光图像最终基础层,表示经过n个红外图像基础层融合后得到的红外图像最终基础层,表示每个红外图像细节层,表示每个可见光图像细节层,Wi和1-Wi表示大小为M×N的加权系数矩阵,其中:
其中,abs表示对一个图像矩阵中所有元素取绝对值操作,称为图像的显著图。
本发明进一步提出了上述融合方法的一种应用,为将其用于机载光电视频上。
本发明具备以下有益效果:
本发明的融合方法包括对红外图像的目标提取预处理和可见光图像的视觉增强预处理,特别适用于机载光电视频或具有类似特点的其它图像源;同时考虑到机载平台或其他类似平台的对于实时采集源图像并生成融合图像的计算资源限制,提出了一种轻量化图像融合方法,其视觉改善效果好、图像有用信息利用率高、系统鲁棒性高。
本发明的目标提取预处理中,根据红外图像热成像和环境辐射强度差异的特性和实际情况,以亮度高的区域为目标,亮度低的区域为背景,通过保留阈值以上的像素点、舍弃阈值以下的像素点的方法对原始红外图像进行了高效、准确的目标特征提取,滤除了图像背景信息。其中,在阈值分类之前对图像进行的顶帽变换可扩大目标和背景的灰度值差异,提高二分类的精度。该预处理可有效解决融合图像噪声多、背景亮度低、目标识别度低的问题,对红外图像中的背景噪声和其他冗余信息的抑制是有效的。
在机载光电视频图像多源数据的应用场景中,可见光图像背景中的颜色、纹理等是希望得到保留的部分,而相对的,红外图像中的背景部分被视为冗余信息。传统融合方法中,对图像融合是进行的全局处理,即图像的目标区域和背景区域使用了相同的融合策略,且不管是基于多尺度分析和深度学习的方法,或者是像素级融合和特征值融合,融合策略多为一比一的加权方法,在这种情况下,希望保留的可见光图像背景会受到红外图像背景的噪声干扰和抑制。另一方面,因可见光图像具有目标不突出、不明显、与环境之间的对比度低的特点,因此在机载光电视频图像多源数据的应用场景中,引入带有少量颜色纹理信息但具有高环境对比度的红外图像是更优选的选择,但在传统方法中,类似的,红外图像中的目标会受到可见光图像中低清晰度目标的抑制,尤其当红外和可见光图像中目标灰度值差异较大时,这种抑制更加明显,造成融合图像的目标依然不清晰的问题。本发明对红外图像的目标提取预处理过滤了红外图像背景,并在其后的融合中准确保留了可见光图像的背景信息,有效克服了上述问题,经测试,其在机载平台的夜晚应用场景中表现优良。
本发明的可见光图像视觉增强预处理可对红外图像预处理进行有效补充,如,通过红外图像预处理很好地保留了可见光图像提供的大部分背景和颜色纹理信息,但是就机载平台场景而言,其存在昼夜、温度、天气环境条件复杂,光照不充足、不均匀的客观条件,若直接使用未处理的可见光图像,难以得到高质量的融合效果。
本发明的融合方法使用各向异性扩散滤波,将图像视为热量场,并按照热量场内热传导方程以热能运动的观点处理图像,具有现实的物理意义,相较于传统的高斯滤波器,该过程基于偏微分方程perona-malik模型,因具有各向异性的特点,滤波效果更加平滑,保边效果更好,有效消除了通过最大类间方差法提取特征可能产生的边缘噪声,且核窗口为十字形,而非N×N的矩阵,对一些不规则形状的小目标更为敏感。
本发明的融合方法基于各向异性扩散滤波的多尺度融合模型,可进一步挖掘出图像中的深度特征,相对于传统的两尺度融合模型,可获得更佳的平滑融合图像。
附图说明
图1为具体实施方式所述融合方法的过程示意图。
图2为具体实施方式所述目标预处理过程示意图。
图3为具体实施方式所述视觉增强预处理过程示意图。
图4为具体实施方式所述各向异性扩散滤波过程示意图;
图5为具体实施方式所述多源图像多尺度分析融合过程示意图。
具体实施方式
根据本发明的技术方案,一种具体的实施方式包括如附图1所示的过程,如下:
S1:对待融合的红外图像进行目标提取预处理,得到含有目标区域红外特征分量的预处理后红外图像;
在一种具体实施方式中,如附图2所示,所述目标提取预处理包括:
S11对待融合的红外图像进行top-hat顶帽变换,获得差异化图像;
S12通过最大类间方差法获得所得差异化图像的阈值灰度级,根据阈值灰度级进行像素点分类,通过掩膜去除其中灰度级在阈值灰度级以下的像素点;
S13将掩膜处理后的图像与红外及可见光灰度差值矩阵进行作差处理,并将差值规范到0~255的灰度值,得到目标区域红外特征分量;
S14优选的,通过增加抑制比,获得压缩后的目标区域红外特征分量。
更具体的,步骤S11可包括:
S110
通过下式对红外图像IR进行灰度级形态学腐蚀处理:
其中,IR表示大小为M×N的红外图像;b表示红外图像IR的结构元(SE),优选的,b为边长为n个像素的方形结构元;x和y表示图像的横坐标和纵坐标,s和t表示取值在结构元b内的横坐标和纵坐标,⊙表示结构元b对图像的腐蚀操作。
S111
通过下式对腐蚀后的红外图像IR'进行灰度级形态学膨胀处理:
即,通过下式对IR进行先腐蚀、后膨胀的开运算处理:
S112
通过下式对开运算处理后所得图像进行top-hat顶帽变换,得到变换后的差异化图像That(IR):
其中,-表示作差。
更具体的,步骤S12可包括:
S121通过最大类间方差法获得所得差异化图像的阈值灰度级,如下:
设该M×N的IR图像得到的差异化图像That(IR)包括L个不同的灰度级{0,1,2,……,L-1},其中灰度级为i的图像含有ni个像素数,则图像像素总数为MN=n0+n1+n2+……+nL-1,将ni归一化,有:
其中,pi表示灰度级为i的像素数在总像素中的比例,即pi=ni/MN。
设灰度级k、0<k<L-1为阈值灰度级,由灰度级在区间[0,k]中的所有像素组成C1类像素集,由灰度级在区间[k+1,L-1]中所有像素组成C2类像素集,其像素比例分别为:
其中,P1(k)表示C1类像素在所有像素中的占比,P2(k)表示C2类像素在所有像素中的占比,根据式(5),可知P1(k)+P2(k)=1。
则C1类像素的平均灰度值为:
C2类像素的平均灰度值为:
则图像中灰度从0到k级的像素累加均值及图像全局像素均值可分别表示为:
其中,a(k)表示灰度从0到k级的像素累加均值,aG表示图像的全局像素均值。
则可得到不同像素分类C1和C2的类间方差如下:
S122设置如下的差异化图像That(IR)掩膜mask(x,y):
其中,f(x,y)表示That(IR)的灰度值矩阵,x、y表示像素点的横坐标和纵坐标,且1≤x≤M,1≤y≤N;
通过掩膜mask(x,y)对That(IR)进行处理,保留阈值以上灰度级的像素点,舍弃阈值以下灰度级的像素点,得到处理后的图像I2,如下:
I2=f(x,y)mask(x,y) 1≤x≤M,1≤y≤N (15)。
更具体的,步骤S13可包括:
S131对待融合红外图像与可见光图像进行灰度值作差处理,如下:
r(x,y)=vis(x,y)-ir(x,y) 1≤x≤M,1≤y≤N (16)
其中,ir(x,y)表示待融合红外图像的灰度值矩阵,vis(x,y)表示可见光图像的灰度值矩阵,r(x,y)表示vis(x,y)和ir(x,y)的差值矩阵。
通常情况下可见光图像比红外图像对应更亮的区域属于背景,因此通过差值矩阵r(x,y)估计红外图像中的背景部分。
S132将掩膜处理后的图像I2与差值矩阵r(x,y)进行作差处理,将差值规范到0~255的灰度值,得到红外特征分量,如下:
I3(x,y)=I2(x,y)-r(x,y) 1≤x≤M,1≤y≤N
其中,规范后的I3 *(x,y)差值矩阵即为红外特征分量,其可在保留原始可见光细节的同时避免融合结果过度曝光或噪声放大。
更具体的,步骤S13可包括:
将所得红外特征分量I3(x,y)乘以抑制比α,优选的,所述抑制比α可根据实际情况取0.5~1,进一步压缩红外特征分量,得到预处理之后的红外图像。
S2:对待融合的可见光图像进行视觉增强预处理,得到视觉增强后的可见光图像Vout(x,y)。
在一种具体实施方式中,如附图3所示,所述视觉增强预处理包括:
定义如下的非线性变换g,对任意的大小为M×N的图像I,有:
g(I)=log(I(x,y)+ξ),1≤x≤M,1≤y≤N (18)
其中,I(x,y)表示图像I的像素矩阵,ξ表示为避免像素值为0导致非线性变换无法完成而添加的常数。
S21将待融合可见光图像V(x,y)通过引导滤波器,获得通过滤波器后的图像V1(x,y);
其中,β表示动态压缩系数,由下式确定:
其中,和表示非线性变换域中灰度矩阵中的最大值和最小值,两者之差表示图像灰度的动态范围,值越大表示图像灰度范围越大,在一些程度上说明图像的背景越暗,相应地,作为补偿,1-β的值就越大,可对图像的对比度作自适应的调节;T表示对照系数,可通过人为选取确定,一般令T取较小的值,以适应大多数的实际情况。
S3:将预处理后红外图像与预处理后的可见光图像输入基于多层各向异性扩散滤波的多尺度分析多源图像融合模型进行融合。
其中所述基于多层各向异性扩散滤波的多尺度分析多源图像融合模型一种具体实施方式如附图4及附图5所示,其包括两个并列的图像处理模块、一个图像融合模块及一个图像重构模块。其中,每个图像处理模块包括三个滤波层,每个滤波层由一个各向异性扩散滤波器组成,图像在通过第一个滤波层后得到第一基础层和第一细节层,将第一基础层通过第二个滤波层后得到第二基础层和第二细节层,将第二基础层通过第三个滤波层后得到第三基础层和第三细节层,如附图4所示。在得到红外图像第三基础层、第一-第三细节层,可见光图像第三基础层、第一-第三细节层后,再通过融合模块进行融合,所述融合模块包括四个融合层,分别进行红外图像第三基础层与可见光图像第三基础层的融合,红外图像第一细节层与可见光图像第一细节层的融合,红外图像第二细节层与可见光图像第二细节层的融合,红外图像第三细节层与可见光图像第三细节层的融合,并对应得到融合基础层、第一融合细节层、第二融合细节层、第三融合细节层,如附图5所示,在得到该融合结果后,将融合基础层、第一融合细节层、第二融合细节层、第三融合细节层输入所述图像重构模块中(即附图4中“重构输入图像”部分),得到最终融合重构后的图像。
其中,每个各向异性扩散滤波器通过如下的各向异性扩散方程实现各向异性扩散滤波:
上述各向异性扩散方程引入了热力学中场的概念,将整幅图像视为一个热量场,将各个像素视为热流(热通量,heat flux)。
通过各向异性扩散滤波克服了各向同性扩散滤波的缺点,后者运用区域间平滑方法但无法保留边缘信息。作为对比,各向异性扩散滤波利用偏微分方程(PDE)在保持非齐次区域(即边缘)的同时平滑齐次区域(即非边缘),运用区域间平滑的方式粗糙、平滑图像,在边缘处则保留尖锐的细节信息。
在一种具体实施方式中,可通过下式获得式(22)的迭代解,即具体的滤波模型:
cNx,y、cSx,y、cEx,y、cWx,y分别表示图像在北、南、东、西四个方向上的传导系数,如下:
在边界区域,各方向的传导系数小。各向异性扩散滤波是区域平滑和边界保留的一个平衡,各向异性扩散滤波中,迭代次数t、导热系数e稳定性系数λ可根据实际需求人为设定,一般情况下,e取值越大图像平滑效果越好,λ取值越大图像平滑效果越好。
在上述模型下,两个并列的图像处理模块分别对红外及可见光图像进行处理,在每个图像处理模块中,输入图像经过第一个各向异性扩散滤波器后,滤波器输出作为第一基础层,输入图像与第一基础层做差作为第一细节层,其后第一基础层作为第二个各向异性扩散滤波器的输入,经其滤波后得到第二基础层和第二细节层,其后第二基础层作为第三个各向异性扩散滤波器的输入,经其滤波后得到第三基础层和第三细节层。
其中,所述基础层及细节层的具体获得过程如下:
通过融合模型的第一个各向异性扩散滤波器对输入图像I0进行滤波,得到滤波后的基础层和细节层,如下:
其中,n≥2。
在经过图像处理模块处理后,再经两个基础融合层分别对全部基础层及全部细节层进行融合,最终经总融合得到融合图像,如下:
优选的,本发明通过如下的模型获得最终基础层和每个细节层:
其中,表示经过n个可见光图像基础层融合后得到的可见光图像最终基础层,表示经过n个红外图像基础层融合后得到的红外图像最终基础层,表示每个红外图像细节层,表示每个可见光图像细节层,Wi和1-Wi表示大小为M×N的加权系数矩阵。
进一步的,Wi和1-Wi设置如下:
其中,abs表示对一个图像矩阵中所有元素取绝对值操作,称为图像的显著图。
实施例1
通过具体实施方式所述的融合方法的优选方案对由机载光电视频获得的红外图像进行预处理,其中:
输入的红外图像IR大小为450×620,通道数为1,结构元b为边长为35个像素的方形结构元,根据式(4)顶帽变换后得到的图像That(IR)大小为450×620,通道数为1。
对That(IR)进行最大类间方差二分类时,选择灰度级比例0.3804,即38.04%的像素归为类别一,其余归为类别二,使图像That(IR)阈值化为两类C1和C2,即:P1(k)=0.3804,P2(k)=0.6196。继续求得掩膜mask(x,y),进而得到阈值化处理图像I2。根据式(16)、(17),求得红外特征分量I3(x,y)。令抑制比α=0.75,得到红外预处理图像。
实施例2
通过具体实施方式所述的融合方法的优选方案对由机载光电视频获得的可见光图像进行预处理,其中:
输入可见光图像V(x,y)大小为450×620,通道数为3,取式(18)中非线性变换g中的ξ=1。将V(x,y)通过引导滤波器,所用引导滤波器的参数为:引导图=V(x,y)自身及如下的局部窗口半径r:
r=floor(0.04max(M,N)) (32)
其中,floor表示向负无穷大方向取整,max表示取大;正则化参数=0.01,下采样系数=r/4,在该实施例中,可求得r=24,下采样系数=6,由式(19)求得可见光图像的差值矩阵。
实施例3
通过具体实施方式所述的融合方法的优选方案对预处理后的由机载光电视频获得的可见光图像及红外图像进行多层各向异性扩散滤波并融合,其中:
各向异性扩散滤波器的参数为:迭代次数t=10,稳定性常数λ=0.15,热传导系数k=30。
多尺度分解的层数为n=3,通过式(26)、(27)、(28)进行基于各向异性扩散滤波的图像多尺度分解和重构。
多源图像数为2,红外图像IR、可见光图像VIS分别经过3层的多尺度各向异性扩散滤波分解过程,得到1层基础层和3层细节层,由式(29)、(30)、(31),得到融合图像。
以上实施例仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例。凡属于本发明思路下的技术方案均属于本发明的保护范围。应该指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下的改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.红外和可见光图像融合方法,其特征在于:包括:
S1对待融合的红外图像进行目标提取预处理,得到含有目标区域红外特征分量的预处理后红外图像;
S2对待融合的可见光图像进行视觉增强预处理,得到视觉增强后的可见光图像;
S3将预处理后红外图像与预处理后的可见光图像输入融合模型进行融合;
其中,所述融合模型基于含有多层各向异性扩散滤波器的多尺度分析模型构建。
2.根据权利要求1所述的融合方法,其特征在于:所述目标提取预处理包括:
S11对待融合的红外图像进行顶帽变换,获得差异化图像;
S12通过最大类间方差法获得所得差异化图像的阈值灰度级,根据阈值灰度级进行像素点分类,通过掩膜去除其中灰度级在阈值灰度级以下的像素点;
S13将掩膜处理后的图像与红外及可见光图像的灰度差值矩阵进行作差处理,并将所得差值规范到0~255的灰度值,得到目标区域红外特征分量;
优选的,其还包括:
S14通过所述目标区域红外特征分量与抑制比的相乘,获得压缩后的目标区域红外特征分量。
3.根据权利要求2所述的融合方法,其特征在于:所述步骤S12中:
通过以下模型获得所得差异化图像的阈值灰度级k*:
P1(k)+P2(k)=1,
其中,i、k表示灰度级,k∈{0,1,2,……,L-1},其中{0,1,2,……,L-1}表示所得差异化图像的L个不同的灰度级;a(k)表示灰度从0到k级的像素累加均值;aG表示图像的全局像素均值;P1(k)表示灰度级低于k的像素点在所有像素点中的占比,P2(k)表示灰度级高于k的像素点在所有像素点中的占比;
和/或,通过以下掩膜mask(x,y)对差异化图像That(IR)进行处理:
其中,k*表示阈值灰度级,f(x,y)表示差异化图像That(IR)的灰度值矩阵,x、y表示像素点的横坐标和纵坐标且1≤x≤M,1≤y≤N。
5.根据权利要求1所述的融合方法,其特征在于:所述视觉增强预处理包括:
S21将待融合可见光图像通过引导滤波器,获得通过滤波器后的图像;
S22将所述待融合可见光图像和所得滤波后图像分别进行非线性变换,对应得到变换后的图像及图像矩阵;
S23将所述变换后的图像及图像矩阵进行作差,得到非线性变换域上的差值矩阵;
S24对所述变换后的图像矩阵和所述非线性变换域上的差值矩阵进行加权加和,得到非线性变换域中视觉增强后的可见光图像:
S25通过非线性变换的逆变换将所述非线性变换域中视觉增强后的可见光图像恢复到原始域,得到增强图像。
7.根据权利要求1所述的融合方法,其特征在于:所述融合模型包括两个并列的图像处理模块、即第一图像处理模块和第二图像处理模块,与两个图像处理模块均相连的一个图像融合模块及与图像融合模块相连的一个图像重构模块;其中每个图像处理模块包括三个滤波层、即第一滤波层、第二滤波层和第三滤波层,每个滤波层含有一个各向异性扩散滤波器;所述图像融合模块包括四个图像融合层、即第一图像融合层-第四图像融合层;其中两个图像处理模块通过其三个滤波层对所述预处理后的可见光图像和所述预处理后的红外图像分别进行滤波处理,包括:输入预处理后的图像,图像通过所述第一滤波层后得到第一基础层和第一细节层,所述第一基础层通过所述第二滤波层后得到第二基础层和第二细节层,所述第二基础层通过所述第三滤波层后得到第三基础层和第三细节层;在通过两个图像处理模块分别得到红外图像第三基础层、第一-第三细节层,可见光图像第三基础层、第一-第三细节层后,由所述图像融合模块进行融合,包括:通过所述第一-第四图像融合层分别进行红外图像第三基础层与可见光图像第三基础层的融合,红外图像第一细节层与可见光图像第一细节层的融合,红外图像第二细节层与可见光图像第二细节层的融合,红外图像第三细节层与可见光图像第三细节层的融合,并对应得到融合基础层、第一融合细节层、第二融合细节层、第三融合细节层;由所述图像重构模块将所述融合基础层、所述第一融合细节层、所述第二融合细节层、所述第三融合细节层进行融合,即得到重构后的图像。
8.根据权利要求7所述的融合方法,其特征在于:所述各向异性扩散滤波器通过以下滤波模型进行滤波:
It+1=It+λ(cNx,y▽N(It)+cSx,y▽S(It)+cEx,y▽E(It)+cWx,y▽W(It)) (23)
其中,It和It+1分别表示第t次和第t+1次迭代的图像,λ表示稳定性常数且满足0≤λ≤1/4,▽N、▽S、▽E、▽W分别表示图像在北、南、东、西方向的最近领域差分,如下:
▽N(I(x,y))=I(x-1,y)-I(x,y)
▽S(I(x,y))=I(x+1,y)-I(x,y)
▽E(I(x,y))=I(x,y+1)-I(x,y)
▽W(I(x,y))=I(x,y-1)-I(x,y) (24),
cNx,y、cSx,y、cEx,y、cWx,y分别表示图像在北、南、东、西四个方向上的传导系数,如下:
cNx,y=exp(-||▽N(I)||2/k2)
cSx,y=exp(-||▽S(I)||2/k2)
cEx,y=exp(-||▽E(I)||2/k2)
cWx,y=exp(-||▽W(I)||2/k2) (25),
k表示设定的导热系数,
I(x,y)表示待处理图像I的像素矩阵,其中,x、y表示像素点的横坐标和纵坐标。
9.根据权利要求7所述的融合方法,其特征在于:所述步骤S3包括:
通过两个并列的图像处理模块分别对红外及可见光图像进行处理,在每个图像处理模块中,通过其第一个各向异性扩散滤波器对输入图像I0进行滤波,得到滤波后的基础层和细节层,如下:
其中,n≥2;
其后,通过如下的模型获得最终的融合图像F:
其中,表示经过n个可见光图像基础层融合后得到的可见光图像最终基础层,表示经过n个红外图像基础层融合后得到的红外图像最终基础层,表示每个红外图像细节层,表示每个可见光图像细节层,Wi和1-Wi表示大小为M×N的加权系数矩阵,其中:
其中,abs表示对一个图像矩阵中所有元素取绝对值。
10.权利要求1-9中任一项所述的融合方法在机载光电视频上的应用。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110617056.1A CN113222877B (zh) | 2021-06-03 | 2021-06-03 | 红外和可见光图像融合方法及其在机载光电视频中的应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110617056.1A CN113222877B (zh) | 2021-06-03 | 2021-06-03 | 红外和可见光图像融合方法及其在机载光电视频中的应用 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113222877A true CN113222877A (zh) | 2021-08-06 |
CN113222877B CN113222877B (zh) | 2023-04-11 |
Family
ID=77082477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110617056.1A Active CN113222877B (zh) | 2021-06-03 | 2021-06-03 | 红外和可见光图像融合方法及其在机载光电视频中的应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113222877B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114202679A (zh) * | 2021-12-01 | 2022-03-18 | 昆明理工大学 | 一种基于gan网络的异源遥感图像自动化标注方法 |
CN114544004A (zh) * | 2022-02-25 | 2022-05-27 | 浙江天铂云科光电股份有限公司 | 一种用于红外热像仪的自动聚焦方法 |
CN115797244A (zh) * | 2023-02-07 | 2023-03-14 | 中国科学院长春光学精密机械与物理研究所 | 基于多尺度方向共现滤波器与强度传递的图像融合方法 |
CN115953566A (zh) * | 2023-03-15 | 2023-04-11 | 深圳市普雷德科技有限公司 | 一种用于红外热成像仪的特征分析方法、系统及介质 |
CN117218048A (zh) * | 2023-11-07 | 2023-12-12 | 天津市测绘院有限公司 | 基于三层稀疏光滑模型的红外与可见光图像融合方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106952246A (zh) * | 2017-03-14 | 2017-07-14 | 北京理工大学 | 基于视觉注意特性的可见光红外图像增强彩色融合方法 |
US20180227509A1 (en) * | 2015-08-05 | 2018-08-09 | Wuhan Guide Infrared Co., Ltd. | Visible light image and infrared image fusion processing system and fusion method |
AU2020100178A4 (en) * | 2020-02-04 | 2020-03-19 | Huang, Shuying DR | Multiple decision maps based infrared and visible image fusion |
CN111429391A (zh) * | 2020-03-23 | 2020-07-17 | 西安科技大学 | 一种红外和可见光图像融合方法、融合系统及应用 |
CN112288663A (zh) * | 2020-09-24 | 2021-01-29 | 山东师范大学 | 一种红外与可见光图像融合方法及系统 |
-
2021
- 2021-06-03 CN CN202110617056.1A patent/CN113222877B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180227509A1 (en) * | 2015-08-05 | 2018-08-09 | Wuhan Guide Infrared Co., Ltd. | Visible light image and infrared image fusion processing system and fusion method |
CN106952246A (zh) * | 2017-03-14 | 2017-07-14 | 北京理工大学 | 基于视觉注意特性的可见光红外图像增强彩色融合方法 |
AU2020100178A4 (en) * | 2020-02-04 | 2020-03-19 | Huang, Shuying DR | Multiple decision maps based infrared and visible image fusion |
CN111429391A (zh) * | 2020-03-23 | 2020-07-17 | 西安科技大学 | 一种红外和可见光图像融合方法、融合系统及应用 |
CN112288663A (zh) * | 2020-09-24 | 2021-01-29 | 山东师范大学 | 一种红外与可见光图像融合方法及系统 |
Non-Patent Citations (5)
Title |
---|
HUI HUANG等: "Fusion algorithm of visible and infrared image based on anisotropic diffusion and image enhancement", 《RESEARCH ARTICLE》 * |
HUI LI等: "DenseFuse:A Fusion Approach to Infrared and Visible Images", 《ARXIV:1804.08361V8 [CS.CV]》 * |
MINGJING ZHAO等: "Infrared Small-Target Detection Based on Multiple Morphological Profiles", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》 * |
倪钏等: "基于整体变分的红外和可见光图像融合", 《红外》 * |
张鹏辉等: "基于视觉认知的红外目标分割算法", 《应用光学》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114202679A (zh) * | 2021-12-01 | 2022-03-18 | 昆明理工大学 | 一种基于gan网络的异源遥感图像自动化标注方法 |
CN114544004A (zh) * | 2022-02-25 | 2022-05-27 | 浙江天铂云科光电股份有限公司 | 一种用于红外热像仪的自动聚焦方法 |
CN115797244A (zh) * | 2023-02-07 | 2023-03-14 | 中国科学院长春光学精密机械与物理研究所 | 基于多尺度方向共现滤波器与强度传递的图像融合方法 |
CN115953566A (zh) * | 2023-03-15 | 2023-04-11 | 深圳市普雷德科技有限公司 | 一种用于红外热成像仪的特征分析方法、系统及介质 |
CN117218048A (zh) * | 2023-11-07 | 2023-12-12 | 天津市测绘院有限公司 | 基于三层稀疏光滑模型的红外与可见光图像融合方法 |
CN117218048B (zh) * | 2023-11-07 | 2024-03-08 | 天津市测绘院有限公司 | 基于三层稀疏光滑模型的红外与可见光图像融合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113222877B (zh) | 2023-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113222877B (zh) | 红外和可见光图像融合方法及其在机载光电视频中的应用 | |
Li et al. | Image dehazing using residual-based deep CNN | |
Ren et al. | Single image dehazing via multi-scale convolutional neural networks with holistic edges | |
Xu et al. | Review of video and image defogging algorithms and related studies on image restoration and enhancement | |
CN108090888B (zh) | 基于视觉注意模型的红外图像和可见光图像的融合检测方法 | |
CN111915530B (zh) | 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法 | |
CN108537756B (zh) | 基于图像融合的单幅图像去雾方法 | |
KR102261532B1 (ko) | 단일 스케일 영상 융합에 기반한 안개 제거 시스템 및 방법 | |
CN109993804A (zh) | 一种基于条件生成对抗网络的道路场景去雾方法 | |
CN112365414B (zh) | 一种基于双路残差卷积神经网络的图像去雾方法 | |
CN111709888B (zh) | 一种基于改进的生成对抗网络的航拍图像去雾方法 | |
Bansal et al. | A review of image restoration based image defogging algorithms | |
Lepcha et al. | A deep journey into image enhancement: A survey of current and emerging trends | |
CN104318528A (zh) | 基于多尺度wls滤波的雾天图像恢复方法 | |
CN112164010A (zh) | 一种多尺度融合卷积神经网络图像去雾方法 | |
Wei et al. | An image fusion dehazing algorithm based on dark channel prior and retinex | |
Wang et al. | Haze removal algorithm based on single-images with chromatic properties | |
Fu et al. | An anisotropic Gaussian filtering model for image de-hazing | |
Zhao et al. | A multi-scale U-shaped attention network-based GAN method for single image dehazing | |
CN111311503A (zh) | 一种夜晚低亮度图像增强系统 | |
Zhuang et al. | Image enhancement by deep learning network based on derived image and Retinex | |
CN116596792B (zh) | 一种面向智能船舶的内河雾天场景恢复方法、系统及设备 | |
Singh et al. | Multiscale reflection component based weakly illuminated nighttime image enhancement | |
CN116309233A (zh) | 一种基于夜视增强的红外与可见光图像融合方法 | |
Ding et al. | Sparse codes fusion for context enhancement of night video surveillance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |