CN113628151B - 一种红外与可见光图像融合方法 - Google Patents
一种红外与可见光图像融合方法 Download PDFInfo
- Publication number
- CN113628151B CN113628151B CN202110901665.XA CN202110901665A CN113628151B CN 113628151 B CN113628151 B CN 113628151B CN 202110901665 A CN202110901665 A CN 202110901665A CN 113628151 B CN113628151 B CN 113628151B
- Authority
- CN
- China
- Prior art keywords
- image
- frequency component
- visible light
- pixel point
- low
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 13
- 230000004927 fusion Effects 0.000 claims abstract description 55
- 238000000034 method Methods 0.000 claims abstract description 48
- 230000009466 transformation Effects 0.000 claims abstract description 13
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000005484 gravity Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000011430 maximum method Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Radiation Pyrometers (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种红外与可见光图像融合方法,该方法如下:输入经过严格配准后的一张红外图像与一张可见光图像,将红外图像与可见光图像分别分解为一个低频分量和四个高频分量;基于红外信息的区域平均能量的方法对红外图像与可见光图像的低频分量进行融合;基于区域对比度与平均梯度的方法融合不同尺度不同方向的高频分量;将低频分量融合图像和高频分量融合图像进行逆变换得到融合图像。本发明得到的融合图像既包含了可见光图像的边缘及纹理细节信息,又包含了红外图像的突出的热目标的信息。
Description
技术领域
本发明属于多光谱图像处理技术领域,具体涉及一种红外与可见光图像融合的方法。
背景技术
图像融合是一种增强技术,旨在组合由不同类型的传感器获得的图像,以生成信息丰富、目标突出的图像,便于后续处理或帮助决策。红外与可见光图像融合在许多方面是相对优越的。可见光图像捕获反射光,通常具有高空间分辨率和相当大的细节及明暗对比,适合于人类视觉感知。然而这些图像很容易受到严苛条件的影响,例如光线不足、雾气和恶劣天气等其他影响;红外图像捕获热辐射,能够抵抗这些干扰,但具有低分辨率和很差的纹理。红外与可见光图像能够呈现几乎所有目标物体中固有的特征,因此,这种组合比单模态信号更具信息性,能够产生稳健且信息丰富的融合图像。
在过去的几十年中,多尺度变换在红外和可见光图像融合等领域都很有效。多尺度变换可以将原始图像分解为不同尺度的分量,其中每个分量代表每个尺度的子图像,而现实世界的对象通常包含不同尺度的分量。一些研究表明,多尺度变换与人类视觉特征一致,这种特性可以使融合图像具有良好的视觉效果。通常,基于多尺度变换的红外与可见光图像融合方案包含三个步骤:首先,将每个源图像分解为一系列多尺度表示;然后,根据给定的融合规则融合源图像的多尺度表示;最后,使用融合表示上的对应逆多尺度变换来获取融合图像。基于多尺度变换的融合方案的关键在于选择变换和融合规则。常见的多尺度变换有金字塔变换、小波变换、非下采样轮廓波变换、边缘保留滤波器等。但这些方法会受到分解方向、平移不变性等因素的影响,对融合结果造成一定的偏差。之后,Easley提出了非下采样剪切波变换(NSST),运算效率较之前有了极大的提升,而且方向性更强,具有平移不变性等优点,受到了研究人员的关注。
图像融合的另一关键问题是融合规则的选择。传统的融合规则是高频取绝对值最大法,低频取平均法进行融合。这种融合规则会导致部分信息不突出以及边缘模糊等问题。陈俊等人在低频采用通过红外图像控制权重并引入正则化的方法,保证了红外图像中突出目标的保留。但在高频执行通用的绝对值最大规则进行融合,边缘相对模糊。孔维维在低频采用区域平均能量的融合策略,高频采用区域对比度的融合策略。充分考虑到了区域之间的关联性,但某些细节信息不突出。
发明内容
本发明要解决的技术问题是提供一种红外与可见光图像融合方法,该方法能够充分融合红外与可见光图像,得到的图像既包含可见光图像的边缘及纹理细节信息,又包含红外图像的突出的热目标的信息。
为了解决上述技术问题,本发明的红外与可见光图像融合方法如下:
输入经过严格配准后的一张红外图像与一张可见光图像,将红外图像与可见光图像分别分解为一个低频分量和四个高频分量;
将红外图像与可见光图像的低频分量进行融合,方法如下:
分别计算红外图像与可见光图像每个像素所在M×N区域内的平均能量,M=N=3;
根据下式计算出红外图像与可见光图像低频分量的对应像素点的相似度:
其中EI(i,j)表示红外图像低频分量像素点(i,j)所在M×N区域内的平均能量,EV(i,j)表示可见光图像低频分量像素点(i,j)所在M×N区域内的平均能量,MD(i,j)表示红外图像低频分量像素点(i,j)与可见光图像低频分量像素点(i,j)之间的相似度;
若MD(i,j)<T,则
若MD(i,j)≥T,则
FD(i,j)=ω(i,j)×II(i,j)+(1-ω(i,j))×IV(i,j)
其中FD(i,j)表示低频分量融合图像在像素点(i,j)处的像素值,T为设定的阈值,ω(i,j)为决定红外图像与可见光图像低频分量像素值比重的权值;II(i,j)为红外图像低频分量在像素点(i,j)处的的像素值,IV(i,j)为可见光图像低频分量在像素点(i,j)处的像素值;
其中,PI(i,j)为红外图像低频分量在像素点(i,j)处的像素值归一化值,λ为设定的非线性因子;
采用基于区域对比度与平均梯度结合的方法将红外图像与可见光图像的各方向高频分量分别进行融合;
将低频分量融合图像和高频分量融合图像进行逆变换得到融合图像。
所述的红外图像与可见光图像中每个像素所在M×N区域内的平均能量计算公式如下:
其中,EI(i,j)表示红外图像中以像素点(i,j)为中心M×N区域内的平均能量,表示红外图像低频分量在像素点(i+a,j+b)处的能量;EV(i,j)表示可见光图像中以像素点(i,j)为中心M×N区域内的平均能量,/>表示可见光图像低频分量在像素点(i+a,j+b)处的能量。
进一步,所述的阈值T优选T=0.9。
所述的红外图像与可见光图像的各尺度高频分量分别进行融合的方法如下:
分别计算出红外图像与可见光图像高频分量各像素点的区域平均梯度GI(i,j)、GV(i,j);
分别计算红外图像和可见光图像高频分量各像素点的区域对比度CI(i,j)、CV(i,j);
计算红外图像在像素点(i,j)处区域对比度与平均梯度的联合UI(i,j)和可见光图像在像素点(i,j)处区域对比度与平均梯度的联合UV(i,j);
UI(i,j)=GI(i,j)×CI(i,j)
UV(i,j)=GV(i,j)×CV(i,j)
根据下述公式对红外图像与可见光图像的各尺度高频分量分别进行融合:
其中FG(i,j)表示高频分量融合图像在像素点(i,j)处的像素值;JI(i,j)、JV(i,j)分别为红外图像高频分量在像素点(i,j)处的像素值与可见光图像高频分量在像素点(i,j)处的像素值。
所述的红外图像与可见光图像高频分量在各像素点处的区域平均梯度GI(i,j)、GV(i,j)的计算公式如下:
其中分别为红外图像高频分量x方向与y方向在像素点(i+p,j+q)处的梯度;JI(i+p,j+q)、JV(i+p,j+q)分别为红外图像高频分量与可见光图像高频分量在像素点(i+p,j+q)处的像素值;GI(i+p,j+q)、GV(i+p,j+q)分别为红外图像高频分量和可见光图像高频分量在以像素点(i+p,j+q)为中心M×N区域内的区域平均梯度。
所述的红外图像和可见光图像高频分量在各像素点处的区域对比度CI(i,j)、CV(i,j)计算公式如下:
其中,II(i+p,j+q)为红外图像低频分量在像素点(i+p,j+q)处的像素值;XI(i,j)为红外图像低频分量在以像素点(i,j)为中心M×N区域内的像素平均值;CI(i,j)为红外图像高频分量与低频分量在像素点(i,j)处的区域对比度;IV(i+p,j+q)为可见光图像低频分量在像素点(i+p,j+q)处的像素值;XV(i,j)为可见光图像低频分量在以像素点(i,j)为中心M×N区域内的像素平均值;CV(i,j)为可见光图像高频分量与低频分量在像素点(i,j)处的区域对比度。
进一步,本发明利用非下采样剪切波变换(NSST)、小波变换(Haar)或者非下采样轮廓波变换(NSCT)将红外图像与可见光图像分别分解为一个低频分量和四个高频分量。
本发明的有益效果在于:将红外图像与可见光图像分别分解为低频分量与高频分量,考虑到低频分量包含原始图像的大部分能量信息,所以我们提出了一种基于红外信息的区域平均能量的方法融合低频分量;考虑到高频分量包含原始图像大部分的边缘及纹理细节信息,本发明提出了一种基于区域对比度与平均梯度的方法融合不同尺度不同方向的高频分量;得到的效果即包含了可见光图像的边缘及纹理细节信息,又包含了红外图像的突出的热目标的信息,并且本发明的算法效果优于小波变换等融合算法。
附图说明
图1是红外图像。
图2是可见光图像。
图3是利用本发明算法融合之后的图像。
图4是本发明的流程图。
图5不同λ下的非线性曲线。
具体实施方式
下面结合附图和实施例对本发明作进一步详细说明,可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
在本发明的描述中,除非另有明确的规定和限定,术语“相连”、“连接”、“固定”应做广义的理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接连接,也可以通过中间媒介间接连接,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以具体情况具体理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征之“上”或之“下”可以包括第一和第二特征直接接触,也可以包括第一和第二特征不是直接接触而是通过它们之间的另外的特征接触。而且,第一特征在第二特征“之上”、“上方”和“上面”包括第一特征在第二特征正上方和斜上方,或者仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”、“下面”包括第一特征在第二特征正下方和斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本实施例的描述中,术语“上”、“下”、“左”、“右”等方位或者位置关系为基于附图所示的方位或位置关系,仅是为了便于描述和简化操作,而不是指示或暗示所指的装置或元件必须具有特定的方位,以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅仅用于在描述上加以区分,并没有特殊的含义。
本发明为了更好的融合红外与可见光图像,针对红外与可见光图像的各自优缺点以及低频分量和高频分量的特点,提出了适合的低频融合策略以及高频融合策略。以下结合附图及实施例对本发明进行进一步详细说明。
本发明的实施例是对昏暗场景下一张红外图像与一张可见光图像进行融合。图1表示为本实施例的红外图像;图2表示为本实施例的可见光图像;图3表示通过本发明融合后的图像。
如图4所示,本发明的基于NSST的红外与可见光图像融合方法具体如下:
S1、输入经过严格配准后的一张红外图像与一张可见光图像,利用非下采样剪切波变换(NSST)(或者采用小波变换(Haar),或者采用非下采样轮廓波变换(NSCT)等)将红外图像与可见光图像分别分解为一个低频分量和四个高频分量。
S2、将步骤S1得到的红外图像与可见光图像的低频分量进行融合,具体实现方式如下:
分别根据公式(1)、(2)计算红外图像与可见光图像每个像素所在M×N区域内的平均能量;
其中,EI(i,j)表示红外图像中以像素点(i,j)为中心M×N区域内的平均能量,表示红外图像低频分量在像素点(i+a,j+b)处的能量;EV(i,j)表示可见光图像中以像素点(i,j)为中心M×N区域内的平均能量,/>表示可见光图像低频分量在像素点(i+a,j+b)处的能量,M=N=3;(i,j)为第i行第j列像素点坐标。
根据公式(3)计算出红外图像与可见光图像低频分量的对应像素点的相似度,
MD(i,j)表示红外图像低频分量像素点(i,j)与可见光图像低频分量像素点(i,j)之间的相似度,其值在0.5-1之间,相似度值越大,表示两像素点信息越相似,由此来确定融合规则。
由相似度大小来确定具体融合方式;若MD(i,j)<T,则
其中FD(i,j)表示低频分量融合图像在像素点(i,j)处的的像素值;
若MD(i,j)≥T,则
FD(i,j)=ω(i,j)×II(i,j)+(1-ω(i,j))×IV(i,j) (5)
其中T为设定的阈值,T=0-1,优选T=0.9,ω(i,j)为决定红外图像与可见光图像低频分量像素值比重的权值,其大小由(6)、(7)确定;
其中,II(i,j)为红外图像低频分量在像素点(i,j)处的的像素值,IV(i,j)为可见光图像低频分量在像素点(i,j)处的的像素值,PI(i,j)为红外图像低频分量在像素点(i,j)处的的像素值归一化值,λ为非线性因子,λ=5-200,优选取λ=100。
由于低频分量包含了图像的大部分能量信息,采用了区域平均能量的融合方法,又因为能量的重点区域是在于红外图像的目标信息,所以在确定权重时,结合了红外图像的像素值。这种加权融合的方法不仅提高了能量融合的效果,而且还保持了目标能量的突出。
S3、将S1得到的红外图像与可见光图像的各方向高频分量分别进行融合,由于高频分量包含原始图像大部分的边缘及纹理细节信息,我们采用一种基于区域对比度与平均梯度的方法融合不同尺度不同方向的高频分量;融合后的结果充分包含了可见光图像以及红外图像的纹理细节信息,有利于人眼判读。
实施例的S3具体实现方式如下:
区域平均梯度表示某一像素点与其邻域之间梯度和的平均;根据公式(8)、(9)分别计算出红外图像与可见光图像高频分量各像素点的区域平均梯度;
其中分别为红外图像高频分量x方向与y方向在像素点(i+p,j+q)处的梯度;JI(i+p,j+q)、JV(i+p,j+q)分别为红外图像高频分量与可见光图像高频分量在像素点(i+p,j+q)处的像素值;GI(i+p,j+q)、GV(i+p,j+q)分别为红外图像高频分量和可见光图像高频分量在以像素点(i+p,j+q)为中心M×N区域内的区域平均梯度。
本发明提出的区域对比度表示红外图像和可见光图像高频分量像素值绝对值与低频分量区域像素平均值的对比度;
红外图像在以像素点(i,j)为中心M×N区域内的区域对比度根据公式(10)计算;
UI(i,j)=GI(i,j)×CI(i,j)
其中JI(i,j)为红外图像高频分量在像素点(i,j)处的像素值;,II(i+p,j+q)为红外图像低频分量在像素点(i+p,j+q)处的像素值;XI(i,j)为红外图像低频分量在以像素点(i,j)为中心M×N区域内的像素平均值;CI(i,j)为红外图像高频分量与低频分量在像素点(i,j)处的区域对比度;UI(i,j)为红外图像在像素点(i,j)处的区域对比度与平均梯度的联合,也是高频分量融合规则的关键因素。
可见光图像在以像素点(i,j)为中心M×N区域内的区域对比度根据公式(11)计算;
UV(i,j)=GV(i,j)×CV(i,j)
其中JV(i,j)为可见光图像高频分量在像素点(i,j)处的像素值,IV(i+p,j+q)为可见光图像低频分量在像素点(i+p,j+q)处的像素值;XV(i,j)为可见光图像低频分量在以像素点(i,j)为中心M×N区域内的像素平均值;CV(i,j)为可见光图像高频分量与低频分量在像素点(i,j)处的区域对比度;UV(i,j)为可见光图像在像素点(i,j)处的区域对比度与平均梯度的联合,也是高频分量融合规则的关键因素;最终的融合规则为:
FG(i,j)表示高频分量融合图像在像素点(i,j)处的像素值;
S4、将融合图像中的低频分量像素值和高频分量像素值进行逆NSST((或者逆Haar,或者逆NSCT),得到融合后的图像。
本发明不限于上述实施例,其中步骤S2和步骤S3的顺序可以调换,即先进行高频分量的融合,再进行低频分量的融合。
现有的低频融合方法和高频融合方法很多,发明人进行了很多尝试,用各种方法相结合进行图像融合,最后综合实验数据,选定了基于红外信息的区域平均能量的方法融合低频分量,基于区域对比度与平均梯度的方法融合不同尺度不同方向的高频分量;得到的融合图像既包含了可见光图像的边缘及纹理细节信息,又包含了红外图像的突出的热目标的信息,能够充分表达场景信息。本发明的算法效果优于小波变换等融合算法。
表1为不同融合方法在不同评价指标下的表现:评价指标包括信息熵(EN)、空间频率(SF)、标准差(SD)、均方误差(MSE)、互信息(MI)、视觉保真度(VIF)、平均梯度(AG),相关系数(CC)。融合方法包括曲波变换(CVT)、双树复小波变换(DTCWT)、离散小波变换(DWT)、拉普拉斯金字塔变换(LP)、低通比率金字塔变换(RP)、小波变换(Haar)、非下采样轮廓波变换(NSCT)、非下采样剪切波变换(NSST)和本发明的算法(Propose)。表1中标记①②分别代表了不同评价指标前二名的算法,可以看出,本发明的算法(Propose)在各种评价指标上表现突出,很好的实现了图像的融合质量。
表1
发明人曾尝试了其他几种不同的低频与高频融合规则。低频融合规则有绝对值取大的方法、区域能量和的方法和红外图像确定权重的方法。高频融合规则有加权平均、区域对比度以及区域平均梯度方法分别与经典方法进行组合;其中最经典方法有绝对值取大方法和加权平均的方法。利用各种评价指标试验不同算法的效果如下表2所示。表中F后面的2个数字分别代表低频和高融合规则方法序号;第一位的0、1、2分别代表绝对值取大的方法、区域能量和的方法和红外图像确定权重的方法,第二位的0、1、2分别代表加权平均、区域对比度以及区域平均梯度方法分别与经典方法进行组合;例如F00,代表低频融合规则采用绝对值取大的方法,高频融合规则采用加权平均方法与经典方法进行结合的方法;表2中包含了五种效果不够理想从而被发明人淘汰的组合方式和最后一种本发明(Propose)的方法。具体指标见下表2:
表2
表2中,①、②分别标记处为当前指标下效果排名前两名,从表2中可以看出不同的方法在不同的指标中都有其突出的效果,本发明的方法在大多数指标中都明显优于其他方法,只有少数两个是稍微低于最好效果的,不过也是排在第二
在步骤S2中,低频融合规则中在通过红外图像确定权重时引入了一个非线性因子λ,发明中优选100。λ是根据一个非线性函数确定的,非线性函数的表达式如下:
其中,ρ的范围为[0,1],s(ρ)的范围也是[0,1],λ分别取5、10、15、20、30、50、100、200。可以得到一个曲线图(见图5),5图5为不同λ值时非线性函数曲线,当λ增大时,曲线的形状变得陡峭,相应的非线性变换逐渐增强。因此,通过调整λ来控制合并结果中的红外信息量是一个好的方法。
下表3为不同λ值下融合效果的指标(表中①、②分别标记处为当前指标下效果排名前两名),从对比结果可以看出,当λ=100时融合效果较好,所以本发明优选λ为100。
表3
EN↑ | PSNR↑ | MI↑ | VIF↑ | AG↑ | |
λ=5 | 6.828 | 64.965② | 1.348② | 0.549② | 5.650 |
λ=10 | 6.829① | 64.963 | 1.341 | 0.547 | 5.651① |
λ=15 | 6.828 | 64.964 | 1.345 | 0.548 | 5.650 |
λ=20 | 6.829① | 64.964 | 1.344 | 0.548 | 5.650 |
λ=30 | 6.829① | 64.962 | 1.340 | 0.547 | 5.651① |
λ=50 | 6.829① | 64.963 | 1.343 | 0.547 | 5.650 |
λ=100 | 6.828② | 64.968① | 1.357① | 0.551① | 5.650② |
λ=200 | 6.829① | 64.963 | 1.341 | 0.547 | 5.651① |
Claims (3)
1.一种红外与可见光图像融合方法,其特征在于该方法如下:
输入经过严格配准后的一张红外图像与一张可见光图像,将红外图像与可见光图像分别分解为一个低频分量和四个高频分量;
将红外图像与可见光图像的低频分量进行融合,方法如下:
分别计算红外图像与可见光图像每个像素所在M×N区域内的平均能量,M=N=3;
根据下式计算出红外图像与可见光图像低频分量的对应像素点的相似度:
其中EI(i,j)表示红外图像低频分量像素点(i,j)所在M×N区域内的平均能量,EV(i,j)表示可见光图像低频分量像素点(i,j)所在M×N区域内的平均能量,MD(i,j)表示红外图像低频分量像素点(i,j)与可见光图像低频分量像素点(i,j)之间的相似度;
若MD(i,j)<T,则
若MD(i,j)≥T,则
FD(i,j)=ω(i,j)×II(i,j)+(1-ω(i,j))×IV(i,j)
其中FD(i,j)表示低频分量融合图像在像素点(i,j)处的像素值,T为设定的阈值,ω(i,j)为决定红外图像与可见光图像低频分量像素值比重的权值;II(i,j)为红外图像低频分量在像素点(i,j)处的像素值,IV(i,j)为可见光图像低频分量在像素点(i,j)处的像素值;
其中,PI(i,j)为红外图像低频分量在像素点(i,j)处的像素值归一化值,λ为设定的非线性因子;
采用基于区域对比度与平均梯度结合的方法将红外图像与可见光图像的各方向高频分量分别进行融合;
将低频分量融合图像和高频分量融合图像进行逆变换得到融合图像;
所述的红外图像与可见光图像中每个像素所在M×N区域内的平均能量计算公式如下:
其中,EI(i,j)表示红外图像中以像素点(i,j)为中心M×N区域内的平均能量,表示红外图像低频分量在像素点(i+a,j+b)处的能量;EV(i,j)表示可见光图像中以像素点(i,j)为中心M×N区域内的平均能量,/>表示可见光图像低频分量在像素点(i+a,j+b)处的能量;
所述的红外图像与可见光图像的各尺度高频分量分别进行融合的方法如下:
分别计算出红外图像与可见光图像高频分量各像素点的区域平均梯度GI(i,j)、GV(i,j);
分别计算红外图像和可见光图像高频分量各像素点的区域对比度CI(i,j)、CV(i,j);
计算红外图像在像素点(i,j)处区域对比度与平均梯度的联合UI(i,j)和可见光图像在像素点(i,j)处区域对比度与平均梯度的联合UV(i,j);
UI(i,j)=GI(i,j)×CI(i,j)
UV(i,j)=GV(i,j)×CV(i,j)
根据下述公式对红外图像与可见光图像的各尺度高频分量分别进行融合:
其中FG(i,j)表示高频分量融合图像在像素点(i,j)处的像素值;JI(i,j)、JV(i,j)分别为红外图像高频分量在像素点(i,j)处的像素值与可见光图像高频分量在像素点(i,j)处的像素值;
所述的红外图像与可见光图像高频分量在各像素点处的区域平均梯度GI(i,j)、GV(i,j)的计算公式如下:
其中分别为红外图像高频分量x方向与y方向在像素点(i+p,j+q)处的梯度;JI(i+p,j+q)、JV(i+p,j+q)分别为红外图像高频分量与可见光图像高频分量在像素点(i+p,j+q)处的像素值;GI(i+p,j+q)、GV(i+p,j+q)分别为红外图像高频分量和可见光图像高频分量在以像素点(i+p,j+q)为中心M×N区域内的区域平均梯度;
所述的红外图像和可见光图像高频分量在各像素点处的区域对比度CI(i,j)、CV(i,j)计算公式如下:
其中,II(i+p,j+q)为红外图像低频分量在像素点(i+p,j+q)处的像素值;XI(i,j)为红外图像低频分量在以像素点(i,j)为中心M×N区域内的像素平均值;CI(i,j)为红外图像高频分量与低频分量在像素点(i,j)处的区域对比度;IV(i+p,j+q)为可见光图像低频分量在像素点(i+p,j+q)处的像素值;XV(i,j)为可见光图像低频分量在以像素点(i,j)为中心M×N区域内的像素平均值;CV(i,j)为可见光图像高频分量与低频分量在像素点(i,j)处的区域对比度。
2.根据权利要求1所述的红外与可见光图像融合方法,其特征在于所述的阈值T=0.9。
3.根据权利要求1所述的红外与可见光图像融合方法,其特征在于利用非下采样剪切波变换、小波变换或者非下采样轮廓波变换将红外图像与可见光图像分别分解为一个低频分量和四个高频分量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110901665.XA CN113628151B (zh) | 2021-08-06 | 2021-08-06 | 一种红外与可见光图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110901665.XA CN113628151B (zh) | 2021-08-06 | 2021-08-06 | 一种红外与可见光图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113628151A CN113628151A (zh) | 2021-11-09 |
CN113628151B true CN113628151B (zh) | 2024-04-26 |
Family
ID=78383104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110901665.XA Active CN113628151B (zh) | 2021-08-06 | 2021-08-06 | 一种红外与可见光图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113628151B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104504673A (zh) * | 2014-12-30 | 2015-04-08 | 武汉大学 | 基于nsst的可见光与红外图像融合方法及系统 |
CN109035189A (zh) * | 2018-07-17 | 2018-12-18 | 桂林电子科技大学 | 基于柯西模糊函数的红外与弱可见光图像融合方法 |
CN109064436A (zh) * | 2018-07-10 | 2018-12-21 | 西安天盈光电科技有限公司 | 图像融合方法 |
CN112651469A (zh) * | 2021-01-22 | 2021-04-13 | 西安培华学院 | 一种红外与可见光图像融合方法及系统 |
CN112734683A (zh) * | 2021-01-07 | 2021-04-30 | 西安电子科技大学 | 基于目标增强的多尺度sar与红外图像融合方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200150643A1 (en) * | 2018-05-07 | 2020-05-14 | Strong Force Iot Portfolio 2016, Llc | Methods and systems for data collection, learning, and streaming of machine signals for analytics and maintenance using the industrial internet of things |
-
2021
- 2021-08-06 CN CN202110901665.XA patent/CN113628151B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104504673A (zh) * | 2014-12-30 | 2015-04-08 | 武汉大学 | 基于nsst的可见光与红外图像融合方法及系统 |
CN109064436A (zh) * | 2018-07-10 | 2018-12-21 | 西安天盈光电科技有限公司 | 图像融合方法 |
CN109035189A (zh) * | 2018-07-17 | 2018-12-18 | 桂林电子科技大学 | 基于柯西模糊函数的红外与弱可见光图像融合方法 |
CN112734683A (zh) * | 2021-01-07 | 2021-04-30 | 西安电子科技大学 | 基于目标增强的多尺度sar与红外图像融合方法 |
CN112651469A (zh) * | 2021-01-22 | 2021-04-13 | 西安培华学院 | 一种红外与可见光图像融合方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113628151A (zh) | 2021-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107123089B (zh) | 基于深度卷积网络的遥感图像超分辨重建方法及系统 | |
CN112507997B (zh) | 一种基于多尺度卷积和感受野特征融合的人脸超分辨系统 | |
CN107492070B (zh) | 一种双通道卷积神经网络的单图像超分辨率计算方法 | |
CN107680054B (zh) | 雾霾环境下多源图像融合方法 | |
CN110599401A (zh) | 遥感图像超分辨率重建方法、处理装置及可读存储介质 | |
Tang et al. | Single image dehazing via lightweight multi-scale networks | |
CN104268833B (zh) | 基于平移不变剪切波变换的图像融合方法 | |
CN108269244B (zh) | 一种基于深度学习和先验约束的图像去雾系统 | |
CN111161360B (zh) | 基于Retinex理论的端到端网络的图像去雾方法 | |
CN110189286B (zh) | 一种基于ResNet的红外与可见光图像融合方法 | |
Fang et al. | Variational single image dehazing for enhanced visualization | |
CN111179208B (zh) | 基于显著图与卷积神经网络的红外-可见光图像融合方法 | |
Luo et al. | Infrared and visible image fusion based on visibility enhancement and hybrid multiscale decomposition | |
CN109215003B (zh) | 一种图像融合方法及装置 | |
Zheng et al. | T-net: Deep stacked scale-iteration network for image dehazing | |
CN115511708A (zh) | 基于不确定性感知特征传输的深度图超分辨率方法及系统 | |
CN112215787A (zh) | 基于显著度分析及自适应滤波器的红外和可见光图像融合方法 | |
CN113628151B (zh) | 一种红外与可见光图像融合方法 | |
CN111340741B (zh) | 基于四元数与l1范数的粒子群优化灰度图像增强方法 | |
CN111476739B (zh) | 水下图像增强方法、系统及存储介质 | |
CN114897757B (zh) | 一种基于nsst和参数自适应pcnn的遥感图像融合方法 | |
Li et al. | Single image dehazing via model-based deep-learning | |
Chai et al. | PDD-GAN: Prior-based GAN network with decoupling ability for single image dehazing | |
Tang et al. | EgeFusion: Towards Edge Gradient Enhancement in Infrared and Visible Image Fusion With Multi-Scale Transform | |
Wang et al. | New region-based image fusion scheme using the discrete wavelet frame transform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |