CN1273937C - 红外与可见光图像融合方法 - Google Patents

红外与可见光图像融合方法 Download PDF

Info

Publication number
CN1273937C
CN1273937C CN 200310108933 CN200310108933A CN1273937C CN 1273937 C CN1273937 C CN 1273937C CN 200310108933 CN200310108933 CN 200310108933 CN 200310108933 A CN200310108933 A CN 200310108933A CN 1273937 C CN1273937 C CN 1273937C
Authority
CN
China
Prior art keywords
image
information
wavelet coefficient
target area
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 200310108933
Other languages
English (en)
Other versions
CN1545064A (zh
Inventor
敬忠良
王宏
李建勋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN 200310108933 priority Critical patent/CN1273937C/zh
Publication of CN1545064A publication Critical patent/CN1545064A/zh
Application granted granted Critical
Publication of CN1273937C publication Critical patent/CN1273937C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明涉及一种红外与可见光图像融合方法,在对红外图像和可见光图像分别进行多分辨率分解的基础上,利用红外图像和可见光图像不同的成像特性,从原图像中获得相对的“目标”信息和“背景”信息,以此将图像划分为背景区域、目标区域以及它们之间的边缘部分,对这三部分分别采用三种不同的融合规则来确定融合图像的多分辨率表示,最后经过多分辨率反变换得到融合图像。本发明采用基于目标区域的方法融合同一场景的红外和可见光图像,在最大限度保留目标信息的同时,增强了背景信息中的边缘和细节信息,融合后的图像质量得以较大的提高。

Description

红外与可见光图像融合方法
技术领域:
本发明涉及一种基于目标区域的图像融合方法,用以融合同一场景的红外和可见光图像,在光学成像、目标监视、安全检查等系统中均可有广泛应用。
背景技术:
图像融合技术是多传感器信息融合中可视信息的融合,它利用各种成像传感器不同的成像方式,为不同的影像提供互补信息,增加图像信息量,减少原始图像数据量,提高对环境的适应性,以获得更可靠、更准确的有用信息供观察或进一步处理。图像融合技术是一门综合了传感器、信号处理、图像处理和人工智能等的新兴技术,近年来已成为一种十分重要和有用的图像分析与计算机视觉技术,在自动目标识别、计算机视觉、遥感、机器人、医学图像处理以及军事应用等领域有着广泛的应用前景。
就一般情况而言,由于目标和背景的红外辐射特性有差异,红外图像可提供较完整的目标信息,然而它包含的背景信息却模糊不清;相反可见光图像能够提供较全面的背景信息,但目标信息不明显。通过图像融合技术,可获取目标和背景信息均精确、全面的融合后图像。在处理红外和可见光图像融合方法中,具有代表性的方法是多分辨图像融合方法,其基本思想就是在将输入原图像分解得到不同分辨率表示的基础上,分别对它们进行基于融合规则的融合运算后,经多分辨率重构获得融合后图像。多分辨图像融合方法包括拉普拉斯金字塔算法,对比度金字塔算法,梯度金字塔算法等塔型方法。随着小波理论的发展和深入研究,离散小波变换已成为多分辨率图像融合中另一非常有用的工具。基于离散小波变换以及小波框架等融合方法已广泛应用于融合领域。
对于以往的融合算法研究,绝大多数算法在进行融合运算时,均未考虑利用诸如原图像成像特点等信息来提高和改进算法的性能。没有对原图像所包含的不同的信息进行针对性的融合运算。
发明内容:
本发明的目的在于针对现有技术存在的不足,提出一种红外与可见光图像融合方法,能够提高融合后的图像质量,达到较理想的融合效果。
为实现这样的目的,本发明的方法在对红外图像和可见光图像分别进行多分辨率分解的基础上,利用红外图像和可见光图像不同的成像特性,从原图像中获得“目标”信息和“背景”信息(相对而言)以此将图像划分为三个部分:背景区域、目标区域以及它们之间的边缘部分,对这三部分分别采用三种不同的融合规则来确定融合图像的多分辨率表示,最后经过多分辨率逆变换得到融合图像。
本发明的方法包括如下具体步骤:
1.在同一场景的红外图像和可见光图像进行配准的基础上,采用àtrous(多孔)小波算法来分解图像,采用B3样条尺度函数得到的二维卷积算子进行具体运算,将图像分解为不同频带上的细节信息和最低频带的近似信息。
2.对红外图像采用阈值法进行区域分割,然后根据成像特性和目标图像特征(包括灰度信息,纹理信息,轮廓信息等特征)等信息来确定目标区域。一般而言,目标在红外图像中表现为像素灰度值相对较高。在确定出红外图像的目标区域后,将原图像划分为三个部分:背景区域,目标区域以及它们之间的边缘部分。
3.在融合处理时,对于目标区域,直接选取红外图像相应区域的小波系数作为融合后小波系数;对于目标区域和背景区域之间的边缘部分,比较红外图像小波系数和可见光图像小波系数绝对值大小,选取绝对值大的小波系数作为融合后小波系数;对于背景区域,同时考虑小波系数本身以及其与邻域内小波系数的相关性,确定融合量测指标,融合量测指标的大小衡量小波系数所包含的信息的多少。通过比较红外图像和可见光图像融合量测指标的大小,确定指标大的小波系数为融合后小波系数。
4.对各区域得到的小波系数进行小波逆变换以获得融合后的图像。
本发明的方法具有如下有益效果:
采用àtrous(多孔)小波算法来分解图像时,由于其具有平移不变性,在融合时可减小融合系数的错误选取及配准误差对融合结果的影响;在àtrous小波变换过程中,所得的小波面具有相同的大小,因此较容易找到各个小波面系数之间的对应关系,这有利于融合运算;由于àtrous小波算法在重构时不涉及卷积运算,在基于区域的融合运算时,这有利于减少对区域间边缘部分的影响。采用基于目标区域的融合规则,能够最大限度的保持目标信息的同时,增强了背景信息中的边缘和细节信息。采用本发明的图像融合方法大大提高了融合后图像质量,对于应用系统的后续处理和图像显示具有重要意义和实用价值。
附图说明:
图1为本发明基于目标区域的红外和可见光图像融合方法示意图。
如图所示,分别对红外图像和可见光图像进行小波变换(àtrous多孔小波算法)得到多个不同分辨率的小波系数表示,通过从原图像中所得到的“目标”信息和“背景”信息(相对而言)来指导融合决策,以获得融合的不同分辨率的小波系数表示。最后,对融合后小波系数进行小波逆变换以获得融合后的图像。
图2为本发明的融合决策流程图。
如图所示,在对红外图像进行区域分割的基础上,通过图像的成像特性确定出目标区域后,将红外图像和可见光图像划分出三个部分:背景区域,目标区域以及它们之间的边缘部分。分别对这三个区域实施不同的融合规则以得到融合决策图。
图3为本发明红外和可见光原图像以及与基于像素融合方法和基于窗口融合方法的融合结果比较。
其中,(a)为可见光原图像;(b)为红外原图像;(c)为基于像素融合方法的融合结果;(d),(e)为两种基于窗口融合方法的融合结果;(f)为本发明基于目标区域融合方法的融合结果。
具体实施方式:
为了更好地理解本发明的技术方案,以下结合附图对本发明的实施方式作进一步描述。
本发明方法流程如图1所示,首先分别对红外图像和可见光图像进行小波变换得到多个不同分辨率的小波系数表示,通过从原图像中所得到的“目标”信息和“背景”信息(相对而言,可见光图像中背景信息更为丰富,红外图像中目标信息更为丰富)来指导融合决策,以获得融合的不同分辨率的小波系数表示。最后,对融合后小波系数进行小波逆变换以获得融合后的图像。
本发明的融合决策流程如图2所示,在对红外图像进行区域分割的基础上,通过图像的成像特性确定出目标区域后,将红外图像和可见光图像划分出三个部分:背景区域,目标区域以及它们之间的边缘部分。分别对这三个区域实施不同的融合规则以得到融合决策图。
本发明具体实施按如下步骤进行:
1.在同一场景的红外图像和可见光图像进行配准的基础上,采用àtrous(多孔)小波算法分别对可见光原图像和红外进行分解,将图像分解为不同频带上的细节信息和最低频带的近似信息。
àtrous小波算法的基本思想是将信号或图像分解为不同频带上的细节信息和最低频带的近似信息。该细节信息称为小波面,其大小与原图像大小相同。对于图像f(x,y)可逐级得到以下图像序列
L 1 [ f ( x , y ) ] = f 1 ( x , y ) L 2 [ f 1 ( x , y ) ] = f 2 ( x , y ) · · · L N [ f N - 1 ( x , y ) ] = f N ( x , y ) - - - ( 1 )
其中,fk(x,y)为尺度k下的近似图像,Lk为低通滤波。k=1,2,...,N.
相邻尺度的近似图像间的差异构成小波变换的系数即小波面
ωk(x,y)=fk(x,y)-fk-1(x,y)     k=1,2,...,N         (2)
采用B3样条尺度函数,得到的二维卷积算子如下所示。
1 256 1 4 6 4 1 4 16 24 16 4 6 24 36 24 6 4 16 14 16 4 1 4 6 4 1 - - - ( 3 )
2.对红外图像采用阈值法进行区域分割,然后根据成像特性和目标图像特征(包括灰度信息,纹理信息,轮廓信息等特征)等信息来确定目标区域。
对于目标而言,其在红外图像中表现为像素灰度值相对较高,根据图像中像素灰度值的不同以及目标的运动信息,以此来确定出目标区域。当然,在实际划分时,不排除其他非目标区域被当作目标区域划分出来,然而由于其具有目标区域所具有的一些特点,在不能确定其是否为目标区域的情况下,仍将其看作目标区域确定下来。在此,目标区域选定的优先级要优于其他任何区域的选定。
在确定出目标图像的目标区域后,可将红外图像和可见光图像划分为三个部分:背景区域,目标区域以及它们之间的边缘部分。
3.采用不同的图像融合规则分别对这三部分进行融合运算。设红外图像为A,可见光图像为B;X表示目标区域,X表示背景区域,E表示为两区域间的边缘部分。具体融合规则如下:
●“高频”系数的融合
(1)目标区域;一般而言,目标区域内的像素具有基本相同的灰度值或纹理信息,所要作的不是比较“高频”的大小,目的是最大限度地保持该区域的目标信息。为此,对该区域的融合系数选取为:
C F H ( m , n ) = C A H ( m , n ) , ( m , n ) ∈ X - - - ( 4 )
(2)两区域间的边缘部分;对于此区域,已知系数所处位置,为了更好地表现边缘信息,对该部分的融合系数选取为:
C F H ( m , n ) = C A H ( m , n ) | C A H ( m , n ) | > | C B H ( m , n ) | C B H ( m , n ) otherwise , ( m , n ) ∈ E - - - ( 5 )
(3)背景区域;比较目标区域而言,背景区域内含有丰富的边缘和细节信息,为了更好地表现该区域的细节信息,以及考虑目标区域的某些细节信息未被提取到目标区域内,本发明采用一种新的融合量测指标来确定融合系数以突出细节信息。该融合量测指标同时考虑系数本身以及其与邻域内系数的相关性:
          PIx(m,n)=Cp(m,n)·It(m,n)                 (6)
其中,PIx(m,n)衡量该系数所包含的信息;Cp(m,n)反映该系数的特征信息;It(m,n)反映邻域内系数的相关性。
C p ( m , n ) = | C X H ( m , n ) | - - - ( 7 )
其中,CX H(m,n)为图像的高频系数;
对于邻域内系数的相关性,首先确定图像高频系数的符号值
sign = C X H ( m , n ) - - - ( 8 )
如果高频系数的值大于或等于零,那么sign为1;否则sign为0。对It(m,n),可表示为:
          It(m,n)=pX(m,n)·(1-pX(m,n))             (9)
其中,pX(m,n)为(m,n)点系数与邻域内系数具有相同符号值的该概率值。若(m,n)点系数与邻域内系数均相同,pX=1;若与邻域内系数均不相同,pX=0。
对该部分的融合系数选取为:
C F H ( m , n ) = C A H ( m , n ) PI A > PI B C B H ( m , n ) otherwise , ( m , n ) ∈ E - - - ( 10 )
●低频系数的融合
C F L ( m , n ) = C A L ( m , n ) ( m , n ) ∈ X ∪ E C B L ( m , n ) ( m , n ) ∈ X → - - - ( 11 )
4.对融合后所得到的“高频”融合系数和低频融合系数进行小波逆变换得到融合后的图像。
图像的重构为:
f ( x , y ) = Σ k = 1 N ω k ( x , y ) + f N ( x , y ) - - - ( 12 )
将本发明所得的融合结果,与其他融合方法所得的融合结果进行了对比,评价结果对照如表1所示,图3为融合所得的图像。图3中,(a)为可见光原图像;(b)为红外原图像;(c)为基于像素融合方法的融合结果;(d),(e)为两种基于窗口融合方法的融合结果;(f)为本发明基于目标区域融合方法的融合结果。结果表明,本发明使得融合后图像的质量得以较大的提高,均优于其他融合方法。
                       表1图像融合结果指标评价
  基于目标区域   基于像素  基于窗口(方法1)   基于窗口(方法2)
  互有信息边缘信息   3.59530.3228   1.44150.3091   1.44680.3106   1.44790.3193

Claims (1)

1.一种红外与可见光图像融合方法,其特征在于包括如下具体步骤:
1)在同一场景的红外图像和可见光图像进行配准的基础上,采用多孔小波算法来分解图像,采用B3样条尺度函数得到的二维卷积算子进行具体运算,将图像分解为不同频带上的细节信息和最低频带的近似信息;
2)对红外图像采用阈值法进行区域分割,然后根据成像特性和目标图像特征信息来确定目标区域,在确定出红外图像的目标区域后,将原图像划分为背景区域,目标区域以及它们之间的边缘部分;
3)在融合处理时,对于目标区域,直接选取红外图像相应区域的小波系数作为融合后小波系数;对于目标区域和背景区域之间的边缘部分,比较红外图像小波系数和可见光图像小波系数绝对值大小,选取绝对值大的小波系数作为融合后小波系数;对于背景区域,同时考虑系数本身以及其与邻域内系数的相关性,确定融合量测指标,融合量测指标的大小衡量小波系数所包含的信息的多少,通过比较红外图像和可见光图像融合量测指标的大小,确定指标大的小波系数为融合后小波系数;
4)对各区域得到的小波系数进行小波逆变换以获得融合后的图像。
CN 200310108933 2003-11-27 2003-11-27 红外与可见光图像融合方法 Expired - Fee Related CN1273937C (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 200310108933 CN1273937C (zh) 2003-11-27 2003-11-27 红外与可见光图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 200310108933 CN1273937C (zh) 2003-11-27 2003-11-27 红外与可见光图像融合方法

Publications (2)

Publication Number Publication Date
CN1545064A CN1545064A (zh) 2004-11-10
CN1273937C true CN1273937C (zh) 2006-09-06

Family

ID=34334947

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 200310108933 Expired - Fee Related CN1273937C (zh) 2003-11-27 2003-11-27 红外与可见光图像融合方法

Country Status (1)

Country Link
CN (1) CN1273937C (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101696947B (zh) * 2009-10-13 2011-08-17 公安部第一研究所 一种x射线双能量透射与康普顿背散射图像智能融合方法

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8531562B2 (en) 2004-12-03 2013-09-10 Fluke Corporation Visible light and IR combined image camera with a laser pointer
JP4534756B2 (ja) * 2004-12-22 2010-09-01 ソニー株式会社 画像処理装置、画像処理方法、撮像装置、プログラム、及び記録媒体
CN100383805C (zh) * 2005-11-03 2008-04-23 复旦大学 星载微波和红外遥感融合对城区地物特征进行分类的方法
CN1873693B (zh) * 2006-06-27 2010-05-12 上海大学 基于Contourlet变换和改进型脉冲耦合神经网络的图像融合方法
CN101527039B (zh) * 2008-03-06 2011-12-28 河海大学 基于边缘特征的图像自动配准及快速超分辨率融合方法
CN101493936B (zh) * 2008-05-30 2011-03-23 内蒙古科技大学 一种基于图像边缘的多分辨非刚性头部医学图像配准方法
CN101727665B (zh) * 2008-10-27 2011-09-07 广州飒特电力红外技术有限公司 红外图像和可见光图像融合的方法及装置
US9171361B2 (en) 2010-04-23 2015-10-27 Flir Systems Ab Infrared resolution and contrast enhancement with fusion
US8520970B2 (en) * 2010-04-23 2013-08-27 Flir Systems Ab Infrared resolution and contrast enhancement with fusion
CN101846751B (zh) * 2010-05-14 2012-11-14 中国科学院上海技术物理研究所 一种用于隐匿武器检测的实时图像融合系统及方法
CN101976436B (zh) * 2010-10-14 2012-05-30 西北工业大学 一种基于差分图修正的像素级多聚焦图像融合方法
CN102254314B (zh) * 2011-07-17 2012-10-24 西安电子科技大学 基于压缩感知的可见光和红外图像融合方法
CN102646272A (zh) * 2012-02-23 2012-08-22 南京信息工程大学 基于局部方差和加权相结合的小波气象卫星云图融合方法
CN102722864B (zh) * 2012-05-18 2014-11-26 清华大学 一种图像增强方法
WO2014100787A1 (en) * 2012-12-21 2014-06-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US10148895B2 (en) * 2013-12-19 2018-12-04 Flir Systems Ab Generating a combined infrared/visible light image having an enhanced transition between different types of image information
US9990730B2 (en) 2014-03-21 2018-06-05 Fluke Corporation Visible light image with edge marking for enhancing IR imagery
CN104021537A (zh) * 2014-06-23 2014-09-03 西北工业大学 一种基于稀疏表示的红外与可见光图像融合方法
CN104268847B (zh) * 2014-09-23 2017-04-05 西安电子科技大学 一种基于交互非局部均值滤波的红外与可见光图像融合方法
CN104809714A (zh) * 2015-04-29 2015-07-29 华东交通大学 基于多形态稀疏表示的图像融合方法
CN104899848A (zh) * 2015-07-02 2015-09-09 苏州科技学院 一种基于黎曼度量的自适应多策略图像融合方法
CN105069769A (zh) * 2015-08-26 2015-11-18 哈尔滨工业大学 一种微光与红外夜视图像融合方法
US10152811B2 (en) 2015-08-27 2018-12-11 Fluke Corporation Edge enhancement for thermal-visible combined images and cameras
CN105739092B (zh) * 2016-04-01 2018-05-15 深圳中科天衢能源安全技术有限公司 一种双光路光学系统及其图像融合的方法
CN109478315B (zh) * 2016-07-21 2023-08-01 前视红外系统股份公司 融合图像优化系统和方法
CN106408585B (zh) * 2016-11-28 2019-03-15 江苏省山水生态环境建设工程有限公司 一种生态景观边坡监测系统
CN106960202B (zh) * 2017-04-11 2020-05-19 湖南灵想科技股份有限公司 一种基于可见光与红外图像融合的笑脸识别方法
CN107845109A (zh) * 2017-11-17 2018-03-27 杨俊刚 针对光场阵列相机重聚焦图像的全景深融合方法及系统
CN108510455B (zh) * 2018-03-27 2020-07-17 长春理工大学 一种激光照射器图像融合方法及系统
CN108765324A (zh) * 2018-05-16 2018-11-06 上海爱优威软件开发有限公司 一种基于红外的图像处理方法及系统
CN110246108B (zh) * 2018-11-21 2023-06-20 浙江大华技术股份有限公司 一种图像处理方法、装置及计算机可读存储介质
CN110443776A (zh) * 2019-08-07 2019-11-12 中国南方电网有限责任公司超高压输电公司天生桥局 一种基于无人机吊舱的数据配准融合方法
CN110889817B (zh) * 2019-11-19 2022-04-26 中国人民解放军海军工程大学 图像融合质量评价方法及装置
CN111968068A (zh) * 2020-08-18 2020-11-20 杭州海康微影传感科技有限公司 一种热成像图像的处理方法及装置
CN114519808A (zh) * 2022-02-21 2022-05-20 烟台艾睿光电科技有限公司 图像融合方法、装置及设备、存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101696947B (zh) * 2009-10-13 2011-08-17 公安部第一研究所 一种x射线双能量透射与康普顿背散射图像智能融合方法

Also Published As

Publication number Publication date
CN1545064A (zh) 2004-11-10

Similar Documents

Publication Publication Date Title
CN1273937C (zh) 红外与可见光图像融合方法
CN1177298C (zh) 基于块分割的多聚焦图像融合方法
CN1822046A (zh) 基于区域特征模糊的红外与可见光图像融合方法
Blum et al. An Overview of lmage Fusion
CN1282132C (zh) 基于运动目标检测的红外和可见光动态图像融合方法
CN1897035A (zh) 基于Contourlet变换的可见光与红外线图像融合方法
CN1282131C (zh) 基于不可分离小波框架的图像融合方法
Ma et al. Multisource image fusion based on wavelet transform
CN1251145C (zh) 综合边缘和纹理信息的金字塔图像融合方法
Pashaei et al. Deep learning-based single image super-resolution: an investigation for dense scene reconstruction with UAS photogrammetry
CN112016478B (zh) 一种基于多光谱图像融合的复杂场景识别方法及系统
CN1847782A (zh) 基于光栅投影的二维图像区域定位方法
CN101447072A (zh) 基于金字塔形的经验模态分解图像融合方法
CN1431523A (zh) 遥感图像双线性插值小波变换融合的优化方法
CN113793309B (zh) 一种基于形态学特征的亚像素级椭圆检测方法
CN1286065C (zh) 基于方向滤波器组的图像融合方法
CN1254770C (zh) 基于期望值最大与离散小波框架的图像融合方法
Wang et al. A fusion algorithm of remote sensing image based on discrete wavelet packet
CN111402183A (zh) 基于八度金字塔框架的多聚焦图像融合方法
Huang et al. An image fusion method of SAR and multispectral images based on non-subsampled shearlet transform and activity measure
CN113091693B (zh) 一种基于图像超分辨率技术的单目视觉长程测距方法
CN1272746C (zh) 基于不可分离小波框架变换的多聚焦图像融合方法
CN114782821A (zh) 一种联合多种迁移学习策略的滨海湿地植被遥感识别方法
Guo et al. Robust approach for suburban road segmentation in high‐resolution aerial images
CN111986109A (zh) 一种基于全卷积网络的遥感影像去雾方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20060906

Termination date: 20091228