CN101546428B - 基于区域分割的序列红外与可见光图像融合 - Google Patents

基于区域分割的序列红外与可见光图像融合 Download PDF

Info

Publication number
CN101546428B
CN101546428B CN200910022404XA CN200910022404A CN101546428B CN 101546428 B CN101546428 B CN 101546428B CN 200910022404X A CN200910022404X A CN 200910022404XA CN 200910022404 A CN200910022404 A CN 200910022404A CN 101546428 B CN101546428 B CN 101546428B
Authority
CN
China
Prior art keywords
image
frame
infrared image
fusion
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN200910022404XA
Other languages
English (en)
Other versions
CN101546428A (zh
Inventor
郭雷
刘坤
常威威
李晖晖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Huayi Garment Co ltd
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN200910022404XA priority Critical patent/CN101546428B/zh
Publication of CN101546428A publication Critical patent/CN101546428A/zh
Application granted granted Critical
Publication of CN101546428B publication Critical patent/CN101546428B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于区域分割的序列红外与可见光图像融合,技术特征在于:首先将根据红外图像帧间目标变化情况以及红外图像的灰度变化的剧烈程度将红外图像分割为不同区域,随后利用非下采样Contourlet变换可以把图像分解到不同方向上的不同频率域,然后根据不同区域的特点在不同的频率域选用不同的融合规则,最后将处理后的系数经过图像重构得到最终融合结果。本方法考虑到了某个区域内的特征所具有的信息,因此该算法能有效降低由于噪声以及配准精度低而引入融合图像误差的几率,具有较强的鲁棒性。

Description

基于区域分割的序列红外与可见光图像融合
技术领域
本发明涉及一种基于区域分割的序列红外与可见光图像融合,是基于非下采样Contourlet变换(Nonsubsampled Contourlet transform,NSCT)和区域分割的序列红外与可见光图像融合方法,可以应用于各类军用或民用的图像处理系统。
背景技术
随着传感技术的发展目前获取图像的方式越来越多以及数据量的剧增,大量的信息难以利用,因此图像融合技术成为国际研究的热点。图像融合作为数据融合的重要组成部分,是一种可视的数据融合技术,它综合了传感器技术,图像与信号处理、计算机技术、人工智能、统计与估计理论等多科学的高新技术。图像融合技术利用多源图像中的冗余信息和互补信息,利用优势互补的数据来提高图像信息的可用程度,同时增加了对融合图像的解释的可靠性,提高了融合图像应用的鲁棒性。
红外图像与可见光图像不同,红外图像不依赖于外部的光线,利用场景内物体本身各个部分热辐射的差异获取物体图像的细节,因此红外图像一般较暗,信噪比低、无彩色信息、缺少层次感,且目标图像与背景对比度低、边缘模糊;而可见光图像对比度相对较高,目标包含一定的细节信息,但在黑暗背景下具有不易观察的隐蔽性。因此将同一场景的红外图像和可见光图像融合形成的图像保留了由高局部高亮度对比表征的重要细节,大大提高了探测识别的可靠性和准确性。在图像融合的研究中以红外图像和可见光图像融合的研究最为广泛,其具有非常重要的主动监视作用,并在航空、航天等各领域有着重要的研究意义以及广泛的应用场所。但目前研究的多都是基于静态图像的融合,即对多传感器获得的序列图像直接逐帧以静态图像融合方法进行融合处理,如何利用序列图像在时间轴上的运动信息来指导图像融合过程是解决序列 图像融合的关键问题。
融合算法是图像融合的核心,它的实现的优劣直接影响融合的图像的质量。图像融合的算法要求算法要尽可能多的包含被融合的图像的有用信息,不能引用误导后续处理和识别的虚假信息,且算法要具有较好的稳定性、鲁棒性和具备消除噪声及配准中的误差容错性,以便于具有更好的表达和解释能力。因此图像融合算法成为目前的研究重点。
目前小波变换理论日益成熟,小波变换在图像处理中得到了广泛的应用。由于小波变换具有较好的时频特性,能有效的捕获图像中的特征信息,因此将其应用于图像融合能够获得比以往融合方法更好的效果。但是,小波方法仍然存在问题:小波变换的优势主要体现在对一维分段光滑或有界变差函数进行分析和处理,当推广到二维或更高维时,由一维小波张成的可分离小波只具有有限的方向,即以“点”为单位来捕捉图像的特征,只能反映“过”边缘特性,而无法表达“沿”边缘特性,也就是说,小波主要是用于表示具有各向同性(isotropy)的奇异性的对象,而对于各向异性(anisotropy)的奇异性,如自然图像中的边界以及线状特征等,小波并不是很好的表示工具。这也正是基于小波的一系列处理方法,如图像压缩、图像去噪以及图像融合等应用中,均不可避免地在图像边缘和细节位置引入一定程度模糊的原因所在。可见,在图像融合应用中,最好能采取比小波基表达能力更强的基函数,所以有必要采用比小波更有力的变换方法。
针对小波变换的上述缺点,需要发展新的高维函数的最优表示方法,随着多尺度几何工具研究的日益深入,M.N.Do和M.Vetterli提出了一种“真正的”二维图像的表示方法Contourlet变换。Contourlet基的支撑区间是随尺度而变化的“长条形”结构,因而能具有比小波变换更好的多分辨率、局部性、方向性和各向异性,能更加有效的 捕获图像的边缘信息。但是由于其变换过程中的下采样操作,信号频谱会产生混叠现象,融合图像中则表现为较明显的吉布斯现象。Arthur L.da Cunha等根据构造非下采样小波的启发提出了一种非下采样Contourlet变换(nonsubsampled Contourlet transform,NSCT),该变换比Contourlet变换具有更灵活的多分辨、多方向的图像表示能力,且以冗余度换取了平移不变性。基于此将非下采样Contourlet变换引入图像融合,可以更好的保留原始图像的细节信息,提取图像的轮廓特征,为融合图像提供更多更全面的特征信息。
目前图像融合的研究主要集中在静态图像融合中,针对序列图像的融合算法研究较少,而序列图像融合可被广泛应用于安全监视以及战场环境下的目标识别与跟踪。现阶段常用的图像融合算法都是在像素级的图像融合算法,所采用的融合规则都是基于像素点以及窗口规则的,但这两种规则将图像经多尺度几何变换后的系数之间的关系弱化了。在实际应用中,图像的特征往往不是由单个像素点所表征的而是由某个区域所表征,所以在图像融合的研究中融合某个区域比仅仅融合像素点要更有意义。因此,基于区域的图像融合算法在实际中有更有意义,理论上应该能够得到更好的融合效果。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于区域分割的序列红外与可见光图像融合,
技术方案
本发明的基本思想是:首先将根据红外图像帧间目标变化情况以及红外图像的灰度变化的剧烈程度将红外图像分割为不同区域,随后利用非下采样Contourlet变换可以把图像分解到不同方向上的不同频率域,然后根据不同区域的特点在不同的频率域选用不同的融合规则,最后将处理后的系数经过图像重构得到最终融合结果。
本发明方法的特征在于步骤如下:
步骤1非下采样Contourlet变换分解:对待融合的序列红外图像{Ai}和可见光图像{Bi}的第i帧的红外图像Ai和可见光图像Bi进行非下采样Contourlet变换,得到第i帧红外图像源Ai和可见光图像Bi的非下采样Contourlet变换系数 
Figure DEST_PATH_GSB00000471603300011
和 
Figure DEST_PATH_GSB00000471603300012
其中 
Figure DEST_PATH_GSB00000471603300013
为第i帧的红外图像Ai低频信息图像, 
Figure DEST_PATH_GSB00000471603300014
为第i帧的红外图像Ai尺度j下第k个方向的高频信息子图像, 
Figure DEST_PATH_GSB00000471603300015
为第i帧的红外图像Bi低频信息图像, 为第i帧的红外图像Bi尺度j下第k个方向的高频信息子图像,i=1,2,3,…表示图像的帧数,J表示非下采样Contourlet变换尺度分解层数,k表示每个尺度下方向分解数;
步骤2同时对序列红外图像图像Ai进行区域分割:将第i帧红外图像Ai(i≠1)与第一帧红外图像A1相减可获得一副差值图像,将差值图像进行图像增强后得到第i帧红外图像Ai的目标区域T;然后以第一帧红外图像A1为划分背景区域与灰度区域的基准,根据红外图像中灰度级,利用阈值分割技术,对于第一帧红外图像A1中灰度值大于或者等于阈值α的标记为灰度区域G,若小于阈值α的则标记为背景区域B;所述的阈值α为0≤α<Imean,Imean为图像灰度值的中值;
步骤3将序列红外图像{Ai}和可见光图像{Bi}进行融合:将第i帧红外图像源Ai和可见光图像Bi的两幅源图像中相对应非下采样Contourlet变换系数 和 
Figure DEST_PATH_GSB00000471603300018
按照下述融合规则进行处理,得到融合后新生成的非下采样Contourlet变换系数,即融合系数 
Figure DEST_PATH_GSB00000471603300019
所述的融合规则为对于目标区域的融合、对于灰度区域的融合和对于背景区域的融合:
对于目标区域T的融合:选择第i帧红外图像的低频信息作为融合图像Fi低频信息: L F i ( m , n ) = L A i ( m , n ) , ( m , n ) ∈ T
利用取模极大的方法得到第i帧的融合图像Fi高频信息 
Figure G200910022404XD00052
H j , k F i ( m , n ) = H j , k A i ( m , n ) | H j , k A i ( m , n ) | > | H j , k B i ( m , n ) | H j , k Fi ( m , n ) = H j , k Bi , j ( m , n ) | H j , k A i ( m , n ) | ≤ | H j , k B i ( m , n ) | , ( m , n ) ∈ T ;
对于灰度区域G的融合:利用加权平均的融合方法可获得第i帧的融合图像Fi的低频信息 
Figure G200910022404XD00054
L F i ( m , n ) = L A i ( m , n ) × 0.5 + L B i ( m , n ) × 0.5 , ( m , n ) ∈ G
以第i帧红外图像源Ai和可见光图像Bi中M×N窗口内的相关系数corr为度量标准获得第i帧的融合图像Fi的高频信息;
当corr≤t时,第i帧的融合图像Fi的高频信息:
H j , k F i ( m , n ) = H j , k A i ( m , n ) SF A i M × N > SF B i M × N H j , k F i ( m , n ) = H j , k B i ( m , n ) SF A i M × N ≤ SF B i M × N , ( m , n ) ∈ G
其中 
Figure G200910022404XD00057
和 
Figure G200910022404XD00058
分别为第i帧红外图像源Ai和可见光图像Bi窗口大小M×N内的空间频率,所述阈值t的范围为0.5≤t<1;
当corr>t时,第i帧的融合图像Fi的高频信息为:
H j , k F i ( m , n ) = w × H j , k A i ( m , n ) + ( 1 - w ) × H j , k B i ( m , n ) , ( m , n ) ∈ G
其中w为阈值,范围确定如下:
w = 0.5 + 0.5 × 1 - corr 1 - t SF A i M × N > SF B i M × N w = 0.5 - 0.5 × 1 - corr 1 - t SF A i M × N ≤ SF B i M × N
所述的第i帧红外图像源Ai和可见光图像Bi中M×N窗口的相关系数corr为:
corr ( A i M × N , B i M × N ) = Σ i , j [ ( A i M × N ( i , j ) - A i M × N ‾ ) × ( B i M × N ( i , j ) - B i M × N ‾ ) ] Σ i , j [ ( A i i M × N ( i , j ) - A i i M × N ‾ ) 2 ] Σ [ ( B i M × N ( i , j ) - B i M × N ‾ ) 2 ]
所述的空间频率为: SF = RF 2 + CF 2 , 其中,RF为图像的行频率,CF为图像的列频率,其定义分别为:
RF = 1 M × N Σ i = 0 M - 1 Σ j = 0 N - 1 [ I ( i , j ) - I ( i , j - 1 ) ] 2
CF = 1 M × N Σ i = 0 M - 1 Σ j = 0 N - 1 [ I ( i , j ) - I ( i - 1 , j ) ] 2 ;
对于背景区域B的融合:第i帧可见光图像中的低频信息作为第i帧的融合图像Fi的低频信息 
Figure G200910022404XD00064
L F i ( m , n ) = L B i . ( m , n ) , ( m , n ) ∈ B
第i帧红外图像Ai和可见光Bi区域能量值较大的窗口中心像素值作为第i帧的融合图像Fi的高频信息:
H j , k F i ( m , n ) = H j , k A i ( m , n ) E j , k A i ( m , n ) > E j , k B i ( m , n ) H j , k Fi ( m , n ) = H j , k Bi ( m , n ) E j , k A i ( m , n ) ≤ E j , k B i ( m , n ) , ( m , n ) ∈ B
其中, 
Figure G200910022404XD00067
和 为M×N窗口内区域能量为:
E j , k ( m , n ) = Σ i = - ( M - 1 ) / 2 ( M - 1 ) / 2 Σ j = - ( N - 1 ) / 2 ( N - 1 ) / 2 | H j , k ( m + i , n + j ) | ;
所述m,n为M×N窗口中像素点的位置;
步骤4非下采样Contourlet变换重构:对融合后生成的融合系数 
Figure G200910022404XD000610
进行非下采样Contourlet逆变换,得到第i帧的融合图像Fi
所述的非下采样Contourlet分解层数J为4,各尺度上方向数k分别为4、4、8、16。
所述M×N窗口大小为3×3或者5×5。
有益效果
本发明的基于区域分割的序列红外与可见光图像融合,优点在于:第一,非下采 样Contourlet变换不但和小波一样具有局部时频分析能力,由于Contourlet基的支撑区间是随尺度而变化的“长条形”结构,因而能具有比小波变换更好的多分辨率、局部性、方向性和各向异性,能更加有效的捕获图像的边缘信息。第二,由于Contourlet变换过程中的下采样操作导致信号频谱会产生混叠现象,融合图像中则表现为较明显的吉布斯现象。非下采样Contourlet变换去除了Contourlet变换中的下采样和重构前上采样,非下采样Contourlet变换消除了Contourlet变换的频率混叠现象。将非下采样Contourlet变换引入图像融合,能够更好地提取原始图像的特征,为融合图像提供更多的信息,也更加有利于分析和跟踪像的重要特征,这也更加适合融合红外与可见光图像;第三,基于区域的图像融合算法是将特征级和像素级两个层次融合相结合的方法,因特征级融合是对预处理和特征提取后所获得的边缘、轮廓、方向和区域等信息进行处理,因此基于区域的融合算法考虑到了某个区域内的特征所具有的信息,因此该算法能有效降低由于噪声以及配准精度低而引入融合图像误差的几率,具有较强的鲁棒性。第四,针对不同区域在非下采样Contourlet变换域的不同的频率信息具有不同的特点,不同的区域分别设计不同的融合规则。因此基于区域分割的信息考虑了不同区域的特征信息,适宜应用在源图像未能精确配准和光谱差异较大的情况,算法具有较好的鲁棒性。第五,利用图像帧间差别识别序列图像中的目标变化情况,利用序列图像在时间轴上的运动信息来指导图像融合过程。
附图说明
图1:本发明方法的基本流程图
图2:融合图像序列以及分割的不同区域;
(a)红外图像;(b)可见光图像;(c)空间频率分割图;(d)边缘检测图;(e)基于NSCT的像素点融合的图像;(f)基于NSCT的窗口融合的图像;(g)本文提出基于NSCT的 区域融合的图像;(h)基于NSWT的区域融合的图像;
图3:序列红外图像与可见光图像融合例子
(a)红外图像;(b)可见光图像;(c)基于NSCT的像素点融合的图像;(d)基于NSCT的窗口融合的图像;(e)本文提出基于NSCT的区域融合的图像;(f)基于NSWT的区域融合的图像;
具体实施方式
现结合实施例、附图对本发明作进一步描述:
用于实施的硬件环境是:Pentium-43G计算机、1GB内存、128M显卡,运行的软件环境是:Matlab7.0和Windows XP。我们用Matlab程序设计语言实现了本发明提出的方法。图像数据采用同一场景序列红外图像与可见光图像。
本发明具体实施如下:
1.非下采样Contourlet分解:假设序列图像中的每帧图像均已配准,对待融合的序列红外图像{Ai}和可见光图像{Bi}的第i帧的红外图像Ai和可见光图像Bi进行非下采样Contourlet变换,得到第i帧红外图像源Ai和可见光图像Bi的非下采样Contourlet变换系数 和 非下采样Contourlet分解层数为4,各尺度上方向数分别为4、4、8、16。其中 
Figure G200910022404XD00083
为第i帧的红外图像Ai低频信息图像, 
Figure G200910022404XD00084
为第i帧的红外图像Ai尺度j下第k个方向的高频信息子图像, 
Figure G200910022404XD00085
为第i帧的红外图像Bi低频信息图像, 
Figure G200910022404XD00086
为第i帧的红外图像Bi尺度j下第k个方向的高频信息子图像,i=1,2,3,…表示图像的帧数,j表示非下采样Contourlet变换尺度分解层数,k表示每个尺度下方向分解数。
2.同时对序列红外图像图像Ai进行区域分割:本文提出的基于区域分割的序列图像的融合算法,是通过分割算法将序列红外图像分割为不同的区域,然后将这些不同的区域映射到可见光图像中,利用不同的区域信息指导图像融合。红外图像一般较暗,无彩色信息、缺少层次感,低可视目标很容易在红外图像中看到,目标也多为高亮的灰度级,而可见光图像对比度相对较高,目标包含一定的细节信息,但在黑暗背景下具有不易观察的隐蔽性。首先,由于我们采用序列图像背景是不变的,由于序列图像所反映的是某一时间段图像的变化的过程,因此可以通过对比帧与帧之间的变换以此来检测序列图像中目标的运动。因此我们以初始帧图像A1作为标准图像,将第i帧红外图像Ai(i≠1)与第一帧红外图像A1相减可获得一副差值图像,将差值图像进行图像增强,增强方法选择直方图增强法可提取出较为明显的高亮区域记为目标信息,即获得第i帧红外图像Ai的目标区域T。由于红外与可见光作用在不同的波段,图像特征上具有不同的灰度值,在红外图像中出现的灰度特征并不一定在可见光图像中也出现。红外与可见光图像的共同之处,就是在目标的边缘附近灰度迅速变化。因此红外图像中除目标区域外,也包含部分纹理信息。为了不丢失红外图像中的纹理边缘信息,以第一帧红外图像A1为划分背景区域与灰度区域的基准,根据红外图像中灰度级的不同,利用阈值分割技术,设定实验阈值α,若第一帧红外图像A1中灰度值大于或者等于α的标记为灰度区域G,若小于α的则标记为背景区域B。所述的阈值α为0≤α<Imean,Imean为图像灰度值的中值,在试验过程中选择α=Imean。背景区域灰度较大缺乏纹理细节特征,灰度区域包含一些边缘特征以及纹理信息,如草丛及树木的纹理特征以及边缘信息。随后其中灰度级较大的高亮区域属于灰色区域,灰度级较小的黑色为背景区域。基于此,我们将序列图像中反映的目标的运动信息以及红外图像中包含的特征信息分割为了三类不同区域:目标区域、灰度区域和背景区域。将三类不同的区域分别映射到可见光图像中,使得红外图像中的目标信息不仅可以在光谱信息丰富的可见光图像中确定出精确的位置,还能使得一些物体的边缘信息由于红外传感器的作用在可见光图像中更为清晰分辨率更高。
3.将序列红外图像{Ai}和可见光图像{Bi}进行融合:通过动态目标的分割算法将序列红外图像分割为三种不同区域,其中目标区域、灰度区域以及背景区域分别用T,G,B表示。不同区域所表征的图像特点也不同,而图像经过NSCT分解后的低频信息和高频信息具有不同的物理意义,因此在融合过程中,需要针对不同区域对图像的高频细节信息和低频近似信息加以区分,采用不同的融合算子和融合规则。
a.目标区域的融合
为最大限度的保持目标的细节和轮廓,低频信息选择红外图像中的目标区域,因为从序列红外图像中分割出的目标区域多由红外图像反映其结构特征,融合图像的低频信息可表示为:
L F i ( m , n ) = L A i ( m , n ) , ( m , n ) ∈ T - - - ( 1 )
高频信息为提取更多的细节特征选,目标区域的高频信息选择取模极大的方法,即:
H j , k F i ( m , n ) = H j , k A i ( m , n ) | H j , k A i ( m , n ) | > | H j , k B i ( m , n ) | H j , k Fi ( m , n ) = H j , k Bi , j ( m , n ) | H j , k A i ( m , n ) | ≤ | H j , k B i ( m , n ) | , ( m , n ) ∈ T - - - ( 2 )
b.灰度区域的融合
为使融合图像从图像源中提取更多更全面的信息,利用加权平均的融合方法获得第i帧的融合图像Fi的低频信息 灰色区域中红外图像中也包含着部分细节信息,以及由于光谱特性使得某些边缘相比于可见光图像更为清晰,即:
L F i ( m , n ) = L A i ( m , n ) × 0.5 + L B i ( m , n ) × 0.5 , ( m , n ) ∈ G - - - ( 3 )
高频信息以空间频率为度量标准将加权的融合策略和基于窗口的融合策略相结合,不仅保留了原始图像的大量信息又考虑了相邻领域内的信息,增强了图像区域内像素点的相关性,可更好的提取灰色图像中所反映的边缘及轮廓特征。以第i帧红外图像源Ai和可见光图像Bi中M×N窗口内的相关系数corr为度量标准获得第i帧的融合图像Fi的高频信息,设定实验阈值t=0.7,阈值t的范围为0.5≤t<1。
当corr≤t时表明两个区域的相关性差,空间频率值较大的表示了高频信息图像中突变较大,因此该区域内包含更多的特征,因此选择两个区域中空间频率值较大的窗口中心像素点作为第i帧的融合图像Fi的高频信息:
H j , k F i ( m , n ) = H j , k A i ( m , n ) SF A i M × N > SF B i M × N H j , k F i ( m , n ) = H j , k B i ( m , n ) SF A i M × N ≤ SF B i M × N , ( m , n ) ∈ G - - - ( 4 )
其中 
Figure G200910022404XD00112
和 分别为第i帧红外图像源Ai和可见光图像Bi窗口大小M×N内的空间频率,实验窗口大小为3×3。
当corr>t时,第i帧的融合图像Fi的高频信息为:
H j , k F i ( m , n ) = w × H j , k A i ( m , n ) + ( 1 - w ) × H j , k B i ( m , n ) , ( m , n ) ∈ G - - - ( 5 )
其中阈值w范围如下确定:
w = 0.5 + 0.5 × 1 - corr 1 - t SF A i M × N > SF B i M × N w = 0.5 - 0.5 × 1 - corr 1 - t SF A i M × N ≤ SF B i M × N - - - ( 6 )
利用相关系数判别对应帧的红外图像和可见光图像的相关性,两幅图像的相关系数越好越接近于1表示图像的接近度越好,第i帧红外图像源Ai和可见光图像Bi中M×N窗口的相关系数,即:
corr ( A i M × N , B i M × N ) = Σ i , j [ ( A i M × N ( i , j ) - A i M × N ‾ ) × ( B i M × N ( i , j ) - B i M × N ‾ ) ] Σ i , j [ ( A i i M × N ( i , j ) - A i i M × N ‾ ) 2 ] Σ [ ( B i M × N ( i , j ) - B i M × N ‾ ) 2 ] - - - ( 7 )
图像的空间频率定义为:
SF = RF 2 + CF 2 - - - ( 8 )
其中,RF为图像的行频率,CF为图像的列频率,其定义分别为:
RF = 1 M × N Σ i = 0 M - 1 Σ j = 0 N - 1 [ I ( i , j ) - I ( i , j - 1 ) ] 2
CF = 1 M × N Σ i = 0 M - 1 Σ j = 0 N - 1 [ I ( i , j ) - I ( i - 1 , j ) ] 2 - - - ( 9 )
c.背景区域的融合
可见光图像光谱信息丰富包含着大量的细节特征信息,相比于红外图像其分辨率高,能为后续处理提供更多细节信息。因此在背景区域中,低频信息选择可见光图像的信息:
L F i ( m , n ) = L B i ( m , n ) , ( m , n ) ∈ B - - - ( 10 )
高频信息为提取更多的细节选择以基于窗口的融合规则,且以区域能量为度量标准选择窗口中能量值较大的窗口中心像素值作为第i帧的融合图像Fi的高频信息:
H j , k F i ( m , n ) = H j , k A i ( m , n ) E j , k A i ( m , n ) > E j , k B i ( m , n ) H j , k Fi ( m , n ) = H j , k Bi ( m , n ) E j , k A i ( m , n ) ≤ E j , k B i ( m , n ) , ( m , n ) ∈ B - - - ( 11 )
其中, 和 
Figure G200910022404XD00124
表示M×N窗口内区域能量,实验窗口大小为3×3。
图像M×N窗口能量定义为:
E j , k ( m , n ) = Σ i = - ( M - 1 ) / 2 ( M - 1 ) / 2 Σ j = - ( N - 1 ) / 2 ( N - 1 ) / 2 | H j , k ( m + i , n + j ) | - - - ( 12 )
4.图像非下采样Contourlet变换重构:根据上述步骤中确定的低频信息 
Figure G200910022404XD00126
和不同尺度下不同方向上的高频信息 
Figure G200910022404XD00127
进行非下采样Contourlet变换反变换,得到最终的第i帧融合图像Fi
基于此,上述四步就是基于非下采样Contourlet变换和空间频率分割区域的红外图像融合算法的详细过程。
图2为序列图像分割的结果和图3为融合后所得的序列图像。将本发明所得的融合结果与其他融合方法所得的融合结果进行对比,客观评价结果分别如表1所示。
不同的客观评价指标有着不同的物理意义,本文还采用了互信息、相关系数以及信息熵三种客观评价指标,定量评价不同方法用于序列红外与可见光图像融合的性能。表1为不同融合算法获得的序列融合图像的客观性能指标,其中F表示融合图像,A表示红外图像,B表示可见光图像。根据各项指标的定义,从表1中可以看出本文提 出的算法的各项指标均为最优的。本文提出算法的互信息在几种算法中是最大的,互信息越大表明融合图像能从原始图像提取的信息越丰富。因此本文算法能从融合图像源中提取最多的图像信息,融合图像保留了更多源图像的特征信息。从相关系数中可以看出,本文算法获得的融合图像与可见光图像的相关系数最大,与红外图像的相关系数最小。由于红外图像与可见光图像的灰度差异较大,有时甚至相反,若融合图像与红外图像的相关系数较大,融合图像的灰度失真也较为严重,图像的对比度和分辨率也较低;若融合图像与可见光图像的相关系数较大,则表明融合图像的光谱信息与可见光图像越接近,且融合图像光谱信息也越丰富,图像的灰度失真越小。本文算法的信息熵值也是几种算法中最优的,根据信息熵的定义也表明了本文算法获得的融合图像包含最为丰富的图像信息。
表1序列图像融合性能客观评价指标
Figure G200910022404XD00131

Claims (3)

1.一种基于区域分割规则的序列红外与可见光图像的融合方法,其特征在于步骤如下:
步骤1非下采样Contourlet变换分解:对待融合的序列红外图像{Ai}和可见光图像{Bi}的第i帧的红外图像Ai和可见光图像Bi进行非下采样Contourlet变换,得到第i帧红外图像源Ai和可见光图像Bi的非下采样Contourlet变换系数 和 其中 
Figure DEST_PATH_FSB00000471603200013
为第i帧的红外图像Ai低频信息图像, 
Figure DEST_PATH_FSB00000471603200014
为第i帧的红外图像Ai尺度j下第k个方向的高频信息子图像, 
Figure DEST_PATH_FSB00000471603200015
为第i帧的红外图像Bi低频信息图像, 
Figure DEST_PATH_FSB00000471603200016
为第i帧的红外图像Bi尺度j下第k个方向的高频信息子图像,i=1,2,3,…表示图像的帧数,J表示非下采样Contourlet变换尺度分解层数,k表示每个尺度下方向分解数;
步骤2同时对序列红外图像图像Ai进行区域分割:将第i帧红外图像Ai,i≠1,与第一帧红外图像A1相减可获得一副差值图像,将差值图像进行图像增强后得到第i帧红外图像Ai的目标区域T;然后以第一帧红外图像A1为划分背景区域与灰度区域的基准,根据红外图像中灰度级,利用阈值分割技术,对于第一帧红外图像A1中灰度值大于或者等于阈值α的标记为灰度区域G,若小于阈值α的则标记为背景区域B;所述的阈值α为0≤α<Imean,Imean为图像灰度值的中值;
步骤3将序列红外图像{Ai}和可见光图像{Bi}进行融合:将第i帧红外图像源Ai和可见光图像Bi的两幅源图像中相对应非下采样Contourlet变换系数 
Figure DEST_PATH_FSB00000471603200017
和 
Figure DEST_PATH_FSB00000471603200018
按照下述融合规则进行处理,得到融合后新生成的非下采样Contourlet变换系数,即融合系数 
Figure DEST_PATH_FSB00000471603200019
所述的融合规则为对于目标区域的融合、对于灰度区域的融合和对于背景区域的融合: 
对于目标区域T的融合:选择第i帧红外图像的低频信息作为融合图像Fi低频信息:
Figure F200910022404XC00021
(m,n)∈T
利用取模极大的方法得到第i帧的融合图像Fi高频信息 
Figure F200910022404XC00022
Figure F200910022404XC00023
对于灰度区域G的融合:利用加权平均的融合方法可获得第i帧的融合图像Fi的低频信息 
Figure F200910022404XC00024
Figure F200910022404XC00025
以第i帧红外图像源Ai和可见光图像Bi中M×N窗口内的相关系数corr为度量标准获得第i帧的融合图像Fi的高频信息;
当corr≤t时,第i帧的融合图像Fi的高频信息:
Figure F200910022404XC00026
其中 和 分别为第i帧红外图像源Ai和可见光图像Bi窗口大小M×N内的空间频率,所述阈值t的范围为0.5≤t<1;
当corr>t时,第i帧的融合图像Fi的高频信息为:
Figure F200910022404XC00029
其中w为阈值,范围确定如下:
所述的第i帧红外图像源Ai和可见光图像Bi中M×N窗口的相关系数corr为:
Figure F200910022404XC000211
所述的空间频率为:
Figure F200910022404XC00031
其中,RF为图像的行频率,CF为图像的列频率,其定义分别为:
Figure F200910022404XC00032
Figure F200910022404XC00033
对于背景区域B的融合:第i帧可见光图像中的低频信息作为第i帧的融合图像Fi的低频信息 
Figure F200910022404XC00034
Figure F200910022404XC00035
第i帧红外图像Ai和可见光Bi区域能量值较大的窗口中心像素值作为第i帧的融合图像Fi的高频信息:
Figure F200910022404XC00036
其中, 
Figure F200910022404XC00037
和 
Figure F200910022404XC00038
为M×N窗口内区域能量为:
所述m,n为M×N窗口中像素点的位置;
步骤4非下采样Contourlet变换重构:对融合后生成的融合系数 
Figure F200910022404XC000310
进行非下采样Contourlet逆变换,得到第i帧的融合图像Fi
2.根据权利要求1所述的基于区域分割规则的序列红外与可见光图像的融合方法,其特征在于:所述的非下采样Contourlet分解层数J为4,各尺度上方向数k分别为4、4、8、16。
3.根据权利要求1或2所述的基于区域分割规则的序列红外与可见光图像的融合方法,其特征在于:所述M×N窗口大小为3×3或者5×5。 
CN200910022404XA 2009-05-07 2009-05-07 基于区域分割的序列红外与可见光图像融合 Expired - Fee Related CN101546428B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN200910022404XA CN101546428B (zh) 2009-05-07 2009-05-07 基于区域分割的序列红外与可见光图像融合

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN200910022404XA CN101546428B (zh) 2009-05-07 2009-05-07 基于区域分割的序列红外与可见光图像融合

Publications (2)

Publication Number Publication Date
CN101546428A CN101546428A (zh) 2009-09-30
CN101546428B true CN101546428B (zh) 2011-08-17

Family

ID=41193548

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200910022404XA Expired - Fee Related CN101546428B (zh) 2009-05-07 2009-05-07 基于区域分割的序列红外与可见光图像融合

Country Status (1)

Country Link
CN (1) CN101546428B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102609919A (zh) * 2012-02-16 2012-07-25 清华大学 一种基于区域的压缩感知图像融合方法
CN107220628A (zh) * 2017-06-06 2017-09-29 北京环境特性研究所 红外干扰源检测的方法
US10152811B2 (en) 2015-08-27 2018-12-11 Fluke Corporation Edge enhancement for thermal-visible combined images and cameras

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8520970B2 (en) * 2010-04-23 2013-08-27 Flir Systems Ab Infrared resolution and contrast enhancement with fusion
US9171361B2 (en) 2010-04-23 2015-10-27 Flir Systems Ab Infrared resolution and contrast enhancement with fusion
CN101714251B (zh) * 2009-12-22 2013-04-10 上海电力学院 一种红外与可见光伪彩色图像融合及增强方法
CN101794442B (zh) * 2010-01-25 2011-11-09 哈尔滨工业大学 一种从可见光图像中提取光照不敏感信息的标定方法
CN101853492B (zh) * 2010-05-05 2012-07-04 浙江理工大学 一种夜视微光图像与红外图像融合方法
CN101894364B (zh) * 2010-05-31 2012-10-03 重庆大学 基于光学非下采样轮廓波变换的图像融合方法和装置
CN102074022B (zh) * 2011-01-10 2012-12-12 南京理工大学 一种基于红外图像的弱小运动目标检测方法
CN102542570B (zh) * 2011-12-30 2014-05-07 北京华航无线电测量研究所 一种微波图像中人体隐藏危险物体自动检测方法
CN102646272A (zh) * 2012-02-23 2012-08-22 南京信息工程大学 基于局部方差和加权相结合的小波气象卫星云图融合方法
CN103095996B (zh) * 2013-01-25 2015-09-02 西安电子科技大学 基于时空显著性检测的多传感器视频融合方法
CN103413284A (zh) * 2013-07-15 2013-11-27 西北工业大学 一种基于二维emd和遗传算法的多聚焦数字图像融合方法
CN103400360A (zh) * 2013-08-03 2013-11-20 浙江农林大学 基于Wedgelet和NSCT的多源图像融合方法
CN103778618A (zh) * 2013-11-04 2014-05-07 国家电网公司 一种可见光图像和红外图像的融合方法
US9990730B2 (en) 2014-03-21 2018-06-05 Fluke Corporation Visible light image with edge marking for enhancing IR imagery
CN105069768B (zh) * 2015-08-05 2017-12-29 武汉高德红外股份有限公司 一种可见光图像与红外图像融合处理系统及融合方法
CN106096604A (zh) * 2016-06-02 2016-11-09 西安电子科技大学昆山创新研究院 基于无人平台的多波段融合探测方法
CN106204528A (zh) * 2016-06-27 2016-12-07 重庆理工大学 一种零件几何质量的尺寸检测方法
CN106408585B (zh) * 2016-11-28 2019-03-15 江苏省山水生态环境建设工程有限公司 一种生态景观边坡监测系统
CN106600572A (zh) * 2016-12-12 2017-04-26 长春理工大学 一种自适应的低照度可见光图像和红外图像融合方法
CN106780392B (zh) * 2016-12-27 2020-10-02 浙江大华技术股份有限公司 一种图像融合方法及装置
CN106960430B (zh) * 2017-03-17 2019-08-06 西安电子科技大学 基于分区域的sar图像与彩色可见光图像融合方法
CN107194905A (zh) * 2017-05-22 2017-09-22 阜阳师范学院 一种基于非下采样Cotourlet变换的图像处理方法及系统
CN108022230B (zh) * 2017-12-22 2020-07-31 青岛大学附属医院 肾脏多期ct图像融合系统
CN108549874B (zh) * 2018-04-19 2021-11-23 广州广电运通金融电子股份有限公司 一种目标检测方法、设备及计算机可读存储介质
CN109215003B (zh) * 2018-07-09 2021-09-28 上海海事大学 一种图像融合方法及装置
CN109409601B (zh) * 2018-10-25 2021-06-22 郝巴雅斯胡良 用于绒山羊养殖的草场演化监测与预测方法
CN110246108B (zh) 2018-11-21 2023-06-20 浙江大华技术股份有限公司 一种图像处理方法、装置及计算机可读存储介质
CN109685752A (zh) * 2019-01-09 2019-04-26 中国科学院长春光学精密机械与物理研究所 一种基于块分解的多尺度Shearlet域图像融合处理方法
CN109618099B (zh) * 2019-01-10 2021-01-08 深圳英飞拓科技股份有限公司 双光谱摄像机图像融合方法及装置
CN110322423B (zh) * 2019-04-29 2023-03-31 天津大学 一种基于图像融合的多模态图像目标检测方法
CN110472658B (zh) * 2019-07-05 2023-02-14 哈尔滨工程大学 一种动目标多源探测的层次融合与提取方法
CN110322454B (zh) * 2019-07-08 2021-12-10 自然资源部第二海洋研究所 一种基于光谱差异最大化的高分辨遥感图像多尺度分割优化方法
CN111028189B (zh) * 2019-12-09 2023-06-27 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN111611921B (zh) * 2020-05-21 2021-05-14 苏州科知律信息科技有限公司 一种基于遥感大数据的太阳能板识别系统
CN112233023A (zh) * 2020-09-27 2021-01-15 轩辕智驾科技(深圳)有限公司 一种车载红外摄像头及其调光方法和装置
TWI804349B (zh) * 2022-06-17 2023-06-01 林俊銘 刀具影像檢測方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1284188A (zh) * 1997-12-30 2001-02-14 C技术公司 用来匹配图象的一种方法和一种装置
US6597800B1 (en) * 1997-11-05 2003-07-22 Bae Systems Plc Automatic target recognition apparatus and process

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6597800B1 (en) * 1997-11-05 2003-07-22 Bae Systems Plc Automatic target recognition apparatus and process
CN1284188A (zh) * 1997-12-30 2001-02-14 C技术公司 用来匹配图象的一种方法和一种装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Liu Kun et.Fusion of Infrared and Visible Light Images Based on Region Segmentation.《Chinese Journal of Aeronautics》.2009,第22卷 *
叶传奇 等.基于NSCT变换的红外与可见光图像融合算法.《系统工程与电子技术》.2008,第30卷(第4期), *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102609919A (zh) * 2012-02-16 2012-07-25 清华大学 一种基于区域的压缩感知图像融合方法
US10152811B2 (en) 2015-08-27 2018-12-11 Fluke Corporation Edge enhancement for thermal-visible combined images and cameras
CN107220628A (zh) * 2017-06-06 2017-09-29 北京环境特性研究所 红外干扰源检测的方法
CN107220628B (zh) * 2017-06-06 2020-04-07 北京环境特性研究所 红外干扰源检测的方法

Also Published As

Publication number Publication date
CN101546428A (zh) 2009-09-30

Similar Documents

Publication Publication Date Title
CN101546428B (zh) 基于区域分割的序列红外与可见光图像融合
Ma et al. Infrared and visible image fusion methods and applications: A survey
Zhang et al. A fusion algorithm for infrared and visible images based on saliency analysis and non-subsampled Shearlet transform
Piella A general framework for multiresolution image fusion: from pixels to regions
Li et al. Complex contourlet-CNN for polarimetric SAR image classification
CN102521818B (zh) 一种基于nsct的sar图像和可见光图像的融合方法
CN103093478B (zh) 基于快速核空间模糊聚类的异源图像粗大边缘检测方法
CN104408700A (zh) 基于形态学和pca的轮廓波红外与可见光图像融合方法
CN102800070B (zh) 基于区域和人眼对比敏感特性的异源图像融合方法
CN103578110A (zh) 基于灰度共生矩阵的多波段高分辨率遥感影像分割方法
Singh et al. Review of various image fusion algorithms and image fusion performance metric
Xiao et al. Segmentation of multispectral high-resolution satellite imagery using log Gabor filters
CN103116881A (zh) 基于PCA与Shearlet变换的遥感图像融合方法
CN103400383A (zh) 基于nsct和压缩投影的sar图像变化检测方法
CN106897999A (zh) 基于尺度不变特征变换的苹果图像融合方法
Li et al. Review on technology of pixel-level image fusion
CN105512670B (zh) 基于keca特征降维和聚类的hrct周围神经分割
Asokan et al. Deep Feature Extraction and Feature Fusion for Bi-Temporal Satellite Image Classification.
Dogra et al. Multi-modality medical image fusion based on guided filter and image statistics in multidirectional shearlet transform domain
Han et al. HWA-SegNet: Multi-channel skin lesion image segmentation network with hierarchical analysis and weight adjustment
Tu et al. Spectral–spatial hyperspectral image classification via non-local means filtering feature extraction
CN113298147B (zh) 基于区域能量和直觉模糊集的图像融合方法及装置
Dong et al. Deep shearlet network for change detection in sar images
Wu et al. Fusing optical and synthetic aperture radar images based on shearlet transform to improve urban impervious surface extraction
Nercessian et al. Multiresolution decomposition schemes using the parameterized logarithmic image processing model with application to image fusion

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: NORTHWESTERN POLYTECHNICAL UNIVERSITY

Effective date: 20140814

Owner name: HUAYI DRESS CO., LTD., JINGSU

Free format text: FORMER OWNER: NORTHWESTERN POLYTECHNICAL UNIVERSITY

Effective date: 20140814

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 710072 XI AN, SHAANXI PROVINCE TO: 226600 NANTONG, JIANGSU PROVINCE

TR01 Transfer of patent right

Effective date of registration: 20140814

Address after: 226600 Jiangsu, Nantong, Haian County, Haian Town, No. 88 Changjiang Road

Patentee after: JIANGSU HUAYI GARMENT Co.,Ltd.

Patentee after: Northwestern Polytechnical University

Address before: 710072 Xi'an friendship West Road, Shaanxi, No. 127

Patentee before: Northwestern Polytechnical University

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110817