CN102800070A - 基于区域和人眼对比敏感特性的异源图像融合方法 - Google Patents

基于区域和人眼对比敏感特性的异源图像融合方法 Download PDF

Info

Publication number
CN102800070A
CN102800070A CN2012102017309A CN201210201730A CN102800070A CN 102800070 A CN102800070 A CN 102800070A CN 2012102017309 A CN2012102017309 A CN 2012102017309A CN 201210201730 A CN201210201730 A CN 201210201730A CN 102800070 A CN102800070 A CN 102800070A
Authority
CN
China
Prior art keywords
image
frequency sub
coefficient
band
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012102017309A
Other languages
English (en)
Other versions
CN102800070B (zh
Inventor
李勃
吴炜
董蓉
阮雅端
王江
蒋士正
陈启美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201210201730.9A priority Critical patent/CN102800070B/zh
Publication of CN102800070A publication Critical patent/CN102800070A/zh
Application granted granted Critical
Publication of CN102800070B publication Critical patent/CN102800070B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

基于区域和人眼对比敏感特性的异源图像融合方法,包含如下步骤:(1)对待融合的源图像分别用非下采样Contourlet变换NSCT进行多尺度分解,得到源图像的各阶子带系数;(2)根据人眼视觉对比度函数LCSF、人眼视觉绝对对比度灵敏度函数ACSF、感觉亮度对比度函数FBCF和局部平均梯度敏感性函数LGSF分别制定低频子带系数和各级高频子带系数的融合规则,得到融合图像的各级子带系数;(3)对融合后的系数进行NSCT逆变换,重构得到融合后的图像。本发明符合人眼的视觉特性,很大程度上提高了融合图像的质量,具有鲁棒性,适用于红外与可见光图像、多聚焦图像、遥感图像等多种图像源的融合,应用前景广泛。

Description

基于区域和人眼对比敏感特性的异源图像融合方法
技术领域
本发明属于异源图像、视频融合领域,特别涉及基于非下采样Contourlet变换NSCT的异源图像融合,主要用于红外图像、可见光图像、多聚焦图像、遥感图像等异源图像的融合,为一种基于区域和人眼对比敏感特性的异源图像融合方法。
背景技术
随着计算机科学技术和传感器技术的迅猛发展,越来越多的传感器被应用在各个领域中。由单一的可见光模式逐渐发展成为多种传感器模式,各种传感器具有不同的成像机理,工作于不同的波长范围,满足不同工作环境的需要。为了满足实际中更多的应用,多传感器信息融合技术应运而生。
异源图像融合为其中的一个分支,是把多个不同模式的图像传感器获得的同一场景的多幅图像或同一传感器在不同时刻或方式下获得的同一场景的多幅图像合成为一幅包含输入图像相关信息的图像的过程。融合技术可以克服单一传感器图像在几何、光谱和空间分辨率等方面存在的局限性和差异性,提高图像的质量,从而可以有利于对事件的检测、识别和分析。主要优势可以分为以下几点:
(1)利用多个传感器提供的冗余信息来提高融合图像的精确性、可靠性和鲁棒性,即使其中的个别传感器发生故障也不会对最终的融合图像产生严重影响;
(2)不同传感器提供的信息具有互补性,可以使融合后的图像包含更丰富、更全面的信息,带来更好的视觉感受,更有利于机器视觉对图像进一步分析、处理以及目标识别;
(3)在恶劣环境条件下,通过多传感器图像融合可以改善单一传感器的检测性能。例如,低光照、烟雾等会降低图像质量甚至导致无法看清目标,而毫米波雷达获得的图像对于低光照、烟雾等有很强的穿透能力,红外相机则完全无视恶劣环境的存在,只接收物体的红外信号,尽管信号有所衰减,但仍然能获得比较清晰的图像。
因此,融合可以使异源的图像缺点互补,各自优势得以更好的发展。
异源图像融合技术的发展过程中,多尺度分析方法和融合规则都在不断地向前发展。当前较为热门的就是多分辨率分析。目前已有的多尺度方向分析方法有脊波(Ridgelet)变换、曲波Curvelet变换、Bandelet变换、Wedgelet变换、Beamlet变换以及较新的非下采样Contourlet变换等。在融合规则的制定和选择方面,西安电子科技大学的李智杰等提出的基于Curvelet变换的背景杂波抑制算法,对杂波和噪声有较强的抑制作用,同时很好地保留了目标点的信息。BelbachirA.N.等人提出一种基于Contourlet变换与小波变换结合的红外图像信息提取方法,从一系列天文红外图像中有效的提取出有用信息。
总之,异源图像的处理、分析与融合已经成为国内外的一个热点话题。融合图像的质量以及融合的实时性都亟待提高,本发明致力于融合图像质量提高方面的研究。
发明内容
本发明要解决的问题是:异源图像融合作为对事件的检测、识别和分析的有力技术,其融合图像的质量以及融合的实时性都亟待提高。
本发明的技术方案为:基于区域和人眼对比敏感特性的异源图像融合方法,用于异源图像的融合得到融合图像F,包括以下步骤:
1)对待融合的源图像A和B分别进行非下采样Contourlet变换,即NSCT分解:将源图像分解到Contourlet变换域,得到源图像A和B的各级子带系数,包括低频子带系数和高频子带系数:
Figure BDA00001782748500022
Figure BDA00001782748500023
Figure BDA00001782748500024
Figure BDA00001782748500025
Figure BDA00001782748500026
分别为源图像A、B的低频子带系数,
Figure BDA00001782748500027
Figure BDA00001782748500028
为相应的尺度l、方向d的高频子带系数;
2)制定融合规则,得到融合图像系数:使用人眼视觉对比度函数LCSF对低频子带系数制定融合规则,使用人眼视觉绝对对比度灵敏度函数ACSF对第一级高频子带系数进行活性测度,采用感觉亮度对比度函数FBCF和局部平均梯度敏感性函数LGSF分别确定高频子带系数的融合规则,综合得到融合图像F的各级子带系数
Figure BDA00001782748500029
Figure BDA000017827485000210
用LCSF作为活性测度,对低频子带系数使用加权平均的融合规则:
C F { 1,1 , } ( x , y ) = ω 1 × C A { 1,1 } ( x , y ) + ( 1 - ω 1 ) × C B { 1,1 } ( x , y ) - - - ( 1 )
其中,
Figure BDA000017827485000212
Figure BDA000017827485000213
Figure BDA000017827485000214
分别为红外图像与可见光图像低频子带系数的人眼视觉对比度函数值;
用ACSF作为活性测度,对第一级高频子带系数使用如下的融合规则:
C F { 1,2 } ( x , y ) = C A { 1,2 } ( x , y ) if ACSF A { 1,2 } &GreaterEqual; ACSF B { 1,2 } C B { 1,2 } ( x , y ) if ACSF A { 1,2 } < ACSF B { 1,2 } - - - ( 2 )
Figure BDA00001782748500032
分别为两幅源图像的判决因子;
采用感觉亮度对比度函数FBCF作为第二级高频子带系数融合的判决因子:
FBCF = klg C * { l , d } ( x , y ) + K 0 1 D &Sigma; 0 D ( klg C * { l , d } ( x , y ) + K 0 ) - - - ( 3 )
C * { l , d } ( x , y ) = &Sigma; m = - a - 1 2 a - 1 2 &Sigma; n = - a - 1 2 a - 1 2 &omega; ( m , n ) C { l , d } ( x + m , y + n ) - - - ( 4 )
式中,0≤x≤M,0≤y≤N,(x,y)为子带系数矩阵中系数的坐标,M、N为子带系数矩阵的大小,ω(m,n)为a×a的生成核,a为奇数,k和K0为韦伯·费赫涅尔定律中的常数,C{l,d}(x,y)为图像经NSCT分解后在尺度l、方向d上的高频子带系数,D是尺度l上的方向d的总数;
用FBCF作为活性测度,FBCF系数越大表示该尺度该方向下的感觉亮度相比于背景亮度的对比度越大,对第二级高频子带系数采取如下融合规则:
C F { 1,3 } { 1 , d } ( x , y ) = C A { 1,3 } { 1 , d } ( x , y ) if FBCF A { 1,3 } { 1 , d } ( x , y ) &GreaterEqual; FBCF B { 1,3 } { 1 , d } ( x , y ) C B { 1,3 } { 1 , d } ( x , y ) if FBCF A { 1,3 } { 1 , d } ( x , y ) < FBCF B { 1,3 } { 1 , d } ( x , y ) , d = 1,2,3,4 - - - ( 5 )
采用局部平均梯度敏感性函数LGSF作为第三级高频子带系数的判决因子:
LGSF = 1 b 2 &Sigma; x - b - 1 2 x + b - 1 2 &Sigma; y - b - 1 2 y + b - 1 2 ( &PartialD; C { l , d } ( x , y ) &PartialD; x ) 2 + ( &PartialD; C { l , d } ( x , y ) &PartialD; y ) 2 - - - ( 6 )
式中,计算的是以(x,y)位置处系数为中心的b×b局部区域的LGSF,b为局部区域的行和列的值,C{l,d}(x,y)为图像经NSCT分解后在尺度l、方向d上的高频子带系数,求解边缘子带系数的LGSF时在系数矩阵行或列的外侧补上相同的行或列;
用LGSF作为活性测度,LGSF系数越大,表示局部平均梯度越大,细节特征越明显,对第三级高频子带系数采取如下融合规则:
C F { 1,4 } { 1 , d } ( x , y ) = C A { 1,4 } { 1 , d } ( x , y ) LGSF A { 1,4 } { 1 , d } ( x , y ) < LGSF B { 1,4 } 1 , d } ( x , y ) C B { 1,4 } { 1 , d } ( x , y ) LGSF A { 1,4 } { 1 , d } ( x , y ) < LGSF B { 1,4 } { 1 , d } ( x , y ) , d = 1,2 , . . . , 8 - - - ( 7 ) ;
3)重构图像:对步骤2)得到的融合图像F的各级子带系数
Figure BDA00001782748500038
Figure BDA00001782748500039
进行非下采样Contourlet逆变换,重构得到融合后的图像。
进一步的,将不同视频同一时间的图像帧融合,实现异源视频融合。
所述异源图像包括红外图像、可见光图像、多聚焦图像或遥感图像。
本发明主要针对特殊环境下由单一传感器图像在光谱、空间分辨率等方面的局限性所造成的事件检测、识别、分析困难,对异源图像的融合展开研究,在融合规则上进行创新,提出感觉亮度对比度函数FBCF和局部平均梯度敏感性函数LGSF,提高融合图像的质量。
本发明充分考虑到人眼具有的同时对比效应、颜色对比效应、马赫带效应等视觉特性,且人眼视觉系统观察图像的过程与基于多分辨率分析的图像处理过程十分相似。本发明提出了基于多分辨率分析的人眼区域对比敏感特性视觉函数,即感觉亮度对比度函数FBCF和局部平均梯度敏感性函数LGSF,采用先进的NSCT变换作为多分辨率分析工具,将本发明提出的基于多分辨率分析的人眼区域对比敏感特性视觉函数用作活性测度,分别对不同级的子带选取不同的融合规则,得到融合后的结果。经客观质量指标进行评价,本发明融合图像的质量较传统方法有明显的提高。
本发明符合人眼的视觉特性,很大程度上提高了融合图像的质量,具有鲁棒性,适用于红外与可见光图像、多聚焦图像、遥感图像等多种图像源的融合,应用前景广泛。
附图说明
图1为本发明依据的人眼感觉亮度和真实亮度的关系曲线,即韦伯·费赫涅尔定理曲线。
图2为本发明中NSCT分解后的高频方向子带结构图,图(a)为四方向,图(b)为八方向。
图3为本发明实施例用于红外与可见光图像融合的仿真结果与其他方法对比,图(a)为红外源图像,(b)为可见光源图像,(c)为现有的基于NSCT的融合图像,(d)为本发明方法的融合图像。
图4为本发明实施例用于多聚焦图像融合的仿真结果与其他方法对比,(a)为聚焦在右侧的源图像,(b)为聚焦在左侧的源图像,(c)为现有的基于NSCT的融合图像,(d)为本发明方法的融合图像。
图5为本发明实施例用于遥感图像融合的仿真结果与其他方法对比,(a)为多光谱源图像,(b)为全色段源图像,(c)为现有的基于NSCT的融合图像,(d)为本发明方法的融合图像。
具体实施方式
本发明基于区域和人眼对比敏感特性的异源图像融合方法,包含如下步骤:(1)对待融合的源图像分别用非下采样Contourlet变换NSCT进行多尺度分解,得到源图像的各阶子带系数;(2)根据人眼视觉对比度函数LCSF、人眼视觉绝对对比度灵敏度函数ACSF、感觉亮度对比度函数FBCF和局部平均梯度敏感性函数LGSF分别制定低频子带系数和各级高频子带系数的融合规则,得到融合图像的各级子带系数;(3)对融合后的系数进行NSCT逆变换,重构得到融合后的图像,具体实施如下:
(1)对待融合的源图像A和源图像B分别进行非下采样Contourlet变换,即NSCT分解:对两幅源图像分别进行三层NSCT分解,三层高频子带的方向滤波器组分解方向子带数分别是[1,4,8],第二层和第三层的的子带方向d如图2所示。得到源图像A和B的各阶子带系数分别为:
Figure BDA00001782748500052
Figure BDA00001782748500053
Figure BDA00001782748500054
0≤x≤M、0≤y≤N,l=2,3,4,d=1,2...8,其中,
Figure BDA00001782748500055
Figure BDA00001782748500056
分别为源图像A、B的低频子带系数,
Figure BDA00001782748500058
为相应的尺度l、方向d高频子带系数,NSCT分解为现有技术,本发明中不再详述。
(2)制定融合规则,得到融合图像系数:沿用经典的人眼视觉对比度函数LCSF对低频子带系数制定融合规则,沿用前人提出的人眼视觉绝对对比度灵敏度函数ACSF对一级高频子带系数进行活性测度,采用本发明提出的感觉亮度对比度函数FBCF和局部平均梯度敏感性函数LGSF分别制定各级高频子带系数的融合规则,综合得到融合图像F的各级子带系数
Figure BDA00001782748500059
Figure BDA000017827485000510
低频子带系数融合规则:
LCSF A { 1,1 } = C A { 1,1 } ( x , y ) 1 MN &Sigma; x = 0 M &Sigma; y = 0 N C A { 1,1 } ( x , y ) , 0 &le; x &le; M , 0 &le; y &le; N - - - ( 8 )
LCSF B { 1,1 } = C B { 1,1 } ( x , y ) 1 MN &Sigma; x = 0 M &Sigma; y = 0 N C B { 1,1 } ( x , y ) , 0 &le; x &le; M , 0 &le; y &le; N - - - ( 9 )
式中,
Figure BDA000017827485000513
Figure BDA000017827485000514
分别为红外图像与可见光图像低频子带系数的人眼视觉对比度函数值,(x,y)为子带系数矩阵中系数的坐标,M、N为子带系数矩阵的大小。
Figure BDA000017827485000516
的函数值越大,表明红外或可见光图像背景信息含量越多。
Figure BDA000017827485000517
表示红外图像的对比度在两幅图像中的敏感性权重,对低频子带融合规则采用如下加权平均方法,
C F { 1,1 , } ( x , y ) = &omega; 1 &times; C A { 1,1 } ( x , y ) + ( 1 - &omega; 1 ) &times; C B { 1,1 } ( x , y ) - - - ( 1 )
高频子带系数融合规则:源图像经NSCT分解后,第一级高频子带系数未进行方向滤波,第二级和第三级高频子带系数分别进行四方向和八方向的方向滤波,第一级到第三级高频子带系数分别为C{1,2}{1,1}(x,y)、C{1,3}{1,d}(x,y)(d=1,2,3,4)和C{1,4}{1,d}(x,y)(d=1,2,...,8)。
第一级高频子带融合规则:沿用人眼视觉绝对对比度灵敏度函数ACSF,分别计算两幅源图像判决因子,如下,
ACSF A { 1 , 2 } = C A { 1 , 2 } ( x , y ) C A { 1,1 } ( x , y ) , 0 &le; x &le; M , 0 &le; y &le; N - - - ( 11 )
ACSF B { 1 , 2 } = C B { 1 , 2 } ( x , y ) C B { 1,1 } ( x , y ) , 0 &le; x &le; M , 0 &le; y &le; N - - - ( 12 )
高频子带系数包含图像的细节信息,ACSF值越大,表明图像边缘特征相对于背景越显著。由此,第一级高频子带系数融合规则如下所示,
C F { 1,2 } ( x , y ) = C A { 1,2 } ( x , y ) if ACSF A { 1,2 } &GreaterEqual; ACSF B { 1,2 } C B { 1,2 } ( x , y ) if ACSF A { 1,2 } < ACSF B { 1,2 } - - - ( 2 )
第二级高频子带融合规则:采用感觉亮度对比度函数FBCF作为第二级高频子带系数融合的判决因子,
FBCF A { 1,3 } { 1 , d } = k ln C * { 1,3 } { 1 , d } ( x , y ) + K 0 1 D &Sigma; 0 D ( k ln C * { 1,3 } { 1 , d } ( x , y ) + K 0 ) , d = 1,2,3,4 - - - ( 14 )
FBCF B { 1,3 } { 1 , d } = klg C B * { 1,3 } { 1 , d } ( x , y ) + K 0 1 D &Sigma; 0 D ( klg C B * { 1,3 } { 1 , d } ( x , y ) + K 0 ) , d = 1,2,3,4 - - - ( 15 )
其中, C * { 1,3 } { 1 , d } ( x , y ) = &Sigma; m = - 1 1 &Sigma; n = - 1 1 &omega; ( m , n ) C { 1,3 } { 1 , d } ( x + m , y + n ) , ω(m,n)为a×a的生成核,习惯采用a=3、a=5等奇数,本发明依据人眼感觉亮度和真实亮度的关系,即韦伯·费赫涅尔定律,k和K0为韦伯·费赫涅尔定律中的常数,在实验中取k=100,K0=100,韦伯·费赫涅尔定理曲线如图1所示;
FBCF系数越大表示该尺度该方向下的感觉亮度相比于背景亮度的对比度越大,则第二级高频子带系数融合规则如下,
C F { 1,3 } { 1 , d } ( x , y ) = C A { 1,3 } { 1 , d } ( x , y ) if FBCF A { 1,3 } { 1 , d } ( x , y ) &GreaterEqual; FBCF B { 1,3 } { 1 , d } ( x , y ) C B { 1,3 } { 1 , d } ( x , y ) if FBCF A { 1,3 } { 1 , d } ( x , y ) < FBCF B { 1,3 } { 1 , d } ( x , y ) - - - ( 5 )
其中,d=1,2,3,4,此处使用的是3×3的ω(m,n)生成核。
第三级高频子带融合规则:采用局部平均梯度敏感性函数LGSF作为第三级高频子带系数的判决因子,方法如下,
Figure BDA00001782748500072
式中,计算的是以(x,y)位置处系数为中心的b×b局部区域的LGSF,b为局部区域的行和列的值,此处取为[3,3]滑块。
LGSF系数越大,表示局部平均梯度越大,细节特征越明显,据此给出第三级高频子带系数融合规则,如下,
C F { 1,4 } { 1 , d } ( x , y ) = C A { 1,4 } { 1 , d } ( x , y ) LGSF A { 1,4 } { 1 , d } ( x , y ) < LGSF B { 1,4 } { 1 , d } ( x , y ) C B { 1,4 } { 1 , d } ( x , y ) LGSF A { 1,4 } { 1 , d } ( x , y ) < LGSF B { 1,4 } { 1 , d } ( x , y ) , d = 1,2 , . . . , 8 - - - ( 19 )
(3)重构图像:对(2)中得出的融合图像F的各级子带系数
Figure BDA00001782748500074
进行非下采样Contourlet逆变换,得到融合图像F。
(4)融合质量评价:本发明红外与可见光图像融合、多聚焦图像融合和遥感图像融合为实施例,与现有的基于非下采样Contourlet变换也就是NSCT图像融合方法作比较,如图3-5所示,用不同评价指标对融合结果进行定量评价,分别选取基于单幅图像统计特性的均值、标准差、熵、梯度的评价指标,以及基于源图像对比特性的相关系数、光谱扭曲度、偏差指数作为评价指标。
表1对多种异源图像融合质量的客观评价结果
Figure BDA00001782748500076
Figure BDA00001782748500081
分析表1中各评价指标:均值即灰度值128附近时,人眼视觉效果最好;标准差越大,灰度级分布越分散,则表明图像的对比度也就越大;平均梯度越大,图像就越清晰;信息熵越大,则表明融合图像信息量越丰富;相关系数越大,表明融合图像F从高分辨率源图像中提取的信息量越多;光谱扭曲度直接反映了融合图像的失真程度;偏差指数用来反映融合图像在光谱信息上的匹配程度和将源高分辨率图像的细节传递给融合图像的能力。由此可见,采用本发明的融合规则得到的融合图像质量远高于低频平均、高频取大的一般融合规则得到的图像。

Claims (3)

1.基于区域和人眼对比敏感特性的异源图像融合方法,其特征是用于异源图像的融合得到融合图像F,包括以下步骤:
1)对待融合的源图像A和B分别进行非下采样Contourlet变换,即NSCT分解:将源图像分解到Contourlet变换域,得到源图像A和B的各级子带系数,包括低频子带系数和高频子带系数:
Figure FDA00001782748400011
Figure FDA00001782748400012
Figure FDA00001782748400014
Figure FDA00001782748400015
Figure FDA00001782748400016
分别为源图像A、B的低频子带系数,
Figure FDA00001782748400017
Figure FDA00001782748400018
为相应的尺度l、方向d的高频子带系数;
2)制定融合规则,得到融合图像系数:使用人眼视觉对比度函数LCSF对低频子带系数制定融合规则,使用人眼视觉绝对对比度灵敏度函数ACSF对第一级高频子带系数进行活性测度,采用感觉亮度对比度函数FBCF和局部平均梯度敏感性函数LGSF分别确定高频子带系数的融合规则,综合得到融合图像F的各级子带系数
Figure FDA00001782748400019
Figure FDA000017827484000110
用LCSF作为活性测度,对低频子带系数使用加权平均的融合规则:
C F { 1,1 , } ( x , y ) = &omega; 1 &times; C A { 1,1 } ( x , y ) + ( 1 - &omega; 1 ) &times; C B { 1,1 } ( x , y ) - - - ( 1 )
其中,
Figure FDA000017827484000113
Figure FDA000017827484000114
分别为红外图像与可见光图像低频子带系数的人眼视觉对比度函数值;
用ACSF作为活性测度,对第一级高频子带系数使用如下的融合规则:
C F { 1,2 } ( x , y ) = C A { 1,2 } ( x , y ) if ACSF A { 1,2 } &GreaterEqual; ACSF B { 1,2 } C B { 1,2 } ( x , y ) if ACSF A { 1,2 } < ACSF B { 1,2 } - - - ( 2 )
Figure FDA000017827484000116
分别为两幅源图像的判决因子;
采用感觉亮度对比度函数FBCF作为第二级高频子带系数融合的判决因子:
FBCF = klg C * { l , d } ( x , y ) + K 0 1 D &Sigma; 0 D ( klg C * { l , d } ( x , y ) + K 0 ) - - - ( 3 )
C * { l , d } ( x , y ) = &Sigma; m = - a - 1 2 a - 1 2 &Sigma; n = - a - 1 2 a - 1 2 &omega; ( m , n ) C { l , d } ( x + m , y + n ) - - - ( 4 )
式中,0≤x≤M,0≤y≤N,(x,y)为子带系数矩阵中系数的坐标,M、N为子带系数矩阵的大小,ω(m,n)为a×a的生成核,a为奇数,k和K0为韦伯·费赫涅尔定律中的常数,C{l,d}(x,y)为图像经NSCT分解后在尺度l、方向d上的高频子带系数,D是尺度l上的方向d的总数;
用FBCF作为活性测度,FBCF系数越大表示该尺度该方向下的感觉亮度相比于背景亮度的对比度越大,对第二级高频子带系数采取如下融合规则:
C F { 1,3 } { 1 , d } ( x , y ) = C A { 1,3 } { 1 , d } ( x , y ) if FBCF A { 1,3 } { 1 , d } ( x , y ) &GreaterEqual; FBCF B { 1,3 } { 1 , d } ( x , y ) C B { 1,3 } { 1 , d } ( x , y ) if FBCF A { 1,3 } { 1 , d } ( x , y ) < FBCF B { 1,3 } { 1 , d } ( x , y ) , d = 1,2,3,4 - - - ( 5 )
采用局部平均梯度敏感性函数LGSF作为第三级高频子带系数的判决因子:
LGSF = 1 b 2 &Sigma; x - b - 1 2 x + b - 1 2 &Sigma; y - b - 1 2 y + b - 1 2 ( &PartialD; C { l , d } ( x , y ) &PartialD; x ) 2 + ( &PartialD; C { l , d } ( x , y ) &PartialD; y ) 2 - - - ( 6 )
式中,计算的是以(x,y)位置处系数为中心的b×b局部区域的LGSF,b为局部区域的行和列的值,C{l,d}(x,y)为图像经NSCT分解后在尺度l、方向d上的高频子带系数,求解边缘子带系数的LGSF时在系数矩阵行或列的外侧补上相同的行或列;
用LGSF作为活性测度,LGSF系数越大,表示局部平均梯度越大,细节特征越明显,对第三级高频子带系数采取如下融合规则:
C F { 1,4 } { 1 , d } ( x , y ) = C A { 1,4 } { 1 , d } ( x , y ) LGSF A { 1,4 } { 1 , d } ( x , y ) < LGSF B { 1,4 } { 1 , d } ( x , y ) C B { 1,4 } { 1 , d } ( x , y ) LGSF A { 1,4 } { 1 , d } ( x , y ) < LGSF B { 1,4 } { 1 , d } ( x , y ) , d = 1,2 , . . . , 8 - - - ( 7 ) ;
3)重构图像:对步骤2)得到的融合图像F的各级子带系数
Figure FDA00001782748400024
进行非下采样Contourlet逆变换,重构得到融合后的图像。
2.根据权利要求1所述的基于区域和人眼对比敏感特性的异源图像融合方法,其特征是将不同视频同一时间的图像帧融合,实现异源视频融合。
3.根据权利要求1所述的基于区域和人眼对比敏感特性的异源图像融合方法,其特征是所述异源图像包括红外图像、可见光图像、多聚焦图像或遥感图像。
CN201210201730.9A 2012-06-19 2012-06-19 基于区域和人眼对比敏感特性的异源图像融合方法 Expired - Fee Related CN102800070B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210201730.9A CN102800070B (zh) 2012-06-19 2012-06-19 基于区域和人眼对比敏感特性的异源图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210201730.9A CN102800070B (zh) 2012-06-19 2012-06-19 基于区域和人眼对比敏感特性的异源图像融合方法

Publications (2)

Publication Number Publication Date
CN102800070A true CN102800070A (zh) 2012-11-28
CN102800070B CN102800070B (zh) 2014-09-03

Family

ID=47199169

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210201730.9A Expired - Fee Related CN102800070B (zh) 2012-06-19 2012-06-19 基于区域和人眼对比敏感特性的异源图像融合方法

Country Status (1)

Country Link
CN (1) CN102800070B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318539A (zh) * 2014-10-16 2015-01-28 哈尔滨工程大学 一种基于扩展Piella框架的声纳图像融合方法
CN105354802A (zh) * 2015-10-23 2016-02-24 哈尔滨工业大学 基于双向梯度预测的高光谱图像连续谱段恢复方法
CN105976346A (zh) * 2016-04-28 2016-09-28 电子科技大学 基于鲁棒主成分稀疏分解的红外与可见光图像融合方法
CN107169944A (zh) * 2017-04-21 2017-09-15 北京理工大学 一种基于多尺度对比度的红外与可见光图像融合方法
CN107705274A (zh) * 2017-08-21 2018-02-16 中国核电工程有限公司 一种基于数学形态学多尺度的微光与红外图像融合方法
CN108460736A (zh) * 2018-02-07 2018-08-28 国网福建省电力有限公司泉州供电公司 一种低照度电力设备图像曲波域增强方法
CN110060226A (zh) * 2019-04-11 2019-07-26 江南大学 基于人类视觉梯度转化和全变差参数自适应图像融合方法
CN110443111A (zh) * 2019-06-13 2019-11-12 东风柳州汽车有限公司 自动驾驶目标识别方法
CN111612734A (zh) * 2020-04-03 2020-09-01 苗锡奎 一种基于图像结构复杂度的背景杂波表征方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651817A (zh) * 2016-11-03 2017-05-10 电子科技大学成都研究院 一种基于非抽样Contourlet的图像增强方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060215932A1 (en) * 2001-11-19 2006-09-28 Stmicroelectronics S.R.L. Method for merging digital images to obtain a high dynamic range digital image
CN101303764A (zh) * 2008-05-16 2008-11-12 西安电子科技大学 基于非下采样轮廓波的多传感器图像自适应融合方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060215932A1 (en) * 2001-11-19 2006-09-28 Stmicroelectronics S.R.L. Method for merging digital images to obtain a high dynamic range digital image
CN101303764A (zh) * 2008-05-16 2008-11-12 西安电子科技大学 基于非下采样轮廓波的多传感器图像自适应融合方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
QIANG ZHANG ET AL.: "Research on Image Fusion Based on the Nonsubsampled Contourlet Transform", 《CONTROL AND AUTOMATION, 2007. ICCA 2007. IEEE INTERNATIONAL CONFERENCE ON》, 30 May 2007 (2007-05-30), pages 3239 - 3243, XP031220630 *
吴炜等: "基于改进的非下采样Contourlet变换的超分辨率复原算法", 《光学学报》, vol. 29, no. 6, 30 June 2009 (2009-06-30), pages 1493 - 1501 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318539A (zh) * 2014-10-16 2015-01-28 哈尔滨工程大学 一种基于扩展Piella框架的声纳图像融合方法
CN105354802A (zh) * 2015-10-23 2016-02-24 哈尔滨工业大学 基于双向梯度预测的高光谱图像连续谱段恢复方法
CN105976346A (zh) * 2016-04-28 2016-09-28 电子科技大学 基于鲁棒主成分稀疏分解的红外与可见光图像融合方法
CN107169944A (zh) * 2017-04-21 2017-09-15 北京理工大学 一种基于多尺度对比度的红外与可见光图像融合方法
CN107705274A (zh) * 2017-08-21 2018-02-16 中国核电工程有限公司 一种基于数学形态学多尺度的微光与红外图像融合方法
CN107705274B (zh) * 2017-08-21 2022-04-19 中国核电工程有限公司 一种基于数学形态学多尺度的微光与红外图像融合方法
CN108460736A (zh) * 2018-02-07 2018-08-28 国网福建省电力有限公司泉州供电公司 一种低照度电力设备图像曲波域增强方法
CN110060226A (zh) * 2019-04-11 2019-07-26 江南大学 基于人类视觉梯度转化和全变差参数自适应图像融合方法
CN110443111A (zh) * 2019-06-13 2019-11-12 东风柳州汽车有限公司 自动驾驶目标识别方法
CN111612734A (zh) * 2020-04-03 2020-09-01 苗锡奎 一种基于图像结构复杂度的背景杂波表征方法
CN111612734B (zh) * 2020-04-03 2023-07-04 中国人民解放军63891部队 一种基于图像结构复杂度的背景杂波表征方法

Also Published As

Publication number Publication date
CN102800070B (zh) 2014-09-03

Similar Documents

Publication Publication Date Title
CN102800070B (zh) 基于区域和人眼对比敏感特性的异源图像融合方法
CN101546428B (zh) 基于区域分割的序列红外与可见光图像融合
CN102521818B (zh) 一种基于nsct的sar图像和可见光图像的融合方法
CN106846289B (zh) 一种红外光强与偏振图像融合方法
JP2019523509A (ja) 暗視赤外画像における顕著性に基づく道路オブジェクト抽出方法
CN104268847B (zh) 一种基于交互非局部均值滤波的红外与可见光图像融合方法
CN104408700A (zh) 基于形态学和pca的轮廓波红外与可见光图像融合方法
CN106339998A (zh) 基于对比度金字塔变换的多聚焦图像融合方法
CN107169944B (zh) 一种基于多尺度对比度的红外与可见光图像融合方法
CN103279957A (zh) 一种基于多尺度特征融合的遥感图像感兴趣区域提取方法
CN103295201A (zh) 一种基于nsst域iicm的多传感器图像融合方法
CN102306381B (zh) 基于Beamlet与小波变换的图像融合方法
CN109886908B (zh) 红外图像与可见光图像融合方法
CN101441766B (zh) 基于多尺度几何分析的sar图像融合方法
Arivazhagan et al. A modified statistical approach for image fusion using wavelet transform
CN113298147B (zh) 基于区域能量和直觉模糊集的图像融合方法及装置
CN101980287A (zh) 一种采用非下采样轮廓波变换的图像边缘检测方法
Zhou et al. An infrared and visible image fusion method based on VGG-19 network
Yin et al. Significant target analysis and detail preserving based infrared and visible image fusion
CN107590785A (zh) 一种基于sobel算子的布里渊散射谱图像识别方法
He et al. Multi-level image fusion and enhancement for target detection
CN103400360A (zh) 基于Wedgelet和NSCT的多源图像融合方法
Liu et al. Multi-scale saliency measure and orthogonal space for visible and infrared image fusion
He et al. Contrast pyramid based image fusion scheme for infrared image and visible image
Su-xia et al. Image fusion based on regional energy and standard deviation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140903

Termination date: 20210619