CN102800070A - 基于区域和人眼对比敏感特性的异源图像融合方法 - Google Patents
基于区域和人眼对比敏感特性的异源图像融合方法 Download PDFInfo
- Publication number
- CN102800070A CN102800070A CN2012102017309A CN201210201730A CN102800070A CN 102800070 A CN102800070 A CN 102800070A CN 2012102017309 A CN2012102017309 A CN 2012102017309A CN 201210201730 A CN201210201730 A CN 201210201730A CN 102800070 A CN102800070 A CN 102800070A
- Authority
- CN
- China
- Prior art keywords
- image
- frequency sub
- coefficient
- band
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000035945 sensitivity Effects 0.000 title claims abstract description 24
- 238000007500 overflow downdraw method Methods 0.000 title abstract 4
- 230000004927 fusion Effects 0.000 claims abstract description 56
- 238000006243 chemical reaction Methods 0.000 claims abstract description 16
- 238000000034 method Methods 0.000 claims description 21
- 230000000694 effects Effects 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000000354 decomposition reaction Methods 0.000 abstract description 2
- 238000004458 analytical method Methods 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 239000004744 fabric Substances 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 239000000654 additive Substances 0.000 description 3
- 230000000996 additive effect Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
基于区域和人眼对比敏感特性的异源图像融合方法,包含如下步骤:(1)对待融合的源图像分别用非下采样Contourlet变换NSCT进行多尺度分解,得到源图像的各阶子带系数;(2)根据人眼视觉对比度函数LCSF、人眼视觉绝对对比度灵敏度函数ACSF、感觉亮度对比度函数FBCF和局部平均梯度敏感性函数LGSF分别制定低频子带系数和各级高频子带系数的融合规则,得到融合图像的各级子带系数;(3)对融合后的系数进行NSCT逆变换,重构得到融合后的图像。本发明符合人眼的视觉特性,很大程度上提高了融合图像的质量,具有鲁棒性,适用于红外与可见光图像、多聚焦图像、遥感图像等多种图像源的融合,应用前景广泛。
Description
技术领域
本发明属于异源图像、视频融合领域,特别涉及基于非下采样Contourlet变换NSCT的异源图像融合,主要用于红外图像、可见光图像、多聚焦图像、遥感图像等异源图像的融合,为一种基于区域和人眼对比敏感特性的异源图像融合方法。
背景技术
随着计算机科学技术和传感器技术的迅猛发展,越来越多的传感器被应用在各个领域中。由单一的可见光模式逐渐发展成为多种传感器模式,各种传感器具有不同的成像机理,工作于不同的波长范围,满足不同工作环境的需要。为了满足实际中更多的应用,多传感器信息融合技术应运而生。
异源图像融合为其中的一个分支,是把多个不同模式的图像传感器获得的同一场景的多幅图像或同一传感器在不同时刻或方式下获得的同一场景的多幅图像合成为一幅包含输入图像相关信息的图像的过程。融合技术可以克服单一传感器图像在几何、光谱和空间分辨率等方面存在的局限性和差异性,提高图像的质量,从而可以有利于对事件的检测、识别和分析。主要优势可以分为以下几点:
(1)利用多个传感器提供的冗余信息来提高融合图像的精确性、可靠性和鲁棒性,即使其中的个别传感器发生故障也不会对最终的融合图像产生严重影响;
(2)不同传感器提供的信息具有互补性,可以使融合后的图像包含更丰富、更全面的信息,带来更好的视觉感受,更有利于机器视觉对图像进一步分析、处理以及目标识别;
(3)在恶劣环境条件下,通过多传感器图像融合可以改善单一传感器的检测性能。例如,低光照、烟雾等会降低图像质量甚至导致无法看清目标,而毫米波雷达获得的图像对于低光照、烟雾等有很强的穿透能力,红外相机则完全无视恶劣环境的存在,只接收物体的红外信号,尽管信号有所衰减,但仍然能获得比较清晰的图像。
因此,融合可以使异源的图像缺点互补,各自优势得以更好的发展。
异源图像融合技术的发展过程中,多尺度分析方法和融合规则都在不断地向前发展。当前较为热门的就是多分辨率分析。目前已有的多尺度方向分析方法有脊波(Ridgelet)变换、曲波Curvelet变换、Bandelet变换、Wedgelet变换、Beamlet变换以及较新的非下采样Contourlet变换等。在融合规则的制定和选择方面,西安电子科技大学的李智杰等提出的基于Curvelet变换的背景杂波抑制算法,对杂波和噪声有较强的抑制作用,同时很好地保留了目标点的信息。BelbachirA.N.等人提出一种基于Contourlet变换与小波变换结合的红外图像信息提取方法,从一系列天文红外图像中有效的提取出有用信息。
总之,异源图像的处理、分析与融合已经成为国内外的一个热点话题。融合图像的质量以及融合的实时性都亟待提高,本发明致力于融合图像质量提高方面的研究。
发明内容
本发明要解决的问题是:异源图像融合作为对事件的检测、识别和分析的有力技术,其融合图像的质量以及融合的实时性都亟待提高。
本发明的技术方案为:基于区域和人眼对比敏感特性的异源图像融合方法,用于异源图像的融合得到融合图像F,包括以下步骤:
1)对待融合的源图像A和B分别进行非下采样Contourlet变换,即NSCT分解:将源图像分解到Contourlet变换域,得到源图像A和B的各级子带系数,包括低频子带系数和高频子带系数: 和分别为源图像A、B的低频子带系数,和为相应的尺度l、方向d的高频子带系数;
2)制定融合规则,得到融合图像系数:使用人眼视觉对比度函数LCSF对低频子带系数制定融合规则,使用人眼视觉绝对对比度灵敏度函数ACSF对第一级高频子带系数进行活性测度,采用感觉亮度对比度函数FBCF和局部平均梯度敏感性函数LGSF分别确定高频子带系数的融合规则,综合得到融合图像F的各级子带系数
用LCSF作为活性测度,对低频子带系数使用加权平均的融合规则:
用ACSF作为活性测度,对第一级高频子带系数使用如下的融合规则:
采用感觉亮度对比度函数FBCF作为第二级高频子带系数融合的判决因子:
式中,0≤x≤M,0≤y≤N,(x,y)为子带系数矩阵中系数的坐标,M、N为子带系数矩阵的大小,ω(m,n)为a×a的生成核,a为奇数,k和K0为韦伯·费赫涅尔定律中的常数,C{l,d}(x,y)为图像经NSCT分解后在尺度l、方向d上的高频子带系数,D是尺度l上的方向d的总数;
用FBCF作为活性测度,FBCF系数越大表示该尺度该方向下的感觉亮度相比于背景亮度的对比度越大,对第二级高频子带系数采取如下融合规则:
采用局部平均梯度敏感性函数LGSF作为第三级高频子带系数的判决因子:
式中,计算的是以(x,y)位置处系数为中心的b×b局部区域的LGSF,b为局部区域的行和列的值,C{l,d}(x,y)为图像经NSCT分解后在尺度l、方向d上的高频子带系数,求解边缘子带系数的LGSF时在系数矩阵行或列的外侧补上相同的行或列;
用LGSF作为活性测度,LGSF系数越大,表示局部平均梯度越大,细节特征越明显,对第三级高频子带系数采取如下融合规则:
进一步的,将不同视频同一时间的图像帧融合,实现异源视频融合。
所述异源图像包括红外图像、可见光图像、多聚焦图像或遥感图像。
本发明主要针对特殊环境下由单一传感器图像在光谱、空间分辨率等方面的局限性所造成的事件检测、识别、分析困难,对异源图像的融合展开研究,在融合规则上进行创新,提出感觉亮度对比度函数FBCF和局部平均梯度敏感性函数LGSF,提高融合图像的质量。
本发明充分考虑到人眼具有的同时对比效应、颜色对比效应、马赫带效应等视觉特性,且人眼视觉系统观察图像的过程与基于多分辨率分析的图像处理过程十分相似。本发明提出了基于多分辨率分析的人眼区域对比敏感特性视觉函数,即感觉亮度对比度函数FBCF和局部平均梯度敏感性函数LGSF,采用先进的NSCT变换作为多分辨率分析工具,将本发明提出的基于多分辨率分析的人眼区域对比敏感特性视觉函数用作活性测度,分别对不同级的子带选取不同的融合规则,得到融合后的结果。经客观质量指标进行评价,本发明融合图像的质量较传统方法有明显的提高。
本发明符合人眼的视觉特性,很大程度上提高了融合图像的质量,具有鲁棒性,适用于红外与可见光图像、多聚焦图像、遥感图像等多种图像源的融合,应用前景广泛。
附图说明
图1为本发明依据的人眼感觉亮度和真实亮度的关系曲线,即韦伯·费赫涅尔定理曲线。
图2为本发明中NSCT分解后的高频方向子带结构图,图(a)为四方向,图(b)为八方向。
图3为本发明实施例用于红外与可见光图像融合的仿真结果与其他方法对比,图(a)为红外源图像,(b)为可见光源图像,(c)为现有的基于NSCT的融合图像,(d)为本发明方法的融合图像。
图4为本发明实施例用于多聚焦图像融合的仿真结果与其他方法对比,(a)为聚焦在右侧的源图像,(b)为聚焦在左侧的源图像,(c)为现有的基于NSCT的融合图像,(d)为本发明方法的融合图像。
图5为本发明实施例用于遥感图像融合的仿真结果与其他方法对比,(a)为多光谱源图像,(b)为全色段源图像,(c)为现有的基于NSCT的融合图像,(d)为本发明方法的融合图像。
具体实施方式
本发明基于区域和人眼对比敏感特性的异源图像融合方法,包含如下步骤:(1)对待融合的源图像分别用非下采样Contourlet变换NSCT进行多尺度分解,得到源图像的各阶子带系数;(2)根据人眼视觉对比度函数LCSF、人眼视觉绝对对比度灵敏度函数ACSF、感觉亮度对比度函数FBCF和局部平均梯度敏感性函数LGSF分别制定低频子带系数和各级高频子带系数的融合规则,得到融合图像的各级子带系数;(3)对融合后的系数进行NSCT逆变换,重构得到融合后的图像,具体实施如下:
(1)对待融合的源图像A和源图像B分别进行非下采样Contourlet变换,即NSCT分解:对两幅源图像分别进行三层NSCT分解,三层高频子带的方向滤波器组分解方向子带数分别是[1,4,8],第二层和第三层的的子带方向d如图2所示。得到源图像A和B的各阶子带系数分别为: 0≤x≤M、0≤y≤N,l=2,3,4,d=1,2...8,其中,和分别为源图像A、B的低频子带系数,和为相应的尺度l、方向d高频子带系数,NSCT分解为现有技术,本发明中不再详述。
(2)制定融合规则,得到融合图像系数:沿用经典的人眼视觉对比度函数LCSF对低频子带系数制定融合规则,沿用前人提出的人眼视觉绝对对比度灵敏度函数ACSF对一级高频子带系数进行活性测度,采用本发明提出的感觉亮度对比度函数FBCF和局部平均梯度敏感性函数LGSF分别制定各级高频子带系数的融合规则,综合得到融合图像F的各级子带系数
低频子带系数融合规则:
高频子带系数融合规则:源图像经NSCT分解后,第一级高频子带系数未进行方向滤波,第二级和第三级高频子带系数分别进行四方向和八方向的方向滤波,第一级到第三级高频子带系数分别为C{1,2}{1,1}(x,y)、C{1,3}{1,d}(x,y)(d=1,2,3,4)和C{1,4}{1,d}(x,y)(d=1,2,...,8)。
第一级高频子带融合规则:沿用人眼视觉绝对对比度灵敏度函数ACSF,分别计算两幅源图像判决因子,如下,
高频子带系数包含图像的细节信息,ACSF值越大,表明图像边缘特征相对于背景越显著。由此,第一级高频子带系数融合规则如下所示,
第二级高频子带融合规则:采用感觉亮度对比度函数FBCF作为第二级高频子带系数融合的判决因子,
其中, ω(m,n)为a×a的生成核,习惯采用a=3、a=5等奇数,本发明依据人眼感觉亮度和真实亮度的关系,即韦伯·费赫涅尔定律,k和K0为韦伯·费赫涅尔定律中的常数,在实验中取k=100,K0=100,韦伯·费赫涅尔定理曲线如图1所示;
FBCF系数越大表示该尺度该方向下的感觉亮度相比于背景亮度的对比度越大,则第二级高频子带系数融合规则如下,
其中,d=1,2,3,4,此处使用的是3×3的ω(m,n)生成核。
第三级高频子带融合规则:采用局部平均梯度敏感性函数LGSF作为第三级高频子带系数的判决因子,方法如下,
式中,计算的是以(x,y)位置处系数为中心的b×b局部区域的LGSF,b为局部区域的行和列的值,此处取为[3,3]滑块。
LGSF系数越大,表示局部平均梯度越大,细节特征越明显,据此给出第三级高频子带系数融合规则,如下,
(4)融合质量评价:本发明红外与可见光图像融合、多聚焦图像融合和遥感图像融合为实施例,与现有的基于非下采样Contourlet变换也就是NSCT图像融合方法作比较,如图3-5所示,用不同评价指标对融合结果进行定量评价,分别选取基于单幅图像统计特性的均值、标准差、熵、梯度的评价指标,以及基于源图像对比特性的相关系数、光谱扭曲度、偏差指数作为评价指标。
表1对多种异源图像融合质量的客观评价结果
分析表1中各评价指标:均值即灰度值128附近时,人眼视觉效果最好;标准差越大,灰度级分布越分散,则表明图像的对比度也就越大;平均梯度越大,图像就越清晰;信息熵越大,则表明融合图像信息量越丰富;相关系数越大,表明融合图像F从高分辨率源图像中提取的信息量越多;光谱扭曲度直接反映了融合图像的失真程度;偏差指数用来反映融合图像在光谱信息上的匹配程度和将源高分辨率图像的细节传递给融合图像的能力。由此可见,采用本发明的融合规则得到的融合图像质量远高于低频平均、高频取大的一般融合规则得到的图像。
Claims (3)
1.基于区域和人眼对比敏感特性的异源图像融合方法,其特征是用于异源图像的融合得到融合图像F,包括以下步骤:
1)对待融合的源图像A和B分别进行非下采样Contourlet变换,即NSCT分解:将源图像分解到Contourlet变换域,得到源图像A和B的各级子带系数,包括低频子带系数和高频子带系数: 和分别为源图像A、B的低频子带系数,和为相应的尺度l、方向d的高频子带系数;
2)制定融合规则,得到融合图像系数:使用人眼视觉对比度函数LCSF对低频子带系数制定融合规则,使用人眼视觉绝对对比度灵敏度函数ACSF对第一级高频子带系数进行活性测度,采用感觉亮度对比度函数FBCF和局部平均梯度敏感性函数LGSF分别确定高频子带系数的融合规则,综合得到融合图像F的各级子带系数
用LCSF作为活性测度,对低频子带系数使用加权平均的融合规则:
用ACSF作为活性测度,对第一级高频子带系数使用如下的融合规则:
采用感觉亮度对比度函数FBCF作为第二级高频子带系数融合的判决因子:
式中,0≤x≤M,0≤y≤N,(x,y)为子带系数矩阵中系数的坐标,M、N为子带系数矩阵的大小,ω(m,n)为a×a的生成核,a为奇数,k和K0为韦伯·费赫涅尔定律中的常数,C{l,d}(x,y)为图像经NSCT分解后在尺度l、方向d上的高频子带系数,D是尺度l上的方向d的总数;
用FBCF作为活性测度,FBCF系数越大表示该尺度该方向下的感觉亮度相比于背景亮度的对比度越大,对第二级高频子带系数采取如下融合规则:
采用局部平均梯度敏感性函数LGSF作为第三级高频子带系数的判决因子:
式中,计算的是以(x,y)位置处系数为中心的b×b局部区域的LGSF,b为局部区域的行和列的值,C{l,d}(x,y)为图像经NSCT分解后在尺度l、方向d上的高频子带系数,求解边缘子带系数的LGSF时在系数矩阵行或列的外侧补上相同的行或列;
用LGSF作为活性测度,LGSF系数越大,表示局部平均梯度越大,细节特征越明显,对第三级高频子带系数采取如下融合规则:
2.根据权利要求1所述的基于区域和人眼对比敏感特性的异源图像融合方法,其特征是将不同视频同一时间的图像帧融合,实现异源视频融合。
3.根据权利要求1所述的基于区域和人眼对比敏感特性的异源图像融合方法,其特征是所述异源图像包括红外图像、可见光图像、多聚焦图像或遥感图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210201730.9A CN102800070B (zh) | 2012-06-19 | 2012-06-19 | 基于区域和人眼对比敏感特性的异源图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210201730.9A CN102800070B (zh) | 2012-06-19 | 2012-06-19 | 基于区域和人眼对比敏感特性的异源图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102800070A true CN102800070A (zh) | 2012-11-28 |
CN102800070B CN102800070B (zh) | 2014-09-03 |
Family
ID=47199169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210201730.9A Expired - Fee Related CN102800070B (zh) | 2012-06-19 | 2012-06-19 | 基于区域和人眼对比敏感特性的异源图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102800070B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318539A (zh) * | 2014-10-16 | 2015-01-28 | 哈尔滨工程大学 | 一种基于扩展Piella框架的声纳图像融合方法 |
CN105354802A (zh) * | 2015-10-23 | 2016-02-24 | 哈尔滨工业大学 | 基于双向梯度预测的高光谱图像连续谱段恢复方法 |
CN105976346A (zh) * | 2016-04-28 | 2016-09-28 | 电子科技大学 | 基于鲁棒主成分稀疏分解的红外与可见光图像融合方法 |
CN107169944A (zh) * | 2017-04-21 | 2017-09-15 | 北京理工大学 | 一种基于多尺度对比度的红外与可见光图像融合方法 |
CN107705274A (zh) * | 2017-08-21 | 2018-02-16 | 中国核电工程有限公司 | 一种基于数学形态学多尺度的微光与红外图像融合方法 |
CN108460736A (zh) * | 2018-02-07 | 2018-08-28 | 国网福建省电力有限公司泉州供电公司 | 一种低照度电力设备图像曲波域增强方法 |
CN110060226A (zh) * | 2019-04-11 | 2019-07-26 | 江南大学 | 基于人类视觉梯度转化和全变差参数自适应图像融合方法 |
CN110443111A (zh) * | 2019-06-13 | 2019-11-12 | 东风柳州汽车有限公司 | 自动驾驶目标识别方法 |
CN111612734A (zh) * | 2020-04-03 | 2020-09-01 | 苗锡奎 | 一种基于图像结构复杂度的背景杂波表征方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106651817A (zh) * | 2016-11-03 | 2017-05-10 | 电子科技大学成都研究院 | 一种基于非抽样Contourlet的图像增强方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060215932A1 (en) * | 2001-11-19 | 2006-09-28 | Stmicroelectronics S.R.L. | Method for merging digital images to obtain a high dynamic range digital image |
CN101303764A (zh) * | 2008-05-16 | 2008-11-12 | 西安电子科技大学 | 基于非下采样轮廓波的多传感器图像自适应融合方法 |
-
2012
- 2012-06-19 CN CN201210201730.9A patent/CN102800070B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060215932A1 (en) * | 2001-11-19 | 2006-09-28 | Stmicroelectronics S.R.L. | Method for merging digital images to obtain a high dynamic range digital image |
CN101303764A (zh) * | 2008-05-16 | 2008-11-12 | 西安电子科技大学 | 基于非下采样轮廓波的多传感器图像自适应融合方法 |
Non-Patent Citations (2)
Title |
---|
QIANG ZHANG ET AL.: "Research on Image Fusion Based on the Nonsubsampled Contourlet Transform", 《CONTROL AND AUTOMATION, 2007. ICCA 2007. IEEE INTERNATIONAL CONFERENCE ON》, 30 May 2007 (2007-05-30), pages 3239 - 3243, XP031220630 * |
吴炜等: "基于改进的非下采样Contourlet变换的超分辨率复原算法", 《光学学报》, vol. 29, no. 6, 30 June 2009 (2009-06-30), pages 1493 - 1501 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318539A (zh) * | 2014-10-16 | 2015-01-28 | 哈尔滨工程大学 | 一种基于扩展Piella框架的声纳图像融合方法 |
CN105354802A (zh) * | 2015-10-23 | 2016-02-24 | 哈尔滨工业大学 | 基于双向梯度预测的高光谱图像连续谱段恢复方法 |
CN105976346A (zh) * | 2016-04-28 | 2016-09-28 | 电子科技大学 | 基于鲁棒主成分稀疏分解的红外与可见光图像融合方法 |
CN107169944A (zh) * | 2017-04-21 | 2017-09-15 | 北京理工大学 | 一种基于多尺度对比度的红外与可见光图像融合方法 |
CN107705274A (zh) * | 2017-08-21 | 2018-02-16 | 中国核电工程有限公司 | 一种基于数学形态学多尺度的微光与红外图像融合方法 |
CN107705274B (zh) * | 2017-08-21 | 2022-04-19 | 中国核电工程有限公司 | 一种基于数学形态学多尺度的微光与红外图像融合方法 |
CN108460736A (zh) * | 2018-02-07 | 2018-08-28 | 国网福建省电力有限公司泉州供电公司 | 一种低照度电力设备图像曲波域增强方法 |
CN110060226A (zh) * | 2019-04-11 | 2019-07-26 | 江南大学 | 基于人类视觉梯度转化和全变差参数自适应图像融合方法 |
CN110443111A (zh) * | 2019-06-13 | 2019-11-12 | 东风柳州汽车有限公司 | 自动驾驶目标识别方法 |
CN111612734A (zh) * | 2020-04-03 | 2020-09-01 | 苗锡奎 | 一种基于图像结构复杂度的背景杂波表征方法 |
CN111612734B (zh) * | 2020-04-03 | 2023-07-04 | 中国人民解放军63891部队 | 一种基于图像结构复杂度的背景杂波表征方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102800070B (zh) | 2014-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102800070B (zh) | 基于区域和人眼对比敏感特性的异源图像融合方法 | |
CN101546428B (zh) | 基于区域分割的序列红外与可见光图像融合 | |
CN102521818B (zh) | 一种基于nsct的sar图像和可见光图像的融合方法 | |
CN106846289B (zh) | 一种红外光强与偏振图像融合方法 | |
JP2019523509A (ja) | 暗視赤外画像における顕著性に基づく道路オブジェクト抽出方法 | |
CN104268847B (zh) | 一种基于交互非局部均值滤波的红外与可见光图像融合方法 | |
CN104408700A (zh) | 基于形态学和pca的轮廓波红外与可见光图像融合方法 | |
CN106339998A (zh) | 基于对比度金字塔变换的多聚焦图像融合方法 | |
CN107169944B (zh) | 一种基于多尺度对比度的红外与可见光图像融合方法 | |
CN103279957A (zh) | 一种基于多尺度特征融合的遥感图像感兴趣区域提取方法 | |
CN103295201A (zh) | 一种基于nsst域iicm的多传感器图像融合方法 | |
CN102306381B (zh) | 基于Beamlet与小波变换的图像融合方法 | |
CN109886908B (zh) | 红外图像与可见光图像融合方法 | |
CN101441766B (zh) | 基于多尺度几何分析的sar图像融合方法 | |
Arivazhagan et al. | A modified statistical approach for image fusion using wavelet transform | |
CN113298147B (zh) | 基于区域能量和直觉模糊集的图像融合方法及装置 | |
CN101980287A (zh) | 一种采用非下采样轮廓波变换的图像边缘检测方法 | |
Zhou et al. | An infrared and visible image fusion method based on VGG-19 network | |
Yin et al. | Significant target analysis and detail preserving based infrared and visible image fusion | |
CN107590785A (zh) | 一种基于sobel算子的布里渊散射谱图像识别方法 | |
He et al. | Multi-level image fusion and enhancement for target detection | |
CN103400360A (zh) | 基于Wedgelet和NSCT的多源图像融合方法 | |
Liu et al. | Multi-scale saliency measure and orthogonal space for visible and infrared image fusion | |
He et al. | Contrast pyramid based image fusion scheme for infrared image and visible image | |
Su-xia et al. | Image fusion based on regional energy and standard deviation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140903 Termination date: 20210619 |