CN102637297A - 一种基于Curvelet变换的可见光与红外图像融合方法 - Google Patents
一种基于Curvelet变换的可见光与红外图像融合方法 Download PDFInfo
- Publication number
- CN102637297A CN102637297A CN2012100760072A CN201210076007A CN102637297A CN 102637297 A CN102637297 A CN 102637297A CN 2012100760072 A CN2012100760072 A CN 2012100760072A CN 201210076007 A CN201210076007 A CN 201210076007A CN 102637297 A CN102637297 A CN 102637297A
- Authority
- CN
- China
- Prior art keywords
- infrared image
- frequency sub
- band coefficient
- moving window
- coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
本发明涉及一种基于Curvelet变换的可见光与红外图像融合方法,包括以下步骤:首先对原始图像进行快速离散Curvelet变换,得到一系列不同尺度不同方向的低频和高低频子带系数,并计算各子带的聚焦评价值;然后在低频子带,采用局部方差加权策略,充分保留红外图像的低频信息,同时加入可见光图像的低频特征;在高频子带,采用四阶相关系数匹配策略,选择合适的高频系数;最后通过Curvelet反变换得到融合图像。本发明所提供方法能够有效地综合原始图像的有用信息,与传统的小波变换、金字塔等方法相比,具有更好的融合性能。
Description
技术领域
本发明属于图像处理数据融合技术领域,涉及一种基于Curvelet变换的可见光与红外图像融合方法。
背景技术
红外与可见光传感器是最常用的两类传感器,它们工作于不同的波段,可以提供互补的图像信息。红外传感器通过获得地面目标的红外辐射来记录目标自身的红外辐射信息,它依靠探测目标与背景间的热辐射差异来识别目标,因而具有特殊的识别伪装的能力,但对场景的亮度变化不敏感,对比度较低。可见光传感器敏感于目标场景的反射,噪声含量较低,获取的图像具有较高的清晰度,能提供目标所在场景的细节信息。因此将这两种图像进行融合,有利于综合红外图像较好的目标特征和可见光图像清晰的场景信息。
近年来,以小波变换和金字塔分解为代表的多尺度分析方法在红外与可见光图像融合中取得了巨大成功,而小波变换的融合效果一般要优于金字塔分解。然而尽管小波变换有很多优点,但各向同性的小波基无法精确地表达图像的边缘方向,由于缺乏平移不变性,图像边缘存在块状效应。为解决这一问题,Candes等人在研究曲线特征最优逼近和图像稀疏表示的基础上提出了Curvelet变换(小曲线变换),与小波变换相比,其优点在于细尺度下各特征高度各向异性,能更优地逼近曲线,对图像边缘和纹理等细节特征有更好的描述。但是在可见光与红外图像融合与增强领域,如何选择合适的高频与低频系数的问题一直没有得到很好的解决。
发明内容
本发明的目的在于针对现有技术的缺点和不足,提供一种基于Curvelet变换的可见光与红外图像融合方法。
本发明所采用的技术方案是一种基于Curvelet变换的可见光与红外图像融合方法,包括以下步骤:
步骤1,输入可见光图像与红外图像并进行Curvelet变换,分别得到可见光图像与红外图像的子带系数,所述子带系数包括低频子带系数和高频子带系数;
步骤2,根据一个预设的聚焦评价算子,执行步骤2.1得到融合图像的低频子带系数,执行步骤2.2得到融合图像的高频子带系数;
步骤2.1,根据聚焦评价算子计算可见光图像与红外图像的低频子带系数的聚焦评价值;设置一个滑动窗口,在滑动窗口遍历到任一位置时计算可见光图像与红外图像的低频子带系数的聚焦评价值分别在滑动窗口内的方差,并按照以下的局部方差加权策略计算融合图像的低频子带系数:
其中和分别表示红外图像、可见光图像和融合图像中像素(x,y)的低频子带系数,像素(x,y)为滑动窗口的中心点;σ(Winf)和σ(Wvis)分别表示红外图像与可见光图像的低频子带系数的聚焦评价值在滑动窗口内的方差,分别表示红外图像与可见光图像的低频子带系数的聚焦评价值在滑动窗口内的均值,是取和中的最小值;
步骤2.2,根据聚焦评价算子计算可见光图像与红外图像的高频子带系数的聚焦评价值;设置一个滑动窗口,在滑动窗口遍历到任一位置时计算可见光图像与红外图像的高频子带系数的聚焦评价值在滑动窗口内的四阶相关系数匹配度FOCC,
当FOCC<T时,融合图像的高频子带系数为:
反之,则:
其中A(i,j)和B(i,j)分别表示可见光和红外图像中像素(i,j)的高频子带系数的聚焦评价值,像素(i,j)为滑动窗口内的任一点;μA和μB分别表示红外图像与可见光图像的高频子带系数的聚焦评价值在滑动窗口的均值,M和N表示滑动窗口的高度和宽度。
步骤3,根据步骤2得到的融合图像的低频子带系数和高频子带系数,进行Curvelet反变换,得到融合图像。
而且,步骤2中,所选择的聚焦评价算子采用梯度能量或Tenenbaum算子或拉普拉斯能量或改进拉普拉斯能量。
而且,步骤2中,根据聚焦评价算子计算聚焦评价值的实现方式是将聚焦评价算子与子带系数进行卷积。
本发明提供的技术方案的有益效果为:针对红外图像包含目标辐射信息和可见光图像包含空间细节信息的特点,通过将聚焦评价算子引入Curvelet域,在低频子带,采用局部方差加权策略,充分保留红外图像的低频信息,同时加入可见光图像的低频特征;在高频子带,采用四阶相关系数匹配策略,选择合适的高频系数,尽可能地保留了可见光的高频特征和红外图像的目标特性,有效地提升了红外图像的空间细节,有利于对目标进行更有效的识别。
附图说明
图1为本发明实施例的流程图。
具体实施方式
将多尺度分析方法应用于图像融合时,融合规则对于融合算法有着至关重要的作用,常规的取平均或模值最大的规则均会导致融合图像质量的下降。聚焦评价算子来源于多聚焦图像融合领域,用于测量像素的变化程度。聚焦好的图像区域,其聚焦评价算子的度量值会比较高。考虑到可见光图像细节丰富,红外图像目标突出的特点,以及图像在Curvelet域的子带也可以看作图像,且存在幅值的变化,因此用聚焦评价算子来选择融合图像的变换域系数是合理的。本发明将聚焦评价算子引入Curvelet域,提出了一种基于Curvelet域聚焦评价算子的融合方法,并采用局部方差加权策略融合低频信息,采用四阶相关系数匹配策略融合高频信息,实验结果表明,与常规方法相比,本发明方法能够很好地提取原始图像的有用信息,融合图像具有更好的视觉效果和更优的量化指标。
本发明的技术方案可采用计算机软件技术实现自动运行。为了更好地理解本发明的技术方案,下面结合附图和实施例对本发明做进一步的详细说明。
本发明的实施例是对一幅可见光图像和一幅红外图像进行融合。参照图1,可见光图像标识为VI,红外图像标识为IR,融合图像标识为FU;本发明实施例的步骤如下:
步骤1,输入可见光图像与红外图像并进行Curvelet变换,分别得到可见光图像与红外图像的子带系数,所述子带系数包括低频子带系数和高频子带系数。
实施例首先提取高频系数(VI)、高频系数(IR)、低频系数(VI)、低频系数(IR)。通过对原始图像进行快速离散Curvelet变换,可得到一系列不同尺度不同方向的高低频子带系数。具体快速离散Curvelet变换为现有技术,本发明不予赘述。
步骤2,根据一个预设的聚焦评价算子,执行步骤2.1得到融合图像的低频子带系数,执行步骤2.2得到融合图像的高频子带系数。
实施例在步骤2.1采用局部方差加权策略计算融合图像的低频子带系数,如图1中低频系数(FU),具体方式如下:
根据聚焦评价算子计算可见光图像与红外图像的低频子带系数的聚焦评价值;设置一个滑动窗口,在滑动窗口遍历到任一位置时计算可见光图像与红外图像的低频子带系数的聚焦评价值分别在滑动窗口内的方差,并按照以下的局部方差加权策略计算融合图像的低频子带系数:
其中和分别表示红外图像、可见光图像和融合图像中像素(x,y)的低频子带系数,像素(x,y)为滑动窗口的中心点;σ(Winf)和σ(Wvis)分别表示红外图像与可见光图像的低频子带系数的聚焦评价值在滑动窗口内的方差,分别表示红外图像与可见光图像的低频子带系数的聚焦评价值在滑动窗口内的均值,是取和中的最小值。
图像的低频系数反映了图像的能量分布。根据红外成像传感器与可见光成像传感器的成像原理可知,前者主要根据物体的热辐射特性成像,而后者则根据物体的光谱反射特性成像。红外图像很好地反映了目标的存在特性,而可见光图像则反映了场景信息。但是同一目标在两种图像中的灰度分布特性往往有很大的差异,甚至极性完全相反。因此对低频系数采用传统的平均加权策略没有考虑传感器的物理特性,会降低融合图像的对比度,损失一些有用的信息。因此本发明首先计算低频系数的聚焦评价算子的度量值,然后采用局部方差加权策略计算融合图像的低频系数,如式(1)。
式(1)可以简写为以下的形式:
其中表示可见光图像与红外图像的共有低频特征,而则表示可见光图像的特有低频特征,是加权系数,用于将可见光图像特有的低频特征加入到红外图像中,方差σ是衡量能量分布差异的度量,经过聚焦评价算子的计算,方差更能体现低频系数的能量分布。融合图像的低频系数由红外图像的低频系数与可见光图像特有低频系数组成,从而既能完整地保留红外图像的全部信息,又能充分利用可见光图像的特有信息,达到最大保全原始图像低频信息的目的。
实施例在步骤2.2采用利用四阶相关系数匹配策略计算融合图像的高频子带系数,如图1中高频系数(FU)。图像的高频系数反映了图像的细节特征分布。可见光图像具有丰富的高频细节信息,相对而言,红外图像的细节特征不明显,因此本发明首先计算某一高频子带的聚焦评价算子的度量值,然后采用局部四阶相关系数(FOCC)计算度量值的匹配度,并据此来选择合适的高频系数。具体方式如下:
根据聚焦评价算子计算可见光图像与红外图像的高频子带系数的聚焦评价值;设置一个滑动窗口,在滑动窗口遍历到任一位置时计算可见光图像与红外图像的高频子带系数的聚焦评价值在滑动窗口内的四阶相关系数匹配度FOCC,
比较FOCC值与T的大小,当FOCC(x,y)<T时,说明两者的匹配度很低,需要同时保留两者的信息,此时融合图像的高频系数定义为:
当FOCC(x,y)≥T时,说明两者的匹配度很高,为减少信息冗余度,本文只保留绝对值较大的高频系数,此时融合图像的高频系数定义为:
其中A(i,j)和B(i,j)分别表示可见光和红外图像中像素(i,j)的高频子带系数的聚焦评价值,像素(i,j)为滑动窗口内的任一点;μA和μB分别表示红外图像与可见光图像的高频子带系数的聚焦评价值在滑动窗口的均值,M和N表示滑动窗口的高度和宽度。
其中,步骤2.1和步骤2.2中采用同样的聚焦评价算子,根据聚焦评价算子计算聚焦评价值的实现方式是将聚焦评价算子与子带系数进行卷积。本发明所适用的聚焦评价算子包括但不限于以下四种,为便于实施参考提供说明:
(1)梯度能量(EOG)
图像的梯度能量EOG由下式计算:
其中fx=f(x+1,y)-f(x,y),fy=f(x,y+1)-f(x,y),分别代表水平和垂直方向的梯度。f(x,y)表示图像在像素坐标(x,y)处的灰度值。
(2)Tenenbaum算子(TEN)
通过Sobel算子来计算梯度能量Tenengrad,表达式如下:
f(x,y)表示图像在像素坐标(x,y)处的灰度值。
(3)拉普拉斯能量(EOL)
EOL的表达式为:
fxx+fyy=20f(x,y)-f(x-1,y-1)-f(x-1,y)-f(x-1,y+1)-f(x,y-1)-4f(x,y+1)
(11)
-f(x+1,y-1)-4f(x+1,y)-f(x+1,y+1)
fxx和fyy分别表示水平和垂直方向的拉普拉斯算子滤波值,f(x,y)表示图像在像素坐标(x,y)处的灰度值。
(4)改进拉普拉斯能量和(SML)
其中f(x,y)表示图像在像素坐标(x,y)处的灰度值,step为步长,实施本发明技术方案时,该步长的值可设置为1,则改进的拉普拉斯能量和为SML:
f(i,j)表示图像在像素坐标(i,j)处的灰度值,L表示滑动窗口的尺寸大小,即滑动窗口为L×L。
各算子的具体计算可参见相关文献,本发明不予赘述。
步骤3,根据步骤2得到的融合图像的低频子带系数的聚焦评价值和高频子带系数的聚焦评价值,提取融合图像的低频子带系数和高频子带系数并进行Curvelet反变换,得到融合图像。具体Curvelet反变换为现有技术,本发明不予赘述。
以下通过仿真实验来验证本发明的有效性:
为了验证算法的有效性,采用本发明方法融合可见光与红外图像,并将融合结果与现有经典算法进行比较。先对可见光与红外图像进行Curvelet变换,然后采用本文提出的融合策略得到融合图像,受篇幅限制,本发明的两组实验仅给出EOG算子的融合结果,本发明使用的其它3种算子的结果将在质量评价结果中给出。作为对比,采用常规Curvelet、梯度金字塔(Gradient Pyramid,GP)和常规小波方法进行融合,其中Curvelet和小波采用低频取平均,高频取模值最大的融合策略。
红外图像中目标(人)非常明显,而可见光图像中环境细节非常清晰,在融合图像中,各种方法都能较好地保存环境细节,EOG算子具有与原始红外图像同样清晰的目标(人),而其他方法的目标比较暗淡,目标特征被削弱,对比度低,梯度金字塔的结果还出现明显的锯齿状条纹。由于在本文算法完整地保留了红外图像的低频信息,同时采用FOCC匹配规则选择合适的高频系数,因此能得到目标完整、背景清晰的融合图像。
采用熵、标准差、清晰度、空间频率、互信息量(Mutual Information,MI)和通用图像质量评价指标(Universal Image Quality Index,UIQI)等客观评价指标对各方法的融合结果进行质量评价。其中熵反映了图像中信息的丰富程度,熵越大表明信息量越大;标准差、清晰度和空间频率反映了图像中细节反差的变化特征,值越大,细节越丰富;互信息量反映了融合图像对原始图像的信息保持度;UIQI从相关信息损失、亮度扭曲和对比度扭曲三个方面反映了融合图像与原始图像的相似度。本文中互信息量取融合图像对原始图像的量测之和,而UIQI则取量测均值。表1给出了实验一的融合图像的客观评价结果。
表1实验一的客观评价结果
从表1的客观评价结果可以看出,各聚焦评价算子的融合图像质量比较相近,但均明显优于其他3种传统方法,这与主观评价结果是一致的,表明本文方法能够从源图像上提取更多的有用信息并注入到融合图像中,得到更高性能的融合图像。
综上所述,本发明与传统图像融合方法比较可知,不管是从客观评价指标上,还是从主观视觉上,本发明的方法都具有很明显的优势,增强图像能较好地保持了红外图像的目标信息,增强了主观可视表达效果,是一种可行的图像融合方法。
以上内容是结合最佳实施方案对本发明所做的进一步详细说明,不能认定本发明的具体实施只限于这些说明。本领域的技术人员应该理解,在不脱离由所附权利要求书限定的情况下,可以在细节上进行各种修改,都应当视为属于本发明的保护范围。
Claims (3)
1.一种基于Curvelet变换的可见光与红外图像融合方法,其特征在于包括以下步骤:
步骤1,输入可见光图像与红外图像并进行Curvelet变换,分别得到可见光图像与红外图像的子带系数,所述子带系数包括低频子带系数和高频子带系数;
步骤2,根据一个预设的聚焦评价算子,执行步骤2.1得到融合图像的低频子带系数,执行步骤2.2得到融合图像的高频子带系数;
步骤2.1,根据聚焦评价算子计算可见光图像与红外图像的低频子带系数的聚焦评价值;设置一个滑动窗口,在滑动窗口遍历到任一位置时计算可见光图像与红外图像的低频子带系数的聚焦评价值分别在滑动窗口内的方差,并按照以下的局部方差加权策略计算融合图像的低频子带系数:
其中和分别表示红外图像、可见光图像和融合图像中像素(x,y)的低频子带系数,像素(x,y)为滑动窗口的中心点;σ(Winf)和σ(Wvis)分别表示红外图像与可见光图像的低频子带系数的聚焦评价值在滑动窗口内的方差,分别表示红外图像与可见光图像的低频子带系数的聚焦评价值在滑动窗口内的均值,是取和中的最小值;
步骤2.2,根据聚焦评价算子计算可见光图像与红外图像的高频子带系数的聚焦评价值;设置一个滑动窗口,在滑动窗口遍历到任一位置时计算可见光图像与红外图像的高频子带系数的聚焦评价值在滑动窗口内的四阶相关系数匹配度FOCC,
当FOCC<T时,融合图像的高频子带系数为:
反之,则:
其中A(i,j)和B(i,j)分别表示可见光和红外图像中像素(i,j)的高频子带系数的聚焦评价值,像素(i,j)为滑动窗口内的任一点;μA和μB分别表示红外图像与可见光图像的高频子带系数的聚焦评价值在滑动窗口的均值,M和N表示滑动窗口的高度和宽度。
步骤3,根据步骤2得到的融合图像的低频子带系数和高频子带系数,进行Curvelet反变换,得到融合图像。
2.根据权利要求1所述的基于Curvelet变换的可见光与红外图像融合方法,其特征在于:步骤2中,所选择的聚焦评价算子采用梯度能量或Tenenbaum算子或拉普拉斯能量或改进拉普拉斯能量。
3.根据权利要求1或2所述的基于Curvelet变换的可见光与红外图像融合方法,其特征在于:步骤2中,根据聚焦评价算子计算聚焦评价值的实现方式是将聚焦评价算子与子带系数进行卷积。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210076007.2A CN102637297B (zh) | 2012-03-21 | 2012-03-21 | 一种基于Curvelet变换的可见光与红外图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210076007.2A CN102637297B (zh) | 2012-03-21 | 2012-03-21 | 一种基于Curvelet变换的可见光与红外图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102637297A true CN102637297A (zh) | 2012-08-15 |
CN102637297B CN102637297B (zh) | 2014-02-05 |
Family
ID=46621683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210076007.2A Active CN102637297B (zh) | 2012-03-21 | 2012-03-21 | 一种基于Curvelet变换的可见光与红外图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102637297B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103065291A (zh) * | 2012-12-26 | 2013-04-24 | 辽宁师范大学 | 基于提升小波变换和像素区域相关性的图像融合方法 |
CN103095996A (zh) * | 2013-01-25 | 2013-05-08 | 西安电子科技大学 | 基于时空显著性检测的多传感器视频融合方法 |
CN103578088A (zh) * | 2013-11-20 | 2014-02-12 | 中国人民解放军海军大连舰艇学院 | 一种星空图像处理方法 |
CN103578091A (zh) * | 2013-10-10 | 2014-02-12 | 中国科学院上海技术物理研究所 | 一种基于拉普拉斯金字塔的红外偏振图像融合方法 |
CN104504670A (zh) * | 2014-12-11 | 2015-04-08 | 上海理工大学 | 多尺度梯度域图像融合算法 |
CN104504673A (zh) * | 2014-12-30 | 2015-04-08 | 武汉大学 | 基于nsst的可见光与红外图像融合方法及系统 |
CN104992426A (zh) * | 2015-07-15 | 2015-10-21 | 中国科学院广州生物医药与健康研究院 | 一种用于明场显微成像的多层图像融合算法 |
CN105979151A (zh) * | 2016-06-27 | 2016-09-28 | 深圳市金立通信设备有限公司 | 一种图像处理方法及终端 |
CN106101538A (zh) * | 2016-06-27 | 2016-11-09 | 深圳市金立通信设备有限公司 | 一种图像处理方法及终端 |
CN106251319A (zh) * | 2016-07-31 | 2016-12-21 | 哈尔滨理工大学 | 一种基于Curvelet变换的彩色图像融合算法 |
CN106296624A (zh) * | 2015-06-11 | 2017-01-04 | 联想(北京)有限公司 | 一种图像融合方法及装置 |
CN106530277A (zh) * | 2016-10-13 | 2017-03-22 | 中国人民解放军理工大学 | 一种基于小波方向相关系数的图像融合方法 |
CN107154020A (zh) * | 2017-05-02 | 2017-09-12 | 中国科学院空间应用工程与技术中心 | 一种基于Curvelet变换的影像融合方法及系统 |
CN107945149A (zh) * | 2017-12-21 | 2018-04-20 | 西安工业大学 | 增强IHS‑Curvelet变换融合可见光和红外图像的汽车抗晕光方法 |
CN108389158A (zh) * | 2018-02-12 | 2018-08-10 | 河北大学 | 一种红外和可见光的图像融合方法 |
CN110599412A (zh) * | 2019-08-15 | 2019-12-20 | 中国科学院遥感与数字地球研究所 | 基于无人机的遥感数据处理方法及系统 |
CN110796632A (zh) * | 2019-07-30 | 2020-02-14 | 重庆小富农康农业科技服务有限公司 | 猪只计数装置 |
CN111462065A (zh) * | 2020-03-27 | 2020-07-28 | 浙江杜比医疗科技有限公司 | 超声、红外序列图像融合的乳腺癌检测方法及其系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101404084A (zh) * | 2008-11-14 | 2009-04-08 | 哈尔滨工业大学 | 基于Wavelet和Curvelet变换的红外图像背景抑制方法 |
US20090196457A1 (en) * | 2008-01-31 | 2009-08-06 | Gregory Zuro | Video image processing and fusion |
CN101859434A (zh) * | 2009-11-05 | 2010-10-13 | 哈尔滨工业大学(威海) | 医学超声的基波和谐波图像融合方法 |
-
2012
- 2012-03-21 CN CN201210076007.2A patent/CN102637297B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090196457A1 (en) * | 2008-01-31 | 2009-08-06 | Gregory Zuro | Video image processing and fusion |
CN101404084A (zh) * | 2008-11-14 | 2009-04-08 | 哈尔滨工业大学 | 基于Wavelet和Curvelet变换的红外图像背景抑制方法 |
CN101859434A (zh) * | 2009-11-05 | 2010-10-13 | 哈尔滨工业大学(威海) | 医学超声的基波和谐波图像融合方法 |
Non-Patent Citations (2)
Title |
---|
ZHOU WANG等: "A Universal Image Quality Index", 《SIGNAL PROCESSING LETTERS, IEEE》, vol. 9, no. 3, 31 March 2002 (2002-03-31), pages 81 - 84 * |
邵振峰等: "利用Contourlet变换和谱直方图进行多源遥感影像纹理特征检索", 《武汉大学学报 信息科学版》, vol. 35, no. 6, 5 June 2010 (2010-06-05), pages 723 - 726 * |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103065291A (zh) * | 2012-12-26 | 2013-04-24 | 辽宁师范大学 | 基于提升小波变换和像素区域相关性的图像融合方法 |
CN103095996A (zh) * | 2013-01-25 | 2013-05-08 | 西安电子科技大学 | 基于时空显著性检测的多传感器视频融合方法 |
CN103578091A (zh) * | 2013-10-10 | 2014-02-12 | 中国科学院上海技术物理研究所 | 一种基于拉普拉斯金字塔的红外偏振图像融合方法 |
CN103578091B (zh) * | 2013-10-10 | 2016-02-17 | 中国科学院上海技术物理研究所 | 一种基于拉普拉斯金字塔的红外偏振图像融合方法 |
CN103578088B (zh) * | 2013-11-20 | 2017-01-04 | 中国人民解放军海军大连舰艇学院 | 一种星空图像处理方法 |
CN103578088A (zh) * | 2013-11-20 | 2014-02-12 | 中国人民解放军海军大连舰艇学院 | 一种星空图像处理方法 |
CN104504670A (zh) * | 2014-12-11 | 2015-04-08 | 上海理工大学 | 多尺度梯度域图像融合算法 |
CN104504670B (zh) * | 2014-12-11 | 2017-09-12 | 上海理工大学 | 多尺度梯度域图像融合算法 |
CN104504673A (zh) * | 2014-12-30 | 2015-04-08 | 武汉大学 | 基于nsst的可见光与红外图像融合方法及系统 |
CN106296624A (zh) * | 2015-06-11 | 2017-01-04 | 联想(北京)有限公司 | 一种图像融合方法及装置 |
CN106296624B (zh) * | 2015-06-11 | 2020-05-26 | 联想(北京)有限公司 | 一种图像融合方法及装置 |
CN104992426A (zh) * | 2015-07-15 | 2015-10-21 | 中国科学院广州生物医药与健康研究院 | 一种用于明场显微成像的多层图像融合算法 |
CN104992426B (zh) * | 2015-07-15 | 2018-04-20 | 中国科学院广州生物医药与健康研究院 | 一种用于明场显微成像的多层图像融合算法 |
CN106101538A (zh) * | 2016-06-27 | 2016-11-09 | 深圳市金立通信设备有限公司 | 一种图像处理方法及终端 |
CN106101538B (zh) * | 2016-06-27 | 2019-05-14 | 深圳市金立通信设备有限公司 | 一种图像处理方法及终端 |
CN105979151A (zh) * | 2016-06-27 | 2016-09-28 | 深圳市金立通信设备有限公司 | 一种图像处理方法及终端 |
CN105979151B (zh) * | 2016-06-27 | 2019-05-14 | 深圳市金立通信设备有限公司 | 一种图像处理方法及终端 |
CN106251319A (zh) * | 2016-07-31 | 2016-12-21 | 哈尔滨理工大学 | 一种基于Curvelet变换的彩色图像融合算法 |
CN106530277B (zh) * | 2016-10-13 | 2019-09-10 | 中国人民解放军理工大学 | 一种基于小波方向相关系数的图像融合方法 |
CN106530277A (zh) * | 2016-10-13 | 2017-03-22 | 中国人民解放军理工大学 | 一种基于小波方向相关系数的图像融合方法 |
CN107154020A (zh) * | 2017-05-02 | 2017-09-12 | 中国科学院空间应用工程与技术中心 | 一种基于Curvelet变换的影像融合方法及系统 |
CN107945149A (zh) * | 2017-12-21 | 2018-04-20 | 西安工业大学 | 增强IHS‑Curvelet变换融合可见光和红外图像的汽车抗晕光方法 |
CN107945149B (zh) * | 2017-12-21 | 2021-07-20 | 西安工业大学 | 增强IHS-Curvelet变换融合可见光和红外图像的汽车抗晕光方法 |
CN108389158A (zh) * | 2018-02-12 | 2018-08-10 | 河北大学 | 一种红外和可见光的图像融合方法 |
CN110796632A (zh) * | 2019-07-30 | 2020-02-14 | 重庆小富农康农业科技服务有限公司 | 猪只计数装置 |
CN110796632B (zh) * | 2019-07-30 | 2023-08-11 | 重庆渝通合数字科技有限公司 | 猪只计数装置 |
CN110599412A (zh) * | 2019-08-15 | 2019-12-20 | 中国科学院遥感与数字地球研究所 | 基于无人机的遥感数据处理方法及系统 |
CN111462065A (zh) * | 2020-03-27 | 2020-07-28 | 浙江杜比医疗科技有限公司 | 超声、红外序列图像融合的乳腺癌检测方法及其系统 |
Also Published As
Publication number | Publication date |
---|---|
CN102637297B (zh) | 2014-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102637297B (zh) | 一种基于Curvelet变换的可见光与红外图像融合方法 | |
Jin et al. | Infrared and visual image fusion method based on discrete cosine transform and local spatial frequency in discrete stationary wavelet transform domain | |
Lu et al. | Maximum local energy: an effective approach for multisensor image fusion in beyond wavelet transform domain | |
CN105139367A (zh) | 一种基于非下采样剪切波的可见光偏振图像融合方法 | |
CN106530244B (zh) | 一种图像增强方法 | |
CN102903098A (zh) | 一种基于图像清晰度差异的深度估计方法 | |
CN103945217B (zh) | 基于熵的复小波域半盲图像质量评测方法和系统 | |
Yin et al. | Image denoising using trivariate prior model in nonsubsampled dual-tree complex contourlet transform domain and non-local means filter in spatial domain | |
CN104657965A (zh) | 基于离散连续曲波的偏振图像融合方法 | |
CN104050637A (zh) | 基于两次引导滤波的快速图像去雾方法 | |
CN104268833A (zh) | 基于平移不变剪切波变换的图像融合新方法 | |
Haddad et al. | Image quality assessment based on wave atoms transform | |
CN104463808A (zh) | 基于空间相关性的高光谱数据降噪方法及系统 | |
CN102096913B (zh) | 压缩感知框架下的多策略图像融合方法 | |
CN101216936A (zh) | 基于成像机理与非采样Contourlet变换多聚焦图像融合方法 | |
CN103871066A (zh) | 超声图像Ncut分割中相似度矩阵的构造方法 | |
CN102521811B (zh) | 基于各向异性扩散和互信息匀质性测度的sar图像降斑方法 | |
CN103903228A (zh) | 一种基于hwd变换的非局部图像去噪方法 | |
CN103077507B (zh) | 基于Beta算法的多尺度SAR图像降噪方法 | |
Alfarraj et al. | Content-adaptive non-parametric texture similarity measure | |
CN103955934A (zh) | 一种结合图像显著性区域分割的图像模糊检测算法 | |
CN104637060A (zh) | 一种基于邻域主成分分析-拉普拉斯的图像分割方法 | |
Chisense et al. | Pansharpening of hyperspectral images in urban areas | |
CN104899890A (zh) | 基于偏振光成像技术的检测方法 | |
Alaei et al. | Document image quality assessment based on texture similarity index |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |