CN102254314A - 基于压缩感知的可见光和红外图像融合方法 - Google Patents
基于压缩感知的可见光和红外图像融合方法 Download PDFInfo
- Publication number
- CN102254314A CN102254314A CN 201110199505 CN201110199505A CN102254314A CN 102254314 A CN102254314 A CN 102254314A CN 201110199505 CN201110199505 CN 201110199505 CN 201110199505 A CN201110199505 A CN 201110199505A CN 102254314 A CN102254314 A CN 102254314A
- Authority
- CN
- China
- Prior art keywords
- frequency sub
- infrared image
- band coefficient
- image
- band
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
本发明公开了一种基于压缩感知的可见光和红外图像融合方法,主要解决现有的可见光和红外传感器难以同时获取目标和场景均清晰的问题。其实现步骤为:(1)对输入的可见光和红外图像进行单层小波分解;(2)对小波分解后的低频子带系数进行融合,对高频子带系数进行观测;(3)对高频子带系数观测值进行融合;(4)对融合后的高频子带系数观测值进行重构,得到融合后的高频子带系数;(5)对融合后的低频子带系数和高频子带系数进行小波逆变换,得到融合后的图像。本发明对可见光和红外图像能同时获取目标和场景均清晰的融合图像,且处理速度快,效果好,可用于目标识别,跟踪前的预处理。
Description
技术领域
本发明属于图像处理技术领域,涉及图像融合技术,具体地说是一种结合了压缩感知理论的可见光和红外图像融合方法。用于对图像进行进一步的分析、理解以及目标的检测、识别或跟踪前的图像预处理。
背景技术
图像融合作为一个新兴的科研领域有着广阔的发展前景。它通过提取和综合来自多个传感器图像的信息,获得对同一场景或目标的更为准确、全面、可靠的图像描述,以便对图像进行进一步的分析、理解以及目标的检测、识别或跟踪。从二十世纪八十年代初至今,多传感器图像融合已引起了世界范围内的广泛兴趣和研究热潮,它在自动目标识别、计算机视觉、遥感、机器人、医学图像处理以及军事应用等领域有着广泛的应用前景。经过将近三十年的发展,图像融合技术的研究已经形成了一定的规模,国内外已开发出多种融合系统,但这并不表明该项技术已经完善。从目前的情况来看,图像融合技术还存在许多理论和技术方面的问题有待解决。尤其需要指出的是图像融合技术在国内所进行的研究相对于国际上的研究工作起步较晚,还处于落后状态。因此迫切需要进行广泛深入的基础理论和基础技术的研究。
随着信息技术的飞速发展,人们对信息的需求与日俱增。在这种背景下,传统的图像融合方法,比如基于多尺度变换的融合方法,参见文章《Region based multisensor imagefusion using generalized Gaussian distribution》,in Int.Workshop on NonlinearSign.and Image Process.Sep.2007,需要处理的数据量十分可观,这就造成了对信号采样、传输和存储的巨大压力,如何缓解这种压力又能有效提取承载在信号中的有用信息是信号与信息处理中急需解决的问题之一。近几年来国际上出现的压缩感知理论CS为缓解这些压力提供了解决方法。压缩感知理论CS不需要对信号进行完全采样,在采样时也不需要知道信号的任何先验信息,因而减少了恢复的数据量,一定程度上缓解了传输和存储的巨大压力。目前,学者们已经在模拟-信息采样、合成孔径雷达成像、遥感成像、核磁共振成像、人脸识别、信源编码等诸多领域对压缩感知展开了广泛的应用研究。最近几年国内也掀起了压缩感知的研究热潮。但是将压缩感知理论用在图像融合上的研究还很少。学者T.Wan等人率先将压缩感知的理论用于图像融合的尝试,参见文章《Compressive ImageFusion》,in Proc.IEEE Int.Conf.Image Process,pp.1308-1311,2008.该方法采用观测值绝对值取大的融合规则,效果不尽人意。此后X.Li等人对它进行了改进,提出了基于压缩感知的可见光和红外图像融合方法,参见文章《Efficient fusion for infrared and visible imagesbased on compressive sensing principle》,in IET.Image Process.,Vol.5,Iss.2,pp.141-147,2011.该方法采用图像观测值标准差加权的融合规则,融合效果和T.Wan等人的方法相比有了一定的提高,但是效果提高不是很明显且算法收敛的速度比较慢。
发明内容
本发明的目的在于克服上述已有技术的缺点,提出了一种基于压缩感知的可见光和红外图像融合方法,以减少数据量,降低计算复杂度,并在降低复杂度的同时提高图像融合的效果。
实现本发明目的的技术关键是利用压缩感知对信号的不完全采样来减少数据量,利用快速沃尔什哈达马变换矩阵来降低计算复杂度,整个处理过程分为四大部分,首先对可见光图像和红外图像进行一层小波分解,再对分解后的低频子带系数采用低频融合规则进行融合,对每个高频子带系数进行观测,然后对每个高频子带系数观测值进行融合,并对融合后的每个高频子带系数观测值进行重构,得到融合后的高频子带系数,最后对融合后的低频子带系数和高频子带系数进行小波逆变换得到融合的图像,其具体步骤包括如下:
(2)对可见光图像A和红外图像B的低频子带系数xA和xB进行融合,得到融合后的低频子带系数x;
(4b)对可见光图像A和红外图像B的三个方向高频子带系数观测值进行加权融合,得到融合后的高频子带系数的观测值zε:
其中,分别为可见光图像A和红外图像B第ε,ε=1,2,3方向高频子带系数的观测值,分别为可见光图像A和红外图像B第ε方向高频子带系数观测值的融合权值,|·|为取变量的绝对值,zε为第ε方向高频子带系数观测值的融合值;
(5)对可见光图像A和红外图像B融合后的高频子带系数观测值zε,ε=1,2,3进行重构,得到融合后的三个高频子带系数gε,ε=1,2,3;
(6)对融合后的低频子带系数x和三个高频子带系数gε,ε=1,2,3进行小波逆变换得到融合后的图像F。
本发明与现有的技术相比具有以下优点:
1、本发明由于采用快速沃尔什哈达马变换矩阵对信号进行了降维观测,与传统的图像融合方法相比,不需要预先假设图像的任何先验信息,且图像经过观测后,减小了图像数据量,节约了存储空间;
2、本发明由于观测矩阵采用了快速沃尔什哈达马变换,算法的运行速度要比现有的压缩感知图像融合方法要快;
3、本发明由于对图像只进行了一层小波分解,所以能更好地保留图像的能量信息。
实验证明,本发明对可见光和红外图像融合问题,融合结果的视觉效果较好,算法收敛速度也较快。
附图说明
图1是本发明的整体实现流程图;
图2是本发明使用的三组可见光图像和红外图像的源图像;
图3是用本发明与现有两种融合算法对可见光和红外Tree-1图像进行融合的结果图;
图4是用本发明与现有两种融合算法对可见光和红外Tree-2图像进行融合的结果图;
图5是用本发明与现有两种融合算法对可见光和红外Sea图像进行融合的结果图。
具体实施方式
参照图1,本发明的具体实现步骤如下:
小波分解将图像分解为高频子带系数和低频子带系数,高频子带系数可以认为是稀疏的,但低频子带系数是原图像不同尺度下的逼近信号,不能认为是稀疏的,而将低频子带系数与高频子带系数一起与测量矩阵Φ相乘则会破坏了低频逼近分量系数之间的相关性,导致图像重构效果变差,所以我们对图像先进行小波分解,然后对分解得到的高频子带系数和低频子带系数分开处理,这样能获得更好的图像重构效果。实验中采用的小波为双正交滤波器CDF 9/7小波,分解层数为1层,但不局限于小波变换,例如可以用离散余弦DCT变换,傅里叶FT变换,得到可见光图像A和红外图像B这两幅图像的低频子带系数xA和xB以及三个方向的高频子带系数ε=1,2,3。
步骤2,对见光图像A和红外图像B小波分解后的子带低频系数xA和xB进行融合。
由于小波变换后图像低频子带系数对图像重构起到了很重要的作用,因此只对原图像进行单层小波变换,能更好地保留图像的能量信息,然后只对第一层高频子带系数进行测量,对低频逼近子带则保留小波分解的系数,这样一方面可以有效减少重构图像所需的数据量,另一方面可以十分有效的提高重构图像质量。
低频子带系数融合过程如下:
其中,xIj为见光图像A和红外图像B低频子带中第j个小波系数,I=A,B,j=1,2ΛM,M为低频子带中小波系数的总数目;
(2b)对可见光图像A和红外图像B小波分解后的低频子带系数xA和xB进行加权融合,得到融合后的低频子带系数;
本实例采用的快速沃尔什哈达马观测矩阵是一种结合了克罗内克积“Kroneckerproduct”理论的快速沃尔什哈达马变换矩阵,它的计算复杂度为O(NlogN),远低于一般的复杂度为O(N2)的快速沃尔什哈达马变换矩阵。算法的详细内容参见Chengbo Li《AnEfficient Algorithm For Total Variation Regularization with Applications to the Single PixelCamera and Compressive Sensing》,Master of Arts,in Rice University,Houston,Texas,September.2009.
在传统的小波图像融合方法中,小波分解后的高频子带系数中,系数的值越大,它包含图像的信息量就越多。由于压缩感知CS对图像信号的观测过程是一个线性的过程,所以可以认为图像信号的高频子带系数通过观测后仍保留着这种关系。所以可以认为绝对值大的高频子带系数的观测值包含的图像信息量就大,加权融合的时候取的融合权值也应大。可见光图像A和红外图像B的三个方向的高频子带和ε=1,2,3的融合过程按如下步骤进行:
(4b)对可见光图像A和红外图像B的三个方向高频子带系数观测值进行加权融合,得到融合后的高频子带系数的观测值zε:
其中,分别为可见光图像A和红外图像B第ε,ε=1,2,3方向高频子带系数的观测值,分别为可见光图像A和红外图像B第ε方向高频子带系数观测值的融合权值,|·|为取变量的绝对值,zε为第ε方向高频子带系数观测值的融合值。
步骤5,对可见光图像A和红外图像B融合后的高频子带系数观测值zε,ε=1,2,3采用TVAL3算法进行重构,得到融合后的三个高频子带系数gε,ε=1,2,3。
TVAL3算法的全称为Total Variation Minimization by Augmented Lagrangian andAlternating Direction Algorithms,该算法是基于全变差最小化的Matlab程序包,程序来源于http://www.caam.rice.edu/~optimization/L1/TVAL3/.
利用TVAL3算法对高频子带系数观测值重构的核心是求解优化问题:
min∑|Dα|,st.Aα=b
其中,D为信号的稀疏变换,α为信号的稀疏形式,A为观测矩阵,b为观测值。
详细的求解过程参见Chengbo Li《An Efficient Algorithm For Total VariationRegularization with Applications to the Single Pixel Camera and Compressive Sensing》,Masterof Arts,in Rice University,Houston,Texas,September.2009.
利用TVAL3算法对可见光图像A和红外图像B融合后的高频子带系数观测值zε,ε=1,2,3重构后,得到融合后的小波高频子带系数gε,ε=1,2,3。
步骤6,对可见光图像A和红外图像B融合后的低频子带系数x和高频子带系数gε,ε=1,2,3进行小波逆变换。
本发明的效果可以通过仿真实验具体说明:
1.实验条件
实验所用微机CPU为Intel Core(TM)2 Duo 2.33GHz内存2GB,编程平台是Matlab7.0.1。实验中采用的图像数据为三组已配准的可见光和红外图像,大小均为256×256,图像来源于图像融合网站http://www.imagefusion.org/,第一组为Tree-1图像,如图2(a)和图2(b),其中图2(a)为红外图像,图2(b)为可见光图像,第二组为Tree-2图像,如图2(c)和图2(d),其中图2(c)为红外图像,图2(d)为可见光图像,第三组为Sea图像,如图2(e)和图2(f),其中图2(e)为红外图像,图2(f)为可见光图像。
2.实验内容
实验1,用本发明的方法和现有的两种融合方法对Tree-1图像进行融合实验,两篇文章的采样率均为0.4,本发明的高频采样率为0.2,用于图像恢复的数据量占图像总数据量的40%,融合结果如图3,其中图3(a)为文章《Compressive Image Fusion》,in Proc.IEEEInt.Conf.Image Process,pp.1308-1311,2008.融合结果图,图3(b)为文章《Efficient fusionfor infrared and visible images based on compressive sensing principle》,in IET.Image Process.,Vol.5,Iss.2,pp.141-147,2011.的融合结果图,图3(c)为本发明的融合结果图。
从图3可见,本发明的融合方法比现有的两种融合方法视觉效果要好,目标和场景都较清晰,文章《Compressive Image Fusion》,in Proc.IEEE Int.Conf.Image Process,pp.1308-1311,2008的融合方法的融合结果存在大量的噪声,场景比较模糊,文章《Efficientfusion for infrared and visible images based on compressive sensing principle》,in IET.ImageProcess.,Vol.5,Iss.2,pp.141-147,2011.融合方法的融合结果和本发明方法相比对比度较低,目标不清晰。
实验2,用本发明的方法和现有的两种融合方法对Tree-2图像进行融合实验,两篇文章的采样率均为0.4,本发明的高频采样率为0.2,用于图像恢复的数据量占图像总数据量的40%,融合结果如图3,其中图4(a)为文章《Compressive Image Fusion》,in Proc.IEEEInt.Conf.Image Process,pp.1308-1311,2008.融合结果图,图4(b)为文章《Efficient fusionfor infrared and visible images based on compressive sensing principle》,in IET.Image Process.,Vol.5,Iss.2,pp.141-147,2011.的融合结果图,图4(c)为本发明的融合结果图。
从图4可见,本发明的融合方法比现有的两种融合方法视觉效果要好,目标和场景都较清晰,文章《Compressive Image Fusion》,in Proc.IEEE Int.Conf.Image Process,pp.1308-1311,2008的融合方法的融合结果存在大量的噪声和带状条纹,文章《Efficient fusionfor infrared and visible images based on compressive sensing principle》,in IET.Image Process.,Vol.5,Iss.2,pp.141-147,2011.融合方法的融合结果和本发明方法相比对比度较低,目标不够清晰。
实验3,用本发明的方法和现有的两种融合方法对Sea图像进行融合实验,两篇文章的采样率均为0.4,本发明的高频采样率为0.2,用于图像恢复的数据量占图像总数据量的40%,融合结果如图3,其中图5(a)为文章《Compressive Image Fusion》,in Proc.IEEEInt.Conf.Image Process,pp.1308-1311,2008.融合结果图,图5(b)为文章《Efficient fusionfor infrared and visible images based on compressive sensing principle》,in IET.Image Process.,Vol.5,Iss.2,pp.141-147,2011.的融合结果图,图5(c)为本发明的融合结果图。
从图5可见,本发明的融合方法和现有两篇文章融合方法相比,视觉效果要好,目标和场景都较清晰,两幅源图像的信息都能很好地融合在一起,文章《Compressive ImageFusion》,in Proc.IEEE Int.Conf.Image Process,pp.1308-1311,2008的融合方法的融合结果存在大量带状条纹和噪声,文章《Efficient fusion for infrared and visible images based oncompressive sensing principle》,in IET.Image Process.,Vol.5,Iss.2,pp.141-147,2011.融合方法的融合结果和本发明方法目标对比度低,不清晰。
将本发明的融合方法与文章《Compressive Image Fusion》,in Proc.IEEE Int.Conf.ImageProcess,pp.1308-1311,2008.的融合方法以及文章《Efficient fusion for infrared and visibleimages based on compressive sensing principle》,in IET.Image Process.,Vol.5,Iss.2,pp.141-147,2011.的融合方法在六种图像评价指标上进行比较,来评价本发明的效果。三种融合方法在三组可见光图像和红外图像上的融合定性评价指标如表1:
表1、可见光图像和红外图像融合定性评价指标
表1中:
CS-MAV表示文章T.Wan,N.Canagarajah,A.Achim,“Compressive Image Fusion,”inProc.IEEE Int.Conf.Image Process,pp.1308-1311,2008的融合方法。
CS-SD表示文章X.Li,S.-Y.Qin,“Efficient fusion for infrared and visible images basedon compressive sensing principle,”in IET Image Process.,Vol.5,Iss.2,pp.141-147,2011的融合方法。
IE表示信息熵,AG表示平均梯度,MI表示互信息,Q表示边缘保持度,CC表示相关系数,T表示图像恢复时间,单位为秒(s)。
从表1可见,本发明的方法在多项指标上比所述两篇文章的方法要高,其它指标也比较接近;在时间复杂度上,本发明的方法需要的图像重构时间远低于所述两篇文章的融合方法。
上述实验证明,本发明提出的基于压缩感知的可见光和红外图像融合方法对可见光和红外图像融合问题能取得较好的视觉效果,且计算复杂度也较低。
Claims (4)
1.一种基于压缩感知的可见光和红外图像融合方法,包括如下步骤:
(2)对可见光图像A和红外图像B的低频子带系数xA和xB进行融合,得到融合后的低频子带系数x;
(4b)对可见光图像A和红外图像B的三个方向高频子带系数观测值进行加权融合,得到融合后的高频子带系数的观测值zε:
其中,分别为可见光图像A和红外图像B第ε,ε=1,2,3方向高频子带系数的观测值,分别为可见光图像A和红外图像B第ε方向高频子带系数观测值的融合权值,|·|为取变量的绝对值,zε为第ε方向高频子带系数观测值的融合值;
(5)对可见光图像A和红外图像B融合后的高频子带系数观测值zε,ε=1,2,3进行重构,得到融合后的三个高频子带系数gε,ε=1,2,3;
(6)对融合后的低频子带系数x和三个高频子带系数gε,ε=1,2,3进行小波逆变换得到融合后的图像F。
2.根据权利要求1所述的基于压缩感知的可见光和红外图像融合方法,其中步骤(1)所述的对输入的可见光图像A和红外图像B进行小波分解,采用双正交滤波器CDF 9/7小波,分解层数为1层。
4.根据权利要求1所述的基于压缩感知的可见光和红外图像融合方法,其中步骤(5)所述的对可见光图像A和红外图像B融合后的高频子带系数观测值zε,ε=1,2,3进行重构,采用“Total Variation Minimization by AugmentedLagrangian and Alternating Direction Algorithms”算法重构。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110199505A CN102254314B (zh) | 2011-07-17 | 2011-07-17 | 基于压缩感知的可见光和红外图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110199505A CN102254314B (zh) | 2011-07-17 | 2011-07-17 | 基于压缩感知的可见光和红外图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102254314A true CN102254314A (zh) | 2011-11-23 |
CN102254314B CN102254314B (zh) | 2012-10-24 |
Family
ID=44981556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110199505A Active CN102254314B (zh) | 2011-07-17 | 2011-07-17 | 基于压缩感知的可见光和红外图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102254314B (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102521609A (zh) * | 2011-12-02 | 2012-06-27 | 湖南大学 | 基于分布式压缩传感的近红外与可见光图像人脸识别方法 |
CN102800059A (zh) * | 2012-07-05 | 2012-11-28 | 清华大学 | 一种基于近红外图像辅助的图像可见性增强方法 |
CN103402043A (zh) * | 2013-08-16 | 2013-11-20 | 中国科学院长春光学精密机械与物理研究所 | 一种大视场空间tdiccd相机的图像压缩装置 |
CN103559696A (zh) * | 2013-09-29 | 2014-02-05 | 南京邮电大学 | 一种基于压缩感知的图像融合方法 |
CN103593833A (zh) * | 2013-10-25 | 2014-02-19 | 西安电子科技大学 | 基于压缩感知和能量规则的多聚焦图像融合方法 |
CN103793896A (zh) * | 2014-01-13 | 2014-05-14 | 哈尔滨工程大学 | 一种红外图像与可见光图像的实时融合方法 |
CN104166141A (zh) * | 2014-08-11 | 2014-11-26 | 中国电子科技集团公司第三十八研究所 | 基于子带合成的多输入多输出合成孔径雷达系统设计方法 |
CN104504740A (zh) * | 2015-01-23 | 2015-04-08 | 天津大学 | 压缩感知框架下的图像融合方法 |
CN104732504A (zh) * | 2015-01-23 | 2015-06-24 | 天津大学 | 基于压缩感知和wbct变换的图像融合方法 |
CN104811624A (zh) * | 2015-05-06 | 2015-07-29 | 努比亚技术有限公司 | 红外拍摄方法及装置 |
CN105069769A (zh) * | 2015-08-26 | 2015-11-18 | 哈尔滨工业大学 | 一种微光与红外夜视图像融合方法 |
CN106056640A (zh) * | 2016-06-03 | 2016-10-26 | 西北大学 | 基于形态成分分解结合压缩感知的图像压缩方法 |
CN107451984A (zh) * | 2017-07-27 | 2017-12-08 | 桂林电子科技大学 | 一种基于混合多尺度分析的红外与可见光图像融合算法 |
CN107851311A (zh) * | 2015-06-15 | 2018-03-27 | 前视红外系统股份公司 | 对比度增强的结合图像生成系统和方法 |
CN109255777A (zh) * | 2018-07-27 | 2019-01-22 | 昆明理工大学 | 一种结合小波变换和感知哈希算法的图像相似度计算方法 |
CN109828285A (zh) * | 2019-01-07 | 2019-05-31 | 北京理工大学 | 一种双波段时域压缩感知高速成像方法及装置 |
CN109998599A (zh) * | 2019-03-07 | 2019-07-12 | 华中科技大学 | 一种基于ai技术的光/声双模成像眼底疾病诊断系统 |
CN110418108A (zh) * | 2019-07-12 | 2019-11-05 | 南京理工大学 | 基于cs理论的无人值守区域监测系统 |
CN113066036A (zh) * | 2021-03-18 | 2021-07-02 | 中北大学 | 一种基于模糊熵和稀疏表示的x射线图像融合方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1545064A (zh) * | 2003-11-27 | 2004-11-10 | 上海交通大学 | 红外与可见光图像融合方法 |
CN1822046A (zh) * | 2006-03-30 | 2006-08-23 | 上海电力学院 | 基于区域特征模糊的红外与可见光图像融合方法 |
CN101873440A (zh) * | 2010-05-14 | 2010-10-27 | 西安电子科技大学 | 基于Surfacelet变换的红外与可见光视频图像融合方法 |
-
2011
- 2011-07-17 CN CN201110199505A patent/CN102254314B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1545064A (zh) * | 2003-11-27 | 2004-11-10 | 上海交通大学 | 红外与可见光图像融合方法 |
CN1822046A (zh) * | 2006-03-30 | 2006-08-23 | 上海电力学院 | 基于区域特征模糊的红外与可见光图像融合方法 |
CN101873440A (zh) * | 2010-05-14 | 2010-10-27 | 西安电子科技大学 | 基于Surfacelet变换的红外与可见光视频图像融合方法 |
Non-Patent Citations (2)
Title |
---|
《红外技术》 20080229 柴奇,杨伟,管怡,杨旭 一种改进的可见光与红外图像融合算法 87-90 1-4 第30卷, 第2期 * |
《长江大学学报(自然科学版)》 20081231 孙玉秋,郑妤,李亮 一种基于小波变换的可见光与红外图像融合算法研究 70-73 1-4 第5卷, 第4期 * |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102521609A (zh) * | 2011-12-02 | 2012-06-27 | 湖南大学 | 基于分布式压缩传感的近红外与可见光图像人脸识别方法 |
CN102800059A (zh) * | 2012-07-05 | 2012-11-28 | 清华大学 | 一种基于近红外图像辅助的图像可见性增强方法 |
CN102800059B (zh) * | 2012-07-05 | 2015-01-14 | 清华大学 | 一种基于近红外图像辅助的图像可见性增强方法 |
CN103402043A (zh) * | 2013-08-16 | 2013-11-20 | 中国科学院长春光学精密机械与物理研究所 | 一种大视场空间tdiccd相机的图像压缩装置 |
CN103559696B (zh) * | 2013-09-29 | 2016-04-13 | 南京邮电大学 | 一种基于压缩感知的图像融合方法 |
CN103559696A (zh) * | 2013-09-29 | 2014-02-05 | 南京邮电大学 | 一种基于压缩感知的图像融合方法 |
CN103593833A (zh) * | 2013-10-25 | 2014-02-19 | 西安电子科技大学 | 基于压缩感知和能量规则的多聚焦图像融合方法 |
CN103793896A (zh) * | 2014-01-13 | 2014-05-14 | 哈尔滨工程大学 | 一种红外图像与可见光图像的实时融合方法 |
CN103793896B (zh) * | 2014-01-13 | 2017-01-18 | 哈尔滨工程大学 | 一种红外图像与可见光图像的实时融合方法 |
CN104166141A (zh) * | 2014-08-11 | 2014-11-26 | 中国电子科技集团公司第三十八研究所 | 基于子带合成的多输入多输出合成孔径雷达系统设计方法 |
CN104732504A (zh) * | 2015-01-23 | 2015-06-24 | 天津大学 | 基于压缩感知和wbct变换的图像融合方法 |
CN104504740A (zh) * | 2015-01-23 | 2015-04-08 | 天津大学 | 压缩感知框架下的图像融合方法 |
CN104811624A (zh) * | 2015-05-06 | 2015-07-29 | 努比亚技术有限公司 | 红外拍摄方法及装置 |
CN107851311A (zh) * | 2015-06-15 | 2018-03-27 | 前视红外系统股份公司 | 对比度增强的结合图像生成系统和方法 |
CN105069769A (zh) * | 2015-08-26 | 2015-11-18 | 哈尔滨工业大学 | 一种微光与红外夜视图像融合方法 |
CN106056640B (zh) * | 2016-06-03 | 2019-03-26 | 西北大学 | 基于形态成分分解结合压缩感知的图像压缩方法 |
CN106056640A (zh) * | 2016-06-03 | 2016-10-26 | 西北大学 | 基于形态成分分解结合压缩感知的图像压缩方法 |
CN107451984A (zh) * | 2017-07-27 | 2017-12-08 | 桂林电子科技大学 | 一种基于混合多尺度分析的红外与可见光图像融合算法 |
CN107451984B (zh) * | 2017-07-27 | 2021-06-22 | 桂林电子科技大学 | 一种基于混合多尺度分析的红外与可见光图像融合算法 |
CN109255777A (zh) * | 2018-07-27 | 2019-01-22 | 昆明理工大学 | 一种结合小波变换和感知哈希算法的图像相似度计算方法 |
CN109255777B (zh) * | 2018-07-27 | 2021-10-22 | 昆明理工大学 | 一种结合小波变换和感知哈希算法的图像相似度计算方法 |
CN109828285A (zh) * | 2019-01-07 | 2019-05-31 | 北京理工大学 | 一种双波段时域压缩感知高速成像方法及装置 |
CN109998599A (zh) * | 2019-03-07 | 2019-07-12 | 华中科技大学 | 一种基于ai技术的光/声双模成像眼底疾病诊断系统 |
CN110418108A (zh) * | 2019-07-12 | 2019-11-05 | 南京理工大学 | 基于cs理论的无人值守区域监测系统 |
CN113066036A (zh) * | 2021-03-18 | 2021-07-02 | 中北大学 | 一种基于模糊熵和稀疏表示的x射线图像融合方法及装置 |
CN113066036B (zh) * | 2021-03-18 | 2022-06-03 | 中北大学 | 一种基于模糊熵和稀疏表示的x射线图像融合方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN102254314B (zh) | 2012-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102254314B (zh) | 基于压缩感知的可见光和红外图像融合方法 | |
Jin et al. | Infrared and visual image fusion method based on discrete cosine transform and local spatial frequency in discrete stationary wavelet transform domain | |
Bavirisetti et al. | Multi-sensor image fusion based on fourth order partial differential equations | |
CN107451984B (zh) | 一种基于混合多尺度分析的红外与可见光图像融合算法 | |
CN109509164B (zh) | 一种基于gdgf的多传感器图像融合方法及系统 | |
CN103871058B (zh) | 基于压缩采样矩阵分解的红外小目标检测方法 | |
CN104809734A (zh) | 一种基于引导滤波的红外图像与可见光图像融合的方法 | |
He et al. | Infrared and visible image fusion based on target extraction in the nonsubsampled contourlet transform domain | |
CN104268847A (zh) | 一种基于交互非局部均值滤波的红外与可见光图像融合方法 | |
CN104463808A (zh) | 基于空间相关性的高光谱数据降噪方法及系统 | |
CN105574835A (zh) | 基于线性正则变换的图像融合方法 | |
Adu et al. | Image fusion based on visual salient features and the cross-contrast | |
Wang et al. | Poissonian blurred hyperspectral imagery denoising based on variable splitting and penalty technique | |
Hu et al. | A multi-algorithm block fusion method based on set-valued mapping for dual-modal infrared images | |
CN104156930A (zh) | 基于双尺度空间的图像融合方法和装置 | |
CN111275680B (zh) | 基于Gabor卷积网络的SAR图像变化检测方法 | |
Ansari et al. | Textural classification based on wavelet, curvelet and contourlet features | |
Kaur et al. | A comparative study of various digital image fusion techniques: A review | |
CN113158830A (zh) | 一种剩余重力异常场分离方法 | |
Lal et al. | Enhanced dictionary based sparse representation fusion for multi-temporal remote sensing images | |
Raju et al. | Denoising of remotely sensed images via curvelet transform and its relative assessment | |
Chen et al. | Texture Feature Extraction Method for Ground Nephogram Based on Contourlet and the Power Spectrum Analysis Algorithm. | |
Lei et al. | A novel approach of infrared small weak target detection based on an improved nonsubsampled contourlet transform | |
Budhiraja et al. | Infrared and visible image fusion based on sparse representation and spatial frequency in DTCWT domain | |
Yang et al. | HFAN: High-Frequency Attention Network for hyperspectral image denoising |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |