CN103400360A - 基于Wedgelet和NSCT的多源图像融合方法 - Google Patents
基于Wedgelet和NSCT的多源图像融合方法 Download PDFInfo
- Publication number
- CN103400360A CN103400360A CN201310333665XA CN201310333665A CN103400360A CN 103400360 A CN103400360 A CN 103400360A CN 201310333665X A CN201310333665X A CN 201310333665XA CN 201310333665 A CN201310333665 A CN 201310333665A CN 103400360 A CN103400360 A CN 103400360A
- Authority
- CN
- China
- Prior art keywords
- image
- nsct
- images
- frequency
- residual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title abstract description 30
- 230000004927 fusion Effects 0.000 claims abstract description 35
- 230000009466 transformation Effects 0.000 claims description 42
- 238000007500 overflow downdraw method Methods 0.000 claims description 19
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000007547 defect Effects 0.000 abstract description 3
- 239000000284 extract Substances 0.000 abstract description 3
- 238000000605 extraction Methods 0.000 abstract description 2
- 238000004088 simulation Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 10
- 238000003745 diagnosis Methods 0.000 description 6
- 239000000779 smoke Substances 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 125000004432 carbon atom Chemical group C* 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 244000096108 cunha Species 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种结合wedgelet变换与NSCT变换的多源图像融合方法,克服了基于NSCT变换的现有多源图像融合方法在图像特征和图像边缘提取上的不足,实现步骤为:(1)输入源图像;(2)wedgelet变换得到逼近图像;(3)逼近图像与源图像的差得到残留图像;(4)对逼近和残留图像分别进行NSCT变换;(5)低频子带系数融合;(6)高频方向子带系数融合;(7)NSCT逆变换得到重构图像;(8)逼近图像和残留图像求和;(9)输出融合图像。本发明利用wedgelet变换有效提取了图像的轮廓信息与特征信息,并将其利用到图像融合中,保留了更多源图像的有用信息,最终得到轮廓和特征信息更加显著的融合图像。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及军事侦查领域,医学诊断领域中基于Wedgelet变换和NSCT结合的多源图像融合方法,可应用于多源图像融合,以获得一幅包含各源图像显著信息的复合图像。本发明用于提取图像特征领域可以获得更多的有用信息,减少了噪声的干扰,在医学诊断领域可以为更准确的医疗诊断提供清晰高质量的图像,尤其是对于CT和MR图像的特征提取效果显著。
背景技术
图像融合是将源自同一场景或目标的多幅图像合成一副崭新的图像,以获取对该场景或目标更为准确和全面的描述。图像融合技术已经应用在军事、遥感、医学图像处理、自动目标识别以及计算机视觉等领域。目前以NSCT变换等为代表的多分辨率、多尺度几何分析工具逐渐成为图像融合方法的研究热点之一,被广泛用于多源图像的融合。
da Cunha等提出了一种具有平移不变性的Contourlet变换, 即非下采样Contourlet变换,该变换通过使用迭代非下采样滤波器组来获得平移不变、多分辨、多方向的图像表示能力。张强,郭宝龙在文献“基于非采样Contourlet变换多传感器图像融合算法[J].自动化学报,2008,2(34):135-141.”中采用的基于简单NSCT算法的对比实验。该方法对多传感器图像采用NSCT变换进行分解,对低频子带系数采用加权平均法,高频方向子带系数采用绝对值取大的方法来选择系数,最后通过NSCT逆变换以得到融合后的图像。该方法提取的边缘特征不是很清晰,而且容易受到噪声的干扰,从而导致融合后图像边缘信息不够准确,影响到军事判断和医学诊断的准确性。
屈小波等在文献“Image Fusion Algorithm Based on Spatial Frequency-Motivated Pulse Coupled Neural Networks in Nonsubsampled Contourlet Transform Domain[J].ACTA AUTOMATICA SINICA,2008,34(12):1508-1414.”中提出了一种基于NSCT变换并采用SF(Spatial Frequency,空间频率)和PCNN(Pulse Coupled Neural Network,脉冲耦合神经网络)选取系数的方法。该方法对一组图像进行NSCT分解,先用SF选取系数,再对经过SF选取的系数通过PCNN选取系数,最终通过NSCT逆变换得到融合后图像。该方法因为NSCT变换具有平移不变、多分辨、多方向的图像表示能力,虽然可以获得良好的融合效果,但是融合后的图像仍然存在较小的细节信息的模糊问题,不利于军事判断和医学诊断的准确性。
在单一的基于wedgelet变换的图像融合技术中,先对图像进行wedgelet逼近得到逼近图像和残留图像,再通过系数的选择提取图像的特征信息,最终相加得到融合后的图像。该方法因为wedgelet变换具有良好的“线”和“面”的特性,能够逼近和平滑边缘信息,更有效的提取图像中需要保留的特征,但是融合后的图像残留了wedgelet变换过程中产生的n*n方块的边缘,会对军事判断和医学诊断的准确性产生影响。
综上所述,基于NSCT变换的图像融合方法在图像清晰度上虽然可以获得较好的效果,但对于多源图像的不同特征,不能很好的提取,并且在图像空间域的总体活跃程度上不是很活跃,所以基于NSCT变换的一系列的图像处理方法在图像压缩,去噪,融合等应用中,均不可避免出现细节位置上一定程度的模糊,并且从源图像上提取的信息量不够完全,对军事图像和医疗图像判断的准确性带来不良的影响。
发明内容
本发明的目的是针对现有技术基于NSCT变换的图像融合方法在图像细节位置上的模糊和图像活跃程度上的缺点,提出一种基于Wedgelet变换和NSCT结合的多源图像融合方法。本发明利用wedgelet良好的“线”和“面”的特性,能够逼近和平滑边缘信息,来提取图像中需要保留的特征。本发明将wedgelet提取到的线性特征信息参与到图像的融合过程中,以改善基于NSCT变换进行图像融合的效果,最终得到边缘细节特征更为明显的融合图像。
本发明实现的具体步骤包括如下:
(1)输入源图像A和源图像B
1a)将待融合的源图像A和源图像B分别存入计算机硬盘;
1b)在计算机中应用matlab软件分别读取步骤1a)中存储在计算机硬盘空间中待融合的源图像A和源图像B;
(2)wedgelet变换得到逼近图像
利用matlab软件分别对源图像A和源图像B进行wedgelet变换,得到逼近图像,并将两幅逼近图像存入内存;
(3)逼近图像与源图像的差得到残留图像
应用matlab软件读取源图像A和源图像B以及它们对应的逼近图像,源图像在像素上减去逼近图像得到残留图像,并将两幅残留图像分别存入内存;
(4)对逼近和残留图像分别进行NSCT变换
利用matlab软件分别对两幅逼近图像和两幅残留图像进行NSCT变换,得到各自对应的低频子带系数和高频方向子带系数,并将这些系数存入内存;
(5)低频子带系数融合
5a)应用matlab软件分别读取步骤(4)中两幅逼近图像和两幅残留图像的低频子带系数;
5b)计算低频系数像素点的领域能量特征,定义为该像素点的领域能量等于该点周围点像素的平方和;
5c)根据领域能量特征对对应的低频子带系数进行融合,选取像素点领域能量大的系数,得到融合后的逼近图像低频子带系数和残留图像的低频子带系数,并将其分别存入内存;
(6)高频方向子带系数融合
6a)利用matlab软件分别读取步骤(4)中两幅逼近图像和两幅残留图像的高频方向子带系数;
6b)通过高频方向子带系数在像素点的绝对值,比较绝对值的大小;
6c)选取绝对值大的源高频方向子带系数,将融合后的逼近图像高频方向子带系数和残留图像的高频方向子带系数存入内存;
(7)NSCT逆变换得到重构图像
利用matlab软件读取步骤5c)和步骤6c)中的逼近图像和残留图像的低频子带系数和高频方向子带系数,并分别进行NSCT逆变换得到重构后的逼近图像和残留图像;
(8)逼近图像和残留图像求和
对步骤(7)中的逼近图像和残留图像进行像素级的相加,得到最终的融合图像;
(9)输出融合图像。
与现有技术相比,本发明具有以下优点:
第一,本发明在NSCT变换之前,先应用wedgelet变换方法有效的提取图像的边缘信息,对图像进行逼近,从而更方便的利于NSCT变换保留图像的特征信息,克服了现有技术中难以有效提取图像特征信息的难题,由此本发明可以在图像中提取更多的特征信息,使得最终的融合图像中的特征信息更为丰富。
第二,本发明在利用wedgelet变换逼近图像,更利于提取图像的特征信息,减少了不被需要的信息的干扰,克服了现有技术中基于NSCT变换的图像融合方法在细节位置上存在一定程度模糊的不足,使得本发明最终得到边缘细节特征更为明显的融合图像。
第三,本发明在得到逼近图像的同时,保留了残留图像,使得源图像的信息得到充分的保留,同时对逼近图像和残留图像进行NSCT变换,克服了现有技术中图像信息容易丢失的难题并且消除了wedgelet变换中残留下来的方块痕迹,由此发明可以保留源图像的更多信息,使得最终的融合图像中保留源图像的更多信息。
附图说明
图1为本发明的流程图;
图2-图7为本发明坦克多源图像融合仿真图
图8-图13为本发明CT和MR多源图像融合仿真图
具体实施方式
参照图1,本发明具体实施方式如下:
步骤1,输入源图像A和源图像B
在计算机中应用matlab软件分别读取存储在计算机硬盘空间中待融合的源图像A和源图像B。
步骤2,wedgelet变换得到逼近图像
利用matlab软件分别对源图像A和源图像B进行wedgelet变换,得到逼近图像A1和B1,并将两幅逼近图像存入内存。
步骤3,逼近图像与源图像的差得到残留图像
应用matlab软件读取源图像A和源图像B以及它们对应的逼近图像A1和B1,源图像在像素上减去逼近图像得到残留图像A2和B2,并将两幅残留图像分别存入内存,残差图像计算公式为:
步骤4,对逼近和残留图像分别进行NSCT变换
步骤5,低频子带系数融合
5b)计算低频系数像素点的领域能量特征,定义公式为该像素点的领域能量等于该点周围点像素的平方和:
其中,s表示对应的图像,m,n分别表示图像像素的坐标,w表示图像的像素级,i,j为对应点(m,n)为中心的3*3矩阵外围8个点像素的坐标。
步骤6,高频方向子带系数融合
6b)通过高频方向子带系数在像素点的绝对值,比较绝对值的大小;
,将融合后的逼近图像高频方向子带系数和残留图像的高频方向子带系数存入内存,选取高频方向子带系数的公式如下:
步骤7,NSCT逆变换得到重构图像
利用matlab软件读取步骤5c)和步骤6c)中的逼近图像和残留图像的低频子带系数和高频方向子带系数,并分别进行NSCT逆变换得到重构后的逼近图像FA和残留图像FB;
步骤8,逼近图像和残留图像求和
对步骤7中的逼近图像FA和残留图像FB进行像素级的相加,得到最终的融合图像,公式为:
步骤9,输出融合图像F。
本发明的效果可以通过以下仿真进一步说明。
仿真1,对本发明中坦克多源图像融合方法的仿真。
仿真1仿真条件是在MATLAB R2009a软件下进行。
参照图2-图7,对常用的坦克图像,大小为256*256,256级灰度的2幅图像不同聚焦点的图像进行仿真实验。由图2为右边被烟遮住图像;图3为左边被烟遮住图像;图4为简单NSCT融合方法得到的图像;图5为基于NSCT-SF-PCNN方法得到的图像;图6为wedgelet图像融合方法得到的图像,其中逼近图像像素值取小,残留图像像素值取大;图7是基于本发明提出方法得到的融合图像。
通过观察各方法融合以后的图像发现,图4坦克仍有淡淡的烟雾,图5得到的坦克图像仍然有小块的烟雾遮掩,图6 wedgelet变换后坦克的特征明显,但细节比较模糊,而且残留有wedgelet变换后的方块痕迹,而本发明的方法不仅消除了烟雾,而且没有wedgelet残留的边框,更没有对边景产生干扰,无论是在细节上还是特征提取上都体现了明显的优势,得到了最优的融合结果。分别对几种方法得到的融合图像计算以下几个融合图像的评价参数:熵(Entrory)、空间频率(SF)、综合互信息(MIFAB)、综合质量因素()、非交叠互信息(IFPM)。
(1)熵是衡量图像信息丰富程度的一个重要指标,计算公式为:
(2)空间频率反映了一幅图像空间域的总体活跃程度,定义公式为:
其中C和R分别为行频和列频:
(3)综合质量因素反映了融合后图像的图像质量,定义公式为:
(4)综合互信息反映原图与融合图像之间的相互信息,定义公式为:
式中:L表示图像的灰度值,p表示灰度值为i的像素出现的概率。
(5)非交叠互信息反映的是融合以前图像转移到融合图像中的信息量大小,定义公式为:
其中,H表示源图像的信息熵,C1指源图像转移融合图像中信息量的总和,定义为:
其中:I表示信息量,X为源图像,Y为融合图像。
最终数据如表1所示。
表1 图像融合性能评价指标
从表1的客观评价测度值可以看出,本发明提出的方法优于其他方法的融合结果,熵越大说明融合图像的信息量越大,空间频率越大说明图像空间域的总体活跃程度越高,综合互信息越大说明原图与融合图像之间的相互信息越多,综合质量因素越大了融合后图像的图像质量越好,非交叠互信息越大说明融合以前图像转移到融合图像中的信息量越大,表1的参数表明本发明有效的保留了各源图像的有用信息。
仿真2,对本发明中CT医学图像和MR医学图像融合方法的仿真。
仿真2仿真条件是在MATLAB R2009a软件下进行。
参照图8-图13,对CT图像和MR图像进行仿真实验。图8为CT图像,图中为人头切面的骨骼图;图9为MR图像,图中为人头切面的肌肉图;图10为简单NSCT融合方法得到的图像;图11为基于NSCT-SF-PCNN方法得到的图像;图12为wedgelet图像融合方法得到的图像,其中逼近图像像素值取大,残留图像像素值取大;图13是基于本发明提出方法得到的融合图像。
从图10可以看出图像的边缘存在较多的噪声,细节部分比较模糊;从图11可以看出初相的边缘存在较多噪声,部分MR图像特征丢失;从图12可以看出图像边缘的噪声较少,但是其属于CT图像的骨骼还是MR图像的肌肉分辨不清,部分位置发生重叠,模糊不清;从图13可以看出图像边缘的噪声较少,而且各部分细节清晰,特征明显,保留了较多源图像的有用信息。
从各仿真实验的融合结果可以看出,本发明方法在完整提取图像特征的同时,较好的消除了图像的噪声,得到了全局清晰的融合图像,从而达到了图像融合的目的,与其他融合方法相比,本发明方法对于具有特征的多源图像具有相似或更好的效果。
Claims (6)
1. 一种基于Wedgelet变换和NSCT结合的多源图像融合方法,包括如下步骤:
(1)输入源图像A和源图像B
1a)将待融合的源图像A和源图像B分别存入计算机硬盘;
1b)在计算机中应用matlab软件分别读取步骤1a)中存储在计算机硬盘空间中待融合的源图像A和源图像B;
(2)wedgelet变换得到逼近图像
利用matlab软件分别对源图像A和源图像B进行wedgelet变换,得到逼近图像,并将两幅逼近图像存入内存;
(3)逼近图像与源图像的差得到残留图像
应用matlab软件读取源图像A和源图像B以及它们对应的逼近图像,源图像在像素上减去逼近图像得到残留图像,并将两幅残留图像分别存入内存;
(4)对逼近和残留图像分别进行NSCT变换
利用matlab软件分别对两幅逼近图像和两幅残留图像进行NSCT变换,得到各自对应的低频子带系数和高频方向子带系数,并将这些系数存入内存;
(5)低频子带系数融合
5a)应用matlab软件分别读取步骤(4)中两幅逼近图像和两幅残留图像的低频子带系数;
5b)计算低频系数像素点的领域能量特征,定义为该像素点的领域能量等于该点周围点像素的平方和;
5c)根据领域能量特征对对应的低频子带系数进行融合,选取像素点领域能量大的系数,得到融合后的逼近图像低频子带系数和残留图像的低频子带系数,并将其分别存入内存;
6)高频方向子带系数融合
6a)利用matlab软件分别读取步骤(4)中两幅逼近图像和两幅残留图像的高频方向子带系数;
6b)通过高频方向子带系数在像素点的绝对值,比较绝对值的大小;
6c)选取绝对值大的源高频方向子带系数,将融合后的逼近图像高频方向子带系数和残留图像的高频方向子带系数存入内存;
(7)NSCT逆变换得到重构图像
利用matlab软件读取步骤5c)和步骤6c)中的逼近图像和残留图像的低频子带系数和高频方向子带系数,并分别进行NSCT逆变换得到重构后的逼近图像和残留图像;
(8)逼近图像和残留图像求和
对步骤(7)中的逼近图像和残留图像进行像素级的相加,得到最终的融合图像;
(9)输出融合图像。
2.根据权利要求1所述的基于Wedgelet变换和NSCT结合的多源图像融合方法,其特征在于:步骤(2)中wedgelet基为4*4的矩阵块,惩罚因子为1。
3.根据权利要求1所述的基于Wedgelet变换和NSCT结合的多源图像融合方法,其特征在于:步骤(4)中NSCT变换尺度为[0,2]。
4.根据权利要求1所述的基于Wedgelet变换和NSCT结合的多源图像融合方法,其特征在于:步骤5b)所述的领域能量特征按照下列公式计算得到:
其中,s表示对应的图像,m,n分别表示图像像素的坐标,w表示图像的像素级,i,j为对应点(m,n)为中心的3*3矩阵外围8个点像素的坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310333665XA CN103400360A (zh) | 2013-08-03 | 2013-08-03 | 基于Wedgelet和NSCT的多源图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310333665XA CN103400360A (zh) | 2013-08-03 | 2013-08-03 | 基于Wedgelet和NSCT的多源图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103400360A true CN103400360A (zh) | 2013-11-20 |
Family
ID=49563972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310333665XA Pending CN103400360A (zh) | 2013-08-03 | 2013-08-03 | 基于Wedgelet和NSCT的多源图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103400360A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318532A (zh) * | 2014-10-23 | 2015-01-28 | 湘潭大学 | 一种结合压缩感知的二次图像融合方法 |
CN104809734A (zh) * | 2015-05-11 | 2015-07-29 | 中国人民解放军总装备部军械技术研究所 | 一种基于引导滤波的红外图像与可见光图像融合的方法 |
CN108564559A (zh) * | 2018-03-14 | 2018-09-21 | 北京理工大学 | 一种基于两尺度聚焦图的多聚焦图像融合方法 |
CN109272024A (zh) * | 2018-08-29 | 2019-01-25 | 昆明理工大学 | 一种基于卷积神经网络的图像融合方法 |
CN110717910A (zh) * | 2019-10-16 | 2020-01-21 | 姜通渊 | Ct图像目标检测方法及ct扫描仪 |
CN111311530A (zh) * | 2020-01-22 | 2020-06-19 | 西安电子科技大学 | 基于方向滤波器及反卷积神经网络的多聚焦图像融合方法 |
CN115769247A (zh) * | 2020-07-27 | 2023-03-07 | 华为技术有限公司 | 图像增强方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1588447A (zh) * | 2004-08-19 | 2005-03-02 | 复旦大学 | 基于残差的遥感图像融合方法 |
CN101303764A (zh) * | 2008-05-16 | 2008-11-12 | 西安电子科技大学 | 基于非下采样轮廓波的多传感器图像自适应融合方法 |
CN101546428A (zh) * | 2009-05-07 | 2009-09-30 | 西北工业大学 | 基于区域分割的序列红外与可见光图像融合 |
-
2013
- 2013-08-03 CN CN201310333665XA patent/CN103400360A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1588447A (zh) * | 2004-08-19 | 2005-03-02 | 复旦大学 | 基于残差的遥感图像融合方法 |
CN101303764A (zh) * | 2008-05-16 | 2008-11-12 | 西安电子科技大学 | 基于非下采样轮廓波的多传感器图像自适应融合方法 |
CN101546428A (zh) * | 2009-05-07 | 2009-09-30 | 西北工业大学 | 基于区域分割的序列红外与可见光图像融合 |
Non-Patent Citations (2)
Title |
---|
JUNYING LIU ET AL.: "Image Fusion Based on Wedgelet and Wavelet", 《PROCEEDINGS OF 2007 INTERNATIONAL SYMPOSIUM ON INTELLIGENT SIGNAL PROCESSING AND COMMUNICATION SYSTEMS》, 1 December 2007 (2007-12-01), pages 682 - 685 * |
胡俊峰: "像素级图像融合及应用研究", 《中国博士学位论文全文数据库信息科技辑》, 15 June 2011 (2011-06-15), pages 50 - 59 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318532A (zh) * | 2014-10-23 | 2015-01-28 | 湘潭大学 | 一种结合压缩感知的二次图像融合方法 |
CN104318532B (zh) * | 2014-10-23 | 2017-04-26 | 湘潭大学 | 一种结合压缩感知的二次图像融合方法 |
CN104809734A (zh) * | 2015-05-11 | 2015-07-29 | 中国人民解放军总装备部军械技术研究所 | 一种基于引导滤波的红外图像与可见光图像融合的方法 |
CN104809734B (zh) * | 2015-05-11 | 2018-07-27 | 中国人民解放军总装备部军械技术研究所 | 一种基于引导滤波的红外图像与可见光图像融合的方法 |
CN108564559B (zh) * | 2018-03-14 | 2021-07-20 | 北京理工大学 | 一种基于两尺度聚焦图的多聚焦图像融合方法 |
CN108564559A (zh) * | 2018-03-14 | 2018-09-21 | 北京理工大学 | 一种基于两尺度聚焦图的多聚焦图像融合方法 |
CN109272024A (zh) * | 2018-08-29 | 2019-01-25 | 昆明理工大学 | 一种基于卷积神经网络的图像融合方法 |
CN109272024B (zh) * | 2018-08-29 | 2021-08-20 | 昆明理工大学 | 一种基于卷积神经网络的图像融合方法 |
CN110717910A (zh) * | 2019-10-16 | 2020-01-21 | 姜通渊 | Ct图像目标检测方法及ct扫描仪 |
CN110717910B (zh) * | 2019-10-16 | 2020-09-08 | 太原华瑞星辰医药科技有限公司 | 基于卷积神经网络的ct图像目标检测方法及ct扫描仪 |
CN111311530A (zh) * | 2020-01-22 | 2020-06-19 | 西安电子科技大学 | 基于方向滤波器及反卷积神经网络的多聚焦图像融合方法 |
CN111311530B (zh) * | 2020-01-22 | 2022-03-04 | 西安电子科技大学 | 基于方向滤波器及反卷积神经网络的多聚焦图像融合方法 |
CN115769247A (zh) * | 2020-07-27 | 2023-03-07 | 华为技术有限公司 | 图像增强方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106327459B (zh) | 基于udct和pcnn的可见光与红外图像融合方法 | |
CN107194904B (zh) | 基于增补机制和pcnn的nsct域图像融合方法 | |
CN103400360A (zh) | 基于Wedgelet和NSCT的多源图像融合方法 | |
Liu et al. | Multi-modality medical image fusion based on image decomposition framework and nonsubsampled shearlet transform | |
CN106846289B (zh) | 一种红外光强与偏振图像融合方法 | |
CN104282007B (zh) | 基于非采样的轮廓波变换自适应的医学图像融合方法 | |
CN112163994B (zh) | 一种基于卷积神经网络的多尺度医学图像融合方法 | |
CN113837974B (zh) | 一种基于改进beeps滤波算法的nsst域电力设备红外图像增强方法 | |
CN109509160A (zh) | 一种利用逐层迭代超分辨率的分层次遥感图像融合方法 | |
CN106023200A (zh) | 一种基于泊松模型的x光胸片图像肋骨抑制方法 | |
CN103020933B (zh) | 一种基于仿生视觉机理的多源图像融合方法 | |
CN103295204B (zh) | 一种基于非下采样轮廓波变换的图像自适应增强方法 | |
CN109308691A (zh) | 基于图像增强与nsct的红外和可见光图像融合方法 | |
Tang et al. | MdedFusion: A multi-level detail enhancement decomposition method for infrared and visible image fusion | |
Yadav et al. | A review on image fusion methodologies and applications | |
CN116342444B (zh) | 一种双通道多模态图像融合方法及电子设备 | |
CN113298147A (zh) | 基于区域能量和直觉模糊集的图像融合方法及装置 | |
CN111815550A (zh) | 一种基于灰度共生矩阵的红外与可见光图像融合方法 | |
CN112669249A (zh) | 结合改进nsct变换和深度学习的红外与可见光图像融合方法 | |
CN115018728A (zh) | 基于多尺度变换和卷积稀疏表示的图像融合方法及系统 | |
CN112785539A (zh) | 基于图像自适应分解及参数自适应的多聚焦图像融合方法 | |
CN106485684B (zh) | 一种基于双树复小波变换的单幅图像去云雾方法 | |
Yang et al. | Infrared and visible image fusion based on QNSCT and Guided Filter | |
Li et al. | A novel medical image fusion approach based on nonsubsampled shearlet transform | |
CN103778615B (zh) | 基于区域相似性的多聚焦图像融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20131120 |