CN103400360A - 基于Wedgelet和NSCT的多源图像融合方法 - Google Patents

基于Wedgelet和NSCT的多源图像融合方法 Download PDF

Info

Publication number
CN103400360A
CN103400360A CN201310333665XA CN201310333665A CN103400360A CN 103400360 A CN103400360 A CN 103400360A CN 201310333665X A CN201310333665X A CN 201310333665XA CN 201310333665 A CN201310333665 A CN 201310333665A CN 103400360 A CN103400360 A CN 103400360A
Authority
CN
China
Prior art keywords
image
nsct
images
frequency
residual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201310333665XA
Other languages
English (en)
Inventor
周厚奎
其他发明人请求不公开姓名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang A&F University ZAFU
Original Assignee
Zhejiang A&F University ZAFU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang A&F University ZAFU filed Critical Zhejiang A&F University ZAFU
Priority to CN201310333665XA priority Critical patent/CN103400360A/zh
Publication of CN103400360A publication Critical patent/CN103400360A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种结合wedgelet变换与NSCT变换的多源图像融合方法,克服了基于NSCT变换的现有多源图像融合方法在图像特征和图像边缘提取上的不足,实现步骤为:(1)输入源图像;(2)wedgelet变换得到逼近图像;(3)逼近图像与源图像的差得到残留图像;(4)对逼近和残留图像分别进行NSCT变换;(5)低频子带系数融合;(6)高频方向子带系数融合;(7)NSCT逆变换得到重构图像;(8)逼近图像和残留图像求和;(9)输出融合图像。本发明利用wedgelet变换有效提取了图像的轮廓信息与特征信息,并将其利用到图像融合中,保留了更多源图像的有用信息,最终得到轮廓和特征信息更加显著的融合图像。

Description

基于Wedgelet和NSCT的多源图像融合方法
技术领域
本发明属于图像处理技术领域,更进一步涉及军事侦查领域,医学诊断领域中基于Wedgelet变换和NSCT结合的多源图像融合方法,可应用于多源图像融合,以获得一幅包含各源图像显著信息的复合图像。本发明用于提取图像特征领域可以获得更多的有用信息,减少了噪声的干扰,在医学诊断领域可以为更准确的医疗诊断提供清晰高质量的图像,尤其是对于CT和MR图像的特征提取效果显著。
背景技术
图像融合是将源自同一场景或目标的多幅图像合成一副崭新的图像,以获取对该场景或目标更为准确和全面的描述。图像融合技术已经应用在军事、遥感、医学图像处理、自动目标识别以及计算机视觉等领域。目前以NSCT变换等为代表的多分辨率、多尺度几何分析工具逐渐成为图像融合方法的研究热点之一,被广泛用于多源图像的融合。
da Cunha等提出了一种具有平移不变性的Contourlet变换, 即非下采样Contourlet变换,该变换通过使用迭代非下采样滤波器组来获得平移不变、多分辨、多方向的图像表示能力。张强,郭宝龙在文献“基于非采样Contourlet变换多传感器图像融合算法[J].自动化学报,2008,2(34):135-141.”中采用的基于简单NSCT算法的对比实验。该方法对多传感器图像采用NSCT变换进行分解,对低频子带系数采用加权平均法,高频方向子带系数采用绝对值取大的方法来选择系数,最后通过NSCT逆变换以得到融合后的图像。该方法提取的边缘特征不是很清晰,而且容易受到噪声的干扰,从而导致融合后图像边缘信息不够准确,影响到军事判断和医学诊断的准确性。
屈小波等在文献“Image Fusion Algorithm Based on Spatial Frequency-Motivated Pulse Coupled Neural Networks in Nonsubsampled Contourlet Transform Domain[J].ACTA AUTOMATICA SINICA,2008,34(12):1508-1414.”中提出了一种基于NSCT变换并采用SF(Spatial Frequency,空间频率)和PCNN(Pulse Coupled Neural Network,脉冲耦合神经网络)选取系数的方法。该方法对一组图像进行NSCT分解,先用SF选取系数,再对经过SF选取的系数通过PCNN选取系数,最终通过NSCT逆变换得到融合后图像。该方法因为NSCT变换具有平移不变、多分辨、多方向的图像表示能力,虽然可以获得良好的融合效果,但是融合后的图像仍然存在较小的细节信息的模糊问题,不利于军事判断和医学诊断的准确性。
在单一的基于wedgelet变换的图像融合技术中,先对图像进行wedgelet逼近得到逼近图像和残留图像,再通过系数的选择提取图像的特征信息,最终相加得到融合后的图像。该方法因为wedgelet变换具有良好的“线”和“面”的特性,能够逼近和平滑边缘信息,更有效的提取图像中需要保留的特征,但是融合后的图像残留了wedgelet变换过程中产生的n*n方块的边缘,会对军事判断和医学诊断的准确性产生影响。
综上所述,基于NSCT变换的图像融合方法在图像清晰度上虽然可以获得较好的效果,但对于多源图像的不同特征,不能很好的提取,并且在图像空间域的总体活跃程度上不是很活跃,所以基于NSCT变换的一系列的图像处理方法在图像压缩,去噪,融合等应用中,均不可避免出现细节位置上一定程度的模糊,并且从源图像上提取的信息量不够完全,对军事图像和医疗图像判断的准确性带来不良的影响。
发明内容
本发明的目的是针对现有技术基于NSCT变换的图像融合方法在图像细节位置上的模糊和图像活跃程度上的缺点,提出一种基于Wedgelet变换和NSCT结合的多源图像融合方法。本发明利用wedgelet良好的“线”和“面”的特性,能够逼近和平滑边缘信息,来提取图像中需要保留的特征。本发明将wedgelet提取到的线性特征信息参与到图像的融合过程中,以改善基于NSCT变换进行图像融合的效果,最终得到边缘细节特征更为明显的融合图像。
本发明实现的具体步骤包括如下:
    (1)输入源图像A和源图像B
    1a)将待融合的源图像A和源图像B分别存入计算机硬盘;
    1b)在计算机中应用matlab软件分别读取步骤1a)中存储在计算机硬盘空间中待融合的源图像A和源图像B;
    (2)wedgelet变换得到逼近图像
利用matlab软件分别对源图像A和源图像B进行wedgelet变换,得到逼近图像,并将两幅逼近图像存入内存;
(3)逼近图像与源图像的差得到残留图像
应用matlab软件读取源图像A和源图像B以及它们对应的逼近图像,源图像在像素上减去逼近图像得到残留图像,并将两幅残留图像分别存入内存;
    (4)对逼近和残留图像分别进行NSCT变换
利用matlab软件分别对两幅逼近图像和两幅残留图像进行NSCT变换,得到各自对应的低频子带系数和高频方向子带系数,并将这些系数存入内存;
    (5)低频子带系数融合
5a)应用matlab软件分别读取步骤(4)中两幅逼近图像和两幅残留图像的低频子带系数;
5b)计算低频系数像素点的领域能量特征,定义为该像素点的领域能量等于该点周围点像素的平方和;
5c)根据领域能量特征对对应的低频子带系数进行融合,选取像素点领域能量大的系数,得到融合后的逼近图像低频子带系数和残留图像的低频子带系数,并将其分别存入内存;
    (6)高频方向子带系数融合
6a)利用matlab软件分别读取步骤(4)中两幅逼近图像和两幅残留图像的高频方向子带系数;
6b)通过高频方向子带系数在像素点的绝对值,比较绝对值的大小;
6c)选取绝对值大的源高频方向子带系数,将融合后的逼近图像高频方向子带系数和残留图像的高频方向子带系数存入内存;
    (7)NSCT逆变换得到重构图像
利用matlab软件读取步骤5c)和步骤6c)中的逼近图像和残留图像的低频子带系数和高频方向子带系数,并分别进行NSCT逆变换得到重构后的逼近图像和残留图像;
    (8)逼近图像和残留图像求和
对步骤(7)中的逼近图像和残留图像进行像素级的相加,得到最终的融合图像;
    (9)输出融合图像。
与现有技术相比,本发明具有以下优点:
第一,本发明在NSCT变换之前,先应用wedgelet变换方法有效的提取图像的边缘信息,对图像进行逼近,从而更方便的利于NSCT变换保留图像的特征信息,克服了现有技术中难以有效提取图像特征信息的难题,由此本发明可以在图像中提取更多的特征信息,使得最终的融合图像中的特征信息更为丰富。
第二,本发明在利用wedgelet变换逼近图像,更利于提取图像的特征信息,减少了不被需要的信息的干扰,克服了现有技术中基于NSCT变换的图像融合方法在细节位置上存在一定程度模糊的不足,使得本发明最终得到边缘细节特征更为明显的融合图像。
第三,本发明在得到逼近图像的同时,保留了残留图像,使得源图像的信息得到充分的保留,同时对逼近图像和残留图像进行NSCT变换,克服了现有技术中图像信息容易丢失的难题并且消除了wedgelet变换中残留下来的方块痕迹,由此发明可以保留源图像的更多信息,使得最终的融合图像中保留源图像的更多信息。
附图说明
图1为本发明的流程图;
图2-图7为本发明坦克多源图像融合仿真图
图8-图13为本发明CT和MR多源图像融合仿真图
具体实施方式
参照图1,本发明具体实施方式如下:
步骤1,输入源图像A和源图像B
在计算机中应用matlab软件分别读取存储在计算机硬盘空间中待融合的源图像A和源图像B。
步骤2,wedgelet变换得到逼近图像
利用matlab软件分别对源图像A和源图像B进行wedgelet变换,得到逼近图像A1和B1,并将两幅逼近图像存入内存。
步骤3,逼近图像与源图像的差得到残留图像
应用matlab软件读取源图像A和源图像B以及它们对应的逼近图像A1和B1,源图像在像素上减去逼近图像得到残留图像A2和B2,并将两幅残留图像分别存入内存,残差图像计算公式为:
                                                 
步骤4,对逼近和残留图像分别进行NSCT变换
利用matlab软件分别对两幅逼近图像A1、B1和两幅残留图像A2、B2进行尺度为[0,2]的NSCT变换,得到各自对应的低频子带系数
Figure 932904DEST_PATH_IMAGE002
和高频方向子带系数
Figure DEST_PATH_IMAGE004A
Figure DEST_PATH_IMAGE006A
并将这些系数存入内存;
4a)将逼近图像A1、A2和残留图像B1、B2分别输入非下采样金字塔滤波器,经滤波分别得到低频子带系数
Figure 287924DEST_PATH_IMAGE007
和高频子带系数
Figure 176858DEST_PATH_IMAGE008
4b)将高频子带系数
Figure 737153DEST_PATH_IMAGE009
分别输入非下采样方向滤波器,经过滤波分别得到不同方向的高频方向子带系数
Figure 56270DEST_PATH_IMAGE010
Figure 334804DEST_PATH_IMAGE011
Figure 92676DEST_PATH_IMAGE012
Figure 258209DEST_PATH_IMAGE013
步骤5,低频子带系数融合
5a)应用matlab软件分别读取步骤4中两幅逼近图像和两幅残留图像的低频子带系数
Figure 263074DEST_PATH_IMAGE014
5b)计算低频系数像素点的领域能量特征,定义公式为该像素点的领域能量等于该点周围点像素的平方和:
Figure 511128DEST_PATH_IMAGE015
其中,s表示对应的图像,m,n分别表示图像像素的坐标,w表示图像的像素级,i,j为对应点(m,n)为中心的3*3矩阵外围8个点像素的坐标。
5c)根据领域能量特征对对应的低频子带系数进行融合,选取像素点领域能量大的系数,得到融合后的逼近图像低频子带系数和残留图像的低频子带系数
Figure 279681DEST_PATH_IMAGE017
,并将其分别存入内存,系数选取的公式为:
Figure 2918DEST_PATH_IMAGE018
其中
Figure 990465DEST_PATH_IMAGE019
为图像A,B,F对应的逼近图像和残留图像低频子带系数。
步骤6,高频方向子带系数融合
6a)利用matlab软件分别读取步骤4中两幅逼近图像和两幅残留图像的高频方向子带系数
Figure 27822DEST_PATH_IMAGE020
Figure 227335DEST_PATH_IMAGE021
6b)通过高频方向子带系数在像素点的绝对值,比较绝对值的大小;
6c)选取绝对值大的源高频方向子带系数得到融合后的高频方向子带系数
Figure 574003DEST_PATH_IMAGE022
,将融合后的逼近图像高频方向子带系数和残留图像的高频方向子带系数存入内存,选取高频方向子带系数的公式如下:
Figure 624316DEST_PATH_IMAGE024
其中,
Figure 618947DEST_PATH_IMAGE025
为图像A,B,F相应的高频子带系数。
步骤7,NSCT逆变换得到重构图像
利用matlab软件读取步骤5c)和步骤6c)中的逼近图像和残留图像的低频子带系数和高频方向子带系数,并分别进行NSCT逆变换得到重构后的逼近图像FA和残留图像FB;
    步骤8,逼近图像和残留图像求和
对步骤7中的逼近图像FA和残留图像FB进行像素级的相加,得到最终的融合图像,公式为:
步骤9,输出融合图像F。
本发明的效果可以通过以下仿真进一步说明。
仿真1,对本发明中坦克多源图像融合方法的仿真。
仿真1仿真条件是在MATLAB R2009a软件下进行。
参照图2-图7,对常用的坦克图像,大小为256*256,256级灰度的2幅图像不同聚焦点的图像进行仿真实验。由图2为右边被烟遮住图像;图3为左边被烟遮住图像;图4为简单NSCT融合方法得到的图像;图5为基于NSCT-SF-PCNN方法得到的图像;图6为wedgelet图像融合方法得到的图像,其中逼近图像像素值取小,残留图像像素值取大;图7是基于本发明提出方法得到的融合图像。
通过观察各方法融合以后的图像发现,图4坦克仍有淡淡的烟雾,图5得到的坦克图像仍然有小块的烟雾遮掩,图6 wedgelet变换后坦克的特征明显,但细节比较模糊,而且残留有wedgelet变换后的方块痕迹,而本发明的方法不仅消除了烟雾,而且没有wedgelet残留的边框,更没有对边景产生干扰,无论是在细节上还是特征提取上都体现了明显的优势,得到了最优的融合结果。分别对几种方法得到的融合图像计算以下几个融合图像的评价参数:熵(Entrory)、空间频率(SF)、综合互信息(MIFAB)、综合质量因素()、非交叠互信息(IFPM)。
(1)熵是衡量图像信息丰富程度的一个重要指标,计算公式为:
Figure 477816DEST_PATH_IMAGE028
其中,
Figure 347462DEST_PATH_IMAGE029
为灰度等于g的像素与图像总的像素的比值。
(2)空间频率反映了一幅图像空间域的总体活跃程度,定义公式为:
其中C和R分别为行频和列频:
Figure DEST_PATH_IMAGE032A
Figure 49150DEST_PATH_IMAGE033
为图像大小,f(i,j)就是图像点(i,j)的像素值。
(3)综合质量因素反映了融合后图像的图像质量,定义公式为:
Figure 963492DEST_PATH_IMAGE034
上式中,
Figure 181984DEST_PATH_IMAGE035
为源图像A,B的归一化联合灰度直方图,
Figure 792088DEST_PATH_IMAGE036
表示融合图像F与源图像A,B的归一化联合灰度直方图。
(4)综合互信息反映原图与融合图像之间的相互信息,定义公式为:
Figure 463241DEST_PATH_IMAGE037
式中,F代表融合图像, 
Figure 449782DEST_PATH_IMAGE038
,输入图像对融合图像A,B的重要程度,
Figure 522781DEST_PATH_IMAGE039
。这里用源图像的信息熵H代表图像的重要程度:
Figure 303786DEST_PATH_IMAGE040
式中:L表示图像的灰度值,p表示灰度值为i的像素出现的概率。
(5)非交叠互信息反映的是融合以前图像转移到融合图像中的信息量大小,定义公式为:
Figure 462235DEST_PATH_IMAGE041
其中,H表示源图像的信息熵,C1指源图像转移融合图像中信息量的总和,定义为:
Figure 780696DEST_PATH_IMAGE042
其中:I表示信息量,X为源图像,Y为融合图像。
    最终数据如表1所示。
表1 图像融合性能评价指标
 从表1的客观评价测度值可以看出,本发明提出的方法优于其他方法的融合结果,熵越大说明融合图像的信息量越大,空间频率越大说明图像空间域的总体活跃程度越高,综合互信息越大说明原图与融合图像之间的相互信息越多,综合质量因素越大了融合后图像的图像质量越好,非交叠互信息越大说明融合以前图像转移到融合图像中的信息量越大,表1的参数表明本发明有效的保留了各源图像的有用信息。
仿真2,对本发明中CT医学图像和MR医学图像融合方法的仿真。
仿真2仿真条件是在MATLAB R2009a软件下进行。
参照图8-图13,对CT图像和MR图像进行仿真实验。图8为CT图像,图中为人头切面的骨骼图;图9为MR图像,图中为人头切面的肌肉图;图10为简单NSCT融合方法得到的图像;图11为基于NSCT-SF-PCNN方法得到的图像;图12为wedgelet图像融合方法得到的图像,其中逼近图像像素值取大,残留图像像素值取大;图13是基于本发明提出方法得到的融合图像。
从图10可以看出图像的边缘存在较多的噪声,细节部分比较模糊;从图11可以看出初相的边缘存在较多噪声,部分MR图像特征丢失;从图12可以看出图像边缘的噪声较少,但是其属于CT图像的骨骼还是MR图像的肌肉分辨不清,部分位置发生重叠,模糊不清;从图13可以看出图像边缘的噪声较少,而且各部分细节清晰,特征明显,保留了较多源图像的有用信息。
    从各仿真实验的融合结果可以看出,本发明方法在完整提取图像特征的同时,较好的消除了图像的噪声,得到了全局清晰的融合图像,从而达到了图像融合的目的,与其他融合方法相比,本发明方法对于具有特征的多源图像具有相似或更好的效果。 

Claims (6)

1. 一种基于Wedgelet变换和NSCT结合的多源图像融合方法,包括如下步骤:
(1)输入源图像A和源图像B
1a)将待融合的源图像A和源图像B分别存入计算机硬盘;
1b)在计算机中应用matlab软件分别读取步骤1a)中存储在计算机硬盘空间中待融合的源图像A和源图像B;
(2)wedgelet变换得到逼近图像
利用matlab软件分别对源图像A和源图像B进行wedgelet变换,得到逼近图像,并将两幅逼近图像存入内存;
(3)逼近图像与源图像的差得到残留图像
应用matlab软件读取源图像A和源图像B以及它们对应的逼近图像,源图像在像素上减去逼近图像得到残留图像,并将两幅残留图像分别存入内存;
(4)对逼近和残留图像分别进行NSCT变换
利用matlab软件分别对两幅逼近图像和两幅残留图像进行NSCT变换,得到各自对应的低频子带系数和高频方向子带系数,并将这些系数存入内存;
(5)低频子带系数融合
5a)应用matlab软件分别读取步骤(4)中两幅逼近图像和两幅残留图像的低频子带系数;
5b)计算低频系数像素点的领域能量特征,定义为该像素点的领域能量等于该点周围点像素的平方和;
5c)根据领域能量特征对对应的低频子带系数进行融合,选取像素点领域能量大的系数,得到融合后的逼近图像低频子带系数和残留图像的低频子带系数,并将其分别存入内存;
6)高频方向子带系数融合
6a)利用matlab软件分别读取步骤(4)中两幅逼近图像和两幅残留图像的高频方向子带系数;
6b)通过高频方向子带系数在像素点的绝对值,比较绝对值的大小;
6c)选取绝对值大的源高频方向子带系数,将融合后的逼近图像高频方向子带系数和残留图像的高频方向子带系数存入内存;
(7)NSCT逆变换得到重构图像
利用matlab软件读取步骤5c)和步骤6c)中的逼近图像和残留图像的低频子带系数和高频方向子带系数,并分别进行NSCT逆变换得到重构后的逼近图像和残留图像;
(8)逼近图像和残留图像求和
对步骤(7)中的逼近图像和残留图像进行像素级的相加,得到最终的融合图像;
(9)输出融合图像。
2.根据权利要求1所述的基于Wedgelet变换和NSCT结合的多源图像融合方法,其特征在于:步骤(2)中wedgelet基为4*4的矩阵块,惩罚因子为1。
3.根据权利要求1所述的基于Wedgelet变换和NSCT结合的多源图像融合方法,其特征在于:步骤(4)中NSCT变换尺度为[0,2]。
4.根据权利要求1所述的基于Wedgelet变换和NSCT结合的多源图像融合方法,其特征在于:步骤5b)所述的领域能量特征按照下列公式计算得到:
其中,s表示对应的图像,m,n分别表示图像像素的坐标,w表示图像的像素级,i,j为对应点(m,n)为中心的3*3矩阵外围8个点像素的坐标。
5.根据权利要求1所述的基于Wedgelet变换和NSCT结合的多源图像融合方法,其特征在于:步骤5c)所述低频子带系数按照下列公式选取得到:
Figure 201310333665X100001DEST_PATH_IMAGE004
其中
Figure 201310333665X100001DEST_PATH_IMAGE006
为图像A,B,F对应的逼近图像和残留图像低频子带系数。
6.根据权利要求1所述的基于Wedgelet变换和NSCT结合的多源图像融合方法,其特征在于:步骤6b)和6c)中所述的高频方向子带系数按照下列公式选取得到:   
Figure 201310333665X100001DEST_PATH_IMAGE008
其中,
Figure 201310333665X100001DEST_PATH_IMAGE010
为相应的高频子带系数。
CN201310333665XA 2013-08-03 2013-08-03 基于Wedgelet和NSCT的多源图像融合方法 Pending CN103400360A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310333665XA CN103400360A (zh) 2013-08-03 2013-08-03 基于Wedgelet和NSCT的多源图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310333665XA CN103400360A (zh) 2013-08-03 2013-08-03 基于Wedgelet和NSCT的多源图像融合方法

Publications (1)

Publication Number Publication Date
CN103400360A true CN103400360A (zh) 2013-11-20

Family

ID=49563972

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310333665XA Pending CN103400360A (zh) 2013-08-03 2013-08-03 基于Wedgelet和NSCT的多源图像融合方法

Country Status (1)

Country Link
CN (1) CN103400360A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318532A (zh) * 2014-10-23 2015-01-28 湘潭大学 一种结合压缩感知的二次图像融合方法
CN104809734A (zh) * 2015-05-11 2015-07-29 中国人民解放军总装备部军械技术研究所 一种基于引导滤波的红外图像与可见光图像融合的方法
CN108564559A (zh) * 2018-03-14 2018-09-21 北京理工大学 一种基于两尺度聚焦图的多聚焦图像融合方法
CN109272024A (zh) * 2018-08-29 2019-01-25 昆明理工大学 一种基于卷积神经网络的图像融合方法
CN110717910A (zh) * 2019-10-16 2020-01-21 姜通渊 Ct图像目标检测方法及ct扫描仪
CN111311530A (zh) * 2020-01-22 2020-06-19 西安电子科技大学 基于方向滤波器及反卷积神经网络的多聚焦图像融合方法
CN115769247A (zh) * 2020-07-27 2023-03-07 华为技术有限公司 图像增强方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1588447A (zh) * 2004-08-19 2005-03-02 复旦大学 基于残差的遥感图像融合方法
CN101303764A (zh) * 2008-05-16 2008-11-12 西安电子科技大学 基于非下采样轮廓波的多传感器图像自适应融合方法
CN101546428A (zh) * 2009-05-07 2009-09-30 西北工业大学 基于区域分割的序列红外与可见光图像融合

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1588447A (zh) * 2004-08-19 2005-03-02 复旦大学 基于残差的遥感图像融合方法
CN101303764A (zh) * 2008-05-16 2008-11-12 西安电子科技大学 基于非下采样轮廓波的多传感器图像自适应融合方法
CN101546428A (zh) * 2009-05-07 2009-09-30 西北工业大学 基于区域分割的序列红外与可见光图像融合

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JUNYING LIU ET AL.: "Image Fusion Based on Wedgelet and Wavelet", 《PROCEEDINGS OF 2007 INTERNATIONAL SYMPOSIUM ON INTELLIGENT SIGNAL PROCESSING AND COMMUNICATION SYSTEMS》, 1 December 2007 (2007-12-01), pages 682 - 685 *
胡俊峰: "像素级图像融合及应用研究", 《中国博士学位论文全文数据库信息科技辑》, 15 June 2011 (2011-06-15), pages 50 - 59 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318532A (zh) * 2014-10-23 2015-01-28 湘潭大学 一种结合压缩感知的二次图像融合方法
CN104318532B (zh) * 2014-10-23 2017-04-26 湘潭大学 一种结合压缩感知的二次图像融合方法
CN104809734A (zh) * 2015-05-11 2015-07-29 中国人民解放军总装备部军械技术研究所 一种基于引导滤波的红外图像与可见光图像融合的方法
CN104809734B (zh) * 2015-05-11 2018-07-27 中国人民解放军总装备部军械技术研究所 一种基于引导滤波的红外图像与可见光图像融合的方法
CN108564559B (zh) * 2018-03-14 2021-07-20 北京理工大学 一种基于两尺度聚焦图的多聚焦图像融合方法
CN108564559A (zh) * 2018-03-14 2018-09-21 北京理工大学 一种基于两尺度聚焦图的多聚焦图像融合方法
CN109272024A (zh) * 2018-08-29 2019-01-25 昆明理工大学 一种基于卷积神经网络的图像融合方法
CN109272024B (zh) * 2018-08-29 2021-08-20 昆明理工大学 一种基于卷积神经网络的图像融合方法
CN110717910A (zh) * 2019-10-16 2020-01-21 姜通渊 Ct图像目标检测方法及ct扫描仪
CN110717910B (zh) * 2019-10-16 2020-09-08 太原华瑞星辰医药科技有限公司 基于卷积神经网络的ct图像目标检测方法及ct扫描仪
CN111311530A (zh) * 2020-01-22 2020-06-19 西安电子科技大学 基于方向滤波器及反卷积神经网络的多聚焦图像融合方法
CN111311530B (zh) * 2020-01-22 2022-03-04 西安电子科技大学 基于方向滤波器及反卷积神经网络的多聚焦图像融合方法
CN115769247A (zh) * 2020-07-27 2023-03-07 华为技术有限公司 图像增强方法及装置

Similar Documents

Publication Publication Date Title
CN106327459B (zh) 基于udct和pcnn的可见光与红外图像融合方法
CN107194904B (zh) 基于增补机制和pcnn的nsct域图像融合方法
CN103400360A (zh) 基于Wedgelet和NSCT的多源图像融合方法
Liu et al. Multi-modality medical image fusion based on image decomposition framework and nonsubsampled shearlet transform
CN106846289B (zh) 一种红外光强与偏振图像融合方法
CN104282007B (zh) 基于非采样的轮廓波变换自适应的医学图像融合方法
CN112163994B (zh) 一种基于卷积神经网络的多尺度医学图像融合方法
CN113837974B (zh) 一种基于改进beeps滤波算法的nsst域电力设备红外图像增强方法
CN109509160A (zh) 一种利用逐层迭代超分辨率的分层次遥感图像融合方法
CN106023200A (zh) 一种基于泊松模型的x光胸片图像肋骨抑制方法
CN103020933B (zh) 一种基于仿生视觉机理的多源图像融合方法
CN103295204B (zh) 一种基于非下采样轮廓波变换的图像自适应增强方法
CN109308691A (zh) 基于图像增强与nsct的红外和可见光图像融合方法
Tang et al. MdedFusion: A multi-level detail enhancement decomposition method for infrared and visible image fusion
Yadav et al. A review on image fusion methodologies and applications
CN116342444B (zh) 一种双通道多模态图像融合方法及电子设备
CN113298147A (zh) 基于区域能量和直觉模糊集的图像融合方法及装置
CN111815550A (zh) 一种基于灰度共生矩阵的红外与可见光图像融合方法
CN112669249A (zh) 结合改进nsct变换和深度学习的红外与可见光图像融合方法
CN115018728A (zh) 基于多尺度变换和卷积稀疏表示的图像融合方法及系统
CN112785539A (zh) 基于图像自适应分解及参数自适应的多聚焦图像融合方法
CN106485684B (zh) 一种基于双树复小波变换的单幅图像去云雾方法
Yang et al. Infrared and visible image fusion based on QNSCT and Guided Filter
Li et al. A novel medical image fusion approach based on nonsubsampled shearlet transform
CN103778615B (zh) 基于区域相似性的多聚焦图像融合方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20131120