CN108399611A - 基于梯度正则化的多聚焦图像融合方法 - Google Patents
基于梯度正则化的多聚焦图像融合方法 Download PDFInfo
- Publication number
- CN108399611A CN108399611A CN201810092718.6A CN201810092718A CN108399611A CN 108399611 A CN108399611 A CN 108399611A CN 201810092718 A CN201810092718 A CN 201810092718A CN 108399611 A CN108399611 A CN 108399611A
- Authority
- CN
- China
- Prior art keywords
- formula
- image
- source images
- low frequency
- indicate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000004927 fusion Effects 0.000 claims abstract description 32
- 238000002156 mixing Methods 0.000 claims abstract description 15
- 230000014509 gene expression Effects 0.000 claims abstract description 11
- 239000011159 matrix material Substances 0.000 claims description 19
- 230000000694 effects Effects 0.000 claims description 14
- 238000005457 optimization Methods 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 6
- 230000015556 catabolic process Effects 0.000 claims description 3
- 230000009977 dual effect Effects 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 238000007500 overflow downdraw method Methods 0.000 abstract description 11
- 238000011156 evaluation Methods 0.000 abstract description 5
- 238000000354 decomposition reaction Methods 0.000 abstract description 3
- 230000004438 eyesight Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000007630 basic procedure Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000000574 ganglionic effect Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
针对多聚焦图像融合后图像细节保持能力有限,配准失调且敏感等问题,本发明提出一种基于梯度正则化多聚焦图像融合方法。首先,将源图像进行两尺度分解得到高频分量和低频分量;然后,将分解得到的高频分量利用梯度正则化的表示得到模型的稀疏系数并通过最大值策略获得融合后图像的高频分量,将两尺度分解得到低频分量利用取最大值融合策略得到低频分量;最后,将得到的融合后图像的高频分量和低频分量相加得到融合图像。相对其他三种融合方法,本发明不论在主观视觉和客观评价指标上还是在计算效率上,可以更好保留源图像的细节等纹理信息和显著性信息。
Description
技术领域
本发明属于图像处理领域,涉及一种基于梯度正则化的多聚焦图像融合方法,可以应用于各种军用或民用的图像处理系统。
背景技术
图像融合技术是将两幅或多幅图像中的信息提取出来,得到一幅信息更丰富的更适于视觉感知和计算机处理的图像技术,多聚焦融合是图像融合的一种。多聚焦图像融合是指将拍摄相同场景中多幅聚焦点不同的图像,融合成一幅比源图像都清晰的图像。多聚焦图像融合技术可以有效解决光学镜头的景深有限的问题,提高图像分割的精度,消除数据间的冗余信息。因此多聚焦图像融合技术的研究有着深远的意义。近些年,针对多聚焦图像融合技术,已有大量相关算法被相继提出并应用于多聚焦图像处理的各个方面。在多聚焦图像融合研究中,文献1“Multifocus image fusion using the nonsubsampledcontourlet transform[J].Zhang Q,Guo B L.Signal Processing,2009,89(7):1334-1346.”和文献2“Image fusion algorithm based on spatial frequency-motivatedpulse coupled neural networks in nonsubsampled contourlet transform domain[J].X B Qu,J W Yan,H Z Xiao,et al.Acta Automatica Sinica,2008,34(12):1508-1514.”提出了基于交叉双边滤波器、广义随机游动和马尔可夫随机场的多聚焦图像融合优化方法,虽然这些方法利用加权平均融合源图像来估计空域平滑和边缘对齐的权值,但是对于这种权值构造和全局优化方法可能会导致对比度降低、计算效率低下和权值的过平滑。此后为了减少建模负担和计算成本,学者们提出了许多基于稀疏表示图像融合的改进方法,文献3“Simultaneous image fusion and denoising with adaptive sparserepresentation[J].Liu Y,Wang Z.Image Processing Iet,2014,9(5):347-357.”然而基于稀疏表示的算法一直是基于局部图像块的而不是基于整个图像块的,上述方法出现问题:融合图像细节保持能力有限,配准失调有很高的敏感性。
发明内容
要解决的技术问题
针对多聚焦图像融合后图像细节保持能力有限,配准失调且敏感等问题,本发明提出一种基于梯度正则化多聚焦图像融合方法。
技术方案
一种基于梯度正则化的多聚焦图像融合方法,其特征在于步骤如下:
步骤1:两尺度图像分解
首先将源图像Ik分解为一个低频分量和一个高频分量所述的低频分量表征多聚焦图像中的对比度和亮度信息,高频分量反映图像中的细节信息;其中,低频分量通过优化方式求解获得:
式中:Ik表示输入的源图像,*表示卷积,η表示正则化参数,gx和gy分别表示沿图像行和列的梯度滤波器,gx=[-1 1],gy=[-1 1]T;对式(1)进行快速傅里叶变换,其变换后数学表达式如下:
利用二次优化可解得:
高频分量通过源图像Ik减去的逆傅立叶变化获得,如下式:
步骤2:高频分量的多聚焦图像融合方法
图像高频部分系数图为ck,m,m∈{1,2,...,M},通过求解如下正则化的表示模型获得:
式中:{dm}表示一组M个字典滤波器集,*表示卷积,{ck,m}表示高频部分系数图,{αm}表示一组l1范数的系数权重,{βm}表示一组l2范数的系数权重,λ和μ表示正则化参数,g0和g1分别表示沿图像行和列的梯度滤波器,这里g0=[-1 1],g1=[-1 1]T;
将式(5)利用梯度正则化的ADMM算法求解,定义线性算子Dm、Gl使DmCk,m=dm*ck,m,GlCk,m=gl*ck,m,式(5)的最后项可相互变换如下:
定义矩阵Γl
式(6)的最后项进一步可变换如下:
将式(5)进行傅里叶变换,其数学表达式如下:
式中:D、α和C分别为块矩阵,并引入一个辅助变量y0,y1,y2,将式(8)变换为:
利用对偶变量,引入拉格朗日乘子u0,u1和u2则通过迭代将式(9)的约束优化问题变为非约束优化问题形式:
u0 (j+1)=u0 (j)+C(j+1)-y0 (j+1) (12)
u1 (j+1)=u1 (j)+C(j+1)-y1 (j+1) (13)
u2 (j+1)=u2 (j)+C(j+1)-y2 (j+1) (14)
式(11)通过下式给出:
用DFT域中和分别表示Dm、Cm、Γ0、Γ1、y0、y1、y2、u0、u1、u2和ID,式(11)可变换为:
对(17)中求偏导数,并令偏导数为0,可解得:
式中:矩阵为由M个N×N对角矩阵组成,M为滤波器的维数,N为源图像的维数,为一个MN×MN维的对称矩阵,和分别为对角矩阵;采用谢尔曼-莫里森公式求解式(18)得到:
然后对进行逆傅里叶变换,求得ck,m;
假如ck,1:M(x,y)表示ck,m在空间域中位置(x,y)处的内容,ck,1:M(x,y)是一个M维向量,利用ck,1:M(x,y)的l1范数作为源图像的活动水平度量,则活动水平图Ak(x,y)通过如下表达式获得:
Ak(x,y)=||ck,1:M(x,y)||1 (20)
对Ak(x,y)利用基于窗口的平均策略以获得最终的活动水平图
式中:r决定窗口的大小,r的取值越大,这种方法对于图像配准误读会更加稳健,但是同时可能会丢失一些细小的细节,在多聚焦图像中,多个源图像中的物体边缘具有不同的清晰度,使得每个源图像的物体边缘位置不确切的相同,因此,相对较大的r更适合多聚焦图像融合;在多聚焦图像融合取“最大值策略”融合后的系数图为:
最后,融合图像的高频部分通过如下式被重构:
步骤3:低频分量的多聚焦图像融合方法
利用选择“最大融合策略”对源图像进行融合,其低频分量的融合结果表达式如下:
步骤4:两尺度图像重构低频分量的多聚焦图像融合方法
将得到的融合后的高频分量和低频分量进行重构得到融合后的图像,则
η取为5。
有益效果
本发明提出的一种基于梯度正则化多聚焦图像融合方法,解决多聚焦融合算法在图像细节保持上存在的缺点。根据多聚焦图像融合的实验结果证明了基于梯度正则化多聚焦算法优于传统多聚焦图像融合算法的优点。
附图说明
图1本发明方法的基本流程图
图2多聚焦源图像:(a)clock源图像;(b)Lab源图像;(c)Pepsi源图像;(d)Flower源图像;
图3多聚焦源图像融合结果图:(a1)clock源图像1;(a2)clock源图像2;(a3)文献1;(a4)文献2;(a5)文献3;(a6)本发明方法;(b1)Lab源图像1;(b2)Lab源图像2;(b3)文献1;(b4)文献2;(b5)文献3;(b6)本发明方法;(c1)Pepsi源图像1;(c2)Pepsi源图像2;(c3)文献1;(c4)文献2;(c5)文献3;(c6)本发明方法;(d1)Flower源图像1;(d2)Flower源图像;(d3)文献1;(d4)文献2;(d5)文献3;(d6)本发明方法。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
用于实施的硬件环境是:实验环境为CPU Intel Core i5-5200U@2.20GHz,内存为4GB,采用MATLAB R2014a编程。本发明采用多聚焦图像进行融合处理。
本发明方法的基本流程如附图1所示,实验源图像数据如附图2所示,具体实施如下:
步骤一:两尺度图像分解
首先将源图像Ik分解为一个低频分量和一个高频分量图像的低频分量主要是表征多聚焦图像中的对比度和亮度信息,高频分量主要反映图像中的细节信息。其中,低频分量通过优化方式求解获得:
式中:Ik表示输入的源图像,*表示卷积,η表示正则化参数,η取为5,表示源图像分解的低频部分,gx和gy分别表示沿图像行和列的梯度滤波器,gx=[-1 1],gy=[-1 1]T。式(1)进行快速傅里叶变换,其变换后数学表达式如下:
利用二次优化可解得:
高频分量可通过源图像Ik减去的逆傅立叶变化获得,如下式:
步骤二:高频分量的多聚焦图像融合方法
图像高频部分系数图为ck,m,m∈{1,2,...,M},通过求解如下正则化的表示模型获得:
式中:{dm}表示一组M个字典滤波器集,*表示卷积,{ck,m}表示高频部分系数图,{αm}表示一组l1范数的系数权重,{βm}表示一组l2范数的系数权重,Ik表示输入源图像的细节层,λ和μ表示正则化参数,g0和g1分别表示沿图像行和列的梯度滤波器,这里g0=[-1 1],g1=[-1 1]T。
将式(5)利用梯度正则化的ADMM算法求解。定义线性算子Dm、Gl使DmCk,m=dm*ck,m,GlCk,m=gl*ck,m,式(5)的最后项可相互变换如下:
定义矩阵Γl
式(6)的最后项进一步可变换如下:
将式(5)进行傅里叶变换,其数学表达式如下:
式中:D,α和C分别为块矩阵,并引入一个辅助变量y0,y1,y2,将式(8)变换为:
利用对偶变量,引入拉格朗日乘子u0,u1和u2则通过迭代将式(9)的约束优化问题变为非约束优化问题形式:
u0 (j+1)=u0 (j)+C(j+1)-y0 (j+1) (12)
u1 (j+1)=u1 (j)+C(j+1)-y1 (j+1) (13)
u2 (j+1)=u2 (j)+C(j+1)-y2 (j+1) (14)
式(11)通过下式给出:
用DFT域中和分别表示Dm、Cm、Γ0、Γ1、y0、y1、y2、u0、u1、u2和ID,式(11)可变换为:
对(17)中求偏导数,并令偏导数为0,可解得:
式中:矩阵为由M个N×N对角矩阵组成,M为滤波器的维数,N为源图像的维数,为一个MN×MN维的对称矩阵,和分别为对角矩阵。考虑到计算效率以及和ρI分别为对角矩阵,对于式(18)求解方法可用谢尔曼-莫里森公式求解求得:
然后对进行逆傅里叶变换,求得ck,m。
假如ck,1:M(x,y)表示ck,m在空间域中位置(x,y)处的内容,ck,1:M(x,y)是一个M维向量。利用ck,1:M(x,y)的l1范数作为源图像的活动水平度量。则活动水平图Ak(x,y)通过如下表达式获得:
Ak(x,y)=||ck,1:M(x,y)||1 (20)
对Ak(x,y)利用基于窗口的平均策略以获得最终的活动水平图
式中:r决定窗口的大小,r的取值越大,这种方法对于图像配准误读会更加稳健,但是同时可能会丢失一些细小的细节。在多聚焦图像中,多个源图像中的物体边缘具有不同的清晰度,使得每个源图像的物体边缘位置不确切的相同,因此,相对较大的r更适合多聚焦图像融合。在多聚焦图像融合取“最大值策略”融合后的系数图为:
最后,融合图像的高频部分通过如下式被重构:
步骤三:低频分量的多聚焦图像融合方法
低频部分主要是将图像中的光谱信息表示出来。对于多聚焦图像融合,由于细节存在于基本层中,因此对于多聚焦图像融合,利用“选择最大”融合策略对源图像进行融合,其低频分量的融合结果表达式如下:
步骤四:两尺度图像重构低频分量的多聚焦图像融合方法
将得到的融合后的高频分量和低频分量进行重构得到融合后的图像,则
下面结合附图2、附图3和附表1对本发明的效果做进一步描述。
附图2是五组多聚焦源图像。
1.实验条件
实验环境为CPU Intel Core i5-5200U@2.20GHz,内存为4GB,采用MATLAB R2014a编程。本发明采用多聚焦图像集(256×256)。
2.实验内容
附图3是多聚焦图像融合后图像的对比图。
将“Clock、“Lab”、“Pepsi”、“Flower”四组多聚焦图像(如图2)分别通过基于文献1方法、文献2方法、文献3方法及本发明方法获得的融合图像来验证本发明所提算法的有效性,其源图像和实验结果如图3四组多聚焦源图像及其不同融合方法结果图所示。
文献1-文献3的融合方法获得的融合图像大多一些问题,例如模糊效应,振铃效应和块效应,这些效应影响着融合图像的质量。尽管基于文献1方法具有多尺度分析的优点,但基于文献1方法获得的融合图像丢失部分边缘信息,图像中的聚焦区域的虚假轮廓是明显的,且融合图像出现严重的振铃伪影,使得聚焦区域的轮廓模糊,图像在视觉上产生不良影响。基于文献2融合方法虽然对融合后的图像在视觉上有了很大的改进,从源图像中提取更多的显著性特征,但是仍然使融合后的图像产生伪影现象,并且对弱边缘不敏感,不能准确的提取聚焦区域的边界信息,(如图3(a4)最上面的边缘,图3(b4)闹钟区域的边缘等)。基于文献3方法是基于局部图像块,容易产生块效应,在融合的图像中一些细节被平滑甚至丢失,(如图3(a5)右侧闹钟的左上角边缘等)。
相比之下,本发明所提出的方法的融合图像从源图像中最优地提取聚焦区域通过精确地定位聚焦区域的边界。从图3(a6)~(d6)可以看到聚焦区域轮廓清晰完整;此外,该方法获得的融合图像的对比度高于其他融合方法,融合区域与背景之间的过渡区域是自然的,在融合过程中引入了很少的人工影响,便于在复杂背景下识别不同目标。此外,该方法在不同融合场景中表现出较强的适应性,比基于多尺度的场景更具鲁棒性。总之,所提方法的融合图像比其他融合方法具有更好的视觉性能。
相比于以上人眼视觉分析的不确定性,本发明实验中引入图像互信息MI、信息结构相似度QY、峰值信噪比PSNR和边缘保持度QAB/F等客观评价指标对不同融合方法的性能进行定量评价。如表1四组多聚焦图像不同融合方法的客观评价指标所示,表1的定量结果有力的证明了本发明的融合算法在提取信息和空间一致性方面比对比融合方法更健壮,性能上也优于以上的融合方法,并且由表1中的综合客观评价值表明本发明融合算法获得的融合图像能够保留大量的聚焦信息,在一定程度上反映了所提算法的稳定性和可靠性。
表1多聚焦图像不同融合方法的客观评价指标
Claims (2)
1.一种基于梯度正则化的多聚焦图像融合方法,其特征在于步骤如下:
步骤1:两尺度图像分解
首先将源图像Ik分解为一个低频分量和一个高频分量所述的低频分量表征多聚焦图像中的对比度和亮度信息,高频分量反映图像中的细节信息;其中,低频分量通过优化方式求解获得:
式中:Ik表示输入的源图像,*表示卷积,η表示正则化参数,gx和gy分别表示沿图像行和列的梯度滤波器,gx=[-1 1],gy=[-1 1]T;对式(1)进行快速傅里叶变换,其变换后数学表达式如下:
利用二次优化可解得:
高频分量通过源图像Ik减去的逆傅立叶变化获得,如下式:
步骤2:高频分量的多聚焦图像融合方法
图像高频部分系数图为ck,m,m∈{1,2,...,M},通过求解如下正则化的表示模型获得:
式中:{dm}表示一组M个字典滤波器集,*表示卷积,{ck,m}表示高频部分系数图,{αm}表示一组l1范数的系数权重,{βm}表示一组l2范数的系数权重,λ和μ表示正则化参数,g0和g1分别表示沿图像行和列的梯度滤波器,这里g0=[-1 1],g1=[-1 1]T;
将式(5)利用梯度正则化的ADMM算法求解,定义线性算子Dm、Gl使DmCk,m=dm*ck,m,GlCk,m=gl*ck,m,式(5)的最后项可相互变换如下:
定义矩阵Γl
式(6)的最后项进一步可变换如下:
将式(5)进行傅里叶变换,其数学表达式如下:
式中:D、α和C分别为块矩阵,并引入一个辅助变量y0,y1,y2,将式(8)变换为:
利用对偶变量,引入拉格朗日乘子u0,u1和u2则通过迭代将式(9)的约束优化问题变为非约束优化问题形式:
u0 (j+1)=u0 (j)+C(j+1)-y0 (j+1) (12)
u1 (j+1)=u1 (j)+C(j+1)-y1 (j+1) (13)
u2 (j+1)=u2 (j)+C(j+1)-y2 (j+1) (14)
式(11)通过下式给出:
Sγ(u)=sign(u)⊙max(0,|u|-γ) (16)
用DFT域中和分别表示Dm、Cm、Γ0、Γ1、y0、y1、y2、u0、u1、u2和ID,式(11)可变换为:
对(17)中求偏导数,并令偏导数为0,可解得:
式中:矩阵为由M个N×N对角矩阵组成,M为滤波器的维数,N为源图像的维数,为一个MN×MN维的对称矩阵,和分别为对角矩阵;采用谢尔曼-莫里森公式求解式(18)得到:
然后对进行逆傅里叶变换,求得ck,m;
假如ck,1:M(x,y)表示ck,m在空间域中位置(x,y)处的内容,ck,1:M(x,y)是一个M维向量,利用ck,1:M(x,y)的l1范数作为源图像的活动水平度量,则活动水平图Ak(x,y)通过如下表达式获得:
Ak(x,y)=||ck,1:M(x,y)||1 (20)
对Ak(x,y)利用基于窗口的平均策略以获得最终的活动水平图
式中:r决定窗口的大小,r的取值越大,这种方法对于图像配准误读会更加稳健,但是同时可能会丢失一些细小的细节,在多聚焦图像中,多个源图像中的物体边缘具有不同的清晰度,使得每个源图像的物体边缘位置不确切的相同,因此,相对较大的r更适合多聚焦图像融合;在多聚焦图像融合取“最大值策略”融合后的系数图为:
最后,融合图像的高频部分通过如下式被重构:
步骤3:低频分量的多聚焦图像融合方法
利用选择“最大融合策略”对源图像进行融合,其低频分量的融合结果表达式如下:
步骤4:两尺度图像重构低频分量的多聚焦图像融合方法
将得到的融合后的高频分量和低频分量进行重构得到融合后的图像,则
2.根据权利要求1所述的一种基于梯度正则化的多聚焦图像融合方法,其特征在于η取为5。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810092718.6A CN108399611B (zh) | 2018-01-31 | 2018-01-31 | 基于梯度正则化的多聚焦图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810092718.6A CN108399611B (zh) | 2018-01-31 | 2018-01-31 | 基于梯度正则化的多聚焦图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108399611A true CN108399611A (zh) | 2018-08-14 |
CN108399611B CN108399611B (zh) | 2021-10-26 |
Family
ID=63095774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810092718.6A Active CN108399611B (zh) | 2018-01-31 | 2018-01-31 | 基于梯度正则化的多聚焦图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108399611B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109345496A (zh) * | 2018-09-11 | 2019-02-15 | 中国科学院长春光学精密机械与物理研究所 | 一种总变分和结构张量的图像融合方法及装置 |
CN109472805A (zh) * | 2018-10-09 | 2019-03-15 | 哈工大机器人(山东)智能装备研究院 | 一种基于傅里叶变换的红外图像自适应分层方法及系统 |
CN109559292A (zh) * | 2018-11-22 | 2019-04-02 | 西北工业大学 | 基于卷积稀疏表示的多模态图像融合方法 |
CN111275655A (zh) * | 2020-01-20 | 2020-06-12 | 上海理工大学 | 一种多聚焦多源图像融合方法 |
CN111429393A (zh) * | 2020-04-15 | 2020-07-17 | 四川警察学院 | 基于卷积弹性网络的多聚焦图像融合方法 |
CN111899208A (zh) * | 2020-08-11 | 2020-11-06 | 四川警察学院 | 基于卷积分析算子的多模态图像融合方法 |
CN112001870A (zh) * | 2020-08-11 | 2020-11-27 | 四川警察学院 | 基于卷积字典学习的可见光与红外图像融合方法 |
CN112102216A (zh) * | 2020-09-15 | 2020-12-18 | 南京邮电大学 | 自适应权重的全变差图像融合方法 |
WO2021017588A1 (zh) * | 2019-07-31 | 2021-02-04 | 茂莱(南京)仪器有限公司 | 一种基于傅立叶频谱提取的图像融合方法 |
CN112862734A (zh) * | 2021-01-27 | 2021-05-28 | 四川警察学院 | 一种使用卷积分析算子学习的多聚焦图像融合方法 |
CN116665615A (zh) * | 2023-07-27 | 2023-08-29 | 深圳市安立信电子有限公司 | 一种医用显示器控制方法、系统、设备及其存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101216936A (zh) * | 2008-01-18 | 2008-07-09 | 西安电子科技大学 | 基于成像机理与非采样Contourlet变换多聚焦图像融合方法 |
CN101853500A (zh) * | 2010-05-13 | 2010-10-06 | 西北工业大学 | 一种彩色多聚焦图像融合方法 |
CN102096913A (zh) * | 2011-01-25 | 2011-06-15 | 西安电子科技大学 | 压缩感知框架下的多策略图像融合方法 |
CN102393958A (zh) * | 2011-07-16 | 2012-03-28 | 西安电子科技大学 | 基于压缩感知的多聚焦图像融合方法 |
CN102789641A (zh) * | 2012-07-16 | 2012-11-21 | 北京市遥感信息研究所 | 基于图拉普拉斯的高光谱图像和红外图像融合方法 |
US20130223760A1 (en) * | 2012-02-29 | 2013-08-29 | Ningbo University | Microscopic image fusion method based on region growing |
US20140205204A1 (en) * | 2013-01-18 | 2014-07-24 | Nokia Corporation | Method and Apparatus for Image Fusion |
CN107194904A (zh) * | 2017-05-09 | 2017-09-22 | 西北工业大学 | 基于增补机制和pcnn的nsct域图像融合方法 |
CN107341786A (zh) * | 2017-06-20 | 2017-11-10 | 西北工业大学 | 小波变换与联合稀疏表示的红外与可见光图像融合方法 |
-
2018
- 2018-01-31 CN CN201810092718.6A patent/CN108399611B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101216936A (zh) * | 2008-01-18 | 2008-07-09 | 西安电子科技大学 | 基于成像机理与非采样Contourlet变换多聚焦图像融合方法 |
CN101853500A (zh) * | 2010-05-13 | 2010-10-06 | 西北工业大学 | 一种彩色多聚焦图像融合方法 |
CN102096913A (zh) * | 2011-01-25 | 2011-06-15 | 西安电子科技大学 | 压缩感知框架下的多策略图像融合方法 |
CN102393958A (zh) * | 2011-07-16 | 2012-03-28 | 西安电子科技大学 | 基于压缩感知的多聚焦图像融合方法 |
US20130223760A1 (en) * | 2012-02-29 | 2013-08-29 | Ningbo University | Microscopic image fusion method based on region growing |
CN102789641A (zh) * | 2012-07-16 | 2012-11-21 | 北京市遥感信息研究所 | 基于图拉普拉斯的高光谱图像和红外图像融合方法 |
US20140205204A1 (en) * | 2013-01-18 | 2014-07-24 | Nokia Corporation | Method and Apparatus for Image Fusion |
CN107194904A (zh) * | 2017-05-09 | 2017-09-22 | 西北工业大学 | 基于增补机制和pcnn的nsct域图像融合方法 |
CN107341786A (zh) * | 2017-06-20 | 2017-11-10 | 西北工业大学 | 小波变换与联合稀疏表示的红外与可见光图像融合方法 |
Non-Patent Citations (2)
Title |
---|
SHUTAO LI 等: "image fusion with guided filtering", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
YU LIU等: "Image Fusion With Convolutional Sparse Representation", 《IEEE SIGNAL PROCESSING LETTERS》 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109345496A (zh) * | 2018-09-11 | 2019-02-15 | 中国科学院长春光学精密机械与物理研究所 | 一种总变分和结构张量的图像融合方法及装置 |
CN109345496B (zh) * | 2018-09-11 | 2021-05-14 | 中国科学院长春光学精密机械与物理研究所 | 一种总变分和结构张量的图像融合方法及装置 |
CN109472805A (zh) * | 2018-10-09 | 2019-03-15 | 哈工大机器人(山东)智能装备研究院 | 一种基于傅里叶变换的红外图像自适应分层方法及系统 |
CN109472805B (zh) * | 2018-10-09 | 2020-10-02 | 哈工大机器人(山东)智能装备研究院 | 一种基于傅里叶变换的红外图像自适应分层方法及系统 |
CN109559292A (zh) * | 2018-11-22 | 2019-04-02 | 西北工业大学 | 基于卷积稀疏表示的多模态图像融合方法 |
WO2021017588A1 (zh) * | 2019-07-31 | 2021-02-04 | 茂莱(南京)仪器有限公司 | 一种基于傅立叶频谱提取的图像融合方法 |
CN111275655B (zh) * | 2020-01-20 | 2023-06-23 | 上海理工大学 | 一种多聚焦多源图像融合方法 |
CN111275655A (zh) * | 2020-01-20 | 2020-06-12 | 上海理工大学 | 一种多聚焦多源图像融合方法 |
CN111429393A (zh) * | 2020-04-15 | 2020-07-17 | 四川警察学院 | 基于卷积弹性网络的多聚焦图像融合方法 |
CN111899208A (zh) * | 2020-08-11 | 2020-11-06 | 四川警察学院 | 基于卷积分析算子的多模态图像融合方法 |
CN112001870A (zh) * | 2020-08-11 | 2020-11-27 | 四川警察学院 | 基于卷积字典学习的可见光与红外图像融合方法 |
CN112102216A (zh) * | 2020-09-15 | 2020-12-18 | 南京邮电大学 | 自适应权重的全变差图像融合方法 |
CN112102216B (zh) * | 2020-09-15 | 2022-08-12 | 南京邮电大学 | 自适应权重的全变差图像融合方法 |
CN112862734A (zh) * | 2021-01-27 | 2021-05-28 | 四川警察学院 | 一种使用卷积分析算子学习的多聚焦图像融合方法 |
CN116665615A (zh) * | 2023-07-27 | 2023-08-29 | 深圳市安立信电子有限公司 | 一种医用显示器控制方法、系统、设备及其存储介质 |
CN116665615B (zh) * | 2023-07-27 | 2023-11-14 | 深圳市安立信电子有限公司 | 一种医用显示器控制方法、系统、设备及其存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108399611B (zh) | 2021-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108399611A (zh) | 基于梯度正则化的多聚焦图像融合方法 | |
CN108830818B (zh) | 一种快速多聚焦图像融合方法 | |
Panigrahy et al. | Fractal dimension based parameter adaptive dual channel PCNN for multi-focus image fusion | |
Xu | Medical image fusion using multi-level local extrema | |
CN109685831B (zh) | 基于残差分层注意力和相关性滤波器的目标跟踪方法及系统 | |
Zhao et al. | Medical image fusion method based on dense block and deep convolutional generative adversarial network | |
CN106886977A (zh) | 一种多图自动配准及融合拼接方法 | |
CN109559292A (zh) | 基于卷积稀疏表示的多模态图像融合方法 | |
CN103020933B (zh) | 一种基于仿生视觉机理的多源图像融合方法 | |
CN112700390B (zh) | 一种基于机器学习的白内障oct图像修复方法及系统 | |
CN112288668B (zh) | 基于深度无监督密集卷积网络的红外和可见光图像融合方法 | |
CN106934761A (zh) | 一种三维非刚性光学相干断层扫描图像的配准方法 | |
CN108053398A (zh) | 一种半监督特征学习的黑色素瘤自动检测方法 | |
CN109584153A (zh) | 修饰眼部的方法、装置和系统 | |
CN103971329A (zh) | 一种基于遗传优化细胞神经网络的多源图像融合方法 | |
Zhang et al. | An image fusion method based on curvelet transform and guided filter enhancement | |
CN105913408A (zh) | 一种基于双边滤波器的多聚焦图像融合方法 | |
CN105809650B (zh) | 一种基于双向迭代优化的图像融合方法 | |
Li et al. | Speckle noise removal based on structural convolutional neural networks with feature fusion for medical image | |
Chen et al. | Three dimensional synthetic non-ellipsoidal nuclei volume generation using bezier curves | |
Luo et al. | Infrared and visible image fusion based on VPDE model and VGG network | |
Guo et al. | Multifeature extracting CNN with concatenation for image denoising | |
Avcı et al. | MFIF-DWT-CNN: Multi-focus ımage fusion based on discrete wavelet transform with deep convolutional neural network | |
Zhao et al. | Accurate MR image super-resolution via lightweight lateral inhibition network | |
Yang et al. | Hierarchical progressive network for multimodal medical image fusion in healthcare systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20190515 Address after: 710072 No. 127 Youyi West Road, Shaanxi, Xi'an Applicant after: Northwestern Polytechnical University Applicant after: XI'AN AISHENG TECHNOLOGY GROUP CO., LTD. Address before: 710072 No. 127 Youyi West Road, Shaanxi, Xi'an Applicant before: Northwestern Polytechnical University |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |