CN104036481A - 一种基于深度信息提取的多聚焦图像融合方法 - Google Patents

一种基于深度信息提取的多聚焦图像融合方法 Download PDF

Info

Publication number
CN104036481A
CN104036481A CN201410298036.2A CN201410298036A CN104036481A CN 104036481 A CN104036481 A CN 104036481A CN 201410298036 A CN201410298036 A CN 201410298036A CN 104036481 A CN104036481 A CN 104036481A
Authority
CN
China
Prior art keywords
image
formula
partiald
depth
centerdot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410298036.2A
Other languages
English (en)
Other versions
CN104036481B (zh
Inventor
肖进胜
钱超
邹白昱
洪羽萌
涂超平
杜康华
鄢煜尘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201410298036.2A priority Critical patent/CN104036481B/zh
Publication of CN104036481A publication Critical patent/CN104036481A/zh
Application granted granted Critical
Publication of CN104036481B publication Critical patent/CN104036481B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明属于图像处理技术领域,涉及一种基于深度信息提取的多聚焦图像融合方法,广泛应用于目标识别,显微成像,军事作战,机器视觉等领域。本发明首先利用各向异性热扩散理论建模多聚焦图像的成像过程,获取原始的多聚焦图像的深度信息,根据图像信息确定聚焦区域,得到多聚焦图像融合模板,最后根据平滑的多层次融合模板图进行多聚焦图像的融合。本方法不仅能够有效的提高融合图像的质量,并且具有良好的实用性和广泛的适用性。

Description

一种基于深度信息提取的多聚焦图像融合方法
技术领域
本发明涉及一种多聚焦图像融合方法,尤其是涉及一种基于深度信息提取的多聚焦图像融合方法。
背景技术
光学镜头在进行光学成像的过程中,由于光学成像系统的聚焦范围有限,会使处于聚焦区域外的物体成像模糊.而多聚焦图像融合能够对聚焦区域不同的多个图像进行融合处理,合成清晰图像,改善视觉效果.目前多聚焦图像融合已在目标识别,显微成像,军事作战,机器视觉等领域得到了广泛应用.多聚焦图像融合的方法主要分为两类:基于空间域的方法和基于变换域的方法。
基于空间域的方法主要依据图像像素的空间特征信息对图像进行融合处理.由于单像素无法表示图像空间特征信息,一般采用分块的方法,然后计算出每个小块的清晰度,以此来进行图像融合的处理,该方法对于区域细节丰富的图像有较好的处理效果,但是对平坦区域的处理容易造成误判,分块的大小也难以选择,计算量较大,并且会使图像边缘出现不连续的小块,产生严重的块效应。
而基于变换域的方法则是将图像进行某种变换,然后进行融合处理。基于金字塔变换的多聚焦图像融合算法是一种经典的图像融合算法,能够得到不错的融合效果,但是处理过程复杂并且容易丢失图像细节信息。小波变换由于其良好的时域和频域局部特性以及多分辨特性在图像融合领域也有广泛应用,但其有限的方向分解性并不能很好的提取出图像特征。于是,近几年多尺度几何分析的方法被人们广泛应用于多聚焦图像融合领域,如脊波(Ridgelet),曲线波(Curelet),轮廓波(Contourlet),剪切波(Shearlet)等.Ridgelet变换是一种非自适应的高维函数表示方法,对含直线奇异的多变量函数能够达到最优的逼近阶;Curvelet变换能够很好的对封闭曲线进行逼近;Contourlet变换继承了Curvelet变换的各向异性尺度关系;Shearlet变换在频率域上具有紧支撑性,局部特性较好。基于频域的方法很大程度上可以解决空间域算法中块效应的问题,但是它无法直接提取多聚焦源图像中的清晰像素点,需要通过反变换来进行融合图像的重构,对源清晰图像的信息保留较少,并且会因为多尺度下对应融合系数的来源不一致而产生伪Gibbs现象,使处理后的图像边缘出现虚假轮廓,纹理等人工效应。
发明内容
本发明主要是解决现有技术所存在的技术问题;提供了一种能够消除边缘的块效应,抑制虚假边缘等人工副效应的产生,尽可能多地保留原始图像的信息,维持图像清晰度,提高融合图像的质量的一种基于深度信息提取的多聚焦图像融合方法。
本发明的上述技术问题主要是通过下述技术方案得以解决的:
一种基于深度信息提取的多聚焦图像融合方法,其特征在于,包括以下步骤:
步骤1:采集一组多聚焦图像,该多聚焦图像是同一场景下分别聚焦于前景、背景的一组多聚焦图像;
步骤2:利用各向异性热扩散理论建模多聚焦图像的成像过程,获取步骤1中采集的原始的多聚焦图像的深度信息,该深度信息的提取基于带有正则化项的能量泛函极值求取,并通过迭代获得场景的深度信息;包括以下子步骤:
步骤2.1:获取拍摄多聚焦图像的相机的标定参数,并设定阈值ε,虚拟时间Δt,正则化参数α,步长β以及迭代次数Nit;相机的标定参数包括焦距f,象距v1和v2,镜头孔径D,相机参数γ;
步骤2.2:初始化深度信息此时图像中每个点的初始深度值均为此值;其中y是图像二维坐标;
步骤2.3:依据深度信息,计算相应的扩散系数c(y)和扩散区域Ω+、Ω-;
c ( y ) = γ 2 D 2 8 Δt ( v 2 2 ( 1 f - 1 v 2 - 1 s ( y ) ) 2 - v 1 2 ( 1 f - 1 v 1 - 1 s ( y ) ) 2 ) 式2.1
步骤2.4:利用步骤2.3中获得的参数模拟如下的两个图像前向热扩散方程;
∂ u ( y , t ) ∂ t = ▿ · ( c ( y ) ▿ u ( y , t ) ) , y ∈ Ω + t ∈ ( 0 , ∞ ) u ( y , 0 ) = I 1 ( y ) , ∀ ( y ) ∈ Ω + 式2.2
∂ u ( y , t ) ∂ t = ▿ · ( c ( y ) ▿ u ( y , t ) ) , y ∈ Ω - t ∈ ( 0 , ∞ ) u ( y , 0 ) = I 2 ( y ) , ∀ ( y ) ∈ Ω - 式2.3
式中,I1(y)是输入图像A,I2(y)是输入图像B,扩散系数 c ( y ) = σ 2 2 ( y ) - σ 1 2 ( y ) 2 t , ▽是梯度算子 ∂ u ∂ y 1 ∂ u ∂ y 2 T , ▽.是散度算子
步骤2.5:分别求解步骤2.4中的热扩散方程式2.2和式2.3,得到各自经过Δt的热扩散图像u1(y,Δt),u2(y,Δt),然后用来模拟如下热扩散抛物线方程;
∂ w 1 ( y , t ) ∂ t = ▿ · ( c ( y ) ▿ w 1 ( y , t ) ) t ∈ ( 0 , ∞ ) w 1 ( y , 0 ) = u 1 ( y , Δt ) - I 2 ( y ) ∀ y ∈ ∂ Ω + 式2.4
∂ w 2 ( y , t ) ∂ t = ▿ · ( - c ( y ) ▿ w 2 ( y , t ) ) t ∈ ( 0 , ∞ ) w 2 ( y , 0 ) = u 2 ( y , Δt ) - I 1 ( y ) ∀ y ∈ ∂ Ω - 式2.5
步骤2.6:由于步骤2.4图像前向热扩散方程得到解不唯一,导致w1(y,Δt)和w2(y,Δt)不唯一,为了得到使w1(y,Δt)和w2(y,Δt)最小的热扩散方程的解,因此采用约束条件:
s ^ = arg min s ( E 1 ( s ) + E 2 ( s ) ) 式2.6
式中:
E1(s)=∫H(c(y))|u(y,Δt)-I2(y)|2dy 式2.7
E2(s)=∫H(-c(y))|u(y,Δt)-I1(y)|2dy 式2.8
得到步骤2.5中的方程的唯一解:w1(y,Δt)和w2(y,Δt);
步骤2.7,对式2.6求梯度有:
∂ s ∂ τ = - M ( s ) ( E 1 ′ ( s ) + E 2 ′ ( s ) ) 式2.9
在式2.9中,
E 1 ′ ( s ) = ( - 2 H ( c ( y ) ) ∫ 0 Δt ▿ u ( y , t ) · ▿ w 1 ( y , Δt - t ) dt + δ ( c ( y ) ) ( u 1 ( y , Δt ) - I 2 ( y ) ) 2 ) · c ′ ( s ) 式2.10
E 2 ′ ( s ) = ( 2 H ( - c ( y ) ) ∫ 0 Δt ▿ u ( y , t ) · ▿ w 2 ( y , Δt - t ) dt + δ ( c ( y ) ) ( u 2 ( y , Δt ) - I 1 ( y ) ) 2 ) · c ′ ( s ) 式2.11
上述各式中,H(·)表示Heaviside函数(单位阶跃函数),δ(·)表示Dirac函数(单位冲激函数).u1(y,Δt)和u2(y,Δt)是求解步骤2.6的方程得到的,w1(y,Δt)和w2(y,Δt)是求解步骤2.6的方程得到的,c'(s)是热扩散系数的梯度值,由式2.1计算得到为:
c ′ ( s ) = γ 2 D 2 ( v 2 - v 1 ) 4 s 2 Δt [ ( v 1 + v 2 ) · ( 1 F - 1 s ) - 1 ] 式2.12
M(s)的计算公式如下:
M ( s ) = 1 2 [ H ( c ( y ) ) · I 2 ( y ) · u 1 ′ ( y , Δt ) + H ( - c ( y ) ) · I 1 ( y ) · u 2 ′ ( y , Δt ) ] 式2.13
步骤2.8:将计算式2.9得到的结果记作然后与事先设定的阈值比较;
比较结果一:若data_reg≤ε,则该点的深度估计较准,无需修正;
比较结果二:若data_reg>ε,则该点的深度值估计不准,需要进行深度值的修正;
步骤2.9:对步骤2.8中需要修正的深度值进行一定时间步长β的修正,即对深度修正1/β次,并更新深度图;其修正公式如下:
E′3(s)=-2αΔs(y)+2ακs(y) 式2.14
因此加上步骤2.8中计算出来的data_reg可以得到单位步长内修正后的深度s'(y):
s'(y)=s(y)-(data_reg+2ακs(y)-2αΔs(y)) 2.15
将深度值s(y)迭代基于式2.15执行1/β次,得到最终修正后的深度值;
步骤2.10:将每个点得到的修正后的深度值作为更新的深度值返回步骤2.3替换上一次深度值继续执行,直至迭代次数Nit后结束;
步骤3:根据深度信息确定聚焦区域,得到多聚焦图像融合模板,具体是根据提取出的深度用256个等级的灰度图表示,规定灰度值越小,即图像越暗,表示离拍摄者越近,给定阈值分割深度图来确定聚焦区域
步骤4:根据平滑的多层次融合模板进行多聚焦图像的融合。
在上述的一种基于深度信息提取的多聚焦图像融合方法,所述步骤3中,根据步骤2得到的最终的深度信息确定聚焦区域,得到多聚焦图像融合模板包括以下步骤:
步骤3.1:根据步骤2得到的最终的深度信息按照下式分别确定两幅图的聚焦区域,得到初步的图像融合模版;
Mask ( i , j ) = 1 , s ( i , j ) < Th _ low 0 , s ( i , j ) > Th _ high s ( i , j ) - Th _ low Th _ high - Th _ low , otherwise ;
其中,s(i,j)即为步骤2得到的深度信息,Mask(i,j)是像素(i,j)处的图像融合权值,1表示提取多聚焦原图A的聚焦区域,0表示提取多聚焦原图B的聚焦区域,其他表示中间过渡区域;Th_low、Th_high是两个判别阈值,其计算公式如下所示:
Th _ low = s avg ( i , j ) - s max ( i , j ) s avg ( i , j )
Th _ high = s avg ( i , j ) + s max ( i , j ) s avg ( i , j )
其中savg(i,j)是深度图的平均像素值,smax(i,j)是深度图的最大像素值;
步骤3.2:由于图像场景变化的连续性及图像深度的多层次性,图像在聚焦区域中心会逐渐向外扩散为散焦区域;因此根据上一步中得到的初步融合模版,对其过渡区域进行如下式所示的平滑后处理,得到更为连续的多层次融合模版图;
Mask_s(i,j)=Mask(i,j)*Grs
其中Grs是一个小窗口的高斯滤波核函数,能够确保在平滑边缘融合权值的同时保持图像边缘的结构和细节信息,而Mask_s(i,j)表示平滑后的融合权值,所述双边滤波核函数采用高斯滤波。
在上述的一种基于深度信息提取的多聚焦图像融合方法,所述步骤4中,根据步骤3中得到的平滑的多层次融合模板进行多聚焦图像的融合的具体方法是直接在RGB空间或灰度空间进行融合处理,所述RGB空间为彩色图象,所述灰度空间为灰度图像;如下式所示:
Fusion k ( i , j ) = I a k ( i , j ) &CenterDot; Mask _ s ( i , j ) + I b k ( i , j ) &CenterDot; ( 1 - Mask _ s ( i , j ) )
其中,κ=R,G,B or Gray,Fusionk(i,j)是各通道数据最后的融合结果。
因此,本发明具有如下优点:能够消除边缘的块效应,抑制虚假边缘等人工副效应的产生,尽可能多地保留原始图像的信息,维持图像清晰度,提高融合图像的质量。
附图说明
附图1是本发明的方法流程示意图。
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
实施例:
本发明包括以下步骤:
步骤1:采集一组多聚焦图像,该多聚焦图像是同一场景下分别聚焦于前景、背景的一组多聚焦图像;
步骤2:利用各向异性热扩散理论建模多聚焦图像的成像过程,获取步骤1中采集的原始的多聚焦图像的深度信息,该深度信息的提取基于带有正则化项的能量泛函极值求取,并通过迭代获得场景的深度信息;包括以下子步骤:
步骤2.1:获取拍摄多聚焦图像的相机的标定参数,并设定阈值ε,虚拟时间Δt,正则化参数α,步长β以及迭代次数Nit;相机的标定参数包括焦距f,象距v1和v2,镜头孔径D,相机参数γ;ε为判别是否需要迭代模拟热扩散的阈值,取值0.03~0.09,Δt取值为1-10,α取值可为0~0.1,β取值为0~0.1,实验证明:选取ε为0.06,Δt为5,α为0.05,β为0.01为最佳值。
步骤2.2:初始化深度信息此时图像中每个点的初始深度值均为此值;其中y是图像二维坐标;
步骤2.3:依据深度信息,计算相应的扩散系数c(y)和扩散区域Ω+、Ω-;
c ( y ) = &gamma; 2 D 2 8 &Delta;t ( v 2 2 ( 1 f - 1 v 2 - 1 s ( y ) ) 2 - v 1 2 ( 1 f - 1 v 1 - 1 s ( y ) ) 2 ) 式2.1
步骤2.4:利用步骤2.3中获得的参数模拟如下的两个图像前向热扩散方程;
&PartialD; u ( y , t ) &PartialD; t = &dtri; &CenterDot; ( c ( y ) &dtri; u ( y , t ) ) , y &Element; &Omega; + t &Element; ( 0 , &infin; ) u ( y , 0 ) = I 1 ( y ) , &ForAll; ( y ) &Element; &Omega; + 式2.2
&PartialD; u ( y , t ) &PartialD; t = &dtri; &CenterDot; ( c ( y ) &dtri; u ( y , t ) ) , y &Element; &Omega; - t &Element; ( 0 , &infin; ) u ( y , 0 ) = I 2 ( y ) , &ForAll; ( y ) &Element; &Omega; - 式2.3
式中,I1(y)是输入图像A,I2(y)是输入图像B,扩散系数 c ( y ) = &sigma; 2 2 ( y ) - &sigma; 1 2 ( y ) 2 t , ▽是梯度算子 &PartialD; u &PartialD; y 1 &PartialD; u &PartialD; y 2 T , ▽.是散度算子
步骤2.5:分别求解步骤2.4中的热扩散方程式2.2和式2.3,得到各自经过Δt的热扩散图像u1(y,Δt),u2(y,Δt),然后用来模拟如下热扩散抛物线方程;
&PartialD; w 1 ( y , t ) &PartialD; t = &dtri; &CenterDot; ( c ( y ) &dtri; w 1 ( y , t ) ) t &Element; ( 0 , &infin; ) w 1 ( y , 0 ) = u 1 ( y , &Delta;t ) - I 2 ( y ) &ForAll; y &Element; &PartialD; &Omega; + 式2.4
&PartialD; w 2 ( y , t ) &PartialD; t = &dtri; &CenterDot; ( - c ( y ) &dtri; w 2 ( y , t ) ) t &Element; ( 0 , &infin; ) w 2 ( y , 0 ) = u 2 ( y , &Delta;t ) - I 1 ( y ) &ForAll; y &Element; &PartialD; &Omega; - 式2.5
步骤2.6:由于步骤2.4图像前向热扩散方程得到解不唯一,导致w1(y,Δt)和w2(y,Δt)不唯一,为了得到使w1(y,Δt)和w2(y,Δt)最小的热扩散方程的解,因此采用约束条件:
s ^ = arg min s ( E 1 ( s ) + E 2 ( s ) ) 式2.6
式中:
E1(s)=∫H(c(y))|u(y,Δt)-I2(y)|2dy 式2.7
E2(s)=∫H(-c(y))u(y,Δt)-I1(y)|2dy 式2.8
得到步骤2.5中的方程的唯一解:w1(y,Δt)和w2(y,Δt);
步骤2.7,对式2.6求梯度有:
&PartialD; s &PartialD; &tau; = - M ( s ) ( E 1 &prime; ( s ) + E 2 &prime; ( s ) ) 式2.9
在式2.9中,
E 1 &prime; ( s ) = ( - 2 H ( c ( y ) ) &Integral; 0 &Delta;t &dtri; u ( y , t ) &CenterDot; &dtri; w 1 ( y , &Delta;t - t ) dt + &delta; ( c ( y ) ) ( u 1 ( y , &Delta;t ) - I 2 ( y ) ) 2 ) &CenterDot; c &prime; ( s ) 式2.10
E 2 &prime; ( s ) = ( 2 H ( - c ( y ) ) &Integral; 0 &Delta;t &dtri; u ( y , t ) &CenterDot; &dtri; w 2 ( y , &Delta;t - t ) dt + &delta; ( c ( y ) ) ( u 2 ( y , &Delta;t ) - I 1 ( y ) ) 2 ) &CenterDot; c &prime; ( s ) 式2.11
上述各式中,H(·)表示Heaviside函数(单位阶跃函数),δ(·)表示Dirac函数(单位冲激函数).u1(y,Δt)和u2(y,Δt)是求解步骤2.6的方程得到的,w1(y,Δt)和w2(y,Δt)是求解步骤2.6的方程得到的,c'(s)是热扩散系数的梯度值,由式2.1计算得到为:
c &prime; ( s ) = &gamma; 2 D 2 ( v 2 - v 1 ) 4 s 2 &Delta;t [ ( v 1 + v 2 ) &CenterDot; ( 1 F - 1 s ) - 1 ] 式2.12
M(s)的计算公式如下:
M ( s ) = 1 2 [ H ( c ( y ) ) &CenterDot; I 2 ( y ) &CenterDot; u 1 &prime; ( y , &Delta;t ) + H ( - c ( y ) ) &CenterDot; I 1 ( y ) &CenterDot; u 2 &prime; ( y , &Delta;t ) ] 式2.13
步骤2.8:将计算式2.9得到的结果记作然后与事先设定的阈值比较;
比较结果一:若data_reg≤ε,则该点的深度估计较准,无需修正;
比较结果二:若data_reg>ε,则该点的深度值估计不准,需要进行深度值的修正;
步骤2.9:对步骤2.8中需要修正的深度值进行一定时间步长β的修正,即对深度修正1/β次,并更新深度图;其修正公式如下:
E′3(s)=-2αΔs(y)+2ακs(y) 式2.14
因此加上步骤2.8中计算出来的data_reg可以得到单位步长内修正后的深度s'(y):
s'(y)=s(y)-(data_reg+2ακs(y)-2αΔs(y)) 2.15
将深度值s(y)迭代基于式2.15执行1/β次,得到最终修正后的深度值;
步骤2.10:将每个点得到的修正后的深度值作为更新的深度值返回步骤2.3替换上一次深度值继续执行,直至迭代次数Nit后结束;
步骤3:根据深度信息确定聚焦区域,得到多聚焦图像融合模板,具体是根据提取出的深度用256个等级的灰度图表示,规定灰度值越小,即图像越暗,表示离拍摄者越近,给定阈值分割深度图来确定聚焦区域;包括以下步骤:
步骤3.1:根据步骤2得到的最终的深度信息按照下式分别确定两幅图的聚焦区域,得到初步的图像融合模版;
Mask ( i , j ) = 1 , s ( i , j ) < Th _ low 0 , s ( i , j ) > Th _ high s ( i , j ) - Th _ low Th _ high - Th _ low , otherwise ;
其中,s(i,j)即为步骤2得到的深度信息,Mask(i,j)是像素(i,j)处的图像融合权值,1表示提取多聚焦原图A的聚焦区域,0表示提取多聚焦原图B的聚焦区域,其他表示中间过渡区域;Th_low、Th_high是两个判别阈值,其计算公式如下所示:
Th _ low = s avg ( i , j ) - s max ( i , j ) s avg ( i , j )
Th _ high = s avg ( i , j ) + s max ( i , j ) s avg ( i , j )
其中savg(i,j)是深度图的平均像素值,smax(i,j)是深度图的最大像素值;
步骤3.2:由于图像场景变化的连续性及图像深度的多层次性,图像在聚焦区域中心会逐渐向外扩散为散焦区域;因此根据上一步中得到的初步融合模版,对其过渡区域进行如下式所示的平滑后处理,得到更为连续的多层次融合模版图;
Mask_s(i,j)=Mask(i,j)*Grs
其中Grs是一个小窗口的高斯滤波核函数,能够确保在平滑边缘融合权值的同时保持图像边缘的结构和细节信息,而Mask_s(i,j)表示平滑后的融合权值,所述双边滤波核函数采用高斯滤波。
步骤4:根据平滑的多层次融合模板进行多聚焦图像的融合,具体方法是直接在RGB空间或灰度空间进行融合处理,所述RGB空间为彩色图象,所述灰度空间为灰度图像;如下式所示:
Fusion k ( i , j ) = I a k ( i , j ) &CenterDot; Mask _ s ( i , j ) + I b k ( i , j ) &CenterDot; ( 1 - Mask _ s ( i , j ) )
其中,κ=R,G,B or Gray,Fusionk(i,j)是各通道数据最后的融合结果。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (3)

1.一种基于深度信息提取的多聚焦图像融合方法,其特征在于,包括以下步骤:
步骤1:采集一组多聚焦图像,该多聚焦图像是同一场景下分别聚焦于前景、背景的一组多聚焦图像;
步骤2:利用各向异性热扩散理论建模多聚焦图像的成像过程,获取步骤1中采集的原始的多聚焦图像的深度信息,该深度信息的提取基于带有正则化项的能量泛函极值求取,并通过迭代获得场景的深度信息;包括以下子步骤:
步骤2.1:获取拍摄多聚焦图像的相机的标定参数,并设定阈值ε,虚拟时间Δt,正则化参数α,步长β以及迭代次数Nit;相机的标定参数包括焦距f,象距v1和v2,镜头孔径D,相机参数γ;
步骤2.2:初始化深度信息此时图像中每个点的初始深度值均为此值;其中y是图像二维坐标;
步骤2.3:依据深度信息,计算相应的扩散系数c(y)和扩散区域Ω+、Ω-;
c ( y ) = &gamma; 2 D 2 8 &Delta;t ( v 2 2 ( 1 f - 1 v 2 - 1 s ( y ) ) 2 - v 1 2 ( 1 f - 1 v 1 - 1 s ( y ) ) 2 ) 式2.1
步骤2.4:利用步骤2.3中获得的参数模拟如下的两个图像前向热扩散方程;
&PartialD; u ( y , t ) &PartialD; t = &dtri; &CenterDot; ( c ( y ) &dtri; u ( y , t ) ) , y &Element; &Omega; + t &Element; ( 0 , &infin; ) u ( y , 0 ) = I 1 ( y ) , &ForAll; ( y ) &Element; &Omega; + 式2.2
&PartialD; u ( y , t ) &PartialD; t = &dtri; &CenterDot; ( c ( y ) &dtri; u ( y , t ) ) , y &Element; &Omega; - t &Element; ( 0 , &infin; ) u ( y , 0 ) = I 2 ( y ) , &ForAll; ( y ) &Element; &Omega; - 式2.3
式中,I1(y)是输入图像A,I2(y)是输入图像B,扩散系数 c ( y ) = &sigma; 2 2 ( y ) - &sigma; 1 2 ( y ) 2 t , ▽是梯度算子 &PartialD; u &PartialD; y 1 &PartialD; u &PartialD; y 2 T , ▽.是散度算子
步骤2.5:分别求解步骤2.4中的热扩散方程式2.2和式2.3,得到各自经过Δt的热扩散图像u1(y,Δt),u2(y,Δt),然后用来模拟如下热扩散抛物线方程;
&PartialD; w 1 ( y , t ) &PartialD; t = &dtri; &CenterDot; ( c ( y ) &dtri; w 1 ( y , t ) ) t &Element; ( 0 , &infin; ) w 1 ( y , 0 ) = u 1 ( y , &Delta;t ) - I 2 ( y ) &ForAll; y &Element; &PartialD; &Omega; + 式2.4
&PartialD; w 2 ( y , t ) &PartialD; t = &dtri; &CenterDot; ( - c ( y ) &dtri; w 2 ( y , t ) ) t &Element; ( 0 , &infin; ) w 2 ( y , 0 ) = u 2 ( y , &Delta;t ) - I 1 ( y ) &ForAll; y &Element; &PartialD; &Omega; - 式2.5
步骤2.6:由于步骤2.4图像前向热扩散方程得到解不唯一,导致w1(y,Δt)和w2(y,Δt)不唯一,为了得到使w1(y,Δt)和w2(y,Δt)最小的热扩散方程的解,因此采用约束条件:
s ^ = arg min s ( E 1 ( s ) + E 2 ( s ) ) 式2.6
式中:
E1(s)=∫H(c(y))|u(y,Δt)-I2(y)|2dy 式2.7
E2(s)=∫H(-c(y))|u(y,Δt)-I1(y)|2dy 式2.8
得到步骤2.5中的方程的唯一解:w1(y,Δt)和w2(y,Δt);
步骤2.7,对式2.6求梯度有:
&PartialD; s &PartialD; &tau; = - M ( s ) ( E 1 &prime; ( s ) + E 2 &prime; ( s ) ) 式2.9
在式2.9中,
E 1 &prime; ( s ) = ( - 2 H ( c ( y ) ) &Integral; 0 &Delta;t &dtri; u ( y , t ) &CenterDot; &dtri; w 1 ( y , &Delta;t - t ) dt + &delta; ( c ( y ) ) ( u 1 ( y , &Delta;t ) - I 2 ( y ) ) 2 ) &CenterDot; c &prime; ( s ) 式2.10
E 2 &prime; ( s ) = ( 2 H ( - c ( y ) ) &Integral; 0 &Delta;t &dtri; u ( y , t ) &CenterDot; &dtri; w 2 ( y , &Delta;t - t ) dt + &delta; ( c ( y ) ) ( u 2 ( y , &Delta;t ) - I 1 ( y ) ) 2 ) &CenterDot; c &prime; ( s ) 式2.11
上述各式中,H(·)表示Heaviside函数(单位阶跃函数),δ(·)表示Dirac函数(单位冲激函数).u1(y,Δt)和u2(y,Δt)是求解步骤2.6的方程得到的,w1(y,Δt)和w2(y,Δt)是求解步骤2.6的方程得到的,c'(s)是热扩散系数的梯度值,由式2.1计算得到为:
c &prime; ( s ) = &gamma; 2 D 2 ( v 2 - v 1 ) 4 s 2 &Delta;t [ ( v 1 + v 2 ) &CenterDot; ( 1 F - 1 s ) - 1 ] 式2.12
M(s)的计算公式如下:
M ( s ) = 1 2 [ H ( c ( y ) ) &CenterDot; I 2 ( y ) &CenterDot; u 1 &prime; ( y , &Delta;t ) + H ( - c ( y ) ) &CenterDot; I 1 ( y ) &CenterDot; u 2 &prime; ( y , &Delta;t ) ] 式2.13
步骤2.8:将计算式2.9得到的结果记作然后与事先设定的阈值比较;
比较结果一:若data_reg≤ε,则该点的深度估计较准,无需修正;
比较结果二:若data_reg>ε,则该点的深度值估计不准,需要进行深度值的修正;
步骤2.9:对步骤2.8中需要修正的深度值进行一定时间步长β的修正,即对深度修正1/β次,并更新深度图;其修正公式如下:
E′3(s)=-2αΔs(y)+2ακs(y) 式2.14
因此加上步骤2.8中计算出来的data_reg可以得到单位步长内修正后的深度s'(y):
s'(y)=s(y)-(data_reg+2ακs(y)-2αΔs(y)) 2.15
将深度值s(y)迭代基于式2.15执行1/β次,得到最终修正后的深度值;
步骤2.10:将每个点得到的修正后的深度值作为更新的深度值返回步骤2.3替换上一次深度值继续执行,直至迭代次数Nit后结束;
步骤3:根据深度信息确定聚焦区域,得到多聚焦图像融合模板,具体是根据提取出的深度用256个等级的灰度图表示,规定灰度值越小,即图像越暗,表示离拍摄者越近,给定阈值分割深度图来确定聚焦区域;
步骤4:根据平滑的多层次融合模板进行多聚焦图像的融合。
2.根据权利要求1所述的一种基于深度信息提取的多聚焦图像融合方法,其特征在于,所述步骤3中,根据步骤2得到的最终的深度信息确定聚焦区域,得到多聚焦图像融合模板包括以下步骤:
步骤3.1:根据步骤2得到的最终的深度信息按照下式分别确定两幅图的聚焦区域,得到初步的图像融合模版;
Mask ( i , j ) = 1 , s ( i , j ) < Th _ low 0 , s ( i , j ) > Th _ high s ( i , j ) - Th _ low Th _ high - Th _ low , otherwise ;
其中,s(i,j)即为步骤2得到的深度信息,Mask(i,j)是像素(i,j)处的图像融合权值,1表示提取多聚焦原图A的聚焦区域,0表示提取多聚焦原图B的聚焦区域,其他表示中间过渡区域;Th_low、Th_high是两个判别阈值,其计算公式如下所示:
Th _ low = s avg ( i , j ) - s max ( i , j ) s avg ( i , j )
Th _ high = s avg ( i , j ) + s max ( i , j ) s avg ( i , j )
其中savg(i,j)是深度图的平均像素值,smax(i,j)是深度图的最大像素值;
步骤3.2:由于图像场景变化的连续性及图像深度的多层次性,图像在聚焦区域中心会逐渐向外扩散为散焦区域;因此根据上一步中得到的初步融合模版,对其过渡区域进行如下式所示的平滑后处理,得到更为连续的多层次融合模版图;
Mask_s(i,j)=Mask(i,j)*Grs
其中Grs是一个小窗口的高斯滤波核函数,能够确保在平滑边缘融合权值的同时保持图像边缘的结构和细节信息,而Mask_s(i,j)表示平滑后的融合权值,所述双边滤波核函数采用高斯滤波。
3.根据权利要求2所述的一种基于深度信息提取的多聚焦图像融合方法,其特征在于,所述步骤4中,根据步骤3中得到的平滑的多层次融合模板进行多聚焦图像的融合的具体方法是直接在RGB空间或灰度空间进行融合处理,所述RGB空间为彩色图象,所述灰度空间为灰度图像;如下式所示:
Fusion k ( i , j ) = I a k ( i , j ) &CenterDot; Mask _ s ( i , j ) + I b k ( i , j ) &CenterDot; ( 1 - Mask _ s ( i , j ) )
其中,κ=R,G,B or Gray,Fusionk(i,j)是各通道数据最后的融合结果。
CN201410298036.2A 2014-06-26 2014-06-26 一种基于深度信息提取的多聚焦图像融合方法 Expired - Fee Related CN104036481B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410298036.2A CN104036481B (zh) 2014-06-26 2014-06-26 一种基于深度信息提取的多聚焦图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410298036.2A CN104036481B (zh) 2014-06-26 2014-06-26 一种基于深度信息提取的多聚焦图像融合方法

Publications (2)

Publication Number Publication Date
CN104036481A true CN104036481A (zh) 2014-09-10
CN104036481B CN104036481B (zh) 2017-02-15

Family

ID=51467240

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410298036.2A Expired - Fee Related CN104036481B (zh) 2014-06-26 2014-06-26 一种基于深度信息提取的多聚焦图像融合方法

Country Status (1)

Country Link
CN (1) CN104036481B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654448A (zh) * 2016-03-29 2016-06-08 微梦创科网络科技(中国)有限公司 一种基于双边滤波及权值重建的图像融合方法及系统
CN105913408A (zh) * 2016-04-12 2016-08-31 湘潭大学 一种基于双边滤波器的多聚焦图像融合方法
CN106412426A (zh) * 2016-09-24 2017-02-15 上海大学 全聚焦摄影装置及方法
CN107330930A (zh) * 2017-06-27 2017-11-07 晋江市潮波光电科技有限公司 三维图像深度信息提取方法
CN107995424A (zh) * 2017-12-06 2018-05-04 太原科技大学 基于深度图的光场全聚焦图像生成方法
WO2021017589A1 (zh) * 2019-07-31 2021-02-04 茂莱(南京)仪器有限公司 一种基于梯度域映射的图像融合方法
CN117994443A (zh) * 2024-04-02 2024-05-07 济南玖通志恒信息技术有限公司 一种基于景观园林模拟的园林设计方法
CN117994443B (zh) * 2024-04-02 2024-06-07 济南玖通志恒信息技术有限公司 一种基于景观园林模拟的园林设计方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1177298C (zh) * 2002-09-19 2004-11-24 上海交通大学 基于块分割的多聚焦图像融合方法
CN101968883B (zh) * 2010-10-28 2012-08-29 西北工业大学 一种基于小波变换和邻域特征的多聚焦图像融合方法
CN102682435B (zh) * 2012-05-14 2014-07-23 四川大学 基于空间相对高度信息的多聚焦图像边缘检测方法
CN103268586B (zh) * 2013-04-27 2015-11-18 电子科技大学 一种基于热扩散理论的窗融合方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654448A (zh) * 2016-03-29 2016-06-08 微梦创科网络科技(中国)有限公司 一种基于双边滤波及权值重建的图像融合方法及系统
CN105654448B (zh) * 2016-03-29 2018-11-27 微梦创科网络科技(中国)有限公司 一种基于双边滤波及权值重建的图像融合方法及系统
CN105913408B (zh) * 2016-04-12 2019-03-01 湘潭大学 一种基于双边滤波器的多聚焦图像融合方法
CN105913408A (zh) * 2016-04-12 2016-08-31 湘潭大学 一种基于双边滤波器的多聚焦图像融合方法
CN106412426A (zh) * 2016-09-24 2017-02-15 上海大学 全聚焦摄影装置及方法
CN106412426B (zh) * 2016-09-24 2019-08-20 上海大学 全聚焦摄影装置及方法
CN107330930A (zh) * 2017-06-27 2017-11-07 晋江市潮波光电科技有限公司 三维图像深度信息提取方法
CN107330930B (zh) * 2017-06-27 2020-11-03 晋江市潮波光电科技有限公司 三维图像深度信息提取方法
CN107995424A (zh) * 2017-12-06 2018-05-04 太原科技大学 基于深度图的光场全聚焦图像生成方法
CN107995424B (zh) * 2017-12-06 2020-06-16 太原科技大学 基于深度图的光场全聚焦图像生成方法
WO2021017589A1 (zh) * 2019-07-31 2021-02-04 茂莱(南京)仪器有限公司 一种基于梯度域映射的图像融合方法
CN117994443A (zh) * 2024-04-02 2024-05-07 济南玖通志恒信息技术有限公司 一种基于景观园林模拟的园林设计方法
CN117994443B (zh) * 2024-04-02 2024-06-07 济南玖通志恒信息技术有限公司 一种基于景观园林模拟的园林设计方法

Also Published As

Publication number Publication date
CN104036481B (zh) 2017-02-15

Similar Documents

Publication Publication Date Title
US10353271B2 (en) Depth estimation method for monocular image based on multi-scale CNN and continuous CRF
CN108986050B (zh) 一种基于多分支卷积神经网络的图像和视频增强方法
CN106651938B (zh) 一种融合高分辨率彩色图像的深度图增强方法
CN103927717B (zh) 基于改进型双边滤波的深度图像恢复方法
CN108765363B (zh) 一种基于人工智能的冠脉cta自动后处理系统
CN104036481A (zh) 一种基于深度信息提取的多聚焦图像融合方法
US9117295B2 (en) Refinement of depth maps by fusion of multiple estimates
WO2011033673A1 (ja) 画像処理装置
CN107025660B (zh) 一种确定双目动态视觉传感器图像视差的方法和装置
CN103455984A (zh) 一种Kinect深度图像获取方法与装置
CN105809667A (zh) 扩充实境中基于深度摄影机的遮蔽效果优化方法
US9578312B2 (en) Method of integrating binocular stereo video scenes with maintaining time consistency
CN105374039B (zh) 基于轮廓锐度的单目图像深度信息估计方法
CN103955905A (zh) 基于快速小波变换和加权图像融合的单幅图像去雾方法
CN104966286A (zh) 一种3d视频显著性检测方法
CN103455991A (zh) 一种多聚焦图像融合方法
CN104036479A (zh) 一种基于非负矩阵分解的多聚焦图像融合方法
CN102034247A (zh) 一种基于背景建模对双目视觉图像的运动捕捉方法
CN110414385A (zh) 一种基于单应性变换和特征窗口的车道线检测方法及系统
CN103049891A (zh) 基于自适应窗口选择的视频图像去模糊方法
CN103971354A (zh) 低分辨率红外图像重建高分辨率红外图像的方法
Zhu et al. Fast single image dehazing through edge-guided interpolated filter
CN114677479A (zh) 一种基于深度学习的自然景观多视图三维重建方法
Choi et al. Fog detection for de-fogging of road driving images
CN104778673A (zh) 一种改进的高斯混合模型深度图像增强算法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170215

Termination date: 20200626