CN103473743A - 一种获取图像深度信息的方法 - Google Patents

一种获取图像深度信息的方法 Download PDF

Info

Publication number
CN103473743A
CN103473743A CN2013104168666A CN201310416866A CN103473743A CN 103473743 A CN103473743 A CN 103473743A CN 2013104168666 A CN2013104168666 A CN 2013104168666A CN 201310416866 A CN201310416866 A CN 201310416866A CN 103473743 A CN103473743 A CN 103473743A
Authority
CN
China
Prior art keywords
pixel
prime
value
zone
scale factor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013104168666A
Other languages
English (en)
Other versions
CN103473743B (zh
Inventor
王好谦
袁新
王兴政
张永兵
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201310416866.6A priority Critical patent/CN103473743B/zh
Publication of CN103473743A publication Critical patent/CN103473743A/zh
Application granted granted Critical
Publication of CN103473743B publication Critical patent/CN103473743B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种获取图像深度信息的方法,包括以下步骤:1)对待处理的单幅原始图像进行高斯模糊处理,得到模糊图像;2)检测待处理的原始图像的纹理边缘,将所述原始图像划分为纹理梯度相对较大的区域,定义为D区域和纹理梯度相对较小的区域,定义为F区域;3)对于所述D区域内的像素点,根据模糊估计方法计算得到各像素点的比例因子;4)对于所述F区域内的各像素点,进行Kalman滤波,估计各像素点的比例因子;5)根据原始图像的聚焦信息,将各像素点的比例因子转换为各像素点的相对深度值。本发明的获取图像深度信息的方法,引入Kalman滤波的思想,可抑制常规的散焦法获取深度值时的噪声,提高最终获得的深度图的精度,且无需额外的信息补充。

Description

一种获取图像深度信息的方法
【技术领域】
本发明涉及计算机视觉领域,特别是涉及一种从图像中获取深度信息的方法。
【背景技术】
计算机视觉技术就是通过摄像机等成像系统模拟人眼来获得输入,计算机模拟人脑来处理和解释,使计算机能像人那样通过视觉观察和理解世界。而计算机视觉中,为了使计算机视觉能如人类视觉一样工作,一个基本的问题是,如何从摄像机拍摄的二维图像中,获得三维世界的结构和属性信息?即从拍摄的二维图像中,提取深度信息,获得深度图。为此人们提出了很多方法,而根据深度信息来源不同,可分为两大类:主动视觉与被动视觉。
其中,主动视觉是指向被测目标照射可控制的光光源,然后拍摄光源在物体表面上所形成的图像,通过几何关系计算出被测物体的三维信息。其深度信息,来源于可控光源在目标物体上的亮度信息、投影关系或几何关系。通过主动视觉获得的深度图可靠性好,精度高,但是需要配备特殊的光源,限制了其大范围地推广应用。被动视觉包括双目立体视觉、运动视觉、聚焦法、散焦法等方法,从一幅或多幅二维图像中,通过隐含的深度线索求取深度图,以获得三维立体信息。其深度信息来源于图像本身,比如左右视图视差,透视几何关系,模糊程度等等。但是这些深度信息极易受到图像内容以及噪声的干扰,使得所获的深度图精度因此而下降。
被动视觉,是从图像序列中获取深度图的技术,是计算机视觉领域的热门问题。近年来,有提出立体匹配、聚焦法、散焦法等多种深度图获取技术。基于立体匹配的方法是根据不同视角的图像间的视差作为深度估计的线索,计算复杂且图像中的特征点的提取和匹配仍是一大难题。聚焦法是利用一系列同一场景中聚焦于不同深度的图像获取整幅场景的深度图,原理简单,但是需要大量的图像,难以实时计算。散焦法是利用图像中模糊程度随物体远离聚焦平面而变大的原理来获取深度图,可通过多幅图像之间作对比获得深度图,也可通过单幅图像之间计算相对深度值。散焦法所需信息较少,不需要对图像的特征做匹配,也没有遮挡等问题,算法简单,速度较快。但是,由于散焦法的深度线索与图像的内容和噪声之间存在相互影响,而目前常规的单幅图像散焦法获取深度图的方法中对于降噪这一块关注较少,所以获得深度图的精度往往有限。
【发明内容】
本发明所要解决的技术问题是:弥补上述现有技术的不足,提出一种获取图像深度信息的方法,相对常规散焦法获取的深度值,可抑制噪声,提高最终深度图的精度。
本发明的技术问题通过以下的技术方案予以解决:
一种获取图像深度信息的方法,包括以下步骤:1)对待处理的单幅原始图像进行高斯模糊处理,得到模糊图像;2)检测待处理的原始图像的纹理边缘,将所述原始图像划分为纹理梯度相对较大的区域,定义为D区域和纹理梯度相对较小的区域,定义为F区域;3)对于所述D区域内的像素点,根据模糊估计方法计算得到各像素点的比例因子;4)对于所述F区域内的各像素点,进行Kalman滤波,即,以像素点的领域中的像素点作为先验点,以先验点的比例因子为基础构建状态模型,状态模型中的状态参量包括表示比例因子状态的第一元素和表示噪声的第二元素;以像素点的比例因子为状态值,以像素点的原始图像梯度和模糊图像梯度的比值为观测值,构建表示状态值和观测值之间关系的观测模型;根据构建的状态模型和观测模型,进行Kalman迭代计算,从而估计各像素点的比例因子;5)根据原始图像的聚焦信息,将各像素点的比例因子转换为各像素点的相对深度值。
上述方案中,获取深度信息时,将图像分为边缘区域和平滑区域两部分。对于边缘区域内的像素点,直接根据单幅图像散焦法的原理获取相对深度信息。对于平滑区域内的像素点,以其相邻区域的点作为先验点,以先验点的比例因子为基础构建状态模型,以该像素点的相对深度信息作为状态值,像素点的原始图像梯度值与模糊图像梯度值间的比值作为观测值,构建观测模型,根据构建的状态模型和观测模型,进行Kalman迭代计算,做滤波后估计得到平滑区域内各像素点的相对深度信息。通过上述设置,即将Kalman滤波的思想引入到单幅图像散焦法获取深度图中,从而有效抑制获取的深度值的噪声,提高获取的深度图的精度。
本发明与现有技术对比的有益效果是:
本发明的获取图像深度信息的方法,引入Kalman滤波的思想,从而抑制散焦法获取深度值的噪声,提高了最终深度图的精度。而输入仍然只是一幅散焦模糊图像,无需拍摄多幅图片,无需额外的信息补充。引入Kalman滤波后,能有效抑制噪声,使获取的深度图平滑,又能兼容边界部分不连续性,相对于其他单幅图像散焦法获取深度图,精度有大幅提升。
【附图说明】
图1是本发明具体实施方式的获取图像深度信息的方法流程图;
图2是本发明具体实施方式的步骤P4)中进行Kalman滤波估计F区域内像素点的比例因子的方法流程图。
【具体实施方式】
下面结合具体实施方式并对照附图对本发明做进一步详细说明。
本发明改进了常规的单幅图像散焦法获取深度图的方法,创新性地引入Kalman滤波的思想,以图像中每一点的相对深度作为状态,以原始图像梯度与模糊图像梯度间的比值作为观测,构建状态模型和观测模型,最后进行Kalman迭代计算,利用Kalman滤波方法来从先验模型及观测值来预测状态值,对状态值进行滤波处理。即通过Kalman滤波的预测-修正-再预测的方式,有效抑制所获得深度图的噪声从而抑制散焦法获取深度值的噪声,提高了最终深度图的精度。
如图1所示,为本具体实施方式中获取图像深度信息的方法流程图,包括以下步骤:
P1)对待处理的单幅原始图像进行高斯模糊处理,得到模糊图像。
具体地,输入图像,输入一幅由普通相机拍摄的图片。该图像聚焦于最近处的目标物体或最远处的背景处。该图像的大小为M×N表示,用g(i,j)表示该原始图像在第i行,第i列的像素点的像素值。
高斯模糊处理。对输入的原始图像,以高斯模糊核
Figure BDA0000381417800000031
对图像进行模糊处理,获得模糊图像。用g’(x,y)表示模糊图像在第i行,第j列的像素点的像素值,即有如下关系:g’(i,j)=g(i,j)*h0(i,j,σ0);其中,高斯模糊函数 h 0 ( i , j , σ 0 ) = 1 2 πσ 0 2 exp ( - i 2 + j 2 2 σ 0 2 ) .
P2)检测待处理的原始图像的纹理边缘,将所述原始图像划分为纹理梯度相对较大的D区域和纹理梯度相对较小的F区域。
具体地,运用边缘检测方法,例如canny算子,检测原始图像的纹理边缘,将图像分为两部分,一部分是纹理的梯度相对比较大的部分,是边缘区域,记为D区域。另一部分为纹理的梯度相对比较平滑的部分,是非边缘区域,记为F区域。D区域内点后续直接通过散焦法模糊估计,计算相对深度信息(比例因子),然后作为F区域内像素点起始计算时的先验点,进行Kalman滤波迭代计算,从而估计F区域内的像素点的相对深度信息。
P3)对于D区域内的像素点,根据模糊估计方法计算得到各像素点的比例因子。
具体地,对于梯度较大的D区域内的点(i,j),进行模糊估计,分别计算原始图像的梯度值
Figure BDA0000381417800000044
和模糊图像的梯度值
Figure BDA0000381417800000045
计算公式为:
| ▿ g 1 ( i , j ) | = ( g ( i - 1 , j ) - g ( i + 1 , j ) ) 2 + ( g ( i - 1 , j ) - g ( i + 1 , j ) ) 2
| ▿ g 1 ′ ( i + j ) | = ( g ′ ( i - 1 , j ) - g ′ ( i + 1 , j ) ) 2 + ( g ′ ( i - 1 , j ) - ( g ′ ( i + 1 , j ) ) 2
其中,g(x,y)表示原始图像中像素点(i,j)的像素值,g’(x,y)表示模糊图像中像素点(i,j)的像素值。上述计算过程中,即是通过像素点(i,j)相邻的上下左右四个像素点的像素值计算梯度值。其它计算梯度值的方法也可适用于此,并不仅限于上述梯度值计算公式。
求取原始图像梯度和模糊图像梯度的比值R(i,j)后,即可根据公式
Figure BDA0000381417800000043
计算得到像素点的比例因子k(i,j)。
P4)对于F区域内的各像素点,进行Kalman滤波,从而估计各像素点的比例因子。
具体地,进行Kalman滤波时,以像素点的领域中的像素点作为先验点,以先验点的比例因子为基础构建状态模型,状态模型中的状态参量包括表示比例因子状态的第一元素和表示噪声的第二元素;以像素点的比例因子为状态值,以像素点的原始图像梯度和模糊图像梯度的比值为观测值,构建表示状态值和观测值之间关系的观测模型;根据构建的状态模型和观测模型,进行Kalman迭代计算,估计得到各像素点的比例因子。如图2所示,为进行Kalman滤波时估计F区域内像素点的比例因子的方法流程图,包括以下步骤:
P401),确定先验点,即以像素点的领域中的像素点作为先验点。优选地,确定F区域内各像素点的邻域内属于D区域的点的数量,按领域内属于D区域的点的数量排序,从数量最多的点开始进行Kalman滤波,估计各像素点的比例因子。这样,先前区域划分出来的D区域的点最先作为先验点。在之后的计算中,将F区域内,已经计算得到相对深度信息的像素点也将作为其相邻的像素点的先验点。
P402),以先验点的比例因子为基础构建状态模型。
本具体实施方式中,构建的状态模型为包括三个状态参量,分别为
x 0 = x ′ - ;
x 1 = x ′ - + ( 1 + λ ) P x - ;
x 2 = x ′ - - ( 1 + λ ) P x - ;
其中,
Figure BDA0000381417800000054
第一参数αVT在0<αVT≤1的范围内取值;第二参数γVT在-0.1≤γVT≤0.1的范围内取值;
Figure BDA00003814178000000514
表示三个状态参量x0,x1和x2的均值,由参数确定得到, x &prime; - = &mu; &prime; p 0 ;
Figure BDA0000381417800000057
表示三个状态参量x0,x1和x2的方差,由参数
Figure BDA0000381417800000059
确定得到, P x - = &sigma; &prime; p 2 0 0 &sigma; e 2 .
根据上述状态模型中状态参量的表达式,可知本具体实施方式中三个状态参量x0,x1和x2均为二维向量,二维向量中的第一元素对应像素点的比例因子的状态值,第二元素对应噪声。通过构造上述并非线性方程的观测模型,可解决观测值与状态值间的非线性关系,保证了最终所获得的深度图的精度。
上述状态模型中状态参量的最终表现形式由三个参数
Figure BDA00003814178000000511
Figure BDA00003814178000000512
决定,其分别为待计算的像素点的比例因子在(2-8,28)的分布范围内取值时的均值、方差和噪声方差。
计算上述三个参数时,基于MRF(马尔可夫随机场)理论,建立每一像素点的相对深度关于其邻域的概率分布,设计出合理的分布函数形式,使其能够根据深度的变化自适应地调整。即,对于整幅图像,以每一个像素点处的比例因子k(i,j)作为滤波过程的状态值时,基于MRF(马尔可夫随机场)理论,k(i,j)关于其邻域有如下的分布:
p ( k ( i , j ) , k &prime; ( i , j ) ) = 1 Z exp ( - r log ( 1 + 1 &rho; 2 ( i , j ) &Sigma; k &prime; &Element; k &prime; ( i , j ) ( k ( i , j ) - k &prime; ) 2 &gamma; ) )
该分布为吉布斯分布,其中,Z为归一化参数;γ是正常数,取值范围为(0.1,10),在该范围内改变该γ值,可控制状态模型对图像中不连续区域的适应性,一般取值接近于1;k(i,j)表示先验点的比例因子;ρ2(i,j)为先验点的比例因子的统计方差;为先验点的比例因子的均值。即步骤P401)根据邻域确定的先验点决定了此处像素点的分布函数。也即,该分布函数中,先前获得的先验点的比例因子的方差将反馈到其他点计算时的先验条件概率分布中去。通过该反馈,使所求点的相对深度先验分布能自适应地调整:若反馈的方差较小,则之后计算其邻点时,该邻点的先验分布将集中于均值附近;若反馈的方差较大,则之后计算的邻点的先验分布将变化较大。
上述分布函数中像素点的比例因子k(i,j)在(2-8,28)的分布范围内取值,直接积分计算,即可以得到统计特性,得到参数
Figure BDA0000381417800000062
的值。
由于基于MRF理论的概率分布通过积分计算统计特性时有一定的复杂性,所以优选地,本具体实施方式中采用如下方法计算上述三个统计特性参数,即利用数值计算求取近似值的方法来代替积分运算,获得状态分布统计特性中的均值和方差。采用该优选方法,可以在不影响最终结果的条件下,大大提高运算的速度和效率。优选地计算方法为:
将k(ij)关于其邻域的吉布斯分布p(k(i,j),k(i,j))设为第一分布函数p(k);以参数为
Figure BDA0000381417800000064
γ的Cauchy分布函数设为第二分布函数q(k),即
第一分布函数为:
p ( k ( i , j ) , k &prime; ( i , j ) ) = 1 Z exp ( - r log ( 1 + 1 &rho; 2 ( i , j ) &Sigma; k &prime; &Element; k &prime; ( i . j ) ( k ( i , j ) - k &prime; ) 2 &gamma; ) ) ;
第二分布函数为: q ( k ) = 1 &pi;&gamma; &lsqb; 1 + ( k - k &OverBar; &gamma; &rsqb; ;
计算时,像素点的比例因子k在(2-8,28)的分布范围内进行采样,采样L个点,采样点表示为{k1},1=1,2,……,L;设置这些采样点的权重如下:
Figure BDA0000381417800000071
其中,p(k1)的值即为将k1的值作为k(i,j)代入上述第一分布函数后得到值,q(k1)的值为将k1的值作为k代入上述第二分布函数后得到值。由此,即可根据如下计算公式得到均值和方差
Figure BDA0000381417800000073
噪声方差即根据实验的方法确定倍数,依据方差
Figure BDA0000381417800000075
的值确定得到。具体为:
&mu; &prime; p = &Sigma; l = 1 L v l k l &Sigma; l = 1 L v l ; &sigma; &prime; p 2 = &Sigma; l = 1 L v l ( k l - &mu; &prime; p ) 2 &Sigma; l = 1 L v l ;
Figure BDA00003814178000000715
的值为(0,0.2)倍的
Figure BDA0000381417800000077
倍数在(0,0.2)的范围内取值,具体数值由用户根据经验设定。
计算得到三个参数
Figure BDA0000381417800000078
Figure BDA0000381417800000079
后,即可确定得到
Figure BDA00003814178000000710
Figure BDA00003814178000000711
进而确定得到状态模型中三个状态参量的最终表现形式。
P403)构建观测模型。具体地,以像素点的比例因子为状态值,以像素点的原始图像梯度和模糊图像梯度的比值为观测值,构建表示状态值和观测值之间关系的观测模型。
本具体实施方式中,构建的观测模型为
Figure BDA00003814178000000712
其中,yn表示观测值,Xnk表示构建的状态模型中状态参量xn中第一元素,xne表示构建的状态模型中状态参量xn中第二元素,将构造的状态模型中的状态参量xn的两个元素分别代入所述观测模型中求得对应的观测值yn
例如,针对步骤P402)中构造的状态模型,三个状态参量x0,x1和x2均为二维向量,包括对应像素点的比例因子的状态值的第一元素和对应噪声的第二元素,即将x0的第一元素作为x0k,将x0的第二元素作为x0e三个状态分别带入上述观测模型,即求得对应的观测值y0,类似地,代入x1即求得对应的观测值y1,代入x2即求得对应的观测值y2
P404)Kalman迭代计算,即,
首先计算步骤P403)中观测值的均值
Figure BDA00003814178000000713
和方差Py,状态值和观测值之间的协方差Pχy。优选地,按照如下方法计算上述三个参量:
y &prime; - = &Sigma; n = 0 2 w n ( m ) y n ;
P y = &Sigma; n = 0 2 w n ( c ) ( y n - y &prime; - ) ( y n - y &prime; - ) T ;
P xy = &Sigma; n = 0 2 w n ( c ) ( x n - x &prime; - ) ( y n - y &prime; - ) T ;
其中,
Figure BDA0000381417800000083
Figure BDA0000381417800000084
分别表示均值权重、方差权重,xn为步骤P401)构建的状态模型中的状态参量,yn为步骤P402)构建的观测模型中代入所述状态模型中的状态参量后计算得到的观测值。
均值权重
Figure BDA0000381417800000085
和方差权重
Figure BDA0000381417800000086
根据如下公式确定得到:
Figure BDA0000381417800000087
w 0 ( c ) = w 0 ( m ) + ( 1 - &alpha; VT 2 + &beta; VT ) , w n ( m ) = w n ( c ) = 1 2 ( 1 + &lambda; ) , n = 1,2 ;
其中,第一参数αVT在0<αVT≤1的范围内取值;第二参数γVT在-0.1≤γVT≤0.1的范围内取值;第三参数βVT在1.5≤βVT≤2.5的范围内取值。
计算出均值,方差和协方差后,即可根据公式
Figure BDA00003814178000000810
计算得到
Figure BDA00003814178000000817
,所要估计的像素点的比例因子即为所述
Figure BDA00003814178000000818
中的第一元素。经过迭代计算后,得到的
Figure BDA00003814178000000819
也为二维向量,其第一元素即为估计的结果,为当前估计的F区域内像素点的比例因子。当前像素点的比例因子被估计出来后,即可与D区域内的像素点一起作为其相邻的像素点的先验点,直至所有F区域内的像素点的比例因子都被估计得到。
上述迭代计算中,表示步骤P402)中构建状态模型中状态参量的均值,K为Kalman增益,y值处代入F区域内的待估计的像素点的原始图像梯度和模糊图像梯度的比值R(i,j)。
对于该梯度比值R(i,j),可以同步骤3)中一样,根据散焦模糊估计方法求取梯度比值
Figure BDA00003814178000000813
Figure BDA00003814178000000815
后计算得到。但是,由于图像中F区域都是平滑的,或是缓慢变化的,模糊估计得到的
Figure BDA00003814178000000814
Figure BDA00003814178000000816
都很小,甚至接近于零,此时,将两者相除得到梯度比值可能误差较大,因此本具体实施方式中采用如下优选的计算方法,将平滑区域内点的梯度值扩展到整个区域中,在计算平滑区域内某一像素点的梯度时,认为其与周围比较大的一块平滑区域内的梯度是一致,以整块平滑区域内的梯度代替该点的梯度值,由此大大减小噪声对梯度获取的影响。具体地,包括如下步骤计算梯度比值R(i,j):
100)以待计算的像素点(i,j)为中心,作一个大小为Nq×Nq的窗口Ω。该窗口内的像素点均认为是平滑的。
200)将原始图像的窗口内的所有像素点以平面g(x,y)=Ax+By+C做线性拟合,即求出参数A、B、C,使得 &Sigma; x , y &Element; &Omega; ( g ( x , y ) - Ax - By - C ) 2 的值最小。
300)将模糊图像的窗口内的所有像素点以平面g’(x,y)=A’x+B’y+C’做线性拟合,即求出参数A’、B’、C’,使得 &Sigma; x , y &Element; &Omega; ( g &prime; ( x , y ) - A &prime; x - B &prime; y - C &prime; ) 2 的值最小。
400)根据公式
Figure BDA0000381417800000093
计算像素点(i,j)的原始图像的梯度值
Figure BDA0000381417800000096
根据公式 | &dtri; g &prime; ( i , j ) | = A &prime; 2 + B &prime; 2 计算模糊图像的梯度值
Figure BDA0000381417800000097
500)计算像素点(i,j)的原始图像梯度和模糊图像梯度的比值 R &prime; ( i , j ) = | &dtri; g ( i , j ) | | &dtri; g &prime; ( i , j ) | .
根据该优选方法计算的梯度比值,可大大减小噪声的影响。计算出梯度比值后,代入上述迭代计算中求取最终的估计结果。
经过上述步骤P4),即在计算F区域内各像素点的比例因子时通过Kalman滤波估计得到,相对于常规散焦法直接获取深度值,可降低F区域像素点深度信息的噪声,提高最终深度图的精度。
P5)根据原始图像的聚焦信息,将各像素点的比例因子转换为各像素点的相对深度值。
具体地,步骤P3)计算得到D区域的像素点的比例因子k(i,j)和步骤P4)迭代计算输出F区域的像素点的比例因子k(i,j)后,若输入的原始图像聚焦于近处目标,则各像素点的相对深度值为d(i,j)=k(i,j);若输入图像聚焦于远处背景,则各像素点的相对深度值为d(i,j)=1/k(i,j),从而获得每一像素点的相对深度值d(i,j),根据该深度值绘制深度图,即获得该原始图像的深度图。
本具体实施方式中,对于边缘区域(D区域)内的像素点,直接根据单幅图像散焦法的原理获取相对深度信息;对于平滑区域(F区域)内的像素点,则通过Kalman滤波迭代计算得到,将Kalman滤波的思想引入到单幅图像散焦法获取深度图中,从而有效抑制获取的深度值的噪声,提高获取的深度图的精度。而输入仍然只是一幅散焦模糊图像,无需拍摄多幅图片,无需额外的信息补充。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下做出若干替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (10)

1.一种获取图像深度信息的方法,其特征在于:包括以下步骤:
1)对待处理的单幅原始图像进行高斯模糊处理,得到模糊图像;
2)检测待处理的原始图像的纹理边缘,将所述原始图像划分为纹理梯度相对较大的区域,定义为D区域和纹理梯度相对较小的区域,定义为F区域;
3)对于所述D区域内的像素点,根据模糊估计方法计算得到各像素点的比例因子;
4)对于所述F区域内的各像素点,进行Kalman滤波,即,以像素点的领域中的像素点作为先验点,以先验点的比例因子为基础构建状态模型,状态模型中的状态参量包括表示比例因子状态的第一元素和表示噪声的第二元素;以像素点的比例因子为状态值,以像素点的原始图像梯度和模糊图像梯度的比值为观测值,构建表示状态值和观测值之间关系的观测模型;根据构建的状态模型和观测模型,进行Kalman迭代计算,从而估计各像素点的比例因子;
5)根据原始图像的聚焦信息,将各像素点的比例因子转换为各像素点的相对深度值。
2.根据权利要求1所述的获取图像深度信息的方法,其特征在于:所述步骤4)具体包括:确定F区域内各像素点的邻域内属于D区域的点的数量,按领域内属于D区域的点的数量排序,从数量最多的点开始进行Kalman滤波,估计各像素点的比例因子。
3.根据权利要求2所述的获取图像深度信息的方法,其特征在于:所述步骤4)中进行Kalman滤波时构建的状态模型包括三个状态参量,分别为
Figure FDA0000381417790000011
x 1 = x &prime; - + ( 1 + &lambda; ) P x - , x 2 = x &prime; - - ( 1 + &lambda; ) P x - ; 其中,
Figure FDA0000381417790000014
第一参数αVT在0<αVT≤1的范围内取值;第二参数γVT在-0.1≤γVT≤0.1的范围内取值;
Figure FDA0000381417790000016
表示三个状态参量χ0,χ1和χ2的均值, x &prime; - = &mu; &prime; p 0 ;
Figure FDA00003814177900000214
表示三个状态参量χ0,χ1和χ2的方差, P x - = &sigma; &prime; p 2 0 0 &sigma; e 2 ;
Figure FDA0000381417790000023
Figure FDA0000381417790000024
分别为待计算的像素点的比例因子在(2-8,28)的分布范围内取值时的均值、方差和噪声方差。
4.根据权利要求3所述的获取图像深度信息的方法,其特征在于:按如下方法计算得到所述均值和方差: &mu; &prime; p = &Sigma; l = 1 L v l k l &Sigma; l = 1 L v l , &sigma; &prime; p 2 = &Sigma; l = 1 L v l ( k l - &mu; &prime; p ) 2 &Sigma; l = 1 L v l ,
Figure FDA0000381417790000027
的值为(0,0.2)倍的
Figure FDA0000381417790000028
其中,像素点的比例因子k在(2-8,28)的分布范围内进行采样,采样的L个点表示为{k1},l=1,2,……,L;v1表示为采样点的权重,
Figure FDA0000381417790000029
p(k1)的值为将k1的值作为k(i,j)代入第一分布函数后得到值,q(k1)的值为将k1的值作为k代入第二分布函数后得到值;
第一分布函数为:
p ( k ( i , j ) , k &prime; ( i , j ) ) = 1 Z exp ( - r log ( 1 + 1 &rho; 2 ( i , j ) &Sigma; k &prime; &Element; k &prime; ( i , j ) ( k ( i , j ) - k &prime; ) 2 &gamma; ) ) ;
第二分布函数为: q ( k ) = 1 &pi;&gamma; [ 1 + ( k - k - &gamma; ) ] ;
其中,Z为归一化参数;γ是正常数,取值范围为(0.1,10);表示先验点的比例因子;ρ2(i,j)为先验点的比例因子的统计方差;
Figure FDA00003814177900000212
为先验点的比例因子的均值。
5.根据权利要求3所述的获取图像深度信息的方法,其特征在于:所述步骤4)中进行Kalman滤波时构建的观测模型
Figure FDA00003814177900000213
其中,yn表示观测值,xnk表示构建的状态模型中状态参量xn中第一元素,xne表示构建的状态模型中状态参量xn中第二元素,将构造的状态模型中的状态参量xn的两个元素分别代入所述观测模型中求得对应的观测值yn
6.根据权利要求5所述的获取图像深度信息的方法,其特征在于:所述步骤4)中进行Kalman迭代计算时,计算观测值的均值
Figure FDA0000381417790000031
和方差Py,状态值和观测值之间的协方差Pxy,根据公式
Figure FDA00003814177900000318
Figure FDA00003814177900000319
计算得到
Figure FDA0000381417790000033
估计的像素点的比例因子为所述中的第一元素;其中
Figure FDA0000381417790000035
表示构建状态模型中状态参量的均值,K为Kalman增益,将F区域内的像素点的原始图像梯度和模糊图像梯度的比值R(i,j)作为
Figure FDA00003814177900000320
代入。
7.根据权利要求6所述的获取图像深度信息的方法,其特征在于:设置迭代计算的均值权重
Figure FDA0000381417790000036
和方差权重
Figure FDA0000381417790000037
根据公式计算观测值的均值
Figure FDA0000381417790000039
根据公式
Figure FDA00003814177900000310
计算观测值的方差Py,根据公式计算状态值和观测值之间的协方差Pxy;其中,xn为所述状态模型中的状态参量,yn为所述观测模型中代入所述状态模型中的状态参量后计算得到的观测值。
8.根据权利要求7所述的获取图像深度信息的方法,其特征在于:根据公式 w 0 ( m ) = &lambda; 1 + &lambda; , w 0 ( c ) = w 0 ( m ) + ( 1 - &alpha; VT 2 + &beta; VT ) , w n ( m ) = w n ( c ) = 1 2 ( 1 + &lambda; ) , n = 1,2 ; 确定均值权重
Figure FDA00003814177900000315
和方差权重
Figure FDA00003814177900000316
其中,第三参量βVT在1.5≤βVT≤2.5的范围内取值。
9.根据权利要求6所述的获取图像深度信息的方法,其特征在于:根据如下步骤计算得到F区域内的像素点的原始图像梯度和模糊图像梯度的比值R(i,j):100)以待计算的像素点(i,j)为中心,作一个大小为Nq×Nq的窗口Ω;200)将原始图像的窗口内的所有像素点以平面g(x,y)=Ax+By+C做线性拟合,即求出参数A、B、C,使得
Figure FDA00003814177900000317
的值最小;300)将模糊图像的窗口内的所有像素点以平面g’(x,y)=A’x+B’y+C’做线性拟合,即求出参数A’、B’、C’,使得 &Sigma; x , y &Element; &Omega; ( g &prime; ( x , y ) - A &prime; x - B &prime; y - C &prime; ) 2 的值最小;400)根据公式 | &dtri; g ( i , j ) | = A 2 + B 2 计算像素点(i,j)的原始图像的梯度值
Figure FDA0000381417790000043
根据公式
Figure FDA0000381417790000044
计算模糊图像的梯度值
Figure FDA0000381417790000045
500)计算像素点(i,j)的原始图像梯度和模糊图像梯度的比值 R &prime; ( i , j ) = | &dtri; g ( i , j ) | | &dtri; g &prime; ( i , j ) | .
10.根据权利要求1所述的获取图像深度信息的方法,其特征在于:所述步骤3)中具体包括如下步骤:301)计算像素点(i,j)的原始图像的梯度值 | &dtri; g 1 ( i , j ) | = ( g ( i - 1 , j ) - g ( i + 1 , j ) ) 2 + ( g ( i - 1 , j ) - g ( i + 1 , j ) ) 2 , 其中g(i,j)表示原始图像中像素点(i,j)的像素值;计算像素点(i,j)的模糊图像的梯度值 | &dtri; g 1 &prime; ( i , j ) | = ( g &prime; ( i - 1 , j ) - g &prime; ( i + 1 , j ) ) 2 + ( g &prime; ( i - 1 , j ) - g &prime; ( i + 1 , j ) ) 2 , 其中g’(i,j)表示模糊图像中像素点(i,j)的像素值;302)计算像素点(i,j)的原始图像梯度和模糊图像梯度的比值
Figure FDA0000381417790000049
303)根据所述原始图像梯度和模糊图像梯度的比值R(i,j)计算得到像素点的比例因子
Figure FDA00003814177900000410
CN201310416866.6A 2013-09-12 2013-09-12 一种获取图像深度信息的方法 Active CN103473743B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310416866.6A CN103473743B (zh) 2013-09-12 2013-09-12 一种获取图像深度信息的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310416866.6A CN103473743B (zh) 2013-09-12 2013-09-12 一种获取图像深度信息的方法

Publications (2)

Publication Number Publication Date
CN103473743A true CN103473743A (zh) 2013-12-25
CN103473743B CN103473743B (zh) 2016-03-02

Family

ID=49798577

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310416866.6A Active CN103473743B (zh) 2013-09-12 2013-09-12 一种获取图像深度信息的方法

Country Status (1)

Country Link
CN (1) CN103473743B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104807406A (zh) * 2014-01-27 2015-07-29 康耐视公司 确定物体上3d表面特征和不平度的系统和方法
CN105301863A (zh) * 2014-07-29 2016-02-03 深圳市墨克瑞光电子研究院 液晶透镜成像装置及液晶透镜成像方法
CN106603942A (zh) * 2016-12-15 2017-04-26 杭州艾芯智能科技有限公司 一种tof相机降噪方法
CN107170007A (zh) * 2016-03-02 2017-09-15 钰立微电子股份有限公司 具有图像散焦功能的图像装置及其产生散焦图像的方法
CN109377524A (zh) * 2018-10-29 2019-02-22 山东师范大学 一种单幅图像深度恢复方法和系统
CN110599532A (zh) * 2019-09-18 2019-12-20 厦门美图之家科技有限公司 图像的深度估计模型优化、深度估计处理方法及装置
CN112712477A (zh) * 2020-12-21 2021-04-27 东莞埃科思科技有限公司 结构光模组的深度图像评价方法及其装置
CN112950698A (zh) * 2021-03-18 2021-06-11 北京拙河科技有限公司 基于双目散焦图像的深度估计方法、装置、介质和设备
CN115115689A (zh) * 2022-06-08 2022-09-27 华侨大学 一种多波段光谱的深度估计方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008001967A1 (en) * 2006-06-30 2008-01-03 Industry-Academic Cooperation Foundation, Yonsei University Device and method for transforming 2-d image into 3-d image
CN103049906A (zh) * 2012-12-07 2013-04-17 清华大学深圳研究生院 一种图像深度提取方法
CN103248906A (zh) * 2013-04-17 2013-08-14 清华大学深圳研究生院 一种双目立体视频序列的深度图获取方法与系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008001967A1 (en) * 2006-06-30 2008-01-03 Industry-Academic Cooperation Foundation, Yonsei University Device and method for transforming 2-d image into 3-d image
CN103049906A (zh) * 2012-12-07 2013-04-17 清华大学深圳研究生院 一种图像深度提取方法
CN103248906A (zh) * 2013-04-17 2013-08-14 清华大学深圳研究生院 一种双目立体视频序列的深度图获取方法与系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘兴宝: "基于数字图像处理的自动对焦技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑 》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104807406A (zh) * 2014-01-27 2015-07-29 康耐视公司 确定物体上3d表面特征和不平度的系统和方法
US11176655B2 (en) 2014-01-27 2021-11-16 Cognex Corporation System and method for determining 3D surface features and irregularities on an object
CN112097696A (zh) * 2014-01-27 2020-12-18 康耐视公司 确定物体上3d表面特征和不平度的系统和方法
CN105301863A (zh) * 2014-07-29 2016-02-03 深圳市墨克瑞光电子研究院 液晶透镜成像装置及液晶透镜成像方法
CN105301863B (zh) * 2014-07-29 2018-03-30 深圳市墨克瑞光电子研究院 液晶透镜成像装置及液晶透镜成像方法
CN107170007A (zh) * 2016-03-02 2017-09-15 钰立微电子股份有限公司 具有图像散焦功能的图像装置及其产生散焦图像的方法
CN106603942B (zh) * 2016-12-15 2019-12-03 杭州艾芯智能科技有限公司 一种tof相机降噪方法
CN106603942A (zh) * 2016-12-15 2017-04-26 杭州艾芯智能科技有限公司 一种tof相机降噪方法
CN109377524A (zh) * 2018-10-29 2019-02-22 山东师范大学 一种单幅图像深度恢复方法和系统
CN109377524B (zh) * 2018-10-29 2021-02-23 山东师范大学 一种单幅图像深度恢复方法和系统
CN110599532A (zh) * 2019-09-18 2019-12-20 厦门美图之家科技有限公司 图像的深度估计模型优化、深度估计处理方法及装置
CN112712477A (zh) * 2020-12-21 2021-04-27 东莞埃科思科技有限公司 结构光模组的深度图像评价方法及其装置
CN112950698A (zh) * 2021-03-18 2021-06-11 北京拙河科技有限公司 基于双目散焦图像的深度估计方法、装置、介质和设备
CN112950698B (zh) * 2021-03-18 2024-03-26 北京拙河科技有限公司 基于双目散焦图像的深度估计方法、装置、介质和设备
CN115115689A (zh) * 2022-06-08 2022-09-27 华侨大学 一种多波段光谱的深度估计方法

Also Published As

Publication number Publication date
CN103473743B (zh) 2016-03-02

Similar Documents

Publication Publication Date Title
CN103473743B (zh) 一种获取图像深度信息的方法
Yang et al. Color-guided depth recovery from RGB-D data using an adaptive autoregressive model
EP2386998B1 (en) A Two-Stage Correlation Method for Correspondence Search
Matsuo et al. Weighted joint bilateral filter with slope depth compensation filter for depth map refinement
Hosni et al. Local stereo matching using geodesic support weights
CN112634341B (zh) 多视觉任务协同的深度估计模型的构建方法
Xu et al. A segmentation based variational model for accurate optical flow estimation
CN107025660B (zh) 一种确定双目动态视觉传感器图像视差的方法和装置
CN106355570A (zh) 一种结合深度特征的双目立体视觉匹配方法
CN103458261B (zh) 一种基于立体视觉的视频场景变化检测方法
CN105374039B (zh) 基于轮廓锐度的单目图像深度信息估计方法
Xiao et al. Multi-focus image fusion based on depth extraction with inhomogeneous diffusion equation
CN105069804B (zh) 基于智能手机的三维模型扫描重建方法
CN108564620B (zh) 一种针对光场阵列相机的场景深度估计方法
CN103440653A (zh) 双目视觉立体匹配方法
CN109292099B (zh) 一种无人机着陆判断方法、装置、设备及存储介质
CN106488122A (zh) 一种基于改进Sobel算子的动态自动调焦算法
CN112991420A (zh) 一种视差图的立体匹配特征提取及后处理方法
CN103440662A (zh) Kinect深度图像获取方法与装置
CN106778767B (zh) 基于orb和主动视觉的视觉图像特征提取及匹配方法
CN106408596A (zh) 基于边缘的局部立体匹配方法
CN103955945A (zh) 基于双目视差和活动轮廓的自适应彩色图像分割方法
CN112287824A (zh) 基于双目视觉的三维目标检测方法、装置及系统
CN103384343A (zh) 一种填补图像空洞的方法及其装置
CN101765019A (zh) 一种用于运动模糊和光照变化图像的立体匹配方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant