CN103369341A - 一种深度图像的后处理方法 - Google Patents

一种深度图像的后处理方法 Download PDF

Info

Publication number
CN103369341A
CN103369341A CN201310285370XA CN201310285370A CN103369341A CN 103369341 A CN103369341 A CN 103369341A CN 201310285370X A CN201310285370X A CN 201310285370XA CN 201310285370 A CN201310285370 A CN 201310285370A CN 103369341 A CN103369341 A CN 103369341A
Authority
CN
China
Prior art keywords
pixel
depth
point
centerdot
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310285370XA
Other languages
English (en)
Other versions
CN103369341B (zh
Inventor
邵枫
潘云峰
蒋刚毅
郁梅
李福翠
彭宗举
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Yujing Technology Service Co ltd
Harbin Yusheng Technology Development Co ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201310285370.XA priority Critical patent/CN103369341B/zh
Publication of CN103369341A publication Critical patent/CN103369341A/zh
Application granted granted Critical
Publication of CN103369341B publication Critical patent/CN103369341B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种深度图像的后处理方法,其处理过程为:首先,在解码端获取解码得到的彩色图像和对应的深度图像;然后,利用基于置信区间的交点规则确定解码得到的深度图像中的每个像素点的邻域窗口;接着,通过最小化逼近多项式的均方误差估计解码得到的深度图像中的每个像素点的深度值,得到深度估计图像;最后,采用加权模式滤波器对深度估计图像中的每个像素点进行滤波处理,得到深度滤波图像,该深度滤波图像用于虚拟视点图像的绘制;优点是通过分别通过最小化逼近多项式的均方误差和加权模式滤波器两种深度后处理技术,能够从解码得到的失真深度图像中精确地恢复出真实深度信息,这样就能够有效地提高虚拟视点图像的绘制性能。

Description

一种深度图像的后处理方法
技术领域
本发明涉及一种图像处理方法,尤其是涉及一种深度图像的后处理方法。
背景技术
三维视频(Three-Dimensional Video,3DV)是一种先进的视觉模式,它使人们在屏幕上观看图像时富有立体感和沉浸感,可以满足人们从不同角度观看三维(3D)场景的需求。典型的三维视频系统如图1所示,其主要包括视频捕获、视频编码、传输解码、虚拟视点绘制和交互显示等模块。视频加深度(video plus depth,V+D)是常用的3D场景信息表示方式,其在彩色视频基础上增加了对应视点的深度信息,可以通过基于深度图像的绘制来快速生成虚拟视点图像。
现有的深度图像预处理方法更多的是考虑如何对深度图像进行平滑,以提升编码和绘制性能,而经过压缩后的深度图像,深度结构信息会发生严重的退化,如果直接用退化的深度图像进行虚拟视点绘制,则在绘制图像中会出现严重的几何失真,因此如何通过对深度图像进行后处理操作,从退化的深度图像中恢复出深度结构信息,以提高虚拟视点绘制性能是一个亟需解决的问题。
发明内容
本发明所要解决的技术问题是提供一种深度图像的后处理方法,其能够充分地恢复出失真深度图像的深度结构信息,能够有效地提高虚拟视点图像的绘制性能。
本发明解决上述技术问题所采用的技术方案为:一种深度图像的后处理方法,其特征在于它的处理过程为:首先,在解码端获取解码得到的彩色图像和对应的深度图像;然后,利用基于置信区间的交点规则确定解码得到的深度图像中的每个像素点的邻域窗口;接着,通过最小化逼近多项式的均方误差估计解码得到的深度图像中的每个像素点的深度值,得到深度估计图像;最后,采用加权模式滤波器对深度估计图像中的每个像素点进行滤波处理,得到深度滤波图像,该深度滤波图像用于虚拟视点图像的绘制。
本发明的深度图像的后处理方法,它具体包括以下步骤:
①在解码端,将解码得到的t时刻的彩色图像记为
Figure BDA00003481782700021
将解码得到的t时刻的深度图像记为
Figure BDA00003481782700022
其中,i=1,2,3分别表示YUV颜色空间的三个分量,YUV颜色空间的第1个分量为亮度分量并记为Y、第2个分量为第一色度分量并记为U及第3个分量为第二色度分量并记为V,(x,y)表示彩色图像和深度图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示彩色图像和深度图像的宽度,H表示彩色图像和深度图像的高度,
Figure BDA00003481782700023
表示
Figure BDA00003481782700024
中坐标位置为(x,y)的像素点的第i个分量的值,表示
Figure BDA00003481782700026
中坐标位置为(x,y)的像素点的深度值;
②通过采用在不同卷积方向上的多个不同尺度的多项式核函数分别对进行卷积操作,获取
Figure BDA00003481782700028
中的每个像素点在不同卷积方向上的多个不同尺度各自的置信区间的交点,然后确定中的每个像素点在不同卷积方向上的最优尺度,再将由
Figure BDA000034817827000210
中的每个像素点在不同卷积方向上的最优尺度确立的形状区域作为
Figure BDA000034817827000211
中对应像素点的邻域窗口,将
Figure BDA000034817827000212
中坐标位置为(x,y)的像素点的邻域窗口记为
Figure BDA000034817827000213
中的所有像素点的邻域窗口的集合记为
Figure BDA000034817827000215
③根据
Figure BDA000034817827000216
中的每个像素点的邻域窗口,通过最小化逼近多项式的均方误差估计
Figure BDA000034817827000217
中的每个像素点的深度值,得到深度估计图像,记为其中,
Figure BDA000034817827000219
表示
Figure BDA000034817827000220
中坐标位置为(x,y)的像素点的深度值;
④采用加权模式滤波器对
Figure BDA000034817827000221
中的每个像素点进行滤波处理,得到深度滤波图像,记为
Figure BDA000034817827000222
Figure BDA000034817827000223
作为最终后处理得到的用于绘制虚拟视点图像的深度图像,其中,
Figure BDA000034817827000224
表示中坐标位置为(x,y)的像素点的深度值。
所述的步骤②的具体过程为:
②-1、将中当前待处理的像素点定义为当前像素点;
②-2、假设当前像素点的坐标位置为(x1,y1),其中,1≤x1≤W,1≤y1≤H;
②-3、采用在不同卷积方向上的多个不同尺度的多项式核函数分别对
Figure BDA00003481782700031
进行卷积操作,得到当前像素点在不同卷积方向上的多个不同尺度各自对应的定向估计值,将当前像素点在第k个卷积方向θk上的第j个尺度hj对应的定向估计值记为 γ h j , θ k ( x 1 , y 1 ) , γ h j , θ k ( x 1 , y 1 ) = ( I ~ t , 1 * g h j , θ k ) ( x 1 , y 1 ) = Σ y ' = p y - y ' = p y + Σ x ' = p x - x ' = p x + I ~ t , 1 ( x ' , y ' ) · g h j , θ k ( x 1 - x ' , y 1 - y ' ) , 其中,1≤k≤K,K表示设定的卷积方向的个数,1≤j≤J,J表示设定的尺度的个数,
Figure BDA00003481782700034
表示
Figure BDA00003481782700035
的第1个分量的函数表示形式,符号“*”为卷积操作符号,
Figure BDA00003481782700036
表示当前像素点在第k个卷积方向θk上的第j个尺度hj的多项式核函数,
Figure BDA00003481782700037
表示采用
Figure BDA00003481782700038
中坐标位置为(x1,y1)的像素点的第1个分量进行卷积操作,px-=x1-hjcos(θk),px+=x1+hjcos(θk),py-=y1-hjsin(θk),py+=y1+hjsin(θk),
Figure BDA000034817827000310
表示
Figure BDA000034817827000311
中坐标位置为(x′,y′)的像素点的第1个分量的值,
Figure BDA000034817827000312
表示
Figure BDA000034817827000313
中坐标位置为(x1-x′,y1-y′)的像素点在第k个卷积方向θk上的第j个尺度hj的多项式核函数值, g h j , θ k ( x 1 - x ' , y 1 - y ' ) = ω h j ( x 1 - x ' , y 1 - y ' ) · ( φ h j ( x 1 - x ' , y 1 - y ' ) ) T · Φ h j - 1 · φ ( 0,0 ) , ω h j ( x 1 - x ' , y 1 - y ' ) = 1 2 h j + 1 · 1 2 h j + 1 , φ h j ( x 1 - x ' , y 1 - y ' ) = [ 1 , ( x 1 - x ' / h j ) · ( y 1 - y ' / h j ) ] T , ( φ h j ( x 1 - x ' , y 1 - y ' ) ) T φ h j ( x 1 - x ' , y 1 - y ' ) 的转置矩阵, φ ( 0,0 ) = [ 1,0 ] T , Φ h j = Σ y ' = p y - y ' = p y + Σ x ' = p x - x ' = p x + ω h j ( x 1 - x ' , y 1 - y ' ) · φ h j ( x 1 - x ' , y 1 - y ' ) · ( φ h j ( x 1 - x ' , y 1 - y ' ) ) T ,
Figure BDA000034817827000320
Figure BDA000034817827000321
的逆矩阵;
②-4、计算当前像素点在不同卷积方向上的多个不同尺度各自对应的置信区间的交点,将当前像素点在第k个卷积方向θk上的第j个尺度hj对应的置信区间的交点记为
Figure BDA000034817827000322
Figure BDA000034817827000323
D h l , θ k ( x 1 , y 1 ) = [ γ h l , θ k ( x 1 , y 1 ) - Γσ h l , θ k ( x 1 , y 1 ) , γ h l , θ k ( x 1 , y 1 ) + Γσ h l , θ k ( x 1 , y 1 ) ] , 其中,符号“∩”为求交集操作符号,1≤l≤j,
Figure BDA00003481782700042
表示当前像素点在第k个卷积方向θk上的第l个尺度hl对应的定向估计值,
Figure BDA00003481782700043
Figure BDA00003481782700044
的标准差,Γ为控制置信区间范围的参数,此处符号“[]”为区间表示符号。
②-5、根据当前像素点在不同卷积方向上的多个不同尺度各自对应的置信区间的交点,获取当前像素点在不同卷积方向上的最优尺度,对于第k个卷积方向θk,从当前像素点在第k个卷积方向θk上的多个不同尺度各自对应的置信区间的交点中找出非空的最大值,将该最大值对应的尺度作为当前像素点在第k个卷积方向θk上的最优尺度。
②-6、将由当前像素点在不同卷积方向上的最优尺度确立的形状区域作为当前像素点的邻域窗口,记为
Figure BDA00003481782700045
②-7、将
Figure BDA00003481782700046
中下一个待处理的像素点作为当前像素点,然后返回步骤②-2继续执行,直至
Figure BDA00003481782700047
中的所有像素点处理完毕,获得
Figure BDA00003481782700048
中的每个像素点的邻域窗口,再将
Figure BDA00003481782700049
中的每个像素点的邻域窗口作为
Figure BDA000034817827000410
中对应像素点的邻域窗口,将
Figure BDA000034817827000411
中的所有像素点的邻域窗口的集合记为
Figure BDA000034817827000412
所述的步骤②-3中取K=8,则
Figure BDA000034817827000413
所述的步骤②-3中取J=6,并取h1=1,h2=2,h3=3,h4=5,h5=7,h6=11。
所述的步骤②-4中取Γ=1.05。
所述的步骤③的具体过程为:
③-1、将
Figure BDA000034817827000414
中当前待处理的像素点定义为当前像素点;
③-2、假设当前像素点的坐标位置为p,将当前像素点的邻域窗口
Figure BDA000034817827000415
内的各个像素点的深度值分别记为y1,...,yN,其中,N表示内的像素点的个数,y1表示
Figure BDA000034817827000417
内的第1个像素点的深度值,yN表示
Figure BDA000034817827000418
内的第N个像素点的深度值;
③-3、令y=[y1,...,yN]T, G = 1 1 1 · · · 1 1 2 3 · · · N 1 2 2 3 2 · · · N 2 T , 然后根据y=[y1,...,yN]T G = 1 1 1 · · · 1 1 2 3 · · · N 1 2 2 3 2 · · · N 2 T , 估计当前像素点的深度值,得到
Figure BDA00003481782700053
中与当前像素点相对应的像素点的深度值,记为
Figure BDA00003481782700054
Figure BDA00003481782700055
其中,y为N×1维矩阵,G为N×3维矩阵,GT为G的转置矩阵,(GTG)-1为GTG的逆矩阵;
③-4、将
Figure BDA00003481782700056
中下一个待处理的像素点作为当前像素点,然后返回步骤③-2继续执行,直至
Figure BDA00003481782700057
中的所有像素点处理完毕,得到深度估计图像
所述的步骤④的具体过程为:
④-1、将
Figure BDA00003481782700059
中当前待处理的像素点定义为当前像素点;
④-2、假设当前像素点的坐标位置为p,然后构建一个加权模式滤波器
Figure BDA000034817827000510
再采用该加权模式滤波器对当前像素点进行滤波处理,得到
Figure BDA000034817827000511
中与当前像素点相对应的像素点的深度值,记为
Figure BDA000034817827000512
D ‾ t ( p ) = arg max d ∈ [ 0,255 ] H G ( p , d ) , 其中,0≤d≤255, arg max d ∈ [ 0,255 ] H G ( p , d ) 表示使得HG(p,d)的值最大的d值,q表示当前像素点的邻域窗口内的像素点的坐标位置,
Figure BDA000034817827000516
表示标准差为σr的高斯函数,
Figure BDA000034817827000518
GS(||p-q||)表示标准差为σS的高斯函数,
Figure BDA000034817827000519
||p-q||表示坐标位置p和坐标位置q之间的欧氏距离,符号“|| ||”为求欧氏距离符号,表示标准差为σI的高斯函数, G I ( D ^ t ( p ) - D ^ t ( q ) ) = exp ( - ( D ^ t ( p ) - D ^ t ( q ) ) 2 2 σ I 2 ) ,
Figure BDA00003481782700062
表示 { D ^ t ( x , y ) } 中坐标位置为p的像素点的深度值,
Figure BDA00003481782700064
表示
Figure BDA00003481782700065
中坐标位置为q的像素点的深度值,exp()表示以e为底的指数函数,e=2.71828183;
④-3、将
Figure BDA00003481782700066
中下一个待处理的像素点作为当前像素点,然后返回步骤④-2继续执行,直至中的所有像素点处理完毕,得到深度滤波图像
Figure BDA00003481782700068
所述的步骤④-2中取σr=3、σS=15、σI=6。
与现有技术相比,本发明的优点在于:
1)本发明方法采用基于置信区间的交点规则,确定解码得到的彩色图像中的每个像素点在不同卷积方向上的最优尺度,将由不同卷积方向上的最优尺度确立的形状区域作为解码得到的深度图像中相对应的像素点的邻域窗口,这种方式确立的邻域窗口能够很好地反映不同区域的深度结构信息,因此能够大大提高深度估计的精确性。
2)本发明方法通过分别采用深度估计(最小化逼近多项式的均方误差)和深度滤波(加权模式滤波器)两种深度后处理技术,能够从解码得到的失真深度图像中精确地恢复出真实深度信息,这样就能够有效地提高虚拟视点图像的绘制性能。
附图说明
图1为典型的三维视频系统的基本组成框图;
图2a为“Ballet”三维视频测试序列的第4个参考视点的一幅彩色图像;
图2b为图2a所示的彩色图像对应的深度图像;
图3a为“Breakdancers”三维视频测试序列的第4个参考视点的一幅彩色图像;
图3b为图3a所示的彩色图像对应的深度图像;
图4a为“Ballet”三维视频测试序列的第4个参考视点的解码的深度图像;
图4b为“Ballet”三维视频测试序列的第4个参考视点的采用双边滤波方法得到的深度滤波图像;
图4c为“Ballet”三维视频测试序列的第4个参考视点的采用三边滤波方法得到的深度滤波图像;
图4d为“Ballet”三维视频测试序列的第4个参考视点的采用本发明方法得到的深度滤波图像;
图5a为“Breakdancers”三维视频测试序列的第4个参考视点的解码的深度图像;
图5b为“Breakdancers”三维视频测试序列的第4个参考视点的采用双边滤波方法得到的深度滤波图像;
图5c为“Breakdancers”三维视频测试序列的第4个参考视点的采用三边滤波方法得到的深度滤波图像;
图5d为“Breakdancers”三维视频测试序列的第4个参考视点的采用本发明方法得到的深度滤波图像;
图6a为图4a的局部细节放大图;
图6b为图4b的局部细节放大图;
图6c为图4c的局部细节放大图;
图6d为图4d的局部细节放大图;
图7a为图5a的局部细节放大图;
图7b为图5b的局部细节放大图;
图7c为图5c的局部细节放大图;
图7d为图5d的局部细节放大图;
图8a为“Ballet”三维视频测试序列的第3个参考视点的采用解码的深度图像绘制得到的虚拟视点图像;
图8b为“Ballet”三维视频测试序列的第3个参考视点的采用双边滤波方法得到的深度滤波图像绘制得到的虚拟视点图像;
图8c为“Ballet”三维视频测试序列的第3个参考视点的采用三边滤波方法得到的深度滤波图像绘制得到的虚拟视点图像;
图8d为“Ballet”三维视频测试序列的第3个参考视点的采用本发明方法得到的深度滤波图像绘制得到的虚拟视点图像;
图9a为“Breakdancers”三维视频测试序列的第3个参考视点的采用解码的深度图像绘制得到的虚拟视点图像;
图9b为“Breakdancers”三维视频测试序列的第3个参考视点的采用双边滤波方法得到的深度滤波图像绘制得到的虚拟视点图像;
图9c为“Breakdancers”三维视频测试序列的第3个参考视点的采用三边滤波方法得到的深度滤波图像绘制得到的虚拟视点图像;
图9d为“Breakdancers”三维视频测试序列的第3个参考视点的采用本发明方法得到的深度滤波图像绘制得到的虚拟视点图像;
图10a为图8a的局部细节放大图;
图10b为图8b的局部细节放大图;
图10c为图8c的局部细节放大图;
图10d为图8d的局部细节放大图;
图11a为图9a的局部细节放大图;
图11b为图9b的局部细节放大图;
图11c为图9c的局部细节放大图;
图11d为图9d的局部细节放大图;
图12为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种深度图像的后处理方法,其总体实现框图如图12所示,其处理过程为:首先,在解码端获取解码得到的彩色图像和对应的深度图像;然后,利用基于置信区间的交点规则确定解码得到的深度图像中的每个像素点的邻域窗口;接着,通过最小化逼近多项式的均方误差估计解码得到的深度图像中的每个像素点的深度值,得到深度估计图像;最后,采用加权模式滤波器对深度估计图像中的每个像素点进行滤波处理,得到深度滤波图像,该深度滤波图像用于虚拟视点图像的绘制。
本发明的深度图像的后处理方法,它具体包括以下步骤:
①在解码端,将解码得到的t时刻的彩色图像记为
Figure BDA00003481782700081
将解码得到的t时刻的深度图像记为
Figure BDA00003481782700082
其中,i=1,2,3分别表示YUV颜色空间的三个分量,YUV颜色空间的第1个分量为亮度分量并记为Y、第2个分量为第一色度分量并记为U及第3个分量为第二色度分量并记为V,(x,y)表示彩色图像和深度图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示彩色图像和深度图像的宽度,H表示彩色图像和深度图像的高度,
Figure BDA00003481782700083
表示
Figure BDA00003481782700084
中坐标位置为(x,y)的像素点的第i个分量的值,
Figure BDA00003481782700085
表示中坐标位置为(x,y)的像素点的深度值。
在此,截取微软提供的三维视频序列“Ballet”和“Breakdancers”作为原始三维视频。图2a和图2b分别给出了三维视频序列“Ballet”的第4个参考视点的一幅原始彩色图像和对应的原始深度图像;图3a和图3b分别给出了三维视频序列“Breakdancers”的第4个参考视点的一幅原始彩色图像和对应的原始深度图像。
②由于彩色(深度)图像的不同区域的纹理特征是不一致的,如果对所有的区域都采用相同的邻域窗口会导致后续深度估计和深度滤波的不精确,因此本发明方法通过采用在不同卷积方向上的多个不同尺度的多项式核函数分别对
Figure BDA00003481782700091
进行卷积操作,获取
Figure BDA00003481782700092
中的每个像素点在不同卷积方向上的多个不同尺度各自的置信区间的交点,然后确定
Figure BDA00003481782700093
中的每个像素点在不同卷积方向上的最优尺度,再将由
Figure BDA00003481782700094
中的每个像素点在不同卷积方向上的最优尺度确立的形状区域作为
Figure BDA00003481782700095
中对应像素点的邻域窗口,将
Figure BDA00003481782700096
中坐标位置为(x,y)的像素点的邻域窗口记为
Figure BDA00003481782700097
Figure BDA00003481782700098
中的所有像素点的邻域窗口的集合记为
Figure BDA00003481782700099
在此具体实施例中,步骤②的具体过程为:
②-1、将
Figure BDA000034817827000910
中当前待处理的像素点定义为当前像素点。
②-2、假设当前像素点的坐标位置为(x1,y1),其中,1≤x1≤W,1≤y1≤H。
②-3、采用在不同卷积方向上的多个不同尺度的多项式核函数分别对
Figure BDA000034817827000911
进行卷积操作,得到当前像素点在不同卷积方向上的多个不同尺度各自对应的定向估计值,将当前像素点在第k个卷积方向θk上的第j个尺度hj对应的定向估计值记为 γ h j , θ k ( x 1 , y 1 ) , γ h j , θ k ( x 1 , y 1 ) = ( I ~ t , 1 * g h j , θ k ) ( x 1 , y 1 ) = Σ y ' = p y - y ' = p y + Σ x ' = p x - x ' = p x + I ~ t , 1 ( x ' , y ' ) · g h j , θ k ( x 1 - x ' , y 1 - y ' ) , 其中,1≤k≤K,K表示设定的卷积方向的个数,在本实施例中取K=8,则
Figure BDA000034817827000914
1≤j≤J,J表示设定的尺度的个数,在本实施例中取J=6,j=1时h1=1,j=2时h2=2,j=3时h3=3,j=4时h4=5,j=5时h5=7,j=6时h6=11,表示
Figure BDA000034817827000916
的第1个分量的函数表示形式,符号“*”为卷积操作符号,
Figure BDA000034817827000917
表示当前像素点在第k个卷积方向θk上的第j个尺度hj的多项式核函数,
Figure BDA000034817827000918
表示采用
Figure BDA000034817827000920
中坐标位置为(x1,y1)的像素点的第1个分量进行卷积操作,px-=x1-hjcos(θk),px+=x1+hjcos(θk),py-=y1-hjsin(θk),py+=y1+hjsin(θk),
Figure BDA00003481782700101
表示
Figure BDA00003481782700102
中坐标位置为(x′,y′)的像素点的第1个分量的值,表示
Figure BDA00003481782700104
中坐标位置为(x1-x',y1-y')的像素点在第k个卷积方向θk上的第j个尺度hj的多项式核函数值, g h j , θ k ( x 1 - x ' , y 1 - y ' ) = ω h j ( x 1 - x ' , y 1 - y ' ) · ( φ h j ( x 1 - x ' , y 1 - y ' ) ) T · Φ h j - 1 · φ ( 0,0 ) , ω h j ( x 1 - x ' , y 1 - y ' ) = 1 2 h j + 1 · 1 2 h j + 1 , φ h j ( x 1 - x ' , y 1 - y ' ) = [ 1 , ( x 1 - x ' / h j ) · ( y 1 - y ' / h j ) ] T , ( φ h j ( x 1 - x ' , y 1 - y ' ) ) T φ h j ( x 1 - x ' , y 1 - y ' ) 的转置矩阵, φ ( 0,0 ) = [ 1,0 ] T , Φ h j = Σ y ' = p y - y ' = p y + Σ x ' = p x - x ' = p x + ω h j ( x 1 - x ' , y 1 - y ' ) · φ h j ( x 1 - x ' , y 1 - y ' ) · ( φ h j ( x 1 - x ' , y 1 - y ' ) ) T ,
Figure BDA000034817827001012
的逆矩阵。
②-4、计算当前像素点在不同卷积方向上的多个不同尺度各自对应的置信区间的交点,将当前像素点在第k个卷积方向θk上的第j个尺度hj对应的置信区间的交点记为
Figure BDA000034817827001013
Figure BDA000034817827001014
D h l , θ k ( x 1 , y 1 ) = [ γ h l , θ k ( x 1 , y 1 ) - Γσ h l , θ k ( x 1 , y 1 ) , γ h l , θ k ( x 1 , y 1 ) + Γσ h l , θ k ( x 1 , y 1 ) ] , 其中,符号“∩”为求交集操作符号,1≤l≤j,
Figure BDA000034817827001016
表示当前像素点在第k个卷积方向θk上的第l个尺度hl对应的定向估计值,
Figure BDA000034817827001017
Figure BDA000034817827001018
的标准差, σ h l , θ k ( x 1 , y 1 ) = Σ y ' = p ' y - y ' = p ' y + Σ x ' = p ' x - x ' = p ' x + ( γ h l , θ k ( x ' , y ' ) - μ h l , θ k ( x 1 , y 1 ) ) 2 M , μ h l , θ k ( x 1 , y 1 ) = Σ y ' = p ' y - y ' = p ' y + Σ x ' = p ' x - x ' = p ' x + γ h l , θ k ( x ' , y ' ) M , p′x-=x1-hlcos(θk),p′x+=x1+hlcos(θk),p′y-=y1-hlsin(θk),p′y+=y1+hlsin(θk),M=(2hlcos(θk+1))(2hlsin(θk)+1),
Figure BDA000034817827001021
表示
Figure BDA000034817827001022
中坐标位置为(x′,y′)的像素点在第k个卷积方向θk上的第l个尺度hl对应的定向估计值,Γ为控制置信区间范围的参数,在本实施例中取Γ=1.05,此处符号“[]”为区间表示符号。
②-5、根据当前像素点在不同卷积方向上的多个不同尺度各自对应的置信区间的交点,获取当前像素点在不同卷积方向上的最优尺度,对于第k个卷积方向θk,从当前像素点在第k个卷积方向θk上的多个不同尺度各自对应的置信区间的交点(即集合
Figure BDA00003481782700111
中找出非空的最大值,将该最大值对应的尺度作为当前像素点在第k个卷积方向θk上的最优尺度。
②-6、将由当前像素点在不同卷积方向上的最优尺度确立的形状区域作为当前像素点的邻域窗口,记为
Figure BDA00003481782700112
②-7、将
Figure BDA00003481782700113
中下一个待处理的像素点作为当前像素点,然后返回步骤②-2继续执行,直至
Figure BDA00003481782700114
中的所有像素点处理完毕,获得
Figure BDA00003481782700115
中的每个像素点的邻域窗口,再将
Figure BDA00003481782700116
中的每个像素点的邻域窗口作为中对应像素点的邻域窗口,将
Figure BDA00003481782700118
中的所有像素点的邻域窗口的集合记为
Figure BDA00003481782700119
③由于在同一邻域窗口内的深度值分布较为平坦,具有一定的统计规律性,因此本发明方法根据
Figure BDA000034817827001110
中的每个像素点的邻域窗口,通过最小化逼近多项式的均方误差估计
Figure BDA000034817827001111
中的每个像素点的深度值,得到深度估计图像,记为
Figure BDA000034817827001112
其中,
Figure BDA000034817827001113
表示
Figure BDA000034817827001114
中坐标位置为(x,y)的像素点的深度值。
在此具体实施例中,步骤③的具体过程为:
③-1、将
Figure BDA000034817827001115
中当前待处理的像素点定义为当前像素点。
③-2、假设当前像素点的坐标位置为p,将当前像素点的邻域窗口
Figure BDA000034817827001116
内的各个像素点的深度值分别记为y1,...,yN,其中,N表示
Figure BDA000034817827001117
内的像素点的个数,y1表示
Figure BDA000034817827001118
内的第1个像素点的深度值,yN表示
Figure BDA000034817827001119
内的第N个像素点的深度值。
③-3、令y=[y1,...,yN]T G = 1 1 1 · · · 1 1 2 3 · · · N 1 2 2 3 2 · · · N 2 T , 然后根据y=[y1,...yN]T G = 1 1 1 · · · 1 1 2 3 · · · N 1 2 2 3 2 · · · N 2 T 估计当前像素点的深度值,即利用最小化逼近多项式的均方误差,得到
Figure BDA00003481782700123
中与当前像素点相对应的像素点的深度值,记为
Figure BDA00003481782700124
其中,y为N×1维矩阵,G为N×3维矩阵,GT为G的转置矩阵,(GTG)-1为GTG的逆矩阵。
③-4、将
Figure BDA00003481782700126
中下一个待处理的像素点作为当前像素点,然后返回步骤③-2继续执行,直至
Figure BDA00003481782700127
中的所有像素点处理完毕,得到深度估计图像
Figure BDA00003481782700128
④由于通过最小化逼近多项式的均方误差估计得到的深度值并没有充分考虑深度图像的边缘特性,会在估计得到的深度估计图像的边缘区域出现模糊现象,因此本发明方法采用加权模式滤波器对中的每个像素点进行滤波处理,得到深度滤波图像,记为
Figure BDA000034817827001210
作为最终后处理得到的用于绘制虚拟视点图像的深度图像,即根据
Figure BDA000034817827001212
Figure BDA000034817827001213
采用基于深度图像的绘制得到虚拟视点图像,其中,
Figure BDA000034817827001214
表示
Figure BDA000034817827001215
中坐标位置为(x,y)的像素点的深度值。
在此具体实施例中,步骤④的具体过程为:
④-1、将
Figure BDA000034817827001216
中当前待处理的像素点定义为当前像素点。
④-2、假设当前像素点的坐标位置为p,然后构建一个加权模式滤波器
Figure BDA000034817827001217
再采用该加权模式滤波器对当前像素点进行滤波处理,得到
Figure BDA000034817827001218
中与当前像素点相对应的像素点的深度值,记为
Figure BDA000034817827001219
D ‾ t ( p ) = arg max d ∈ [ 0,255 ] H G ( p , d ) , 其中,0≤d≤255, arg max d ∈ [ 0,255 ] H G ( p , d ) 表示使得HG(p,d)的值最大的d值,q表示当前像素点的邻域窗口
Figure BDA00003481782700131
内的像素点的坐标位置,
Figure BDA00003481782700132
Figure BDA00003481782700133
表示标准差为σr的高斯函数,
Figure BDA00003481782700134
GS(||p-q||)表示标准差为σS的高斯函数,
Figure BDA00003481782700135
||p-q||表示坐标位置p和坐标位置q之间的欧氏距离,符号“|| ||”为求欧氏距离符号,
Figure BDA00003481782700136
表示标准差为σI的高斯函数, G I ( D ^ t ( p ) - D ^ t ( q ) ) = exp ( - ( D ^ t ( p ) - D ^ t ( q ) ) 2 2 σ I 2 ) ,
Figure BDA00003481782700138
表示 { D ^ t ( x , y ) } 中坐标位置为p的像素点的深度值,
Figure BDA000034817827001310
表示
Figure BDA000034817827001311
中坐标位置为q的像素点的深度值,exp()表示以e为底的指数函数,e=2.71828183,在本实施例中取σr=3、σS=15、σI=6。
④-3、将
Figure BDA000034817827001312
中下一个待处理的像素点作为当前像素点,然后返回步骤④-2继续执行,直至
Figure BDA000034817827001313
中的所有像素点处理完毕,得到深度滤波图像
Figure BDA000034817827001314
以下就本发明方法对“Ballet”和“Breakdancers”三维视频序列进行深度后处理和虚拟视点图像绘制的主客观性能进行比较。
对“Ballet”和“Breakdancers”三维视频测试序列的解码的深度图像进行滤波后处理实验,图4a给出了“Ballet”三维视频测试序列的第4个参考视点的解码的深度图像,图4b给出了“Ballet”三维视频测试序列的第4个参考视点的采用双边滤波方法得到的深度滤波图像,图4c给出了“Ballet”三维视频测试序列的第4个参考视点的采用三边滤波方法得到的深度滤波图像,图4d给出了“Ballet”三维视频测试序列的第4个参考视点的采用本发明方法得到的深度滤波图像,图5a给出了“Breakdancers”三维视频测试序列的第4个参考视点的解码的深度图像,图5b给出了“Breakdancers”三维视频测试序列的第4个参考视点的采用双边滤波方法得到的深度滤波图像,图5c给出了“Breakdancers”三维视频测试序列的第4个参考视点的采用三边滤波方法得到的深度滤波图像,图5d给出了“Breakdancers”三维视频测试序列的第4个参考视点的采用本发明方法得到的深度滤波图像,图6a、图6b、图6c和图6d分别给出了图4a、图4b、图4c和图4d的局部细节放大图,图7a、图7b、图7c和图7d分别给出了图5a、图5b、图5c和图5d的局部细节放大图。从图4a至图7d中可以看出,采用本发明方法得到的滤波处理后的深度图像即深度滤波图像,保持了深度图像的重要的几何特征,产生了令人满意的锐利的边缘和平滑的轮廓。
将采用本发明方法得到的深度滤波图像绘制得到的虚拟视点图像,与不采用本发明方法得到的深度滤波图像绘制得到的虚拟视点图像进行比较。图8a给出了“Ballet”三维视频测试序列的第3个参考视点的采用解码的深度图像绘制得到的虚拟视点图像,图8b给出了“Ballet”三维视频测试序列的第3个参考视点的采用双边滤波方法得到的深度滤波图像绘制得到的虚拟视点图像,图8c给出了“Ballet”三维视频测试序列的第3个参考视点的采用三边滤波方法得到的深度滤波图像绘制得到的虚拟视点图像,图8d给出了“Ballet”三维视频测试序列的第3个参考视点的采用本发明方法得到的深度滤波图像绘制得到的虚拟视点图像,图9a给出了“Breakdancers”三维视频测试序列的第3个参考视点的采用解码的深度图像绘制得到的虚拟视点图像,图9b给出了“Breakdancers”三维视频测试序列的第3个参考视点的采用双边滤波方法得到的深度滤波图像绘制得到的虚拟视点图像,图9c给出了“Breakdancers”三维视频测试序列的第3个参考视点的采用三边滤波方法得到的深度滤波图像绘制得到的虚拟视点图像,图9d给出了“Breakdancers”三维视频测试序列的第3个参考视点的采用本发明方法得到的深度滤波图像绘制得到的虚拟视点图像,图10a、图10b、图10c和图10d分别给出了图8a、图8b、图8c和图8d的局部细节放大图,图11a、图11b、图11c和图11d分别给出了图9a、图9b、图9c和图9d的局部细节放大图。从图8a至图11d中可以看出,采用本发明方法得到的深度滤波图像绘制得到的虚拟视点图像能够保持更好的对象轮廓信息,从而降低了由于深度图像的失真而引起的映射过程中产生的背景对前景的覆盖,提高了虚拟视点图像的质量。
将采用本发明方法得到的深度滤波图像绘制得到的虚拟视点图像与不采用本发明方法得到的深度滤波图像绘制得到的虚拟视点图像的峰值信噪比(PSNR)进行比较,比较结果如表1所列,从表1所列的数据中可以看出,采用本发明方法得到的深度滤波图像绘制得到的虚拟视点图像的质量要明显好于不采用本发明方法得到的深度滤波图像绘制得到的虚拟视点图像的质量,充分说明了本发明方法是有效可行的。
表1采用本发明方法得到的深度滤波图像绘制得到的虚拟视点图像与不采用本发明方法得到的深度滤波图像绘制得到的虚拟视点图像的峰值信噪比(PSNR)比较
测试序列\方法 解码深度图 双边滤波方法 三边滤波方法 本发明方法
Ballet 36.658635 37.334545 37.775843 37.869668
Breakdancers 36.243424 36.480792 36.600496 36.651043

Claims (8)

1.一种深度图像的后处理方法,其特征在于它的处理过程为:首先,在解码端获取解码得到的彩色图像和对应的深度图像;然后,利用基于置信区间的交点规则确定解码得到的深度图像中的每个像素点的邻域窗口;接着,通过最小化逼近多项式的均方误差估计解码得到的深度图像中的每个像素点的深度值,得到深度估计图像;最后,采用加权模式滤波器对深度估计图像中的每个像素点进行滤波处理,得到深度滤波图像,该深度滤波图像用于虚拟视点图像的绘制。
2.根据权利要求1所述的一种深度图像的后处理方法,其特征在于它具体包括以下步骤:
①在解码端,将解码得到的t时刻的彩色图像记为
Figure FDA00003481782600011
将解码得到的t时刻的深度图像记为
Figure FDA00003481782600012
其中,i=1,2,3分别表示YUV颜色空间的三个分量,YUV颜色空间的第1个分量为亮度分量并记为Y、第2个分量为第一色度分量并记为U及第3个分量为第二色度分量并记为V,(x,y)表示彩色图像和深度图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示彩色图像和深度图像的宽度,H表示彩色图像和深度图像的高度,表示
Figure FDA00003481782600014
中坐标位置为(x,y)的像素点的第i个分量的值,表示
Figure FDA00003481782600016
中坐标位置为(x,y)的像素点的深度值;
②通过采用在不同卷积方向上的多个不同尺度的多项式核函数分别对进行卷积操作,获取
Figure FDA00003481782600018
中的每个像素点在不同卷积方向上的多个不同尺度各自的置信区间的交点,然后确定
Figure FDA00003481782600019
中的每个像素点在不同卷积方向上的最优尺度,再将由
Figure FDA000034817826000110
中的每个像素点在不同卷积方向上的最优尺度确立的形状区域作为中对应像素点的邻域窗口,将
Figure FDA000034817826000112
中坐标位置为(x,y)的像素点的邻域窗口记为
Figure FDA000034817826000113
Figure FDA000034817826000114
中的所有像素点的邻域窗口的集合记为
Figure FDA000034817826000115
③根据中的每个像素点的邻域窗口,通过最小化逼近多项式的均方误差估计
Figure FDA000034817826000117
中的每个像素点的深度值,得到深度估计图像,记为其中,
Figure FDA00003481782600021
表示
Figure FDA00003481782600022
中坐标位置为(x,y)的像素点的深度值;
④采用加权模式滤波器对中的每个像素点进行滤波处理,得到深度滤波图像,记为
Figure FDA00003481782600024
Figure FDA00003481782600025
作为最终后处理得到的用于绘制虚拟视点图像的深度图像,其中,
Figure FDA00003481782600026
表示
Figure FDA00003481782600027
中坐标位置为(x,y)的像素点的深度值。
3.根据权利要求2所述的一种深度图像的后处理方法,其特征在于所述的步骤②的具体过程为:
②-1、将
Figure FDA00003481782600028
中当前待处理的像素点定义为当前像素点;
②-2、假设当前像素点的坐标位置为(x1,y1),其中,1≤x1≤W,1≤y1≤H;
②-3、采用在不同卷积方向上的多个不同尺度的多项式核函数分别对
Figure FDA00003481782600029
进行卷积操作,得到当前像素点在不同卷积方向上的多个不同尺度各自对应的定向估计值,将当前像素点在第k个卷积方向θk上的第j个尺度hj对应的定向估计值记为 γ h j , θ k ( x 1 , y 1 ) , γ h j , θ k ( x 1 , y 1 ) = ( I ~ t , 1 * g h j , θ k ) ( x 1 , y 1 ) = Σ y ′ = p y - y ′ = p y + Σ x ′ = p x - x ′ = p x + I ~ t , 1 ( x ′ , y ′ ) · g h j , θ k ( x 1 - x ′ , y 1 - y ′ ) , 其中,1≤k≤K,K表示设定的卷积方向的个数,1≤j≤J,J表示设定的尺度的个数,
Figure FDA000034817826000211
表示的第1个分量的函数表示形式,符号“*”为卷积操作符号,
Figure FDA000034817826000213
表示当前像素点在第k个卷积方向θk上的第j个尺度hj的多项式核函数,
Figure FDA000034817826000214
表示采用
Figure FDA000034817826000215
Figure FDA000034817826000216
中坐标位置为(x1,y1)的像素点的第1个分量进行卷积操作,px-=x1-hjcos(θk),px+=x1+hjcos(θk),py-=y1-hjsin(θk),py+=y1+hjsin(θk),
Figure FDA000034817826000217
表示
Figure FDA000034817826000218
中坐标位置为(x',y')的像素点的第1个分量的值,表示
Figure FDA000034817826000220
中坐标位置为(x1-x',y1-y')的像素点在第k个卷积方向θk上的第j个尺度hj的多项式核函数值, g h j , θ k ( x 1 - x ′ , y 1 - y ′ ) = ω h j ( x 1 - x ′ , y 1 - y ′ ) · ( φ h j ( x 1 - x ′ , y 1 - y ′ ) ) T · Φ h j - 1 · φ ( 0,0 ) , ω h j ( x 1 - x ′ , y 1 - y ′ ) = 1 2 h j + 1 · 1 2 h j + 1 , φ h j ( x 1 - x ′ , y 1 - y ′ ) = [ 1 , ( x 1 - x ′ / h j ) · ( y 1 - y ′ / h j ) ] T ,
Figure FDA00003481782600032
的转置矩阵,φ(0,0)=[1,0]T Φ h j = Σ y ′ = p y - y ′ = p y + Σ x ′ = p x - x ′ = p x + ω h j ( x 1 - x ′ , y 1 - y ′ ) · φ h j ( x 1 - x ′ , y 1 - y ′ ) · ( φ h j ( x 1 - x ′ , y 1 - y ′ ) ) T ,
Figure FDA00003481782600035
Figure FDA00003481782600036
的逆矩阵;
②-4、计算当前像素点在不同卷积方向上的多个不同尺度各自对应的置信区间的交点,将当前像素点在第k个卷积方向θk上的第j个尺度hj对应的置信区间的交点记为
Figure FDA00003481782600037
Figure FDA00003481782600038
D h l , θ k ( x 1 , y 1 ) = [ γ h l , θ k ( x 1 , y 1 ) - Γ σ h l , θ k ( x 1 , y 1 ) , γ h l , θ k ( x 1 , y 1 ) + Γ σ h l , θ k ( x 1 , y 1 ) ] , 其中,符号“∩”为求交集操作符号,1≤l≤j,
Figure FDA000034817826000310
表示当前像素点在第k个卷积方向θk上的第l个尺度hl对应的定向估计值,
Figure FDA000034817826000311
Figure FDA000034817826000312
的标准差,Γ为控制置信区间范围的参数,此处符号“[]”为区间表示符号。
②-5、根据当前像素点在不同卷积方向上的多个不同尺度各自对应的置信区间的交点,获取当前像素点在不同卷积方向上的最优尺度,对于第k个卷积方向θk,从当前像素点在第k个卷积方向θk上的多个不同尺度各自对应的置信区间的交点中找出非空的最大值,将该最大值对应的尺度作为当前像素点在第k个卷积方向θk上的最优尺度。
②-6、将由当前像素点在不同卷积方向上的最优尺度确立的形状区域作为当前像素点的邻域窗口,记为
Figure FDA000034817826000313
②-7、将中下一个待处理的像素点作为当前像素点,然后返回步骤②-2继续执行,直至
Figure FDA000034817826000315
中的所有像素点处理完毕,获得
Figure FDA000034817826000316
中的每个像素点的邻域窗口,再将
Figure FDA000034817826000317
中的每个像素点的邻域窗口作为
Figure FDA000034817826000318
中对应像素点的邻域窗口,将
Figure FDA000034817826000319
中的所有像素点的邻域窗口的集合记为
Figure FDA000034817826000320
4.根据权利要求3所述的一种深度图像的后处理方法,其特征在于所述的步骤②-3中取K=8,则
Figure FDA00003481782600041
所述的步骤②-3中取J=6,并取h1=1,h2=2,h3=3,h4=5,h5=7,h6=11。
5.根据权利要求4所述的一种深度图像的后处理方法,其特征在于所述的步骤②-4中取Γ=1.05。
6.根据权利要求2至5中任一项所述的一种深度图像的后处理方法,其特征在于所述的步骤③的具体过程为:
③-1、将
Figure FDA00003481782600042
中当前待处理的像素点定义为当前像素点;
③-2、假设当前像素点的坐标位置为p,将当前像素点的邻域窗口内的各个像素点的深度值分别记为y1,…,yN,其中,N表示
Figure FDA00003481782600044
内的像素点的个数,y1表示内的第1个像素点的深度值,yN表示
Figure FDA00003481782600046
内的第N个像素点的深度值;
③-3、令y=[y1,…,yN]T G = 1 1 1 · · · 1 1 2 3 · · · N 1 2 2 3 2 · · · N 2 T , 然后根据y=[y1,…,yN]T G = 1 1 1 · · · 1 1 2 3 · · · N 1 2 2 3 2 · · · N 2 T 估计当前像素点的深度值,得到
Figure FDA00003481782600049
中与当前像素点相对应的像素点的深度值,记为
Figure FDA000034817826000410
Figure FDA000034817826000411
其中,y为N×1维矩阵,G为N×3维矩阵,GT为G的转置矩阵,(GTG)-1为GTG的逆矩阵;
③-4、将
Figure FDA000034817826000412
中下一个待处理的像素点作为当前像素点,然后返回步骤③-2继续执行,直至中的所有像素点处理完毕,得到深度估计图像
7.根据权利要求6所述的一种深度图像的后处理方法,其特征在于所述的步骤④的具体过程为:
④-1、将
Figure FDA000034817826000415
中当前待处理的像素点定义为当前像素点;
④-2、假设当前像素点的坐标位置为p,然后构建一个加权模式滤波器
Figure FDA00003481782600051
再采用该加权模式滤波器对当前像素点进行滤波处理,得到
Figure FDA00003481782600052
中与当前像素点相对应的像素点的深度值,记为
Figure FDA00003481782600053
Figure FDA00003481782600054
其中,0≤d≤255,
Figure FDA00003481782600055
表示使得HG(p,d)的值最大的d值,q表示当前像素点的邻域窗口内的像素点的坐标位置,
Figure FDA00003481782600057
Figure FDA00003481782600058
表示标准差为σr的高斯函数,GS(‖p-q‖)表示标准差为σS的高斯函数,
Figure FDA000034817826000510
‖p-q‖表示坐标位置p和坐标位置q之间的欧氏距离,符号“‖‖”为求欧氏距离符号,
Figure FDA000034817826000511
表示标准差为σI的高斯函数, G I ( D ^ t ( p ) - D ^ t ( q ) ) = exp ( - ( D ^ t ( p ) - D ^ t ( q ) ) 2 2 σ I 2 ) ,
Figure FDA000034817826000513
表示中坐标位置为p的像素点的深度值,
Figure FDA000034817826000515
表示
Figure FDA000034817826000516
中坐标位置为q的像素点的深度值,exp()表示以e为底的指数函数,e=2.71828183;
④-3、将
Figure FDA000034817826000517
中下一个待处理的像素点作为当前像素点,然后返回步骤④-2继续执行,直至
Figure FDA000034817826000518
中的所有像素点处理完毕,得到深度滤波图像
Figure FDA000034817826000519
8.根据权利要求7所述的一种深度图像的后处理方法,其特征在于所述的步骤④-2中取σr=3、σS=15、σI=6。
CN201310285370.XA 2013-07-09 2013-07-09 一种深度图像的后处理方法 Active CN103369341B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310285370.XA CN103369341B (zh) 2013-07-09 2013-07-09 一种深度图像的后处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310285370.XA CN103369341B (zh) 2013-07-09 2013-07-09 一种深度图像的后处理方法

Publications (2)

Publication Number Publication Date
CN103369341A true CN103369341A (zh) 2013-10-23
CN103369341B CN103369341B (zh) 2015-06-03

Family

ID=49369736

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310285370.XA Active CN103369341B (zh) 2013-07-09 2013-07-09 一种深度图像的后处理方法

Country Status (1)

Country Link
CN (1) CN103369341B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107995490A (zh) * 2017-12-14 2018-05-04 清华大学 信号获取方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101720480B (zh) * 2007-07-03 2012-07-18 皇家飞利浦电子股份有限公司 计算深度图
CN102769749A (zh) * 2012-06-29 2012-11-07 宁波大学 一种深度图像的后处理方法
EP2570990A1 (en) * 2011-09-13 2013-03-20 Thomson Licensing Apparatus and method for determining a confidence value of a disparity estimate
US20130113881A1 (en) * 2011-11-03 2013-05-09 Texas Instruments Incorporated Reducing Disparity and Depth Ambiguity in Three-Dimensional (3D) Images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101720480B (zh) * 2007-07-03 2012-07-18 皇家飞利浦电子股份有限公司 计算深度图
EP2570990A1 (en) * 2011-09-13 2013-03-20 Thomson Licensing Apparatus and method for determining a confidence value of a disparity estimate
US20130113881A1 (en) * 2011-11-03 2013-05-09 Texas Instruments Incorporated Reducing Disparity and Depth Ambiguity in Three-Dimensional (3D) Images
CN102769749A (zh) * 2012-06-29 2012-11-07 宁波大学 一种深度图像的后处理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MOTTEN, A.; CLAESEN, L.; YUN PAN: "Binary confidence evaluation for a stereo vision based depth field processor SoC", 《PATTERN RECOGNITION (ACPR), 2011 FIRST ASIAN CONFERENCE ON》, 28 November 2011 (2011-11-28) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107995490A (zh) * 2017-12-14 2018-05-04 清华大学 信号获取方法及装置

Also Published As

Publication number Publication date
CN103369341B (zh) 2015-06-03

Similar Documents

Publication Publication Date Title
EP3232661B1 (en) Image processing method and device
CN103347196B (zh) 一种基于机器学习的立体图像视觉舒适度评价方法
CN103957397B (zh) 一种基于图像特征的低分辨率深度图像上采样方法
CN103248906B (zh) 一种双目立体视频序列的深度图获取方法与系统
CN104809709A (zh) 基于域变换与带权四叉树分解的单幅图像自适应去雾方法
CN103440653A (zh) 双目视觉立体匹配方法
CN104574328A (zh) 一种基于直方图分割的彩色图像增强方法
CN103136748B (zh) 一种基于特征图的立体图像质量客观评价方法
CN103914820A (zh) 一种基于图像分层增强的图像去雾方法及系统
CN104394403A (zh) 一种面向压缩失真的立体视频质量客观评价方法
CN105376563A (zh) 基于双目融合特征相似度的无参考立体图像质量评价方法
CN103942756B (zh) 一种深度图后处理滤波的方法
CN106251348A (zh) 一种面向深度相机的自适应多线索融合背景减除方法
CN105096261A (zh) 图像处理装置和图像处理方法
CN103971354A (zh) 低分辨率红外图像重建高分辨率红外图像的方法
CN104519371B (zh) 推送方法、推送装置和服务器
CN105141940A (zh) 一种分区域的3d视频编码方法
CN102903107A (zh) 一种基于特征融合的立体图像质量客观评价方法
CN104270624A (zh) 一种分区域的3d视频映射方法
CN112233049A (zh) 一种用于提升图像清晰度的图像融合方法
CN102223545B (zh) 一种快速多视点视频颜色校正方法
CN109218706B (zh) 一种由单张图像生成立体视觉图像的方法
CN107945151A (zh) 一种基于相似性变换的重定位图像质量评价方法
CN104822030A (zh) 一种基于图像变形的不规则视频矩形化矫正方法
CN104036517A (zh) 一种基于梯度采样的图像抠图方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20191219

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co.,Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20211202

Address after: Building a, working area B, 3 / F, building 1, 196 Xuefu Road, Nangang District, Harbin City, Heilongjiang Province

Patentee after: Harbin Yusheng Technology Development Co.,Ltd.

Address before: 510000 room b4560, second and fourth floor, No. 59, Zhuji Road, Tianhe District, Guangzhou City, Guangdong Province (office only)

Patentee before: Guangzhou Yujing Technology Service Co.,Ltd.

Effective date of registration: 20211202

Address after: 510000 room b4560, second and fourth floor, No. 59, Zhuji Road, Tianhe District, Guangzhou City, Guangdong Province (office only)

Patentee after: Guangzhou Yujing Technology Service Co.,Ltd.

Address before: 313000 room 1020, science and Technology Pioneer Park, 666 Chaoyang Road, Nanxun Town, Nanxun District, Huzhou, Zhejiang.

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.