CN102271254B - 一种深度图像的预处理方法 - Google Patents

一种深度图像的预处理方法 Download PDF

Info

Publication number
CN102271254B
CN102271254B CN 201110206435 CN201110206435A CN102271254B CN 102271254 B CN102271254 B CN 102271254B CN 201110206435 CN201110206435 CN 201110206435 CN 201110206435 A CN201110206435 A CN 201110206435A CN 102271254 B CN102271254 B CN 102271254B
Authority
CN
China
Prior art keywords
image
reference view
value
pixel point
depth image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 201110206435
Other languages
English (en)
Other versions
CN102271254A (zh
Inventor
邵枫
蒋刚毅
郁梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong Guomi Qi Machinery Equipment Co ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN 201110206435 priority Critical patent/CN102271254B/zh
Publication of CN102271254A publication Critical patent/CN102271254A/zh
Application granted granted Critical
Publication of CN102271254B publication Critical patent/CN102271254B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种深度图像的预处理方法,其根据深度失真对虚拟视点图像绘制的影响,并结合人眼的视觉特性得到深度图像的最大可容忍失真分布图像,再根据可容忍失真分布图像将深度图像分成置信内容区域和非置信内容区域,并设计两组不同滤波强度的双向滤波器分别对置信内容和非置信内容区域的各个像素点的深度值进行滤波处理,优点在于根据深度图像的最大可容忍失真分布图像来选择滤波的强度,这样在保证虚拟视点图像绘制性能的基础上,大大提高了深度图像的压缩效率。

Description

一种深度图像的预处理方法
技术领域
本发明涉及一种图像处理方法,尤其是涉及一种深度图像的预处理方法。
背景技术
三维视频(Three-Dimensional Video,3DV)是一种先进的视觉模式,它使人们在屏幕上观看图像时富有立体感和沉浸感,可以满足人们从不同角度观看三维(3D)场景的需求。典型的三维视频系统如图1所示,其主要包括视频捕获、视频编码、传输解码、虚拟视点绘制和交互显示等模块。
多视点视频加深度(multi-view video plus depth,MVD)是目前ISO/MPEG推荐采用的3D场景信息表示方式。MVD数据在多视点彩色图像基础上增加了对应视点的深度信息,深度信息的获取目前主要有两种基本途径:1)通过深度相机获取;2)通过算法从普通的二维(2D)视频中生成深度信息。基于深度图像的绘制(Depth Image BasedRendering,DIBR)是一种利用参考视点的彩色图像所对应的深度图像绘制生成虚拟视点图像的方法,其通过利用参考视点的彩色图像及该参考视点的彩色图像中的每个像素点对应的深度信息来合成三维场景的虚拟视点图像。由于DIBR将场景的深度信息引入到虚拟视点图像绘制中,从而大大减少了虚拟视点图像绘制所需的参考视点的数目。
与彩色图像相比,深度图像的纹理简单,其包括较多的平坦区域,但由于深度图像获取算法的局限性,因此深度图像普遍存在时间连续性差、深度不连续等问题。目前已提出了一些针对深度图像的预处理方法,如对称高斯滤波和非对称高斯滤波等算法,然而这些预处理方法考虑更多的是如何提升编码的性能,而深度图像用于辅助DIBR和3D显示,并非直接用于观看,因此,如何对深度图像进行预处理,在保证编码效率的前提下使得深度失真对虚拟视点图像绘制的影响以及对3D显示的主观感知质量的影响最小,是目前对深度图像进行预处理需要解决的问题。
发明内容
本发明所要解决的技术问题是提供一种在保持虚拟视点图像绘制性能的基础上,能够大大提高深度图像的压缩效率的深度图像预处理方法。
本发明解决上述技术问题所采用的技术方案为:一种深度图像的预处理方法,其特征在于包括以下步骤:
①获取t时刻的K个参考视点的K幅颜色空间为YUV的彩色图像及其对应的K幅深度图像,将t时刻的第k个参考视点的彩色图像记为
Figure BDA0000077683260000021
将t时刻的第k个参考视点的深度图像记为
Figure BDA0000077683260000022
其中,1≤k≤K,k的初始值为1,i=1,2,3分别表示YUV颜色空间的三个分量,YUV颜色空间的第1个分量为亮度分量并记为Y、第2个分量为第一色度分量并记为U及第3个分量为第二色度分量并记为V,(x,y)表示彩色图像或深度图像中像素点的坐标位置,1≤x≤W,1≤y≤H,W表示彩色图像或深度图像的宽度,H表示彩色图像或深度图像的高度,
Figure BDA0000077683260000023
表示t时刻的第k个参考视点的彩色图像中坐标位置为(x,y)的像素点的第i个分量的值,
Figure BDA0000077683260000025
表示t时刻的第k个参考视点的深度图像中坐标位置为(x,y)的像素点的深度值;
②利用人类视觉对背景光照和纹理的视觉掩蔽效应,提取出t时刻的第k个参考视点的彩色图像
Figure BDA0000077683260000027
的最小可察觉变化步长图像,记为
Figure BDA0000077683260000028
③根据t时刻的第k个参考视点的彩色图像的最小可察觉变化步长图像
Figure BDA00000776832600000210
提取出t时刻的第k个参考视点的深度图像
Figure BDA00000776832600000211
的最大可容忍失真分布图像,记为
Figure BDA00000776832600000212
④根据t时刻的第k个参考视点的深度图像
Figure BDA00000776832600000213
的最大可容忍失真分布图像
Figure BDA00000776832600000214
将t时刻的第k个参考视点的深度图像
Figure BDA00000776832600000215
分割成置信内容区域和非置信内容区域;
⑤利用两组不同滤波强度的双向滤波器分别对t时刻的第k个参考视点的深度图像
Figure BDA00000776832600000216
的置信内容区域和非置信内容区域中的各个像素点的深度值进行滤波处理,得到滤波后的深度图像,记为
⑥令k′=k+1,k=k′,返回步骤②继续执行,直至得到t时刻的K个参考视点的K幅滤波后的深度图像,K幅滤波后的深度图像用集合表示为
Figure BDA00000776832600000218
其中,k′的初始值为0;
⑦根据设定的编码预测结构分别对t时刻的K个参考视点的K幅颜色空间为YUV的彩色图像及其对应的K幅滤波后的深度图像进行编码,再将编码后的K幅彩色图像及其对应的K幅深度图像经网络传输给解码端;
⑧在解码端对编码后的K幅彩色图像及其对应的K幅深度图像进行解码,获得解码后的t时刻的K个参考视点的K幅彩色图像及其对应的K幅深度图像,采用基于深度图像的绘制得到虚拟视点图像。
所述的步骤②包括以下具体步骤:
②-1、计算t时刻的第k个参考视点的彩色图像的背景光照的视觉掩蔽效应的可视化阈值集合,记为{Tl(x,y)},
Figure BDA0000077683260000032
其中,表示t时刻的第k个参考视点的彩色图像
Figure BDA0000077683260000034
中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值;
②-2、计算t时刻的第k个参考视点的彩色图像
Figure BDA0000077683260000035
的纹理的视觉掩蔽效应的可视化阈值集合,记为
Figure BDA0000077683260000036
Tt(x,y)=η×G(x,y)×We(x,y),其中,η为大于0的控制因子,G(x,y)表示对t时刻的第k个参考视点的彩色图像
Figure BDA0000077683260000037
中坐标位置为(x,y)的像素点进行定向高通滤波得到的最大加权平均值,We(x,y)表示对t时刻的第k个参考视点的彩色图像的边缘图像中坐标位置为(x,y)的像素点进行高斯低通滤波得到的边缘加权值;
②-3、对t时刻的第k个参考视点的彩色图像
Figure BDA0000077683260000039
的背景光照的视觉掩蔽效应的可视化阈值集合{Tl(x,y)}和纹理的视觉掩蔽效应的可视化阈值集合{Tt(x,y)}进行融合,得到t时刻的第k个参考视点的彩色图像
Figure BDA00000776832600000310
的最小可察觉变化步长图像,记为
Figure BDA00000776832600000311
J t k ( x , y ) = T l ( x , y ) + T t ( x , y ) - C l , t × min { T l ( x , y ) , T t ( x , y ) } , 其中,Cl,t表示控制背景光照和纹理的视觉掩蔽效应重叠影响的参数,0<Cl,t<1,min{}为取最小值函数。
所述的步骤③包括以下具体步骤:
③-1、定义t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000041
中当前正在处理的像素点为当前像素点;
③-2、将当前像素点的坐标位置记为(x1,y1),将与当前像素点水平相邻的像素点的坐标位置记为(x1+Δx,y1),计算当前像素点和与其水平相邻的像素点之间的颜色距离,记为Ψ(x1+Δx,y1), Ψ ( x 1 + Δx , y 1 ) = | I R , t , 1 k ( x 1 , y 1 ) - I R , t , 1 k ( x 1 + Δx , y 1 ) | , 计算当前像素点和与其水平相邻的像素点之间的深度距离,记为Φ(x1+Δx,y1), Φ ( x 1 + Δx , y 1 ) = | D R , t k ( x 1 , y 1 ) - D R , t k ( x 1 + Δx , y 1 ) | , 其中,Δx表示水平偏移量,-W′≤Δx<0或0<Δx≤W′,W′为最大水平偏移量,“||”为绝对值符号,表示t时刻的第k个参考视点的彩色图像
Figure BDA0000077683260000045
中坐标位置为(x1,y1)的像素点的Y分量的值,
Figure BDA0000077683260000046
表示t时刻的第k个参考视点的彩色图像
Figure BDA0000077683260000047
中坐标位置为(x1+Δx,y1)的像素点的Y分量的值,
Figure BDA0000077683260000048
表示t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000049
中坐标位置为(x1,y1)的像素点的深度值,
Figure BDA00000776832600000410
表示t时刻的第k个参考视点的深度图像中坐标位置为(x1+Δx,y1)的像素点的深度值;
③-3、从当前像素点的左方向水平偏移量集合{ΔxL|-W′≤ΔxL≤-1}中任取一个ΔxL′,如果
Figure BDA00000776832600000412
且Φ(x1+ΔxL′,y1)≤T1同时成立,则认为ΔxL′为当前像素点的一个左方向可容忍失真值;采用相同的方法计算当前像素点的左方向水平偏移量集合中的所有左方向可容忍失真值,再从所有左方向可容忍失真值中找出绝对值最大的左方向可容忍失真值,将绝对值最大的左方向可容忍失真值作为当前像素点的左方向最大可容忍失真值,记为ΔL(x1,y1),其中,Ψ(x1+ΔxL′,y1)表示当前像素点和坐标位置为(x1+ΔxL′,y1)的像素点之间的颜色距离,
Figure BDA00000776832600000413
表示
Figure BDA00000776832600000414
中坐标位置为(x1+ΔxL′,y1)的像素点的最小可察觉变化步长值,Φ(x1+ΔxL′,y1)表示当前像素点和坐标位置为(x1+ΔxL′,y1)的像素点之间的深度距离,T1为深度敏感性阈值;
③-4、从当前像素点的右方向水平偏移量集合{ΔxR|1≤ΔxR≤W′}中任取一个ΔxR′,如果
Figure BDA0000077683260000051
且Φ(x1+ΔxR′,y1)≤T1同时成立,则认为ΔxR′为当前像素点的一个右方向可容忍失真值;采用相同的方法计算当前像素点的右方向水平偏移量集合中的所有右方向可容忍失真值,再从所有右方向可容忍失真值中找出绝对值最大的右方向可容忍失真值,将绝对值最大的右方向可容忍失真值作为当前像素点的右方向最大可容忍失真值,记为ΔR(x1,y1),其中,Ψ(x1+ΔxR′,y1)表示当前像素点和坐标位置为(x1+ΔxR′,y1)的像素点之间的颜色距离,
Figure BDA0000077683260000052
表示
Figure BDA0000077683260000053
中坐标位置为(x1+ΔxR′,y1)的像素点的最小可察觉变化步长值,Φ(x1+ΔxR′,y1)表示当前像素点和坐标位置为(x1+ΔxR′,y1)的像素点之间的深度距离;
③-5、找出当前像素点的左方向最大可容忍失真值ΔL(x1,y1)和右方向最大可容忍失真值ΔR(x1,y1)中绝对值最小的可容忍失真值,作为当前像素点的最大可容忍失真值,记为
Figure BDA0000077683260000054
S t k ( x 1 , y 1 ) = min { | Δ L ( x 1 , y 1 ) | , | Δ R ( x 1 , y 1 ) | } , min{}为取最小值函数;
③-6、将t时刻的第k个参考视点的深度图像中下一个待处理的像素点作为当前像素点,然后执行步骤③-2至③-6,直至t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000057
中的所有像素点处理完毕,得到t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000058
的最大可容忍失真分布图像,记为
Figure BDA0000077683260000059
所述的步骤④中置信内容区域和非置信内容区域的分割过程为:
④-1、定义t时刻的第k个参考视点的深度图像
Figure BDA00000776832600000510
中当前正在处理的像素点为当前像素点;
④-2、将当前像素点的坐标位置记为p,将当前像素点的邻域像素点的坐标位置记为q,判断当前像素点是否满足
Figure BDA00000776832600000511
如果是,则确定当前像素点为置信内容,否则,确定当前像素点为非置信内容,其中,E{}为取平均值函数,N(p)表示以坐标位置为p的像素点为中心的7×7邻域窗口,exp{}表示以e为底的指数函数,e=2.71828183,
Figure BDA0000077683260000062
表示坐标位置为p的像素点的最大可容忍失真值,σc表示高斯函数的标准差,0≤T2≤1;
④-3、将t时刻的第k个参考视点的深度图像中下一个待处理的像素点作为当前像素点,然后执行步骤④-2至④-3,直至t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000064
中的所有像素点处理完毕,将所有置信内容构成的区域作为置信内容区域,将所有非置信内容构成的区域作为非置信内容区域。
所述的步骤⑤的具体过程为:
⑤-1、定义t时刻的第k个参考视点的深度图像中当前正在处理的像素点为当前像素点;
⑤-2、将当前像素点的坐标位置记为p,将当前像素点的邻域像素点的坐标位置记为q,定义双向滤波器为 r s ( p ) Σ q ∈ N ( q ) G σs ( | | p - q | | ) G σr ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) D R , t k ( q ) , 其中, r s ( p ) Σ q ∈ N ( q ) G σs ( | | p - q | | ) G σr ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) , Gσs(||p-q||)表示标准差为σs的高斯函数, G σs ( | | p - q | | ) = exp ( - | | p - q | | 2 2 σ s 2 ) , ||p-q||表示坐标位置p和坐标位置q之间的欧氏距离,“||||”为欧氏距离符号,
Figure BDA0000077683260000069
表示标准差为σr的高斯函数, G σr ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) = exp ( - | I R , t , i k ( p ) - I R , t , i k ( q ) | 2 2 σ r 2 ) , | I R , t , i k ( p ) - I R , t , i k ( q ) | = Σ i = 1 3 ( I R , t , i k ( p ) - I R , t , i k ( q ) ) 2 , “||”为绝对值符号,
Figure BDA00000776832600000612
表示t时刻的第k个参考视点的彩色图像
Figure BDA00000776832600000613
中坐标位置为p的像素点的第i个分量的值,
Figure BDA00000776832600000614
表示t时刻的第k个参考视点的彩色图像
Figure BDA00000776832600000615
中坐标位置为q的像素点的第i个分量的值,
Figure BDA00000776832600000616
表示t时刻的第k个参考视点的深度图像
Figure BDA00000776832600000617
中坐标位置为q的像素点的深度值,exp{}表示以e为底的指数函数,e=2.71828183,N(q)表示以坐标位置为q的像素点为中心的7×7邻域窗口;
⑤-3、判断当前像素点是否属于t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000071
的置信内容区域,如果是,则执行步骤⑤-4,否则,执行步骤⑤-5;
⑤-4、采用标准差为(σs1,σr1)的双向滤波器对当前像素点的坐标位置为q的邻域像素点的深度值
Figure BDA0000077683260000072
进行滤波操作,得到当前像素点滤波后的深度值,记为
Figure BDA0000077683260000073
D ~ R , t k ( p ) = r s 1 ( p ) Σ q ∈ N ( q ) G σs 1 ( | | p - q | | ) G σr 1 ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) D R , t k ( q ) , 其中, r s 1 ( p ) = Σ q ∈ N ( q ) G σs 1 ( | | p - q | | ) G σr 1 ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) , Gσs1(||p-q||)表示标准差为σs1的高斯函数, G σs 1 ( | | p - q | | ) = exp ( - | | p - q | | 2 2 σ s 1 2 ) , 表示标准差为σr1的高斯函数, G σr 1 ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) = exp ( - | I R , t , i k ( p ) - I R , t , i k ( q ) | 2 2 σ r 1 2 ) ; 然后执行步骤⑤-6;
⑤-5、采用标准差为(σs2,σr2)的双向滤波器对当前像素点的坐标位置为q的邻域像素点的深度值进行滤波操作,得到当前像素点滤波后的深度值,记为
Figure BDA00000776832600000710
D ~ R , t k ( p ) = r s 2 ( p ) Σ q ∈ N ( q ) G σs 2 ( | | p - q | | ) G σr 2 ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) D R , t k ( q ) , 其中, r s 2 ( p ) = Σ q ∈ N ( q ) G σs 2 ( | | p - q | | ) G σr 2 ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) , Gσs2(||p-q||)表示标准差为σs2的高斯函数, G σs 2 ( | | p - q | | ) = exp ( - | | p - q | | 2 2 σ s 2 2 ) , 表示标准差为σr2的高斯函数, G σr 2 ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) = exp ( - | I R , t , i k ( p ) - I R , t , i k ( q ) | 2 2 σ r 2 2 ) , 在此标准差(σs2,σr2)的滤波强度大于标准差(σs1,σr1)的滤波强度;然后执行步骤⑤-6;
⑤-6、将t时刻的第k个参考视点的深度图像
Figure BDA00000776832600000716
中下一个待处理的像素点作为当前像素点,然后执行步骤⑤-2至⑤-6,直至t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000081
中的所有像素点处理完毕,得到滤波后的深度图像,记为
Figure BDA0000077683260000082
所述的步骤⑤-4中(σs1,σr1)=(5,0.1),所述的步骤⑤-5中(σs2,σr2)=(10,20)。
所述的步骤⑦中设定的编码预测结构为HBP编码预测结构。
与现有技术相比,本发明的优点在于:
1)本发明方法根据不同区域的深度失真对虚拟视点图像绘制的影响以及对3D显示的主观感知质量的影响,将深度图像分成置信内容区域和非置信内容区域,并设计两组不同滤波强度的双向滤波器分别对置信内容区域和非置信内容区域的各个像素点的深度值进行滤波处理,这样保证了虚拟视点图像绘制性能。
2)本发明方法根据人眼的视觉特性得到深度图像的最大可容忍失真分布图像,对最大可容忍失真值较小的区域采用一组强度较小的双向滤波器进行平滑,对最大可容忍失真值较大的区域采用一组强度较高的双向滤波器进行平滑,这样在保证虚拟视点图像绘制性能的基础上,大大提高了深度图像的压缩效率。
附图说明
图1为典型的三维视频系统的基本组成框图;
图2a为“Bookarrival”三维视频测试序列的第9个参考视点的一幅彩色图像;
图2b为“Bookarrival”三维视频测试序列的第11个参考视点的一幅彩色图像;
图2c为图2a所示的彩色图像对应的深度图像;
图2d为图2b所示的彩色图像对应的深度图像;
图3a为“Doorflowers”三维视频测试序列的第8个参考视点的一幅彩色图像;
图3b为“Doorflowers”三维视频测试序列的第10个参考视点的一幅彩色图像;
图3c为图3a所示的彩色图像对应的深度图像;
图3d为图3b所示的彩色图像对应的深度图像;
图4a为“Bookarrival”三维视频测试序列的第9个参考视点的深度图像的最大可容忍失真分布图像;
图4b为“Doorflowers”三维视频测试序列的第8个参考视点的深度图像的最大可容忍失真分布图像;
图5a为“Bookarrival”三维视频测试序列的第9个参考视点的深度图像采用对称高斯滤波处理后的滤波图像;
图5b为“Bookarrival”三维视频测试序列的第9个参考视点的深度图像采用非对称高斯滤波处理后的滤波图像;
图5c为“Bookarrival”三维视频测试序列的第9个参考视点的深度图像采用本发明处理后的滤波图像;
图6a为“Doorflowers”三维视频测试序列的第8个参考视点的深度图像采用对称高斯滤波处理后的滤波图像;
图6b为“Doorflowers”三维视频测试序列的第8个参考视点的深度图像采用非对称高斯滤波处理后的滤波图像;
图6c为“Doorflowers”三维视频测试序列的第8个参考视点的深度图像采用本发明处理后的滤波图像;
图7a为“Bookarrival”三维视频测试序列的第10个参考视点采用原始的深度得到的虚拟视点图像;
图7b为“Bookarrival”三维视频测试序列的第10个参考视点采用对称高斯滤波方法得到的虚拟视点图像;
图7c为“Bookarrival”三维视频测试序列的第10个参考视点采用非对称高斯滤波方法得到的虚拟视点图像;
图7d为“Bookarrival”三维视频测试序列的第10个参考视点采用本发明方法得到的虚拟视点图像;
图8a为“Doorflowers”三维视频测试序列的第9个参考视点采用原始的深度得到的虚拟视点图像;
图8b为“Doorflowers”三维视频测试序列的第9个参考视点采用对称高斯滤波方法得到的虚拟视点图像;
图8c为“Doorflowers”三维视频测试序列的第9个参考视点采用非对称高斯滤波方法得到的虚拟视点图像;
图8d为“Doorflowers”三维视频测试序列的第9个参考视点采用本发明方法得到的虚拟视点图像;
图9a为图7a的局部细节放大图;
图9b为图7b的局部细节放大图;
图9c为图7c的局部细节放大图;
图9d为图7d的局部细节放大图;
图10a为图8a的局部细节放大图;
图10b为图8b的局部细节放大图;
图10c为图8c的局部细节放大图;
图10d为图8d的局部细节放大图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种深度图像的预处理方法,其主要包括以下步骤:
①获取t时刻的K个参考视点的K幅颜色空间为YUV的彩色图像及其对应的K幅深度图像,将t时刻的第k个参考视点的彩色图像记为
Figure BDA0000077683260000101
将t时刻的第k个参考视点的深度图像记为其中,1≤k≤K,k的初始值为1,i=1,2,3分别表示YUV颜色空间的三个分量,YUV颜色空间的第1个分量为亮度分量并记为Y、第2个分量为第一色度分量并记为U及第3个分量为第二色度分量并记为V,(x,y)表示彩色图像或深度图像中像素点的坐标位置,1≤x≤W,1≤y≤H,W表示彩色图像或深度图像的宽度,H表示彩色图像或深度图像的高度,
Figure BDA0000077683260000103
表示t时刻的第k个参考视点的彩色图像
Figure BDA0000077683260000104
中坐标位置为(x,y)的像素点的第i个分量的值,表示t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000106
中坐标位置为(x,y)的像素点的深度值。
在此,采用德国HHI实验室提供的三维视频测试序列“Bookarrival”和“Doorflowerss”,这两个三维视频测试序列均包括16个参考视点的16幅彩色图像和对应的16幅深度图像,各幅彩色图像和深度图像的分辨率都为1024×768,帧率为15帧每秒,即15fps,这两个三维视频测试序列是ISO/MPEG所推荐的标准测试序列。图2a和图2b分别给出了“Bookarrival”的第9个和第11个参考视点的一幅彩色图像;图2c和图2d分别给出了“Bookarrival”的第9个和第11个参考视点的彩色图像所对应的深度图像;图3a和图3b分别给出了“Doorflowers”的第8个和第10个参考视点的一幅彩色图像;图3c和图3d分别给出了“Doorflowers”的第8个和第10个参考视点的彩色图像所对应的深度图像。
②人类视觉系统(HVS)特性表明,人眼对图像中变化较小的属性或噪声是不可感知的,除非该属性或噪声的变化强度超过某一阈值,该阈值就是最小可察觉变化步长(JustNoticeable Difference,JND)。而人眼的视觉掩蔽效应是一种局部效应,受背景照度、纹理复杂度等因素的影响,背景越亮,纹理越复杂,界限值就越高。因此本发明利用人类视觉对背景光照和纹理的视觉掩蔽效应,提取出t时刻的第k个参考视点的彩色图像
Figure BDA0000077683260000107
的最小可察觉变化步长图像,记为
Figure BDA0000077683260000108
在此具体实施例中,t时刻的第k个参考视点的彩色图像的最小可察觉变化步长图像
Figure BDA0000077683260000111
的提取过程为:
②-1、计算t时刻的第k个参考视点的彩色图像的背景光照的视觉掩蔽效应的可视化阈值集合,记为{Tl(x,y)},
Figure BDA0000077683260000113
其中,
Figure BDA0000077683260000114
表示t时刻的第k个参考视点的彩色图像中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值,在实际处理过程中,也可以采用其它大小的窗口,但经大量实验,结果表明采用5×5大小的窗口时可以取得最好的效果。
②-2、计算t时刻的第k个参考视点的彩色图像
Figure BDA0000077683260000116
的纹理的视觉掩蔽效应的可视化阈值集合,记为{Tt(x,y)},Tt(x,y)=η×G(x,y)×We(x,y),其中,η为大于0的控制因子,在本实施例中,η=0.05,G(x,y)表示对t时刻的第k个参考视点的彩色图像
Figure BDA0000077683260000117
中坐标位置为(x,y)的像素点进行定向高通滤波得到的最大加权平均值,We(x,y)表示对t时刻的第k个参考视点的彩色图像
Figure BDA0000077683260000118
的边缘图像中坐标位置为(x,y)的像素点进行高斯低通滤波得到的边缘加权值。
②-3、对t时刻的第k个参考视点的彩色图像
Figure BDA0000077683260000119
的背景光照的视觉掩蔽效应的可视化阈值集合{Tl(x,y)}和纹理的视觉掩蔽效应的可视化阈值集合{Tt(x,y)}进行融合,得到t时刻的第k个参考视点的彩色图像
Figure BDA00000776832600001110
的最小可察觉变化步长图像,记为 J t k ( x , y ) = T l ( x , y ) + T t ( x , y ) - C l , t × min { T l ( x , y ) , T t ( x , y ) } , 其中,Cl,t表示控制背景光照和纹理的视觉掩蔽效应重叠影响的参数,0<Cl,t<1,在本实施例中,Cl,t=0.5,min{}为取最小值函数。
③由于深度图像的失真,通过基于深度图像的绘制得到的绘制图像与真实图像之间会存在几何失真(也称为结构位置失真),并且深度失真与几何失真之间近似成线性映射关系,因此,绘制图像的几何失真大小可以直接通过测量深度图像的失真大小来反映。
本发明根据t时刻的第k个参考视点的彩色图像的最小可察觉变化步长图像
Figure BDA0000077683260000122
提取出t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000123
的最大可容忍失真分布图像,记为
Figure BDA0000077683260000124
在此具体实施例中,t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000125
的最大可容忍失真分布图像
Figure BDA0000077683260000126
的提取过程为:
③-1、定义t时刻的第k个参考视点的深度图像中当前正在处理的像素点为当前像素点。
③-2、将当前像素点的坐标位置记为(x1,y1),将与当前像素点水平相邻的像素点的坐标位置记为(x1+Δx,y1),计算当前像素点和与其水平相邻的像素点之间的颜色距离,记为Ψ(x1+Δx,y1), Ψ ( x 1 + Δx , y 1 ) = | I R , t , 1 k ( x 1 , y 1 ) - I R , t , 1 k ( x 1 + Δx , y 1 ) | , 计算当前像素点和与其水平相邻的像素点之间的深度距离,记为Φ(x1+Δx,y1), Φ ( x 1 + Δx , y 1 ) = | D R , t k ( x 1 , y 1 ) - D R , t k ( x 1 + Δx , y 1 ) | , 其中,Δx表示水平偏移量,-W′≤Δx<0或0<Δx≤W′,W′为最大水平偏移量,在本实施例中,W′=15,“||”为绝对值符号,
Figure BDA00000776832600001210
表示t时刻的第k个参考视点的彩色图像
Figure BDA00000776832600001211
中坐标位置为(x1,y1)的像素点的Y分量的值,表示t时刻的第k个参考视点的彩色图像中坐标位置为(x1+Δx,y1)的像素点的Y分量的值,表示t时刻的第k个参考视点的深度图像
Figure BDA00000776832600001215
中坐标位置为(x1,y1)的像素点的深度值,
Figure BDA00000776832600001216
表示t时刻的第k个参考视点的深度图像
Figure BDA00000776832600001217
中坐标位置为(x1+Δx,y1)的像素点的深度值。
③-3、从当前像素点的左方向水平偏移量集合{ΔxL|-W′≤ΔxL≤-1}中任取一个ΔxL′,如果且Φ(x1+ΔxL′,y1)≤T1同时成立,则认为ΔxL′为当前像素点的一个左方向可容忍失真值;采用相同的方法计算当前像素点的左方向水平偏移量集合中的所有左方向可容忍失真值,再从所有左方向可容忍失真值中找出绝对值最大的左方向可容忍失真值,将绝对值最大的左方向可容忍失真值作为当前像素点的左方向最大可容忍失真值,记为ΔL(x1,y1),其中,Ψ(x1+ΔxL′,y1)表示当前像素点和坐标位置为(x1+ΔxL′,y1)的像素点之间的颜色距离,
Figure BDA0000077683260000131
表示中坐标位置为(x1+ΔxL′,y1)的像素点的最小可察觉变化步长值,Φ(x1+ΔxL′,y1)表示当前像素点和坐标位置为(x1+ΔxL′,y1)的像素点之间的深度距离,T1为深度敏感性阈值,在本实施例中,T1的取值与t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000133
中坐标位置为(x1,y1)的像素点的深度值有关,如果
Figure BDA0000077683260000135
则取T1=21,如果则取T1=19,如果
Figure BDA0000077683260000137
则取T1=18,如果 192 &le; D R , t k ( x 1 , y 1 ) < 255 , 则取T1=20。
③-4、从当前像素点的右方向水平偏移量集合{ΔxR|1≤ΔxR≤W′}中任取一个ΔxR′,如果
Figure BDA0000077683260000139
且Φ(x1+ΔxR′,y1)≤T1同时成立,则认为ΔxR′为当前像素点的一个右方向可容忍失真值;采用相同的方法计算当前像素点的右方向水平偏移量集合中的所有右方向可容忍失真值,再从所有右方向可容忍失真值中找出绝对值最大的右方向可容忍失真值,将绝对值最大的右方向可容忍失真值作为当前像素点的右方向最大可容忍失真值,记为ΔR(x1,y1),其中,Ψ(x1+ΔxR′,y1)表示当前像素点和坐标位置为(x1+ΔxR′,y1)的像素点之间的颜色距离,表示
Figure BDA00000776832600001311
中坐标位置为(x1+ΔxR′,y1)的像素点的最小可察觉变化步长值,Φ(x1+ΔxR′,y1)表示当前像素点和坐标位置为(x1+ΔxR′,y1)的像素点之间的深度距离。
③-5、找出当前像素点的左方向最大可容忍失真值ΔL(x1,y1)和右方向最大可容忍失真值ΔR(x1,y1)中绝对值最小的可容忍失真值,作为当前像素点的最大可容忍失真值,记为
Figure BDA00000776832600001312
S t k ( x 1 , y 1 ) = min { | &Delta; L ( x 1 , y 1 ) | , | &Delta; R ( x 1 , y 1 ) | } , min{}为取最小值函数。
③-6、将t时刻的第k个参考视点的深度图像中下一个待处理的像素点作为当前像素点,然后执行步骤③-2至③-6,直至t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000141
中的所有像素点处理完毕,得到t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000142
的最大可容忍失真分布图像,记为
Figure BDA0000077683260000143
在本实施例中,图4a给出了“Bookarrival”的第9个参考视点的深度图像的最大可容忍失真分布图像,图4b给出了“Doorflowers”的第8个参考视点的深度图像的最大可容忍失真分布图像,在深度图像的最大可容忍失真分布图像中,如果像素点的像素值越大,则表示该像素点可容忍的失真也就越小,从图4a和图4b可以看出,采用本发明得到的最大可容忍失真分布图像,能够准确地反映不同区域的失真对绘制的影响程度。
④根据t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000144
的最大可容忍失真分布图像
Figure BDA0000077683260000145
将t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000146
分割成置信内容区域和非置信内容区域。
在此具体实施例中,置信内容区域和非置信内容区域的分割过程为:
④-1、定义t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000147
中当前正在处理的像素点为当前像素点。
④-2、将当前像素点的坐标位置记为p,将当前像素点的邻域像素点的坐标位置记为q,判断当前像素点是否满足
Figure BDA0000077683260000148
如果是,则确定当前像素点为置信内容,否则,确定当前像素点为非置信内容,其中,E{}为取平均值函数,N(p)表示以坐标位置为p的像素点为中心的7×7邻域窗口,在实际处理过程中,也可采用其它大小的邻域窗口,但经大量实验,表明采用7×7邻域窗口时能够达到最好的效果,
Figure BDA0000077683260000149
exp{}表示以e为底的指数函数,e=2.71828183,
Figure BDA00000776832600001410
表示坐标位置为p的像素点的最大可容忍失真值,σc表示高斯函数的标准差,0≤T2≤1,在本实施例中,σc=5,T2=0.4。
④-3、将t时刻的第k个参考视点的深度图像
Figure BDA00000776832600001411
中下一个待处理的像素点作为当前像素点,然后执行步骤④-2至④-3,直至t时刻的第k个参考视点的深度图像
Figure BDA00000776832600001412
中的所有像素点处理完毕,将所有置信内容构成的区域作为置信内容区域,将所有非置信内容构成的区域作为非置信内容区域。
⑤利用两组不同滤波强度的双向滤波器分别对t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000151
的置信内容区域和非置信内容区域中的各个像素点对应的深度值进行滤波处理,得到滤波后的深度图像,记为
Figure BDA0000077683260000152
由于深度图像整体非常平滑,对深度图像进行滤波处理,要求在平滑深度信息的同时能很好地保留边缘轮廓信息,双向滤波器(bilateral filter)是一种非线性滤波器,能有效地将噪声平滑化且又可以把重要的边界保留,其主要原理是同时在空间域(spatialdomain)和强度域(intensity domain)做高斯平滑化(Gaussian smoothing)处理。由于深度图像与彩色图像之间存在较强的相关性,深度图像与彩色图像的运动对象及运动对象边界是一致的,但彩色图像包含更加丰富的纹理信息,以彩色图像作为强度域信息来辅助深度图像的滤波,有利于保留重要的运动对象边界信息。通过分析,本发明提出的滤波处理的具体过程为:
⑤-1、定义t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000153
中当前正在处理的像素点为当前像素点。
⑤-2、将当前像素点的坐标位置记为p,将当前像素点的邻域像素点的坐标位置记为q,定义双向滤波器为 r s ( p ) &Sigma; q &Element; N ( q ) G &sigma;s ( | | p - q | | ) G &sigma;r ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) D R , t k ( q ) , 其中, r s ( p ) &Sigma; q &Element; N ( q ) G &sigma;s ( | | p - q | | ) G &sigma;r ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) , Gσs(||p-q||)表示标准差为σs的高斯函数, G &sigma;s ( | | p - q | | ) = exp ( - | | p - q | | 2 2 &sigma; s 2 ) , ||p-q||表示坐标位置p和坐标位置q之间的欧氏距离,“||||”为欧氏距离符号,
Figure BDA0000077683260000157
表示标准差为σr的高斯函数, G &sigma;r ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) = exp ( - | I R , t , i k ( p ) - I R , t , i k ( q ) | 2 2 &sigma; r 2 ) , | I R , t , i k ( p ) - I R , t , i k ( q ) | = &Sigma; i = 1 3 ( I R , t , i k ( p ) - I R , t , i k ( q ) ) 2 , “||”为绝对值符号,
Figure BDA00000776832600001510
表示t时刻的第k个参考视点的彩色图像
Figure BDA00000776832600001511
中坐标位置为p的像素点的第i个分量的值,表示t时刻的第k个参考视点的彩色图像
Figure BDA00000776832600001513
中坐标位置为q的像素点的第i个分量的值,
Figure BDA0000077683260000161
表示t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000162
中坐标位置为q的像素点的深度值,exp{}表示以e为底的指数函数,e=2.71828183,N(q)表示以坐标位置为q的像素点为中心的7×7邻域窗口。
⑤-3、判断当前像素点是否属于t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000163
的置信内容区域,如果是,则执行步骤⑤-4,否则,执行步骤⑤-5。
⑤-4、采用标准差为(σs1,σr1)的双向滤波器对当前像素点的坐标位置为q的邻域像素点的深度值进行滤波操作,得到当前像素点滤波后的深度值,记为
Figure BDA0000077683260000165
D ~ R , t k ( p ) = r s 1 ( p ) &Sigma; q &Element; N ( q ) G &sigma;s 1 ( | | p - q | | ) G &sigma;r 1 ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) D R , t k ( q ) , 其中, r s 1 ( p ) = &Sigma; q &Element; N ( q ) G &sigma;s 1 ( | | p - q | | ) G &sigma;r 1 ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) , Gσs1(||p-q||)表示标准差为σs1的高斯函数, G &sigma;s 1 ( | | p - q | | ) = exp ( - | | p - q | | 2 2 &sigma; s 1 2 ) ,
Figure BDA0000077683260000169
表示标准差为σr1的高斯函数, G &sigma;r 1 ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) = exp ( - | I R , t , i k ( p ) - I R , t , i k ( q ) | 2 2 &sigma; r 1 2 ) ; 然后执行步骤⑤-6。
在此,标准差(σs1,σr1)采用一组滤波强度较小的标准差,如(σs1,σr1)的大小可为(5,0.1)。
⑤-5、采用标准差为(σs2,σr2)的双向滤波器对当前像素点的坐标位置为q的邻域像素点的深度值
Figure BDA00000776832600001611
进行滤波操作,得到当前像素点滤波后的深度值,记为
Figure BDA00000776832600001612
D ~ R , t k ( p ) = r s 2 ( p ) &Sigma; q &Element; N ( q ) G &sigma;s 2 ( | | p - q | | ) G &sigma;r 2 ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) D R , t k ( q ) , 其中, r s 2 ( p ) = &Sigma; q &Element; N ( q ) G &sigma;s 2 ( | | p - q | | ) G &sigma;r 2 ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) , Gσs2(||p-q||)表示标准差为σs2的高斯函数, G &sigma;s 2 ( | | p - q | | ) = exp ( - | | p - q | | 2 2 &sigma; s 2 2 ) ,
Figure BDA00000776832600001616
表示标准差为σr2的高斯函数, G &sigma;r 2 ( | I R , t , i k ( p ) - I R , t , i k ( q ) | ) = exp ( - | I R , t , i k ( p ) - I R , t , i k ( q ) | 2 2 &sigma; r 2 2 ) , 在此标准差(σs2,σr2)的滤波强度大于标准差(σs1,σr1)的滤波强度;然后执行步骤⑤-6。
在此,标准差(σs2,σr2)采用一组滤波强度较大的标准差,如(σs2,μr2)的大小可为(10,20)。
⑤-6、将t时刻的第k个参考视点的深度图像中下一个待处理的像素点作为当前像素点,然后执行步骤⑤-2至⑤-6,直至t时刻的第k个参考视点的深度图像
Figure BDA0000077683260000172
中的所有像素点处理完毕,得到滤波后的深度图像,记为
Figure BDA0000077683260000173
对“Bookarrival”和“Doorflowers”三维视频测试序列的深度图像进行滤波处理实验,图5a和图5b分别给出了“Bookarrival”的第9个参考视点的深度图像分别采用现有的对称高斯滤波方法和非对称高斯滤波方法处理后的深度图像,图5c给出了“Bookarrival”的第9个参考视点的深度图像经本发明滤波处理后的深度图像;图6a和图6b分别给出了“Doorflowers”的第8个参考视点的深度图像分别采用现有的对称高斯滤波方法和非对称高斯滤波方法处理后的深度图像,图6c给出了“Doorflowers”的第8个参考视点的深度图像经本发明滤波处理后的深度图像,从图5c和图6c可以看出,采用本发明得到滤波处理后的深度图像,保持了深度图像的重要的几何特征,产生了令人满意的锐利的边缘和平滑的轮廓。
⑥令k′=k+1,k=k′,返回步骤②继续执行,直至得到t时刻的K个参考视点的K幅滤波后的深度图像,K幅滤波后的深度图像用集合表示为
Figure BDA0000077683260000174
其中,k′的初始值为0;
⑦根据设定的编码预测结构分别对t时刻的K个参考视点的K幅颜色空间为YUV的彩色图像及其对应的K幅滤波后的深度图像进行编码,再将编码后的K幅彩色图像及其对应的K幅深度图像经网络传输给解码端;
在本实施中,设定的编码预测结构采用公知的HBP编码预测结构。
⑧在解码端对编码后的K幅彩色图像及其对应的K幅深度图像进行解码,获得解码后的t时刻的K个参考视点的K幅彩色图像及其对应的K幅深度图像,采用基于深度图像的绘制得到虚拟视点图像。
以下就利用本发明方法对“Bookarrival”和“Doorflowers”三维视频测试序列进行虚拟视点图像绘制的主观和客观性能进行比较。
将采用本发明方法得到的虚拟视点图像,与不采用本发明方法得到的虚拟视点图像进行比较。图7a给出了“Bookarrival”三维视频测试序列的第10个参考视点采用原始的深度得到的虚拟视点图像,图7b给出了“Bookarrival”的第10个参考视点采用现有的对称高斯滤波方法得到的虚拟视点图像,图7c给出了“Bookarrival”的第10个参考视点采用现有的非对称高斯滤波方法得到的虚拟视点图像,图7d给出了“Bookarrival”的第10个参考视点采用本发明方法得到的虚拟视点图像;图8a给出了“Doorflowers”三维视频测试序列的第9个参考视点采用原始的深度得到的虚拟视点图像,图8b给出了“Doorflowers”的第9个参考视点采用现有的对称高斯滤波方法得到的虚拟视点图像,图8c给出了“Doorflowers”的第9个参考视点采用现有的非对称高斯滤波方法得到的虚拟视点图像,图8d给出了“Doorflowers”的第9个参考视点采用本发明方法得到的虚拟视点图像;图9a、图9b、图9c和图9d分别给出了图7a、图7b、图7c和图7d的局部细节放大图;图10a、图10b、图10c和图10d分别给出了图8a、图8b、图8c和图8d的局部细节放大图。从图7a至图10d可以看出,采用本发明方法得到的虚拟视点图像能够保持更好的对象轮廓信息,从而降低了由于深度图像的失真引起的映射过程中产生的背景对前景的覆盖,并且对背景区域进行强度较大的滤波平滑处理,能够有效地消除绘制的虚拟视点图像中的条纹噪声。
将采用本发明方法的编码性能,与其他方法的编码性能进行比较,比较结果如表1所示。四种方法均采用JMVM 4.0平台,量化步长QP=22,帧组的尺寸为15,也即时域上需要编码的帧数为15,每个视点总的编码帧数为60帧,编码2个视点。对“Bookarrival”和“Doorflowers”采用对称高斯滤波和非对称高斯滤波处理后,能够大大节省编码的码率,但绘制性能也下降2~3dB以上,而采用本发明方法处理后,码率节省能够达到50%以上并且绘制性能下降在0.4dB范围内,说明本发明方法是有效可行的。
表1采用本发明与其他方法的编码和绘制性能比较
Figure BDA0000077683260000181

Claims (7)

1.一种深度图像的预处理方法,其特征在于包括以下步骤: 
①获取t时刻的K个参考视点的K幅颜色空间为YUV的彩色图像及其对应的K幅深度图像,将t时刻的第k个参考视点的彩色图像记为
Figure FDA00002331022900011
将t时刻的第k个参考视点的深度图像记为
Figure FDA00002331022900012
其中,1≤k≤K,k的初始值为1,i=1,2,3分别表示YUV颜色空间的三个分量,YUV颜色空间的第1个分量为亮度分量并记为Y、第2个分量为第一色度分量并记为U及第3个分量为第二色度分量并记为V,(x,y)表示彩色图像或深度图像中像素点的坐标位置,1≤x≤W,1≤y≤H,W表示彩色图像或深度图像的宽度,H表示彩色图像或深度图像的高度,
Figure FDA00002331022900013
表示t时刻的第k个参考视点的彩色图像中坐标位置为(x,y)的像素点的第i个分量的值,
Figure FDA00002331022900015
表示t时刻的第k个参考视点的深度图像
Figure FDA00002331022900016
中坐标位置为(x,y)的像素点的深度值; 
②利用人类视觉对背景光照和纹理的视觉掩蔽效应,提取出t时刻的第k个参考视点的彩色图像
Figure FDA00002331022900017
的最小可察觉变化步长图像,记为
Figure FDA00002331022900018
③根据t时刻的第k个参考视点的彩色图像的最小可察觉变化步长图像 
Figure FDA000023310229000110
提取出t时刻的第k个参考视点的深度图像
Figure FDA000023310229000111
的最大可容忍失真分布图像,记为
Figure FDA000023310229000112
④根据t时刻的第k个参考视点的深度图像的最大可容忍失真分布图像 将t时刻的第k个参考视点的深度图像
Figure FDA000023310229000115
分割成置信内容区域和非置信内容区域; 
⑤利用两组不同滤波强度的双向滤波器分别对t时刻的第k个参考视点的深度图像 
Figure FDA000023310229000116
的置信内容区域和非置信内容区域中的各个像素点对应的深度值进行滤波处理,得到滤波后的深度图像,记为
Figure FDA000023310229000117
⑥令k'=k+1,k=k',返回步骤②继续执行,直至得到t时刻的K个参考视点的K幅滤波后的深度图像,K幅滤波后的深度图像用集合表示为
Figure FDA000023310229000118
其中, k'的初始值为0; 
⑦根据设定的编码预测结构分别对t时刻的K个参考视点的K幅颜色空间为YUV的彩色图像及其对应的K幅滤波后的深度图像进行编码,再将编码后的K幅彩色图像及其对应的K幅滤波后的深度图像经网络传输给解码端; 
⑧在解码端对编码后的K幅彩色图像及其对应的K幅滤波后的深度图像进行解码,获得解码后的t时刻的K个参考视点的K幅彩色图像及其对应的K幅滤波后的深度图像,采用基于深度图像的绘制得到虚拟视点图像。 
2.根据权利要求1所述的一种深度图像的预处理方法,其特征在于所述的步骤②包括以下具体步骤: 
②-1、计算t时刻的第k个参考视点的彩色图像
Figure FDA00002331022900021
的背景光照的视觉掩蔽效应的可视化阈值集合,记为{Tl(x,y)}, 
Figure FDA00002331022900022
其中,
Figure FDA00002331022900023
表示t时刻的第k个参考视点的彩色图像
Figure FDA00002331022900024
中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值; 
②-2、计算t时刻的第k个参考视点的彩色图像
Figure FDA00002331022900025
的纹理的视觉掩蔽效应的可视化阈值集合,记为{Tt(x,y)},Tt(x,y)=η×G(x,y)×We(x,y),其中,η为大于0的控制因子,G(x,y)表示对t时刻的第k个参考视点的彩色图像
Figure FDA00002331022900026
中坐标位置为(x,y)的像素点进行定向高通滤波得到的最大加权平均值,We(x,y)表示对t时刻的第k个参考视点的彩色图像
Figure FDA00002331022900027
的边缘图像中坐标位置为(x,y)的像素点进行高斯低通滤波得到的边缘加权值; 
②-3、对t时刻的第k个参考视点的彩色图像的背景光照的视觉掩蔽效应的可视化阈值集合{Tl(x,y)}和纹理的视觉掩蔽效应的可视化阈值集合{Tt(x,y)}进行融合,得到t时刻的第k个参考视点的彩色图像
Figure FDA00002331022900029
的最小可察觉变化步长图像,记为
Figure FDA000023310229000210
Figure FDA000023310229000211
其中,Cl,t表示控 制背景光照和纹理的视觉掩蔽效应重叠影响的参数,0<Cl,t<1,min{}为取最小值函数。 
3.根据权利要求1或2所述的一种深度图像的预处理方法,其特征在于所述的步骤③包括以下具体步骤: 
③-1、定义t时刻的第k个参考视点的深度图像
Figure FDA00002331022900031
中当前正在处理的像素点为当前像素点; 
③-2、将当前像素点的坐标位置记为(x1,y1),将与当前像素点水平相邻的像素点的坐标位置记为(x1+Δx,y1),计算当前像素点和与其水平相邻的像素点之间的颜色距离,记为Ψ(x1+Δx,y1),
Figure FDA00002331022900032
计算当前像素点和与其水平相邻的像素点之间的深度距离,记为Φ(x1+Δx,y1), 
Figure FDA00002331022900033
其中,Δx表示水平偏移量,-W'≤Δx<0或0<Δx≤W',W'为最大水平偏移量,“||”为绝对值符号,
Figure FDA00002331022900034
表示t时刻的第k个参考视点的彩色图像
Figure FDA00002331022900035
中坐标位置为(x1,y1)的像素点的Y分量的值, 
Figure FDA00002331022900036
表示t时刻的第k个参考视点的彩色图像
Figure FDA00002331022900037
中坐标位置为(x1+Δx,y1)的像素点的Y分量的值,
Figure FDA00002331022900038
表示t时刻的第k个参考视点的深度图像
Figure FDA00002331022900039
中坐标位置为(x1,y1)的像素点的深度值,
Figure FDA000023310229000310
表示t时刻的第k个参考视点的深度图像
Figure FDA000023310229000311
中坐标位置为(x1+Δx,y1)的像素点的深度值; 
③-3、从当前像素点的左方向水平偏移量集合{ΔxL|-W'≤ΔxL≤-1}中任取一个ΔxL,如果
Figure FDA000023310229000312
且Φ(x1+ΔxL,y1)≤T1同时成立,则认为ΔxL为当前像素点的一个左方向可容忍失真值;采用相同的方法计算当前像素点的左方向水平偏移量集合中的所有左方向可容忍失真值,再从所有左方向可容忍失真值中找出绝对值最大的左方向可容忍失真值,将绝对值最大的左方向可容忍失真值作为当前像素点的左方向最大可容忍失真值,记为ΔL(x1,y1),其中,Ψ(x1+ΔxL,y1)表示当前像素点和坐标位置为(x1+ΔxL,y1)的像素点之间的颜色距离,
Figure FDA000023310229000313
表示中坐标位置 为(x1+ΔxL,y1)的像素点的最小可察觉变化步长值,Φ(x1+ΔxL,y1)表示当前像素点和坐标位置为(x1+ΔxL,y1)的像素点之间的深度距离,T1为深度敏感性阈值; 
③-4、从当前像素点的右方向水平偏移量集合{ΔxR|1≤ΔxR≤W'}中任取一个ΔxR,如果
Figure FDA00002331022900041
且Φ(x1+ΔxR,y1)≤T1同时成立,则认为ΔxR为当前像素点的一个右方向可容忍失真值;采用相同的方法计算当前像素点的右方向水平偏移量集合中的所有右方向可容忍失真值,再从所有右方向可容忍失真值中找出绝对值最大的右方向可容忍失真值,将绝对值最大的右方向可容忍失真值作为当前像素点的右方向最大可容忍失真值,记为ΔR(x1,y1),其中,Ψ(x1+ΔxR,y1)表示当前像素点和坐标位置为(x1+ΔxR,y1)的像素点之间的颜色距离,
Figure FDA00002331022900042
表示
Figure FDA00002331022900043
中坐标位置为(x1+ΔxR,y1)的像素点的最小可察觉变化步长值,Φ(x1+ΔxR,y1)表示当前像素点和坐标位置为(x1+ΔxR,y1)的像素点之间的深度距离; 
③-5、找出当前像素点的左方向最大可容忍失真值ΔL(x1,y1)和右方向最大可容忍失真值ΔR(x1,y1)中绝对值最小的可容忍失真值,作为当前像素点的最大可容忍失真值,记为
Figure FDA00002331022900044
Figure FDA00002331022900045
min{}为取最小值函数; 
③-6、将t时刻的第k个参考视点的深度图像
Figure FDA00002331022900046
中下一个待处理的像素点作为当前像素点,然后执行步骤③-2至③-6,直至t时刻的第k个参考视点的深度图像 
Figure FDA00002331022900047
中的所有像素点处理完毕,得到t时刻的第k个参考视点的深度图像 
Figure FDA00002331022900048
的最大可容忍失真分布图像,记为
Figure FDA00002331022900049
4.根据权利要求3所述的一种深度图像的预处理方法,其特征在于所述的步骤④中置信内容区域和非置信内容区域的分割过程为: 
④-1、定义t时刻的第k个参考视点的深度图像
Figure FDA000023310229000410
中当前正在处理的像素点为当前像素点; 
④-2、将当前像素点的坐标位置记为p,将当前像素点的邻域像素点的坐标位置记为q,判断当前像素点是否满足
Figure FDA000023310229000411
如果是,则确定当前像素点为置信 内容,否则,确定当前像素点为非置信内容,其中,E{}为取平均值函数,N(p)表示以坐标位置为p的像素点为中心的7×7邻域窗口,
Figure FDA00002331022900051
exp{}表示以e为底的指数函数,e=2.71828183,
Figure FDA00002331022900052
表示坐标位置为p的像素点的最大可容忍失真值,σc表示高斯函数的标准差,0≤T2≤1; 
④-3、将t时刻的第k个参考视点的深度图像
Figure FDA00002331022900053
中下一个待处理的像素点作为当前像素点,然后执行步骤④-2至④-3,直至t时刻的第k个参考视点的深度图像 中的所有像素点处理完毕,将所有置信内容构成的区域作为置信内容区域,将所有非置信内容构成的区域作为非置信内容区域。 
5.根据权利要求4所述的一种深度图像的预处理方法,其特征在于所述的步骤⑤的具体过程为: 
⑤-1、定义t时刻的第k个参考视点的深度图像
Figure FDA00002331022900055
中当前正在处理的像素点为当前像素点; 
⑤-2、将当前像素点的坐标位置记为p,将当前像素点的邻域像素点的坐标位置记为q,定义双向滤波器为其中, 
Figure FDA00002331022900057
Gσs(||p-q||)表示标准差为σs的高斯函数,||p-q||表示坐标位置p和坐标位置q之间的欧氏距离,“|| ||”为欧氏距离符号,
Figure FDA00002331022900059
表示标准差为σr的高斯函数,  “||”为绝对值符号,表示t时刻的第k个参考视点的彩色图像
Figure FDA000023310229000513
中坐标位置为p的像素点的第i个分量的值, 
Figure FDA000023310229000514
表示t时刻的第k个参考视点的彩色图像
Figure FDA000023310229000515
中坐标位置为q的像素点的 第i个分量的值,
Figure FDA00002331022900061
表示t时刻的第k个参考视点的深度图像
Figure FDA00002331022900062
中坐标位置为q的像素点的深度值,exp{}表示以e为底的指数函数,e=2.71828183,N(q)表示以坐标位置为q的像素点为中心的7×7邻域窗口; 
⑤-3、判断当前像素点是否属于t时刻的第k个参考视点的深度图像
Figure FDA00002331022900063
的置信内容区域,如果是,则执行步骤⑤-4,否则,执行步骤⑤-5; 
⑤-4、采用标准差为(σs1r1)的双向滤波器对当前像素点的坐标位置为q的邻域像素点的深度值
Figure FDA00002331022900064
进行滤波操作,得到当前像素点滤波后的深度值,记为
Figure FDA00002331022900065
Figure FDA00002331022900066
其中, 
Figure FDA00002331022900067
表示标准差为σs1的高斯函数,
Figure FDA00002331022900068
表示标准差为σr1的高斯函数, 
Figure FDA000023310229000610
然后执行步骤⑤-6; 
⑤-5、采用标准差为(σs2r2)的双向滤波器对当前像素点的坐标位置为q的邻域像素点的深度值
Figure FDA000023310229000611
进行滤波操作,得到当前像素点滤波后的深度值,记为
Figure FDA000023310229000612
Figure FDA000023310229000613
其中, 
Figure FDA000023310229000614
表示标准差为σs2的高斯函数,
Figure FDA000023310229000615
表示标准差为σr2的高斯函数,
Figure FDA000023310229000617
在此标准差(σs2r2)的滤波强度大于标准差(σs1r1)的滤波强度;然后执行步骤⑤-6; 
⑤-6、将t时刻的第k个参考视点的深度图像
Figure FDA000023310229000618
中下一个待处理的像素点作 为当前像素点,然后执行步骤⑤-2至⑤-6,直至t时刻的第k个参考视点的深度图像 
Figure FDA00002331022900071
中的所有像素点处理完毕,得到滤波后的深度图像,记为
Figure FDA00002331022900072
6.根据权利要求5所述的一种深度图像的预处理方法,其特征在于所述的步骤⑤-4中(σs1r1)=(5,0.1),所述的步骤⑤-5中(σs2r2)=(10,20)。 
7.根据权利要求1所述的一种深度图像的预处理方法,其特征在于所述的步骤⑦中设定的编码预测结构为HBP编码预测结构。 
CN 201110206435 2011-07-22 2011-07-22 一种深度图像的预处理方法 Expired - Fee Related CN102271254B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110206435 CN102271254B (zh) 2011-07-22 2011-07-22 一种深度图像的预处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110206435 CN102271254B (zh) 2011-07-22 2011-07-22 一种深度图像的预处理方法

Publications (2)

Publication Number Publication Date
CN102271254A CN102271254A (zh) 2011-12-07
CN102271254B true CN102271254B (zh) 2013-05-15

Family

ID=45053396

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110206435 Expired - Fee Related CN102271254B (zh) 2011-07-22 2011-07-22 一种深度图像的预处理方法

Country Status (1)

Country Link
CN (1) CN102271254B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102769746B (zh) * 2012-06-27 2014-12-24 宁波大学 一种多视点深度视频处理方法
CN102769749B (zh) * 2012-06-29 2015-03-18 宁波大学 一种深度图像的后处理方法
CN103813149B (zh) * 2012-11-15 2016-04-13 中国科学院深圳先进技术研究院 一种编解码系统的图像与视频重构方法
CN103002306B (zh) * 2012-11-27 2015-03-18 宁波大学 一种深度图像编码方法
CN103455984B (zh) * 2013-09-02 2016-08-31 清华大学深圳研究生院 一种Kinect深度图像获取方法与装置
US11176655B2 (en) * 2014-01-27 2021-11-16 Cognex Corporation System and method for determining 3D surface features and irregularities on an object
CN104244008B (zh) * 2014-09-12 2017-05-03 宁波大学 一种深度视频编码方法
CN104394399B (zh) * 2014-10-31 2016-08-24 天津大学 深度视频编码的三边滤波方法
CN104992419A (zh) * 2015-07-08 2015-10-21 北京大学深圳研究生院 基于jnd因子的超像素高斯滤波预处理方法
CN110390643B (zh) * 2018-04-20 2022-04-26 杭州海康威视数字技术股份有限公司 一种车牌增强方法、装置及电子设备
CN111259919B (zh) * 2018-11-30 2024-01-23 杭州海康威视数字技术股份有限公司 一种视频分类方法、装置及设备、存储介质
CN110378946B (zh) 2019-07-11 2021-10-01 Oppo广东移动通信有限公司 深度图处理方法、装置以及电子设备
CN110400343B (zh) * 2019-07-11 2021-06-18 Oppo广东移动通信有限公司 深度图处理方法和装置
CN111353982B (zh) * 2020-02-28 2023-06-20 贝壳技术有限公司 一种深度相机图像序列筛选方法及装置
CN111696057B (zh) * 2020-05-25 2023-06-30 合肥的卢深视科技有限公司 一种深度图像去噪方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100591143C (zh) * 2008-07-25 2010-02-17 浙江大学 一种立体电视系统中虚拟视点图像绘制的方法
CN101365141B (zh) * 2008-09-23 2010-06-02 浙江大学 一种深度图像和纹理图像码流分配的方法
CN101771893B (zh) * 2010-01-05 2012-08-08 浙江大学 一种基于视频序列背景建模的虚拟视点绘制方法
CN101937578B (zh) * 2010-09-08 2012-07-04 宁波大学 一种虚拟视点彩色图像绘制方法

Also Published As

Publication number Publication date
CN102271254A (zh) 2011-12-07

Similar Documents

Publication Publication Date Title
CN102271254B (zh) 一种深度图像的预处理方法
CN101937578B (zh) 一种虚拟视点彩色图像绘制方法
CN103002306B (zh) 一种深度图像编码方法
US9183617B2 (en) Methods, devices, and computer readable mediums for processing a digital picture
CN102446352B (zh) 视频图像处理方法及装置
CN102611828B (zh) 一种雾天连续视频图像实时性增强处理系统
CN102831591B (zh) 一种基于高斯滤波的单幅图像的实时去雾方法
CN103020920A (zh) 一种低照度图像增强方法
CN104469386B (zh) 一种基于dof的恰可察觉误差模型的感知立体视频编码方法
CN103955905A (zh) 基于快速小波变换和加权图像融合的单幅图像去雾方法
CN108513131B (zh) 一种自由视点视频深度图感兴趣区域编码方法
CN102769746B (zh) 一种多视点深度视频处理方法
CN106339994B (zh) 一种图像增强方法
CN102724525B (zh) 一种基于中心凹恰可觉察失真模型的深度视频编码方法
CN103856781B (zh) 一种自适应阈值的视频流多纹理方向错误隐藏方法
CN102420985B (zh) 一种多视点视频对象提取方法
CN102801996B (zh) 基于jndd模型的快速深度图编码模式选择方法
CN106550244A (zh) 视频图像的画质增强方法及装置
CN107392879B (zh) 一种基于参考帧的低照度监控图像增强方法
CN105812805A (zh) 一种用于视频图像的编码方法和装置
CN101833766A (zh) 基于gssim的立体图像客观质量评价算法
CN106846258A (zh) 一种基于加权最小平方滤波的单幅图像去雾方法
CN103366390A (zh) 终端及图像处理方法和装置
CN102663682B (zh) 基于感兴趣区域的自适应图像增强方法
CN102769749B (zh) 一种深度图像的后处理方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20191220

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co.,Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20201125

Address after: No.58-3 Xingyuan Road, Xiayuan Town, Rugao City, Nantong City, Jiangsu Province, 226500

Patentee after: Nantong guomi Qi Machinery Equipment Co.,Ltd.

Address before: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.

TR01 Transfer of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130515

Termination date: 20210722

CF01 Termination of patent right due to non-payment of annual fee