CN106341676A - 基于超像素的深度图像预处理和深度空洞填充方法 - Google Patents
基于超像素的深度图像预处理和深度空洞填充方法 Download PDFInfo
- Publication number
- CN106341676A CN106341676A CN201610865067.0A CN201610865067A CN106341676A CN 106341676 A CN106341676 A CN 106341676A CN 201610865067 A CN201610865067 A CN 201610865067A CN 106341676 A CN106341676 A CN 106341676A
- Authority
- CN
- China
- Prior art keywords
- pixel
- depth
- super
- image
- depth image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
Abstract
本发明公开了基于超像素的深度图像预处理和深度空洞填充方法,包括以下步骤:步骤一:待处理的深度图像的超像素分割:对于该待处理的深度图像对应的彩色图像进行超像素分割,然后利用彩色图像的分割结果对该待处理的深度图像进行分割;步骤二:基于超像素的深度图像预处理;步骤三:虚拟视点深度图像超像素分割:利用待处理的深度图像对应的彩色图像和预处理后的深度图像进行三维变换,生成虚拟视点初始彩色图像和虚拟视点初始深度图像,对虚拟视点初始深度图像进行超像素分割;步骤四:虚拟视点深度图像填充。本发明采用基于超像素的深度图像预处理和基于超像素的深度空洞处理,空洞填充准确性较高,计算量较小,有利于视点合成的实时实现。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及基于超像素的深度图像预处理和深度空洞填充方法。
背景技术
随着多媒体技术的快速发展,立体图像和立体视频系统的研究引起越来越多研究者的关注。与传统的二维图像和二维视频相比,立体图像和立体视频为使用者带来更加身临其境的感觉。立体视频系统的核心问题是为使用者左眼和右眼提供存在一定视差的立体图像对。例如,作为两种最常见的立体视频系统,立体电视(Three DimensionalTelevision,3DTV)和自由视点电视(Free-Viewpoint Television,FTV)的播放端通常需要播放若干特定视点或者任意视点的立体视频对。但是由于视频采集成本和传输成本的限制,立体视频系统不可能采集过多视点的视频。因此,立体视频系统中的一个关键问题就是如何利用已有的真实视点视频合成虚拟视点视频。当前立体视频系统中通常将参考视点的彩色视频和其对应的深度图像传输至视频播放端,然后采用基于深度图像渲染(DepthImage-Based Rendering,DIBR)的视点合成方法生成虚拟视点图像。
基于深度图像的虚拟视点合成中,深度图像通常利用深度采集设备直接获取或者利用立体匹配算法计算得到,而利用这些方法得到的立体视频图像中通常存在部分像素深度信息缺失的现象,因此,视点合成中首先需要对深度图像进行预处理。利用彩色图像和预处理后的深度图像进行三维变换,生成虚拟视点的彩色图像和深度图像,但是由于前景物体的遮挡问题,在虚拟视点的彩色图像和深度图像前景物体边缘部分通常会存在空洞区域,在视点合成中需要对虚拟视点深度图像中的空洞区域进行填充,然后再利用处理好的虚拟视点深度图像对虚拟视点彩色图像中的空洞区域进行处理。
由此可见,在基于深度信息的虚拟视点合成中深度图像预处理和深度空洞填充具有重要的作用,直接影响视点合成彩色图像的视觉质量。当前的视点合成算法中,通常采用基于滤波器的方法首先对深度图像进行处理,而这种处理方式通常会在一定程度上造成物体边缘深度信息失真;另外,虽然当前的研究提出了多种深度图像空洞填充方法,但在空洞填充准确性方面仍存在一定问题,并且当前的深度填充方法计算复杂度较大,不利于视点合成的实时实现。
发明内容
为解决现有技术存在的不足,本发明公开了基于超像素的深度图像预处理和深度空洞填充方法,本发明的目的是利用基于超像素的深度图像预处理和基于超像素的深度空洞处理技术实现彩色图像的填充。
为实现上述目的,本发明的具体方案如下:
基于超像素的深度图像预处理和深度空洞填充方法,包括以下步骤:
步骤一:待处理的深度图像的超像素分割:对于该待处理的深度图像对应的彩色图像进行超像素分割,然后利用彩色图像的分割结果对该待处理的深度图像进行分割;
步骤二:基于超像素的深度图像预处理:将步骤一中分割后的深度图像找出所有包含深度信息缺失像素的超像素并恢复缺失的深度信息;
步骤三:虚拟视点深度图像超像素分割:利用待处理的深度图像对应的彩色图像和预处理后的深度图像进行三维变换,生成虚拟视点初始彩色图像和虚拟视点初始深度图像,对虚拟视点初始深度图像进行超像素分割;
步骤四:虚拟视点深度图像填充:找出步骤三中虚拟视点初始深度图像中所有包含空洞区域的超像素并对空洞区域进行填充。
进一步的,在利用彩色图像的分割结果对该待处理的深度图像进行分割时,首先对彩色图像进行超像素分割,得到彩色图像中每个超像素的超像素标签;
利用到彩色图像中每个超像素的超像素标签,对深度图像进行超像素分割,将深度图像分割为和彩色图像超像素相同的超像素。
进一步的,基于超像素的深度图像预处理时,具体包括:
统计深度图像的超像素中有效像素集合;
根据深度图像的超像素中有效像素集合对深度图像的超像素进行分类;
根据深度图像的超像素类别恢复深度缺失像素的深度值。
进一步的,统计深度图像的超像素中有效像素集合时,假设Sd是目标深度图像的超像素,Sc是其对应的彩色图像的超像素,M是Sd中深度缺失像素的集合,即无效像素的集合,那么Sd中有效像素的集合为V=Sd-M,定义|Sd|表示Sd中像素的个数,|V|表示Sd中有效像素的个数。
进一步的,根据深度图像的超像素中有效像素集合对深度图像的超像素进行分类,具体如下:
如果|V|=|Sd|,则表示Sd内像素全部为有效像素,那么该超像素无需预处理;
如果0<|V|<|Sd|,则表示Sd内部分像素为无效像素,需要通过预处理方法恢复M中像素的深度值;
如果|V|=0,则表示Sd内所有像素均为无效像素,需要通过预处理方法恢复Sd内所有像素的深度值。
进一步的,根据深度图像的超像素类别恢复深度缺失像素的深度值时,Sd内部分像素为无效像素时,恢复M中像素的深度值的方法为:
计算有效像素集合V中所有像素深度值的方差σV;
若σV<t,t为经验阈值,则判定V中所有像素属于同一深度层次,即这些像素位于同一物体,将M中所有无效像素的深度值赋值为V中出现频率最高的深度值;
若σV<t,则判定V中像素属于不同的深度层次,那么利用k-means聚类将V中像素按照深度值的大小分为两类:V1和V2;
假设V1中像素的平均深度值小于V2中像素的平均深度值,将M中所有无效像素的深度值赋值为V1中出现频率最高的深度值。
进一步的,根据深度图像的超像素类别恢复深度缺失像素的深度值时,Sd内所有像素均为无效像素,恢复Sd内所有像素的深度值的方法为:
统计所有与Sd相邻且全部像素为有效像素的超像素,定义这些像素组成的集合为为中深度超像素对应的彩色超像素;
利用基于LAB颜色空间的超像素相似度计算方法从中找出与Sc相似度最高的超像素Rc,Rd为Rc对应的深度超像素;
计算Rd中所有像素深度值的方差σR;若σR<t,t为经验阈值,则判定Rd中所有像素属于同一深度层次,将M中所有无效像素的深度值赋值为Rd中出现频率最高的深度值;
若σR>=t,t为经验阈值,则判定Rd中像素属于不同的深度层次,那么利用k-means聚类将Rd中像素按照深度值的大小分为两类:Rd1和Rd2;假设Rd1中像素的平均深度值小于Rd2中像素的平均深度值,将M中无效像素的深度值赋值为Rd1中出现频率最高的深度值。
进一步的,对虚拟视点初始深度图像进行超像素分割时,利用SLIC算法对虚拟视点初始深度图像进行超像素分割,得到虚拟视点初始深度图像的深度超像素。
进一步的,虚拟视点深度图像填充时,具体包括:
统计虚拟视点初始深度图像超像素中有效像素集合;
根据有效像素集合对虚拟视点初始深度图像的超像素进行分类;
根据虚拟视点初始深度图像中超像素的分类,进行空洞的填充。
进一步的,虚拟视点深度图像填充时,以超像素为单位对虚拟视点初始深度图像进行空洞区域填充,假设D是包含空洞区域的超像素,D中非空洞部分为
若D中只有部分像素点属于空洞区域,则D中的空洞区域采用中出现概率最高的深度值进行填充;
若D中的像素全部都属于空洞区域,假设为与D相邻的不含空洞区域的超像素的集合,则利用集合中平均深度值最小的超像素Dmin中出现频率最高的深度值对D中的空洞区域进行填充。
本发明的有益效果:
本发明采用基于超像素的深度图像预处理和基于超像素的深度空洞处理,空洞填充准确性较高,计算量较小,有利于视点合成的实时实现。
本发明以超像素为基本单位进行深度图像预处理和深度空洞处理。首先,充分利用了同一超像素内部像素点属于同一物体这一特性,解决了传统的以像素为单位的深度图像预处理方法和深度空洞填充方法造成的深度不一致问题,图像预处理和空洞填充更加准确;其次,传统的以像素为单位的深度图像预处理方法和深度空洞填充方法,在周围一个较大的区域中选取深度候选值,而本发明方法中将候选值的区域限制在一个超像素内,更加准确;另外,本发明采用的超像素分割算法、k-means聚类算法、超像素相似度计算方法,以及本发明提出的方法中的深度超像素分类、深度值选取、深度填充和恢复计算量均比较小;最后,本发明的内容是视点合成算法中的两个重要步骤,可以用在任何基于深度图像的视点合成算法中,和任何基于深度图像的视点合成算法相结合。
附图说明
图1:本发明的深度图像预处理和深度空洞填充方法的视点合成总体框图
图2(a):彩色图像超像素分割;
图2(b):深度图像超像素分割;
图3(a):预处理前的深度图像;
图3(b)预处理后的深度图像;
图4(a):虚拟视点初始彩色图像;
图4(b)虚拟视点初始深度图像;
图5(a):部分像素为空洞区域的超像素;
图5(b)部分像素为空洞区域的超像素填充效果;
图5(c)全部像素为空洞区域的超像素;
图5(d)全部像素为空洞区域的超像素填充效果。
具体实施方式:
下面结合附图对本发明进行详细说明:
本发明提出了一种虚拟视点合成中基于超像素的深度图像预处理和深度空洞填充方法。利用超像素算法对需要预处理的深度图像对应的彩色图像进行分割,将彩色图像分割成超像素;根据彩色图像中的超像素对深度图像进行分割,将深度图像分割成深度超像素,并对深度超像素进行分类;然后,利用深度信息和彩色信息对深度信息缺失的像素点进行处理;对彩色图像和深度图像进行三维变换,得到存在空洞区域的虚拟视点初始彩色图像和虚拟视点初始深度图像;最后,将虚拟视点初始深度图像进行超像素分割,利用分割得到的超像素块进行空洞区域的填充。如图1为视点合成总体框图,虚线框图内部分即为本发明内容,即基于超像素的深度图像预处理和基于超像素的深度空洞填充过程。
图1中是结合虚拟视点合成算法展示本发明提出的深度图像预处理方法和深度空洞填充方法。图中所示的左右视点图像只是视点合成方法中的一种,也可以在基于单视点的视点合成中采用本发明的方法。图1中左右视点图像处理是同时进行的;三维变换后两个视点的图像分别生成包含空洞区域的虚拟视点图像;这两个虚拟视点的图像叠加的方法是虚拟视点合成现有技术(如果相同像素点位置两个虚拟视点图像都有像素值,则取平均;如果相同像素点位置只有一个虚拟视点图像具有像素值,则取该像素值;如果都没有像素值,则该像素点叠加后为空洞像素点,利用本发明方法进行空洞填充),当然现有虚拟视点合成算法中叠加方式有多种;左视点深度图像是左视点彩色图像对应的深度图,即左视点深度图中每个像素的值代表了左视点彩色图像中相同像素位置彩色像素的深度信息。
一种虚拟视点合成中基于超像素的深度图像预处理和深度空洞填充方法,具体步骤如下:
(1)基于彩色信息的深度图像超像素分割。利用简单线性迭代聚类(SimpleLinear Iterative Clustering,SLIC)(注:SLIC为现有常用的超像素分割算法)算法对彩色图像进行超像素分割,如图2(a)所示;根据超像素分割结果得到彩色图像中每个像素的超像素标签,利用每个像素的超像素标签对彩色图像对应的深度图像进行图像分割,将深度图像分割成和彩色图像完全相同的超像素如图2(b)所示。
(2)基于超像素的深度图像预处理。以超像素为基本处理单位,对深度图像进行预处理,找出深度图像中所有包含深度信息缺失像素的超像素,对这些超像素进行分类,分别采用不同的方法进行处理,恢复缺失的深度信息。
具体的:假设Sd是目标深度图像超像素,Sc是其对应的彩色图像超像素,M是Sd中深度缺失像素的集合,即无效像素的集合,那么Sd中有效像素的集合为V=Sd-M。定义|Sd|表示Sd中像素的个数,|V|表示Sd中有效像素的个数。
如果|V|=|Sd|,则表示Sd内像素全部为有效像素,那么该超像素无需预处理。
如果0<|V|<|Sd|,则表示Sd内部分像素为无效像素,需要通过预处理方法恢复M中像素的深度值:首先,计算有效像素集合V中所有像素深度值的方差σV;若σV<t(t为经验阈值,取t=10),则判定V中所有像素属于同一深度层次,即这些像素位于同一物体,那么我们将M中所有无效像素的深度值赋值为V中出现频率最高的深度值;若σV>=t(t为经验阈值,取t=10),则判定V中像素属于不同的深度层次,那么利用k-means聚类(k=2)将V中像素按照深度值的大小分为两类:V1和V2;假设V1中像素的平均深度值小于V2中像素的平均深度值,那么我们将M中所有无效像素的深度值赋值为V1中出现频率最高的深度值。
如果|V|=0,则表示Sd内所有像素均为无效像素,需要通过预处理方法恢复Sd内所有像素的深度值:首先,统计所有与Sd相邻且全部像素为有效像素的超像素,定义这些像素组成的集合为为中深度超像素对应的彩色超像素;然后,利用基于LAB颜色空间的超像素相似度计算方法(注:该超像素相似度计算方法为现有方法)从中找出与Sc相似度最高的超像素Rc,Rd为Rc对应的深度超像素;计算Rd中所有像素深度值的方差σR;若σR<t(t为经验阈值,取t=10),则判定Rd中所有像素属于同一深度层次,那么我们将M中所有无效像素的深度值赋值为Rd中出现频率最高的深度值;若σR>=t(t为经验阈值,取t=10),则判定Rd中像素属于不同的深度层次,那么利用k-means聚类(k=2)将Rd中像素按照深度值的大小分为两类:Rd1和Rd2;假设Rd1中像素的平均深度值小于Rd2中像素的平均深度值,那么我们将M中无效像素的深度值赋值为Rd1中出现频率最高的深度值。
图3(a)和图3(b)分别为预处理前和预处理后的深度图像。
(3)虚拟视点深度图像超像素分割。利用彩色图像和预处理后的深度图像进行三维变换(注:三维变换为现有技术),得到虚拟视点初始彩色图像和虚拟视点初始深度图像,由于遮挡原因,虚拟视点初始彩色图像和虚拟视点初始深度图像存在相同的空洞区域,如图4(a)和图4(b)所示;利用简单线性迭代聚类(Simple Linear Iterative Clustering,SLIC)算法将虚拟视点初始深度图像分割成超像素。
(4)虚拟视点深度图像填充。找出虚拟视点深度图像中所有包含空洞区域的超像素,并对这些超像素进行分类,分别采用不同的方法对空洞区域进行填充。
以超像素为单位对虚拟视点初始深度图像进行空洞区域填充,假设D是包含空洞区域的超像素,D中非空洞部分为若D中只有部分像素点属于空洞区域,如图5(a)所示,则D中的空洞区域采用中出现概率最高的深度值进行填充;若D中的像素全部都属于空洞区域,如图5(c)所示,假设为与D相邻的不含空洞区域的超像素的集合,则我们利用集合中平均深度值最小的超像素Dmin中出现频率最高的深度值对D中的空洞区域进行填充。图5(a)和5(c)中空洞区域的填充效果分别如图5(b)和5(d)所示。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (10)
1.基于超像素的深度图像预处理和深度空洞填充方法,其特征是,包括以下步骤:
步骤一:待处理的深度图像的超像素分割:对于该待处理的深度图像对应的彩色图像进行超像素分割,然后利用彩色图像的分割结果对该待处理的深度图像进行分割;
步骤二:基于超像素的深度图像预处理:将步骤一中分割后的深度图像找出所有包含深度信息缺失像素的超像素并恢复缺失的深度信息;
步骤三:虚拟视点深度图像超像素分割:利用待处理的深度图像对应的彩色图像和预处理后的深度图像进行三维变换,生成虚拟视点初始彩色图像和虚拟视点初始深度图像,对虚拟视点初始深度图像进行超像素分割;
步骤四:虚拟视点深度图像填充:找出步骤三中虚拟视点初始深度图像中所有包含空洞区域的超像素并对空洞区域进行填充。
2.如权利要求1所述的基于超像素的深度图像预处理和深度空洞填充方法,其特征是,在利用彩色图像的分割结果对该待处理的深度图像进行分割时,首先对彩色图像进行超像素分割,得到彩色图像中每个超像素的超像素标签;
利用到彩色图像中每个超像素的超像素标签,对深度图像进行超像素分割,将深度图像分割为和彩色图像超像素相同的超像素。
3.如权利要求1所述的基于超像素的深度图像预处理和深度空洞填充方法,其特征是,
基于超像素的深度图像预处理时,具体包括:
统计深度图像的超像素中有效像素集合;
根据深度图像的超像素中有效像素集合对深度图像的超像素进行分类;
根据深度图像的超像素类别恢复深度缺失像素的深度值。
4.如权利要求3所述的基于超像素的深度图像预处理和深度空洞填充方法,其特征是,统计深度图像的超像素中有效像素集合时,假设Sd是目标深度图像的超像素,Sc是其对应的彩色图像的超像素,M是Sd中深度缺失像素的集合,即无效像素的集合,那么Sd中有效像素的集合为V=Sd-M,定义|Sd|表示Sd中像素的个数,|V|表示Sd中有效像素的个数。
5.如权利要求4所述的基于超像素的深度图像预处理和深度空洞填充方法,其特征是,根据深度图像的超像素中有效像素集合对深度图像的超像素进行分类,具体如下:
如果|V|=|Sd|,则表示Sd内像素全部为有效像素,那么该超像素无需预处理;
如果0<|V|<|Sd|,则表示Sd内部分像素为无效像素,需要通过预处理方法恢复M中像素的深度值;
如果|V|=0,则表示Sd内所有像素均为无效像素,需要通过预处理方法恢复Sd内所有像素的深度值。
6.如权利要求5所述的基于超像素的深度图像预处理和深度空洞填充方法,其特征是,根据深度图像的超像素类别恢复深度缺失像素的深度值时,Sd内部分像素为无效像素时,恢复M中像素的深度值的方法为:
计算有效像素集合V中所有像素深度值的方差σV;
若σV<t,t为经验阈值,则判定V中所有像素属于同一深度层次,即这些像素位于同一物体,将M中所有无效像素的深度值赋值为V中出现频率最高的深度值;
若σV>=t,则判定V中像素属于不同的深度层次,那么利用k-means聚类将V中像素按照深度值的大小分为两类:V1和V2;
假设V1中像素的平均深度值小于V2中像素的平均深度值,将M中所有无效像素的深度值赋值为V1中出现频率最高的深度值。
7.如权利要求3所述的基于超像素的深度图像预处理和深度空洞填充方法,其特征是,根据深度图像的超像素类别恢复深度缺失像素的深度值时,Sd内所有像素均为无效像素,恢复Sd内所有像素的深度值的方法为:
统计所有与Sd相邻且全部像素为有效像素的超像素,定义这些像素组成的集合为为中深度超像素对应的彩色超像素;
利用基于LAB颜色空间的超像素相似度计算方法从中找出与Sc相似度最高的超像素Rc,Rd为Rc对应的深度超像素;
计算Rd中所有像素深度值的方差σR;若σR<t,t为经验阈值,则判定Rd中所有像素属于同一深度层次,将M中所有无效像素的深度值赋值为Rd中出现频率最高的深度值;
若σR>=t,t为经验阈值,则判定Rd中像素属于不同的深度层次,那么利用k-means聚类将Rd中像素按照深度值的大小分为两类:Rd1和Rd2;假设Rd1中像素的平均深度值小于Rd2中像素的平均深度值,将M中无效像素的深度值赋值为Rd1中出现频率最高的深度值。
8.如权利要求1所述的基于超像素的深度图像预处理和深度空洞填充方法,其特征是,对虚拟视点初始深度图像进行超像素分割时,利用SLIC算法对虚拟视点初始深度图像进行超像素分割,得到虚拟视点初始深度图像的深度超像素。
9.如权利要求1所述的基于超像素的深度图像预处理和深度空洞填充方法,其特征是,虚拟视点深度图像填充时,具体包括:
统计虚拟视点初始深度图像超像素中有效像素集合;
根据有效像素集合对虚拟视点初始深度图像的超像素进行分类;
根据虚拟视点初始深度图像中超像素的分类,进行空洞的填充。
10.如权利要求9所述的基于超像素的深度图像预处理和深度空洞填充方法,其特征是,虚拟视点深度图像填充时,以超像素为单位对虚拟视点初始深度图像进行空洞区域填充,假设D是包含空洞区域的超像素,D中非空洞部分为
若D中只有部分像素点属于空洞区域,则D中的空洞区域采用中出现概率最高的深度值进行填充;
若D中的像素全部都属于空洞区域,假设为与D相邻的不含空洞区域的超像素的集合,则利用集合中平均深度值最小的超像素Dmin中出现频率最高的深度值对D中的空洞区域进行填充。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610865067.0A CN106341676B (zh) | 2016-09-29 | 2016-09-29 | 基于超像素的深度图像预处理和深度空洞填充方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610865067.0A CN106341676B (zh) | 2016-09-29 | 2016-09-29 | 基于超像素的深度图像预处理和深度空洞填充方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106341676A true CN106341676A (zh) | 2017-01-18 |
CN106341676B CN106341676B (zh) | 2017-06-16 |
Family
ID=57840429
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610865067.0A Active CN106341676B (zh) | 2016-09-29 | 2016-09-29 | 基于超像素的深度图像预处理和深度空洞填充方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106341676B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106954076A (zh) * | 2017-03-13 | 2017-07-14 | 济南大学 | 一种基于视点间关系的多视点视频帧插入方法 |
CN107665493A (zh) * | 2017-08-29 | 2018-02-06 | 成都西纬科技有限公司 | 一种基于超像素分割的图像处理方法及系统 |
CN108510536A (zh) * | 2017-02-28 | 2018-09-07 | 富士通株式会社 | 多视点图像的深度估计方法和深度估计设备 |
CN108898055A (zh) * | 2018-05-24 | 2018-11-27 | 长安大学 | 一种检测信息融合的移动机器人障碍物检测方法 |
CN111970503A (zh) * | 2020-08-24 | 2020-11-20 | 腾讯科技(深圳)有限公司 | 二维图像的三维化方法、装置、设备及计算机可读存储介质 |
WO2022120809A1 (zh) * | 2020-12-11 | 2022-06-16 | Oppo广东移动通信有限公司 | 虚拟视点绘制、渲染、解码方法及装置、设备、存储介质 |
WO2022141222A1 (zh) * | 2020-12-30 | 2022-07-07 | Oppo广东移动通信有限公司 | 虚拟视点生成、渲染、解码方法及装置、设备、存储介质 |
JP7403528B2 (ja) | 2018-08-23 | 2023-12-22 | 株式会社ソニー・インタラクティブエンタテインメント | シーンの色及び深度の情報を再構成するための方法及びシステム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104346804A (zh) * | 2013-08-08 | 2015-02-11 | 联想(北京)有限公司 | 图像处理的方法及电子设备 |
CN105517677A (zh) * | 2015-05-06 | 2016-04-20 | 北京大学深圳研究生院 | 深度图/视差图的后处理方法和装置 |
US20160150208A1 (en) * | 2013-07-29 | 2016-05-26 | Peking University Shenzhen Graduate School | Virtual viewpoint synthesis method and system |
CN105894502A (zh) * | 2016-03-30 | 2016-08-24 | 浙江大学 | 基于超图模型的rgbd图像显著性检测方法 |
-
2016
- 2016-09-29 CN CN201610865067.0A patent/CN106341676B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160150208A1 (en) * | 2013-07-29 | 2016-05-26 | Peking University Shenzhen Graduate School | Virtual viewpoint synthesis method and system |
CN104346804A (zh) * | 2013-08-08 | 2015-02-11 | 联想(北京)有限公司 | 图像处理的方法及电子设备 |
CN105517677A (zh) * | 2015-05-06 | 2016-04-20 | 北京大学深圳研究生院 | 深度图/视差图的后处理方法和装置 |
CN105894502A (zh) * | 2016-03-30 | 2016-08-24 | 浙江大学 | 基于超图模型的rgbd图像显著性检测方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108510536A (zh) * | 2017-02-28 | 2018-09-07 | 富士通株式会社 | 多视点图像的深度估计方法和深度估计设备 |
CN108510536B (zh) * | 2017-02-28 | 2021-09-21 | 富士通株式会社 | 多视点图像的深度估计方法和深度估计设备 |
CN106954076A (zh) * | 2017-03-13 | 2017-07-14 | 济南大学 | 一种基于视点间关系的多视点视频帧插入方法 |
CN107665493A (zh) * | 2017-08-29 | 2018-02-06 | 成都西纬科技有限公司 | 一种基于超像素分割的图像处理方法及系统 |
CN107665493B (zh) * | 2017-08-29 | 2020-07-14 | 成都西纬科技有限公司 | 一种基于超像素分割的图像处理方法及系统 |
CN108898055A (zh) * | 2018-05-24 | 2018-11-27 | 长安大学 | 一种检测信息融合的移动机器人障碍物检测方法 |
JP7403528B2 (ja) | 2018-08-23 | 2023-12-22 | 株式会社ソニー・インタラクティブエンタテインメント | シーンの色及び深度の情報を再構成するための方法及びシステム |
CN111970503A (zh) * | 2020-08-24 | 2020-11-20 | 腾讯科技(深圳)有限公司 | 二维图像的三维化方法、装置、设备及计算机可读存储介质 |
CN111970503B (zh) * | 2020-08-24 | 2023-08-22 | 腾讯科技(深圳)有限公司 | 二维图像的三维化方法、装置、设备及计算机可读存储介质 |
WO2022120809A1 (zh) * | 2020-12-11 | 2022-06-16 | Oppo广东移动通信有限公司 | 虚拟视点绘制、渲染、解码方法及装置、设备、存储介质 |
WO2022141222A1 (zh) * | 2020-12-30 | 2022-07-07 | Oppo广东移动通信有限公司 | 虚拟视点生成、渲染、解码方法及装置、设备、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106341676B (zh) | 2017-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106341676B (zh) | 基于超像素的深度图像预处理和深度空洞填充方法 | |
CN106504190B (zh) | 一种基于3d卷积神经网络的立体视频生成方法 | |
EP2774124A1 (en) | Depth-map generation for an input image using an example approximate depth-map associated with an example similar image | |
CN103581650B (zh) | 双目3d视频转多目3d视频的方法 | |
JP2011223566A (ja) | 画像変換装置及びこれを含む立体画像表示装置 | |
Schmeing et al. | Depth image based rendering: A faithful approach for the disocclusion problem | |
CN104506872B (zh) | 一种平面视频转立体视频的方法及装置 | |
CN104639933A (zh) | 一种立体视图的深度图实时获取方法及系统 | |
Xu et al. | Depth-aided exemplar-based hole filling for DIBR view synthesis | |
Zhu et al. | An improved depth image based virtual view synthesis method for interactive 3D video | |
Hsu et al. | Spatio-temporally consistent view synthesis from video-plus-depth data with global optimization | |
Ma et al. | Depth-guided inpainting algorithm for free-viewpoint video | |
Liu et al. | An enhanced depth map based rendering method with directional depth filter and image inpainting | |
KR101511315B1 (ko) | 스테레오스코픽 컨텐츠를 위한 다이나믹 플로팅 윈도우 생성 방법 및 시스템 | |
Feng et al. | Asymmetric bidirectional view synthesis for free viewpoint and three-dimensional video | |
Loghman et al. | Segmentation-based view synthesis for multi-view video plus depth | |
Lu et al. | Depth-based view synthesis using pixel-level image inpainting | |
EP2745520B1 (en) | Auxiliary information map upsampling | |
Ramachandran et al. | Multiview synthesis from stereo views | |
Lin et al. | Fast multi-view image rendering method based on reverse search for matching | |
Cheng et al. | A DIBR method based on inverse mapping and depth-aided image inpainting | |
Ramirez et al. | An effective inpainting technique for hole filling in DIBR synthesized images | |
Liu et al. | Texture-adaptive hole-filling algorithm in raster-order for three-dimensional video applications | |
Guo et al. | Efficient image warping in parallel for multiview three-dimensional displays | |
CN101365142A (zh) | 一种立体电视系统中深度图像编码方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |