CN101815225A - 生成深度图的方法及其设备 - Google Patents
生成深度图的方法及其设备 Download PDFInfo
- Publication number
- CN101815225A CN101815225A CN200910118218A CN200910118218A CN101815225A CN 101815225 A CN101815225 A CN 101815225A CN 200910118218 A CN200910118218 A CN 200910118218A CN 200910118218 A CN200910118218 A CN 200910118218A CN 101815225 A CN101815225 A CN 101815225A
- Authority
- CN
- China
- Prior art keywords
- frame
- depth map
- depth
- zone
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
提供一种生成深度图的方法及其设备,所述方法包括:通过稠密匹配方法,使用单目视频流的第一帧和第二帧获得表示第二帧的像素深度的第一深度图;检测所述单目视频流的第二帧和第三帧的特征点,将第三帧的特征点与第二帧的特征点进行匹配以获得特征向量,并根据所述第二帧的像素深度将第一深度图划分为多个区域;通过对检测到的特征点进行运动估计来获得运动参数,并基于所述运动参数和所述特征向量更新所述多个区域的参数,从而更新所述多个区域以作为表示第三帧的像素深度的第二深度图的一部分;在第三帧中检测新区域,并通过计算所述第三帧中的新区域的像素深度作为第二深度图的另一部分,从而获得第二深度图。
Description
技术领域
本发明涉及一种生成深度图的方法及其设备,更具体地,涉及一种从单目视频生成深度图的方法及其设备。
背景技术
近年来,随着3D技术的不断发展,市场上出现了多种配备有3D特征的电子产品(诸如,配备有3D特征的显示器、电视机、移动终端等)。然而,大多数现有的视频是通过普通的单目摄像机捕捉的,因此这些视频不能直接用于3D产品的输入内容。如何从这些单目视频有效地提取3D信息成为了主要任务。
针对上述任务,目前出现了很多方法。大部分方法主要用于生成单个深度图,而不是深度图序列,因此无法实时生成在线播放的视频的深度图。此外,现有的方法受相机运动的影响和约束很大,例如,使用这些方法需要相机一直保持水平移动。
而且,这些方法使用运动估计结构(SFM)来计算相机的参数,这会导致计算的相机参数具有较高的误差,从而会很大程度上影响最终结果。同时,加上平滑处理的时间,这些方法需要大量的时间。
发明内容
本发明的目的在于提供一种生成深度图的方法,所述方法通过将深度图划分为多个区域并更新所述多个区域,以及检测新区域并仅计算新区域的像素深度来减少了生成深度图的计算量和所花费的时间,并且能够获得清晰的深度图。
本发明的另一目的在于提供一种生成深度图的设备,所述设备通过将深度图划分为多个区域并更新所述多个区域,以及检测新区域并仅计算新区域的像素深度来减少了生成深度图的计算量和所花费的时间,并且能够获得清晰的深度图。
本发明的一方面在于提供一种从单目视频生成深度图的方法,包括:(a)通过稠密匹配方法,使用单目视频流的第一帧和第二帧获得表示第二帧的像素深度的第一深度图;(b)检测所述单目视频流的第二帧和第三帧的特征点,将第三帧的特征点与第二帧的特征点进行匹配以获得特征向量,并根据所述第二帧的像素深度将第一深度图划分为多个区域;(c)通过对检测到的特征点进行运动估计来获得运动参数,并基于所述运动参数和所述特征向量更新所述多个区域的参数,从而更新所述多个区域以作为表示第三帧的像素深度的第二深度图的一部分;(d)在第三帧中检测新区域,所述新区域是在第三帧中出现而未在第二帧中出现的区域,并通过计算所述第三帧中的新区域的像素深度作为第二深度图的另一部分,从而获得第二深度图;以及(e)对第二深度图进行平滑处理。
当所述新区域是与首次出现的场景相应的区域时,通过第三帧和第四帧对该区域进行稠密匹配方法来获得该区域的像素深度,并且当所述新区域是与被覆盖的场景相应的区域时,基于该区域的相邻区域的像素深度通过图像修复方法计算该区域的像素深度。
所述稠密匹配方法可以是是图分割算法、信任传播算法和动态规划算法中的任何一种。
可以对所述特征向量进行滤波处理以提高匹配准确度。
所述多个区域的参数可以是像素深度、几何形状和位置。
所述视频流的格式可以是AVI和MPG中的任何一种。
本发明的另一方面在于提供一种从单目视频生成深度图的设备,包括:初始化模块,通过稠密匹配方法,使用单目视频流的第一帧和第二帧获得表示第二帧的像素深度的第一深度图;处理模块,检测所述单目视频流的第二帧和第三帧的特征点,将第三帧的特征点与第二帧的特征点进行匹配以获得特征向量,根据第二帧的特征点的像素深度将第一深度图划分为多个区域,通过对检测到的特征点进行运动估计来获得运动参数,基于所述运动参数和所述特征向量更新所述多个区域参数,从而更新所述多个区域以作为表示第三帧的像素深度的第二深度图的一部分,在第三帧中检测新区域,所述新区域是在第三帧中出现而未在第二帧中出现的区域,并计算所述第三区域中的新区域的像素深度作为第二深度图的另一部分,从而获得第二深度图;以及平滑模块,对第二深度图进行平滑处理。
当所述新区域是与首次出现的场景相应的区域时,处理模块通过第三帧和第四帧对该区域进行稠密匹配方法来获得该区域的像素深度,并且当所述新区域是与被覆盖的场景相应的区域时,处理模块基于该区域的相邻区域的像素深度通过图像修复方法计算该区域的像素深度。
所述稠密匹配方法可以是图分割算法、信任传播算法和动态规划算法中的任何一种。
处理模块可对所述特征向量进行滤波处理以提高匹配准确度。
所述多个区域的参数可以是像素深度、几何形状和位置。
所述视频流的格式可以是AVI和MPG中的一种。
附图说明
通过下面结合附图进行的详细描述,本发明的上述和其他目的和特点将会变得更加清楚,其中:
图1是示出根据本发明示例性实施例的生成深度图的设备的框图;
图2是示出根据本发明示例性实施例的生成深度图的方法的流程图;
图3是第二帧和根据第一帧和第二帧计算的第一深度图;
图4是示出通过特征点匹配产生的特征向量的示图;
图5是示出根据本发明示例性实施例的新区域检测结果和不同新区域的示图;
图6是示出根据本发明示例性实施例的彩色帧与其深度图的示图;
图7是通过根据本发明示例性实施例的生成深度图的方法获得的深度图序列;以及
图8是通过传统方法和本发明的生成深度图的方法获得的深度图的比较结果。
具体实施方式
以下,参照附图来详细说明本发明的实施例。
图1是示出根据本发明示例性实施例的生成深度图的设备的框图。参照图1,根据本发明示例性实施例的生成深度图的设备100包括:初始化模块101、处理模块102和平滑模块103。
初始化模块101通过稠密匹配方法,使用单目视频流的第一帧和第二帧获得第一深度图。这里,第一帧表示单目视频流的初始帧,第二帧表示第一帧的下一帧,第一深度图是计算出的第二帧的深度图。图3的(a)表示第二帧,(b)表示第一深度图。所述视频流的格式可以是AVI、MPG等普通视频流格式,并且所述稠密匹配方法可以是图分割算法(Graph Cut)、信任传播算法(Belief Propagation)、动态规划算法(Dynamic Programming)等。优选地,可以采用图分割算法来获得第一深度图。所述图分割算法应用于各种不同的场合,例如,图像恢复、图像分割和立体稠密匹配等,该算法是一种使用图形原理的针对立体匹配问题的解决方案,其特点在于将立体相应性匹配问题转换为全局能量功能的最小化,通过在特定图形中找到最优分割来实现该最小化。所述图分割算法、信任传播算法和动态规划算法都是本领域公知技术,这里将不再详细描述。
需要注意的是,在以下描述中出现的第三帧表示第二帧的下一帧,第二深度图表示第三帧的深度图。可以依此类推,例如,第四帧表示第三帧的下一帧,第三深度图表示第四帧的深度图。上述第一深度图用作获得第二深度图的依据,第二深度图用作获得第三深度图的依据。也就是,利用先前深度图获得当前深度图,为了描述的方便,将不再重复获得第二深度图之后的多个深度图的过程。
处理模块102,检测单目视频流中的第二帧和第三帧特征点,将第三帧的特征点与第二帧的特征点进行匹配以获得特征向量,根据深度将第一深度图划分为多个区域,通过对检测到的特征点进行运动估计来获得运动参数,基于所述运动参数和所述特征向量更新所述多个区域的参数,从而更新所述多个区域以作为第二深度图的一部分,在第三帧中检测新区域,所述新区域是在第三帧中出现而未在第二帧中出现的区域,并计算所述新区域的像素深度作为第二深度图的另一部分,从而获得第二深度图。下面将对此进行详细描述。
现有技术中有很多方法可以检测多个帧中的特征点,这里采用SURF(升速稳健特征,Speed Up Robust Features)来检测多个帧中的特征点,SURF是一种新的尺度和旋转不变兴趣点检测器和描述器。具体说来,通过依靠完整图像进行图像旋转来实现SURF,基于来自兴趣点周围的圆形区域的信息固定可再现的方向,构建调整为所述方向的方形区域,并提取SURF描述符。实验证明,SURF可更加有效且快速地被计算。此外,处理模块102对特征点进行的匹配是一种不同于上述的稠密匹配方法的稀疏匹配方法,因此相比于稠密匹配算法,显著减少计算量和计算时间。
图4表示通过第二帧和第三帧获得的特征向量。之后,处理模块102可通过对特征向量进行滤波以提高匹配准确度。具体地,可计算特征向量的平均长度和方向,并将每个特征向量与平均值进行比较,如果相差大于预定阀值,则过滤出该特征向量。
处理模块102检测到的新区域是指第二帧中未出现而在第三帧中出现的区域。可以对所述新区域进行上述稠密匹配方法来计算新区域的像素深度。具体地,通过利用单目视频流的第三帧和随后的第四帧,如获得第一深度图一样,按照上述稠密匹配方法获得新区域的像素深度作为第二深度图的另一部分。
或者,处理模块102可首先判断上述新区域的类型。新区域可以分为与首次出现的场景相应的区域和与被覆盖的场景相应的区域这两种类型。当所述新区域是与首次出现的场景相应的区域时,处理模块102通过第三帧和第四帧对该区域进行稠密匹配方法来获得该区域的像素深度,并且当所述新区域是与被覆盖的场景相应的区域时,处理模块102基于该区域的相邻区域的深度通过图像修复方法计算该区域的像素深度。由于与被覆盖的区域相邻的区域的像素深度通常与被覆盖的区域的像素深度相似,因此,通过该区域的信息来获得被覆盖的区域的信息,从而获得被覆盖的区域的像素深度。上述图像修复方法将在下面进一步描述。
平滑模块103,对第二深度图进行平滑处理。平滑处理的目的在于不同帧中的相同区域应该保持相似的像素深图以避免显著的深度变化。将在下面进一步描述所述平滑处理。
以下,将详细描述生成深度图的步骤。如上所述,在以下描述中出现的第一帧表示视频流的初始帧,第二帧表示第一帧的下一帧,第一深度图是计算出的第二帧的深度图,第三帧表示第二帧的下一帧,第二深度图表示第三帧的深度图。可以依此类推,例如,第四帧表示第三帧的下一帧,第三深度图表示第四帧的深度图。第一深度图用作获得第二深度图的依据,第二深度图用作获得第三深度图的依据。也就是,利用先前深度图获得当前深度图,为了描述的方便,将不再重复生成第二深度图之后的多个深度图的过程。
图2是示出根据本发明示例性实施例的生成深度图的方法的流程图。参照图2,在步骤S201,初始化模块101通过稠密匹配方法,使用视频流的第一帧和第二帧获得第一深度图。实际上,该步骤所花费的时间最长,因为第一深度图的准确度在随后的计算中非常重要,需要在该步骤中尽量准确地获得第一深度图。这里,所述视频流的格式可以是AVI、MPG等普通视频流格式,并且所述稠密匹配方法可以是图分割算法(Graph Cut)、信任传播算法(Belief Propagation)、动态规划算法(Dynamic Programming)等。优选地,可以选择结果较好的图分割算法来获得第一深度图。由于这些算法都是本领域公知技术,因此将省略对此的详细描述。
在步骤S202,处理模块102检测单目视频流的第二帧和第三帧的特征点,将第三帧的特征点与第二帧中的特征点进行匹配以获得特征向量。处理模块102还可对所述特征向量进行滤波处理以提高匹配准确度。具体地,可计算特征向量的平均长度和方向,并将每个特征向量与平均值进行比较,如果相差大于预定阀值,则过滤出该特征向量。
在步骤S203,处理模块102根据像素深度将第一深度图划分为多个区域,其中,每个区域的像素具有相似的深度。这样,每个区域中包含在步骤S202获得的特征向量。
在步骤S204,处理模块102通过对检测到的特征点进行运动估计来获得运动参数,并基于所述运动参数和所述特征向量更新所述多个区域的参数,从而更新所述多个区域以作为第二深度图的一部分。可通过在2D空间中的欧氏变换来更新所述多个区域的参数,即,可通过以下等式1来计算运动参数:
其中,r指示缩放因子,即,表示区域沿着z轴(垂直于图像平面)的运动,如果r大于1,则认为区域朝相机运动,否则认为区域朝相机的相反方向移动。θ表示运动的角度,dx和dy分别表示位移向量,x和y表示原来的坐标,x′和y′表示运动后的新坐标。
优选地,所述多个区域的参数可以是像素深度、几何形状和位置。
在步骤S205,处理模块102在第三帧中检测新区域,所述新区域是在第三帧中出现而未在第二帧中出现的区域,并计算该区域的像素深度作为第二深度图的另一部分,从而获得第二深度图。这里,处理模块102检测到的新区域是指第二帧中未出现而在第三帧中出现的区域。在步骤S205,处理模块102可使用上述稠密匹配方法,如计算第一深度图一样,通过单目视频流的第三帧和随后的第四帧计算该新区域的像素深度。或者,处理模块102也可以将检测到的新区域分类为两种类型的区域。第一种类型的区域为与首次出现的场景相应的区域,第二种类型的区域为与被覆盖的场景相应的区域。
图5是示出根据本发明示例性实施例的新区域检测结果和不同新区域的示图。其中,图5中的(a)是第二帧,(b)是第三帧,(c)是检测到的新区域。如图5(c)所示,区域1是与首次出现的场景相应的区域,区域2是与被覆盖的场景相应的区域。
对区域1,处理模块102通过第三帧和第四帧对该区域进行稠密匹配方法来获得该区域的像素深度。所述稠密匹配方法与在计算第一深度图时使用的稠密匹配方法相同。由于与首次出现的场景相应的区域较小,因此所花费的时间也较短。对区域2,处理模块基于该区域的相邻区域的像素深度通过图像修复方法计算该区域的像素深度。图像修复方法可由以下等式2表示:
其中,q表示与被覆盖的场景相应的区域的像素,d(q)表示q的像素深度,p表示该区域的相邻区域的像素,d(p)表示p的像素深度,ω(q,p)是像素q和p之间的权重,q和p越靠近权重就越大,是像素p的梯度,(q-p)是像素q和p之间的距离。
在步骤S206,平滑模块103对第二深度图进行平滑处理。平滑处理的目的在于不同帧中的相同区域应该保持相似的像素深图以避免显著的深度变化。平滑模块103可通过已经获得的在不同帧中的相同区域的像素深度对第二深度图进行平滑。可通过以下等式3对第二深度图进行平滑处理:
其中,dt(qi)表示在第t帧中的区域qi的像素深度,ω是权重,距离第t帧越近,权重就越大,即ω(t-1)比ω(t-m)大,m是小于t的正整数。
图6示出根据本发明示例性实施例的彩色帧与其深度图。图6中,上面一排是彩色帧,下面一排是根据本发明示例性实施例获得的彩色帧的深度图。图7示出通过根据本发明示例性实施例的生成深度图的方法获得的视频流的深度图序列。该深度图序列的顺序为从左到右,从上到下。
如图6和图7所示,通过根据本发明示例性实施例的生成深度图的方法,可实时提供视频的深度图,从而不仅能够提供已经下载的视频的深度图,而且还能够提供在线播放的视频流的深度图。
图8是通过传统方法和本发明的生成深度图的方法获得的深度图的比较结果。图8中的(a)是基于传统的深度图生成方法生成的深度图,图8中的(b)是根据本发明的生成深度图的方法生成的深度图。从图8可以看出与通过传统方法生成的深度图比较,根据本发明生成的深度图显著提高了深度图的准确度,从而能够给用户提供更清晰的立体效果。
根据本发明示例性实施例的生成深度图的方法及其系统,通过将深度图划分为多个区域并更新所述多个区域,以及仅对新区域分类并计算深度图来减少了生成深度图的计算量和所花费的时间。同时,通过保证先前深度图的准确率来提高了随后的深度图的准确率。此外,通过参照先前深度图来计算当前深度图,能够实时生成在线播放的视频流的深度图。
本发明不限于上述实施例,在不脱离本发明的精神和范围的情况下,可以对本发明进行形式和细节上的各种改变。
产业上的可利用性
根据本发明示例性实施例的生成深度图的方法及其系统可应用于将普通视频流作为输入内容以输出立体视频的立体电视机、多视点显示器、移动终端和个人数字助理。
Claims (12)
1.一种从单目视频生成深度图的方法,包括步骤:
(a)通过稠密匹配方法,使用单目视频流的第一帧和第二帧获得表示第二帧的像素深度的第一深度图;
(b)检测所述单目视频流的第二帧和第三帧的特征点,将第三帧的特征点与第二帧的特征点进行匹配以获得特征向量,并根据所述第二帧的像素深度将第一深度图划分为多个区域;
(c)通过对检测到的特征点进行运动估计来获得运动参数,并基于所述运动参数和所述特征向量更新所述多个区域的参数,从而更新所述多个区域以作为表示第三帧的像素深度的第二深度图的一部分;
(d)在第三帧中检测新区域,所述新区域是在第三帧中出现而未在第二帧中出现的区域,并通过计算所述新区域的像素深度作为第二深度图的另一部分,从而获得第二深度图;以及
(e)对第二深度图进行平滑处理。
2.如权利要求1所述的方法,其特征在于步骤(d)进一步包括步骤:
当所述新区域是与首次出现的场景相应的区域时,通过第三帧和第四帧对该区域进行稠密匹配方法来获得该区域的像素深度,并且当所述新区域是与被覆盖的场景相应的区域时,基于该区域的相邻区域的像素深度通过图像修复方法计算该区域的像素深度。
3.如权利要求1所述的方法,其特征在于所述稠密匹配方法是图分割算法、信任传播算法和动态规划算法中的任何一种。
4.如权利要求1所述的方法,其特征在于步骤(b)进一步包括步骤:对所述特征向量进行滤波处理以提高匹配准确度。
5.如权利要求1所述的方法,其特征在于步骤(c)中所述多个区域的参数为像素深度、几何形状和位置。
6.如权利要求1所述的方法,其特征在于所述视频流的格式是AVI和MPG中的任何一种。
7.一种从单目视频生成深度图的设备,包括:
初始化模块,通过稠密匹配方法,使用单目视频流的第一帧和第二帧获得表示第二帧的像素深度的第一深度图;
处理模块,检测所述单目视频流的第二帧和第三帧的特征点,将第三帧的特征点与第二帧的特征点进行匹配以获得特征向量,根据第二帧的特征点的像素深度将第一深度图划分为多个区域,通过对检测到的特征点进行运动估计来获得运动参数,基于所述运动参数和所述特征向量更新所述多个区域的参数,从而更新所述多个区域以作为表示第三帧的像素深度的第二深度图的一部分,在第三帧中检测新区域,所述新区域是在第三帧中出现而未在第二帧中出现的区域,并计算所述第三区域中的新区域的像素深度作为第二深度图的另一部分,从而获得第二深度图;以及
平滑模块,对第二深度图进行平滑处理。
8.如权利要求7所述的设备,其特征在于:当所述新区域是与首次出现的场景相应的区域时,处理模块通过第三帧和第四帧对该区域进行稠密匹配方法来获得该区域的像素深度,并且当所述新区域是与被覆盖的场景相应的区域时,处理模块基于该区域的相邻区域的像素深度通过图像修复方法计算该区域的像素深度。
9.如权利要求7所述的设备,其特征在于所述稠密匹配方法是图分割算法、信任传播算法和动态规划算法中的任何一种。
10.如权利要求7所述的设备,其特征在于处理模块对所述特征向量进行滤波处理以提高匹配准确度。
11.如权利要求7所述的设备,其特征在于所述多个区域的参数为像素深度、几何形状和位置。
12.如权利要求7所述的设备,其特征在于所述视频流的格式是AVI和MPG中的一种。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200910118218.6A CN101815225B (zh) | 2009-02-25 | 2009-02-25 | 生成深度图的方法及其设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200910118218.6A CN101815225B (zh) | 2009-02-25 | 2009-02-25 | 生成深度图的方法及其设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101815225A true CN101815225A (zh) | 2010-08-25 |
CN101815225B CN101815225B (zh) | 2014-07-30 |
Family
ID=42622323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200910118218.6A Expired - Fee Related CN101815225B (zh) | 2009-02-25 | 2009-02-25 | 生成深度图的方法及其设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101815225B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103177440A (zh) * | 2012-12-20 | 2013-06-26 | 香港应用科技研究院有限公司 | 生成图像深度图的系统和方法 |
CN103428514A (zh) * | 2012-05-24 | 2013-12-04 | 矽统科技股份有限公司 | 深度图产生装置及方法 |
WO2014090303A1 (en) * | 2012-12-12 | 2014-06-19 | Huawei Technologies Co., Ltd. | Method and apparatus for segmentation of 3d image data |
CN104103062A (zh) * | 2013-04-08 | 2014-10-15 | 富士通株式会社 | 图像处理设备和图像处理方法 |
CN105260989A (zh) * | 2015-09-10 | 2016-01-20 | 安徽工业大学 | 基于多图配准复原三维图像的方法 |
CN105765628A (zh) * | 2013-10-23 | 2016-07-13 | 谷歌公司 | 深度图生成 |
WO2018053952A1 (zh) * | 2016-09-26 | 2018-03-29 | 浙江工商大学 | 一种基于场景样本库的影视图像深度提取方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001103513A (ja) * | 1999-09-27 | 2001-04-13 | Sanyo Electric Co Ltd | 2次元映像を3次元映像に変換する方法 |
WO2001039512A1 (en) * | 1999-11-26 | 2001-05-31 | Sanyo Electric Co., Ltd. | Device and method for converting two-dimensional video to three-dimensional video |
JP2003018604A (ja) * | 2001-07-04 | 2003-01-17 | Matsushita Electric Ind Co Ltd | 画像信号符号化方法、画像信号符号化装置および記録媒体 |
US20060192851A1 (en) * | 2005-02-28 | 2006-08-31 | Victor Company Of Japan, Ltd. | Video data processing apparatus, picture reproducing apparatus, and computer programs related thereto |
WO2008080156A1 (en) * | 2006-12-22 | 2008-07-03 | Qualcomm Incorporated | Complexity-adaptive 2d-to-3d video sequence conversion |
CN101257641A (zh) * | 2008-03-14 | 2008-09-03 | 清华大学 | 基于人机交互的平面视频转立体视频的方法 |
CN101271578A (zh) * | 2008-04-10 | 2008-09-24 | 清华大学 | 一种平面视频转立体视频技术中的深度序列生成方法 |
CN101272511A (zh) * | 2007-03-19 | 2008-09-24 | 华为技术有限公司 | 图像深度信息和图像像素信息的获取方法及装置 |
US20080232716A1 (en) * | 2005-08-17 | 2008-09-25 | Nxp B.V. | Video Processing Method and Device for Depth Extraction |
CN101287142A (zh) * | 2008-05-16 | 2008-10-15 | 清华大学 | 基于双向跟踪和特征点修正的平面视频转立体视频的方法 |
-
2009
- 2009-02-25 CN CN200910118218.6A patent/CN101815225B/zh not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001103513A (ja) * | 1999-09-27 | 2001-04-13 | Sanyo Electric Co Ltd | 2次元映像を3次元映像に変換する方法 |
WO2001039512A1 (en) * | 1999-11-26 | 2001-05-31 | Sanyo Electric Co., Ltd. | Device and method for converting two-dimensional video to three-dimensional video |
JP2003018604A (ja) * | 2001-07-04 | 2003-01-17 | Matsushita Electric Ind Co Ltd | 画像信号符号化方法、画像信号符号化装置および記録媒体 |
US20060192851A1 (en) * | 2005-02-28 | 2006-08-31 | Victor Company Of Japan, Ltd. | Video data processing apparatus, picture reproducing apparatus, and computer programs related thereto |
US20080232716A1 (en) * | 2005-08-17 | 2008-09-25 | Nxp B.V. | Video Processing Method and Device for Depth Extraction |
WO2008080156A1 (en) * | 2006-12-22 | 2008-07-03 | Qualcomm Incorporated | Complexity-adaptive 2d-to-3d video sequence conversion |
CN101272511A (zh) * | 2007-03-19 | 2008-09-24 | 华为技术有限公司 | 图像深度信息和图像像素信息的获取方法及装置 |
CN101257641A (zh) * | 2008-03-14 | 2008-09-03 | 清华大学 | 基于人机交互的平面视频转立体视频的方法 |
CN101271578A (zh) * | 2008-04-10 | 2008-09-24 | 清华大学 | 一种平面视频转立体视频技术中的深度序列生成方法 |
CN101287142A (zh) * | 2008-05-16 | 2008-10-15 | 清华大学 | 基于双向跟踪和特征点修正的平面视频转立体视频的方法 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103428514A (zh) * | 2012-05-24 | 2013-12-04 | 矽统科技股份有限公司 | 深度图产生装置及方法 |
CN103428514B (zh) * | 2012-05-24 | 2016-01-20 | 矽统科技股份有限公司 | 深度图产生装置及方法 |
CN104982032B (zh) * | 2012-12-12 | 2018-09-07 | 华为技术有限公司 | 3d图像数据分割的方法和装置 |
WO2014090303A1 (en) * | 2012-12-12 | 2014-06-19 | Huawei Technologies Co., Ltd. | Method and apparatus for segmentation of 3d image data |
CN104982032A (zh) * | 2012-12-12 | 2015-10-14 | 华为技术有限公司 | 3d图像数据分割的方法和装置 |
US10096116B2 (en) | 2012-12-12 | 2018-10-09 | Huawei Technologies Co., Ltd. | Method and apparatus for segmentation of 3D image data |
CN103177440A (zh) * | 2012-12-20 | 2013-06-26 | 香港应用科技研究院有限公司 | 生成图像深度图的系统和方法 |
CN103177440B (zh) * | 2012-12-20 | 2015-09-16 | 香港应用科技研究院有限公司 | 生成图像深度图的系统和方法 |
CN104103062A (zh) * | 2013-04-08 | 2014-10-15 | 富士通株式会社 | 图像处理设备和图像处理方法 |
CN105765628A (zh) * | 2013-10-23 | 2016-07-13 | 谷歌公司 | 深度图生成 |
CN105765628B (zh) * | 2013-10-23 | 2018-11-13 | 谷歌有限责任公司 | 深度图生成的方法及系统 |
US10681336B2 (en) | 2013-10-23 | 2020-06-09 | Google Llc | Depth map generation |
CN105260989A (zh) * | 2015-09-10 | 2016-01-20 | 安徽工业大学 | 基于多图配准复原三维图像的方法 |
CN105260989B (zh) * | 2015-09-10 | 2019-01-29 | 安徽工业大学 | 基于多图配准复原三维图像的方法 |
WO2018053952A1 (zh) * | 2016-09-26 | 2018-03-29 | 浙江工商大学 | 一种基于场景样本库的影视图像深度提取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN101815225B (zh) | 2014-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101815225B (zh) | 生成深度图的方法及其设备 | |
US10225473B2 (en) | Threshold determination in a RANSAC algorithm | |
CN101742122B (zh) | 一种去除视频抖动的方法和系统 | |
Huang et al. | A depth extraction method based on motion and geometry for 2D to 3D conversion | |
Thomas et al. | Motion tracking of discontinuous sea ice | |
CN104156957B (zh) | 一种稳定高效的高分辨率立体匹配方法 | |
CN102697508A (zh) | 采用单目视觉的三维重建来进行步态识别的方法 | |
US20200349391A1 (en) | Method for training image generation network, electronic device, and storage medium | |
CN103793920B (zh) | 基于视频的逆行检测方法及其系统 | |
US10229508B2 (en) | Dynamic particle filter parameterization | |
CN108668069B (zh) | 一种图像背景虚化方法及装置 | |
CN103227888A (zh) | 一种基于经验模式分解和多种评价准则的视频去抖动方法 | |
CN102521842A (zh) | 一种实现快速移动检测的方法和装置 | |
CN104778697A (zh) | 基于快速定位图像尺度和区域的三维跟踪方法及系统 | |
CN103345765B (zh) | 基于dsp+fpga的移动平台下运动目标检测装置及其方法 | |
CN103208125A (zh) | 视频帧图像中颜色和运动全局对比度的视觉显著性算法 | |
CN103514587B (zh) | 基于海天分界线检测的舰载稳像方法 | |
CN107767393B (zh) | 一种面向移动硬件的场景流估计方法 | |
CN104616035B (zh) | 基于图像全局特征及SURF算法的Visual Map快速匹配方法 | |
CN104104911A (zh) | 全景图像生成过程中的时间戳消除和重置方法及系统 | |
CN102142148B (zh) | 视频空时特征提取方法 | |
CN102819662B (zh) | 一种视频流体高度的计算方法 | |
Cao et al. | Real-time video stabilization via camera path correction and its applications to augmented reality on edge devices | |
CN113920254B (zh) | 一种基于单目rgb的室内三维重建方法及其系统 | |
Amar et al. | Synthesizing reality for realistic physical behavior of virtual objects in augmented reality applications for smart-phones |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140730 Termination date: 20150225 |
|
EXPY | Termination of patent right or utility model |