CN101631256B - 用于三维电视系统中2d视频到3d视频的转换方法 - Google Patents

用于三维电视系统中2d视频到3d视频的转换方法 Download PDF

Info

Publication number
CN101631256B
CN101631256B CN2009101021146A CN200910102114A CN101631256B CN 101631256 B CN101631256 B CN 101631256B CN 2009101021146 A CN2009101021146 A CN 2009101021146A CN 200910102114 A CN200910102114 A CN 200910102114A CN 101631256 B CN101631256 B CN 101631256B
Authority
CN
China
Prior art keywords
video
block
pixels
depth map
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2009101021146A
Other languages
English (en)
Other versions
CN101631256A (zh
Inventor
王梁昊
黄晓军
李东晓
席明
杨青青
张明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wan D Display Technology (shenzhen) Co Ltd
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN2009101021146A priority Critical patent/CN101631256B/zh
Publication of CN101631256A publication Critical patent/CN101631256A/zh
Application granted granted Critical
Publication of CN101631256B publication Critical patent/CN101631256B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种用于三维电视系统中2D视频到3D视频的转换方法,包括如下步骤:(1)获取经过视频编码标准压缩过的待转换2D视频文件;(2)解码得到原始视频,同时从视频解码器中提取每个4×4像素块的运动矢量信息,换算成运动幅度;(3)通过运动幅度描述出每一帧图像的初始深度图;(4)迭代边缘修正滤波,得到物体边缘清晰准确的稠密深度图,完成3D视频的表达。本发明利用视频解码器的中间结果获取初始深度图,很好地节省了信号处理的时间和最终产品的成本;同时设计了一个边缘修正滤波器,解决了基于图像获取深度这类算法中的一大难题——如何得到物体边缘清晰准确的稠密深度图。

Description

用于三维电视系统中2D视频到3D视频的转换方法
技术领域
本发明涉及一种用于三维电视系统中2D视频到3D视频的转换方法。
背景技术
最近几年,“三维电视将成为高清数字电视之后的一个新的技术飞跃”这一观点已是学术界和工业界的共识。三维电视系统能给人带来身临其境的三维立体效果,让人们享受到视觉上的盛宴。
在多方努力试图制定三维电视内容、编码与传输的标准时,一个话题自然而然摆在了大家的桌面上。那就是如何处理这么多年来积攒的二维视频内容?是让以后的三维电视兼容传统的二维内容播放,还是通过某些技术手段,将原来的二维内容实时转为三维,再立体地播放出来?无疑,后者的技术一旦成熟,将带来难以想象的经济价值,也会对三维电视的发展带来前所未有的资金支撑。
在三维电视近几年来的发展中,欧洲ATTEST项目提出的基于一路视频加对应稠密深度图的表达方法得到了广泛的认可,通过DIBR技术,利用稠密深度图,可以将一路视频扩展到多路视频,从而实现多视点显示。显然,稠密深度图的产生至关重要,也是传统二维视频转换为三维视频的关键所在。
2D转3D问题的研究由来已久,Netherlands Delft University of Technology的Qingqing Wei做了一份调研,将算法分为12类:binocular disparity,motion,defocus,focus,silhouette,atmosphere scattering,shading,linear perspective,patterned texture,symmetric patterns,occlusion(curvature,simple transform)andstatistical patterns。在这些算法中,基于运动motion的算法(或者说基于光流的算法)得到了大家的瞩目,因为它普适性很强,可广泛用于各种视频源。
光流是指当观察者和场景目标之间有相对运动时,图像亮度模式的表观运动。光流表达了图像的变化,它包含了目标运动的信息,可用来确定观察者相对目标的运动情况。运动场与光流场的对应关系请见图1。
光流分析是研究图像灰度在时间上的变化与背景中物体的结构和运动的关系。场景中的目标运动导致图像中的亮度模式运动,而亮度模式的可见运动产生光流,除去一些特殊情况,光流场与运动场是对应的。通过分析图像的光流变化,可以达到确定场景三维结构和观察者与运动物体之间相对运动的目的。光流可看作是带有灰度的像素点在图像平面的运动而产生的瞬时速度场,据此可建立基本的光流约束方程:
Ixu+Iyv+It=0
其中,Ix和Iy表示像素点在x方向和y方向的梯度,It表示时间梯度,u和v分别表示x方向和y方向上的光流速度。
一种基于相关的光流计算方法(图2)假设了图像中的某一个像素点的运动只可能发生在以其为中心的某一个邻域内,在这个邻域内寻找最佳匹配像素点,从而得到原图像素点的运动矢量。主要步骤如下:
(1)以自上而下,自左而右的顺序扫描t时刻图像帧;
(2)为每一个扫描到的像素点在t-1时刻图像上寻找最佳匹配点,在t-1时刻图像上找到t时刻对应坐标像素,在它的N×N邻域内,计算匹配代价:
∀ u , w : M ( x , y ; u , w ) = Σφ ( E 1 ( i , j ) - E 2 ( i + u , j + w ) ) , ( i , j ) ∈ P v
选择当中匹配代价最小的像素点作为最佳匹配像素;
(3)计算t时刻该像素点与其在t-1时刻最佳匹配点的水平距离和垂直距离(以像素为单位);
(4)综合两个方向的运动矢量,计算运动幅度作为表示物体运动快慢的像素值。
这种基于相关的光流法有其自身的缺点,首先,它是逐点计算运动矢量,当处理高分辨率图像时,计算量将会相当巨大;其次,它采用全搜索的方法寻找最佳匹配点,没有利用像点之间的空间相关性,搜索过程十分耗时;此外,它只是单方向利用了前后两帧图像的时间相关性,会造成一些像素点的误匹配。
发明内容
本发明的目的是克服现有技术的不足,提供一种用于三维电视系统中2D视频到3D视频的转换方法。
用于三维电视系统中2D视频到3D视频的转换方法包括如下步骤:
(1)获取经过视频编码标准压缩过的待转换2D视频文件;
(2)解码待转换2D视频文件,得到原始视频,同时从视频解码器中提取每个4×4像素块的运动矢量信息,换算出这个4×4像素块的运动幅度;
(3)对从解码待转换2D视频文件中得到的每一帧图像,通过每个4×4像素块的运动幅度描述出整幅图像的初始深度图;
(4)利用解码出来的原始视频和每一帧的初始深度图,通过边缘修正滤波,得到物体边缘清晰准确的稠密深度图,完成3D视频的表达。
所述的解码待转换2D视频文件,得到原始视频,同时从视频解码器中提取每个4×4像素块的运动矢量信息,换算出这个4×4像素块的运动幅度步骤:
(a)解码待转换2D视频文件,得到原始视频,同时从视频解码器中提取每个4×4像素块的运动矢量,包括前向和后向各一对,每对包含x方向和y方向;
(b)利用每个4×4像素块的参考关系,找到4×4像素块的参考块所在的参考帧与当前帧之间的帧距以及参考关系;
(c)将4×4像素块的参考块所在的参考帧与当前帧之间的帧距以及参考关系换算成每个4×4像素块的运动幅度;
每个4×4像素块的运动幅度的定义如下:设当前4×4像素块的前向运动矢量为MVfx(x,y)和MVfy(x,y),后向运动矢量为MVbs(x,y)和MVby(x,y),前向参考块所在的参考帧与当前帧的帧距为Δdf(x,y)和Δdb(x,y),这个4×4像素块的运动幅度f(x,y)定义为:
Figure G2009101021146D00031
所述的对从解码待转换2D视频文件中得到的每一帧图像,通过每个4×4像素块的运动幅度描述出整幅图像的初始深度图步骤:
(d)对于解码2D视频文件得到的每一帧图像,通过运动幅度描述出对应描述图,描述图的每个像素点代表着每个4×4像素块的运动情况,由运动幅度描述出对应描述图的描述过程如下:对步骤(c)中得到的f(x,y)的值进行线性缩放,确保描述图的每个像素点的取值范围为[0,255],设描述图的每个点表示为g(x,y),线性缩放方法如下:
g ( x , y ) = 255 f ( x , y ) max - f ( x , y ) min [ f ( x , y ) - f ( x , y ) min ] ;
(e)将得到的描述图线性放大16倍,即水平方向4倍,垂直方向4倍,得到分辨率与原始序列相同的初始深度图。
所述的利用解码出来的原始视频和每一帧的初始深度图,通过边缘修正滤波,得到物体边缘清晰准确的稠密深度图步骤:
(f)对步骤(e)中得到的初始深度图进行边缘修正滤波,其中滤波参数的确定来自于原始视频当前帧和参考帧像素点数据,得到滤波后的深度图;
(g)对滤波后的深度图迭代步骤(f)中的边缘修正滤波,迭代五次后得到物体边缘清晰准确的稠密深度图,完成3D视频的表达;
每次迭代中的边缘修正滤波如下:
d i ( p ) = Σ q ∈ A ω pq d i - 1 ( q ) Σ q ∈ A ω pq
其中,i表示第i次迭代,p表示深度图中的一个点,di(p)表示在i次迭代时p点的深度值。i次迭代深度图中的p点,是由i-1次迭代深度图中p位置周边A邻域中的所有q点确定的,权值ωpq定义如下:
ωpq=ωboundaryωreliability
ω boundary = e - α | s p - s q |
ω reliability = 1 - e - β | s q - s q ′ ′ |
其中,sp表示当前帧在p位置上的像素亮度值,sq表示当前帧在q位置上的像素亮度值,若|sp-sq|较大,则两点恰好在边界,ωboundary较小,对上一次迭代的p点进行滤波的强度较小,保留原深度。反之则进行模糊滤波,消除块状虚假边界,如此一来,|sp-sq|就能为深度图定位精确的物体边界。q′为q点的深度图逆转换得到运动矢量后对应的参考位置,s′q′即为参考帧中在该参考位置的像数亮度值;类似于|sp-sq|,若|sq-s′q′|较大,则表明邻域中q点的运动矢量不精确,即深度不准确,需要对p进行模糊滤波,反之则保留该点深度,α和β均为正数,其值的选取可在系统运行中不断调整,从而得到物体边界清晰准确的稠密深度图,完成3D视频的表达。
本发明适用于任何现有压缩视频文件的2D转3D。传统的2D转3D方法均是从视频序列开始设计的,但考虑到目前已有的视频文件大多是通过某种视频编码方法压缩的,本发明立足2D转3D光流方法和传统视频编码运动估计方法在本质上的一致性,利用视频解码器的中间结果获取初始深度图,很好地节省了信号处理的时间和最终产品的成本;同时设计了一个边缘修正滤波器,解决了基于图像获取深度这类算法中的一大难题——如何得到物体边缘清晰准确的稠密深度图。
附图说明
图1是运动场与光流场的对应关系图;
图2(a)是图像中4×4像素块的示意图;
图2(b)是基于相关的光流法的示意图;
图3是边缘修正滤波器进行迭代滤波的模块框图;
图4是Akko&Kayo p00026视频的截图;
图5是图4视频截图对应的描述图;
图6是图4视频截图对应的初始深度图;
图7是图4视频截图对应的1次迭代滤波后的稠密深度图;
图8是图4视频截图对应的5次迭代滤波后的稠密深度图。
具体实施方法
用于三维电视系统中2D视频到3D视频的转换方法包括如下步骤:
(1)获取经过视频编码标准压缩过的待转换2D视频文件;
(2)解码待转换2D视频文件,得到原始视频,同时从视频解码器中提取每个4×4像素块的运动矢量信息,换算出这个4×4像素块的运动幅度;
(3)对从解码待转换2D视频文件中得到的每一帧图像,通过每个4×4像素块的运动幅度描述出整幅图像的初始深度图;
(4)利用解码出来的原始视频和每一帧的初始深度图,通过边缘修正滤波,得到物体边缘清晰准确的稠密深度图,完成3D视频的表达。
所述的解码待转换2D视频文件,得到原始视频,同时从视频解码器中提取每个4×4像素块的运动矢量信息,换算出这个4×4像素块的运动幅度步骤:
(a)解码待转换2D视频文件,得到原始视频,同时从视频解码器中提取每个4×4像素块的运动矢量,包括前向和后向各一对,每对包含x方向和y方向;
以H.264为例,每个宏块有16×16、16×8、8×16、8×8、8×4、4×8、4×4等多种划分,每个分块精确到的运动矢量范围均不相同。然而,我们可以将这些同一到以4×4为划分单位,每个分块均有前向和后向的运动矢量。
(b)利用每个4×4像素块的参考关系,找到4×4像素块的参考块所在的参考帧与当前帧之间的帧距以及参考关系;
以H.264为例,参考帧数不止一帧。为提高压缩效率,编码器会在多个参考帧中找到一个最合适的匹配块。这样一来,可能会出现如下情况:A块的运动比B块剧烈,A块在M帧里找到了相应的匹配块,B块在N帧里找到了相应的匹配块,而且由于A块与其匹配块差距更小,可能导致A块的运动矢量要比B块小。也就是说,运动剧烈的A块反而有较小的运动矢量。在这种例外情况下,需要将帧距进行修正,改为帧距的倒数。
(c)将4×4像素块的参考块所在的参考帧与当前帧之间的帧距以及参考关系换算成每个4×4像素块的运动幅度;
每个4×4像素块的运动幅度的定义如下:设当前4×4像素块的前向运动矢量为MVfx(x,y)和MVfy(x,y),后向运动矢量为MVbx(x,y)和MVby(x,y),前向参考块所在的参考帧与当前帧的帧距为Δdf(x,y)和Δdb(x,y),这个4×4像素块的运动幅度f(x,y)定义为:
Figure G2009101021146D00061
所述的对从解码待转换2D视频文件中得到的每一帧图像,通过每个4×4像素块的运动幅度描述出整幅图像的初始深度图步骤:
(d)对于解码2D视频文件得到的每一帧图像,通过运动幅度描述出对应描述图,描述图的每个像素点代表着每个4×4像素块的运动情况,由运动幅度描述出对应描述图的描述过程如下:对步骤(c)中得到的f(x,y)的值进行线性缩放,确保描述图的每个像素点的取值范围为[0,255],设描述图的每个点表示为g(x,y),线性缩放方法如下:
g ( x , y ) = 255 f ( x , y ) max - f ( x , y ) min [ f ( x , y ) - f ( x , y ) min ] ;
(e)将得到的描述图线性放大16倍,即水平方向4倍,垂直方向4倍,得到分辨率与原始序列相同的初始深度图。
若前景物体和背景物体具有相同的运动幅度,在视频中表现为前景物体的运动更剧烈,即前景物体比背景物体运动幅度更大,故每个像素点的运动幅度可直接表示此像素点的深度。
描述图的精度是原图的4×4块,需要进行放大才能获得与原始序列相同的分辨率。这里采用双线性插值算法,该算法已相当成熟。
所述的利用解码出来的原始视频和每一帧的初始深度图,通过边缘修正滤波,得到物体边缘清晰准确的稠密深度图步骤:
(f)对步骤(e)中得到的初始深度图进行边缘修正滤波,其中滤波参数的确定来自于原始视频当前帧和参考帧像素点数据,得到滤波后的深度图;
(g)对滤波后的深度图迭代步骤(f)中的边缘修正滤波,迭代五次后得到物体边缘清晰准确的稠密深度图,完成3D视频的表达;
设计框图如图3所示。模块输入为解码得到的当前帧、深度图中的每一点对应的参考帧和初始深度图,最后的稠密深度图由迭代产生。
每次迭代中的边缘修正滤波如下:
d i ( p ) = Σ q ∈ A ω pq d i - 1 ( q ) Σ q ∈ A ω pq
其中,i表示第i次迭代,p表示深度图中的一个点,di(p)表示在i次迭代时p点的深度值。i次迭代深度图中的p点,是由i-1次迭代深度图中p位置周边A邻域中的所有q点确定的,权值ωpq定义如下:
ωpq=ωboundaryωreliability
ω boundary = e - α | s p - s q |
ω reliability = 1 - e - β | s q - s q ′ ′ |
其中,sp表示当前帧在p位置上的像素亮度值,sq表示当前帧在q位置上的像素亮度值,若|sp-sq|较大,则两点恰好在边界,ωboundary较小,对上一次迭代的p点进行滤波的强度较小,保留原深度。反之则进行模糊滤波,消除块状虚假边界,如此一来,|sp-sq|就能为深度图定位精确的物体边界。q′为q点的深度图逆转换得到运动矢量后对应的参考位置,s′q′即为参考帧中在该参考位置的像数亮度值;类似于|sp-sq|,若|sq-s′q′|较大,则表明邻域中q点的运动矢量不精确,即深度不准确,需要对p进行模糊滤波,反之则保留该点深度,α和β均为正数,其值的选取可在系统运行中不断调整,从而得到物体边界清晰准确的稠密深度图,完成3D视频的表达。
实施例:
(1)从网上下载经过H.264编码后的Akko&Kayo_p00026标准测试码流,此视频文件即为我们待转换的2D视频文件。图4即为Akko&Kayo_p00026视频的截图。
(2)解码此视频文件,从H.264视频解码器中提取出每个4×4像素块的运动矢量,换算成运动幅度,并生成描述图。图5即为图4视频截图对应的描述图。(3)将描述图线形放大16倍,得到初始深度图。图6即为图4视频截图对应的初始深度图。
(3)迭代进行边缘修正滤波,得到物体边缘清晰准确的稠密深度图,完成3D视频的表达。图7即为图4视频截图对应的1次迭代滤波后稠密深度图,图8即为图4视频截图对应的5次迭代滤波后的稠密深度图。

Claims (1)

1.一种用于三维电视系统中2D视频到3D视频的转换方法,其特征在于包括如下步骤:
(1)获取经过视频编码标准压缩过的待转换2D视频文件;
(2)解码待转换2D视频文件,得到原始视频,同时从视频解码器中提取每个4×4像素块的运动矢量信息,换算出这个4×4像素块的运动幅度;
(3)对从解码待转换2D视频文件中得到的每一帧图像,通过每个4×4像素块的运动幅度描述出整幅图像的初始深度图;
(4)利用解码出来的原始视频和每一帧的初始深度图,通过边缘修正滤波,得到物体边缘清晰准确的稠密深度图,完成3D视频的表达;
所述的解码待转换2D视频文件,得到原始视频,同时从视频解码器中提取每个4×4像素块的运动矢量信息,换算出这个4×4像素块的运动幅度步骤:
(a)解码待转换2D视频文件,得到原始视频,同时从视频解码器中提取每个4×4像素块的运动矢量,包括前向和后向各一对,每对包含x方向和y方向;
(b)利用每个4×4像素块的参考关系,找到4×4像素块的参考块所在的参考帧与当前帧之间的帧距以及参考关系;
(c)将4×4像素块的参考块所在的参考帧与当前帧之间的帧距以及参考关系换算成每个4×4像素块的运动幅度;
每个4×4像素块的运动幅度的定义如下:设当前4×4像素块的前向运动矢量为MVfx(x,y)和MVfy(x,y),后向运动矢量为MVbx(x,y)和MVby(x,y),前向参考块所在的参考帧与当前帧的帧距为Δdf(x,y)和Δdb(x,y),这个4×4像素块的运动幅度f(x,y)定义为:
f ( x , y ) = 1 2 · ( ( MV fx ( x , y ) Δ d f ( x , y ) ) 2 + ( MV fy ( x , y ) Δ d f ( x , y ) ) 2 + ( MV bx ( x , y ) Δ d b ( x , y ) ) 2 + ( MV by ( x , y ) Δ d b ( x , y ) ) 2 ) ;
所述的对从解码待转换2D视频文件中得到的每一帧图像,通过每个4×4像素块的运动幅度描述出整幅图像的初始深度图步骤:
(d)对于解码2D视频文件得到的每一帧图像,通过运动幅度描述出对应描述图,描述图的每个像素点代表着每个4×4像素块的运动情况,由运动幅度描述出对应描述图的描述过程如下:对步骤(c)中得到的f(x,y)的值进行线性缩放,确保描述图的每个像素点的取值范围为[0,255],设描述图的每个点表示为g(x,y),线性缩放方法如下:
g ( x , y ) = 255 f ( x , y ) max - f ( x , y ) min [ f ( x , y ) - f ( x , y ) min ] ;
(e)将得到的描述图线性放大16倍,即水平方向4倍,垂直方向4倍,得到分辨率与原始序列相同的初始深度图;
所述的利用解码出来的原始视频和每一帧的初始深度图,通过边缘修正滤波,得到物体边缘清晰准确的稠密深度图步骤:
(f)对步骤(e)中得到的初始深度图进行边缘修正滤波,其中滤波参数的确定来自于原始视频当前帧和参考帧像素点数据,得到滤波后的深度图;
(g)对滤波后的深度图迭代步骤(f)中的边缘修正滤波,迭代五次后得到物体边缘清晰准确的稠密深度图,完成3D视频的表达;
每次迭代中的边缘修正滤波如下:
d i ( p ) = Σ q ∈ A ω pq d i - 1 ( q ) Σ q ∈ A ω pq
其中,i表示第i次迭代,p表示深度图中的一个点,di(p)表示在i次迭代时p点的深度值,i次迭代深度图中的p点,是由i-1次迭代深度图中p位置周边A邻域中的所有q点确定的,权值ωpq定义如下:
ωpq=ωboundaryωreliability
ω boundary = e - α | s p - s q |
ω reliability = 1 - e - β | s q - s q ′ ′ |
其中,sp表示当前帧在p位置上的像素亮度值,sq表示当前帧在q位置上的像素亮度值,若|sp-sq|较大,则两点恰好在边界,ωboundary较小,对上一次迭代的p点进行滤波的强度较小,保留原深度,反之则进行模糊滤波,消除块状虚假边界,如此一来,|sp-sq|就能为深度图定位精确的物体边界,q′为q点的深度图逆转换得到运动矢量后对应的参考位置,s′q′即为参考帧中在该参考位置的像数亮度值;类似于|sp-sq|,若|sq-s′q′|较大,则表明邻域中q点的运动矢量不精确,即深度不准确,需要对p进行模糊滤波,反之则保留该点深度,α和β均为正数,其值的选取可在系统运行中不断调整,从而得到物体边界清晰准确的稠密深度图,完成3D视频的表达。
CN2009101021146A 2009-08-13 2009-08-13 用于三维电视系统中2d视频到3d视频的转换方法 Active CN101631256B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009101021146A CN101631256B (zh) 2009-08-13 2009-08-13 用于三维电视系统中2d视频到3d视频的转换方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009101021146A CN101631256B (zh) 2009-08-13 2009-08-13 用于三维电视系统中2d视频到3d视频的转换方法

Publications (2)

Publication Number Publication Date
CN101631256A CN101631256A (zh) 2010-01-20
CN101631256B true CN101631256B (zh) 2011-02-09

Family

ID=41576159

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009101021146A Active CN101631256B (zh) 2009-08-13 2009-08-13 用于三维电视系统中2d视频到3d视频的转换方法

Country Status (1)

Country Link
CN (1) CN101631256B (zh)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011046607A2 (en) 2009-10-14 2011-04-21 Thomson Licensing Filtering and edge encoding
US8421847B2 (en) * 2010-05-21 2013-04-16 Mediatek Inc. Apparatus and method for converting two-dimensional video frames to stereoscopic video frames
CN102348120B (zh) * 2010-07-29 2013-11-06 深圳Tcl新技术有限公司 一种立体显示装置
CN102006493A (zh) * 2010-11-26 2011-04-06 北京新岸线网络技术有限公司 一种3d视频图像的视差调节方法及装置
CN102480621B (zh) * 2010-11-29 2015-07-22 扬智科技股份有限公司 用来将二维影片转换为三维影片的方法与装置
CN102098528B (zh) * 2011-01-28 2012-09-05 清华大学 一种平面图像的立体转换方法及装置
CN102098527B (zh) * 2011-01-28 2013-04-10 清华大学 一种基于运动分析的平面转立体方法及装置
CN102647602B (zh) * 2011-02-17 2014-08-20 北京大学深圳研究生院 一种基于gpu加速的2d视频转3d视频系统及方法
CN102244804A (zh) * 2011-07-19 2011-11-16 彩虹集团公司 一种视频信号2d转3d方法
WO2013023325A1 (zh) * 2011-08-18 2013-02-21 北京世纪高蓝科技有限公司 基于图像运动信息的2d转3d方法
US8953016B2 (en) * 2011-09-01 2015-02-10 Mediatek Inc. Apparatus and method for generating polarized video stream according to multi-view video stream and motion information derived from multi-view video stream
CN103002297A (zh) * 2011-09-16 2013-03-27 联咏科技股份有限公司 动态深度值产生方法及其装置
CN103139578A (zh) * 2011-11-24 2013-06-05 联咏科技股份有限公司 调整影像的运动景深的方法
CN103152586B (zh) * 2011-12-06 2016-01-13 北京大学深圳研究生院 一种基于深度模板的2d视频转3d视频传输及重建方法
CN103152587B (zh) * 2011-12-06 2016-08-03 北京大学深圳研究生院 一种基于视频压缩码流中辅助增强信息的2d视频转3d视频方法
US9013549B2 (en) * 2012-05-24 2015-04-21 Silicon Integrated Systems Corp. Depth map generation for conversion of two-dimensional image data into three-dimensional image data
CN103200415B (zh) * 2013-04-23 2016-02-10 华录出版传媒有限公司 一种2d转3d的图像处理方法
ITTO20130784A1 (it) * 2013-09-30 2015-03-31 Sisvel Technology Srl Method and device for edge shape enforcement for visual enhancement of depth image based rendering
CN103826032B (zh) * 2013-11-05 2017-03-15 四川长虹电器股份有限公司 深度图后期处理方法
RU2721175C2 (ru) * 2015-06-16 2020-05-18 Конинклейке Филипс Н.В. Способ и устройство для определения карты глубины для изображения
CN106060529A (zh) * 2016-06-01 2016-10-26 十二维度(北京)科技有限公司 视频2d转3d的深度图跟踪生成方法及装置
CN108616745A (zh) * 2016-12-12 2018-10-02 三维视觉科技有限公司 2d自动转3d方法和系统
CN109819229B (zh) * 2019-01-22 2021-02-26 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN110798676A (zh) * 2019-11-29 2020-02-14 苏州新光维医疗科技有限公司 一种利用内镜镜头动态图像形成3d视觉的方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1278349A (zh) * 1997-09-02 2000-12-27 动力数字深度研究有限公司 图像处理方法和装置
EP1235438B1 (en) * 1999-11-26 2004-09-29 Sanyo Electric Co., Ltd. Method for converting two-dimensional video to three-dimensional video
CN1723476A (zh) * 2003-01-06 2006-01-18 皇家飞利浦电子股份有限公司 用于数字图像的深度排序的方法和设备
CN101223552A (zh) * 2005-08-17 2008-07-16 Nxp股份有限公司 用于深度提取的视频处理方法和装置
CN101374243A (zh) * 2008-07-29 2009-02-25 宁波大学 一种应用于3dtv与ftv系统的深度图编码压缩方法
CN101479765A (zh) * 2006-06-23 2009-07-08 图象公司 对2d电影进行转换用于立体3d显示的方法和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1278349A (zh) * 1997-09-02 2000-12-27 动力数字深度研究有限公司 图像处理方法和装置
EP1235438B1 (en) * 1999-11-26 2004-09-29 Sanyo Electric Co., Ltd. Method for converting two-dimensional video to three-dimensional video
CN1723476A (zh) * 2003-01-06 2006-01-18 皇家飞利浦电子股份有限公司 用于数字图像的深度排序的方法和设备
CN101223552A (zh) * 2005-08-17 2008-07-16 Nxp股份有限公司 用于深度提取的视频处理方法和装置
CN101479765A (zh) * 2006-06-23 2009-07-08 图象公司 对2d电影进行转换用于立体3d显示的方法和系统
CN101374243A (zh) * 2008-07-29 2009-02-25 宁波大学 一种应用于3dtv与ftv系统的深度图编码压缩方法

Also Published As

Publication number Publication date
CN101631256A (zh) 2010-01-20

Similar Documents

Publication Publication Date Title
CN101631256B (zh) 用于三维电视系统中2d视频到3d视频的转换方法
CN101400001B (zh) 一种视频帧深度图的生成方法及系统
EP2595116A1 (en) Method for generating depth maps for converting moving 2d images to 3d
CN104680496A (zh) 一种基于彩色图像分割的Kinect深度图修复方法
CN102609950B (zh) 一种二维视频深度图的生成方法
CN101610425B (zh) 一种评测立体图像质量的方法和装置
CN101640809A (zh) 一种融合运动信息与几何信息的深度提取方法
CN101605271B (zh) 一种基于单幅图像的2d转3d方法
CN103971408A (zh) 三维人脸模型生成系统及方法
Shin et al. Occlusion removal method of partially occluded 3D object using sub-image block matching in computational integral imaging
CN101287142A (zh) 基于双向跟踪和特征点修正的平面视频转立体视频的方法
CN112019828B (zh) 一种视频的2d到3d的转换方法
CN101557534B (zh) 一种从视频相近帧中生成视差图的方法
Zha et al. A real-time global stereo-matching on FPGA
CN103077542A (zh) 一种深度图的感兴趣区域压缩方法
CN115330653A (zh) 基于边窗滤波的多源图像融合方法
CN109345444B (zh) 深度感知增强的超分辨率立体图像构建方法
CN103152569A (zh) 一种基于深度信息的视频感兴趣区域压缩方法
CN109801273B (zh) 一种基于极平面线性相似度的光场图像质量评价方法
CN104050673A (zh) 一种基于K-means图像分割的深度图提取方法
Martin et al. Nerf-qa: Neural radiance fields quality assessment database
CN113486928B (zh) 一种基于有理多项式模型可微分张量表达的多视影像对齐方法
KR20160039447A (ko) 스테레오 카메라를 이용한 공간분석시스템
CN114004773A (zh) 基于深度学习以及反向映射实现的单目多视点视频合成方法
Xu et al. Real-time panoramic map modeling method based on multisource image fusion and three-dimensional rendering

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160616

Address after: 518000 new energy building, Nanhai Road, Shenzhen, Guangdong, Nanshan District A838

Patentee after: Meng Qi media (Shenzhen) Co. Ltd.

Address before: 310027 Hangzhou, Zhejiang Province, Zhejiang Road, No. 38

Patentee before: Zhejiang University

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160831

Address after: 518000, 101, 2, Fengyun technology building, Fifth Industrial Zone, North Ring Road, Shenzhen, Guangdong, Nanshan District

Patentee after: World wide technology (Shenzhen) Limited

Address before: 518000 new energy building, Nanhai Road, Shenzhen, Guangdong, Nanshan District A838

Patentee before: Meng Qi media (Shenzhen) Co. Ltd.

TR01 Transfer of patent right

Effective date of registration: 20180903

Address after: 518000 B unit 101, Fengyun mansion 5, Xili street, Nanshan District, Shenzhen, Guangdong.

Patentee after: Wan D display technology (Shenzhen) Co., Ltd.

Address before: 518000 2 of Fengyun tower, Fifth Industrial Zone, Nanshan District North Ring Road, Shenzhen, Guangdong, 101

Patentee before: World wide technology (Shenzhen) Limited

TR01 Transfer of patent right