CN106060529A - 视频2d转3d的深度图跟踪生成方法及装置 - Google Patents
视频2d转3d的深度图跟踪生成方法及装置 Download PDFInfo
- Publication number
- CN106060529A CN106060529A CN201610383766.1A CN201610383766A CN106060529A CN 106060529 A CN106060529 A CN 106060529A CN 201610383766 A CN201610383766 A CN 201610383766A CN 106060529 A CN106060529 A CN 106060529A
- Authority
- CN
- China
- Prior art keywords
- image
- depth map
- trace point
- grid
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/388—Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
- H04N13/395—Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明公开一种视频2d转3d的深度图跟踪生成方法及装置,能够利用视频的前后延续性,从而提高生产效率。所述方法包括:S1、获取第一图像的第一深度图,确定出所述第一图像的跟踪点;S2、利用所述第一图像的跟踪点跟踪出其它图像的跟踪点;S3、利用所述跟踪点和第一深度图确定出所述其它图像的深度图。
Description
技术领域
本发明涉及2D转3D技术领域,具体涉及一种视频2d转3d的深度图跟踪生成方法及装置。
背景技术
2D转3D软件的深度图可以分为位图和矢量两种形式,在使用中主要应用位图深度图,因为位图深度图精度高,生产成本低,可以使用好的涂抹工具。但是现有技术是手动逐帧对图像进行处理,得到深度图的,这样没有利用视频的前后延续性,导致生产效率不够高。
发明内容
有鉴于此,本发明实施例提供一种视频2d转3d的深度图跟踪生成方法及装置,能够利用视频的前后延续性,从而提高生产效率。
一方面,本发明实施例提出一种视频2d转3d的深度图跟踪生成方法,包括:
S1、获取第一图像的第一深度图,确定出所述第一图像的跟踪点;
S2、利用所述第一图像的跟踪点跟踪出其它图像的跟踪点;
S3、利用所述跟踪点和第一深度图确定出所述其它图像的深度图。
另一方面,本发明实施例提出一种视频2d转3d的深度图跟踪生成装置,包括:
跟踪点确定单元,用于获取第一图像的第一深度图,确定出所述第一图像的跟踪点;
跟踪点跟踪单元,用于利用所述第一图像的跟踪点跟踪出其它图像的跟踪点;
深度图确定单元,用于利用所述跟踪点和第一深度图确定出所述其它图像的深度图。
本发明实施例提供的视频2d转3d的深度图跟踪生成方法及装置,利用视频的前后延续性,根据第一图像的跟踪点跟踪出其它图像的跟踪点,并利用第一图像的跟踪点、第一图像的第一深度图以及其它图像的跟踪点确定出其它图像的深度图,相较于逐帧手动进行处理的现有技术,能够提高生产效率。
附图说明
图1为本发明一种视频2d转3d的深度图跟踪生成方法一实施例的流程示意图;
图2为本发明另一实施例中第一帧图像的深度图;
图3为对图2中深度图对应的第一帧图像进行网格划分的网格划分结果示意图;
图4为图3中所示的网格的跟踪点示意图;
图5为利用图4所示的跟踪点跟踪得到的第三帧图像的跟踪点示意图;
图6为第三帧图像的深度图;
图7为利用图4所示的跟踪点跟踪得到的第二帧图像的跟踪点示意图;
图8为第二帧图像的深度图;
图9为本发明一种视频2d转3d的深度图跟踪生成装置一实施例的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参看图1,本实施例公开一种视频2d转3d的深度图跟踪生成方法,包括:
S1、获取第一图像的第一深度图,确定出所述第一图像的跟踪点;
S2、利用所述第一图像的跟踪点跟踪出其它图像的跟踪点;
S3、利用所述跟踪点和第一深度图确定出所述其它图像的深度图。
本实施例提供的视频2d转3d的深度图跟踪生成方法,利用视频的前后延续性,根据第一图像的跟踪点跟踪出其它图像的跟踪点,并利用第一图像的跟踪点、第一图像的第一深度图以及其它图像的跟踪点确定出其它图像的深度图,相较于逐帧手动进行处理的现有技术,能够提高生产效率。
可选地,在本发明视频2d转3d的深度图跟踪生成方法的另一实施例中,所述确定出所述第一图像的跟踪点,包括:
对所述第一图像进行网格划分,得到多个网格;
对于每一个网格,基于Harris角点检测从该网格中提取一个跟踪点。
本发明实施例中,跟踪点必须包含两个特征:
(1)首先跟踪点在原始二维图像中是易于跟踪的特征点。
(2)其次跟踪点在深度图中离深度边缘不能太近,防止由于遮挡而导致跟踪精度降低甚至跟踪失败。
也就是说特征点由原始二维图像和深度图共同确定。对每一个网格G,将对应的原始二维图像块经滤波器滤波得到的图像定义为二维特征空间,设为Is(G);将对应的深度图像经滤波器滤波得到的图像定义为深度特征空间,设为Id(G)。所述滤波器可以为Harris算子和SURF算子,也可以为其它滤波器,本发明对此不作限定。对网格G中每个坐标为(x,y)的像素p(x,y),其对应两个特征空间Is(G)和Id(G)的特征响应分别表示为Rs(Is(G),p(x,y))和Rd(Id(G),p(x,y)),那么联合特征响应函数可以表示如下:
Rjoint(G,p(x,y))=ws*Rs(Is(G),p(x,y))+wd*Rd(Id(G),p(x,y)),式中,ws和wd为给定的常数,ws和wd取值可以为0.5。
对于Rs(Is(G),p(x,y)),可以通过对网格G对应的原始二维图像块进行Harris角点检测,计算像素p(x,y)的角点响应函数得到,此为现有技术,本发明实施例不再赘述。
对于Rd(Id(G),p(x,y))的计算,可以先对网格G对应的深度图像进行梯度处理,得到梯度函数。然后计算与像素p(x,y))距离最近且梯度不为0的像素与像素p(x,y))之间的距离,并将该距离作为Rd(Id(G),p(x,y))的值。
在计算出网格G中每个像素的联合特征响应函数后,选出联合特征响应函数最大的像素作为跟踪点。
可选地,在本发明视频2d转3d的深度图跟踪生成方法的另一实施例中,所述对所述第一图像进行网格划分,包括:
S10、将上级网格划分为2×2的网格,并计算每个网格的边缘幅度之和Δg,
计算公式为其中,G表示上级网格,dx,y为G中坐标为(x,y)的像素点的深度值,第一次进行划分的上级网格为所述第一深度图;
S11、判断边缘幅度之和是否大于一个设定好的值Uthres,若大于所述Uthres,则确定出对应的网格为待划分的网格;
S12、重复执行步骤S10和S11,直到所有的网格的边缘幅度之和都不大于所述Uthres;
S13、将所述第一图像按照所述第一深度图的网格划分方式进行划分。
本发明实施例中,如果某一坐标为(xs,ys)的像素点的相邻像素点(包括坐标为(xs+1,ys)、(xs,ys+1)和(xs+1,ys+1)的像素点)中任一像素点不在该像素点所属的网格中,则在计算该像素点所属的网格的Δg时,可以不考虑该像素点。如果某一网格的边缘幅度之和大于Uthres,那么可以认为这个网格包含的灰度边缘信息太多,所以需要被进一步的分为2×2的子网格,而如果这个网格的边缘幅度之和不大于Uthres,那么可以认为这个网格包含的灰度信息很少无需被进一步分。
可选地,在本发明视频2d转3d的深度图跟踪生成方法的另一实施例中,所述S3,包括:
S30、确定出第二图像的第二深度图,其中,所述第二图像的跟踪点的深度值与所述第一图像中对应的跟踪点的深度值相等,所述第二图像中除跟踪点外坐标为(x2,y2)的像素点的深度值的计算公式为为所述第一图像中坐标为(x1,y1)的像素点的深度值,
(xi1,yi1)为所述第一图像中的第i个跟踪点的坐标,i∈(1,2,…,k),k为所述第一图像中的跟踪点的数量,(xi2,yi2)为所述第二图像中对应(xi1,yi1)的跟踪点;
S31、根据所述第一深度图和第二深度图确定出其它图像的深度图。
可选地,在本发明视频2d转3d的深度图跟踪生成方法的另一实施例中,所述S31,包括:
根据所述第一深度图和第二深度图确定出第三图像的第三深度图,其中,所述第三图像的像素点M的深度值dt的计算公式为所述第一图像和第二图像中一图像为所有图像中按照时间顺序排列的第i帧图像,另一图像为所有图像中按照时间顺序排列的第j帧图像,所述第三图像为所有图像中按照时间顺序排列的第t帧图像,di为第i帧图像中对应像素点M的像素点的深度值,dj为第j帧图像中对应像素点M的像素点的深度值;
根据所述第一深度图、第二深度图和第三深度图确定出其它图像的深度图。
本发明实施例中,在确定第三深度图的过程中所述的第i帧图像中对应像素点M的像素点的确定方法与前述实施例步骤S30中根据坐标为(x2,y2)的像素点确定坐标为(x1,y1)的像素点的过程一致,此处不再赘述。在确定出第三深度图后,可以根据第一深度图、第二深度图和第三深度图确定出第一图像、第二图像和第三图像中任两图像之间的图像的深度图,具体方法与本实施例中确定第三深度图的方法一致,此处不再赘述。
下面以一具体应用实施例对本发明待分割的视频的前三帧图像的深度图的求解过程进行说明。
先取待分割的视频的第一帧图像进行深度运算,得到第一帧图像的深度图,如图2所示。接着通过对第一帧图像的深度图进行网格划分,并对第一帧图像进行同样的网格划分处理,得到第一帧图像的网格划分结果,如图3所示。然后基于Harris角点检测确定出第一帧图像的跟踪点,如图4(图4中包含第一帧图像的跟踪点及跟踪点所属的网格)所示。之后利用第一帧图像的跟踪点跟踪出第三帧图像的跟踪点,如图5所示。接下来,利用第一帧图像的深度图确定出第三帧图像的深度图,如图6所示。利用第一帧图像的跟踪点跟踪出第二帧图像的跟踪点,如图7所示。利用第一帧图像的深度图和第三帧图像的深度图得到第二帧图像的深度图,如图8所示。
参看图9,本实施例公开一种视频2d转3d的深度图跟踪生成装置,包括:
跟踪点确定单元1,用于获取第一图像的第一深度图,确定出所述第一图像的跟踪点;
跟踪点跟踪单元2,用于利用所述第一图像的跟踪点跟踪出其它图像的跟踪点;
深度图确定单元3,用于利用所述跟踪点和第一深度图确定出所述其它图像的深度图。
本实施例提供的视频2d转3d的深度图跟踪生成装置,利用视频的前后延续性,根据第一图像的跟踪点跟踪出其它图像的跟踪点,并利用第一图像的跟踪点、第一图像的第一深度图以及其它图像的跟踪点确定出其它图像的深度图,相较于逐帧手动进行处理的现有技术,能够提高生产效率。
虽然结合附图描述了本发明的实施方式,但是本领域技术人员可以在不脱离本发明的精神和范围的情况下做出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。
Claims (6)
1.一种视频2d转3d的深度图跟踪生成方法,其特征在于,包括:
S1、获取第一图像的第一深度图,确定出所述第一图像的跟踪点;
S2、利用所述第一图像的跟踪点跟踪出其它图像的跟踪点;
S3、利用所述跟踪点和第一深度图确定出所述其它图像的深度图。
2.根据权利要求1所述的方法,其特征在于,所述确定出所述第一图像的跟踪点,包括:
对所述第一图像进行网格划分,得到多个网格;
对于每一个网格,基于Harris角点检测从该网格中提取一个跟踪点。
3.根据权利要求2所述的方法,其特征在于,所述对所述第一图像进行网格划分,包括:
S10、将上级网格划分为2×2的网格,并计算每个网格的边缘幅度之和,
计算公式为其中,G表示上级网格,dx,y为G中坐标为(x,y)的像素点的深度值,第一次进行划分的上级网格为所述第一深度图;
S11、判断边缘幅度之和是否大于一个设定好的值Uthres,若大于所述Uthres,则确定出对应的网格为待划分的网格;
S12、重复执行步骤S10和S11,直到所有的网格的边缘幅度之和都不大于所述Uthres;
S13、将所述第一图像按照所述第一深度图的网格划分方式进行划分。
4.根据权利要求1所述的方法,其特征在于,所述S3,包括:
S30、确定出第二图像的第二深度图,其中,所述第二图像的跟踪点的深度值与所述第一图像中对应的跟踪点的深度值相等,所述第二图像中除跟踪点外坐标为(x2,y2)的像素点的深度值的计算公式为为所述第一图像中坐标为(x1,y1)的像素点的深度值,
(xi1,yi1)为所述第一图像中的第i个跟踪点的坐标,i∈(1,2,…,k),k为所述第一图像中的跟踪点的数量,(xi2,yi2)为所述第二图像中对应(xi1,yi1)的跟踪点;
S31、根据所述第一深度图和第二深度图确定出其它图像的深度图。
5.根据权利要求4所述的方法,其特征在于,所述S31,包括:
根据所述第一深度图和第二深度图确定出第三图像的第三深度图,其中,所述第三图像的像素点M的深度值dt的计算公式为所述第一图像和第二图像中一图像为所有图像中按照时间顺序排列的第i帧图像,另一图像为所有图像中按照时间顺序排列的第j帧图像,所述第三图像为所有图像中按照时间顺序排列的第t帧图像,di为第i帧图像中对应像素点M的像素点的深度值,dj为第j帧图像中对应像素点M的像素点的深度值;
根据所述第一深度图、第二深度图和第三深度图确定出其它图像的深度图。
6.一种视频2d转3d的深度图跟踪生成装置,其特征在于,包括:
跟踪点确定单元,用于获取第一图像的第一深度图,确定出所述第一图像的跟踪点;
跟踪点跟踪单元,用于利用所述第一图像的跟踪点跟踪出其它图像的跟踪点;
深度图确定单元,用于利用所述跟踪点和第一深度图确定出所述其它图像的深度图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610383766.1A CN106060529A (zh) | 2016-06-01 | 2016-06-01 | 视频2d转3d的深度图跟踪生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610383766.1A CN106060529A (zh) | 2016-06-01 | 2016-06-01 | 视频2d转3d的深度图跟踪生成方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106060529A true CN106060529A (zh) | 2016-10-26 |
Family
ID=57173241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610383766.1A Pending CN106060529A (zh) | 2016-06-01 | 2016-06-01 | 视频2d转3d的深度图跟踪生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106060529A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019056306A1 (zh) * | 2017-09-22 | 2019-03-28 | 深圳大学 | 一种鲁棒的基于深度信息的平面检测方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040189796A1 (en) * | 2003-03-28 | 2004-09-30 | Flatdis Co., Ltd. | Apparatus and method for converting two-dimensional image to three-dimensional stereoscopic image in real time using motion parallax |
CN101631256A (zh) * | 2009-08-13 | 2010-01-20 | 浙江大学 | 用于三维电视系统中2d视频到3d视频的转换方法 |
-
2016
- 2016-06-01 CN CN201610383766.1A patent/CN106060529A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040189796A1 (en) * | 2003-03-28 | 2004-09-30 | Flatdis Co., Ltd. | Apparatus and method for converting two-dimensional image to three-dimensional stereoscopic image in real time using motion parallax |
CN101631256A (zh) * | 2009-08-13 | 2010-01-20 | 浙江大学 | 用于三维电视系统中2d视频到3d视频的转换方法 |
Non-Patent Citations (2)
Title |
---|
TIANQI ZHAO ET AL: "A Novel Method to Automatically Generate Depth Maps Based on Trace Points", 《APPLIED MECHANICS AND MATERIALS》 * |
YANGDONG LIU ET AL: "An Adaptive Point Tracking Method Based on Depth Map for 2D-3D Video Conversion", 《INTERNATIONAL SYMPOSIUM ON OPTOELECTRONIC TECHNOLOGY AND APPLICATION 2014:IMAGE PROCESSING AND PATTERN RECOGNITION》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019056306A1 (zh) * | 2017-09-22 | 2019-03-28 | 深圳大学 | 一种鲁棒的基于深度信息的平面检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Levin et al. | Seamless image stitching in the gradient domain | |
CN109360246B (zh) | 基于同步子区搜索的立体视觉三维位移测量方法 | |
CN105528785A (zh) | 一种双目视觉图像立体匹配方法 | |
TWI398158B (zh) | 產生立體影像之影像深度的方法 | |
JP2014096152A (ja) | ポイントクラウド内の埋め戻しポイント | |
CN108780507A (zh) | 用于提供图像分类器的系统和方法 | |
CN101110122A (zh) | 基于特征的大幅面文化遗产图像拼接方法 | |
CN105894551B (zh) | 图像绘制方法及装置 | |
CN104517317A (zh) | 一种车载红外图像三维重建方法 | |
CN104077808A (zh) | 一种用于计算机图形图像处理的、基于深度信息的实时三维人脸建模方法 | |
CN105913488A (zh) | 一种基于三维映射表的三维点云快速重建方法 | |
CN107978017A (zh) | 基于框线提取的室内结构快速建模方法 | |
CN106780582A (zh) | 基于纹理特征和颜色特征融合的图像显著性检测方法 | |
CN103177451A (zh) | 基于图像边缘的自适应窗口和权重的立体匹配算法 | |
CN102903111B (zh) | 基于图像分割的大面积低纹理区立体匹配算法 | |
CN105574933A (zh) | 物体全方位轮廓精确绘制方法 | |
CN103198455A (zh) | 一种利用全变差最小化和灰度共生矩阵的图像去噪方法 | |
CN103119609A (zh) | 一种确定视频前景主体图像区域的方法和装置 | |
CN102542541B (zh) | 深度图像后处理的方法 | |
CN102682424B (zh) | 基于边缘方向差值的图像放大处理方法 | |
CN102447917A (zh) | 立体图像匹配方法及其设备 | |
CN104392428A (zh) | 一种针对侧扫声纳图像的拼接系统 | |
CN106952247A (zh) | 一种双摄像头终端及其图像处理方法和系统 | |
CN118154603A (zh) | 基于级联多层特征融合网络的显示屏缺陷检测方法及系统 | |
CN103700082A (zh) | 基于对偶四元数相对定向的图像拼接方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C41 | Transfer of patent application or patent right or utility model | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20161215 Address after: 100024 Beijing City, Chaoyang District, Five Mile Bridge No. 1 Street, building 5, building 4, floor 1 Applicant after: Beijing cohesion Technology Co., Ltd. Address before: 100024 Beijing City, Chaoyang District, Five Mile Bridge No. 1 Street, building 5, building 4, floor 1 Applicant before: Twelve dimensional (Beijing) Technology Co., Ltd. |
|
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20161026 |