CN105100773B - 立体视频制作方法、立体视图制作方法和制作系统 - Google Patents

立体视频制作方法、立体视图制作方法和制作系统 Download PDF

Info

Publication number
CN105100773B
CN105100773B CN201510428719.XA CN201510428719A CN105100773B CN 105100773 B CN105100773 B CN 105100773B CN 201510428719 A CN201510428719 A CN 201510428719A CN 105100773 B CN105100773 B CN 105100773B
Authority
CN
China
Prior art keywords
depth
key frame
video
dimensional
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510428719.XA
Other languages
English (en)
Other versions
CN105100773A (zh
Inventor
戴琼海
蔡娅雯
索津莉
刘烨斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201510428719.XA priority Critical patent/CN105100773B/zh
Publication of CN105100773A publication Critical patent/CN105100773A/zh
Application granted granted Critical
Publication of CN105100773B publication Critical patent/CN105100773B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种立体视频制作方法、立体视图制作方法和制作系统,视频制作方法包括:选取源视频中部分视频帧作为关键帧;在关键帧中选取部分区域进行颜色深度调整;将关键帧中未进行颜色深度调整的区域进行颜色深度扩展形成深度视图;对源视频中除了关键帧之外的非关键帧进行深度传播,得到非关键帧的深度图层;将深度图层进行像素移位得到虚拟视图,根据虚拟视图与原始图进行立体渲染得到所有视频帧的立体视图;将立体视图组合形成立体视频。本发明具有如下优点:高效快速、可靠稳定,弥补了全自动平面转立体转换质量较差、适用范围小,和人工平面转立体成本过高的缺陷,具有广泛的市场需求和科学研究意义。

Description

立体视频制作方法、立体视图制作方法和制作系统
技术领域
本发明属于计算机视觉技术领域,具体涉及一种立体视频制作方法、立体视图制作方法和制作系统。
背景技术
立体电影因为具备着较为强烈的视觉冲击,可以带给消费者一种身临其境的感觉,已经成为影视行业和科技领域的关注焦点。然而,立体视频产品面临着一个主要问题,即立体视频资源匮乏,不能满足消费者的大量需求。这是因为立体电影其制作周期通常较长,而且其拍摄成本也十分高昂。然而实际上,自19世纪末电影摄影机诞生以来,无数的平面电影或视频已经而且正在被积累下来。平面视频转立体视频(简称平面转立体)技术也因此应运而生。通过平面转立体技术,不仅仅可以解决立体视频片源匮乏的瓶颈问题,还可以大大降低立体视频的制作成本,从而为影视行业、医疗仪器、移动终端等领域创造大量的发展契机。
国内外对于平面转立体视频技术提出了各种各样的方法,根据是否包含人机交互功能,平面转立体视频技术可以分为人工、半自动和全自动三个领域。
目前市场上常用的平面转立体技术是以重复性的机械性的人工劳动为主,需要投入大量的人力物力,结合特定的计算机软件,逐帧绘制每幅画面的轮廓线,逐像素点的进行精确的深度赋值,并对由遮挡导致的空洞区域进行图像修补和立体视图合成,因此需要耗费极高的人力物力成本。
全自动平面转立体视频技术可以直接生成立体视频,而不需加入任何人机交互的元素。它能自动挖掘单个图像或多个连续图像中的深度线索,进而将深度线索转化成深度视频。缺点是得到的深度图质量不高,算法的针对性较强,目前还没有一种普适性的算法能针对所有视频场景都得到一个较好的立体效果。
半自动平面转立体视频技术则是在同时考虑人工参与程度和立体转换效果的前提下提出的,该系统只需要用户少量的人工操作,就能得到高质量的深度图。大多数半自动平面转立体的技术是将视频按照场景内容分为几个视频片段,将片段之间的边缘顿设为关键帧,两个关键帧之间的帧为非关键帧。采用人机交互式的方法获得关键帧的深度图,而其他非关键帧的深度图是在关键帧深度图的基础上自动生成。非关键帧的深度图一般通过运动物体跟踪或深度传播获得。
目前较为经典的半自动平面转立体算法有Moshe Guttmann提出的机器学习算法、Chenglei Wu等人提出的Lazy Snapping算法和Xun Cao等人提出的位移双边滤波算法。机器学习算法采用全局优化的方法,计算量比较大,并且只有针对分辨率很低的视频该算法的有效性才比较高。Lazy Snapping算法的本质在于Graph Cut算法,对于低分辨率的简单图像具有快速的分割速度,但是若图像分辨率较高,速度将大打折扣,并且需要用户提供大量的人机交互操作来对图像进行分割,这对于不具备图像处理能力的普通大众来说并不实用。
发明内容
本发明旨在至少解决上述技术问题之一。
为此,本发明的第一个目的在于提出一种立体视频制作系统。
本发明的第二个目的在于提出一种立体视频制作方法。
本发明的第三个目的在于提出一种立体视图制作方法。
为了实现上述目的,本发明的实施例公开了一种立体视频制作系统,包括:显示模块,用于显示视频编辑信息和音频编辑信息;加载输出模块,用于对视频或图片进行加载并输出;视频播放编辑模块,所述视频播放编辑模块包括视频帧标记模块、视频帧导出模块和视频播放模块,所述视频帧标记模块用于选取源视频中部分视频帧标记为关键帧,所述视频帧导出模块用于导出选定的视频帧,所述视频播放模块用于播放视频;深度图绘制模块,用于根据所述关键帧绘制相应的深度图;视频帧传播模块,用于根据所述深度图传播给所述源视频中除所述关键帧之外的剩余视频帧;深度图查看添加模块,用于实时查看所述深度图,并将所述深度图添加到时间轴;立体图查看添加模块,用于根据所述深度图进行立体渲染,并将立体渲染结果添加到所述时间轴上,所述立体图查看添加模块还用于实时查看所述立体渲染结果;以及结果输出模块,用于输出所述立体渲染结果和音频。
根据本发明实施例的立体视频制作系统,高效快速、可靠稳定,弥补了全自动平面转立体转换质量较差、适用范围小,和人工平面转立体成本过高的缺陷,具有广泛的市场需求和科学研究意义。
另外,根据本发明上述实施例的立体视频制作系统,还可以具有如下附加的技术特征:
进一步地,所述视频编辑信息包括视频名称、分辨率、时长、帧率和编码格式,所述音频编辑信息包括音频采样频率、比特数和声道模式。
进一步地,所述时间轴包括:源视频轨道:用于通过源视频轨道所述播放源视频;深度视频轨道,用于通过所述深度视频轨道播放由所述深度图形成的深度视频;立体视频轨道;用于通过所述深度视频轨道播放所述立体渲染结果;以及音频轨道,用于通过所述音频轨道播放音频。
进一步地,所述源视频、所述深度视频、所述立体视频和所述音频同步播放或单独播放。
进一步地,所述深度图绘制模块包括:深度画笔绘制模块,用于在所述关键帧上选取局部区域绘制出局部深度图像;深度画笔扩展模块,用于将所述局部深度图像扩散到整个所述关键帧形成所述深度图;以及深度模式选择模块,用于对所述深度图的图层进行深度模式的赋值,所述深度模式包括:图像深度从左至右逐渐增加、图像深度从左下至右上逐渐增加、图像深度从下至上逐渐增加、图像深度从右下至左上逐渐增加和图像深度从右至左逐渐增加。
为了实现上述目的,本发明的实施例公开了一种立体视频制作方法,包括以下步骤:S1:选取源视频中部分视频帧作为关键帧;S2:在所述关键帧中选取部分区域进行颜色深度调整,将进行颜色深度调整后的所述区域的颜色深度信息转换为相对深度值;S3:根据所述相对深度值将所述关键帧中未进行颜色深度调整的区域进行颜色深度扩展形成深度视图,显示具有不同深度值的深度图层;S4:对所述深度图层进行深度模式的赋值;S5:将所述源视频中除了所述关键帧之外的非关键帧进行深度传播,得到所述非关键帧的深度视图;S6:将所述关键帧和非关键帧的深度视图进行像素移位得到虚拟视图,根据所述关键帧和非关键帧的虚拟视图与所述关键帧或非关键帧对应的原始图进行立体渲染得到立体视图;以及S7:将所述立体视图组合形成立体视频。
根据本发明实施例的立体视频制作方法,高效快速、可靠稳定,弥补了全自动平面转立体转换质量较差、适用范围小,和人工平面转立体成本过高的缺陷,具有广泛的市场需求和科学研究意义。
另外,根据本发明上述实施例的立体视频制作方法,还可以具有如下附加的技术特征:
进一步地,在所述关键帧中选取部分区域进行颜色深度调整进一步包括:在所述关键帧中选取所述部分区域绘制具有颜色的笔画以表示所述部分区域像素在所述关键帧中的相对深度;对所述关键帧进行缩放或改变所述笔画线条的粗细。
进一步地,在步骤S3中,所述深度扩展包括以下步骤:
S301:逐行将所述关键帧的像素的位置信息和像素的RGB三个通道的值均变换为一维信号,其中,变换后像素间距=变换前像素间距+权值*像素间RGB差距;
S302:采用卷积运算对所述一维信号进行滤波;
S303:逐行对所述关键帧的像素进行滤波后,进而对所述关键帧的像素进行逐列滤波,如此迭代进行n次。
为了实现上述目的,本发明的实施例公开了一种立体视图制作方法,包括以下步骤:A:在源视图上选取部分区域绘制具有颜色的笔画,形成所述区域在源视图中的相对深度,将所述区域的颜色深度信息转换为相对深度值;B:根据所述相对深度值将所述源视图中出所述区域外的其它区域进行颜色深度扩展形成深度视图,显示具有不同深度值的深度图层;C:对所述深度视图进行深度模式的赋值;以及D:将所述深度视图进行像素移位得到虚拟视图,将所述虚拟视图和所述源视图进行渲染得到立体视图。
根据本发明实施例的立体视图制作方法,高效快速、可靠稳定,弥补了全自动平面转立体转换质量较差、适用范围小,和人工平面转立体成本过高的缺陷,具有广泛的市场需求和科学研究意义。
另外,根据本发明上述实施例的立体视图制作方法,还可以具有如下附加的技术特征:
进一步地,所述深度模式包括:图像深度从左至右逐渐增加、图像深度从左下至右上逐渐增加、图像深度从下至上逐渐增加、图像深度从右下至左上逐渐增加和图像深度从右至左逐渐增加。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明一个实施例的立体视频制作系统的结构示意图;
图2是本发明一个实施例的立体视频制作方法的流程图;
图3是本发明一个实施例的深度传播算法流程框图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
参照下面的描述和附图,将清楚本发明的实施例的这些和其他方面。在这些描述和附图中,具体公开了本发明的实施例中的一些特定实施方式,来表示实施本发明的实施例的原理的一些方式,但是应当理解,本发明的实施例的范围不受此限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
以下结合附图描述根据本发明实施例的立体视频制作系统。
本发明提出的应用软件具体包括以下模块:
对应项目创建模块(显示模块):支持对项目关键信息的显示功能,如视频名称、分辨率、时长、帧率、编码格式;音频采样频率、比特数、声道模式。
对应文件/素材加载模块(加载输出模块):能够实现对常用视频格式及图片格式的加载与输出。
对应视频基本操作模块(视频播放编辑模块):支持对当前视频的播放、暂停、逐帧后退/前进、标记关键帧、导出关键帧或全部视频帧的功能;具有基于时间轴的视频快速浏览的功能。
对应人机交互模块(深度图绘制模块):可以实现便捷、高效、高精度的交互式深度图绘制功能,结合工具栏和图像处理工具箱在源视图窗口中对深度图进行绘制。
对应深度传播模块(视频帧传播模块):主要用于对视频的转换过程中,可以将关键帧的深度图自动传播到非关键帧上,实现整个视频序列的深度估计功能。
对应深度视图序列监看模块(深度图查看添加模块):支持对深度图序列的实时监看,主要通过软件自身的实时监看窗口实现;深度图序列生成完成后,支持自动将深度图序列添加到时间轴的功能,便于快捷定位与查看。实时监看窗口默认情况下显示的是立体视图监看窗口,当点击窗口头部的“深度视图”标签时,可切换到深度视图监看窗口,布局和功能与渲染视图监看窗口相同。
对应立体视图序列监看模块(立体图查看添加模块):支持对立体视频渲染结果的实时监看功能(默认为红-青立体式);实时监看可以建立在软件自身的实时监看窗口之上,也可通过接入外部立体显示设备进行监看(例如,立体监视器,立体电视,立体显示器等)。实时监看时可以根据自身条件及设备选择相应的监看格式(主要为:红-青立体式、左右并列式、上下排列式)。此外,立体渲染完成后,支持自动/手动将渲染结果视频序列添加到界面下方的时间轴上,便于对结果的快速定位与便捷查看。渲染完成后自动添加到时间轴操作,默认的立体格式为红-青立体式,手动添加时可以通过界面本身的监视窗口下部的立体格式选择框进行切换,并进行添加。
对应结果输出模块(结果输出模块):具有视频和音频同步输出或单独输出的功能;立体渲染结果的输出格式支持红-青立体式、左右并列式和上下排列式;输出时能够根据不同的需要设置相应的视频和音频信息。
其中,视频基本操作模块(视频播放编辑模块)包括:
源视图窗口的底层控制栏,具体包括:帧标记:浏览时用于将当前帧标记为关键帧;逐帧后退/前进:视频暂停后,可以以当前暂停的帧为起点,逐帧向后或向前浏览不同的视频帧;播放/暂停:用来控制视频播放和暂停,当单击播放后,播放按钮自动切换为暂停按钮,两者可来回切换;导出帧:主要用于对源视频的全部帧或感兴趣的帧进行导出。
实时监看窗口的底层控制栏,具体包括:逐帧后退/前进:与上述源视图窗口中同样功能的描述一致;播放/暂停:与上述源视图窗口中同样功能的描述一致;监视格式:有左右格式、上下格式和红‐蓝格式三种以供用户选择,默认时为红‐蓝格式显示。
时间轴窗口,是针对视频素材进行操作的,具有源视频轨道、深度视频轨道、立体视频轨道和音频轨道四种操作模式。窗口中的第一个控件是视频滑块控件,滑块的下方绑定一条时间线,当拖动滑块时时间线扫过下方的四个轨道;当各轨道上对应加载了各自所要承载的内容时,随着视频滑块和时间线的移动,将在源视图窗口、实时监看窗口以及音频窗口同时播放或刷新各自区域应当显示的内容,实现一个拖动多窗口联动的效果。如果四个轨道上未加载相应的内容,那么拖动滑块时则只能控制源视图窗口中的视频进行播放。
人机交互模块(深度图绘制模块)引入了一种新颖便捷的人机交互模式,即用户可以在源视图窗口上直接“绘制”出深度信息,而对应的立体效果图可以在同一界面的实时监看窗口实时的显示出来,从而允许用户进一步的对图像的深度信息进行处理和修正。其中用户可以对图像进行的操作包括:
图像处理工具箱部分:画笔工具箱:主要用于设置画笔的颜色和画笔线条的粗细。
参数调控工具箱:主要用于调控深度图绘制和立体渲染过程中所需的算法参数,具体包括:扩散系数:深度扩散算法参数,参数值越小边缘保持越好,值越大扩散越明显,取值范围0~∞,一般取0~3;迭代次数:深度扩散算法参数,指得到所需满意的深度图时,算法需要迭代多少次,取值范围0~∞,一般取1~10。渲染权值:渲染算法参数,渲染权值dscale控制渲染生成的立体视图中视差的大小,取值-1~1,建议值-0.1。
图层工具箱:主要用于对分割出的不同深度图层进行显示,图层之间可以相互拖动调换位置,也可根据不同的需要对某个图层进行编辑,编辑操作包括对图层颜色、位置等的改变。
常用工具栏部分:保存:用于保存当前对图像或者视频所做的一些操作;撤销/恢复:可以撤销当前的操作/恢复上一步的操作;放大/缩小:用于对源视图窗口中加载的图像进行放大和缩小操作;实际尺寸:用于将源视图窗口中放大或缩小后的图像,恢复为图像的原始尺寸进行显示;适应屏幕:用于将本身尺寸大于源视图窗口的图像适应该窗口进行缩放显示;笔画扩展:用于将用户绘制的深度笔画扩散到整幅图像画面中。深度模式:用于对用户绘制完成的深度图层进行深度模式赋值。
以下结合附图描述根据本发明实施例的立体视频制作方法。
半自动平面转立体视频转换是通过人机交互对人工选定的关键帧进行深度赋值,并将关键帧的深度图通过深度传播算法扩展到非关键帧上。如图2所示,半自动平面转立体视频转换主要分为6个步骤,关键帧选取、人机交互绘制深度笔画、深度笔画扩展、深度模式选择、深度传播和立体视图渲染。
步骤1:关键帧选取
按照固定的间隔20选取关键帧,则选取的关键帧为第1、20、40、60、80、100帧图像。
步骤2:人机交互绘制深度笔画
对于每一帧关键帧,在源视频画面上直接“绘制”出具有一定颜色的笔画,以表示该位置在画面中的相对深度,这些稀疏的颜色信息通过一定的映射转换成为深度值,比如通过色彩系统变换法得到深度值D=0.299*R+0.587*G+0.114*B。此过程中,用户可以在常用工具栏中选择对图像进行放大/缩小操作,或者在画笔工具箱中改变画笔线条的粗细,从而可以完成对图像中的微小细节进行处理。
步骤3:深度笔画扩展
通过变换域的滤波算法将稀疏的深度信息传播到整个画面中来,如图2中左边的实时监看窗口,形成完整的深度视图。
步骤4:深度模式选择
在图层工具箱中选定某一深度图层后,可以对该图层进行深度模式的赋值,可选的深度梯度模式包括以下五种:图像深度从左至右逐渐增加,图像深度从左下至右上逐渐增加,图像深度从下至上逐渐增加,图像深度从右下至左上逐渐增加,图像深度从右至左逐渐增加。
步骤5:深度传播
得到所有关键帧的深度视图后,可以对非关键帧进行深度传播,如图3所示,主要包括以下步骤:
对图像序列中的运动进行估计
这里采用基于块的运动估计算法,首先计算相邻帧之间的块匹配误差如下:
SAD=ADR+ADG+ADB
其中,ADR、ADG、ADB分别为相邻帧对应区域块在R、G、B三个通道上像素值的绝对误差和,且(X1,Y1)为第t帧区域块最左上角的像素点,而(X2,Y2)为第t+1帧区域块最左上角的像素点。
进而采用自适应性块匹配方法进行块分割和块搜索,最小化块匹配误差函数,求得第t帧中每一个自适应区域块在第t+1帧中的最优匹配位置,可认为此最优匹配位置为第t帧区域块在第t+1帧中的运动结果,从而可以计算出第t帧中每一个区域块的向前运动矢量FMV。同理,以第t+1帧为参考帧可以求得向后运动矢量BMV。
根据运动估计的可靠性进行深度扩展。
首先计算运动估计的可靠性如下,令u为第t帧的某区域块,其在第t+1帧中的最优匹配块为v,向前运动矢量为FMV;同理v在第t帧中的最优匹配块为m,向后运动矢量为BMV,它们之间满足的关系式如下:
v=u+FMV(t)(u)
m=v+BMV(t+1)(v)
运动估计的可靠性检验如下:如果m在u的邻域内,则运动估计是可靠的,而如果m不在u的邻域内,则运动估计不可靠。
其中mask(t+1)(v)表示第t+1帧中的某个区域块v是否在第t帧中有运动估计可靠的匹配点,ξ代表邻域半径。
如果mask(t+1)(v)=1则代表v区域有相应的匹配点,进而将v在第t帧中对应的匹配区域u的深度值复制给v。
如果mask(t+1)(v)=0,则通过位移双边滤波算法进行深度扩展,公式如下:
其中,
公式中,dt+1(i)表示第t+1帧中像素i的深度估计值,而dt(j)则表示第t帧中像素j的参考深度值,j来自于以i+MV(i)为中心的邻域内。fij表示空间权重,j和i+MV(i)距离越远,其权值越小,而如果j位于i+MV(i)的邻域之外,权值为0。wij (t+1,t)表示颜色权重,其中ct +1(i)和ct(i)分别表示第t+1帧和第t帧中像素i的像素值,在两帧之间像素i的颜色差异越大,其权值越小。
步骤6:立体视图渲染
通过采用基于深度图的图像虚拟绘制技术,将原图像根据深度图的信息进行像素移位,从而得到一个新的虚拟视图,将此虚拟视图与原输入图像按照不同的显示要求得到不同的输出格式(主要为红-青立体式、左右并列式、上下排列式),作为双目立体视觉的立体视频源输入。
虚拟视图的生成公式如下:
Il(p-αdr(p))=Ir(p)
其中,Il(p)为已知的左参考视图中坐标为p的像素点的像素值,dr(p)为左参考深度图坐标为p的像素点的深度值。α为渲染权值,控制渲染生成的立体视图中视差的大小,取值-1~1,建议值-0.1。
针对虚拟视图中存在的空洞问题,通过低通滤波器平滑深度图,减弱深度跳变的幅度,从而减少和消除虚拟视点中的空洞。原深度图中点(x,y)的深度值记为d(x,y),则经滤波器平滑后的深度值可以表示为:
其中,g(u,σu)和g(v,σv)分别代表了水平方向和垂直方向上的高斯平滑系数。w为平滑模板的大小,一般设置为3σu
以下结合附图描述根据本发明实施例的立体视图制作方法。
本发明的另一个方面提出了一种实时、稳定、高精确度的半自动平面转立体图像转换方法,采用所述的半自动平面转立体应用软件,包括半自动平面转立体图像转换方法。
半自动平面转立体图像转换方法的步骤:
人机交互绘制深度笔画
首先用户在源视图界面上直接绘制出具有一定颜色的笔画,以表示该区域像素在画面中的相对深度。此过程中,用户可以在常用工具栏中选择对图像进行放大/缩小操作,或者在画笔工具箱中改变画笔线条的粗细,从而可以完成对图像中的微小细节进行处理,提高深度赋值的精确性。这些稀疏的颜色信息进而通过一定的颜色-深度映射关系转换成为相对深度值。
深度笔画扩展
通过一种深度扩展算法,将人工绘制的稀疏深度信息实时的扩散到整个画面中来,在深度视图窗口中形成完整的深度视图,并在图层工具箱中显示出具有不同深度值的深度图层。在此过程中,用户可以在参数调控工具箱中对深度扩散算法中的扩散系数和迭代次数进行选择,从而完成对不同场景的深度扩展操作。
深度模式选择
在图层工具箱中选定某一深度图层后,可以对该图层进行深度模式的赋值,可选的深度梯度模式包括以下五种:图像深度从左至右逐渐增加,图像深度从左下至右上逐渐增加,图像深度从下至上逐渐增加,图像深度从右下至左上逐渐增加,图像深度从右至左逐渐增加。
立体视图渲染
通过采用基于深度图的图像虚拟绘制技术,将原图像根据深度图的信息进行像素移位,从而得到一个新的虚拟视图,将此虚拟视图与原输入图像按照不同的显示要求得到不同的输出格式(主要为红-青立体式、左右并列式、上下排列式),作为双目立体视觉的立体视图源输入。在此过程中,用户可以在参数调控工作箱中对渲染算法的渲染权值和零平面参数进行调整。
由以上步骤得到的深度视图和渲染出来的立体视图可以实时地在对应窗口中显示出来,用户可以基于此进一步在源视图窗口中进行修改编辑,最终完成半自动平面转立体的图像转换环节。
另外,本发明实施例的立体视频制作方法、立体视图制作方法和制作系统的其它构成以及作用对于本领域的技术人员而言都是已知的,为了减少冗余,不做赘述。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同限定。

Claims (3)

1.一种立体视频制作方法,其特征在于,包括以下步骤:
S1:选取源视频中部分视频帧作为关键帧;
S2:在所述关键帧中选取部分区域进行颜色深度调整,将进行颜色深度调整后的所述区域的颜色深度信息转换为相对深度值;
S3:根据所述相对深度值将所述关键帧中未进行颜色深度调整的区域进行颜色深度扩展形成深度视图,显示具有不同深度值的深度图层,在步骤S3中,所述深度扩展包括以下步骤:S301:逐行将所述关键帧的像素的位置信息和像素的RGB三个通道的值均变换为一维信号,其中,变换后像素间距=变换前像素间距+权值*像素间RGB差距;S302:采用卷积运算对所述一维信号进行滤波;S303:逐行对所述关键帧的像素进行滤波后,进而对所述关键帧的像素进行逐列滤波,如此迭代进行n次;
S4:对所述深度图层进行深度模式的赋值;
S5:对所述源视频中除了所述关键帧之外的非关键帧进行深度传播,得到所述非关键帧的深度视图;
S6:将所述关键帧和非关键帧的深度视图进行像素移位得到虚拟视图,根据所述关键帧和非关键帧的虚拟视图与所述关键帧或非关键帧对应的原始图进行立体渲染得到立体视图;以及
S7:将所述立体视图组合形成立体视频。
2.根据权利要求1所述的立体视频制作方法,其特征在于,所述在所述关键帧中选取部分区域进行颜色深度调整进一步包括:
在所述关键帧中选取所述部分区域绘制具有颜色的笔画以表示所述部分区域像素在所述关键帧中的相对深度;
对所述关键帧进行缩放或改变所述笔画线条的粗细。
3.根据权利要求1所述的立体视频转换方法,其特征在于,所述深度模式包括:图像深度从左至右逐渐增加、图像深度从左下至右上逐渐增加、图像深度从下至上逐渐增加、图像深度从右下至左上逐渐增加和图像深度从右至左逐渐增加。
CN201510428719.XA 2015-07-20 2015-07-20 立体视频制作方法、立体视图制作方法和制作系统 Active CN105100773B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510428719.XA CN105100773B (zh) 2015-07-20 2015-07-20 立体视频制作方法、立体视图制作方法和制作系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510428719.XA CN105100773B (zh) 2015-07-20 2015-07-20 立体视频制作方法、立体视图制作方法和制作系统

Publications (2)

Publication Number Publication Date
CN105100773A CN105100773A (zh) 2015-11-25
CN105100773B true CN105100773B (zh) 2017-07-28

Family

ID=54580186

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510428719.XA Active CN105100773B (zh) 2015-07-20 2015-07-20 立体视频制作方法、立体视图制作方法和制作系统

Country Status (1)

Country Link
CN (1) CN105100773B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105516547A (zh) * 2015-12-10 2016-04-20 中国科学技术大学 一种基于dsp的视频去雾优化方法
US10984583B2 (en) 2018-03-28 2021-04-20 Apple Inc. Reconstructing views of real world 3D scenes
CN112929732B (zh) * 2019-12-06 2022-07-08 腾讯科技(深圳)有限公司 视频的处理方法、装置和计算机存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1739119A (zh) * 2003-01-17 2006-02-22 皇家飞利浦电子股份有限公司 全深度图采集
CN102368824A (zh) * 2011-09-16 2012-03-07 清华大学 视频立体转换方法
CN103051915A (zh) * 2013-01-14 2013-04-17 清华大学 一种交互式立体视频关键帧的制作方法及制作装置
CN103106038A (zh) * 2013-02-06 2013-05-15 清华大学 基于草图手势及弧形摘要时间轴的视频交互方法和系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2274920B1 (en) * 2008-05-12 2019-01-16 InterDigital Madison Patent Holdings System and method for measuring potential eyestrain of stereoscopic motion pictures

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1739119A (zh) * 2003-01-17 2006-02-22 皇家飞利浦电子股份有限公司 全深度图采集
CN102368824A (zh) * 2011-09-16 2012-03-07 清华大学 视频立体转换方法
CN103051915A (zh) * 2013-01-14 2013-04-17 清华大学 一种交互式立体视频关键帧的制作方法及制作装置
CN103106038A (zh) * 2013-02-06 2013-05-15 清华大学 基于草图手势及弧形摘要时间轴的视频交互方法和系统

Also Published As

Publication number Publication date
CN105100773A (zh) 2015-11-25

Similar Documents

Publication Publication Date Title
US10652522B2 (en) Varying display content based on viewpoint
CN102027752B (zh) 用于测量立体运动画面的潜在眼睛疲劳的系统和方法
CN105069827B (zh) 一种采用三维模型处理视频转场的方法
CN100355272C (zh) 一种交互式多视点视频系统中虚拟视点的合成方法
CN101375315B (zh) 数字重制2d和3d运动画面以呈现提高的视觉质量的方法和系统
CN101322402B (zh) 图像投影装置、控制方法以及半导体装置
CN101479765B (zh) 对2d电影进行转换用于立体3d显示的方法和系统
CN104658032B (zh) 用于图像处理的方法、设备和系统
CN101287142A (zh) 基于双向跟踪和特征点修正的平面视频转立体视频的方法
CN107409233A (zh) 图像处理装置和图像处理方法
US20130016097A1 (en) Virtual Camera System
CN102075694A (zh) 用于视频制作、后期制作和显示适应的立体编辑
JP2008513882A (ja) ビデオイメージ処理システム及びビデオイメージ処理方法
CN103051915B (zh) 一种交互式立体视频关键帧的制作方法及制作装置
CN105100773B (zh) 立体视频制作方法、立体视图制作方法和制作系统
CN105678724A (zh) 图像的背景替换方法及装置
CN104756489A (zh) 一种虚拟视点合成方法及系统
CN106600665A (zh) 一种相机动画路径生成方法和装置
CN102918861A (zh) 立体视觉强度调整装置、立体视觉强度调整方法、程序、集成电路、记录介质
KR101181962B1 (ko) 3d 입체영상 변환장치 및 변환방법
CN103761734A (zh) 一种时域一致性保持的双目立体视频场景融合方法
CN103581650A (zh) 双目3d视频转多目3d视频的方法
Wu et al. A novel method for semi-automatic 2D to 3D video conversion
CN104159098B (zh) 一种视频的时域一致性半透明边缘提取方法
CN103686118A (zh) 影像深度调整方法与装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Dai Qionghai

Inventor after: Cai Yawen

Inventor after: Suo Jinli

Inventor after: Liu Yebin

Inventor before: Dai Qionghai

Inventor before: Cai Yawen

Inventor before: Suo Jinli

Inventor before: Liu Yebin

COR Change of bibliographic data
GR01 Patent grant
GR01 Patent grant