CN107659805B - 一种视频转换方法和装置 - Google Patents
一种视频转换方法和装置 Download PDFInfo
- Publication number
- CN107659805B CN107659805B CN201710799053.8A CN201710799053A CN107659805B CN 107659805 B CN107659805 B CN 107659805B CN 201710799053 A CN201710799053 A CN 201710799053A CN 107659805 B CN107659805 B CN 107659805B
- Authority
- CN
- China
- Prior art keywords
- visual angle
- picture
- video
- model
- video frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 20
- 230000000007 visual effect Effects 0.000 claims abstract description 273
- 230000000694 effects Effects 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 10
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000013442 quality metrics Methods 0.000 description 3
- 235000013399 edible fruits Nutrition 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明实施例公开了一种视频转换方法和装置,该方法包括:通过第一视角模型将2D视频画面转换成第一视角画面;通过第二视角模型将所述2D视频画面转换成第二视角画面;拼接包括所述第一视角画面和所述第二视角画面生成3D视频画面。本发明实施例可以提高视频播放效果。
Description
技术领域
本发明涉及视频处理技术领域,尤其涉及一种视频转换方法和装置。
背景技术
观看视频是目前人们生活之中一项重要的娱乐节目,且观看视频的重要场景之一是在家里使用电脑或者电视观看视频,例如:看电视剧、电影或者MV等,当然,也可以是通过电脑或者电视玩视频游戏等等。但电脑或者电视获取的视频资源往往是2D视频资源,这样人们使用电脑或者电视往往一般只能观看2D视频。而2D视频缺少深度信息,从而导致视频播放效果比较差。
发明内容
本发明实施例提供了一种视频转换方法和装置,可以提高视频播放效果。
第一方面,本发明实施例提供一种视频转换方法,包括:
通过第一视角模型将2D视频画面转换成第一视角画面;
通过第二视角模型将所述2D视频画面转换成第二视角画面;
拼接包括所述第一视角画面和所述第二视角画面生成3D视频画面。
第二方面,本发明实施例提供一种视频转换装置,包括:
第一转换模块,用于通过第一视角模型将2D视频画面转换成第一视角画面;
第二转换模块,用于通过第二视角模型将所述2D视频画面转换成第二视角画面;
拼接模块,用于拼接包括所述第一视角画面和所述第二视角画面生成3D视频画面。
本发明实施例中,通过第一视角模型将2D视频画面转换成第一视角画面;通过第二视角模型将所述2D视频画面转换成第二视角画面;拼接包括所述第一视角画面和所述第二视角画面生成3D视频画面。这样可以实现将2D视频转换为3D视频,从而提高视频播放效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种视频转换方法的流程示意图;
图2是本发明实施例提供的另一种视频转换方法的流程示意图;
图3是本发明实施例提供的一种模型训练的示意图;
图4是本发明实施例提供的一种视频转换装置的结构示意图;
图5是本发明实施例提供的另一种视频转换装置的结构示意图;
图6是本发明实施例提供的另一种视频转换装置的结构示意图;
图7是本发明实施例提供的另一种视频转换装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1,图1是本发明实施例提供的一种视频转换方法的流程示意图,如图1所示,包括以下步骤:
101、通过第一视角模型将2D视频画面转换成第一视角画面。
其中,上述2D视频画面可以是在线播放2D视频中的视频帧,或者可以是电脑、电视等智能设备播放的本地2D视频中的视频帧。
上述第一视角模型可以是左眼视角模型或者右眼视角模型,即可以将上述2D视频画面转换左眼画面或者右眼画面。当然,生成的3D视频左眼画面和右眼画面的拼接方式可以是左右拼接或者上下拼接。本发明实施例中,上述第一视角模型可以是预先通过深度神经网络对大量3D视频进行学习训练得到的视角模型,从而通过步骤101可以将2D视频画面转换成3D视频的第一视角画面。优选的,步骤101可以是将2D视频画面当作为第一视角源画面输入到上述第一视角模型中,从而完成3D视频的第一视角画面的生成。
102、通过第二视角模型将所述2D视频画面转换成第二视角画面。
上述第二视角模型可以是右眼视角模型或者左眼视角模型,即可以将上述2D视频画面转换右眼画面或者左眼画面。本发明实施例中,上述第二视角模型可以是预先通过深度神经网络对大量3D视频进行学习训练得到的视角模型,从而通过步骤102可以将2D视频画面转换成3D视频的第二视角画面。优选的,步骤102可以是将2D视频画面当作为第一视角源画面输入到上述第二视角模型中,从而完成3D视频的第二视角画面的生成。
另外,上述第一视角模型和所述第二视角模型均由自编码器(Auto Encoder,AE)和生成对抗网络(Generative Adversarial Nets,GAN)组成。其中,自编码器AE可以充当GAN网络的生成器(Generator),而GAN中的判别器(Discriminator)可以为单个卷积网络(Convolution)或使用效果更好的类似边界平衡生成对抗网络(Boundary EquilibriumGenerative Adversarial Networks,BEGAN)的方式由一个自编码器构成的判别器。本发明实施例中,第一视角模型和第二视角模型采用GAN的方式而不直接使用自编码器的原因是自编码器倾向于生成模糊图像,而GAN能生成更多图像细节,从而可以提高3D视频质量。
可选地,本发明实施例中,所述第一视角模型和所述第二视角模型可以单纯由自编码器构成。这样可以实现将2D视频画面生成较为模糊的第一视角画面和第二视角画面(例如:左眼图像和右眼图像),这样就得到了较为匹配的模糊一些的3D视频,满足清晰度要求不高,而又需要景深信息的应用场合,且实现过程简单。
另外,需要说明的是,本发明实施例中,对步骤101和步骤102的执行顺序不作限定。
103、拼接包括所述第一视角画面和所述第二视角画面生成3D视频画面。
本发明实施例中,可以通过步骤101和步骤102对2D视频的每个视频帧(即每个画面)均转换成第一视角画面和第二视角画面,从而步骤103可以以左右方式或者上下方式拼接第一视角画面和第二视角画面的生成完整的3D视频画面。
本发明实施例中,上述步骤可以实现将2D视频转换为3D视频后,用3D电视或者虚拟现实(Virtual Reality,VR)头盔观看,能提高临场感。且生成的3D视频隐含了深度信息,也可以用来为单目即时定位与地图构建(simultaneous localization and mapping,SLAM)提供深度信息,或用来做其他需要深度信息的应用。另外,本发明实施例中,通过第一视角模型和第二视角模型(例如:左眼和右眼模型)两个相似的模型,依据普通视频画面分别来生成第一视角画面和第二视角画面(例如:左眼图像和右眼图像),可以让第一视角画面和第二视角画面(例如:左眼图像和右眼图像)都是经过模型中的生成器生成的图像,取得一致性观感效果。
需要说明的是,本发明实施例中,生成的3D视频可以是左右格式(采用左右拼接)的3D视频,或者也可以是上下格式(采用上下拼接)的3D视频。且上述第一视角画面为左眼画面,所述第二视角画面为右眼画面;或者,所述第一视角画面为右眼画面,所述第二视角画面为左眼画面。
另外,本发明实施例中,上述方法可以通过播放器软件来实现,例如:本地播放器或者在线播放器,具体可以应用于计算机、手机、服务器等支持播放器的智能设备。
本发明实施例中,通过第一视角模型将2D视频画面转换成第一视角画面;通过第二视角模型将所述2D视频画面转换成第二视角画面;拼接包括所述第一视角画面和所述第二视角画面生成3D视频画面。这样可以实现将2D视频转换为3D视频,从而提高视频播放效果。
请参考图2,图2是本发明实施例提供的另一种视频转换方法的流程示意图,如图2所示,包括以下步骤:
201、通过深度神经网络对获取的大量3D视频对所述第一视角模型和所述第二视角模型进行训练,其中,所述大量3D视频为3D视频的数量超过预设数量阈值。
其中,上述大量3D视频可以几十部左右格式或者上下格式的3D视频,通过对这几十部左右格式或者上下格式的3D视频对所述第一视角模型和所述第二视角模型进行训练,例如:下载几十部左右格式(或上下格式)的3D视频,对解码出的每一帧,剪裁为第一视角画面和第二视角画面(例如:左眼和右眼图像)两个画面,作为第一视角画面和第二视角画面,送入第一视角模型和第二视角模式进行训练,待输出图像接近真实画面,训练便完成。训练完后的第一视角模型和第二视角模型就可以把普通2D视频的每帧画面转换第一视角画面和第二视角画面,从而完成3D视频的生成。
本发明实施例中,在步骤201中通过在现有的大量左右格式(或上下格式)3D片源中学习两个深度神经网络视角模型,该模型能够输入普通视频帧作为第一视角画面,生成第二视角画面,以及将普通视频帧作为第一视角画面,生成第一视角画面自身,每帧都处理,从而完成2D视频到3D视频的变换。该方法的优点是有大量现有3D片源可以用来训练,而且第一视角和第二视角(例如:左右眼)的画面是在视野上稳定平移一个小距离形成,输入和输出之间的特征变化固定,非常有利于稳定训练深度神经网络,从而能保证好的效果。
可选的,上述通过深度神经网络对获取的大量3D视频对所述第一视角模型和所述第二视角模型进行训练,包括:
对所述大量3D视频进行解码,得到所述大量3D视频中的每一3D视频帧;
对每一3D视频帧进行剪裁,得到每一3D视频帧的第一视角画面和第二视频画面;
将所述第一视角画面经过所述第一视角模型包括的自编码器生成重构的第一视角假样本画面;
通过第一视角真样本画面和所述第一视角假样本画面对所述第一视角模型包括的判别器和生成器进行训练,其中,所述第一视角真样本画面为3D视频帧的第一视角画面;
将所述第一视角画面经过所述第二视角模型包括的自编码器生成重构的第二视角假样本画面;
通过第二视角真样本画面和所述第二视角假样本画面对所述第二视角模型包括的判别器和生成器进行训练,其中,所述第二视角真样本画面为3D视频帧的第二视角画面。
上述判别器的Loss函数用逻辑回归方式,真样本输出1(YES),假样本输出0(NO)。
该实施方式中,可以在第一视角模型输入3D视频的第二视角画面(例如:左眼图)像经过自编码器生成重构的第一视角画面(例如:右眼图像)或者第二视角画面自身(例如:左眼图像自身),作为假样本(Fake Sample)和取自3D视频帧的第一视角画面或者第二视角画面(例如:3D视频实际右眼图像或左眼图像自身)的真样本(Real Sample)来训练判别器,而训练生成器(即自编码器)的误差为这两部分之和:(1)来自真样本和假样本图像的均方误差(Mean Squared Error,MSE);(2)输入来自自编码器的假样本并使判别器输出为真时,反向传播到判别器的输入端的误差。同理,对上述第二视角模型进行相应训练,即也可以用输入第一视角画面(例如:右眼图像)来生成第二视角画面(例如:左眼图像)或者第一视角画面自身(例如:右眼图像自身)图像对模型进行训练。其中,上述第一视角模型和第二视角模型的结构可以参见图3,其中,以第一视角模型对图3进行举例说明,且第一视角画面为左眼图像(L)进行举例,左眼图像(L)通过自编码器(AE)进行编码得到向量Z,自编码器(AE)作为GAN的生成器(Generator),并将Z解码或者生成右眼图像(R~)或者左眼图像自身(L~),之后,将右眼图像(R~)或者左眼图像自身(L~)与3D视频实际右眼图像(R)或左眼图像自身(L)训练GAN中的判别器(Discriminator),若输出的右眼图像(R~)或者左眼图像自身(L~)接近3D视频实际右眼图像(R)或左眼图像自身(L),则训练便完成。
需要说明的是,本发明实施例中,步骤201的第一视角模型和第二视角模型可以是由其他设备训练好的,之后发送给播放器对应的设备进行安装。
202、通过第一视角模型将2D视频画面转换成第一视角画面。
其中,步骤202可以参见图1所示的实施例中,步骤101的相应说明此处不作赘述。
203、通过第二视角模型将所述2D视频画面转换成第二视角画面。
其中,步骤202可以参见图1所示的实施例中,步骤101的相应说明此处不作赘述。
204、拼接包括所述第一视角画面和所述第二视角画面生成3D视频画面。
其中,步骤204可以是左右或上下拼接包括所述第一视角画面和所述第二视角画面,生成3D视频。
本发明实施例中,可以通过步骤202和步骤203对2D视频的每个视频帧(即每个画面)均转换成第一视角画面和第二视角画面,从而步骤204可以生成包括这些第一视角画面和第二视角画面的3D视频。
通过深度神经网络在现有的大量左右或者上下3D片源中学习一个模型,该方法的优点是有大量现有3D片源可以用来训练,而且左右眼的画面是在视野上稳定平移一个小距离形成,输入和输出之间的特征变化固定,非常有利于稳定训练深度神经网络,从而能保证好的效果。
本实施例中,在图1所示的实施例的基础上增加了多种可选的实施方式,且可以进一步提高3D视频的效果。
请参考图4,图4是本发明实施例提供的一种视频转换装置的结构示意图,如图4所示,包括:
第一转换模块401,用于通过第一视角模型将2D视频画面转换成第一视角画面;
第二转换模块402,用于通过第二视角模型将所述2D视频画面转换成第二视角画面;
拼接模块403,用于拼接包括所述第一视角画面和所述第二视角画面生成3D视频。
可选的,所述第一视角模型和所述第二视角模型均包括AE和GAN;或者
所述第一视角模型和所述第二视角模型均包括AE。
可选的,如图5所示,所述装置还包括:
训练模块404,用于通过深度神经网络对获取的大量3D视频对所述第一视角模型和所述第二视角模型进行训练,其中,所述大量3D视频为3D视频的数量超过预设数量阈值。
可选的,如图6所示,所述训练模块404包括:
解码单元4041,用于对所述大量3D视频进行解码,得到所述大量3D视频中的每一3D视频帧;
剪裁单元4042,用于对每一3D视频帧进行剪裁,得到每一3D视频帧的第一视角画面和第二视频画面;
第一生成单元4043,用于将所述第一视角画面经过所述第一视角模型包括的自编码器生成重构的第一视角假样本画面;
第一训练单元4044,用于通过第一视角真样本画面和所述第一视角假样本画面对所述第一视角模型包括的判别器和生成器进行训练,其中,所述第一视角真样本画面为3D视频帧的第一视角画面;
第二生成单元4045,用于将所述第一视角画面经过所述第二视角模型包括的自编码器生成重构的第二视角假样本画面;
第二训练单元4046,用于通过第二视角真样本画面和所述第二视角假样本画面对所述第二视角模型包括的判别器和生成器进行训练,其中,所述第二视角真样本画面为3D视频帧的第二视角画面。
可选的,所述第一视角画面为左眼画面,所述第二视角画面为右眼画面;或者;反之亦可,即所述的第一视角画面为右眼画面,所述的第二视角画面为左眼画面。
本实施例中,上述视频转换装置可以实现本发明实例提供的视频转换方法的任意实施方式,且可以达到相同有益效果。且上述视频转换装置可以应用于播放器。
请参阅图7,图7是本发明实施例提供的另一种视频转换装置的结构示意图,如图7所示,包括:存储器71,以及与存储器71连接的处理器72,其中,存储器71用于存储程序代码,处理器72用于调用存储器71存储的程序,执行如下操作:
通过第一视角模型将2D视频画面转换成第一视角画面;
通过第二视角模型将所述2D视频画面转换成第二视角画面;
拼接包括所述第一视角画面和所述第二视角画面生成3D视频画面。
可选的,所述第一视角模型和所述第二视角模型均包括AE和GAN;或者
所述第一视角模型和所述第二视角模型均包括AE。
可选的,所述通过第一视角模型将2D视频画面转换成第一视角画面之前,处理器72还用于:
通过深度神经网络对获取的大量3D视频对所述第一视角模型和所述第二视角模型进行训练,其中,所述大量3D视频为3D视频的数量超过预设数量阈值。
可选的,处理器72执行的通过深度神经网络对获取的大量3D视频对所述第一视角模型和所述第二视角模型进行训练,包括:
对所述大量3D视频进行解码,得到所述大量3D视频中的每一3D视频帧;
对每一3D视频帧进行剪裁,得到每一3D视频帧的第一视角画面和第二视频画面;
将所述第一视角画面经过所述第一视角模型包括的自编码器生成重构的第一视角假样本画面;
通过第一视角真样本画面和所述第一视角假样本画面对所述第一视角模型包括的判别器和生成器进行训练,其中,所述第二视角真样本画面为3D视频帧的第一视角画面;
将所述第一视角画面经过所述第二视角模型包括的自编码器生成重构的第二视角假样本画面;
通过第二视角真样本画面和所述第二视角假样本画面对所述第二视角模型包括的判别器和生成器进行训练,其中,所述第一视角真样本画面为3D视频帧的第二视角画面。
可选的,所述第一视角画面为左眼画面,所述第二视角画面为右眼画面;或者
所述第一视角画面为右眼画面,所述第二视角画面为左眼画面。
本实施例中,上述视频转换装置可以实现本发明实施例提供的视频转换方法的任意实施方式,且可以达到相同有益效果。且上述视频转换装置可以应用于播放器。
本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现本发明实施例提供的视频转换方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存取存储器(Random AccessMemory,简称RAM)等。以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (6)
1.一种视频转换方法,其特征在于,包括:
通过第一视角模型将2D视频画面转换成第一视角画面;
通过第二视角模型将所述2D视频画面转换成第二视角画面;
拼接包括所述第一视角画面和所述第二视角画面生成3D视频画面;
所述通过第一视角模型将2D视频画面转换成第一视角画面之前,所述方法还包括:
对大量3D视频进行解码,得到所述大量3D视频中的每一3D视频帧,其中,所述大量3D视频为3D视频的数量超过预设数量阈值;
对每一3D视频帧进行剪裁,得到每一3D视频帧的第一视角画面和第二视角画面;
将所述第一视角画面经过所述第一视角模型包括的自编码器生成重构的第一视角假样本画面;
通过第一视角真样本画面和所述第一视角假样本画面对所述第一视角模型包括的判别器和生成器进行训练,其中,所述第一视角真样本画面为3D视频帧的第一视角画面;
将所述第一视角画面经过所述第二视角模型包括的自编码器生成重构的第二视角假样本画面;
通过第二视角真样本画面和所述第二视角假样本画面对所述第二视角模型包括的判别器和生成器进行训练,其中,所述第二视角真样本画面为3D视频帧的第二视角画面。
2.如权利要求1所述的方法,其特征在,所述第一视角模型和所述第二视角模型均包括自编码器AE和生成对抗网络GAN;或者所述第一视角模型和所述第二视角模型均包括AE。
3.如权利要求1或2所述的方法,其特征在于,所述第一视角画面为左眼画面,所述第二视角画面为右眼画面;或者,所述第一视角画面为右眼画面,所述第二视角画面为左眼画面。
4.一种视频转换装置,其特征在于,包括:
第一转换模块,用于通过第一视角模型将2D视频画面转换成第一视角画面;
第二转换模块,用于通过第二视角模型将所述2D视频画面转换成第二视角画面;
拼接模块,用于拼接包括所述第一视角画面和所述第二视角画面生成3D视频画面;
所述装置还包括:
训练模块,其中,所述训练模块包括:
解码单元,用于对大量3D视频进行解码,得到所述大量3D视频中的每一3D视频帧,其中,所述大量3D视频为3D视频的数量超过预设数量阈值;
剪裁单元,用于对每一3D视频帧进行剪裁,得到每一3D视频帧的第一视角画面和第二视频画面;
第一生成单元,用于将所述第一视角画面经过所述第一视角模型包括的自编码器生成重构的第一视角假样本画面;
第一训练单元,用于通过第一视角真样本画面和所述第一视角假样本画面对所述第一视角模型包括的判别器和生成器进行训练,其中,所述第一视角真样本画面为3D视频帧的第一视角画面;
第二生成单元,用于将所述第一视角画面经过所述第二视角模型包括的自编码器生成重构的第二视角假样本画面;
第二训练单元,用于通过第二视角真样本画面和所述第二视角假样本画面对所述第二视角模型包括的判别器和生成器进行训练,其中,所述第二视角真样本画面为3D视频帧的第二视角画面。
5.如权利要求4所述的装置,其特征在,所述第一视角模型和所述第二视角模型均包括AE和GAN;或者所述第一视角模型和所述第二视角模型均包括AE。
6.如权利要求4或5所述的装置,其特征在于,所述第一视角画面为左眼画面,所述第二视角画面为右眼画面;或者,所述第一视角画面为右眼画面,所述第二视角画面为左眼画面。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710799053.8A CN107659805B (zh) | 2017-09-07 | 2017-09-07 | 一种视频转换方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710799053.8A CN107659805B (zh) | 2017-09-07 | 2017-09-07 | 一种视频转换方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107659805A CN107659805A (zh) | 2018-02-02 |
CN107659805B true CN107659805B (zh) | 2018-11-27 |
Family
ID=61129310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710799053.8A Active CN107659805B (zh) | 2017-09-07 | 2017-09-07 | 一种视频转换方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107659805B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629823B (zh) * | 2018-04-10 | 2022-09-06 | 北京京东尚科信息技术有限公司 | 多视角图像的生成方法和装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8345956B2 (en) * | 2008-11-03 | 2013-01-01 | Microsoft Corporation | Converting 2D video into stereo video |
CN102724531B (zh) * | 2012-06-05 | 2015-08-12 | 上海易维视科技有限公司 | 一种二维视频转三维视频的方法及系统 |
TWI516091B (zh) * | 2012-10-09 | 2016-01-01 | 友達光電股份有限公司 | 多視角三維顯示器及其多視角三維圖像資料的產生方法 |
CN102932662B (zh) * | 2012-12-05 | 2015-03-18 | 青岛海信信芯科技有限公司 | 单目转多目的立体视频生成方法、求解深度信息图以及生成视差图的方法 |
CN104008569B (zh) * | 2014-02-24 | 2016-03-02 | 惠州学院 | 一种基于深度视频的3d场景生成方法 |
-
2017
- 2017-09-07 CN CN201710799053.8A patent/CN107659805B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107659805A (zh) | 2018-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112562433B (zh) | 一种基于全息终端的5g强互动远程专递教学系统的工作方法 | |
CN110475150B (zh) | 虚拟礼物特效的渲染方法和装置、直播系统 | |
CN105791977B (zh) | 基于云服务的虚拟现实数据处理方法、设备及系统 | |
CN111901598B (zh) | 视频解码与编码的方法、装置、介质及电子设备 | |
CN106919248A (zh) | 应用于虚拟现实的内容传输方法以及设备 | |
CN107484036B (zh) | 一种弹幕显示方法和装置 | |
CN107979763A (zh) | 一种虚拟现实设备生成视频、播放方法、装置及系统 | |
KR20100002037A (ko) | 영상 처리 방법 및 장치 | |
CN110969572B (zh) | 换脸模型训练方法、人脸互换方法、装置及电子设备 | |
CN106303573A (zh) | 一种3d视频图像处理方法及服务器和客户端 | |
CN116109798A (zh) | 图像数据处理方法、装置、设备及介质 | |
CN115272570A (zh) | 虚拟表情生成方法、装置、电子设备和存储介质 | |
CN115914505A (zh) | 基于语音驱动数字人模型的视频生成方法及系统 | |
CN113747160B (zh) | 视频编码配置方法、装置、设备及计算机可读存储介质 | |
CN111967397A (zh) | 人脸影像处理方法和装置、存储介质和电子设备 | |
CN107659805B (zh) | 一种视频转换方法和装置 | |
CN106412718A (zh) | 一种字幕在3d空间中的渲染方法及其装置 | |
CN113822114A (zh) | 一种图像处理方法、相关设备及计算机可读存储介质 | |
CN116630485A (zh) | 虚拟形象的驱动方法、虚拟形象的渲染方法以及电子设备 | |
CN116485983A (zh) | 虚拟对象的纹理生成方法、电子设备以及存储介质 | |
CN109151443A (zh) | 高舒适度立体视频生成方法、系统及终端设备 | |
Carreira et al. | Subjective assessment of frame loss concealment methods in 3D video | |
CN115035219A (zh) | 表情生成方法、装置和表情生成模型的训练方法、装置 | |
CN113784105A (zh) | 一种沉浸式vr终端的信息处理方法及系统 | |
CN113486787A (zh) | 一种脸部驱动和直播方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |