CN112700516B - 基于深度学习的视频渲染方法和装置 - Google Patents
基于深度学习的视频渲染方法和装置 Download PDFInfo
- Publication number
- CN112700516B CN112700516B CN202011538828.4A CN202011538828A CN112700516B CN 112700516 B CN112700516 B CN 112700516B CN 202011538828 A CN202011538828 A CN 202011538828A CN 112700516 B CN112700516 B CN 112700516B
- Authority
- CN
- China
- Prior art keywords
- video
- motion vector
- frame
- interpolation
- video frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009877 rendering Methods 0.000 title claims abstract description 77
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000013135 deep learning Methods 0.000 title claims abstract description 37
- 239000013598 vector Substances 0.000 claims abstract description 167
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 39
- 238000004364 calculation method Methods 0.000 claims description 26
- 238000012937 correction Methods 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 14
- 238000010276 construction Methods 0.000 claims description 4
- 238000012163 sequencing technique Methods 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 239000000523 sample Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Landscapes
- Television Systems (AREA)
Abstract
本发明公开了一种基于深度学习的视频渲染方法和装置,属于视频渲染领域,视频渲染方法包括以下步骤:从视频渲染过程中获得视频帧和对应的运动矢量,所述运动矢量包括当前视频帧相对前一帧的前运动矢量和相对后一帧的后运动矢量;利用基于可变形卷积神经网络构建的视频帧生成模型基于输入的插值帧的运动矢量和相邻前后两视频帧生成插值帧;将视频帧和插值帧按照时间序列排序合成最终渲染视频,降低渲染成本的同时,显著提升渲染速度。
Description
技术领域
本发明属于渲染领域,具体涉及一种基于深度学习的高效视频渲染方法、装置、计算机设备以及存储介质。
背景技术
现有渲染技术中,采用渲染引擎对复杂的三维模型进行直接渲染处理,由于三维模型的复杂性导致渲染计算量超级大,进而影响渲染效率,为了提升渲染效率,现有技术中会牺牲掉分辨率,这种做法得到的渲染图并不能满足用户的需求。
现有技术中,可以通过插值来提升图像效果,如申请公布号CN106204701A的专利申请公开的一种基于光探针插值动态计算间接反射高光的渲染方法,再如申请公布号为CN106384378A的专利申请公开的一种基于GPU的广义mipmap插值实时景深渲染方法,但是这两种均是传统的插值算法,计算量仍然比较大,渲染成本高。
视频插帧算法是指根据视频帧信息来做插帧算法,用来提升视频的连续性,但是目前没有和渲染相结合的视频插帧技术来提升效率降低渲染成本。
发明内容
鉴于上述,本发明的目的是提供一种基于深度学习的视频渲染方法、装置、计算机设备以及存储介质,降低渲染成本的同时,显著提升渲染速度。
第一方面,本发明实施例提供了一种基于深度学习的视频渲染方法,包括以下步骤:
从视频渲染过程中获得视频帧和对应的运动矢量,所述运动矢量包括当前视频帧相对前一帧的前运动矢量和相对后一帧的后运动矢量;
利用基于可变形卷积神经网络构建的视频帧生成模型基于输入的插值帧的运动矢量和相邻前后两视频帧生成插值帧;
将视频帧和插值帧按照时间序列排序合成最终渲染视频。
在一种实施方式中,前后相邻两视频帧之间的插值帧的运动矢量通过以下方式获得:
首先,对前视频帧的后运动矢量做插值运算,得到插值帧的运动矢量,然后,根据前视频帧的运动矢量和后视频帧的运动矢量,得到插值帧的前运动矢量和后运动矢量。
在另外一种实施方式中,所述视频渲染方法还包括;利用基于卷积神经网络构建的矫正模型对插值帧的运动矢量进行矫正,得到矫正后的运动矢量;
所述视频帧生成模型基于矫正后的运动矢量和相邻前后两视频帧生成插值帧。
在另外一种实施方式中,利用矫正模型对插值帧的运动矢量进行矫正时,将相邻前后两视频帧和插值帧的运动矢量输入至矫正模型,经过计算后输出矫正后的运动矢量。
在另外一种实施方式中,视频帧生成模型和矫正模型构建过程为:
从视频渲染器中获得帧率大于设定阈值的视频帧序列和每个视频帧对应的运动矢量,以连续三个视频帧和对应的运动矢量作为一个样本,其中,中间视频帧为标签帧,剩下两个视频帧为输入数据;
利用样本对可变形卷积神经网络进行训练以优化网络参数,训练结束后,确定的网络参数与可变形卷积神经网络结构组成视频帧生成模型;
利用样本对卷积神经网络进行训练以优化网络参数,训练结束后,确定的网络参数与卷积神经网络结构组成矫正模型。
第二方面,本发明实施例提供了一种基于深度学习的视频渲染装置,包括:
获取模块,用于从视频渲染过程中获得视频帧和对应的运动矢量,所述运动矢量包括当前视频帧相对前一帧的前运动矢量和相对后一帧的后运动矢量;
插值帧生成模块,用于利用基于可变形卷积神经网络构建的视频帧生成模型基于输入的插值帧的运动矢量和相邻前后两视频帧生成插值帧;
合成模块,用于将视频帧和插值帧按照时间序列排序合成最终渲染视频。
在一种实施方式中,所述装置还包括:
插值帧的运动矢量计算模块,用于对对前视频帧的后运动矢量做插值运算,得到插值帧的前运动矢量;还用于对后视频帧的前运动矢量做插值运算,得到插值帧的后运动矢量。
在另外一种实施方式中,所述装置还包括:
运动矢量矫正模块,利用基于卷积神经网络构建的矫正模型对插值帧的运动矢量进行矫正,得到矫正后的运动矢量。
第三方面,本发明实施例提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上执行的计算机程序,所述存储器中存储有视频帧生成模型和矫正模型,所述处理器执行所述计算机程序时实现第一方面提供的基于深度学习的视频渲染方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理执行时实现第一方面提供的基于深度学习的视频渲染方法的步骤。
与现有技术相比,本发明具有的有益效果至少包括:
本发明实施例提供的基于深度学习的视频渲染方法、装置、计算机设备以及存储介质,从视频渲染过程中直接获得视频帧和运动矢量,保证了运动矢量的真实性,同时利用基于可变形卷积神经网络构建的视频帧生成模型根据插值帧的运动矢量和相邻前后两视频帧生成插值帧,模型一次构建多次应用,大大降低了计算成本,同时深度学习的计算高效性和准确性也大大提升了插值帧的计算速度和计算精度,最后将视频帧和插值帧按照时间序列排序合成最终渲染视频,提升了整体视频渲染的效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动前提下,还可以根据这些附图获得其他附图。
图1是本发明一实施例提供的基于深度学习的视频渲染方法的流程图;
图2是本发明一实施例提供的利用视频帧生成模型生成插值帧的示意图;
图3是本发明一实施例提供的运动矢量矫正过程的示意图;
图4是本发明一实施例提供的基于深度学习的视频渲染装置的结构示意图;
图5是本发明另一实施例提供的基于深度学习的视频渲染装置的结构示意图;
图6是本发明一实施例提供的基于深度学习的视频渲染装置的结构示意图;
图7是本发明一实施例提供的计算机设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
为了降低视频渲染成本,在保证渲染质量的同时提升渲染速度,本发明实施例提供了一种基于深度学习的高效视频渲染系统、装置、计算机设备以及存储介质。下面针对每部分详细说明。
实施例1
图1是本发明一实施例提供的基于深度学习的视频渲染方法的流程图。如图1所示,实施例1提供了一种基于深度学习的视频渲染方法,包括以下步骤:
S101,从视频渲染过程中获得视频帧和对应的运动矢量,所述运动矢量包括当前视频帧相对前一帧的前运动矢量和相对后一帧的后运动矢量。
视频渲染器可以对三维模型进行光线追踪渲染,得到视频帧序列,也就是视频。视频渲染器在渲染过程中,在输出视频帧的同时,还能够根据渲染时相机位置和三维模型计算获得每个视频帧的运动矢量,对于当前时刻t的视频帧pt,获得的运动矢量St包括获得相对于t-1时刻视频帧的前运动矢量St-St-1,还包括相对于t+1时刻视频帧的后运动矢量St+1-St。前运动矢量和后运动矢量均是从视频渲染器中获得的三维模型的真实运动数据,因此可以保证运动矢量的真实性和准确性,为后续生成插值帧提供了稳定的数据基础,以使得基于运动矢量生成的插值帧质量更好,真实感更强。
S102,利用基于可变形卷积神经网络构建的视频帧生成模型基于输入的插值帧的运动矢量和相邻前后两视频帧生成插值帧。
卷积神经网络具有很强的学习和映射能力,但是标准卷积中的规则格点采样是导致网络难以适应几何形变的主要原因。为了削弱这个限制,通过对卷积核中每个采样点的位置都增加了一个偏移的变量。通过这些变量,卷积核就可以在当前位置附近随意的采样,而不再局限于之前的规则格点。这样扩展后的卷积操作被称为可变形卷积,由此组成的网络为可变性卷积神经网络。相比于卷积神经网络,可变性卷积神经网络不需要任何额外的监督信号,可以直接通过目标任务学习得到,具有更强的学习能力和适应性,在增加了很少的模型复杂度和计算量的同时,显著提高了识别精度。
基于可变卷积神经网络的优点,本实施例采用可变形卷积神经网络作为基础网络来构建视频帧生成模型,具体过程可以为:
构建样本集,样本集可以从较大帧率的视频渲染器输出的视频帧序列得到,即设定满足需求的帧率阈值,从获得帧率大于设定帧率阈值的视频帧序列,同时获得视频帧对应的运动矢量,该运动矢量同样包括前运动矢量和后运动矢量。然后以连续三个视频帧和对应的运动矢量作为一个样本,其中,中间视频帧为标签帧,剩下两个视频帧为输入数据。
优化可变形卷积神经网络模型参数,将每个样本作为可变形卷积神经网络的输入,利用样本对可变形卷积神经网络进行训练以优化网络参数,训练结束后,确定的网络参数与可变形卷积神经网络结构组成视频帧生成模型。
在一种实施方式中,前后相邻两视频帧之间的插值帧的运动矢量通过以下方式获得:首先,对前视频帧的后运动矢量做插值运算,得到插值帧的运动矢量,然后,根据前视频帧的运动矢量和后视频帧的运动矢量,得到插值帧的前运动矢量和后运动矢量。
举例说明,前视频帧运动矢量表示为St,后视频帧运动矢量表示为St+1,前视频帧的后运动矢量表示为St+1-St,则对后运动矢量St+1-St进行中间线性插值运算,得到插值帧的运动矢量表示为St+0.5,则插值帧的前运动矢量St+0.5-St和后运动矢量St+1-St+0.5。
生成插值帧时,将插值帧的前运动矢量St+0.5-St、后运动矢量St+1-St+0.5、前视频帧pt和后视频帧pt+1同时输入至视频帧生成模型中,经计算得到插值帧pt+0.5。
实施例中,在获得插值帧的基础上,可以将插值帧作为当前后视频帧,在当前后视频帧和前视频帧之间再生成插值帧,当然也可以将插值帧作为当前的前视频帧,在当前的前视频帧和后视频帧之间再生成插值帧,具体生成方法与上述步骤2所述方法相同。
如图2所示,利用视频帧生成模型生成插值帧时,将前后两视频帧通道拼接后输入至视频帧生成模型,同时将插值计算得到的插值帧的前后运动矢量也输入至视频帧生成模型中,经过计算生成插值帧图像。
由于运动矢量不需要进行光线追踪计算,可以以非常低的成本快速生成视频渲染器中的运动矢量,但是生成的运动矢量有时候会存在以下两个问题:(a)存在亚像素误差,对亚像素取整会导致中间帧变模糊;(b)无法计算玻璃后的运动矢量和镜子发射里的运动矢量。为了解决这两个问题,实施例中还需要对运动矢量进行矫正。
在另一个可能的实施方式中,利用基于卷积神经网络构建的矫正模型对插值帧的运动矢量进行矫正,得到矫正后的运动矢量。如图3所示,具体过程为:将相邻前后两视频帧和插值帧的前运动矢量和后运动矢量输入至矫正模型,经过计算后输出矫正后的前运动矢量和后运动矢量,然后将矫正后的前后运动矢量输入至视频帧生成模型,视频帧生成模型基于矫正后的前后运动矢量和相邻前后两视频帧生成插值帧。
实施例中,基于神经网络构建矫正模型,具体过程为:
构建样本集,同样从视频渲染过程中获得帧率大于设定帧率阈值的视频帧序列,同时获得视频帧对应的前运动矢量和后运动矢量。然后以连续三个视频帧和对应的运动矢量作为一个样本,其中,中间视频帧的真实前后运动矢量为标签帧,剩下两个视频帧和通过前后视频帧的运动矢量插值得到的计算前后运动矢量作为输入数据;
优化卷积神经网络模型参数,将每个样本作为卷积神经网络的输入,利用样本对卷积神经网络进行训练以优化网络参数,训练结束后,确定的网络参数与卷积神经网络结构组成矫正模型。
S103,将视频帧和插值帧按照时间序列排序合成最终渲染视频。
在获得视频帧和插值帧后,将视频帧和插值帧按照时间序列集合成渲染视频。
实施例1提供的基于深度学习的视频渲染方法,从视频渲染过程中直接获得视频帧和运动矢量,保证了运动矢量的真实性,同时对运动矢量进行矫正,进一步提升了运动矢量的准确性。还利用视频帧生成模型根据插值帧的运动矢量和相邻前后两视频帧生成插值帧,模型一次构建多次应用,大大降低了计算成本,同时深度学习的计算高效性和准确性也大大提升了插值帧的计算速度和计算精度,最后将视频帧和插值帧按照时间序列排序合成最终渲染视频,提升了整体视频渲染的效率。
实施例2
图4是本发明一实施例提供的基于深度学习的视频渲染装置的结构示意图。如图4所示,实施例提供的基于深度学习的视频渲染装置400包括:
获取模块401,用于从视频渲染过程中获得视频帧和对应的运动矢量,所述运动矢量包括当前视频帧相对前一帧的前运动矢量和相对后一帧的后运动矢量;
插值帧生成模块402,用于利用基于可变形卷积神经网络构建的视频帧生成模型基于输入的插值帧的运动矢量和相邻前后两视频帧生成插值帧;
合成模块403,用于将视频帧和插值帧按照时间序列排序合成最终渲染视频。
在一种实施方式中,如图5所示,装置400还包括:
插值帧的运动矢量计算模块501,用于对对前视频帧的后运动矢量做插值运算,得到插值帧的前运动矢量;还用于对后视频帧的前运动矢量做插值运算,得到插值帧的后运动矢量。
在另外一种实施方式中,如图6所示,装置400还包括:
运动矢量矫正模块601,利用基于卷积神经网络构建的矫正模型对插值帧的运动矢量进行矫正,得到矫正后的运动矢量。
需要说明的是,实施例2提供的基于深度学习的视频渲染装置在进行视频帧插值渲染时,应以上述各功能模块的划分进行举例说明,可以根据需要将上述功能分配由不同的功能模块完成,即在终端或服务器的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,实施例2提供的基于深度学习的视频渲染装置与基于深度学习的视频渲染方法实施例属于同一构思,其具体实现过程详见基于深度学习的视频渲染方法实施例,这里不再赘述。
实施例2提供的基于深度学习的视频渲染装置,从视频渲染过程中直接获得视频帧和运动矢量,保证了运动矢量的真实性,同时对运动矢量进行矫正,进一步提升了运动矢量的准确性。还利用视频帧生成模型根据插值帧的运动矢量和相邻前后两视频帧生成插值帧,模型一次构建多次应用,大大降低了计算成本,同时深度学习的计算高效性和准确性也大大提升了插值帧的计算速度和计算精度,最后将视频帧和插值帧按照时间序列排序合成最终渲染视频,提升了整体视频渲染的效率。
实施例3
实施例3提供了计算机设备,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种图像展示方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施方式中,提供了一种计算机设备,包括存储器、处理器以及存储在机存储器中并可在处理器上执行的计算机程序,存储器中存储有视频帧生成模型和矫正模型,处理器执行计算机程序时实现权利实施例1所述的基于深度学习的视频渲染方法的步骤,即实现如下步骤:
从视频渲染过程中获得视频帧和对应的运动矢量,所述运动矢量包括当前视频帧相对前一帧的前运动矢量和相对后一帧的后运动矢量;利用基于可变形卷积神经网络构建的视频帧生成模型基于输入的插值帧的运动矢量和相邻前后两视频帧生成插值帧;将视频帧和插值帧按照时间序列排序合成最终渲染视频。
在一个实施方式中,处理器执行计算机程序时还实现如下步骤:
对前视频帧的后运动矢量做插值运算,得到插值帧的运动矢量;根据前视频帧的运动矢量和后视频帧的运动矢量,得到插值帧的前运动矢量和后运动矢量。
在一个实施方式中,处理器执行计算机程序时还实现如下步骤:利用基于卷积神经网络构建的矫正模型对插值帧的运动矢量进行矫正,得到矫正后的运动矢量;所述视频帧生成模型基于矫正后的运动矢量和相邻前后两视频帧生成插值帧。
实施例4
实施例4还提供了一种计算机可读存储介质,例如包括至少一条指令的存储器,上述至少一条指令可由终端中的处理器执行以完成实施例1中基于深度学习的视频渲染方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于深度学习的视频渲染方法,其特征在于,包括以下步骤:
从视频渲染过程中获得视频帧和对应的运动矢量,所述运动矢量包括当前视频帧相对前一帧的前运动矢量和相对后一帧的后运动矢量;
利用基于卷积神经网络构建的矫正模型对插值帧的运动矢量进行矫正,得到矫正后的运动矢量,其中,利用矫正模型对插值帧的运动矢量进行矫正时,将相邻前后两视频帧和插值帧的运动矢量输入至矫正模型,经过计算后输出矫正后的运动矢量;
利用基于可变形卷积神经网络构建的视频帧生成模型基于输入的插值帧的矫正后的运动矢量和相邻前后两视频帧生成插值帧;
将视频帧和插值帧按照时间序列排序合成最终渲染视频;
视频帧生成模型的构建过程为:
从视频渲染器中获得帧率大于设定阈值的视频帧序列和每个视频帧对应的运动矢量,以连续三个视频帧和对应的运动矢量作为一个样本,其中,中间视频帧为标签帧,剩下两个视频帧为输入数据;利用样本对可变形卷积神经网络进行训练以优化网络参数,训练结束后,确定的网络参数与可变形卷积神经网络结构组成视频帧生成模型。
2.如权利要求1所述的基于深度学习的视频渲染方法,其特征在于,前后相邻两视频帧之间的插值帧的运动矢量通过以下方式获得:
首先,对前视频帧的后运动矢量做插值运算,得到插值帧的运动矢量,然后,根据前视频帧的运动矢量和后视频帧的运动矢量,得到插值帧的前运动矢量和后运动矢量。
3.如权利要求1所述的基于深度学习的视频渲染方法,其特征在于,矫正模型构建过程为:
利用样本对卷积神经网络进行训练以优化网络参数,训练结束后,确定的网络参数与卷积神经网络结构组成矫正模型。
4.一种基于深度学习的视频渲染装置,其特征在于,包括:
获取模块,用于从视频渲染过程中获得视频帧和对应的运动矢量,所述运动矢量包括当前视频帧相对前一帧的前运动矢量和相对后一帧的后运动矢量;
插值帧的运动矢量计算模块,用于对对前视频帧的后运动矢量做插值运算,得到插值帧的前运动矢量;还用于对后视频帧的前运动矢量做插值运算,得到插值帧的后运动矢量;
运动矢量矫正模块,利用基于卷积神经网络构建的矫正模型对插值帧的运动矢量进行矫正,得到矫正后的运动矢量;
插值帧生成模块,用于利用基于可变形卷积神经网络构建的视频帧生成模型基于输入的插值帧的矫正后的运动矢量和相邻前后两视频帧生成插值帧;
合成模块,用于将视频帧和插值帧按照时间序列排序合成最终渲染视频;
视频帧生成模型的构建过程为:
从视频渲染器中获得帧率大于设定阈值的视频帧序列和每个视频帧对应的运动矢量,以连续三个视频帧和对应的运动矢量作为一个样本,其中,中间视频帧为标签帧,剩下两个视频帧为输入数据;利用样本对可变形卷积神经网络进行训练以优化网络参数,训练结束后,确定的网络参数与可变形卷积神经网络结构组成视频帧生成模型。
5.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上执行的计算机程序,其特征在于,所述存储器中存储有视频帧生成模型和矫正模型,所述处理器执行所述计算机程序时实现权利要求1~3任一项所述的基于深度学习的视频渲染方法的步骤。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理执行时实现权利要求1~3任一项所述的基于深度学习的视频渲染方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011538828.4A CN112700516B (zh) | 2020-12-23 | 2020-12-23 | 基于深度学习的视频渲染方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011538828.4A CN112700516B (zh) | 2020-12-23 | 2020-12-23 | 基于深度学习的视频渲染方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112700516A CN112700516A (zh) | 2021-04-23 |
CN112700516B true CN112700516B (zh) | 2023-12-01 |
Family
ID=75509378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011538828.4A Active CN112700516B (zh) | 2020-12-23 | 2020-12-23 | 基于深度学习的视频渲染方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112700516B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113269086A (zh) * | 2021-05-24 | 2021-08-17 | 苏州睿东科技开发有限公司 | 一种vlog剪辑方法和剪辑系统 |
CN115174995A (zh) * | 2022-07-04 | 2022-10-11 | 北京国盛华兴科技有限公司 | 一种视频数据的插帧方法及装置 |
CN116761018B (zh) * | 2023-08-18 | 2023-10-17 | 湖南马栏山视频先进技术研究院有限公司 | 一种基于云平台的实时渲染系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016187776A1 (zh) * | 2015-05-25 | 2016-12-01 | 北京大学深圳研究生院 | 一种基于光流法的视频插帧方法及系统 |
CN106791279A (zh) * | 2016-12-30 | 2017-05-31 | 中国科学院自动化研究所 | 基于遮挡检测的运动补偿方法及系统 |
CN109672886A (zh) * | 2019-01-11 | 2019-04-23 | 京东方科技集团股份有限公司 | 一种图像帧预测方法、装置及头显设备 |
CN111696039A (zh) * | 2020-05-28 | 2020-09-22 | Oppo广东移动通信有限公司 | 图像处理方法及装置、存储介质和电子设备 |
CN111741303A (zh) * | 2020-06-09 | 2020-10-02 | Oppo广东移动通信有限公司 | 深度视频处理方法、装置、存储介质与电子设备 |
CN111798552A (zh) * | 2020-07-07 | 2020-10-20 | 中国科学院计算机网络信息中心 | 时序动画的处理方法和装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101493325B1 (ko) * | 2008-09-03 | 2015-02-16 | 삼성전자주식회사 | 정밀 움직임 예측을 기반으로 한 프레임 보간 장치 및 그 방법 |
US8872895B2 (en) * | 2011-09-30 | 2014-10-28 | Deutsche Telekom Ag | Real-time video coding using graphics rendering contexts |
US10491856B2 (en) * | 2018-03-15 | 2019-11-26 | Disney Enterprises, Inc. | Video frame interpolation using a convolutional neural network |
US11676278B2 (en) * | 2019-09-26 | 2023-06-13 | Intel Corporation | Deep learning for dense semantic segmentation in video with automated interactivity and improved temporal coherence |
-
2020
- 2020-12-23 CN CN202011538828.4A patent/CN112700516B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016187776A1 (zh) * | 2015-05-25 | 2016-12-01 | 北京大学深圳研究生院 | 一种基于光流法的视频插帧方法及系统 |
CN106791279A (zh) * | 2016-12-30 | 2017-05-31 | 中国科学院自动化研究所 | 基于遮挡检测的运动补偿方法及系统 |
CN109672886A (zh) * | 2019-01-11 | 2019-04-23 | 京东方科技集团股份有限公司 | 一种图像帧预测方法、装置及头显设备 |
CN111696039A (zh) * | 2020-05-28 | 2020-09-22 | Oppo广东移动通信有限公司 | 图像处理方法及装置、存储介质和电子设备 |
CN111741303A (zh) * | 2020-06-09 | 2020-10-02 | Oppo广东移动通信有限公司 | 深度视频处理方法、装置、存储介质与电子设备 |
CN111798552A (zh) * | 2020-07-07 | 2020-10-20 | 中国科学院计算机网络信息中心 | 时序动画的处理方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112700516A (zh) | 2021-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112700516B (zh) | 基于深度学习的视频渲染方法和装置 | |
CN111968235B (zh) | 一种物体姿态估计方法、装置、系统和计算机设备 | |
CN111386550A (zh) | 图像深度和自我运动预测神经网络的无监督学习 | |
JP2021100247A (ja) | 歪んだドキュメント画像の矯正方法及び装置 | |
CN110751708A (zh) | 一种实时的语音驱动人脸动画的方法和系统 | |
WO2022179385A1 (zh) | 一种三维重建方法、装置、系统以及存储介质 | |
WO2018113224A1 (zh) | 一种图像缩小方法及装置 | |
WO2024045442A1 (zh) | 图像矫正模型的训练方法、图像矫正方法、设备及存储介质 | |
CN112883806B (zh) | 基于神经网络的视频风格迁移方法、装置、计算机设备和存储介质 | |
CN113838138B (zh) | 一种优化特征提取的系统标定方法、系统、装置和介质 | |
CN112233012A (zh) | 一种人脸生成系统及方法 | |
CN113706583B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
Sun et al. | Continuously controllable facial expression editing in talking face videos | |
CN116310146B (zh) | 人脸图像重演方法、系统、电子设备、存储介质 | |
US11170550B2 (en) | Facial animation retargeting using an anatomical local model | |
JP2010515131A (ja) | ベクトルグラフィックをラスター化するプロセスにおいて境界を発生させるための方法およびシステム、ならびに、システムを製造するための方法 | |
KR20130057327A (ko) | 스테레오 매칭 시스템의 전처리 장치 | |
JP2021022922A (ja) | ローリングシャッター現象の補正方法、装置、及びコンピュータが読み取り可能な記録媒体 | |
CN116630501A (zh) | 一种说话人视频生成方法 | |
CN107977923B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN114885144B (zh) | 基于数据融合的高帧率3d视频生成方法及装置 | |
KR20130057328A (ko) | 스테레오 매칭 시스템의 전처리 장치 | |
CN115880149A (zh) | 基于轻量化驱动和三尺度编码的视频帧插值方法及系统 | |
CN113538639B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN115410133A (zh) | 视频密集预测方法及其装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |