CN112969007B - 一种面向虚拟三维背景的视频后期制作方法 - Google Patents

一种面向虚拟三维背景的视频后期制作方法 Download PDF

Info

Publication number
CN112969007B
CN112969007B CN202110141933.2A CN202110141933A CN112969007B CN 112969007 B CN112969007 B CN 112969007B CN 202110141933 A CN202110141933 A CN 202110141933A CN 112969007 B CN112969007 B CN 112969007B
Authority
CN
China
Prior art keywords
video
background
image
style
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110141933.2A
Other languages
English (en)
Other versions
CN112969007A (zh
Inventor
王斌
尹泓霁
李晓静
杨晓春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN202110141933.2A priority Critical patent/CN112969007B/zh
Publication of CN112969007A publication Critical patent/CN112969007A/zh
Application granted granted Critical
Publication of CN112969007B publication Critical patent/CN112969007B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种面向虚拟三维背景的视频后期制作方法,属于视频制作技术领域。包括:录制前景视频和背景视频,且在录制背景视频前参照目标风格视频,利用Unity3D构建所需的初始三维背景模型;对背景视频进行风格迁移处理,得到所需风格的背景视频,称为风格化背景视频;对前景视频抠像,得到对应的掩膜视频;根据掩膜视频,将前景视频和风格化背景视频进行合成,得到初始的合成视频;对初始的合成视频进行和谐化处理,得到所需的合成视频。该方法可简化三维场景创建的步骤,但仍能有效地制作出高质量的背景图像,减少制作成本,降低技术要求,满足低成本团队和普通用户的需求。

Description

一种面向虚拟三维背景的视频后期制作方法
技术领域
本发明属于视频制作技术领域,具体涉及一种面向虚拟三维背景的视频后期制作方法。
背景技术
影视行业是我国宣传思想文化的重要阵地之一,也是一个热门产业。影视制作的应用范围十分广阔,除了专业影视制作外,电脑游戏、多媒体、网络、家庭娱乐等领域无不与影视制作密切相关。群众对具有高质量、创新性的影视作品更感兴趣。然而“高成本、大制作”不是普通用户和每个团队都能具备的,这样使很多具有创新性但不具备“高成本”条件的影视作品被群众忽略。因此,“低成本、精制作”的影视作品才更有竞争力。
影视制作最初是由实景拍摄,而现如今先在蓝(绿)幕下拍摄再进行后期制作的方法得到了普遍应用。在用蓝(绿)幕拍摄的阶段,幕前会简单进行必要的布景,拍摄的同时要考虑前景中的主光源要和待合成的背景中的主光源相匹配。如果蓝(绿)幕背景之后会被有强光的背景取代,那么拍摄时的主光源不仅要和背景主光源的方向匹配,也要和色温及强度匹配,因此要进行相应的打光处理。在前期拍摄完成后,后期对前景视频抠像再加入三维背景得到最终的视频。三维背景模型的制作过程大致分为五个阶段:三维建模、贴图制作、灯光、动画和渲染。整个流程十分繁琐,制作周期长,并且需要专业建模师、特效师使用专业软件例如Softimage 3D、Lightscape、3D Studio MAX等来完成。由于影视后期制作的流程繁琐,对制作人员的技术要求也很高,普通的影视爱好者在没有专业团队以及足够资金的情况下是很难制作出高质量作品的。
发明内容
在现有的影视制作过程中,存在着制作成本及技术要求高、流程繁琐、制作周期长及普适性低等问题。为解决上述问题,本发明提供一种面向虚拟三维背景的视频后期制作方法。该方法将简化三维场景创建的步骤,但仍能有效地制作出高质量的背景图像,减少制作成本,降低技术要求,满足低成本团队和普通用户的需求。
本发明的技术方案是:
一种面向虚拟三维背景的视频后期制作方法,包括录制前景视频和背景视频的步骤,还包括如下步骤:
对背景视频进行风格迁移处理,得到所需风格的背景视频,称为风格化背景视频;
对前景视频抠像,得到对应的掩膜视频;
根据掩膜视频,将前景视频和风格化背景视频进行合成,得到初始的合成视频;
对初始的合成视频进行和谐化处理,得到所需的合成视频。
进一步地,根据所述的面向虚拟三维背景的视频后期制作方法,所述录制前景视频和背景视频的步骤具体包括如下步骤:
根据实际需要获取所需的目标风格视频;
参照目标风格视频,利用Unity3D构建所需的初始三维背景模型;
预设摄像机的移动轨迹和三维背景模型中的虚拟相机的移动轨迹,且虚拟相机的移动轨迹需与摄像机的移动轨迹保持一致,然后按照摄像机的移动轨迹录制前景视频以及按照虚拟相机的移动轨迹录制背景视频。
进一步地,根据所述的面向虚拟三维背景的视频后期制作方法,所述对背景视频进行风格迁移处理得到风格化背景视频的方法为:
创建图像风格迁移模型;
利用背景视频和目标风格视频对图像风格迁移模型进行训练;
将背景视频输入到训练完成的图像风格迁移模型中,得到所需风格的背景视频,称为风格化背景视频。
进一步地,根据所述的面向虚拟三维背景的视频后期制作方法,所述创建图像风格迁移模型的方法为:
在现有图像风格迁移模型的损失函数基础之上增加如公式(1)所示的风格损失函数和如公式(2)所示的内容损失函数,风格损失函数用于保证生成图像和目标风格图像的风格一致,内容损失函数用于保证生成图像和原图像之间内容一致;
Figure BDA0002929274990000021
Figure BDA0002929274990000022
其中,Lstyle是风格损失;Lcontent是内容损失;S是风格分类器,其能够将三维背景模型中的景物准确分类并对应给出0~1之间的可信度分数;C是内容分类器,其能够准确识别某张图像的风格并对应给出0~1之间的可信度分数;T是图像风格迁移模型;x~Pdata(X)代表的是视频帧x来自背景视频X;y~Pdata(Y)表示视频帧y来自目标风格视频Y;‖ ‖1是L1范数;E是期望。
进一步地,根据所述的面向虚拟三维背景的视频后期制作方法,使用Pytorch实现基于VGG19的内容分类器和风格分类器来计算内容损失和风格损失。
进一步地,根据所述的面向虚拟三维背景的视频后期制作方法,对初始的合成视频进行和谐化处理的方法为:
创建图像和谐化模型;
训练图像和谐化模型;
将初始的合成视频和掩膜视频输入到训练后的图像和谐化模型,对合成视频进行和谐化处理,得到所需的合成视频,称为和谐化视频。
进一步地,根据所述的面向虚拟三维背景的视频后期制作方法,所述创建图像和谐化模型的方法为:
对现有图像和谐化模型增加人类语义限制,即设置人体肤色像素阈值,用于规范视频中的人体肤色。
进一步地,根据所述的面向虚拟三维背景的视频后期制作方法,获取人类语义限制的具体方法为:对现有的图像和谐化数据集中带有人类的数据进行分类,统计不同情况下人体肤色的像素范围,根据不同情况下的统计结果分别为各种情况下的人体肤色设置人体肤色像素阈值。
进一步地,根据所述的面向虚拟三维背景的视频后期制作方法,所述训练图像和谐化模型的方法为:利用现有的图像和谐化据集的数据对所述图像和谐化模型进行训练。
进一步地,根据所述的面向虚拟三维背景的视频后期制作方法,所述现有的图像和谐化据集为图像和谐化数据库iHarmony4。
与现有技术相比,本发明的面向虚拟三维背景的视频后期制作方法具有如下有益效果:可以为预算低但对虚拟三维背景有需求的视频制作者提供成功的可能性。使用图像风格迁移技术代替三维建模的贴图制作、灯光、渲染步骤,可以减少制作周期、降低技术要求。使用图像和谐化技术代替拍摄过程中打光处理,减少人工成本。相比于现有的影视后期制作流程,即使没有专业建模师和打光人员,也可以在更快的时间内完成质量较高的视频作品。
附图说明
图1为本发明面向虚拟三维背景的视频后期制作方法流程图;
图2为本发明方法中视频风格迁移流程图;
图3为本发明方法的图像风格迁移示例图,其中图(a)是风格迁移前的图像,图(b)是风格迁移后的图像;
图4为本发明方法的抠像示例图,其中图(a)是拍摄的前景图像,图(b)是对(a)抠像得到的掩膜图像;
图5为本发明方法的视频和谐化流程图;
图6为本发明方法的图像和谐化示例图,其中图(a)是和谐化前的图像,图(b)是和谐化后的图像。
具体实施方式
为了便于理解本申请,下面将参照相关附图对本申请进行更全面的描述。下面给出了本申请的较佳实施方式。但是,本申请可以以许多不同的形式来实现,并不限于本文所描述的实施方式。相反地,提供这些实施方式的目的是使对本申请的公开内容理解的更加透彻全面。
本实施方式的面向虚拟三维背景的视频后期制作方法,如图1所示,包括:
步骤S1:录制前景视频和背景视频。具体包括以下步骤:
步骤S1.1:获取所需的目标风格视频。
本实施方式中,制作人员根据实际需要,可以通过网上下载或者自行拍摄等渠道获得所需的目标风格视频。例如,制作人员根据实际需要,从网上下载电影《阿凡达》的视频片段作为目标风格视频。
步骤S1.2:参照目标风格视频,利用Unity3D构建所需的初始三维背景模型。
例如,参照目标风格视频——《阿凡达》的视频片段,从Unity3D提供的资源包中挑选与视频片段中景物相似的地形及花草树木等模型构建出所需的初始的三维背景模型。Unity3D是由Unity Technologies公司开发的一个让玩家轻松创建诸如三维视频游戏、建筑可视化、实时三维动画等类型互动内容的多平台的综合型游戏开发工具。Unity3D提供很多免费的资源包,可支持多种主流媒体资源格式,包括模型、材质、动画等,为开发者提供了相当大的便利。这些资源包提供的三维模型基本可以满足各种常用场景的需求。可以使用合适的资源包帮助创建想要的三维场景,这样就极大程度地减小了三维场景创建的复杂程度。
步骤S1.3:预设摄像机的移动轨迹和三维背景模型中的虚拟相机的移动轨迹,且虚拟相机的移动轨迹需与摄像机的移动轨迹保持一致,然后按照摄像机的移动轨迹在蓝(绿)幕下录制前景视频以及按照虚拟相机的移动轨迹录制背景视频。
例如,在蓝(绿)幕前做必要的布景,按剧本需求设定机位调度并拍摄前景视频。根据实际的机位调度在Unity3D中控制三维场景的相机视角,录制背景视频。同时录制前景视频和背景视频,或者不同时录制前景视频和背景视频,两种均可,优选同时录制前景视频和背景视频。
步骤S2:对背景视频进行风格迁移处理,得到所需风格的背景视频,称为风格化背景视频;
步骤S2.1:创建图像风格迁移模型;
本实施方式是基于现有的域到域之间的图像风格迁移模型例如CycleGAN、GANILLA等创建本实施方式的图像风格迁移模型。现有的域到域之间的图像风格迁移模型的损失函数均由三部分组成:对抗损失,循环一致性损失,身份损失。这些模型的缺点是不能同时保证图像内容保留和风格迁移,例如,将苹果的表皮迁移为橘子风格,但迁移后苹果的形状也变成了橘子形状。
本实施方式的图像风格迁移模型是基于现有图像风格迁移模型例如GANILLA模型进行改进得到的,具体改进内容为:在现有图像风格迁移模型的损失函数基础之上增加如公式(1)所示的风格损失函数和如公式(2)所示的内容损失函数,风格损失函数用于保证生成图像和目标风格图像的风格一致,内容损失函数用于保证生成图像和原图像之间内容一致。
Figure BDA0002929274990000051
Figure BDA0002929274990000052
其中,Lstyle是风格损失;Lcontent是内容损失;S是风格分类器,其能够将三维背景模型中的景物准确分类并对应给出0~1之间的可信度分数;C是内容分类器,其能够准确识别某张图像的风格并对应给出0~1之间的可信度分数;T是本实施方式的图像风格迁移模型;x~Pdata(X)代表的是视频帧x来自背景视频X;y~Pdata(Y)表示视频帧y来自目标风格视频Y;‖ ‖1是L1范数;E是期望。
在深度学习领域存在多种模型例如VGG可用于训练分类器,优选精度尽可能高的模型例如VGG19来训练分类器。在本实施方式中使用Python机器学习库Pytorch实现基于VGG19的内容分类器和风格分类器来计算内容损失和风格损失。
步骤S2.2:利用背景视频和目标风格视频对图像风格迁移模型进行训练;
如图2所示,同时将背景视频和目标风格视频的每一视频帧输入到本实施方式创建的图像风格迁移模型中对其进行训练。例如,本实施方式中将背景视频和《阿凡达》片段的每一帧提取出来,输入到本实施方式创建的图像风格迁移模型对其进行训练,训练完成后,得到能将背景视频的风格迁移成“阿凡达风格”的图像风格迁移模型。此后若将其他背景视频输入到该模型中,均可迁移为“阿凡达风格”。
图3示出了一种绘画-现实的风格迁移效果,(a)图是风格迁移前的图像,(b)图是风格迁移后的图像,对比两幅图,可以看出图3(b)明显比图3(a)增加了很多细节纹理,更贴近现实风格。
步骤S2.3:将背景视频输入到训练完成的图像风格迁移模型中,得到所需风格的背景视频,称为风格化背景视频。
如图2所示,本步骤在执行时首先获取背景视频的每一帧图像,输入到上述训练好的图像风格迁移模型中,得到当前风格的每一帧图像,再将每一帧图像组合,还原成视频,最终得到所需的风格化背景视频。
步骤S3:对前景视频抠像,得到对应的掩膜视频。
对于前景视频的每一视频帧,将色键即蓝(绿)幕的颜色临近范围内的区域视为背景区,其他部分视为前景区,据此创建掩膜视频。例如,图4(a)是拍摄的前景图像,演员身后是蓝幕。图4(b)是对(a)抠像得到的掩膜图像,其中白色区域为前景区,黑色区域为背景区。
需要说明的是,本领域技术人员容易理解出,在具体实施过程中,步骤S3与步骤S2之间并无执行的先后顺序,本实施方式只是为了描述方便,先描述了步骤S2的内容,后描述步骤S3的内容。
步骤S4:根据掩膜视频,将前景视频和风格化背景视频进行合成,得到初始的合成视频。
本步骤具体过程是:遍历前景图像与背景图像的每一个像素,根据掩膜图像,若访问到的像素属于前景区,则将该像素赋值到合成图像的前景对应位置,同理,若访问到的像素属于背景区,则将该像素赋值到合成图像的背景对应位置。
步骤S5:对初始的合成视频进行和谐化处理,得到最终所需的合成视频;
通常的视频合成,例如,将前景视频中的蓝(绿)幕部分的像素替换为背景视频对应位置的像素,就必须在拍摄过程中打光来保证前、背景的主光源方向一致。而打光往往需要多人配合来完成,耗费人力。因此,本实施方式中对初始的合成视频加上视频和谐化处理,来调整前景与背景的光线一致问题,使最终的合成视频看起来更和谐。
步骤S5.1:创建图像和谐化模型;
本实施方式同样是基于现有的图像和谐化模型创建本实施方式的图像和谐化模型。对现有图像和谐化模型例如Dovenet模型增加人类语义限制。获取人类语义限制的具体方法为:对现有图像和谐化数据集中带有人类的数据进行分类,统计不同情况下人体肤色的像素范围,例如可按照时间、季节和天气等分类统计人体肤色的像素范围。根据统计结果,分别为各种情况下的人体肤色像素设置阈值,称为人体肤色像素阈值,用于规范和谐化后的人体肤色。由于本实施方式针对的前景是人类,因此添加人类语义限制保证人体肤色的像素范围在正常认知范围内,可避免在背景与前景色彩差异较大时生成的人类色彩出现不符合大众认知的现象,例如,背景为绿色草木,生成的人类前景颜色过于偏绿。
步骤S5.2:训练图像和谐化模型;
如图5所示,利用现有的图像和谐化据集例如iHarmony4中的数据对本实施方式创建的图像和谐化模型进行训练。训练出能实现正确和谐化功能的参数就完成了训练过程。图6示出的是图像和谐化的效果,图6(a)是和谐化前的图像,图6(b)是和谐化后的图像,对比这两幅图,可以看出图6(a)中狗的亮度区别于背景的亮度,而图6(b)看起来更自然,没有明显的亮度差异。
步骤S5.3:将初始的合成视频和掩膜视频输入到训练后的图像和谐化模型,对合成视频进行和谐化处理,得到所需的合成视频,称为和谐化视频。
如图5所示,本步骤首先获取合成视频和掩膜视频的每一帧图像,将其输入到训练好的图像和谐化模型中,得到和谐化的每一帧图像,再将每一帧图像组合,还原成视频,得到调整好光线的合成视频,即和谐化视频。
应当理解的是,本领域技术人员在本发明技术构思的启发下,在不脱离本发明内容的基础上,还可以根据上述内容作出各种改进或变换,这仍落在本发明的保护范围之内。

Claims (8)

1.一种面向虚拟三维背景的视频后期制作方法,包括录制前景视频和背景视频的步骤,
其特征在于,还包括如下步骤:
对背景视频进行风格迁移处理,得到所需风格的背景视频,称为风格化背景视频;
对前景视频抠像,得到对应的掩膜视频;
根据掩膜视频,将前景视频和风格化背景视频进行合成,得到初始的合成视频;
对初始的合成视频进行和谐化处理,得到所需的合成视频;
所述对背景视频进行风格迁移处理得到风格化背景视频的方法为:
创建图像风格迁移模型;
利用背景视频和目标风格视频对图像风格迁移模型进行训练;
将背景视频输入到训练完成的图像风格迁移模型中,得到所需风格的背景视频,称为风格化背景视频;
所述创建图像风格迁移模型的方法为:
在现有的图像风格迁移模型的损失函数基础之上增加如公式(1)所示的风格损失函数和如公式(2)所示的内容损失函数,风格损失函数用于保证生成图像和目标风格图像的风格一致,内容损失函数用于保证生成图像和原图像之间内容一致;
Figure FDA0003481387510000011
Figure FDA0003481387510000012
其中,Lstyle是风格损失;Lcontent是内容损失;S是风格分类器,其能够将三维背景模型中的景物准确分类并对应给出0~1之间的可信度分数;C是内容分类器,其能够准确识别某张图像的风格并对应给出0~1之间的可信度分数;T是图像风格迁移模型;x~Pdata(X)代表的是视频帧x来自背景视频X;y~Pdata(Y)表示视频帧y来自目标风格视频Y;|| ||1是L1范数;E是期望。
2.根据权利要求1所述的面向虚拟三维背景的视频后期制作方法,其特征在于,所述录制前景视频和背景视频的步骤具体包括如下步骤:
根据实际需要获取所需的目标风格视频;
参照目标风格视频,利用Unity3D构建所需的初始三维背景模型;
预设摄像机的移动轨迹和三维背景模型中的虚拟相机的移动轨迹,且虚拟相机的移动轨迹需与摄像机的移动轨迹保持一致,然后按照摄像机的移动轨迹录制前景视频以及按照虚拟相机的移动轨迹录制背景视频。
3.根据权利要求1所述的面向虚拟三维背景的视频后期制作方法,其特征在于,使用Pytorch实现基于VGG19的内容分类器和风格分类器来计算内容损失和风格损失。
4.根据权利要求1所述的面向虚拟三维背景的视频后期制作方法,其特征在于,对初始的合成视频进行和谐化处理的方法为:
创建图像和谐化模型;
训练图像和谐化模型;
将初始的合成视频和掩膜视频输入到训练后的图像和谐化模型,对合成视频进行和谐化处理,得到所需的合成视频,称为和谐化视频。
5.根据权利要求4所述的面向虚拟三维背景的视频后期制作方法,其特征在于,所述创建图像和谐化模型的方法为:
对现有图像和谐化模型增加人类语义限制,即设置人体肤色像素阈值,用于规范视频中的人体肤色。
6.根据权利要求5所述的面向虚拟三维背景的视频后期制作方法,其特征在于,获取人类语义限制的具体方法为:对现有的图像和谐化数据集中带有人类的数据进行分类,统计不同情况下人体肤色的像素范围,根据统计结果分别为各种情况下的人体肤色设置人体肤色像素阈值。
7.根据权利要求4所述的面向虚拟三维背景的视频后期制作方法,其特征在于,所述训练图像和谐化模型的方法为:利用现有的图像和谐化据集的数据对所述图像和谐化模型进行训练。
8.根据权利要求6或7所述的面向虚拟三维背景的视频后期制作方法,其特征在于,所述现有的图像和谐化据集为图像和谐化数据库iHarmony4。
CN202110141933.2A 2021-02-02 2021-02-02 一种面向虚拟三维背景的视频后期制作方法 Active CN112969007B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110141933.2A CN112969007B (zh) 2021-02-02 2021-02-02 一种面向虚拟三维背景的视频后期制作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110141933.2A CN112969007B (zh) 2021-02-02 2021-02-02 一种面向虚拟三维背景的视频后期制作方法

Publications (2)

Publication Number Publication Date
CN112969007A CN112969007A (zh) 2021-06-15
CN112969007B true CN112969007B (zh) 2022-04-12

Family

ID=76273287

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110141933.2A Active CN112969007B (zh) 2021-02-02 2021-02-02 一种面向虚拟三维背景的视频后期制作方法

Country Status (1)

Country Link
CN (1) CN112969007B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114173021B (zh) * 2022-02-14 2022-06-24 中国传媒大学 基于高清多屏的虚拟演播方法、系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107171932A (zh) * 2017-04-27 2017-09-15 腾讯科技(深圳)有限公司 一种图片风格转换方法、装置及系统
CN107633228A (zh) * 2017-09-20 2018-01-26 北京奇虎科技有限公司 视频数据处理方法及装置、计算设备
CN109166135A (zh) * 2018-10-17 2019-01-08 东北大学 一种基于hsv颜色空间与色度键的蓝屏抠像方法
CN110084741A (zh) * 2019-04-26 2019-08-02 衡阳师范学院 基于显著性检测和深度卷积神经网络的图像风络迁移方法
CN110598781A (zh) * 2019-09-05 2019-12-20 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备及存储介质
CN110798634A (zh) * 2019-11-28 2020-02-14 东北大学 图像自适应合成方法、装置及计算机可读存储介质
CN111970453A (zh) * 2020-09-01 2020-11-20 太仓中科信息技术研究院 一种用于摄像机器人的虚拟拍摄系统及方法
CN112003999A (zh) * 2020-09-15 2020-11-27 东北大学 基于Unity 3D的三维虚拟现实合成算法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107171932A (zh) * 2017-04-27 2017-09-15 腾讯科技(深圳)有限公司 一种图片风格转换方法、装置及系统
CN107633228A (zh) * 2017-09-20 2018-01-26 北京奇虎科技有限公司 视频数据处理方法及装置、计算设备
CN109166135A (zh) * 2018-10-17 2019-01-08 东北大学 一种基于hsv颜色空间与色度键的蓝屏抠像方法
CN110084741A (zh) * 2019-04-26 2019-08-02 衡阳师范学院 基于显著性检测和深度卷积神经网络的图像风络迁移方法
CN110598781A (zh) * 2019-09-05 2019-12-20 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备及存储介质
CN110798634A (zh) * 2019-11-28 2020-02-14 东北大学 图像自适应合成方法、装置及计算机可读存储介质
CN111970453A (zh) * 2020-09-01 2020-11-20 太仓中科信息技术研究院 一种用于摄像机器人的虚拟拍摄系统及方法
CN112003999A (zh) * 2020-09-15 2020-11-27 东北大学 基于Unity 3D的三维虚拟现实合成算法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
《DoveNet: Deep Image Harmonization via Domain Verification》;Wenyan Cong 等;《2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;20200805;1-26 *
《Unity3D虚拟现实场景分析与设计》;宋传磊 等;《中国市场》;20170705(第18期);84-85 *
《Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks》;Jun-Yan Zhu 等;《2017 IEEE International Conference on Computer Vision (ICCV)》;20171225;1-10 *
《基于标准肤色的人脸图像纹理合成与三维重建应用》;阳策 等;《计算机系统应用》;20190603;第28卷(第5期);28-34 *

Also Published As

Publication number Publication date
CN112969007A (zh) 2021-06-15

Similar Documents

Publication Publication Date Title
US11270476B2 (en) Method and system for providing photorealistic changes for digital image
CN106713988A (zh) 一种对虚拟场景直播进行美颜处理的方法及系统
US20090046097A1 (en) Method of making animated video
Mechrez et al. Photorealistic style transfer with screened poisson equation
CN104376589A (zh) 一种替换影视剧人物的方法
CN104272377B (zh) 运动图片项目管理系统
WO2022248862A1 (en) Modification of objects in film
CN106780678A (zh) 一种实时全模拟动画电影制作方法和系统
CN114173021B (zh) 基于高清多屏的虚拟演播方法、系统
Yang et al. Training with augmented data: Gan-based flame-burning image synthesis for fire segmentation in warehouse
CN112969007B (zh) 一种面向虚拟三维背景的视频后期制作方法
CN111598983A (zh) 动画制作系统、方法、存储介质及程序产品
Cui et al. Film effect optimization by deep learning and virtual reality technology in new media environment
Kerim et al. NOVA: Rendering virtual worlds with humans for computer vision tasks
Achanta et al. Modeling intent for home video repurposing
CN116055800A (zh) 一种移动端获得定制背景实时舞蹈视频的方法
US20210350547A1 (en) Learning apparatus, foreground region estimation apparatus, learning method, foreground region estimation method, and program
Cavallaro et al. Object-based video: extraction tools, evaluation metrics and applications
CN112087662B (zh) 一种移动端生成舞队组合舞蹈视频的方法及一种移动端
CA3220389A1 (en) Modification of objects in film
US11393180B2 (en) Applying non-destructive edits to nested instances for efficient rendering
Cosker et al. Applications of face analysis and modeling in media production
KR100448914B1 (ko) 실사 합성 애니메이션 제작 방법 및 그 제공 방법
Huang et al. A process for the semi-automated generation of life-sized, interactive 3D character models for holographic projection
Shin et al. Close Imitation of Expert Retouching for Black-and-White Photography

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant