CN110751026B - 视频处理方法及相关装置 - Google Patents

视频处理方法及相关装置 Download PDF

Info

Publication number
CN110751026B
CN110751026B CN201910848464.0A CN201910848464A CN110751026B CN 110751026 B CN110751026 B CN 110751026B CN 201910848464 A CN201910848464 A CN 201910848464A CN 110751026 B CN110751026 B CN 110751026B
Authority
CN
China
Prior art keywords
target
face image
normal
determining
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910848464.0A
Other languages
English (en)
Other versions
CN110751026A (zh
Inventor
袁小薇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Zhuiyi Technology Co Ltd
Original Assignee
Shenzhen Zhuiyi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Zhuiyi Technology Co Ltd filed Critical Shenzhen Zhuiyi Technology Co Ltd
Priority to CN201910848464.0A priority Critical patent/CN110751026B/zh
Publication of CN110751026A publication Critical patent/CN110751026A/zh
Application granted granted Critical
Publication of CN110751026B publication Critical patent/CN110751026B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Abstract

本申请实施例提供视频处理方法及相关装置,其中,所述方法包括:根据目标表情参数,确定出目标法线图,所述目标表情参数与参考视频中的参考图像帧相对应,所述参考图像帧包括参考人脸图像;根据所述目标法线图,重构所述参考人脸图像,得到目标人脸图像;根据所述目标人脸图像,对所述参考视频进行更新,得到目标视频,因此,能够提升视频处理时的准确性。

Description

视频处理方法及相关装置
技术领域
本申请涉及视频处理技术领域,具体涉及一种视频处理方法及相关装置。
背景技术
随着视频处理技术的不断发展,用户可以基于三维人脸模型可以通过调节表情参数来改变人脸表情。将表情变换后的三维人脸模型投影到背景视频后,需要构建人脸皮肤的纹理材质来增强数字人的真实感。现有方案中通常采用单张图片作为皮肤纹理(表情参数),来对视频进行处理时,导致了视频处理时的准确性较低。
发明内容
本申请实施例提供一种视频处理方法及相关装置,能够提升视频处理时的准确性。
本申请实施例的第一方面提供了一种视频处理方法,所述方法包括:
根据目标表情参数,确定出目标法线图,所述目标表情参数与参考视频中的参考图像帧相对应,所述参考图像帧包括参考人脸图像;
根据所述目标法线图,重构所述参考人脸图像,得到目标人脸图像;
根据所述目标人脸图像,对所述参考视频进行更新,得到目标视频。
可选的,所述根据目标表情参数,确定出目标法线图,包括:
根据所述目标表情参数驱动参考三维模型,得到目标三维模型,所述参考三维模型为目标用户对应的三维模型,所述目标用户为所述参考人脸图像对应的用户;
根据所述目标三维模型,确定出所述目标法线图。
可选的,所述根据所述目标三维模型,确定出所述目标法线图,包括:
获取所述目标三维模型的每个顶点的深度值,所述顶点与目标法线图中的目标法向量一一对应;
根据所述每个顶点的深度值,确定出二维深度图;
根据所述二维深度图,确定出所述第一参考法线图;
根据所述第一参考法线图和所述参考人脸图像,确定出目标法线图。
可选的,所述第一参考法线图包括N个第一参考法向量,所述目标法线图包括N个目标法向量,N为正整数,所述根据所述第一参考法线图和所述参考人脸图像,确定出目标法线图,包括:
获取所述参考人脸图像的第二参考法线图,所述第二参考法线图包括N个第二参考法向量,所述N个第二参考法向量与所述N个第一参考法向量一一对应;
根据所述N个第二参考法向量和预设的反照率值,确定出所述N个第二法向量中的每个第二法向量相对应的光照因子,得到N个目标光照因子;
根据所述N个目标光照因子,确定出所述N个第二法向量中的每个第二法向量相对应的反照率,得到N个目标反照率;
根据所述N个目标反照率、所述N个目标光照因子、所述N个第一参考法向量和所述参考人脸图像的每个顶点的像素值,确定出N个目标法向量,以得到所述目标法线图。
可选的,所述方法还包括:
展示所述目标视频;
接收所述目标视频的展示效果信息;
根据所述展示效果信息,确定出所述参考视频的更新评分值;
展示所述更新评分值。
本申请实施例的第二方面提供了一种视频处理装置,所述装置包括确定单元、重构单元和更新单元,其中,
所述确定单元,用于根据目标表情参数,确定出目标法线图,所述目标表情参数与参考视频中的参考图像帧相对应,所述参考图像帧包括参考人脸图像;
所述重构单元,用于根据所述目标法线图,重构所述参考人脸图像,得到目标人脸图像;
所述更新单元,用于根据所述目标人脸图像,对所述参考视频进行更新,得到目标视频。
可选的,在所述根据目标表情参数,确定出目标法线图方面,所述确定单元用于:
根据所述目标表情参数驱动参考三维模型,得到目标三维模型,所述参考三维模型为目标用户对应的三维模型,所述目标用户为所述参考人脸图像对应的用户;
根据所述目标三维模型,确定出所述目标法线图。
可选的,在所述根据所述目标三维模型,确定出所述目标法线图方面,所述确定单元用于:
获取所述目标三维模型的每个顶点的深度值,所述顶点与目标法线图中的目标法向量一一对应;
根据所述每个顶点的深度值,确定出二维深度图;
根据所述二维深度图,确定出所述第一参考法线图;
根据所述第一参考法线图和所述参考人脸图像,确定出目标法线图。
可选的,所述第一参考法线图包括N个第一参考法向量,所述目标法线图包括N个目标法向量,N为正整数,在所述根据所述第一参考法线图和所述参考人脸图像,确定出目标法线图方面,所述确定单元用于:
获取所述参考人脸图像的第二参考法线图,所述第二参考法线图包括N个第二参考法向量,所述N个第二参考法向量与所述N个第一参考法向量一一对应;
根据所述N个第二参考法向量和预设的反照率值,确定出所述N个第二法向量中的每个第二法向量相对应的光照因子,得到N个目标光照因子;
根据所述N个目标光照因子,确定出所述N个第二法向量中的每个第二法向量相对应的反照率,得到N个目标反照率;
根据所述N个目标反照率、所述N个目标光照因子、所述N个第一参考法向量和所述参考人脸图像的每个顶点的像素值,确定出N个目标法向量,以得到所述目标法线图。
可选的,所述装置还用于:
展示所述目标视频;
接收所述目标视频的展示效果信息;
根据所述展示效果信息,确定出所述参考视频的更新评分值;
展示所述更新评分值。
本申请实施例的第三方面提供一种终端,包括处理器、输入设备、输出设备和存储器,所述处理器、输入设备、输出设备和存储器相互连接,其中,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令,执行如本申请实施例第一方面中的步骤指令。
本申请实施例的第四方面提供了一种计算机可读存储介质,其中,上述计算机可读存储介质存储用于电子数据交换的计算机程序,其中,上述计算机程序使得计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。
本申请实施例的第五方面提供了一种计算机程序产品,其中,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
实施本申请实施例,至少具有如下有益效果:
本示例中,根据目标表情参数,确定出目标法线图,所述目标表情参数与参考视频中的参考图像帧相对应,所述参考图像帧包括参考人脸图像,根据所述目标法线图,重构所述参考人脸图像,得到目标人脸图像,根据所述目标人脸图像,对所述参考视频进行更新,得到目标视频,相对于现有方案中,仅采用单张图片的皮肤纹理作为整个视频的表情参数,能够根据不同的表情参数对应不同的视频帧中的人脸图像,对视频进行更新处理,从而可以一定程度上提升视频处理时的准确性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供了一种视频处理方法的流程示意图;
图2为本申请实施例提供了一种根据目标表情参数对参考人脸图像进行重构得到目标人脸图像的效果图;
图3为本申请实施例提供了另一种视频处理方法的流程示意图;
图4为本申请实施例提供的一种终端的结构示意图;
图5为本申请实施例提供了一种视频处理装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本申请所描述的实施例可以与其它实施例相结合。
本申请实施例所涉及到的电子装置可以包括各种具有无线通信功能的手持设备、车载设备、可穿戴设备、计算设备或连接到无线调制解调器的其他处理设备,以及各种形式的用户设备(user equipment,UE),移动台(mobile station,MS),终端设备(terminaldevice)等等。为方便描述,上面提到的设备统称为电子装置。
请参阅图1,图1为本申请实施例提供了一种视频处理方法的流程示意图。如图1所示,视频处理方法包括步骤101-103,具体如下:
101、根据目标表情参数,确定出目标法线图,目标表情参数与参考视频中的参考图像帧相对应,参考图像帧包括参考人脸图像。
其中,参考视频中的不同的视频帧可以对应相同的表情参数,也可以对应不同的表情参数,即,一个表情参数可以对应多个视频帧,也可以一个表情参数对应一个视频帧。目标表情参数为对参考人脸图像进行表情变换的表情参数。
102、根据目标法线图,重构参考人脸图像,得到目标人脸图像。
其中,根据目标法线图,重构参考人脸图像的方法可以为:将参考视频帧分解为人脸反照率图、人脸法线图和光照因子,将该目标法线图,替换参考视频帧中分解得到的人脸法线图,再对人脸图像进行重构,得到目标人脸图像。
103、根据目标人脸图像,对参考视频进行更新,得到目标视频。
其中,根据目标人脸图像对参考视频进行更新的方法可以为:将目标人脸图像的视频帧替换参考视频中对应的参考视频帧,从而得到目标视频。
在一个可能的实施例中,一种可能的根据目标表情参数,确定出目标法线图的方法包括步骤A1-A2,具体如下:
A1、根据目标表情参数驱动参考三维模型,得到目标三维模型,参考三维模型为目标用户对应的三维模型,目标用户为参考人脸图像对应的用户;
A2、根据目标三维模型,确定出目标法线图。
其中,三维模型例如可以是3D变形(Morphable Models,MM)模型。目标用户的人脸图像可以包括参考人脸图像、目标人脸图像等。目标法线图包括N个目标法向量,N为目标三维模型的顶点的个数,三维模型的顶点也可以称为像素点。
可选的,根据目标表情参数驱动三维模型的方法可以为:将三维模型的表情参数赋值为该目标表情参数的数值,从而驱动该三维模型。
可选的,在获取目标法线图时,可以通过目标三维模型上的每个像素点的深度信息获取到近似的法向量,在通过多次迭代的方法,确定出该目标法法线图中的目标法向量。
本示例中,通过目标表情参数驱动三维模型,得到目标三维模型,再根据目标三维模型确定出目标法线图,从而能够一定程度上提升目标法线图获取时的准确性。
在一个可能的实施例中,一种可能的根据目标三维模型,确定出目标法线图的方法包括步骤B1-B4,具体如下:
B1、获取目标三维模型的每个顶点的深度值,顶点与目标法线图中的目标法向量一一对应;
B2、根据每个顶点的深度值,确定出二维深度图;
B3、根据二维深度图,确定出第一参考法线图;
B4、根据第一参考法线图和参考人脸图像,确定出目标法线图。
可选的,根据每个顶点的深度值,确定出二维深度图的方法可以为:根据深度值,通过变换矩阵进行变换后,得到二维深度图。
其中,变换矩阵中包括旋转参数、放缩参数,该法线图变换矩阵可以通过在每个像素点和二维人脸图像对应的点,根据该对应的点之间的变换关系,确定出该变换矩阵。变换矩阵的作用可以理解为,将目标三维模型的顶点投影到二维平面,从而根据投影得到的像素点,得到二维深度图。
可选的,一种可能的根据二维深度图,确定出第一参考法线图的方法可以为:
第一参考法线图中包括N个第一参考法向量,二维深度图中包括N个深度值,可以通过第一法向量计算公式确定出每个第一参考法向量,具体如下:
其中,p为p(x,y),q为q(x,y),p(x,y)=Z(x+1,y)-Z(x,y),q(x,y)=Z(x,y+1)-Z(x,y),Z为深度值,(x,y)为像素点的坐标。
可选的,根据第一参考法线图和参考人脸图像,确定出目标法线图的方法为:通过参考人脸图像的参数进行对第一参考法线图进行迭代,确定出目标法线图,参考人脸图像的参数包括反照率、光照因子、像素值等。
本示例中,通过目标三维模型每个顶点的深度值,确定出二维深度图,根据二维深度图确定出第一参考法线图,最后采用参考人脸图像的参数对第一参考法线图进行迭代,得到目标法线图,因此,通过迭代的方式,能够一定程度上提升目标法向量获取时的准确性。
在一个可能的实施例中,一种可能的根据第一参考法线图和参考人脸图像,确定出目标法线图的方法包括步骤C1-C4,具体如下:
C1、获取参考人脸图像的第二参考法线图,第二参考法线图包括N个第二参考法向量,N个第二参考法向量与N个第一参考法向量一一对应;
C2、根据N个第二参考法向量和预设的反照率值,确定出N个第二法向量中的每个第二法向量相对应的光照因子,得到N个目标光照因子;
C3、根据N个目标光照因子,确定出N个第二法向量中的每个第二法向量相对应的反照率,得到N个目标反照率;
C4、根据N个目标反照率、N个目标光照因子、N个第一参考法向量和参考人脸图像的每个顶点的像素值,确定出N个目标法向量,以得到目标法线图。
其中,参考人脸图像的第二参考法线图的获取方法可以参照前述第一参考法线图获取的方法进行获取,此处不再赘述。
可选的,根据N个第二参考法向量和预设的反照率,确定出N个第二法向量中的每个第二法向量相对应的光照因子,得到N个目标光照因子的方法可以为:
通过如下公式,确定出每个目标光照因子:
其中,为目标光照因子,I(x,y)为参考图像帧的像素点的像素值,ρ(x,y)为预设的反照率,/>为光照模型,/>为第二法向量,(x,y)为像素点的坐标。
可选的,光照模型与第二参考法向量的关系式为:
可选的,根据N个目标光照因子,确定出N个第二法向量中的每个第二法向量相对应的反照率,得到N个目标反照率的方法可以为:
通过如下公式,确定出每个目标反照率:
其中,为目标光照因子,I(x,y)为参考图像帧的像素点的像素值,ρ(x,y)为预设的反照率,/>为光照模型,/>为第二法向量,(x,y)为像素点的坐标。
可选的,根据N个目标反照率、N个目标光照因子、N个第一参考法向量和参考人脸图像的每个顶点的像素值,确定出N个目标法向量,以得到目标法线图的方法为:
通过如下公式,采用梯度下降法估算得到N个目标法向量的值:
其中,||为取模运算,E的初始值为,为采用第一法向量计算得到的值,当E趋于0时的法向量作为目标法向量,I为参考图像帧的像素点的像素值,ρ为目标反照率,为目标光照因子,/>为光照模型,/>为目标法向量,(x,y)为像素点的坐标。将N个目标法向量按照对应的位置进行设置,从而得到目标法线图。目标法线图中的法向量的位置为与第一参考法线图中法向量的位置相对应。
本示例中,采用N个目标反照率、N个目标光照因子、N个第一参考法向量和参考人脸图像的每个顶点的像素值,确定出N个目标法向量,通过迭代的方式,确定出目标法线图中的目标法向量,从而可以一定程度上提升确定目标法线图时的准确性。
在一个可能的实施例中,还可以对参考视频进行处理的效果进行评分,可以直观的反映出视频处理时的效果,一种可能的对目标视频进行评分的方法包括步骤D1-D4,具体如下:
D1、展示目标视频;
D2、接收目标视频的展示效果信息;
D3、根据展示效果信息,确定出参考视频的更新评分值;
D4、展示更新评分值。
其中,对目标视频进行展示时,可以通过电子装置进行展示,电子装置包括显示器。
可选的,目标视频的展示效果信息可以为用户输入的的展示效果信息,也可以通过其它方式获取到的展示效果信息,此处不作具体限定。
可选的,根据展示效果信息,确定出更新评分值的方法可以为:根据预设的展示效果信息和评分值之间的映射关系,确定出更新评分值,该映射关系可以通过经验值或历史数据设定,也可以通过评分值模型来确定出更新评分值。一种可能确定评分值模型的方法为:评分值模型可以通过有监督或无监督方法进行训练得到,该模型的样本数据为展示效果信息和更新评分值。
本示例中,可以在对目标视频进行展示后,接收展示效果信息,并根据展示效果信息确定更新评分值,因此,能够在视频播放后,根据展示效果信息确定出更新评分并展示更新评分值,从而可以根据更新评分值对本次视频更新进行评价,可以用于对视频更新的后续调整,确定出适合不同用户的更新方法,从而可以一定程度上提升用户体验。
在一个可能的实施例中,还可以对目标用户的人脸图像进行提取,从而可以对人脸图像进行分析处理,当人脸图像在参考视频帧中,仅包括部分人脸图像时,一种可能的提取方法包括步骤E1-E5,具体如下:
E1、对参考视频帧进行特征提取,得到特征数据;
E2、根据特征数据,确定出目标用户的参考人脸图像;
E3、若参考人脸图像为部分人脸图像,则确定出参考人脸图像的参考待修复区域;
E4、将参考待修复区域中与目标人脸区域关于预设对称轴对称的区域作为目标待修复区域,目标人脸区域为参考人脸图像中完整的人脸区域;
E5、基于目标待修复区域,对参考人脸图像进行修复,得到目标用户的人脸图像。
其中,特征数据可以为灰度值,对目标图像进行特征提取,得到特征数据的方法可以为:可以对目标图像中的每个像素点的灰度值进行提取,得到每个像素点的灰度值。
可选的,一种可能的从多张图像中确定出目标图像,多张图像为智能电子笔发送给服务器的包括目标用户的人脸的图像的方法可以为:根据图像的完整度,将完整度最高的图像作为目标图像。其中,完整度可以理解为图像包括人脸的大小,人脸部分的特征越多,则完整度越高,人脸部分特征越少,则完整度越低。
可选的,参考人脸图像为部分人脸图像可以理解为,在目标图像中的人脸图像为部分人脸图像,即,在拍摄时,仅拍摄到了部分人脸图像的情况。
可选的,参考人脸图像为部分人脸图像时,则将囊括人脸图像缺失的部分的矩形框区域,作为参考待修复区域。
可选的,预设对称轴可以为人脸图像的额头、鼻梁和下巴三点所在的直线。
可选的,基于目标待修复区域,对目标图像进行修复,得到目标用户的人脸图像的方法可以为:获取目标人脸区域中每个像素点的灰度值,将目标待修复区域中的像素点的灰度值设置为对应像素点的灰度值,对应像素点可以理解为在目标人脸区域中与该像素点关于预设对称轴对称的像素点。
可选的,在对目标待修复区域进行修复后,还可以对目标待修复区域与参考人脸图像的边界进行过度处理,对边界进行过度处理的方法可以为:获取边界线两边第一预设区域和第二预设区域中的像素点的灰度值,第一预设区域的边界包括目标边界线和第一预设边界线、第二预设区域的边界线为目标边界线和第二预设边界线,第一预设边界线和第二预设边界线上的点与目标边界线之间的距离相同,目标边界线为目标待修复区域与参考人脸图像的边界线;将第一像素点和第二像素点的灰度值均值,作为第一像素点和第二像素点的灰度值,第一像素点和第二像素点关于目标边界线对称,第一像素点为第一预设区域内的像素点,第二像素点为第二预设区域内的像素点。其中,由于目标边界线通常情况下为曲线,则确定与第一像素点对称的第二像素点的方法可以为:获取第一像素点在目标边界线上的垂线段,以及垂线段与目标边界线之间的交点,以该交点为终点,在目标边界线上截取长度无穷小的目标直线段,将该第一像素点关于该目标直线段对称的点,作为第二像素点。长度无穷小可以理解为长度趋于零,但不能等于零。
本示例中,通过对参考人脸图像进行修复,从而得到目标用户的人脸图像,因此,能够一定程度上提升目标用户的人脸图像获取时的准确性。
可选的,请参阅图2,图2为本申请实施例提供了一种根据目标表情参数对参考人脸图像进行重构得到目标人脸图像的效果图。图2中,A图为目标表情参数的效果展示图,B图为参考人脸图像,C图为将A图的目标表情参数应用到B图中得到的图像。
请参阅图3,图3为本申请实施例提供了另一种视频处理方法的流程示意图。如图3所示,视频处理方法包括步骤301-306,具体如下:
301、根据目标表情参数驱动参考三维模型,得到目标三维模型,参考三维模型为目标用户对应的三维模型,目标用户为参考人脸图像对应的用户;
其中,目标表情参数与参考视频中的参考图像帧相对应,参考图像帧包括参考人脸图像。
302、获取目标三维模型的每个顶点的深度值,顶点与目标法线图中的目标法向量一一对应;
303、根据每个顶点的深度值,确定出二维深度图;
304、根据二维深度图,确定出第一参考法线图;
可选的,多个目标法向量构成三维法线图。根据多个第一法向量,确定出目标法向量的方法可以为:将多个第一法向量采用迭代的方式,确定出目标法向量。
305、根据第一参考法线图和参考人脸图像,确定出目标法线图;
可选的,可以通过参考人脸图像的参数进行对第一参考法线图进行迭代,确定出目标法线图,参考人脸图像的参数包括反照率、光照因子、像素值等。
306、根据目标人脸图像,对参考视频进行更新,得到目标视频。
本示例中,通过目标三维模型每个顶点的深度值,确定出二维深度图,根据二维深度图确定出第一参考法线图,最后采用参考人脸图像的参数对第一参考法线图进行迭代,得到目标法线图,因此,通过迭代的方式,能够一定程度上提升目标法向量获取时的准确性。
与上述实施例一致的,请参阅图4,图4为本申请实施例提供的一种终端的结构示意图,如图所示,包括处理器、输入设备、输出设备和存储器,处理器、输入设备、输出设备和存储器相互连接,其中,存储器用于存储计算机程序,计算机程序包括程序指令,处理器被配置用于调用程序指令,上述程序包括用于执行以下步骤的指令;
根据目标表情参数,确定出目标法线图,目标表情参数与参考视频中的参考图像帧相对应,参考图像帧包括参考人脸图像;
根据目标法线图,重构参考人脸图像,得到目标人脸图像;
根据目标人脸图像,对参考视频进行更新,得到目标视频。
上述主要从方法侧执行过程的角度对本申请实施例的方案进行了介绍。可以理解的是,终端为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所提供的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对终端进行功能单元的划分,例如,可以对应各个功能划分各个功能单元,也可以将两个或两个以上的功能集成在一个处理单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。需要说明的是,本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
与上述一致的,请参阅图5,图5为本申请实施例提供了一种视频处理装置的结构示意图。如图5所示,该装置包括确定单元501、重构单元502和更新单元503,其中,
确定单元501,用于根据目标表情参数,确定出目标法线图,目标表情参数与参考视频中的参考图像帧相对应,参考图像帧包括参考人脸图像;
重构单元502,用于根据目标法线图,重构参考人脸图像,得到目标人脸图像;
更新单元503,用于根据目标人脸图像,对参考视频进行更新,得到目标视频。
可选的,在根据目标表情参数,确定出目标法线图方面,确定单元501用于:
根据目标表情参数驱动参考三维模型,得到目标三维模型,参考三维模型为目标用户对应的三维模型,目标用户为参考人脸图像对应的用户;
根据目标三维模型,确定出目标法线图。
可选的,在根据目标三维模型,确定出目标法线图方面,确定单元501用于:
获取目标三维模型的每个顶点的深度值,顶点与目标法线图中的目标法向量一一对应;
根据每个顶点的深度值,确定出二维深度图;
根据二维深度图,确定出第一参考法线图;
根据第一参考法线图和参考人脸图像,确定出目标法线图。
可选的,第一参考法线图包括N个第一参考法向量,目标法线图包括N个目标法向量,N为正整数,在根据第一参考法线图和参考人脸图像,确定出目标法线图方面,确定单元501用于:
获取参考人脸图像的第二参考法线图,第二参考法线图包括N个第二参考法向量,N个第二参考法向量与N个第一参考法向量一一对应;
根据N个第二参考法向量和预设的反照率值,确定出N个第二法向量中的每个第二法向量相对应的光照因子,得到N个目标光照因子;
根据N个目标光照因子,确定出N个第二法向量中的每个第二法向量相对应的反照率,得到N个目标反照率;
根据N个目标反照率、N个目标光照因子、N个第一参考法向量和参考人脸图像的每个顶点的像素值,确定出N个目标法向量,以得到目标法线图。
可选的,装置还用于:
展示目标视频;
接收目标视频的展示效果信息;
根据展示效果信息,确定出参考视频的更新评分值;
展示更新评分值。
本申请实施例还提供一种计算机存储介质,其中,该计算机存储介质存储用于电子数据交换的计算机程序,该计算机程序使得计算机执行如上述方法实施例中记载的任何一种视频处理方法的部分或全部步骤。
本申请实施例还提供一种计算机程序产品,所述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,该计算机程序使得计算机执行如上述方法实施例中记载的任何一种视频处理方法的部分或全部步骤。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在申请明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件程序模块的形式实现。
所述集成的单元如果以软件程序模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器、随机存取器、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (5)

1.一种视频处理方法,其特征在于,所述方法包括:
根据目标表情参数驱动参考三维模型,得到目标三维模型,其中,所述目标表情参数与参考视频中的参考图像帧相对应,所述参考图像帧包括参考人脸图像,所述参考三维模型为目标用户对应的三维模型,所述目标用户为所述参考人脸图像对应的用户;
获取所述目标三维模型的每个顶点的深度值,所述顶点与目标法线图中的目标法向量一一对应,所述目标法线图包括N个目标法向量,N为正整数;
根据所述每个顶点的深度值,确定出二维深度图;
根据所述二维深度图,确定出第一参考法线图,其中,所述第一参考法线图包括N个第一参考法向量;
获取所述参考人脸图像的第二参考法线图,所述第二参考法线图包括N个第二参考法向量,所述N个第二参考法向量与所述N个第一参考法向量一一对应;
根据所述N个第二参考法向量和预设的反照率值,确定出所述N个第二参考法向量中的每个第二参考法向量对应的光照因子,得到N个目标光照因子;
根据所述N个目标光照因子,确定出所述N个第二参考法向量中的每个第二参考法向量对应的反照率,得到N个目标反照率;
根据所述N个目标反照率、所述N个目标光照因子、所述N个第一参考法向量和所述参考人脸图像的每个顶点的像素值,确定出所述N个目标法向量,以得到所述目标法线图;
根据所述目标法线图,重构所述参考人脸图像,得到目标人脸图像;
根据所述目标人脸图像,对所述参考视频进行更新,得到目标视频。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
展示所述目标视频;
接收所述目标视频的展示效果信息;
根据所述展示效果信息,确定出所述参考视频的更新评分值;
展示所述更新评分值。
3.一种视频处理装置,其特征在于,所述装置包括确定单元、重构单元和更新单元,其中,
所述确定单元,用于根据目标表情参数驱动参考三维模型,得到目标三维模型,其中,所述目标表情参数与参考视频中的参考图像帧相对应,所述参考图像帧包括参考人脸图像,所述参考三维模型为目标用户对应的三维模型,所述目标用户为所述参考人脸图像对应的用户;
所述确定单元,用于获取所述目标三维模型的每个顶点的深度值,所述顶点与目标法线图中的目标法向量一一对应,所述目标法线图包括N个目标法向量,N为正整数;
所述确定单元,用于根据所述每个顶点的深度值,确定出二维深度图;
所述确定单元,用于根据所述二维深度图,确定出第一参考法线图,其中,所述第一参考法线图包括N个第一参考法向量;
所述确定单元,用于获取所述参考人脸图像的第二参考法线图,所述第二参考法线图包括N个第二参考法向量,所述N个第二参考法向量与所述N个第一参考法向量一一对应;
所述确定单元,用于根据所述N个第二参考法向量和预设的反照率值,确定出所述N个第二参考法向量中的每个第二参考法向量对应的光照因子,得到N个目标光照因子;
所述确定单元,用于根据所述N个目标光照因子,确定出所述N个第二参考法向量中的每个第二参考法向量对应的反照率,得到N个目标反照率;
所述确定单元,用于根据所述N个目标反照率、所述N个目标光照因子、所述N个第一参考法向量和所述参考人脸图像的每个顶点的像素值,确定出所述N个目标法向量,以得到所述目标法线图;
所述重构单元,用于根据所述目标法线图,重构所述参考人脸图像,得到目标人脸图像;
所述更新单元,用于根据所述目标人脸图像,对所述参考视频进行更新,得到目标视频。
4.一种终端,其特征在于,包括处理器、输入设备、输出设备和存储器,所述处理器、输入设备、输出设备和存储器相互连接,其中,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令,执行如权利要求1或2所述的方法。
5.一种计算机可读存储介质,其特征在于,所述计算机存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行如权利要求1或2所述的方法。
CN201910848464.0A 2019-09-09 2019-09-09 视频处理方法及相关装置 Active CN110751026B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910848464.0A CN110751026B (zh) 2019-09-09 2019-09-09 视频处理方法及相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910848464.0A CN110751026B (zh) 2019-09-09 2019-09-09 视频处理方法及相关装置

Publications (2)

Publication Number Publication Date
CN110751026A CN110751026A (zh) 2020-02-04
CN110751026B true CN110751026B (zh) 2023-10-27

Family

ID=69276123

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910848464.0A Active CN110751026B (zh) 2019-09-09 2019-09-09 视频处理方法及相关装置

Country Status (1)

Country Link
CN (1) CN110751026B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113596590B (zh) * 2020-04-30 2022-08-26 聚好看科技股份有限公司 显示设备及播放控制方法
WO2021032092A1 (zh) 2019-08-18 2021-02-25 聚好看科技股份有限公司 显示设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109815823A (zh) * 2018-12-27 2019-05-28 深圳云天励飞技术有限公司 数据处理方法及相关产品
CN110070611A (zh) * 2019-04-22 2019-07-30 清华大学 一种基于深度图像融合的人脸三维重建方法和装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180068178A1 (en) * 2016-09-05 2018-03-08 Max-Planck-Gesellschaft Zur Förderung D. Wissenschaften E.V. Real-time Expression Transfer for Facial Reenactment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109815823A (zh) * 2018-12-27 2019-05-28 深圳云天励飞技术有限公司 数据处理方法及相关产品
CN110070611A (zh) * 2019-04-22 2019-07-30 清华大学 一种基于深度图像融合的人脸三维重建方法和装置

Also Published As

Publication number Publication date
CN110751026A (zh) 2020-02-04

Similar Documents

Publication Publication Date Title
US11302064B2 (en) Method and apparatus for reconstructing three-dimensional model of human body, and storage medium
CN111598998B (zh) 三维虚拟模型重建方法、装置、计算机设备和存储介质
WO2021174939A1 (zh) 人脸图像的获取方法与系统
EP3992919B1 (en) Three-dimensional facial model generation method and apparatus, device, and medium
CN111784821B (zh) 三维模型生成方法、装置、计算机设备及存储介质
CN116109798B (zh) 图像数据处理方法、装置、设备及介质
EP4150586A1 (en) Reinforced differentiable attribute for 3d face reconstruction
CN113838176B (zh) 模型的训练方法、三维人脸图像生成方法及设备
CN114820905B (zh) 虚拟形象生成方法、装置、电子设备及可读存储介质
CN111768477A (zh) 三维人脸表情基建立方法及装置、存储介质及电子设备
CN115409933B (zh) 多风格纹理贴图生成方法及其装置
CN110458924B (zh) 一种三维脸部模型建立方法、装置和电子设备
JP2024004444A (ja) 3次元顔再構成モデルトレーニング、3次元顔イメージ生成方法及び装置
CN110751026B (zh) 视频处理方法及相关装置
CN111382618B (zh) 一种人脸图像的光照检测方法、装置、设备和存储介质
CN114998490B (zh) 一种虚拟对象生成方法、装置、设备及存储介质
CN112766027A (zh) 图像处理方法、装置、设备及存储介质
CN109697748A (zh) 模型压缩处理方法、模型贴图处理方法装置、存储介质
CN112766215A (zh) 人脸融合方法、装置、电子设备及存储介质
CN111754431A (zh) 一种图像区域替换方法、装置、设备及存储介质
CN113808249B (zh) 图像处理方法、装置、设备和计算机存储介质
CN109166176B (zh) 三维人脸图像的生成方法与装置
CN113379932B (zh) 人体三维模型的生成方法和装置
US20220351340A1 (en) Image processing method and image display device
CN108520259A (zh) 一种前景目标的提取方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant