视频展示方法、系统、计算机设备、存储介质和终端
技术领域
本发明涉及视频处理技术领域,具体而言,本发明涉及一种视频展示方法、视频展示系统、计算机设备、存储介质和终端。
背景技术
在视频展示中,经常需要结合到虚拟角色的应用。例如直播视频、小视频往往都会有展示在人脸上赋予卡通人物的功能,从而不暴露真实的面孔,既可以起到保护用户个人隐私也在一定程度上增加了直播视频和小视频的趣味性,吸引用户。
但现有的虚拟角色,如上述卡通人物的表情一般都是固定设计,表情单一、展示效果较差。
发明内容
本发明的目的旨在至少能解决上述的技术缺陷之一,特别是表情单一、展示效果较差的技术缺陷。
本发明提供一种视频展示方法,包括如下步骤:
识别视频中的人脸图像,并在所述视频的界面上展示所述人脸图像对应的虚拟模型;
采集所述人脸图像的特征信息,并根据所述特征信息获取表情系数;
利用所述表情系数驱动所述虚拟模型生成相应的动画表情。
在一个实施例中,所述特征信息包括人脸特征点,所述采集所述人脸图像的特征信息,并根据所述特征信息获取表情系数的步骤,包括:
对所述视频中图片帧进行人脸标定,获得所述图片帧的人脸特征点;根据所述人脸特征点获取所述人脸图像的特征向量;将所述特征向量输入表情系数预测模型,获得所述表情系数。
在一个实施例中,所述根据所述人脸特征点获取所述人脸图像的特征向量的步骤,包括:
根据所述人脸特征点将所述人脸图像进行倾斜校正,得到人脸校正图像;提取所述人脸校正图像的图像特征;对所述图像特征进行主成分分析,获得所述人脸图像的特征向量。
在一个实施例中,所述表情系数为多个,所述虚拟模型包括中性脸图以及融合形态图;所述利用所述表情系数驱动所述虚拟模型生成相应的动画表情的步骤,包括:
获取与各所述表情系数一一对应的各个融合形态图;将各所述融合形态图融合在所述中性脸图,生成所述动画表情的图像。
在一个实施例中,在将所述特征向量输入表情系数预测模型,获得所述表情系数的步骤之前,还包括:
获取样本图像、所述样本图像的人脸特征点和所述样本图像的表情系数;根据所述样本图像和所述样本图像的人脸特征点获取所述样本图像的特征向量;根据所述样本图像的特征向量和所述样本图像的表情系数,对所述样本图像的表情系数进行支持向量机回归分析,得到所述表情系数预测模型。
在一个实施例中,所述根据所述样本图像和所述样本图像的人脸特征点获取所述样本图像的特征向量的步骤,包括:
根据样本图像中人脸图像的人脸特征点对所述样本图像的人脸图像进行倾斜校正,得到样本校正图像;提取所述样本校正图像的图像特征;
对所述样本校正图像的图像特征进行主成分分析,获得所述样本图像的特征向量。
在一个实施例中,所述图像特征包括方向梯度直方图特征。
在一个实施例中,所述将各所述融合形态图融合在所述中性脸图,生成所述动画表情的图像的步骤,包括以下公式:
其中,S为所述动画表情的图像,为所述中性脸图,Bi为第i个融合形态图,βi为所述第i个融合形态图对应的表情系数,n为所述融合形态图的总数,n和i分别为正整数。
在一个实施例中,所述视频为直播视频或小视频。
在一个实施例中,所述虚拟模型为虚拟人物角色或卡通人物造型。
在一个实施例中,所述在所述视频的界面上展示所述人脸图像对应的虚拟模型的步骤,包括:
在所述视频中所述人脸图像的位置展示所述虚拟模型,其中,所述虚拟模型覆盖在所述人脸图像上。
本发明还提供一种视频展示系统,包括:
虚拟模型显示模块,用于识别视频中的人脸图像,并在所述视频的界面上展示所述人脸图像对应的虚拟模型;
表情系数获取模块,用于采集所述人脸图像的特征信息,并根据所述特征信息获取表情系数;
动画表情生成模块,用于利用所述表情系数驱动所述虚拟模型生成相应的动画表情。
本发明还提供一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行上述任一实施例中所述视频展示方法的步骤。
本发明还提供一种存储有计算机可读指令的存储介质,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述任一实施例中所述视频展示方法的步骤。
本发明还提供一种终端,其包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行上述任一实施例所述的视频展示方法。
上述的视频展示方法、系统、计算机设备、存储介质和终端,根据视频中人脸图像获取表情参数,通过表情系数驱动虚拟模型生成动画表情,并显示在该视频中,使得虚拟模型的动画表情与视频中人脸表情实时同步,虚拟模型的虚拟角色可以与视频的人脸表情相对应,虚拟模型的展示效果随着人脸表情的变化多样而尽显丰富,表情展示变得丰富多样有趣味,提升了虚拟角色的展示效果。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为一个实施例中视频展示方法的流程图;
图2为一个实施例中表情系数获取的流程图;
图3为一个实施例中虚拟模型的原理示意图;
图4为一个实施例中表情系数预测模型获得的流程图;
图5为视频展示方法的应用环境示意图;
图6为另一个实施例中视频展示方法中图像数据处理的原理图;
图7为两种人脸表情所对应的猴头卡通模型的动画表情;
图8为一个实施例中视频展示系统的结构示意图;
图9为一个实施例中计算机设备的内部结构示意图;
图10为一个实施例中终端的内部结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
本技术领域技术人员可以理解,这里所使用的“终端”、“终端设备”可以是手机、平板电脑、PDA(PersonalDigital Assistant,个人数字助理)、MID(Mobile InternetDevice,移动互联网设备)、智能电视、机顶盒等。
本发明实施例中视频展示方法可以应用在视频处理中,使得视频中加载的虚拟模型的动画表情可以与同个或另一个视频中人脸图像的表情同步。
在一个实施例中,如图1所示,图1为一个实施例中视频展示方法的流程图,本实施例中提供一种视频展示方法,可以包括如下步骤:
步骤S110:识别视频中的人脸图像,并在视频的界面上展示人脸图像对应的虚拟模型。
本步骤中,在具有人脸图像的视频中展示人脸图像对应的虚拟模型。即在含有人脸图像的每帧图片帧中显示该虚拟模型,实时根据人脸图像显示虚拟模型。
在其中一个实施例中,在视频的界面上展示人脸图像对应的虚拟模型的步骤,包括:在视频中人脸图像的位置展示虚拟模型,其中,虚拟模型覆盖在人脸图像上。即人脸图像对应的虚拟模型可以在人脸图像所在位置上显示,并且该虚拟模型可以覆盖在该人脸图像,人脸图像可以被对应的虚拟模型所覆盖,达到不暴露真实的面孔和保护用户个人隐私的效果,同时增加趣味性。
另外,也可以在人脸图像以外的位置显示该虚拟模型,使得视频中有两个或多个同步表情的图像,增加视频趣味性,提高虚拟模型对应角色的展示效果。
步骤S120:采集人脸图像的特征信息,并根据特征信息获取表情系数。
对视频中各个图片帧的人脸图像进行分析,采集其人脸图像的特征信息,并且一一对应获取各个图片帧中人脸图像的表情系数。
特征信息可以包括人脸特征、人脸的图像特征、人脸的特征向量等。例如可以通过人脸标定算法识别视频的各帧图片帧中人脸特征点。人脸的图像特征可以是描述人脸图像中局部纹理的特征,人脸的特征向量是非简并的向量,其方向在线性变换下不改变,能稳定且单一地表现人脸特征的关系。
根据特征信息中的人脸特征以及人脸特征与表情的关系,可以推算出该人脸图像对应的表情系数。
步骤S130:利用表情系数驱动虚拟模型生成相应的动画表情。
根据各个图片帧中人脸图像的表情系数一一驱动虚拟模型生成动画表情的图像,根据各个动画表情的图像生成与人脸图像的表情相对应的动画表情。而且虚拟模型是显示在视频中的图像模型,该各个动画表情的图像与各帧图片帧的人脸图像对应,达到虚拟模型的动画表情与视频中人脸图像的表情实时同步。
上述视频展示方法,根据视频中人脸图像获取表情参数,通过表情系数驱动虚拟模型生成动画表情,并显示在该视频中,使得虚拟模型的动画表情与视频中人脸表情实时同步,虚拟模型的虚拟角色可以与视频的人脸表情相对应,虚拟模型的展示效果随着人脸表情的变化多样而尽显丰富,表情展示变得丰富多样有趣味,提升了虚拟角色的展示效果。
而且,处理对象的视频可以是直播视频或小视频。
在处理直播视频过程中,在视频中每帧图片帧中显示人脸图像对应的虚拟模型,并计算每帧人脸图像的表情系数,驱动该图片帧中的虚拟模型生成对应的表情;在直播过程中,实时播放直播视频中的各帧图片帧,各帧图片帧中显示虚拟模型,各帧图片帧的表情系数驱动虚拟模型生成与直播视频对应的动画表情。
在录制小视频的时候,也可以对小视频的各帧图片显示虚拟模型和以及根据各帧图片帧的表情系数来驱动虚拟模型生成对应的动画表情。
本发明实施例中所使用的虚拟模型可以是基于虚拟人物角色或卡通人物造型构建的图像模型,该图像模型具有多种表情的展示效果。虚拟人物角色包括二次元的虚拟人物、动漫角色等,这个虚拟模型的类型或角色可以是由处理视频的用户自己来选择的。图像模型中可以包含多个图层,选择并组合与表情系数相对应的图层,可以生成具有特定表情的动画表情的图像。随着视频中人脸表情的变化,动画表情图像中的表情也会因此变化,虚拟模型可以展示与视频人脸表情相应的动画表情。
以下将阐述如何根据人脸图像获取用于驱动虚拟模型的表情参数。
在一个实施例中,如图2所示,图2为一个实施例中表情系数获取的流程图,特征信息包括人脸特征点,步骤S120中采集人脸图像的特征信息,并根据特征信息获取表情系数的步骤,可以包括:
步骤S121:对视频中图片帧进行人脸标定,获得图片帧的人脸特征点。
本步骤中,可以通过人脸标定算法识别各帧图片帧中人脸图像的人脸特征点。例如通过人脸标定算法识别人脸图像的106个特征点。
步骤S122:根据人脸特征点获取人脸图像的特征向量。
具体地,本步骤S122中根据人脸特征点获取人脸图像的特征向量的步骤,可以包括:
步骤S1221:根据人脸特征点将人脸图像进行倾斜校正,得到人脸校正图像。
人脸图像可能由于视角的原因,往往不能十分精准地拍摄到人脸的正面,即使采集了人脸特征点,通过人脸特征点勾勒出的人脸区域也不是完全标准正面。但是在识别表情时,最好使用正面的人脸图像进行识别,减少因偏转而造成的表情识别错误。而且都使用正面的人脸校正图像,才能让使用表情参数预测模型的图像与训练表情参数预测模型的样本之间具有相似性,使得该图片后续特征向量与表情参数预测模型匹配,预测结果才可以更加准确。
步骤S1222:提取人脸校正图像的图像特征。
本步骤中,图像特征可以是人脸校正图像的方向梯度直方图(HOG,Histogram ofOriented Gradient)特征。方向梯度直方图特征是一种描述图像局部纹理的特征,此处得到的方向梯度直方图特征可以用于体现人脸区域的纹理。另外图像特征也可以是其他体现人脸纹理、轮廓、形状的特征。
步骤S1223:对图像特征进行主成分分析(PCA,Principal Component Analysis),获得人脸图像的特征向量。
本步骤中,特征向量是非简并的向量,其方向在线性变换下不改变,此处的特征向量能表现人脸纹理变化的方向,与人脸纹理的走向匹配,可以体现人脸的特征。
方向梯度直方图特征和主成分分析结合,其中主成分分析主要用于数据降维,对于一系列样本的特征组成的多维向量,多维向量里的某些元素本身没有区分性,那么这个元素本身就没有区分性,用它做特征来区分,贡献会非常小。所以需要的是找那些变化大的元素,即方差大的那些维,而去除掉那些变化不大的维,从而使特征中留下的都是“精品”,而且计算量也变小了,即获得区分度效果佳的特征向量。
上述获取特征向量的过程,可以获得特征区分度较高的特征向量。
步骤S123:将特征向量输入表情系数预测模型,获得表情系数。
本步骤中,表情系数预测模型用于根据输入图像的特征向量组输出所述输入图像对应的表情系数的。
上述视频展示方法,通过提取人脸特征而获取与表情系数预测模型匹配的特征向量,从而根据特征向量和表情系数预测模型获得准确的表情系数。
在一个实施例中,表情系数为多个,虚拟模型包括中性脸图以及融合形态图,如图3所示,图3为一个实施例中虚拟模型的原理示意图;步骤S130中利用表情系数驱动虚拟模型生成相应的动画表情的步骤,可以包括:
(1)获取与各表情系数一一对应的各个融合形态图。
例如在获取51个表情系数,获取该51个表情系数对应的51个融合形态图。
(2)将各融合形态图融合在中性脸图,生成动画表情的图像。
本步骤(2)中,具体地,可以包括以下公式:
其中,S为动画表情的图像,为中性脸图,Bi为第i个融合形态图,βi为第i个融合形态图对应的表情系数,n为融合形态图的总数,n和i分别为正整数。
参阅图3,可见S为中性脸图,S1至S4分别为动画表情的图像,B1、B2、B3和B4分别是对应于嘴巴、鼻子、左眼和右眼的融合形态图。以嘴巴为例,S1、S2和S4中嘴巴的表情系数不同,因此其对应的融合形态图也会有所不同,例如S1中的B1的表情系数较大,嘴巴张开的范围更大。也可以设置当左眼的表情系数为1时,左眼对应于睁开的融合形态图,如S3的B3所示;设置当左眼的表情系数为0时,左眼对应于睁开闭合的融合形态图,如S2的B3所示。
上述视频展示方法,通过中性脸图以及多种融合形态图融合的方式生成各种表情的动画表情图像,丰富动画表情的展现形式,而且可控性强,操作简便。
在一个实施例中,如图4所示,图4为一个实施例中表情系数预测模型获得的流程图,在将特征向量输入表情系数预测模型,获得表情系数的步骤之前,还可以包括:
步骤S410:获取样本图像、样本图像的人脸特征点和样本图像的表情系数。
本步骤中,获取训练表情系数预测模型的原始数据,将同一个样本图像对应的样本图像、样本图像的人脸特征点和样本图像的表情系数作为一个原始样本,即原始样本{样本图像,人脸特征点,表情系数}。
步骤S420:根据样本图像和样本图像的人脸特征点获取样本图像的特征向量。
具体地,本步骤S420中根据样本图像和样本图像的人脸特征点获取样本图像的特征向量的步骤,可以包括:
步骤S421:根据样本图像中人脸图像的人脸特征点对样本图像的人脸图像进行倾斜校正,得到样本校正图像。
本步骤中,对样本图像的人脸图像进行倾斜校正,将人脸图像校正至标准正面的视觉,统一各个样本的数据标准,减少一个需要调节的可变参量,避免视角对表情系数获取的影响,提高后续表情系数预测模型的精度。
步骤S422:提取样本校正图像的图像特征。
本步骤中,图像特征可以包括方向梯度直方图特征,从而体现样本中人脸区域的纹理。另外图像特征也可以是其他体现人脸纹理、轮廓、形状的特征。
步骤S423:对样本校正图像的图像特征进行主成分分析,获得样本图像的特征向量。
上述获得样本图像的特征向量的过程,实际上是为了得到训练表情系数预测模型的训练数据,将同一个样本图像对应的特征向量和表情系数作为一个训练样本,即训练样本{特征向量,表情系数}。
步骤S430:根据样本图像的特征向量和样本图像的表情系数,对样本图像的表情系数进行支持向量机(SVM,support vector machine)回归分析,得到表情系数预测模型。
本步骤中,根据多个训练样本进行训练,得到表情系数预测模型,该表情系数预测模型用于输入特征向量后可以输出该特征向量对应的表情系数。
上述视频展示方法,通过训练获得表情系数预测模型,以该表情系数预测模型来反映特征向量与表情系数之间的映射关系,通过使用该表情系数预测模型可以获得与特征向量对应的表情系数。
在一个实施例中,在所述将所述特征向量输入表情系数预测模型,获得所述表情系数的步骤之前,还包括:获取样本图像中人脸图像的特征向量和所述样本图像中人脸图像的表情系数;根据所述样本图像中人脸图像的特征向量和所述样本图像中人脸图像的表情系数,对所述样本图像中人脸图像的表情系数进行支持向量机回归分析,获取所述表情系数预测模型。
如图5所示,图5为视频展示方法的应用环境示意图。在录制小视频或直播场景中,小视频的上传端511或直播端512与服务器520连接,并上传其制作的视频或上传视频流至服务器520,再通过服务器320发送相关视频至观众客户端530,视频展示方法可以应用在该场景的上传端511、直播端512、服务器520或观众客户端530上,对视频生成表情同步的动画表情。
下面进一步说明在直播场景下进行视频展示方法,如图6所示,图6为视频展示中图像数据处理的原理图,本实施例中视频展示方法包括以下步骤:
[1].数据采集
录制或获取一段视频,同时对视频画面的每一帧进行表情识别和人脸标定,这样得到视频中每一帧图片帧对应的51个表情系数和106个人脸特征点。可以将图片帧、人脸特征点和表情系数作为元素,构成{1图像,106人脸特征点,51表情系数}的一个集合,并把这个集合作为进行算法训练所用的原始数据。就这样根据不同的人、不同表情的视频就可以获得大量的原始数据。
[2].数据处理
如图6所示,将原始数据转化为训练数据。根据人脸特征点和图片帧,提取每一帧图片帧中脸部的区域;并且对脸部的区域进行倾斜校正,获得对齐标准正面的脸部区域;提取校正后的脸部区域的方向梯度直方图特征;对方向梯度直方图特征进行主成分分析,得到一组特征向量。此时,可以把特征向量和表情系数作为元素,构成{1特征向量,51表情系数}的一个集合,并把这个集合作为进行算法训练时所用的一个样本数据。
[3].算法训练
对样本数据中的每一个表情系数分别进行支持向量机回归分析,这样可以生成一个表情系数预测模型。根据表情系数预测模型,在给定一个特征向量,表情系数预测模型可以推算出该特征向量对应的每一个表情系数,表情系数的值在0到1之间,这个表情系数即为式中的βi。
[4].表情系数预测
表情系数预测实时运行,即主播在录像过程时,对摄像头采集到的每一帧图片帧,按照如“数据处理”中所示步骤先计算各个图片帧的特征向量,然后根据表情系数预测模型,对特征向量进行表情系数的概率计算,得到51个表情系数。
[5].驱动虚拟模型
以猴头卡通模型为例,提前采用建模工具制作出一个不带表情的中性脸图和51个融合形态图,由该中性脸图和51个融合形态图组成虚拟模型,可以按照以下的公式:
并根据表情系数预测模型预测的51个表情系数,合成出最终的跟图像中人脸表情一致的猴头卡通模型的动画表情。图7为两种人脸表情所对应的猴头卡通模型的动画表情。
上述视频展示方法,在直播或小视频中的人脸上赋予卡通人物,并实现卡通人物能随人的面部表情而相应变化。
在一个实施例中,如图8所示,图8为一个实施例中视频展示系统的结构示意图,本实施例中提供一种视频展示系统,包括虚拟模型显示模块810、表情系数获取模块820和动画表情生成模块830,其中:
虚拟模型显示模块810,用于识别视频中的人脸图像,并在视频的界面上展示人脸图像对应的虚拟模型;
表情系数获取模块820,用于采集人脸图像的特征信息,并根据特征信息获取表情系数;
动画表情生成模块830,用于利用表情系数驱动虚拟模型生成相应的动画表情。
上述视频展示系统,根据视频中人脸图像获取表情参数,通过表情系数驱动虚拟模型生成动画表情,并显示在该视频中,使得虚拟模型的动画表情与视频中人脸表情实时同步,虚拟模型的虚拟角色可以与视频的人脸表情相对应,虚拟模型的展示效果随着人脸表情的变化多样而尽显丰富,表情展示变得丰富多样有趣味,提升了虚拟角色的展示效果。
关于视频展示系统的具体限定可以参见上文中对于视频展示方法的限定,在此不再赘述。上述视频展示系统中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
图9为一个实施例中计算机设备的内部结构示意图。如图9所示,该计算机设备包括通过系统总线连接的处理器、非易失性存储介质、存储器和网络接口。其中,该计算机设备的非易失性存储介质存储有操作系统、数据库和计算机可读指令,数据库中可存储有控件信息序列,该计算机可读指令被处理器执行时,可使得处理器实现一种视频展示方法。该计算机设备的处理器用于提供计算和控制能力,支撑整个计算机设备的运行。该计算机设备的存储器中可存储有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器执行一种视频展示方法。该计算机设备的网络接口用于与终端连接通信。本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提出了一种计算机设备,计算机设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述任一实施例中视频展示方法的步骤。
在一个实施例中,提出了一种存储有计算机可读指令的存储介质,该计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述任一实施例中视频展示方法的步骤。
本发明实施例还提供了终端,如图10所示,图10为一个实施例中终端的内部结构示意图,为了便于说明,仅示出了与本发明实施例相关的部分,具体技术细节未揭示的,请参照本发明实施例方法部分。该终端可以为包括手机、平板电脑、PDA(PersonalDigitalAssistant,个人数字助理)、POS(Point of Sales,销售终端)、车载电脑等任意终端设备,以终端为手机为例:
图10示出的是与本发明实施例提供的终端相关的手机的部分结构的框图。参考图10,手机包括:射频(Radio Frequency,RF)电路1510、存储器1520、输入单元1530、显示单元1540、传感器1550、音频电路1560、无线保真(wireless fidelity,Wi-Fi)模块1570、处理器1580、以及电源1590等部件。本领域技术人员可以理解,图10中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
在本发明实施例中,该终端所包括的处理器1580还具有以下功能:识别视频中的人脸图像,并在视频的界面上展示人脸图像对应的虚拟模型;采集人脸图像的特征信息,并根据特征信息获取表情系数;利用表情系数驱动虚拟模型生成相应的动画表情。也即处理器1580具备执行上述的任一实施例视频展示方法的功能,在此不再赘述。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。