CN111899321A - 一种虚拟角色表情展现的方法和装置 - Google Patents
一种虚拟角色表情展现的方法和装置 Download PDFInfo
- Publication number
- CN111899321A CN111899321A CN202010873221.5A CN202010873221A CN111899321A CN 111899321 A CN111899321 A CN 111899321A CN 202010873221 A CN202010873221 A CN 202010873221A CN 111899321 A CN111899321 A CN 111899321A
- Authority
- CN
- China
- Prior art keywords
- expression
- sub
- weight
- component
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明实施例提供了一种虚拟角色表情展现的方法和装置,所述方法包括:响应于针对目标表情展现的指令,确定与目标表情对应的第一子表情和第二子表情,以及第一子表情和第二子表情分别对应的第一权重;确定第一子表情和第二子表情分别对应的表情组件集合,以及表情组件集合中每个表情组件分别对应的第二权重;根据第一子表情对应的第一权重、第一子表情对应的表情组件集合以及对应的第二权重、第二子表情对应的第一权重、第二子表情对应的表情组件集合以及对应的第二权重,获得目标表情;展示目标表情。本发明实施例可以实现减少虚拟角色表情展现的数据处理,同时提高变更虚拟角色表情展现的精细度。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种虚拟角色表情展现的方法和一种虚拟角色表情展现的装置。
背景技术
三维动画又称3D(Three-dimensional)动画,它不受时间、空间、地点、条件、对象的限制,运用各种表现形式把复杂、抽象的节目内容、科学原理、抽象概念等用集中、简化、形象、生动的形式表现出来。
三维动画中通常包含有虚拟人物,虚拟人物可以展现不同的表情。目前,针对三维动画中控制虚拟人物表情展现的方式有如下几种:
1、全脸部骨骼动画硬切:使用表情动画文件驱动三维角色骨骼,直接替换动画文件达到表情变化。这种方案几乎没有任何融合,过度生硬,通常只有在非写实类的三维角色上才有可能用到。如果需要丰富的表情则需要存储大量动画文件,需要大量制作动画的时间。
2、全脸部顶点融合权重:使用多套模型顶点数据作为形变模板,通过顶点对每套数据的权重值确定最终的位置,达到表情变化的目的。这种方案虽然效果好,但是可能会因为需要丰富的表情而产生大量的顶点数据文件,造成大量的资源制作时间投入和程序运行负担。
3、实时面部动捕数据:三维模型角色的面部骨骼与现实中的表情演员的面部捕捉器数据匹配,可以实时快速的生产效果真实的面部动画和过渡状态。但是动作捕捉的成本比较高而且产生的动画数据量极大,需要动画制作人员修正后才能被程序使用。
4、二维层面动画融合:在使用骨骼动画的基础上额外扩展一个平面维度,用于设定每个动画在这个平面维度上的二维坐标信息,所有动画的数据会基于他们各自的二维坐标信息与其他动画二维坐标信息对比,产生一张二维权重图来影响他们之间的动画数据过度。
在上述第1、2、3种方案中,在需要实现虚拟角色丰富的表情展现时,需要大量的数据处理,对处理三维动画的设备的资源有极大要求。由于虚拟角色的表现展现需要十分细致的变化,如果采用第4种方案中二维图的权重实现表情与表情之间的过度,难以实现。
发明内容
鉴于上述问题,提出了本发明实施例以便提供一种克服上述问题或者至少部分地解决上述问题的一种虚拟角色表情展现的方法和相应的一种虚拟角色表情的展现装置、电子设备、存储介质。
为了解决上述问题,本发明实施例公开了一种虚拟角色表情展现的方法,包括:
响应于针对目标表情展现的指令,确定与所述目标表情对应的第一子表情和第二子表情,以及所述第一子表情和所述第二子表情分别对应的第一权重;所述第一权重用于表示子表情对所述目标表情的影响程度;
确定所述第一子表情和所述第二子表情分别对应的表情组件集合,以及所述表情组件集合中每个表情组件分别对应的第二权重;所述第二权重用于表示所述表情组件对所述第一子表情或所述第二子表情的影响程度;
根据所述第一子表情对应的第一权重、所述第一子表情对应的表情组件集合以及对应的第二权重、所述第二子表情对应的第一权重、所述第二子表情对应的表情组件集合以及对应的第二权重,获得目标表情;
展示所述目标表情。
可选地,所述方法还包括:
针对预设的虚拟角色的面部骨骼信息,生成多组表情组件,所述多组表情组件中的每组表情组件中的每个表情组件为针对所述虚拟角色同一面部部位的单帧图像;
对所述多组表情组件进行分类,得到多个表情组件组合,每个所述表情组件组合包含一组以上的表情组件。
可选地,所述确定所述第一子表情和所述第二子表情分别对应的表情组件集合,包括:
从每个表情组件组合中依次确定与所述第一子表情或所述第二子表情对应的目标表情组件;
将从每个表情组件组合中确定的目标表情组件组成的集合作为所述第一子表情或所述第二子表情对应的表情组件集合。
可选地,所述对所述多组表情组件进行分类,得到多个表情组件组合,包括:根据每组表情组件针对的面部部位的关联性,对所述多组表情组件进行分类,得到多个表情组件组合。
可选地,所述方法还包括:针对预设的虚拟角色的面部骨骼信息,生成表情模块,所述表情模块为针对所述虚拟角色的一面部部位的动画;
所述确定与所述目标表情对应的第一子表情和第二子表情之前,所述方法还包括:确定针对所述目标表情的表情模块的开关未开启。
可选地,所述方法还包括:
若针对所述目标表情的表情模块的开关已开启,则播放所述表情模块。
可选地,所述方法还包括:
响应于针对当前的第一表情切换的指令,确定待切换的第二表情及所述第二表情对应的表情组件集合;
将所述第一表情对应的表情组件集合切换为所述第二表情对应的表情组件集合。
本发明实施例还公开了一种虚拟角色表情展现的装置,包括:
第一确定模块,用于响应于针对目标表情展现的指令,确定与所述目标表情对应的第一子表情和第二子表情,以及所述第一子表情和所述第二子表情分别对应的第一权重;所述第一权重用于表示子表情对所述目标表情的影响程度;
第二确定模块,用于确定所述第一子表情和所述第二子表情分别对应的表情组件集合,以及所述表情组件集合中每个表情组件分别对应的第二权重;所述第二权重用于表示所述表情组件对所述第一子表情或所述第二子表情的影响程度;
表情获取模块,用于根据所述第一子表情对应的第一权重、所述第一子表情对应的表情组件集合以及对应的第二权重、所述第二子表情对应的第一权重、所述第二子表情对应的表情组件集合以及对应的第二权重,获得目标表情;
表情展示模块,用于展示所述目标表情。
可选地,所述装置还包括:
第一表情生成模块,用于针对预设的虚拟角色的面部骨骼信息,生成多组表情组件,所述多组表情组件中的每组表情组件中的每个表情组件为针对所述虚拟角色同一面部部位的单帧图像;
表情分类模块,用于对所述多组表情组件进行分类,得到多个表情组件组合,每个所述表情组件组合包含一组以上的表情组件。
可选地,所述第二确定模块包括:
目标确定子模块,用于从每个表情组件组合中依次确定与所述第一子表情或所述第二子表情对应的目标表情组件;
集合确定子模块,用于将从每个表情组件组合中确定的目标表情组件组成的集合作为所述第一子表情或所述第二子表情对应的表情组件集合。
可选地,所述表情分类模块包括:
面部关联子模块,用于根据每组表情组件针对的面部部位的关联性,对所述多组表情组件进行分类,得到多个表情组件组合。
可选地,所述装置还可以包括:
第二表情生成模块,用于针对预设的虚拟角色的面部骨骼信息,生成表情模块,所述表情模块为针对所述虚拟角色的一面部部位的动画;
表情开启模块,用于确定针对所述目标表情的表情模块的开关未开启。
在本发明的一种可选实施例中,所述装置还可以包括:
表情播放模块,用于若针对所述目标表情的表情模块的开关已开启,则播放所述表情模块。
可选地,所述装置还可以包括:
待切换模块,用于响应于针对当前的第一表情切换的指令,确定待切换的第二表情及所述第二表情对应的表情组件集合;
表情切换模块,用于将所述第一表情对应的表情组件集合切换为所述第二表情对应的表情组件集合。
本发明实施例还公开了一种电子设备,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上所述的虚拟角色表情展现方法的步骤。
本发明实施例还公开了一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如上所述的虚拟角色表情展现方法的步骤。
本发明实施例包括以下优点:
在本发明实施例中,在响应针对目标表情展现的指令时,通过确定第一子表情、第二子表情以及分别与第一子表情和第二子表情对应的第一权重,确定第一子表情和第二子表情对应的表情组件集合、与表情组件集合中表情组件对应的第二权重,并根据表情组件集合中的表情组件按照相应的第二权重、子表情的第一权重进行融合,得到目标表情,从而实现对表情组件的融合,实现虚拟角色丰富的表情展示,通过第一权重和第二权重,在采用相同的表情组件时,可以采用不同的第一权重和/或不同的第二权重,实现表情的精细化融合,实现表情的精细化展现,进一步丰富了虚拟角色的表情展示。进一步地,可以通过在不同时刻确定相应的第一权重和第二权重,实现虚拟角色在展示不同表情时,过渡更加自然。
附图说明
图1是本发明提供的一种虚拟角色表情展现的方法实施例的步骤流程图;
图2本发明提供的表情组件示意图;
图3本发明提供的的多组表情组件组合分类示意图;
图4是本发明提供的针对同一表情组件组合表情切换示意图;
图5是本发明提供的一种虚拟角色表情展现的方法的示例示意图;
图6是本发明提供的一种虚拟角色表情展现的装置实施例的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明实施例中的虚拟角色表情展现的方法可以运行于终端设备或者是服务器。其中,终端设备可以为本地终端设备。当虚拟角色表情展现的方法运行于服务器时,该虚拟角色表情展现方法则可以基于云交互系统来实现与执行,其中,云交互系统包括服务器和客户端设备。
在一可选的实施方式中,云交互系统下可以运行各种云应用,例如:云游戏。以云游戏为例,云游戏是指以云计算为基础的游戏方式。在云游戏的运行模式下,游戏程序的运行主体和游戏画面呈现主体是分离的,虚拟角色表情展现方法的储存与运行是在云游戏服务器上完成的,客户端设备的作用用于数据的接收、发送以及游戏画面的呈现,举例而言,客户端设备可以是靠近用户侧的具有数据传输功能的显示设备,如,移动终端、电视机、计算机、掌上电脑等;但是进行虚拟角色表情展现的终端设备为云端的云游戏服务器。在进行游戏时,玩家操作客户端设备向云游戏服务器发送操作指令,云游戏服务器根据操作指令运行游戏,将游戏画面等数据进行编码压缩,通过网络返回客户端设备,最后,通过客户端设备进行解码并输出游戏画面。
在一可选的实施方式中,终端设备可以为本地终端设备。本地终端设备存储有游戏程序并用于呈现游戏画面。本地终端设备用于通过图形用户界面与玩家进行交互,即,常规的通过电子设备下载安装游戏程序并运行。该本地终端设备将图形用户界面提供给玩家的方式可以包括多种,例如,可以渲染显示在终端的显示屏上,或者,通过全息投影提供给玩家。举例而言,本地终端设备可以包括显示屏和处理器,该显示屏用于呈现图形用户界面,该图形用户界面包括游戏画面,该处理器用于运行该游戏、生成图形用户界面以及控制图形用户界面在显示屏上的显示。
参照图1,示出了本发明的一种虚拟角色表情展现的方法实施例的步骤流程图,具体可以包括如下步骤:
步骤101,响应于针对目标表情展现的指令,确定与所述目标表情对应的第一子表情和第二子表情,以及所述第一子表情和所述第二子表情分别对应的第一权重;所述第一权重用于表示子表情对所述目标表情的影响程度;
本发明实施例可以应用于不同的应用程序中,包括但不限于游戏类应用程序、动画制作类应用程序。
针对目标表情展现的指令可以由用户输入,或者由客户端和服务器中至少一个按照指定规则生成,本发明实施例对此不作限定。
目标表情展现的指令可以是控制指定虚拟角色展现目标表情的指令。
可以对虚拟角色可展现的表情划分为多个子表情,子表情可以展现不同的情感,例如:愤怒、惊讶、欣喜、悲哀等。目标表情可以由第一子表情和第二子表情共同展现得到,例如:目标表情可以为惊喜,则可以针对目标表情展现的指令,确定惊讶子表情为第一子表情、欣喜子表情为第二子表情,目标表情惊喜可以通过惊讶子表情和欣喜子表情共同展现得到。
需要说明的是,可以针对目标表情的指令,确定相应的至少一个子表情展现,不限于只确定两个子表情(第一子表情和第二子表情)。
可以通过目标表情展现的指令确定与第一子表情和第二子表情相应的第一权重。第一权重用于标识子表情对目标表情的影响程度,可以通过确定子表情对应的第一权重,确定该子表情对目标表情的影响程度。
例如:第一子表情为惊讶子表情、第二子表情为欣喜表情,针对第一子表情和第二子表情不同的第一权重,可以进一步确定目标表情惊喜是侧重于展现惊讶情感还是侧重于展现欣喜情感。当第一子表情的第一权重大于第二子表情的第二权重时,则目标表情侧重于展现第一子表情对应的情感;当第一子表情的第一权重,则目标表情侧重于展现第二子表情对应的情感。
步骤102,确定所述第一子表情和所述第二子表情分别对应的表情组件集合,以及所述表情组件集合中每个表情组件分别对应的第二权重;所述第二权重用于表示所述表情组件对所述第一子表情或所述第二子表情的影响程度;
子表情与表情组件集合对应,表情组件集合中的每一个表情组件分别对应第二权重,第二权重用于表示表情组件对子表情的影响程度。
例如:第一子表情对应的表情组件集合中包含多个表情组件,表情组件对应第二权重,第二权重用于表示该表情组件对第一子表情的影响程度。
步骤103,根据所述第一子表情对应的第一权重、所述第一子表情对应的表情组件集合以及对应的第二权重、所述第二子表情对应的第一权重、所述第二子表情对应的表情组件集合以及对应的第二权重,获得目标表情;
可以根据第一子表情对应的表情组件,按照其对应的第二权重和第一子表情对应的第一权重,以及,根据第二子表情对应的表情组件,按照其对应的第二权重和第一子表情对应的第一权重,进行融合,得到目标表情。
步骤104,展示所述目标表情。
控制虚拟角色展示目标表情。
在本发明实施例中,在响应针对目标表情展现的指令时,通过确定第一子表情、第二子表情以及分别与第一子表情和第二子表情对应的第一权重,确定第一子表情和第二子表情对应的表情组件集合、与表情组件集合中表情组件对应的第二权重,并根据表情组件集合中的表情组件按照相应的第二权重、第一权重进行融合,得到目标表情,从而实现对表情组件的融合,实现虚拟角色丰富的表情展示,通过第一权重和第二权重,在采用相同的表情组件时,可以采用不同的第一权重和/或不同的第二权重,实现表情的精细化融合,实现表情的精细化展现,进一步丰富了虚拟角色的表情展示。进一步地,可以通过在不同时刻确定相应的第一权重和第二权重,实现虚拟角色在展示不同表情时,过渡更加自然。
在本发明的一种可选实施例中,在步骤102之前,所述虚拟角色表情展现的方法还可以包括:针对预设的虚拟角色的面部骨骼信息,生成多组表情组件,所述多组表情组件中的每组表情组件中的每个表情组件为针对所述虚拟角色同一面部部位的单帧图像;对所述多组表情组件进行分类,得到多个表情组件组合,每个所述表情组件组合包含一组以上的表情组件。
虚拟角色是指三维虚拟角色,三维虚拟角色包括但不限于虚拟人物、虚拟动物、拟人化植物、拟人化动物、拟人化物体等,本发明实施例对具体虚拟角色的形象不做限定。
虚拟角色具有对应的面部骨骼信息,通过驱动面部骨骼信息可以展现相应的表情。可以针对虚拟角色的面部骨骼信息,生成多组表情组件。
参照图2,示出了本发明实施例中的表情组件示意图。
其中,多组表情组件中的每组表情组件中的表情组件为针对虚拟角色同一面部部位的单帧图像,例如:多组表情组件中包括一组针对左眉毛这一面部部位的表情组件(如图2中左起第一列的表情组件);一组针对右眉毛这一面部特征的的表情组件(如图2中左起第二列的表情组件);一组针对右眼球这一面部特征的表情组件(如图2中左起第六列的表情组件)。需要说明的是,可以针对不同面部部位生成多组表情组件,本发明实施例对面部部位的划分、表情组件的组的数量、每组表情组件中的表情组件数量不作限定。
如图2所示,作为一种示例,一组针对左眉毛这一面部部位的表情组件中可以包括左眉毛眉心上扬(从上至下第一个)、左眉毛眉梢上扬(从上至下第二个)、左眉毛眉心下压(从上至下第六个)等;。
可以对多组表情组件进行分类,得到多个表情组件组合,表情组件组合可以与虚拟角色的一个或多个面部部位对应。
参照图3,示出了本发明实施例中的多组表情组件组合分类示意图。
可以针对每个表情组合设置对应的维度层面,在维度层面中装载相应的表情组件。
例如:可以将多组表情组件划分三个表情组件组合,分别为:眉毛表情组件组合、眼睛表情组件组合、嘴巴表情组件组合,并设置三个维度层面:表情A、表情B、表情C与上述三个表情组件组合对应。其中,表情A中的A01、A02、A03、A04分别表示眉毛表情组件组合中的四个不同的表情组件;表情B中的B01、B02、B03、B04分别表示眼睛表情组件组合中的四个不同的表情组件;表情C中的C01、C02、C03、C04分别表示嘴巴表情组件组合中的四个不同的表情组件。
需要说明的是,在对多组表情组件进行分类的时候,可以将同一组表情组件划分在多个表情组件组合中,例如:一组表情组件为针对虚拟角色的左眉毛的表情组件。可以将该组表情组件划分在左眼表情组件组合中,同时可以划分在眼睛表情组件组合中。
可以将生成的表情组件存储至指定的数据库中,如有确定虚拟角色的不同表情有共通数据的话,则可以调用同一份数据(一个或多个表情组件)而无需再制作和导入新的动画资源。
数据库里存储情感数据集合的名称(表情对应的情感)、其控制的表情组件的第二权重和对应层级ID作为调用数据时的索引。基本数据格式如下:
名称:情感A
表情组件名称:01,层级(表情组件组合)01,第二权重0.5(以1为100%,0.5即50%)。
表情组件名称:02,层级02,第二权重0.8。
在本发明的一种可选实施例中,所述确定所述第一子表情和所述第二子表情分别对应的表情组件集合,包括:从每个表情组件组合中依次确定与所述第一子表情或所述第二子表情对应的目标表情组件;将从每个表情组件组合中确定的目标表情组件组成的集合作为所述第一子表情或所述第二子表情对应的表情组件集合。
具体实现中,可以针对表情组件设置组件标识,针对表情组件组合设置组合标识,组合标识可以单独设置或者由表情组件组合中包含的表情组件的组件标识组成。
在响应目标表情展现的指令时,可以确定至少一个第一目标组件标识,以及至少一个第二目标组件标识,并将第一目标组件标识对应的表情组件确定为第一子表情对应的目标表情组件,将第二目标组件标识对应的表情组件确定为第二子表情对应的目标表情组件。
将与第一目标组件标识对应的表情组件得到集合作为第一子表情,将与第二目标组件标识对应的表情组件得到集合作为第二子表情,从而实现在响应目标表情展现的指令时,确定第一子表情和第二子表情。
在本发明的一种可选实施例中,所述对所述多组表情组件进行分类,得到多个表情组件组合,包括:根据每组表情组件针对的面部部位的关联性,对所述多组表情组件进行分类,得到多个表情组件组合。
在虚拟角色进行表情展现时,面部变化可能是相互关联的,比如:当控制虚拟角色进行左眼相关的表情展现(例如:闭合左眼)时,相互关联的面部部位包括但不限于左眼皮、左眼睫毛、左眉毛、左眼球,通过对具备关联性的面部部位对表情组件进行分类,从而实现在控制虚拟角色进行相应的表情展现时,能够统一对相互管理的面部部位进行控制。例如:将多组表情组件进行分类,将左眼皮、左眼睫毛、左眉毛、左眼球对应的三组表情组件划分为左眼表情组件组合,通过控制左眼表情组件组合,可以同时控制虚拟角色的左眼皮、做眼睫毛、左眉毛、左眼球进行相应的表情展现,使得虚拟角色在展示相应表情时,左眼相关面部部位更加自然、生动、细腻。
在本发明的一种可选实施例中,所述方法还包括:针对预设的虚拟角色的面部骨骼信息,生成表情模块,所述表情模块为针对所述虚拟角色的一面部部位的动画;所述确定与所述目标表情对应的第一子表情和第二子表情之前,所述方法还包括:确定针对所述目标表情的表情模块的开关未开启。
可以针对虚拟角色面部骨骼信息,生成由多帧图像组成的表情模块。可以预先设置有与表情模块对应的虚拟开关,通过虚拟开关控制虚拟角色是否进行与表情模块对应的表情展现。
在本发明实施例中,可以设置表情模块对应的第三权重为100%,当目标表情对应的表情模块的虚拟开关未开启后,确定与目标表情对应的第一子表情和第二子表情,并通过第一子表情和第二子表情融合得到目标表情。
在本发明的一种可选实施例中,所述方法还包括:若针对所述目标表情的表情模块的开关已开启,则播放所述表情模块。
如果针对目标表情的虚拟开关已开启,则播放表情模块,从而控制虚拟角色按照目标表情对应的表情模块进行动态的表情展现。
在本发明实施例中,通过结合表情组合和表情模块的方式,控制虚拟角色进行相应的表情展现,一方面可以通过子表情的融合使得虚拟角色表情展现更加自然、细腻,丰富了虚拟角色不同的表情,另一方面通过表情模块控制虚拟角色进行相应的表情展现,能够对特定的表情(例如常用的表情,或者需要组合大量表情组件的表情)进行预先设置,减少了控制虚拟角色进行表情展现时的数据处理量,避免虚拟角色发生表情展现错误。
在实际应用中,当不同的表情模块对应于虚拟角色的面部骨骼信息存在重合时,表情模块对应的虚拟开关具有互斥性。当不同表情模块对应于部分或全部重合的面部骨骼信息时,最多开启一个表情模块的虚拟开关。
例如:表情模块A为眨眼,表情模块B为瞪眼,表情模块A和表情模块B均对虚拟角色中面部骨骼信息中眼睛部分对应,则最多只能开启表情模块A或者表情模块B对应的虚拟开关,并控制虚拟角色进行相应的表情展现,而无法控制虚拟角色同时进行表情模块A和表情模块B的表情展现。
在本发明的一种可选实施例中,所述方法还可以包括:响应于针对当前的第一表情切换的指令,确定待切换的第二表情及所述第二表情对应的表情组件集合;将所述第一表情对应的表情组件集合切换为所述第二表情对应的表情组件集合。
可以在接收到针对当前的第一表情切换的指令时,确定待切换的表情组件集合,并将当前的第一表情的对应的表情组件集合切换至待切换的表情组件集合,从而实现虚拟角色的表情过渡。
例如:第一表情组件集合为用于展现虚拟角色悲伤表情的表情组件集合,待切换的第二表情组件集合为用于展现虚拟角色愤怒表情的表情组件集合,通过将第一表情对应的表情组件集合切换至第二表情组件集合,实现将虚拟角色从悲伤表情切换至愤怒表情。
参照图4,示出了本发明实施例中针对同一表情组件组合表情切换示意图。第一表情切换的指令可以与同一表情组件组合对应,即通过第一表情切换的指令,确定的第二表情的表情组件集合与第一表情的表情组件集合同属于同一表情组件组合,实现虚拟角色基于同一表情组件组合进行不同的表情展现。在一示例中,眉头上扬的同时眉梢下压。假设表情A的A03为眉毛整体上扬,A04为眉梢下压。那么同时提高A03和A04的第二权重即可达到实现表情的切换。在另一示例中,眉毛下压但眉心和眉梢上扬,假设表情A的A01为眉心上扬,A03为眉毛整体下压,A04为眉梢上扬。那么同时提高A01、A03、A04的第二权重即可实现表情的切换。
以下,以一个示例对本发明实施例作进一步说明。参照图5,示出了本发明提供的一种虚拟角色表情展现的方法的示例示意图。
通过X、Y两个表情组件集合的权重影响来计算互相之间对表情组件的影响。例如:假设虚拟角色表情权重上限为100%。若当前角色的情感属于X,那么角色则100%受到X集合影响,而不受到Y集合影响。若当前角色大部分的情感表现为X,小部分为Y的情感表现,那么可能会有X为70%,Y为30%或更多情况。以X占表情权重为70%,Y占表情权重为30%为例,响应于针对目标表情展现的指令,确定第一子表情和第二子表情,以及确定第一子表情的第一权重为0.7,第二子表情的第一权重为0.3。并确定第一子表情对应的表情组件集合X(实线包络线)和第二子表情对应的表情组件集合Y(虚线包络线),表情组件集合X包含有表情组件A01和表情组件A02,表情组件集合Y包含表情组件A02。假设X中A01的第二权重为1,那么基于表情组件集合70%的第一权重,当前表情组件A01在角色面部出现的影响程度实际为1*70%=0.7。而A02因为即受到X又受到Y的权重影响。假设在X中A02的第二权重为0.5,在Y中A02的第二权重为0.1,那么基于X、Y自权重比,A02在角色面部出现的影响程度实际为0.5*70%+0.1*30%=0.38。
在实际应用中,表情组件集合的第一权重之和不足100%或者超出100%,本发明实施例对此不作限定。
在本发明实施例中,通过将子表情的融合得到目标表情,丰富了角色角色可展现的表情;通过结合表情组件和表情模块控制虚拟角色进行相应的表情在展现,在通过表情组件保证虚拟角色展现表情的精细度时,通过设置表情模块避免采用大量的表情组件进行复杂的表情展现,减少了表情展现的开发和展现过程中的数据处理量,一定程度上提高了表情展现的准确性;通过表情组件集的切换,实现在虚拟角色进行表情切换时,相应的表情组件进行切换,使得虚拟角色表情切换更加自然,生动。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
参照图6,示出了本发明的一种虚拟角色表情展现装置实施例的结构框图,具体可以包括如下模块:
第一确定模块601,用于响应于针对目标表情展现的指令,确定与所述目标表情对应的第一子表情和第二子表情,以及所述第一子表情和所述第二子表情分别对应的第一权重;所述第一权重用于表示子表情对所述目标表情的影响程度;
第二确定模块602,用于确定所述第一子表情和所述第二子表情分别对应的表情组件集合,以及所述表情组件集合中每个表情组件分别对应的第二权重;所述第二权重用于表示所述表情组件对所述第一子表情或所述第二子表情的影响程度;
表情获取模块603,用于根据所述第一子表情对应的第一权重、所述第一子表情对应的表情组件集合以及对应的第二权重、所述第二子表情对应的第一权重、所述第二子表情对应的表情组件集合以及对应的第二权重,获得目标表情;
表情展示模块604,用于展示所述目标表情。
在本发明的一种可选实施例中,所述装置还包括:
第一表情生成模块,用于针对预设的虚拟角色的面部骨骼信息,生成多组表情组件,所述多组表情组件中的每组表情组件中的每个表情组件为针对所述虚拟角色同一面部部位的单帧图像;
表情分类模块,用于对所述多组表情组件进行分类,得到多个表情组件组合,每个所述表情组件组合包含一组以上的表情组件。
在本发明的一种可选实施例中,所述第二确定模块602包括:
目标确定子模块,用于从每个表情组件组合中依次确定与所述第一子表情或所述第二子表情对应的目标表情组件;
集合确定子模块,用于将从每个表情组件组合中确定的目标表情组件组成的集合作为所述第一子表情或所述第二子表情对应的表情组件集合。
在本发明的一种可选实施例中,所述表情分类模块包括:
面部关联子模块,用于根据每组表情组件针对的面部部位的关联性,对所述多组表情组件进行分类,得到多个表情组件组合。
在本发明的一种可选实施例中,所述装置还可以包括:
第二表情生成模块,用于针对预设的虚拟角色的面部骨骼信息,生成表情模块,所述表情模块为针对所述虚拟角色的一面部部位的动画;
表情开启模块,用于确定针对所述目标表情的表情模块的开关未开启。
在本发明的一种可选实施例中,所述装置还可以包括:
表情播放模块,用于若针对所述目标表情的表情模块的开关已开启,则播放所述表情模块。
在本发明的一种可选实施例中,所述装置还可以包括:
待切换模块,用于响应于针对当前的第一表情切换的指令,确定待切换的第二表情及所述第二表情对应的表情组件集合;
表情切换模块,用于将所述第一表情对应的表情组件集合切换为所述第二表情对应的表情组件集合。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本发明实施例还公开了一种电子设备,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上所述的虚拟角色表情展现的方法的步骤。
本发明实施例还公开了一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如上所述的虚拟角色表情展现的方法的步骤。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种虚拟角色表情展现的方法和一种虚拟角色表情展现的装置,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种虚拟角色表情展现的方法,其特征在于,所述方法包括:
响应于针对目标表情展现的指令,确定与所述目标表情对应的第一子表情和第二子表情,以及所述第一子表情和所述第二子表情分别对应的第一权重;所述第一权重用于表示子表情对所述目标表情的影响程度;
确定所述第一子表情和所述第二子表情分别对应的表情组件集合,以及所述表情组件集合中每个表情组件分别对应的第二权重;所述第二权重用于表示所述表情组件对所述第一子表情或所述第二子表情的影响程度;
根据所述第一子表情对应的第一权重、所述第一子表情对应的表情组件集合以及对应的第二权重、所述第二子表情对应的第一权重、所述第二子表情对应的表情组件集合以及对应的第二权重,获得目标表情;
展示所述目标表情。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
针对预设的虚拟角色的面部骨骼信息,生成多组表情组件,所述多组表情组件中的每组表情组件中的每个表情组件为针对所述虚拟角色同一面部部位的单帧图像;
对所述多组表情组件进行分类,得到多个表情组件组合,每个所述表情组件组合包含一组以上的表情组件。
3.根据权利要求2所述的方法,其特征在于,所述确定所述第一子表情和所述第二子表情分别对应的表情组件集合,包括:
从每个表情组件组合中依次确定与所述第一子表情或所述第二子表情对应的目标表情组件;
将从每个表情组件组合中确定的目标表情组件组成的集合作为所述第一子表情或所述第二子表情对应的表情组件集合。
4.根据权利要求2所述的方法,其特征在于,所述对所述多组表情组件进行分类,得到多个表情组件组合,包括:
根据每组表情组件针对的面部部位的关联性,对所述多组表情组件进行分类,得到多个表情组件组合。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
针对预设的虚拟角色的面部骨骼信息,生成表情模块,所述表情模块为针对所述虚拟角色的一面部部位的动画;
所述确定与所述目标表情对应的第一子表情和第二子表情之前,所述方法还包括:
确定针对所述目标表情的表情模块的开关未开启。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
若针对所述目标表情的表情模块的开关已开启,则播放所述表情模块。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于针对当前的第一表情切换的指令,确定待切换的第二表情及所述第二表情对应的表情组件集合;
将所述第一表情对应的表情组件集合切换为所述第二表情对应的表情组件集合。
8.一种虚拟角色表情展现的装置,其特征在于,包括:
第一确定模块,用于响应于针对目标表情展现的指令,确定与所述目标表情对应的第一子表情和第二子表情,以及所述第一子表情和所述第二子表情分别对应的第一权重;所述第一权重用于表示子表情对所述目标表情的影响程度;
第二确定模块,用于确定所述第一子表情和所述第二子表情分别对应的表情组件集合,以及所述表情组件集合中每个表情组件分别对应的第二权重;所述第二权重用于表示所述表情组件对所述第一子表情或所述第二子表情的影响程度;
表情获取模块,用于根据所述第一子表情对应的第一权重、所述第一子表情对应的表情组件集合以及对应的第二权重、所述第二子表情对应的第一权重、所述第二子表情对应的表情组件集合以及对应的第二权重,获得目标表情;
表情展示模块,用于展示所述目标表情。
9.一种电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至7中任一项所述的虚拟角色表情展现的方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的虚拟角色表情展现的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010873221.5A CN111899321B (zh) | 2020-08-26 | 2020-08-26 | 一种虚拟角色表情展现的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010873221.5A CN111899321B (zh) | 2020-08-26 | 2020-08-26 | 一种虚拟角色表情展现的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111899321A true CN111899321A (zh) | 2020-11-06 |
CN111899321B CN111899321B (zh) | 2023-09-26 |
Family
ID=73224375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010873221.5A Active CN111899321B (zh) | 2020-08-26 | 2020-08-26 | 一种虚拟角色表情展现的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111899321B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115526966A (zh) * | 2022-10-12 | 2022-12-27 | 广州鬼谷八荒信息科技有限公司 | 一种用调度五官部件实现虚拟人物表情展现的方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002304638A (ja) * | 2001-04-03 | 2002-10-18 | Atr Ningen Joho Tsushin Kenkyusho:Kk | 表情アニメーション生成装置および表情アニメーション生成方法 |
US20100203968A1 (en) * | 2007-07-06 | 2010-08-12 | Sony Computer Entertainment Europe Limited | Apparatus And Method Of Avatar Customisation |
US20110295573A1 (en) * | 2010-06-01 | 2011-12-01 | Fujitsu Limited | Model expression generation method and apparatus |
US20110310237A1 (en) * | 2010-06-17 | 2011-12-22 | Institute For Information Industry | Facial Expression Recognition Systems and Methods and Computer Program Products Thereof |
JP2015219698A (ja) * | 2014-05-16 | 2015-12-07 | Kddi株式会社 | パーツの影響度に基づいて感情を推定する装置、プログラム及び方法 |
US20170256098A1 (en) * | 2016-03-02 | 2017-09-07 | Adobe Systems Incorporated | Three Dimensional Facial Expression Generation |
CN107657651A (zh) * | 2017-08-28 | 2018-02-02 | 腾讯科技(上海)有限公司 | 表情动画生成方法和装置、存储介质及电子装置 |
CN109509242A (zh) * | 2018-11-05 | 2019-03-22 | 网易(杭州)网络有限公司 | 虚拟对象面部表情生成方法及装置、存储介质、电子设备 |
CN109829363A (zh) * | 2018-12-18 | 2019-05-31 | 深圳壹账通智能科技有限公司 | 表情识别方法、装置、计算机设备和存储介质 |
US20200090394A1 (en) * | 2018-09-19 | 2020-03-19 | XRSpace CO., LTD. | Avatar facial expression generating system and method of avatar facial expression generation for facial model |
-
2020
- 2020-08-26 CN CN202010873221.5A patent/CN111899321B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002304638A (ja) * | 2001-04-03 | 2002-10-18 | Atr Ningen Joho Tsushin Kenkyusho:Kk | 表情アニメーション生成装置および表情アニメーション生成方法 |
US20100203968A1 (en) * | 2007-07-06 | 2010-08-12 | Sony Computer Entertainment Europe Limited | Apparatus And Method Of Avatar Customisation |
US20110295573A1 (en) * | 2010-06-01 | 2011-12-01 | Fujitsu Limited | Model expression generation method and apparatus |
US20110310237A1 (en) * | 2010-06-17 | 2011-12-22 | Institute For Information Industry | Facial Expression Recognition Systems and Methods and Computer Program Products Thereof |
JP2015219698A (ja) * | 2014-05-16 | 2015-12-07 | Kddi株式会社 | パーツの影響度に基づいて感情を推定する装置、プログラム及び方法 |
US20170256098A1 (en) * | 2016-03-02 | 2017-09-07 | Adobe Systems Incorporated | Three Dimensional Facial Expression Generation |
CN107657651A (zh) * | 2017-08-28 | 2018-02-02 | 腾讯科技(上海)有限公司 | 表情动画生成方法和装置、存储介质及电子装置 |
US20200090394A1 (en) * | 2018-09-19 | 2020-03-19 | XRSpace CO., LTD. | Avatar facial expression generating system and method of avatar facial expression generation for facial model |
CN109509242A (zh) * | 2018-11-05 | 2019-03-22 | 网易(杭州)网络有限公司 | 虚拟对象面部表情生成方法及装置、存储介质、电子设备 |
CN109829363A (zh) * | 2018-12-18 | 2019-05-31 | 深圳壹账通智能科技有限公司 | 表情识别方法、装置、计算机设备和存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115526966A (zh) * | 2022-10-12 | 2022-12-27 | 广州鬼谷八荒信息科技有限公司 | 一种用调度五官部件实现虚拟人物表情展现的方法 |
CN115526966B (zh) * | 2022-10-12 | 2023-06-30 | 广州鬼谷八荒信息科技有限公司 | 一种用调度五官部件实现虚拟人物表情展现的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111899321B (zh) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102658960B1 (ko) | 얼굴 재연을 위한 시스템 및 방법 | |
US8988436B2 (en) | Training system and methods for dynamically injecting expression information into an animated facial mesh | |
CN110766776B (zh) | 生成表情动画的方法及装置 | |
CN111368137A (zh) | 视频的生成方法、装置、电子设备及可读存储介质 | |
US20230247178A1 (en) | Interaction processing method and apparatus, terminal and medium | |
CN111489423B (zh) | 一种动画处理的方法及装置、电子设备、存储介质 | |
CN110148191A (zh) | 视频虚拟表情生成方法、装置及计算机可读存储介质 | |
KR101977893B1 (ko) | 영상컨텐츠 적용 디지털액터의 운용방법 | |
CN114222076B (zh) | 一种换脸视频生成方法、装置、设备以及存储介质 | |
CN117519477A (zh) | 一种基于显示屏的数字人虚拟交互系统及方法 | |
CN114904268A (zh) | 一种虚拟形象的调整方法、装置、电子设备及存储介质 | |
CN110136231B (zh) | 虚拟角色的表情实现方法、装置及存储介质 | |
CN111899321B (zh) | 一种虚拟角色表情展现的方法和装置 | |
CN114026524B (zh) | 用于动画化人脸的方法、系统、以及计算机可读介质 | |
CN116958344A (zh) | 虚拟形象的动画生成方法、装置、计算机设备及存储介质 | |
CN113487710A (zh) | 虚拟形象生成方法、装置、电子设备和计算机可读存储介质 | |
CN114898019A (zh) | 一种动画融合方法和装置 | |
KR20010091219A (ko) | 표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법 | |
CN118012272B (zh) | 基于语境分析切换虚拟人物动作的方法、系统及存储介质 | |
KR102553432B1 (ko) | 아바타 얼굴 생성 시스템 | |
CN115880441B (zh) | 一种3d可视化模拟人物生成方法及系统 | |
KR100965622B1 (ko) | 감성형 캐릭터 및 애니메이션 생성 방법 및 장치 | |
CN118012272A (zh) | 基于语境分析切换虚拟人物动作的方法、系统及存储介质 | |
Gao et al. | Application of Digital Media Technology in 3D Animation Design and Production | |
Ye | Immersive VR IS Based on Virtual Reality Technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |