CN108874114B - 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质 - Google Patents

实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN108874114B
CN108874114B CN201710318050.8A CN201710318050A CN108874114B CN 108874114 B CN108874114 B CN 108874114B CN 201710318050 A CN201710318050 A CN 201710318050A CN 108874114 B CN108874114 B CN 108874114B
Authority
CN
China
Prior art keywords
expression
virtual object
dimensional virtual
action
execute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710318050.8A
Other languages
English (en)
Other versions
CN108874114A (zh
Inventor
张玖林
李斌
刘文婷
易薇
陈扬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201710318050.8A priority Critical patent/CN108874114B/zh
Publication of CN108874114A publication Critical patent/CN108874114A/zh
Application granted granted Critical
Publication of CN108874114B publication Critical patent/CN108874114B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提出了一种实现虚拟对象情绪表达的方法,所述方法包括:接收表情数据,提取与所述表情数据对应的用户标识,所述表情数据是通过识别与所述用户标识对应的脸部图像得到的;确定与所述表情数据对应的表情类型;查找与所述表情类型对应的动作驱动文件;根据所述表情数据和所述动作驱动文件控制所述用户标识对应的三维虚拟对象执行相应的表情动作。该方法可以形象的表达用户的真实情绪。此外,还提出了一种实现虚拟对象情绪表达的装置、计算机设备及存储介质。

Description

实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质
技术领域
本发明涉及计算机处理领域,特别是涉及一种实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质。
背景技术
随着社交网络的发展,越来越多的人通过网络进行沟通交流。在沟通交流的过程中,仅仅通过文字很难表达人们的真实情感,很多人往往会选择使用表情库中的动画表情来辅助表示当时的情绪,但是现有的表情库中的表情都是二维的,且与发送者自身形象无关,很难表达用户的真实情绪。
发明内容
基于此,有必要针对上述问题,提供了一种可以形象的表达出用户真实情绪的实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质。
一种实现虚拟对象情绪表达的方法,所述方法包括:
接收表情数据,提取与所述表情数据对应的用户标识,所述表情数据是通过识别与所述用户标识对应的脸部图像得到的;
确定与所述表情数据对应的表情类型;
查找与所述表情类型对应的动作驱动文件;
根据所述表情数据和所述动作驱动文件控制所述用户标识对应的三维虚拟对象执行相应的表情动作。
一种实现虚拟对象情绪表达的装置,所述装置包括:
接收模块,用于接收表情数据,提取与所述表情数据对应的用户标识,所述表情数据是通过识别与所述用户标识对应的脸部图像得到的;
确定模块,用于确定与所述表情数据对应的表情类型;
查找模块,用于查找与所述表情类型对应的动作驱动文件;
控制模块,用于根据所述表情数据和所述动作驱动文件控制所述用户标识对应的三维虚拟对象执行相应的表情动作。
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行以下步骤:
接收表情数据,提取与所述表情数据对应的用户标识,所述表情数据是通过识别与所述用户标识对应的脸部图像得到的;
确定与所述表情数据对应的表情类型;
查找与所述表情类型对应的动作驱动文件;
根据所述表情数据和所述动作驱动文件控制所述用户标识对应的三维虚拟对象执行相应的表情动作。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现以下步骤:
接收表情数据,提取与所述表情数据对应的用户标识,所述表情数据是通过识别与所述用户标识对应的脸部图像得到的;
确定与所述表情数据对应的表情类型;
查找与所述表情类型对应的动作驱动文件;
根据所述表情数据和所述动作驱动文件控制所述用户标识对应的三维虚拟对象执行相应的表情动作。
上述实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质,接收表情数据,确定与该表情数据的表情类型,进而查找与该表情类型对应的动作驱动文件,然后根据表情数据和动作驱动文件控制对应的三维虚拟对象执行相应的表情动作。通过三维虚拟对象展示用户的表情,并且配合相应的身体动作,可以形象的表达出用户的真实情绪。
一种实现虚拟对象情绪表达的方法,所述方法包括:
接收表情消息,所述表情消息中携带有发起该表情消息的用户标识;
获取与所述表情消息对应的动画驱动文件;
通过所述动画驱动文件驱动与所述用户标识对应的三维虚拟对象执行相应的表情动作。
一种实现虚拟对象情绪表达的装置,所述装置包括:
接收模块,用于接收表情消息,所述表情消息中携带有发起该表情消息的用户标识;
获取模块,用于获取与所述表情消息对应的动画驱动文件;
驱动模块,用于通过所述动画驱动文件驱动与所述用户标识对应的三维虚拟对象执行相应的表情动作。
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行以下步骤:
接收表情消息,所述表情消息中携带有发起该表情消息的用户标识;
获取与所述表情消息对应的动画驱动文件;
通过所述动画驱动文件驱动与所述用户标识对应的三维虚拟对象执行相应的表情动作。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现以下步骤:
接收表情消息,所述表情消息中携带有发起该表情消息的用户标识;
获取与所述表情消息对应的动画驱动文件;
通过所述动画驱动文件驱动与所述用户标识对应的三维虚拟对象执行相应的表情动作。
上述实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质,通过接收表情消息以及获取与表情消息对应的动画驱动文件,然后通过动画驱动文件驱动与发送者对应的三维虚拟对象展示相应的表情动作,从而可以形象的通过三维虚拟对象表达出用户真实的情绪。该方法通过将用户想要表达的情绪与用户自身对应的三维虚拟对象进行结合,可以在会话中更真实的表达会话参与者的情绪,同时也增加了会话的乐趣。
附图说明
图1为一个实施例中实现虚拟对象情绪表达的应用环境图;
图2为一个实施例中计算机设备的内部结构示意图;
图3为一个实施例中实现虚拟对象情绪表达的方法流程图;
图4为一个实施例中添加粒子特效的示意图;
图5为一个实施例中三维虚拟对象中骨骼命名方式的示意图;
图6为另一个实施例中实现虚拟对象情绪表达的方法流程图;
图7为一个实施例中三维虚拟对象展示“赞”情绪的示意图;
图8为一个实施例中实现虚拟对象情绪表达的装置结构框图;
图9为另一个实施例中实现虚拟对象情绪表达的装置结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,在一个实施例中,一种实现虚拟对象情绪表达的方法可应用于如图1所示的应用环境中,在该应用环境中包括第一终端102、服务器104,第二终端106,第一终端102与第二终端106可以通过服务器104进行通信。第一终端102和第二终端106既可以采集数据,又可以发送以及接收对方发送的数据。服务器104可以是独立的服务器,也可以是多个服务器构成的服务器集群。第一终端102和第二终端106可以是相同或者不同的终端。终端可以是智能手机、平板电脑、笔记本电脑、台式电脑、个人数字助理和穿戴式设备等具有通信功能的电子设备。
第一终端102可用于采集用户脸部图像,该用户脸部图像与第一用户标识对应,然后对采集到的用户脸部图像进行识别,得到相应的表情数据,根据该表情数据可以控制与第一用户标识对应的三维虚拟对象的面部执行相应的表情。第一终端102还可以将该表情数据通过服务器104发送到第二终端106,第二终端106接收第一终端102发送的表情数据,确定与该表情数据对应的表情类型,然后根据该表情类型查找相应的动作驱动文件,根据表情数据和动作驱动文件控制与第一用户标识对应的三维虚拟对象执行相应的表情动作。
可以理解,在其它实施例中,第一终端102可以通过点对点的方式直接将动画驱动文件发送至第二终端106,而不需要通过服务器104的转发。
如图2所示,为一个实施例中计算机设备的内部结构示意图。该计算机设备可以是图1中的第一终端102或者第二终端106。参照图2,该计算机设备包括通过系统总线连接的处理器、非易失性存储介质、内存储器、网络接口、显示屏、输入装置和图像采集装置。其中,该计算机设备的非易失性存储介质可存储操作系统和计算机可读指令,该计算机可读指令被执行时,可使得处理器执行一种实现虚拟对象情绪表达的方法。该计算机设备的处理器用于提供计算和控制能力,支撑整个计算机设备的运行。该内存储器中可储存有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器执行一种实现虚拟对象情绪表达的方法。计算机设备的网络接口用于进行网络通信,如发送表情数据等。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。触摸层和显示屏构成触控屏。图像采集装置可以是摄像头。本领域技术人员可以理解,图2中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
如图3所示,在一个实施例中,提出了一种实现虚拟对象情绪表达的方法,该方法可应用图1中的第一终端102或第二终端106中,具体包括以下步骤:
步骤302,接收表情数据,提取与表情数据对应的用户标识,表情数据是通过识别与用户标识对应的脸部图像得到的。
在本实施例中,表情数据是指能够表示面部表情的数据。面部表情是指通过眼部肌肉、颜面肌肉和口部肌肉的变化来表现各种情绪状态。表情数据是通过采集用户脸部图像,然后识别该采集到的用户脸部图像得到的。其中,用户脸部图像的采集可以通过终端中的前置或后置摄像头来进行采集。采集的方式可以通过拍摄照片的形式,也可以是通过拍摄视频的形式来获取,因为视频可以看作是一帧帧的图片组成的。然后通过识别算法识别该采集到的用户脸部图像得到相应的表情数据,也就是说,通过调用摄像头采集并识别真实人脸表情,得到相应的表情数据,后续再根据表情数据真实还原到三维虚拟对象(Avatar)的脸部。具体地,表情数据可以采用若干个Blendshape(表情变形)对应的数值来表示。Blendshape用于控制面部细节表情,一般脸部可以设置几十个Blendshape,每一个Blendshape只控制一个面部细节,比如,眼角、嘴巴、嘴角等可以分别采用不同的Blendshape来进行控制,每个Blendshape取值范围是0-100,举个例子,一个控制眼皮的Blendshape,如果取值为0时表示闭着眼,取值为100时表示完全张开。通过几十个Blendshape组合就可以合成非常复杂的面部表情。所以对用户脸部图像进行识别实际上就是通过识别算法计算得到各个Blendshape对应的值,该各个Blendshape对应的值就是得到的表情数据,根据得到的表情数据就可以组合出与真实表情相近的面部表情,其中,识别算法可以采用AAM(Active Appearance Model,主动外观模型)等现有的识别算法,这里并不对识别算法进行限制。此外,一个情绪的表达往往需要连续的多个动画帧才能完成的,所以对应的需要采集多张连续的用户脸部表情,识别得到多组表情数据,每一组表情数据对应一张图片,通过多张连续的图片组成的动画来表达相应的情绪。
步骤304,确定与表情数据对应的表情类型。
在本实施例中,预先将表情按照一定的规则进行分类,比如,可以按照基本表情分为“哭”、“笑”、“愤怒”、“大哭”“大笑”等,也可以按照表情幅度进行分类,比如,张嘴、眨眼、挑眉等。对于表情的分类可以根据实际情况自由的设置。可以理解,上述列举的表情类型仅用于举例,并不用于限定表情的分类。终端接收到表情数据后,根据预设的表情分类确定与该表情数据的表情类型。确定表情类型的目的是为了给表情配置相应的身体动作,便于后续通过三维虚拟对象展示相应表情的同时配合展示相应的身体动作,其中,三维虚拟对象是指网络虚拟角色(Avatar)。通过为表情搭配相应的身体动作能够更自然更形象的传递相应的表情,有利于情绪的表达。
具体地,表情数据是采用若干个Blendshape(表情变形)对应的数值来表示的。所以可以预先设置不同表情类型所对应的Blendshape的取值范围。那么当获取到表情数据中Blendshape的值时就可以确定相应的表情类型。比如,可以根据嘴部对应的Blendshape的值来判断用户嘴部的状态,比如,当嘴部的某个Blendshape的值在50-100之间时,可以判定对应的表情类型为张嘴。当然,一个表情类型的判断往往可能需要多个Blendshape的值来进行确定,可以根据实际情况具体设置。
步骤306,查找与表情类型对应的动作驱动文件。
在本实施例中,预先设置了不同表情类型对应的动作驱动文件,动作驱动文件用于驱动或控制三维虚拟对象执行相应的动作。当确定了表情类型后,便可以根据表情类型查找对应的动作驱动文件。动作驱动文件的作用是为相应的表情添加身体动作,比如,点头、举手、抬脚等动作,便于更好的表达相应的情绪。举个例子,如果检测到的表情类型为“大哭”,那么可以为其配置相应的抬手擦眼泪的动作。而抬手擦眼泪的动作可以预先设置好放在相应的动作驱动文件中,便于后续根据动作驱动文件驱动相应的三维虚拟对象展示相应的抬手擦眼泪的动作。需要说明的是,一个表情类型可以对应一个或多个动作驱动文件,当对应多个动作驱动文件时,需要预先设置该多个动作驱动文件的播放顺序,后续根据该预先设置的播放顺序依次播放相应的动作驱动文件,以驱动相应的三维虚拟对象执行相应的动作。
步骤308,根据表情数据和动作驱动文件控制用户标识对应的三维虚拟对象执行相应的表情动作。
在本实施例中,三维虚拟对象是指网络虚拟角色(Avatar),Avatar是3D形象。每个用户标识都对应有一个自己的三维虚拟对象(Avatar),该三维虚拟对象可以为卡通形象,也可以是真实还原的真人形象。为了更真实的表达用户的情绪,采用与表情数据对应的用户标识所对应的三维虚拟对象来执行相应的表情动作。表情动作包括表情和身体动作。其中,通过表情数据来控制三维虚拟对象的脸部执行相应的表情,比如,执行相应的微笑、张嘴、眨眼等表情。也就是说,采用识别真实人脸表情得到的表情数据来控制三维虚拟对象的脸部执行相应的表情,从而实现了将人脸表情真实还原到该用户标识对应的三维虚拟对象(Avatar)的脸部。通过动作驱动文件控制三维虚拟对象执行相应的身体动作,其中,身体动作包括头部动作和肢体动作,比如,执行相应的点头、举手、抬脚等动作。
在一个实施例中,第一终端、第二终端中安装有相应的APP(Application,应用程序),第一终端通过第一用户标识登录到该APP,然后调用第一终端中的摄像头采集用户脸部图像,默认采集到的用户脸部图像与当前登录的第一用户标识对应。可以理解的是,当该APP中登录有多个用户标识时,可以指定至少一个用户标识与采集到的用户脸部图像对应。当采集到用户脸部图像后,识别该用户脸部图像得到对应的表情数据。然后将识别得到的表情数据发送给第二终端,第二终端接收到表情数据后,提取发送该表情数据对应的用户标识,用户标识用于唯一标识一个用户,然后确定与表情数据对应的表情类型,查找与表情类型对应的动作驱动文件,继而根据表情数据和动作驱动文件控制用户标识对应的三维虚拟对象执行相应的表情动作。
在另一个实施例中,第一终端或第二终端调用终端中的摄像头采集用户脸部图像,并采用识别算法对用户脸部图像进行识别得到相应的表情数据,继而根据识别得到的表情数据确定与该表情数据对应的表情类型,查找与该表情类型对应的动作驱动文件,然后根据表情数据和动作驱动文件控制对应的三维虚拟对象执行相应的表情动作。
在一个实施例中,在根据表情数据和动作驱动文件控制用户标识对应的三维虚拟对象执行相应的表情动作的步骤之前还包括:获取与用户标识对应的三维虚拟对象。
为了更好的理解上述方案,举个例子,在一个聊天的会话场景中,用户A为了向用户B传达相应的情绪,通过摄像头采集自己的面部表情,得到相应的表情数据,然后将表情数据通过第一终端发送给用户B,用户B通过第二终端收到用户A发送的表情数据后,第二终端会自动提取用户A对应的用户标识,查找与用户标识A相应的三维虚拟对象,然后通过该三维虚拟对象展示相应的表情。由于只展示表情会显得比较单调,且看起来不够自然,所以第二终端在接收到表情数据后,会先判断表情数据所对应的表情类型,然后查找与该表情类型相应的身体动作,即确定相应的动作驱动文件。根据该动作驱动文件就可以驱动三维虚拟对象执行相应的身体动作,从而配合相应的表情传达用户A想要表达的情绪。
在另一个应用场景中,用户通过摄像头采集脸部图像,并识别该脸部图像得到相应的表情数据,然后根据表情数据控制三维虚拟对象执行相应的表情,为了更加自然,可以增加相应的身体动作,通过查找或选择与该表情数据相应的动作驱动文件,然后根据表情数据和动作驱动文件一起控制三维虚拟对象执行相应的表情动作,从而实现三维虚拟对象进行情绪表达。该方法可以应用于很多场景中,比如,在游戏场景中实现三维虚拟对象进行情绪表达。
在本实施例中,接收表情数据,确定与该表情数据的表情类型,进而查找与该表情类型对应的动作驱动文件,然后根据表情数据和动作驱动文件控制对应的三维虚拟对象执行相应的表情动作。通过三维虚拟对象展示用户的表情,并且配合相应的身体动作,可以形象的表达出用户的真实情绪。
在一个实施例中,根据表情数据和动作驱动文件控制用户标识对应的三维虚拟对象执行相应的表情动作的步骤308,包括:在通过表情数据和动作驱动文件控制三维虚拟对象执行相应的表情动作的过程中,当播放到预设帧时,加载相应的粒子特效,将粒子特效添加至三维虚拟对象的预设位置。
在本实施例中,为了更形象且丰富的表达用户的情绪,可以设置在播放到某一帧表情动画时,添加相应的粒子特效。粒子特效是指为了模拟现实中的水、火、雾、气等效果而制作的模块,该粒子特效是基于Unity3D工具开发制作的。如图4所示为一个实施例中添加粒子特效的示意图,图中表示在哭泣时,通过在三维虚拟对象的眼睛下方添加泪滴样式的粒子特效可以更形象的传达用户的情绪,粒子特效的添加可以预先与动作驱动文件中某一帧绑定,当播放到该帧时则加载相应的粒子特效。具体地,在通过动作驱动文件驱动三维虚拟对象执行相应的表情动作的过程中,当播放到预设帧(比如第3帧)时,加载预先设置的粒子特效,并将该粒子特效添加至三维虚拟对象的预设位置,通过加入相应的粒子特效有利于三维虚拟对象更形象的表达相应的情绪。
在一个实施例中,动作驱动文件包括骨骼控制信息。根据表情数据和动作驱动文件控制用户标识对应的三维虚拟对象执行相应的表情动作的步骤308,包括:根据表情数据控制三维虚拟对象的面部执行相应的表情,根据骨骼控制信息控制与三维虚拟对象具有映射关系的骨骼执行相应的动作,以实现三维虚拟对象执行相应的表情动作。
在本实施例中,骨骼控制信息用于控制三维虚拟对象执行相应的身体动作。骨骼控制信息包括骨骼信息和骨骼动画数据,骨骼信息是指相应的骨骼的标识,用于唯一标识一段骨骼。骨骼动画数据是指骨骼进行移动以及旋转角度的数值,比如,设置骨骼在X轴方向上旋转30度。通过表情数据控制三维虚拟对象的面部执行相应的表情,通过骨骼控制信息中的骨骼信息可以映射到三维虚拟对象的骨骼,然后通过骨骼动画数据可以控制相应的骨骼进行移动以及旋转,从而实现三维虚拟对象执行相应的表情和动作。
在一个实施例中,为了使骨骼控制信息能够控制三维虚拟对象执行相应的身体动作,首先需要建立骨骼信息与三维虚拟模型中各个骨骼之间的映射关系,即进行骨骼信息的绑定。具体地,映射的方法是在建立三维虚拟对象模型的时候,就按照一定的命名规则来对每个骨骼命名,如图5所示,为一个实施例中,三维虚拟对象中骨骼的命名方式的示意图。比如,左手臂上设置四个骨骼信息,分别是肩、上手臂、下手臂和手。那么命名的时候就按照一定的命名规则来将相应的骨骼信息命名以便于区分以及后续的绑定对齐。比如,左手臂的四个骨骼信息相应的名字分别为:左肩LeftShoulder,左上手臂LeftArm,左下手臂:LeftForeArm,左手:LeftHand。那么,同样地,将骨骼控制信息中的骨骼信息也采用同样的命名方式就可以将相应的骨骼信息与三维虚拟对象模型中的骨骼进行一一映射。映射正确后,还要注意将动画类型设置为humanoid类型,该类型可以使不同的Avatar模型共用一个动画,即同一个动作驱动文件可以驱动不同的Avatar模型执行相应的动作。
通过骨骼控制信息中的骨骼信息可以将相应的骨骼映射到三维虚拟对象模型中的骨骼,骨骼映射实际上相当于一个中间层,让程序通过骨骼信息就可以获取模型中相应骨骼的位置,比如,一个骨骼动画是需要抬起左手臂,那么通过映射,首先找到模型中左手臂的位置,然后根据骨骼动画数据就可以使左手臂执行相应的肢体动作。
如图6所示,在一个实施例中,提出了一种实现虚拟对象情绪表达的方法,该方法包括:
步骤602,接收表情消息,表情消息中携带有发起该表情消息的用户标识。
在本实施例中,表情消息是指携带有表情信息的消息。比如,携带有“微笑”、“大哭”、“愤怒”等信息的消息。后续可以通过该表情消息查找对应的动画驱动文件,控制三维虚拟对象来展示相应的表情动作。终端接收到对方发送的表情消息,该表情消息中携带有发起该表情消息的用户标识,即发送者的用户标识。用户标识用于唯一标识一个用户。例如,在一个会话场景中,当用户想要发送表情消息时,可以在表情选择界面点选相应的表情,其中,表情选择界面用于显示可点选的候选表情,比如,表情界面中呈现“大笑”、“微笑”、“偷笑”、“委屈”、“大哭”、“害羞”、“愤怒”等等可选择的表情,通过点选相应的表情进行发送,对方接收到的含有相应表情信息的消息即为表情消息。其中,表情界面中候选表情的呈现,可以是以相应的图片来呈现,比如,表示“大笑”时呈现的是相应代表“大笑”的图片;也可以是以文字的形式直接来呈现,即直接根据文字字面意思进行相应的选择即可,比如,直接呈现“偷笑”、“哭泣”等文字选项。当然,也可以通过其他方式选择相应的表情,比如,可以通过搜索相应的文字获取到相应的表情。这里并不对选择表情的方式进行限定。
步骤604,获取与表情消息对应的动画驱动文件。
在本实施例中,动画驱动文件用于驱动或控制三维虚拟对象执行相应的表情动作。终端接收到表情消息后,为了能够驱动三维虚拟对象执行相应的表情动作,还需要获取与该表情消息对应的动画驱动文件,其中,一个表情消息可以对应一个或多个动画驱动文件,当对应多个动画驱动文件时,需要预先设置各个动画驱动文件的播放顺序,以便后续根据该设置的播放顺序执行相应的表情动作。在一个实施例中,预先在终端中设置了不同表情消息对应的动画驱动文件,比如,预先设置了“哭泣”、“大笑”等表情消息对应的动画驱动文件,那么接收到表情消息后,就可以直接获取与该表情消息对应的动画驱动文件。当然,动画驱动文件也可以预先存储在服务器上,当终端接收到表情消息后,发现本地没有相应的动画驱动文件时,则从服务器下载相应的动画驱动文件。在另一个实施例中,动画驱动文件也可以是发送方实时发送的文件,发送方在发送表情消息的同时将相应的动画驱动文件一起上传到服务器,服务器再将相应的表情消息以及动画驱动文件一起发送过来。可以理解的是,发送方也可以直接通过点对点的形式将表情消息和相应的动画驱动文件发送过来。
在一个实施例中,在获取与表情消息对应的动画驱动文件之前还包括:预先存储不同表情类型消息与动画驱动文件之间的对应关系。那么获取与表情消息对应的动画驱动文件的步骤为:确定表情消息对应的表情类型,根据表情类型查找与表情消息对应的动画驱动文件。比如,预先设置了“哭泣”、“大笑”、“微笑”、“愤怒”、“调皮”等众多的表情类型,每一种表情类型对应的存储了一个动画驱动文件。该动画驱动文件用于驱动相应的三维虚拟对象执行相应的表情动作。
步骤606,通过动画驱动文件驱动与用户标识对应的三维虚拟对象执行相应的表情动作。
在本实施例中,接收到表情消息以及获取到与表情消息对应的动画驱动文件后,就可以通过该动画驱动文件驱动与上述用户标识对应的三维虚拟对象执行相应的表情动作,便于形象的展示发送方所要表达的情绪,图7为一个实施例中三维虚拟对象展示“赞”的情绪的示意图。
具体地,虽然动画驱动文件可以用来驱动不同的三维虚拟对象执行相应的表情动作,但是前提是必须调用与三维虚拟对象对应的动画控制器来播放该动画驱动文件,才能使该三维虚拟对象执行相应的表情动作。需要说明的是,每个三维虚拟对象都对应有自己的动画控制器,只有使用三维虚拟对象自己的动画控制器播放动画驱动文件才能使该三维虚拟对象执行相应的表情动作。举个例子,三维虚拟对象A和三维虚拟对象B虽然都可以根据动画驱动文件执行相应的表情动作。但是如果调用的是A的动画控制器来播放的动画驱动文件,那么只有A执行相应的表情动作。因为表情消息是用来传递发送者的情绪的,所以默认是选择发送者对应的三维虚拟对象执行相应的表情动作。故,接收到表情消息后,首先,根据发起该表情消息的用户标识查找与该用户标识对应的三维虚拟对象,然后调用该三维虚拟对象的动画控制器来播放动画驱动文件,以便驱动该三维虚拟对象执行相应的表情动作。
在一个实施例中,Unity3D工具中包含有动画状态机,表情消息和动画驱动文件之间的对应关系是通过动画状态机来管理的。动画状态机用于设置表情消息与动画驱动文件之间的关系。有些情绪的表达可能需要连续的几个动画播放才能完成,那么此时动画状态机还需要设置各个动画之间的转移流程,其中,一个动画对应一个动画驱动文件,这里的动画可以理解为持续一段时间(比如,3秒)的视频。也就是说,一个表情消息可能对应多个动画驱动文件。当一个表情消息对应多个动画驱动文件时,还需要在动画状态机中设置该多个动画驱动文件的播放顺序。具体地,当接收到表情消息后,首先查找与发起该表情消息对应的用户标识,然后调用动画控制器根据表情消息在动画状态机中查找与该表情消息对应的一个或多个动画驱动文件,当包含有多个动画驱动文件时,按照动画状态机中设置的该多个动画驱动文件的顺序依次播放相应的文件,以便驱动相应的三维虚拟对象执行相应的表情动作。其中,Unity3D是由UnityTechnogies开发的一个让玩家轻松创建诸如三维视频游戏、建筑可视化、实时三维动画等类型互动内容的多平台的综合型游戏开发工具,是一个全面整合的专业游戏引擎。
在本实施例中,通过接收表情消息以及获取与表情消息对应的动画驱动文件,然后通过动画驱动文件驱动与发送者对应的三维虚拟对象展示相应的表情动作,可以想象的通过三维虚拟对象表达出用户真实的情绪。该方法通过将用户想要表达的情绪与用户自身对应的三维虚拟对象进行结合,可以在会话中更真实的表达会话参与者的情绪,同时也增加了会话的乐趣。
在一个实施例中,通过动画驱动文件驱动与用户标识对应的三维虚拟对象执行相应的表情动作,包括:在通过动画驱动文件驱动三维虚拟对象执行相应的表情动作的过程中,当播放到预设帧时,加载与表情消息对应的粒子特效,将粒子特效添加至三维虚拟对象的预设位置。
在本实施例中,为了更形象的表达用户的情绪,可以设置在执行到某一帧表情动画时,添加相应的粒子特效。粒子特效是指为了模拟现实中的水、火、雾、气等效果由各种三维软件开发的制作模块。比如,哭泣时,通过在三维虚拟对象的眼睛下方添加“泪滴”样式的粒子特效可以更形象的传达用户哭的情绪,如图4所示为一个实施例中添加泪滴粒子特效的示意图。在通过动画驱动文件驱动三维虚拟对象执行相应的表情动作的过程中,当播放到预设帧(比如第3帧)时,加载预先设置的粒子特效,并将该粒子特效添加至三维虚拟对象的预设位置,通过加入相应的粒子特效有利于三维虚拟对象更形象的表达相应的情绪。
在一个实施例中,动画驱动文件包括表情控制信息和骨骼控制信息。通过动画驱动文件驱动与用户标识对应的三维虚拟对象执行相应的表情动作,包括:根据表情控制信息控制三维虚拟对象的面部执行相应的表情。根据骨骼控制信息控制与三维虚拟对象具有映射关系的骨骼执行相应的动作,以实现三维虚拟对象执行相应的表情动作。
在本实施例中,表情消息所对应的动画驱动文件包括表情控制信息和骨骼控制信。表情控制信息用于控制三维虚拟对象的脸部执行相应的表情,比如,微笑、大笑、挑眉等。表情控制信息实际上是预设的一系列的表情数据,表情数据可以采用若干个Blendshape(表情变形)对应的数值来表示。所以通过设置Blendshape的数值就可以设置不同的面部表情。根据这些表情数据来控制三维虚拟对象的面部执行相应的表情。骨骼控制信息用于控制三维虚拟对象的身体动作,包括头部和四肢的动作。比如,头部的转动、四肢的移动等。骨骼控制信息包括骨骼信息和骨骼动画数据,骨骼信息是指相应的骨骼的标识,用于唯一标识一段骨骼。骨骼动画数据是指骨骼进行移动以及旋转角度的数值。
为了使骨骼控制信息能够控制三维虚拟对象执行相应的身体动作,首先需要建立骨骼信息与三维虚拟模型中各个骨骼之间的映射关系,即进行骨骼信息的绑定。具体地,映射的方法是在建立三维虚拟对象模型的时候,就按照一定的命名规则来对每个骨骼命名,比如,左手臂上设置四个骨骼信息,分别是肩、上手臂、下手臂和手。那么命名的时候就按照一定的命名规则来将相应的骨骼信息命名以便于区分以及后续的绑定对齐。比如,左手臂的四个骨骼信息相应的名字分别为:左肩LeftShoulder,左上手臂LeftArm,左下手臂:LeftforeArm,左手:LeftHand。那么,同样地,将骨骼控制信息中的骨骼信息也采用同样的命名方式就可以将相应的骨骼信息与三维虚拟对象模型中的骨骼进行一一映射。映射正确后,还要注意将动画类型设置为humanoid类型,该类型可以使不同的Avatar模型共用一个动画,即同一个动画可以驱动不同的Avatar模型执行相应的动作。
如图8所示,在一个实施例中,提出了一种实现虚拟对象情绪表达的装置,该装置包括:
接收模块802,用于接收表情数据,提取与表情数据对应的用户标识,表情数据是通过识别与用户标识对应的脸部图像得到的。
确定模块804,用于确定与表情数据对应的表情类型。
查找模块806,用于查找与表情类型对应的动作驱动文件。
控制模块808,用于根据表情数据和动作驱动文件控制用户标识对应的三维虚拟对象执行相应的表情动作。
在一个实施例中,控制模块808还用于在通过表情数据和动作驱动文件控制三维虚拟对象执行相应的表情动作的过程中,当播放到预设帧时,加载相应的粒子特效,将粒子特效添加至三维虚拟对象的预设位置。
在一个实施例中,动作驱动文件包括骨骼控制信息。控制模块808还用于根据表情数据控制三维虚拟对象的面部执行相应的表情,根据骨骼控制信息控制与三维虚拟对象具有映射关系的骨骼执行相应的动作,以实现三维虚拟对象执行相应的表情动作。
如图9所示,在一个实施例中,提出了一种实现虚拟对象情绪表达的装置,该装置包括:
接收模块902,用于接收表情消息,表情消息中携带有发起该表情消息的用户标识。
获取模块904,用于获取与表情消息对应的动画驱动文件。
驱动模块906,用于通过动画驱动文件驱动与用户标识对应的三维虚拟对象执行相应的表情动作。
在一个实施例中,驱动模块906还用于在通过动画驱动文件驱动三维虚拟对象执行相应的表情动作的过程中,当播放到预设帧时,加载与表情消息对应的粒子特效,将粒子特效添加至三维虚拟对象的预设位置。
在一个实施例中,动画驱动文件包括骨骼控制信息和表情控制信息。驱动模块906还用于根据表情控制信息控制三维虚拟对象的面部执行相应的表情。根据骨骼控制信息控制与三维虚拟对象具有映射关系的骨骼执行相应的动作,以实现三维虚拟对象执行相应的表情动作。
在一个实施例中,提出了一种计算机设备,包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行以下步骤:接收表情数据,提取与表情数据对应的用户标识,表情数据是通过识别与用户标识对应的脸部图像得到的,确定与表情数据对应的表情类型,查找与表情类型对应的动作驱动文件,根据表情数据和动作驱动文件控制用户标识对应的三维虚拟对象执行相应的表情动作。
在一个实施例中,处理器执行的根据表情数据和动作驱动文件控制用户标识对应的三维虚拟对象执行相应的表情动作,包括:在通过表情数据和动作驱动文件控制三维虚拟对象执行相应的表情动作的过程中,当播放到预设帧时,加载相应的粒子特效,将粒子特效添加至三维虚拟对象的预设位置。
在一个实施例中,动作驱动文件包括骨骼控制信息。处理器执行的根据表情数据和动作驱动文件控制用户标识对应的三维虚拟对象执行相应的表情动作,包括:根据表情数据控制三维虚拟对象的面部执行相应的表情,根据骨骼控制信息控制与三维虚拟对象具有映射关系的骨骼执行相应的动作,以实现三维虚拟对象执行相应的表情动作。
在一个实施例中,提出了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现以下步骤:接收表情数据,提取与所述表情数据对应的用户标识,所述表情数据是通过识别与所述用户标识对应的脸部图像得到的;确定与所述表情数据对应的表情类型;查找与所述表情类型对应的动作驱动文件;根据所述表情数据和所述动作驱动文件控制所述用户标识对应的三维虚拟对象执行相应的表情动作。
在一个实施例中,处理器执行的根据表情数据和动作驱动文件控制用户标识对应的三维虚拟对象执行相应的表情动作,包括:在通过表情数据和动作驱动文件控制三维虚拟对象执行相应的表情动作的过程中,当播放到预设帧时,加载相应的粒子特效,将粒子特效添加至三维虚拟对象的预设位置。
在一个实施例中,动作驱动文件包括骨骼控制信息。处理器执行的根据表情数据和动作驱动文件控制用户标识对应的三维虚拟对象执行相应的表情动作,包括:根据表情数据控制三维虚拟对象的面部执行相应的表情,根据骨骼控制信息控制与三维虚拟对象具有映射关系的骨骼执行相应的动作,以实现三维虚拟对象执行相应的表情动作。
在一个实施例中,还提供了另一种计算机设备,包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行以下步骤:接收表情消息,表情消息中携带有发起该表情消息的用户标识,获取与表情消息对应的动画驱动文件,通过动画驱动文件驱动与用户标识对应的三维虚拟对象执行相应的表情动作。
在一个实施例中,处理器执行的通过动画驱动文件驱动与用户标识对应的三维虚拟对象执行相应的表情动作,包括:在通过动画驱动文件驱动三维虚拟对象执行相应的表情动作的过程中,当播放到预设帧时,加载与表情消息对应的粒子特效,将粒子特效添加至三维虚拟对象的预设位置。
在一个实施例中,动画驱动文件包括骨骼控制信息和表情控制信息。处理器执行的通过动画驱动文件驱动与用户标识对应的三维虚拟对象执行相应的表情动作,包括:根据表情控制信息控制三维虚拟对象的面部执行相应的表情。根据骨骼控制信息控制与三维虚拟对象具有映射关系的骨骼执行相应的动作,以实现三维虚拟对象执行相应的表情动作。
在一个实施例中,提出了另一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现以下步骤:接收表情消息,表情消息中携带有发起该表情消息的用户标识,获取与表情消息对应的动画驱动文件,通过动画驱动文件驱动与用户标识对应的三维虚拟对象执行相应的表情动作。
在一个实施例中,处理器执行的通过动画驱动文件驱动与用户标识对应的三维虚拟对象执行相应的表情动作,包括:在通过动画驱动文件驱动三维虚拟对象执行相应的表情动作的过程中,当播放到预设帧时,加载与表情消息对应的粒子特效,将粒子特效添加至三维虚拟对象的预设位置。
在一个实施例中,动画驱动文件包括骨骼控制信息和表情控制信息。处理器执行的通过动画驱动文件驱动与用户标识对应的三维虚拟对象执行相应的表情动作,包括:根据表情控制信息控制三维虚拟对象的面部执行相应的表情;根据骨骼控制信息控制与三维虚拟对象具有映射关系的骨骼执行相应的动作,以实现三维虚拟对象执行相应的表情动作。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (14)

1.一种实现虚拟对象情绪表达的方法,所述方法包括:
接收表情数据,提取与所述表情数据对应的用户标识,所述表情数据是通过识别与所述用户标识对应的脸部图像得到的;
确定与所述表情数据对应的表情类型;
查找与所述表情类型对应的动作驱动文件;所述动作驱动文件用于为所述表情类型配置相应的身体动作;所述身体动作包括头部动作和肢体动作;
通过所述表情数据控制三维虚拟对象的脸部执行相应的表情,通过所述动作驱动文件控制所述三维虚拟对象执行相应的身体动作。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当播放到预设帧时,加载相应的粒子特效,将所述粒子特效添加至所述三维虚拟对象的预设位置。
3.根据权利要求1所述的方法,其特征在于,所述动作驱动文件包括骨骼控制信息;所述通过所述动作驱动文件控制所述三维虚拟对象执行相应的身体动作,包括:
根据骨骼控制信息控制与所述三维虚拟对象具有映射关系的骨骼执行相应的动作,以实现所述三维虚拟对象执行相应的表情动作。
4.一种实现虚拟对象情绪表达的方法,所述方法包括:
接收表情消息,所述表情消息中携带有发起该表情消息的用户标识;
获取与所述表情消息对应的动画驱动文件;
通过所述动画驱动文件驱动与所述用户标识对应的三维虚拟对象执行相应的表情动作;所述表情动作包括表情和身体动作;所述身体动作包括头部动作和肢体动作。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
当播放到预设帧时,加载与所述表情消息对应的粒子特效,将所述粒子特效添加至所述三维虚拟对象的预设位置。
6.根据权利要求4所述的方法,其特征在于,所述动画驱动文件包括骨骼控制信息和表情控制信息;
所述通过所述动画驱动文件驱动与所述用户标识对应的三维虚拟对象执行相应的表情动作,包括:
根据所述表情控制信息控制所述三维虚拟对象的面部执行相应的表情;根据骨骼控制信息控制与所述三维虚拟对象具有映射关系的骨骼执行相应的动作,以实现所述三维虚拟对象执行相应的表情动作。
7.一种实现虚拟对象情绪表达的装置,其特征在于,所述装置包括:
接收模块,用于接收表情数据,提取与所述表情数据对应的用户标识,所述表情数据是通过识别与所述用户标识对应的脸部图像得到的;
确定模块,用于确定与所述表情数据对应的表情类型;
查找模块,用于查找与所述表情类型对应的动作驱动文件;所述动作驱动文件用于为所述表情类型配置相应的身体动作;所述身体动作包括头部动作和肢体动作;
控制模块,用于通过所述表情数据控制三维虚拟对象的脸部执行相应的表情,通过所述动作驱动文件控制所述三维虚拟对象执行相应的身体动作。
8.根据权利要求7所述的装置,其特征在于,所述控制模块还用于当播放到预设帧时,加载相应的粒子特效,将所述粒子特效添加至所述三维虚拟对象的预设位置。
9.根据权利要求7所述的装置,其特征在于,所述动作驱动文件包括骨骼控制信息;所述控制模块还用于根据骨骼控制信息控制与所述三维虚拟对象具有映射关系的骨骼执行相应的动作,以实现所述三维虚拟对象执行相应的表情动作。
10.一种实现虚拟对象情绪表达的装置,其特征在于,所述装置包括:
接收模块,用于接收表情消息,所述表情消息中携带有发起该表情消息的用户标识;
获取模块,用于获取与所述表情消息对应的动画驱动文件;
驱动模块,用于通过所述动画驱动文件驱动与所述用户标识对应的三维虚拟对象执行相应的表情动作;所述表情动作包括表情和身体动作;所述身体动作包括头部动作和肢体动作。
11.根据权利要求10所述的装置,其特征在于,所述驱动模块还用于当播放到预设帧时,加载与所述表情消息对应的粒子特效,将所述粒子特效添加至所述三维虚拟对象的预设位置。
12.根据权利要求10所述的装置,其特征在于,所述动画驱动文件包括骨骼控制信息和表情控制信息;所述驱动模块还用于根据所述表情控制信息控制所述三维虚拟对象的面部执行相应的表情;根据骨骼控制信息控制与所述三维虚拟对象具有映射关系的骨骼执行相应的动作,以实现所述三维虚拟对象执行相应的表情动作。
13.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行所述计算机程序时实现权利要求1-6任意一项所述方法的步骤。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-6任意一项所述方法的步骤。
CN201710318050.8A 2017-05-08 2017-05-08 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质 Active CN108874114B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710318050.8A CN108874114B (zh) 2017-05-08 2017-05-08 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710318050.8A CN108874114B (zh) 2017-05-08 2017-05-08 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN108874114A CN108874114A (zh) 2018-11-23
CN108874114B true CN108874114B (zh) 2021-08-03

Family

ID=64287301

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710318050.8A Active CN108874114B (zh) 2017-05-08 2017-05-08 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN108874114B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109978975A (zh) * 2019-03-12 2019-07-05 深圳市商汤科技有限公司 一种动作的迁移方法及装置、计算机设备
CN109922355B (zh) * 2019-03-29 2020-04-17 广州虎牙信息科技有限公司 虚拟形象直播方法、虚拟形象直播装置和电子设备
CN110517339B (zh) 2019-08-30 2021-05-25 腾讯科技(深圳)有限公司 一种基于人工智能的动画形象驱动方法和装置
CN110717974B (zh) * 2019-09-27 2023-06-09 腾讯数码(天津)有限公司 展示状态信息的控制方法、装置、电子设备和存储介质
CN110716645A (zh) * 2019-10-15 2020-01-21 北京市商汤科技开发有限公司 一种增强现实数据呈现方法、装置、电子设备及存储介质
CN111144266B (zh) * 2019-12-20 2022-11-22 北京达佳互联信息技术有限公司 人脸表情的识别方法及装置
CN112190921A (zh) * 2020-10-19 2021-01-08 珠海金山网络游戏科技有限公司 一种游戏交互方法及装置
CN113379876B (zh) * 2021-06-07 2023-09-01 腾讯科技(上海)有限公司 动画数据处理方法、装置、计算机设备和存储介质
CN114245155A (zh) * 2021-11-30 2022-03-25 北京百度网讯科技有限公司 直播方法、装置及电子设备
CN115604213A (zh) * 2022-09-30 2023-01-13 维沃移动通信有限公司(Cn) 交互方法、装置、电子设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1326445B1 (en) * 2001-12-20 2008-01-23 Matsushita Electric Industrial Co., Ltd. Virtual television phone apparatus
CN1328908C (zh) * 2004-11-15 2007-07-25 北京中星微电子有限公司 一种视频通信的方法
KR101527408B1 (ko) * 2008-11-04 2015-06-17 삼성전자주식회사 얼굴 표정 검출 방법 및 시스템
CN102999934A (zh) * 2011-09-19 2013-03-27 上海威塔数字科技有限公司 计算机三维动画系统及动画方法
JP5995304B2 (ja) * 2011-12-12 2016-09-21 株式会社バンダイナムコエンターテインメント プログラム、情報記憶媒体、端末及びサーバ
US9477993B2 (en) * 2012-10-14 2016-10-25 Ari M Frank Training a predictor of emotional response based on explicit voting on content and eye tracking to verify attention
CN103869962B (zh) * 2012-12-18 2016-12-28 联想(北京)有限公司 一种数据处理方法、装置及电子设备
CN103218843A (zh) * 2013-03-15 2013-07-24 苏州跨界软件科技有限公司 虚拟人物通讯系统和方法
CN104935860A (zh) * 2014-03-18 2015-09-23 北京三星通信技术研究有限公司 视频通话实现方法及装置
CN104902212B (zh) * 2015-04-30 2019-05-10 努比亚技术有限公司 一种视频通信方法及装置
CN104978758A (zh) * 2015-06-29 2015-10-14 世优(北京)科技有限公司 基于用户创作的图像的动画视频生成方法和装置
CN105096366A (zh) * 2015-07-23 2015-11-25 文化传信科技(澳门)有限公司 3d虚拟服务公开平台系统
CN106209587B (zh) * 2016-07-08 2019-11-22 中国银联股份有限公司 用于在终端上以个性化方式呈现虚拟表情的设备和方法
CN106355629B (zh) * 2016-08-19 2019-03-01 腾讯科技(深圳)有限公司 一种虚拟形象的配置方法及装置

Also Published As

Publication number Publication date
CN108874114A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
CN108874114B (zh) 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质
US20230283748A1 (en) Communication using interactive avatars
KR102503413B1 (ko) 애니메이션 인터랙션 방법, 장치, 기기 및 저장 매체
US11736756B2 (en) Producing realistic body movement using body images
KR102491140B1 (ko) 가상 아바타 생성 방법 및 장치
WO2022252866A1 (zh) 一种互动处理方法、装置、终端及介质
CN109978975A (zh) 一种动作的迁移方法及装置、计算机设备
WO2013152454A1 (en) System and method for avatar management and selection
CN108525305A (zh) 图像处理方法、装置、存储介质及电子设备
CN112527115B (zh) 用户形象生成方法、相关装置及计算机程序产品
CN109150690B (zh) 交互数据处理方法、装置、计算机设备和存储介质
WO2022033206A1 (zh) 动画对象的表情生成方法和装置、存储介质及电子设备
US20210312167A1 (en) Server device, terminal device, and display method for controlling facial expressions of a virtual character
KR20180118669A (ko) 디지털 커뮤니케이션 네트워크에 기반한 지능형 채팅
KR20230072199A (ko) 감정 표현 객체 생성 장치 및 이를 포함하는 감정 표현 객체 생성 시스템 및 그 제어방법
EP4385592A1 (en) Computer-implemented method for controlling a virtual avatar
US20240221270A1 (en) Computer-implemented method for controlling a virtual avatar
TWI814318B (zh) 用於使用模擬角色訓練模型以用於將遊戲角色之臉部表情製成動畫之方法以及用於使用三維(3d)影像擷取來產生遊戲角色之臉部表情之標籤值之方法
US20240233232A9 (en) Avatar communication
US20240135619A1 (en) Avatar communication
WO2023201937A1 (zh) 基于故事场景的人机互动方法、装置、设备及介质
WO2022229639A2 (en) Computer-implemented method for controlling a virtual avatar
CN113908553A (zh) 游戏角色表情生成方法、装置、电子设备及存储介质
CN116977510A (zh) 数据处理方法、装置、计算机设备以及可读存储介质
CN113448466A (zh) 动画显示方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant