CN108564643B - 基于ue引擎的表演捕捉系统 - Google Patents
基于ue引擎的表演捕捉系统 Download PDFInfo
- Publication number
- CN108564643B CN108564643B CN201810217937.2A CN201810217937A CN108564643B CN 108564643 B CN108564643 B CN 108564643B CN 201810217937 A CN201810217937 A CN 201810217937A CN 108564643 B CN108564643 B CN 108564643B
- Authority
- CN
- China
- Prior art keywords
- expression
- motion
- target object
- facial
- basic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000014509 gene expression Effects 0.000 claims abstract description 176
- 230000033001 locomotion Effects 0.000 claims abstract description 117
- 230000001815 facial effect Effects 0.000 claims abstract description 50
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 34
- 238000000034 method Methods 0.000 claims abstract description 14
- 230000008921 facial expression Effects 0.000 claims description 36
- 238000013507 mapping Methods 0.000 claims description 7
- 230000001133 acceleration Effects 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 5
- 230000036544 posture Effects 0.000 description 12
- 210000003414 extremity Anatomy 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000009545 invasion Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 241000865486 Knoxia Species 0.000 description 1
- 241000272041 Naja Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 244000309466 calf Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及计算机图形处理领域,提出了一种基于UE引擎的表演捕捉系统,旨在解决在同时捕捉动作与表情数据,生成角色动作与表情动画中,表情表演与动作表演的干扰问题,该系统包括:面部表演捕捉单元,配置为获取目标对象的面部图像数据,并根据该面部图像数据,确定目标对象的眼球旋转参数,并利用预设的基础表情库确定该目标对象的基础表情权重;动作表演捕捉单元,配置为利用绑缚于目标对象肢体的传感设备获取该目标对象的动作参数;动画生成单元,配置为根据上述基础表情权重、上述眼球旋转参数和上述动作参数确定虚拟角色的表情动画。本发明实现了表演者动作和表情的捕捉,并根据动作和表情数据赋予虚拟角色真实合理的动作与生动的表情。
Description
技术领域
本发明涉及了计算机图形学、计算机视觉和虚拟现实领域,特别涉及一种基于UE引擎的表演捕捉系统。
背景技术
表演捕捉技术包括表演者动作和表情的捕捉,在电影、动画、游戏等领域中具有广泛的应用。通过表演捕捉技术赋予虚拟角色真实合理的动作与生动的表情,可以带给用户优更秀的观感体验。主流的动作捕捉技术包括光学式捕捉与惯性导航式捕捉,前者通过光学相机拍摄表演者,分析计算表演者的关节点,例如kinect等;后者通过表演者身上穿戴的传感器获取关节点的运动状态,分析出表演者当前的姿态,例如诺亦腾、OptiTrack等。
当前,表情捕捉的方案有使用Faceware系列软件,对视频设备、网络相机、头盔式相机捕捉人物面部表情进行动画处理,生成虚拟角色面部动画;FaceRig软件通过RGB视频流捕捉表情,可以在软件内使用用户自定义的角色模型生成相应的表情动画;FaceShift基于单个深度相机捕捉表情,提供软件内的角色模型动画预览。但是,主要的表演捕捉技术方案是在表演者全身和脸部贴上标记,通过光学相机捕捉全身动作及面部表情,在后期制作中根据捕捉到的标记点将拍摄的表演者影像替换成虚拟角色模型。使得动作捕捉与表情捕捉相互间无法很好的结合,且只提供软件内部的角色动画预览,对用户进行其他角色编辑有所限制。
发明内容
为了解决现有技术中的上述问题,即在同时捕捉表演者的动作与表情生成丰富真实的角色动画中,由于分别进行表情捕捉与动作捕捉,然后进行合成,造成在后期制作中增加了相互间结合的难度的问题,本发明采用以下技术方案以解决上述问题:
本申请提供了基于UE引擎的表演捕捉系统基于UE引擎的表演捕捉系统,该系统包括:面部表演捕捉单元,配置为获取目标对象的面部图像数据,并根据上述面部图像数据,确定上述目标对象的眼球旋转参数,并利用预设的基础表情库确定上述目标对象的基础表情权重;动作表演捕捉单元,配置为利用绑缚于上述目标对象肢体的传感设备获取上述目标对象的动作参数;动画生成单元,配置为根据上述基础表情权重参数、上述眼球旋转参数和上述肢体动作参数确定虚拟角色的表情动画。
在一些示例中,上述预设的基础表情库,其生成方法包括:采集上述目标对象的多类面部表情图像;基于所采集的所述面部表情图像,分别拟合出与各类所述面部表情图像对应的用户基础表情,构成基础表情库。
在一些示例中,上述基础表情权重参数,其获取方法包括:基于上述面部图像数据与上述基础表情库中的各基础表情进行的特征点分析,确认定上述面部图像数据的基础表情权重参数;上述眼球旋转参数,其获取方法包括:根据上述面部图像数据确定计算在上述面部图像数据中上述目标对象眼球的欧拉角参数,并以该参数作为眼球旋转参数。
在一些示例中,上述动作表演捕捉单元包括动作捕捉传感设备和动作参数确定模块;上述动作捕捉传感设备包括多个绑缚于目标对象身体各部位的多个关节点的传感器,该传感器获取上述目标对象的关节点的动作数据;上述动作参数确定模块,用于根据上述动作捕捉传感设备的所获得动作数据计算上述目标对象的动作参数。
在一些示例中,上述动作表演捕捉单元还包括姿势校准模块,上述姿势校准模块配置为:从预定的基准动作指令集中获取基准动作指令,指示上述目标对象作出指定姿势;确定上述动作捕捉传感设备基于上述指定姿势,所捕获的上述目标对象的动作数据,为所述指定姿势的基准动作数据。
在一些示例中,上述动作参数确定模块进一步配置为:将上述动作数据的各上述关节点的速度、加速度、角速度数据与上述目标对象的各所述基准动作数据结合,计算出上述目标对象的全身姿态;其中,上述动作数据包括各关节点的速度、加速度、角速度。
在一些示例中,上述动画生成单元中预设角色表情库,上述动画生成单元进一步配置为:构建上述基础表情库与上述角色表情库各表情的对应映射关系;利用上述对应映射关系,根据上述基础表情权重参数确定出上述面部图像数据对应的角色表情,并确定出上述目标对象的角色表情权重参数。
在一些示例中,上述动画生成单元中的UE引擎将上述角色表情权重参数输入到上述UE引擎的目标变形设置函数中,控制上述虚拟角色的面部顶点变形;根据上述眼球欧拉角参数控制上述虚拟角色的眼球转动;基于上述虚拟角色的面部顶点变形和上述虚拟角色的眼球转动生成上述虚拟角色的表情动画。
在一些示例中,上述动画生成单元进一步配置为:根据上述全身姿态控制上述虚拟角色的人体骨架的旋转,合成上述虚拟角色的动作动画。
本申请提供的基于UE引擎的表演捕捉系统基于UE引擎的表演捕捉系统,通过面部表演捕捉单元和动作表演捕捉单元捕捉目标对象的面部表情数据和动作数据,利用动画生成单元的UE引擎生成虚拟角色的动作和表情动画。本发明同时捕捉目标对象的动作和表情数据,在 UE引擎中利用用户自定义的角色模型实时渲染目标对象的动作和表情,使得目标对象的动作和表情完好结合,由于不需要在面部标记,可以解决标记点对目标对象的面部表演造成侵入感,使得动画角色人物的表演受到干扰的问题;同时,由于Faceshift软件和Axis Neuron软件与UE引擎相连接,可以自定义角色模型,并且,用户进行其他角色编辑不受限制。
附图说明
图1是本申请可以应用于其中的示例性系统组成图;
图2是根据本申请的基于UE引擎的表演捕捉系统进行表情和动作动画生成的示例性流程示意图;
图3a-图3c是根据本申请的基于UE引擎的表演捕捉系统示例性角色动画的效果图。
具体实施方式
下面参照附图来描述本发明的优选实施方式。本领域技术人员应当理解的是,这些实施方式仅仅用于解释本发明的技术原理,并非旨在限制本发明的保护范围。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的基于UE引擎的表演捕捉系统实施例的示例性系统架构。
如图1所示,系统包括面部表演捕捉单元、动作表演捕捉单元和动画生成单元。其中,面部表演捕捉单元配置为获取目标对象的面部图像数据,并根据所述面部图像数据,确定所述目标对象的眼球旋转参数,并利用预设的基础表情库确定所述目标对象的基础表情权重;动作表演捕捉单元,配置为利用绑缚于所述目标对象肢体的传感设备获取所述目标对象的肢体动作参数;动画生成单元,配置为根据所述基础表情权重参数、所述眼球旋转参数和所述肢体动作参数确定虚拟角色的表情动画。
本实施例中,上述面部表演捕捉单元可以是具有视频流采集或图像采集装置的电子设备。该电子设备可以安装各中应用程序,通过上述应用程序可以指令与该电子设备通信连接的传感器采集目标对象的面部图像数据,并对该面部图像数据进行处理。上述电子设备可以包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。需要说明的是,上述电子设备包括用于采集目标对象面部表情的传感器,如,Kinect传感器。具体地,上述面部表演捕捉单元可以为PC机连接一台Kinect深度相机组成的系统。
本实施例中,上述动作表演捕捉单元是具有视频流采集或惯性数据采集装置的电子设备。该电子设备包括用于惯性数据采集的动作传感器,还可以安装各种应用程序。通过上述应用程序可以指令动作传感器采集目标对象的动作数据,上述应用程序对上述动作数据进行处理,确认目标对象的人体骨架的姿势。上述动作表演模块可以是PC机连接多个动作传感器组成的系统。具体地,上述动作表演模块可以为可穿戴设备,用户按要求穿戴运动触感器,启动运动控制软件连接上述运动触感器。作为示例,用户按要求穿戴好诺亦腾传感器,打开传感器电源,启动Axis Neuron软件,点击连接传感器捕捉用户的动作数据。
在本实施例中,上述动画生成单元可以是具有网络通信的电子设备,其上安装各类应用软件,利用所安装的应用软件可以根据用户的面部表情和人体骨架的动作生成虚拟角色的表情和动作动画。上述动画生成单元可以是提供各种服务的处理器或服务器,例如对面部表演捕捉单元和动作表演捕捉单元所在电子设备发送关于目标对象的人体骨架的动作信息和面部表情信息进行数据分析,图像处理的图像处理服务器。上述图像处理服务器可以对接收到的信息进行分析等处理,拟合生成虚拟角色的动作和表情动画。具体地,上述动画生成单元中安装有基于UE 引擎的UE图形程序。在利用上述UE图形程序进行目标对象的动作和表情动画实时绘制之前,用户需要预先准备角色数据,即用户根据自身需求使用Maya等建模软件建立虚拟角色的三维模型,为其绑定一定的骨骼结构使得角色模型可由其骨骼的变化控制动作,通过操作角色模型的控制器得到角色的不同基础表情。
在本实施例中,上述面部表演捕捉单元预设基础表情库,上述基础表情库包括目标对象的多个基础表情。上述基础表情库的生成方法包括:采集上述目标对象的多类面部表情图像;基于所采集的上述面部表情图像,分别拟合出与各类上述面部表情图像对应的用户基础表情,构成基础表情库。具体地,利用图像采集设备采集上述目标对象的第一预定数目个指定的面部表情;根据各上述面部表情,通过faceshift软件拟合出与各上述面部表情对应的第二预定数目个用户基础表情,由第二预定数目个上述用户基础表情生成基础表情库。作为示例,上述基础表情库可以通过如下方式建立:用户面对图像采集设备做出第一预定数目个指定的面部表情。faceshift软件通过上述第一预定数目种表情分析拟合出第二预定数目种基础表情,生成用户基础表情库。在优选的方案中,上述图像采集设备为Kinect传感器,上述第一预定数目可以为23,第二预定数目可以为51。即:用户面对Kinect做出23种指定的表情,包括初始的闭嘴表情、张嘴、微笑、眉毛上扬、眉毛下沉、鄙视、下巴向左、下巴向右、下巴向前、嘴巴向左、嘴巴向右、酒窝、下巴抬起、嘟嘴、噘嘴、嘴角向下、抿嘴、鼓嘴、咀嚼、嘴唇挤压、拉伸嘴角、下嘴唇向下、上嘴唇向上等23种面部表情,FaceShift通过这23种表情分析拟合出51 种基础表情,生成用户基础表情库。
在本实施例中,上述基础表情权重参数,其获取方法包括:基于上述面部图像数据与上述基础表情库中的各基础表情的特征点,确定上述面部图像数据的基础表情权重参数;上述眼球旋转参数,其获取方法包括:计算在上述面部图像数据中上述目标对象眼球的欧拉角参数,并以该参数作为眼球旋转参数。在上述面部表演捕捉单元中的,利用FaceShift识别人脸表情的基础表情权重参数以及眼球旋转参数。具体地,可以对上述面部图像数据中面部特征点对比,如像素的对比,以及同上述基础表情库中各基础表情的对比,确定出上述面部图像数据的基础表情权重参数。将上述面部图像数据中眼部及眼球的特征与上述数据基础库中基础表情的比较确定出目标对象眼球的欧拉角参数。
上述利用FaceShift识别人脸表情的基础表情权重参数可以是通过如下方式计算基础表情权重参数。可以用PC机连接一台Kinect 传感器,FaceShift能够自动检测该Kinect传感器并与其连接,Kinect传感器捕获的人脸表情的深度数据可以实时传输给FaceShift。FaceShift将 Kinect传感器获取的人脸表情深度数据与用户的基础表情模型进行对比分析,FaceShift计算出当前表情的51个权重参数,记为{wi,i=1,2,...,51}。
具体地,以n个基础表情组成的blendshape表情模型为例,每一个基础表情都用含有p个顶点的三维网格人脸模型表示,每个顶点有三个分量x、y、z,即每个顶点的空间坐标为(x,y,z)。将每个基础表情的顶点坐标按任意顺序展开为长向量,但是展开后每个基础表情的顶点坐标之后的展开顺序应该是一样的,展开顺序可以为(xxxyyyzzz) 或者(xyzxyzxyz)等,这样就得到n个长度为3p的向量bk,k=1,2,...,n,用b0表示中性表情,bk-b0即为第k个基础表情bk与中性表情b0之差,当前表情可以表示为:其中,wk表示在区间[0,1] 内的任意值。因此,51个基础表情模型可以表示为Fi=bi-b0(i=1,…,51),将上述公式简化为其中F=f-b0。
在本实施例中,上述动作表演捕捉单元包括动作捕捉传感设备和动作参数确定模块;上述动作捕捉传感设备包括多个绑缚于目标对象身体各部位的多个关节点的传感器,该传感器获取上述目标对象的关节点的动作数据;上述动作参数确定模块,用于根据上述动作捕捉传感设备的所获得动作数据计算上述目标对象的动作参数。
上述动作捕捉传感设备捕捉表演者的全身动作,可以通过采集表演者的全身的人体骨架的数据,利用人体骨架数据中各个关节点坐标及坐标点的变化,确定出人体骨架的各关节点运动状态,以及由各关节点连接而成的人体骨架的变化。具体地,上述动作捕捉传感设备可以是kinect传感器,还可以是诺亦腾(Neuron)传感器。上述使用诺亦腾 (Neuron)传感器确定目标对象动作数据可以是:目标对象按要求穿戴好诺亦腾传感器,打开传感器电源,启动Axis Neuron软件并点击连接传感器,连接成功后,对目标对象所作出的动作表演进行动作捕捉。上述动作参数确定模块利用Axis Neuron软件对所捕捉的目标对象的动作数据分析计算得到上述目标对象的动作参数。在进行动作数据采集之前,可以对目标对象得人体骨架数据进行骨骼测量。可以使用各种测量工具测量目标对象的骨骼,可以测量出目标对象各部位骨骼长度,包括头部、脖子、肩宽、上臂、小臂、手掌、胯宽、躯干、大腿、小腿、脚掌长度以及脚踝高度,并存储成xml格式。上述动作参数确定模块可以参考该骨骼数据,对所捕捉的目标对象的动作数据进行分析,计算得到上述目标对象的动作参数。
在本实施例中,上述动作表演捕捉单元还包括姿势校准模块,上述姿势校准模块配置为:从预定的基准动作指令集中获取基准动作指令,指示上述目标对象作出指定姿势;确定上述动作捕捉传感设备基于上述指定姿势,所捕获的上述目标对象的动作数据,为上述指定姿势的基准动作数据。
在进行动作数据捕捉前,需要对上述动作捕捉传感设备进行校准。作为示例,当上述动作捕捉传感设备是诺亦腾传感器,上述姿势校准模块通过如下过程进行动作姿态校准:在目标对象穿戴好诺亦腾传感器后,启动Axis Neuron软件并点击连接传感器,连接成功后点击姿势校准,目标对象按照提示和或指令摆出指定的姿势,如,A姿势、T姿势和S姿势等各基本姿势;采集在指定姿势时目标对象的动作数据作为基准动作数据以进行上述动作捕捉传感设备校准。
在本实施例中,上述动作参数确定模块进一步配置为:上述动作数据包括各关节点的速度、加速度、角速度;将上述动作数据的各上述关节点的速度、加速度、角速度数据与上述目标对象的基准动作数据结合,计算出上述目标对象的全身姿态。
在本实施例中,上述动画生成单元中预设角色表情库,上述动画生成单元进一步配置为:将上述基础表情库与上述角色表情库各表情的对应映射关系;利用上述对应映射关系,根据上述基础表情权重参数确定出上述面部图像数据对应的角色表情,并确定出上述目标对象的角色表情权重参数。
上述动画生成模块将目标对象的面部图像数据的基础表情权重参数转换为角色表情权重参数。具体地,可以是建立基础表情库的基础表情权重参数与角色表情库的角色表情权重参数之间的对应映射关系,从而可以根据基础表情权重参数确定出上述面部图像数据对应的角色表情。作为示例,可以通过如下过程实现:由基础表情库中用于描述用户面部表情的基础表情的数目,确定描述用户面部表情的基础表情权重参数的数目;例如,基础表情库中有51个基础表情,则描述用户面部表情的基础表情参数的数目为51,记为{wi,i=1,2,...,51}。由角色表情库中可以加载到角色模型上的角色表情的数目,确定角色表情的基础表情参数的数目;例如,角色表情库中角色表情为N个,加载到角色模型的表情对应的权重参数{vi,i=1,2,...,N}。若角色表情库与基础表情库中的设定完全一致,那么N=51,则角色的表情权重vi=wi,i=1,2,...,51;若角色的基础表情种类较少,即,角色表情的数目N<51,则,则选择基础表情库中与角色表情库中的第i个角色表情最接近的基础表情j的权重参数wj赋值给vi,即vi=wj;若角色的基础表情种类较多,即,角色表情的数目N>51,则,选取角色表情库的一个子集将该子集与基础表情库中的基础表情一一对应,该子集中的权重参数设置为其余表情的权重参数置为0。
在本实施例中,上述动画生成单元中的UE引擎将上述角色表情权重参数输入到上述UE引擎的目标变形设置函数中,控制上述虚拟角色的面部顶点变形;根据上述眼球欧拉角参数控制上述虚拟角色的眼球转动;基于上述虚拟角色的面部顶点变形和上述虚拟角色的眼球转动合成上述虚拟角色的表情动画。
上述控制虚拟角色的面部顶点变形,可以是将角色表情参数输入到目标变形设置函数中进行虚拟角色的面部顶点变形;其中,角色表情权重参数为上述目标对象的面部图像数据对应的基础表情权重参数经过参数的转换,转换为角色表情权重参数。上述虚拟角色的表情动画还包括眼球的转动,利用眼球欧拉角参数控制上述虚拟角色眼球的转动。
在本实施例中,上述动画生成单元进一步配置为:根据上述全身姿态控制上述虚拟角色的人体骨架的旋转,合成上述虚拟角色的动作动画。
作为示例,参考图2,图2中示出了使用本系统进行表情和动作动画生成的流程示意图。
首先,进行角色数据准备,角色数据准备可以是将建好的角色三维模型、角色骨骼、角色基础表情库导入UE引擎,以供后续步骤使用。
其次,进行用户实时输入,即通过面部表演捕捉模块和动作表演捕捉模块实时采集目标对象的动作和表情数据。在此之前用户需搭建面部表演捕捉单元和动作表演捕捉单元。所搭建的面部表演捕捉单元可以是PC机连接一台Kinect,FaceShift应用程序自动检测到当前Kinect 并连接,并可以实时接收Kinect所捕获的数据。所搭建的动作表演捕捉单元可以是用户按要求穿戴好诺亦腾传感器,打开传感器电源,启动Axis Neuron软件并点击连接传感器进行动作数据的捕捉。
最后,将面部表演捕捉单元和动作表演捕捉单元所捕捉的动作和表情数据,通过网络发送到动画生成单元中进行实施表演动画生成。在此,根据面部表情数据利用UE引擎进行角色表情的控制,生成角色表情动画,所使用的面部表情数据在Faceshift软件中的预览,如图3a所示;根据动作数据利用UE引擎进行角色动作的控制,生成角色动作动画,所使用的动作数据在Axis Neuron软件中的预览,如图3b所示;最后合成上述角色表情动画和角色动作动画,对应角色动作、表情动画,如图3c 所示。
本申请上述实施例所提供的系统,通过面部表演捕捉单元捕捉目标对象的面部表情以及眼球的旋转角度,动作表演捕捉单元捕捉目标对象的动作,动画生成单元根据目标对象的面部表情、眼球旋转角度和动作,利用UE引擎生成角色的动作和表情动画。本发明可以同时捕捉目标对象的面部表情和身体动作数据,并生成角色模型的动作动画和表情动画,解决了因表情捕获和动作捕捉分离而造成动作动画与表情动画无法很好结合的问题,同时,不需要在目标对象的面部做标记,解决了标记对目标对象的面部表达动画造成侵入感,使得动画角色人物的表演受到干扰的问题。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
Claims (7)
1.一种基于UE引擎的表演捕捉系统,其特征在于,所述系统包括:
面部表演捕捉单元,配置为获取目标对象的面部图像数据,并根据所述面部图像数据获取基础表情权重参数及眼球旋转参数;所述基础表情权重参数是基于所述面部图像数据与预设的基础表情库中的各基础表情的特征点确定;所述基础表情库的生成是:采集所述目标对象的多类面部表情图像;基于所采集的所述面部表情图像,分别拟合出与各类所述面部表情图像对应的用户基础表情,构成基础表情库;
动作表演捕捉单元,配置为获取所述目标对象的肢体动作参数;
动画生成单元,配置为根据所述基础表情权重参数、所述眼球旋转参数和所述肢体动作参数确定虚拟角色的表情动画;
所述预设的基础表情库,具体生成包括:
采集用户做出第一预定数目个指定的面部表情;
通过上述第一预定数目种表情分析拟合出第二预定数目种基础表情,生成用户基础表情库;
确定所述基础表情权重参数,还包括:对所述面部图像数据中面部特征点对比,以及同上述基础表情库中各基础表情的对比,确定出对应上述面部图像数据的基础表情权重参数;
所述眼球旋转参数,其获取方法包括:计算在所述面部图像数据中所述目标对象眼球的欧拉角参数,并以该参数作为眼球旋转参数。
2.根据权利要求1所述的基于UE引擎的表演捕捉系统,其特征在于,所述动作表演捕捉单元包括:
动作捕捉传感设备和动作参数确定模块;
所述动作捕捉传感设备包括:多个绑缚于目标对象身体各部位的多个关节点的传感器,该传感器用于获取所述目标对象的关节点的动作数据;
所述动作参数确定模块,用于根据所述动作捕捉传感设备的所获得动作数据计算所述目标对象的动作参数。
3.根据权利要求2所述的基于UE引擎的表演捕捉系统,其特征在于,所述动作表演捕捉单元还包括:姿势校准模块,
所述姿势校准模块配置为:
从预定的基准动作指令集中获取基准动作指令,指示所述目标对象作出指定姿势;
确定所述动作捕捉传感设备基于所述指定姿势,所捕获的所述目标对象的动作数据,为所述指定姿势的基准动作数据。
4.根据权利要求3所述的基于UE引擎的表演捕捉系统,其特征在于,所述动作参数确定模块进一步配置为:
将所述动作数据的各所述关节点的速度、加速度、角速度数据与所述目标对象的各所述基准动作数据结合,计算出所述目标对象的全身姿态;
其中,
所述动作数据包括各关节点的速度、加速度、角速度。
5.根据权利要求4所述的基于UE引擎的表演捕捉系统,其特征在于,所述动画生成单元中预设角色表情库,所述动画生成单元进一步配置为:
构建所述基础表情库与所述角色表情库各表情的对应映射关系;
利用所述对应映射关系,根据所述基础表情权重参数确定出所述面部图像数据对应的角色表情,并确定出所述目标对象的角色表情权重参数。
6.根据权利要求5所述的基于UE引擎的表演捕捉系统,其特征在于,所述动画生成单元中的UE引擎将所述角色表情权重参数输入到所述UE引擎的目标变形设置函数中,控制所述虚拟角色的面部顶点变形;
根据所述眼球欧拉角参数控制所述虚拟角色的眼球转动;
基于所述虚拟角色的面部顶点变形和所述虚拟角色的眼球转动生成所述虚拟角色的表情动画。
7.根据权利要求4所述的基于UE引擎的表演捕捉系统,其特征在于,所述动画生成单元进一步配置为:根据所述全身姿态控制所述虚拟角色的人体骨架的旋转,合成所述虚拟角色的动作动画。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810217937.2A CN108564643B (zh) | 2018-03-16 | 2018-03-16 | 基于ue引擎的表演捕捉系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810217937.2A CN108564643B (zh) | 2018-03-16 | 2018-03-16 | 基于ue引擎的表演捕捉系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108564643A CN108564643A (zh) | 2018-09-21 |
CN108564643B true CN108564643B (zh) | 2021-01-12 |
Family
ID=63531839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810217937.2A Active CN108564643B (zh) | 2018-03-16 | 2018-03-16 | 基于ue引擎的表演捕捉系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108564643B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109671141B (zh) * | 2018-11-21 | 2023-04-18 | 深圳市腾讯信息技术有限公司 | 图像的渲染方法和装置、存储介质、电子装置 |
CN109753151B (zh) * | 2018-12-19 | 2022-05-24 | 武汉西山艺创文化有限公司 | 基于kincet和面部摄像头的动作捕捉方法和系统 |
CN111627095B (zh) * | 2019-02-28 | 2023-10-24 | 北京小米移动软件有限公司 | 表情生成方法及装置 |
CN110941346A (zh) * | 2019-12-19 | 2020-03-31 | 武汉西山艺创文化有限公司 | 一种基于5g通信的虚拟偶像直播方法及系统 |
JP7335199B2 (ja) * | 2020-04-30 | 2023-08-29 | 本田技研工業株式会社 | 解析装置、解析方法、プログラム、および較正方法 |
CN115278041B (zh) * | 2021-04-29 | 2024-02-27 | 北京字跳网络技术有限公司 | 图像处理方法、装置、电子设备以及可读存储介质 |
CN116419031A (zh) * | 2022-01-05 | 2023-07-11 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置以及设备 |
CN115942067A (zh) * | 2022-12-14 | 2023-04-07 | 优玖科技(深圳)有限公司 | 一种视频软件制作方法 |
CN115908766B (zh) * | 2023-02-20 | 2023-05-26 | 北京红棉小冰科技有限公司 | 三维虚拟人物图像的生成方法、装置及电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101533523B (zh) * | 2009-02-27 | 2011-08-03 | 西北工业大学 | 一种虚拟人眼部运动控制方法 |
CN105654537B (zh) * | 2015-12-30 | 2018-09-21 | 中国科学院自动化研究所 | 一种实现与虚拟角色实时互动的表情克隆方法及装置 |
CN107274466A (zh) * | 2017-05-31 | 2017-10-20 | 珠海金山网络游戏科技有限公司 | 一种实时全身动作捕捉的方法、装置和系统 |
CN107277599A (zh) * | 2017-05-31 | 2017-10-20 | 珠海金山网络游戏科技有限公司 | 一种虚拟现实的直播方法、装置和系统 |
CN107577451B (zh) * | 2017-08-03 | 2020-06-12 | 中国科学院自动化研究所 | 多Kinect人体骨架坐标变换方法及处理设备、可读存储介质 |
-
2018
- 2018-03-16 CN CN201810217937.2A patent/CN108564643B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108564643A (zh) | 2018-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108564643B (zh) | 基于ue引擎的表演捕捉系统 | |
US11262841B2 (en) | Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing | |
CN107833271B (zh) | 一种基于Kinect的骨骼重定向方法及装置 | |
US20180070864A1 (en) | Methods and devices for assessing a captured motion | |
WO2019177870A1 (en) | Animating virtual avatar facial movements | |
Roth et al. | A simplified inverse kinematic approach for embodied VR applications | |
US8724849B2 (en) | Information processing device, information processing method, program, and information storage medium | |
CN109671141B (zh) | 图像的渲染方法和装置、存储介质、电子装置 | |
CN108564642A (zh) | 基于ue引擎的无标记表演捕捉系统 | |
US20210200311A1 (en) | Proxy controller suit with optional dual range kinematics | |
WO2024094227A1 (zh) | 一种基于卡尔曼滤波和深度学习的手势姿态估计方法 | |
CN108020223B (zh) | 一种基于惯性测量装置的力反馈设备手柄的姿态测量方法 | |
JP2001236520A (ja) | 仮想空間における動作入力方法および装置およびその動作入力プログラムを記録した記録媒体および仮想空間システム | |
Luo et al. | Building hand motion-based character animation: The case of puppetry | |
KR20000074633A (ko) | 실시간 가상캐릭터 시스템 | |
Hao et al. | Cromosim: A deep learning-based cross-modality inertial measurement simulator | |
CN114756130A (zh) | 一种手部虚实交互系统 | |
JP2008176696A (ja) | Cgキャラクタアニメーション作成装置 | |
CN115280371A (zh) | 图像处理装置和运动图像数据生成方法 | |
Luo et al. | Puppet playing: An interactive character animation system with hand motion control | |
JP2021099666A (ja) | 学習モデルの生成方法 | |
Sreeni et al. | Multi-Modal Posture Recognition System for Healthcare Applications | |
CN112215928B (zh) | 基于视觉图像的动作捕捉方法及数字动画制作方法 | |
JP7200439B1 (ja) | アバター表示装置、アバター生成装置及びプログラム | |
US20240020901A1 (en) | Method and application for animating computer generated images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |