CN115578493B - 一种Maya表情编码方法及其系统 - Google Patents
一种Maya表情编码方法及其系统 Download PDFInfo
- Publication number
- CN115578493B CN115578493B CN202211284322.4A CN202211284322A CN115578493B CN 115578493 B CN115578493 B CN 115578493B CN 202211284322 A CN202211284322 A CN 202211284322A CN 115578493 B CN115578493 B CN 115578493B
- Authority
- CN
- China
- Prior art keywords
- final
- expression
- maya
- bone
- expressions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
本发明提出了一种Maya表情编码方法及其系统,包括如下步骤:S1:获取Maya坐标系下某个骨骼的初始位置,同时获取每个表情对应于所述骨骼的位移位置、旋转位置和缩放位置;S2:计算所述骨骼在所有表情下的最终位置;S3:后续添加新的表情时,在最终位置的基础上,添加所述新的表情对应于所述骨骼的位移位置、旋转位置和缩放位置,以获取新的最终位置;S4:在其他软件或者引擎里编写步骤S1‑S3对应的脚本,以得到所述骨骼在所有表情下的最终位置。通过把Maya里面的各种运动有机的组合起来,给用户暴露出一个和BlendShape类似的输入接口,这样就结合了BlendShape输入接口清晰和骨骼绑定速度快和节省资源的优点,解决了互通性不好的问题。
Description
技术领域
本发明涉及表情动画制作技术领域,尤其涉及一种Maya表情编码方法及其系统。
背景技术
传统Maya里面制作表情动画,一般用BlendShape,或者骨骼绑定,或者BlendShape和骨骼绑定结合的方式进行。
传统BlendShape制作表情的方法有几个优点:1.精度比较高。2.其他软件互通性上比较好,比如Maya里面用BlendShape制作好了表情,可以通过fbx导入max,unreal中,它们同样识别这些BlendShape。3.输入接口清晰明了,可以在对应BlendShape节点下,找到简洁的入口。在使用ARKit标准的面部动画捕捉工具的时候,也比较好进行一一对应,比如ARKit输出openJaw+smile_left的表情组合,BlendShape只需要去激活对应的表情即可。但是BlendShape有两个缺点:1.制作周期比较长。2.如果模型面数比较多的时候,BlendShape比较消耗资源,所以很多手游角色考虑到节省资源,并不会用这种方式进行制作。
用Maya骨骼绑定制作表情的方法有几个优点:1.制作速度比较快。2.比较节省资源,比如一个张嘴的表情,如果用BlendShape的方式,游戏引擎需要对嘴部大量的点进行运动,用骨骼绑定的方式,只需要去动几根骨骼就好了。但是骨骼绑定的方式也有些缺点:1.互通性不好。现在市面上有不少工具可以完成骨骼绑定,它们通过很多复杂的关系,把这些骨骼的运动有机的组合起来,方法千变万化。比如用一些曲线的变形,去控制嘴唇的一系列骨骼运动,或者用Maya里面的约束去管理眼珠和眼皮的关系。不过这种方式制作的表情都只能在Maya里面进行制作,互通性不好,比如一个张嘴的表情,可能后面调用了曲线、约束、驱动关键帧等技术配合完成,导出fbx后,它们的这种配合关系就掉了,所以一般游戏只能把所有骨骼表情bake成逐帧动画,然后导入游戏引擎使用。如果游戏引擎里面想去改变或者调用这些表情,就无法完成了。2.输入接口模糊,在使用ARKit标准的面部动画捕捉工具的时候,也不能直观的让ARKit的输出和Maya里面的骨骼表情对应起来。
Maya骨骼绑定和BlendShape结合的方式,如中国专利CN114549709A公开了一种自定义3D虚拟形象生成系统及方法,基于Maya骨骼绑定和BlendShape形变、深度学习、特征预置参数类型、具有标准动画适应性的3D虚拟形象生成能力,可根据主观需要对生成结果进行指向性调整,虽然提高了骨骼绑定精度上的要求,但是也包含了两者的缺点,即无法互通和没有清晰的输入接口。
发明内容
有鉴于此,本发明提出了一种Maya表情编码方法及其系统,以解决现有的Maya骨骼绑定和BlendShape结合的方式无法互通和没有清晰的输入接口的问题。
本发明的技术方案是这样实现的:一方面,本发明提供了一种Maya表情编码方法,其中,包括如下步骤:
S1:获取Maya坐标系下某个骨骼的初始位置,包括初始位移位置、初始旋转位置和初始缩放位置,同时获取每个表情对应于所述骨骼的位移位置、旋转位置和缩放位置;
S2:计算所述骨骼在所有表情下的最终位置,包括最终位移位置、最终旋转位置和最终缩放位置;
S3:后续添加新的表情时,在最终位置的基础上,添加所述新的表情对应于所述骨骼的位移位置、旋转位置和缩放位置,以获取新的最终位置;
S4:在其他软件或者引擎里编写步骤S1-S3对应的脚本,以对某个骨骼的初始位置、每个表情对应于所述骨骼的位移位置、旋转位置和缩放位置进行编辑,得到所述骨骼在所有表情下的最终位置。
在以上技术方案的基础上,优选的,所述步骤S1具体包括如下步骤:
获取某个骨骼的初始位移位置,假设有i个表情,其中i=0,1,2…n,获取每个表情对应于所述骨骼的位移位置。
在以上技术方案的基础上,优选的,所述步骤S2具体包括如下步骤:
在一个输入控制器上,添加对应的表情名字float类型属性Wi作为输入,其中属性变化范围为0-1,计算所述骨骼在所有表情下的最终位移位置。
在以上技术方案的基础上,优选的,所述步骤S1具体包括如下步骤:
获取某个骨骼的初始旋转位置,假设有i个表情,其中i=0,1,2…n,获取每个表情对应于所述骨骼的旋转位置。
在以上技术方案的基础上,优选的,所述步骤S2具体包括如下步骤:
在一个输入控制器上,添加对应的表情名字float类型属性Wi作为输入,其中属性变化范围为0-1,计算所述骨骼在所有表情下的最终旋转位置。
在以上技术方案的基础上,优选的,所述步骤S1具体包括如下步骤:
获取某个骨骼的初始缩放位置,假设有i个表情,其中i=0,1,2…n,获取每个表情对应于所述骨骼的缩放位置。
在以上技术方案的基础上,优选的,所述步骤S2具体包括如下步骤:
在一个输入控制器上,添加对应的表情名字float类型属性Wi作为输入,其中属性变化范围为0-1,计算所述骨骼在所有表情下的最终缩放位置。
在以上技术方案的基础上,优选的,所述步骤S3具体包括如下步骤:
假设添加新的表情p,在最终位移位置、最终旋转位置和最终缩放位置的基础上,添加所述新的表情p对应于所述骨骼的位移位置、旋转位置和缩放位置,以获取新的最终位移位置、新的最终旋转位置和新的最终缩放位置。
另一方面,本发明提供一种系统,其采用了如上所述的Maya表情编码方法,其中,所述系统包括:
数据采集模块,用于获取Maya坐标系下某个骨骼的初始位置,包括初始位移位置、初始旋转位置和初始缩放位置,同时获取每个表情对应于所述骨骼的位移位置、旋转位置和缩放位置;
计算模块,用于计算所述骨骼在所有表情下的最终位置,包括最终位移位置、最终旋转位置和最终缩放位置;
更新模块,用于后续添加新的表情时,在最终位置的基础上,添加所述新的表情对应于所述骨骼的位移位置、旋转位置和缩放位置,以获取新的最终位置;
编辑模块,用于在其他软件或者引擎里编写数据采集模块、计算模块和更新模块对应的脚本,以对某个骨骼的初始位置、每个表情对应于所述骨骼的位移位置、旋转位置和缩放位置进行编辑,得到所述骨骼在所有表情下的最终位置。
本发明的Maya表情编码方法及其系统相对于现有技术具有以下有益效果:
(1)通过把Maya里面的各种运动有机的组合起来,给用户暴露出一个和BlendShape类似的输入接口,这样就结合了BlendShape输入接口清晰和骨骼绑定速度快和节省资源的优点,解决了互通性不好的问题;
(2)后续添加新的表情,只需要在每个坐标位置后面添加对应的参数即可;
(3)如果对某个表情进行修改,也只需要去修改这套公式里面对应的数值。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的Maya表情编码方法流程图;
图2为本发明的Maya表情编码系统模块图;
图3为本发明的对应S1的实例图;
图4为本发明的对应S2的实例图;
图5为本发明的对应S2的实例图;
图6为本发明的对应S3的实例图;
图7为本发明的对应S4的实例图。
具体实施方式
下面将结合本发明实施方式,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式仅仅是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
实施例一
如图1所示,本发明的一种Maya表情编码方法,其中,包括如下步骤:
S1:获取Maya坐标系下某个骨骼的初始位置,包括初始位移位置、初始旋转位置和初始缩放位置,同时获取每个表情对应于所述骨骼的位移位置、旋转位置和缩放位置;
S2:计算所述骨骼在所有表情下的最终位置,包括最终位移位置、最终旋转位置和最终缩放位置;
S3:后续添加新的表情时,在最终位置的基础上,添加所述新的表情对应于所述骨骼的位移位置、旋转位置和缩放位置,以获取新的最终位置;
S4:在其他软件或者引擎里编写步骤S1-S3对应的脚本,以对某个骨骼的初始位置、每个表情对应于所述骨骼的位移位置、旋转位置和缩放位置进行编辑,得到所述骨骼在所有表情下的最终位置。
本方法把Maya里面的各种运动有机的组合起来,给用户暴露出一个和BlendShape类似的输入接口,这样就结合了BlendShape输入接口清晰和骨骼绑定速度快和节省资源的优点,解决了互通性不好的问题。
其中,所述步骤S1具体包括如下步骤:
获取某个骨骼的初始位移位置(TXa,TYa,TZa),假设有i个表情,其中i=0,1,2…n,获取每个表情对应于所述骨骼的位移位置(TXi,TYi,TZi)。
在Maya的坐标系中,位移有TX、TY、TZ三个方向的坐标轴,获取某个骨骼的初始位移位置坐标,以及每个表情对应于所述骨骼的位移位置坐标。
其中,所述步骤S2具体包括如下步骤:
在一个输入控制器上,添加对应的表情名字float类型属性Wi作为输入,其中属性变化范围为0-1,计算所述骨骼在所有表情下的最终位移位置(TXb,TYb,TZb)。
具体计算公式如下:
TXb=TXa+Wi*(TXi-TXa)
=TXa+W0*(TX0-TXa)+W1*(TX1-TXa)+W2*(TX2-TXa)+…+Wn*(TXn-TXa);
TYb=TYa+Wi*(TYi-TYa)
=TYa+W0*(TY0-TYa)+W1*(TY1-TYa)+W2*(TY2-TYa)+…+Wn*(TYn-TYa);
TZb=TZa+Wi*(TZi-TZa)
=TZa+W0*(TZ0-TZa)+W1*(TZ1-TZa)+W2*(TZ2-TZa)+…+Wn*(TZn-TZa)。
通过上述计算公式,建立骨骼与每个表情在位移坐标系中的对应关系,进而得到骨骼在所有表情下的最终位移位置。
其中,所述步骤S1具体包括如下步骤:
获取某个骨骼的初始旋转位置(RXa,RYa,RZa),假设有i个表情,其中i=0,1,2…n,获取每个表情对应于所述骨骼的旋转位置(RXi,RYi,RZi)。
在Maya的坐标系中,旋转有RX、RY、RZ三个方向的欧拉角,获取某个骨骼的初始旋转位置坐标,以及每个表情对应于所述骨骼的旋转位置坐标。
其中,所述步骤S2具体包括如下步骤:
在一个输入控制器上,添加对应的表情名字float类型属性Wi作为输入,其中属性变化范围为0-1,计算所述骨骼在所有表情下的最终旋转位置(RXb,RYb,RZb)。
具体计算公式如下:
RXb=RXa+Wi*(RXi-RXa)
=RXa+W0*(RX0-RXa)+W1*(RX1-RXa)+W2*(RX2-RXa)+…+Wn*(RXn-RXa);
RYb=RYa+Wi*(RYi-RYa)
=RYa+W0*(RY0-RYa)+W1*(RY1-RYa)+W2*(RY2-RYa)+…+Wn*(RYn-RYa);
RZb=RZa+Wi*(RZi-RZa)
=RZa+W0*(RZ0-RZa)+W1*(RZ1-RZa)+W2*(RZ2-RZa)+…+Wn*(RZn-RZa)。
通过上述计算公式,建立骨骼与每个表情在旋转坐标系中的对应关系,进而得到骨骼在所有表情下的最终旋转位置,这里需要注意避免欧拉角的万向轴锁的问题。
其中,所述步骤S1具体包括如下步骤:
获取某个骨骼的初始缩放位置(SXa,SYa,SZa),假设有i个表情,其中i=0,1,2…n,获取每个表情对应于所述骨骼的缩放位置(SXi,SYi,SZi)。
在Maya的坐标系中,缩放有SX、SY、SZ三个方向的坐标轴,获取某个骨骼的初始缩放位置坐标,以及每个表情对应于所述骨骼的缩放位置坐标。
其中,所述步骤S2具体包括如下步骤:
在一个输入控制器上,添加对应的表情名字float类型属性Wi作为输入,其中属性变化范围为0-1,计算所述骨骼在所有表情下的最终缩放位置(SXb,SYb,SZb)。
具体计算公式如下:
SXb=SXa+Wi*(SXi-SXa)
=SXa+W0*(SX0-SXa)+W1*(SX1-SXa)+W2*(SX2-SXa)+…+Wn*(SXn-SXa);
SYb=SYa+Wi*(SYi-SYa)
=SYa+W0*(SY0-SYa)+W1*(SY1-SYa)+W2*(SY2-SYa)+…+Wn*(SYn-SYa);
SZb=SZa+Wi*(SZi-SZa)
=SZa+W0*(SZ0-SZa)+W1*(SZ1-SZa)+W2*(SZ2-SZa)+…+Wn*(SZn-SZa)。
通过上述计算公式,建立骨骼与每个表情在缩放坐标系中的对应关系,进而得到骨骼在所有表情下的最终缩放位置。
其中,所述步骤S3具体包括如下步骤:
假设添加新的表情p,在最终位移位置(TXb,TYb,TZb)、最终旋转位置(RXb,RYb,RZb)和最终缩放位置(SXb,SYb,SZb)的基础上,添加所述新的表情p对应于所述骨骼的位移位置(TXp,TYp,TZp)、旋转位置(RXp,RYp,RZp)和缩放位置(SXp,SYp,SZp),以获取新的最终位移位置(TXc,TYc,TZc)、新的最终旋转位置(RXc,RYc,RZc)和新的最终缩放位置(SXc,SYc,SZc)。
具体计算公式如下:
TXc=TXb+Wp*(TXp-TXa);
TYc=TYb+Wp*(TYp-TYa);
TZc=TZb+Wp*(TZp-TZa);
RXc=RXb+Wp*(RXp-RXa);
RYc=RYb+Wp*(RYp-RYa);
RZc=RZb+Wp*(RZp-RZa);
SXc=SXb+Wp*(SXp-SXa);
SYc=SYb+Wp*(SYp-SYa);
SZc=SZb+Wp*(SZp-SZa)。
后续添加新的表情,只需要在每个坐标位置后面添加对应的参数即可。
如果对某个表情进行修改,也只需要去修改这套公式里面对应的数值。
比如要修改某个骨骼的TXb在表情q下的位置,只需要去修改Wq*(TXq-TXa)中的TXq值即可;后续在使用表情的时候,只需要去改变Wi的值即可。
这样,本实施例中的方法把Maya里面的各种运动有机的组合起来,给用户暴露出一个和BlendShape类似的输入接口,这样就结合了BlendShape输入接口清晰和骨骼绑定速度快和节省资源的优点,解决了互通性不好的问题。
实施例二
提供一种系统,其采用了如实施例一所述的Maya表情编码方法,如图2所示,其中,所述系统包括:
数据采集模块,用于获取Maya坐标系下某个骨骼的初始位置,包括初始位移位置、初始旋转位置和初始缩放位置,同时获取每个表情对应于所述骨骼的位移位置、旋转位置和缩放位置;
计算模块,用于计算所述骨骼在所有表情下的最终位置,包括最终位移位置、最终旋转位置和最终缩放位置;
更新模块,用于后续添加新的表情时,在最终位置的基础上,添加所述新的表情对应于所述骨骼的位移位置、旋转位置和缩放位置,以获取新的最终位置;
编辑模块,用于在其他软件或者引擎里编写数据采集模块、计算模块和更新模块对应的脚本,以对某个骨骼的初始位置、每个表情对应于所述骨骼的位移位置、旋转位置和缩放位置进行编辑,得到所述骨骼在所有表情下的最终位置。
如果其他3d软件和引擎需要使用编辑的功能,只需要利用本系统把实施例一中的公式输出到对应的软件,然后在里面编写对应的脚本,就可以实现同样的效果,目前已经实现3dmax,animcraft里面的应用,验证了本方法及系统具有良好的互通性。
本系统通过一套c++的算法插件,实现上述的物体运动控制;通过一套Mayapyside工具,为c++的算法插件提供操作的图形界面。
图3-7为实例操作示意图:
如图3所示,对应步骤S1,把需要记录的所有控制器添加到normal表情里面,让系统获取这些骨骼的初始位置;
如图4-5所示,对应步骤S2,针对每个表情,移动控制器,让系统记录每个表情的位移,然后通过插件把这些数据进行计算,得到在这些表情组合下,骨骼的最终位置;
如图6所示,对应步骤S3,添加新表情;
如图7所示,对应步骤S4,在其他软件里面编写对应的脚本。
通过本编码系统制作的表情系统,可以在不同的3d软件里面互用,可以快速的对接iphone的实时面捕。目前依托本编码系统制作完成了一套Maya的面部绑定工具,3dmax面部绑定工具,实现了Maya,max,animcraft面部绑定互通的功能;同时也使用这套编码系统,在Maya和animcraft里面实现了iphone的实时面捕功能。
这样,本实施例中的系统把Maya里面的各种运动有机的组合起来,给用户暴露出一个和BlendShape类似的输入接口,这样就结合了BlendShape输入接口清晰和骨骼绑定速度快和节省资源的优点,解决了互通性不好的问题。
以上所述仅为本发明的较佳实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种Maya表情编码方法,其特征在于:包括如下步骤:
S1:获取Maya坐标系下某个骨骼的初始位置,包括初始位移位置、初始旋转位置和初始缩放位置,同时获取每个表情对应于所述骨骼的位移位置、旋转位置和缩放位置;
S2:计算所述骨骼在所有表情下的最终位置,包括最终位移位置、最终旋转位置和最终缩放位置;
S3:后续添加新的表情时,在最终位置的基础上,添加所述新的表情对应于所述骨骼的位移位置、旋转位置和缩放位置,以获取新的最终位置;
S4:在其他软件或者引擎里编写步骤S1-S3对应的脚本,以对某个骨骼的初始位置、每个表情对应于所述骨骼的位移位置、旋转位置和缩放位置进行编辑,得到所述骨骼在所有表情下的最终位置。
2.如权利要求1所述的Maya表情编码方法,其特征在于:所述步骤S1具体包括如下步骤:
获取某个骨骼的初始位移位置,假设有i个表情,其中i=0,1,2…n,获取每个表情对应于所述骨骼的位移位置。
3.如权利要求2所述的Maya表情编码方法,其特征在于:所述步骤S2具体包括如下步骤:
在一个输入控制器上,添加对应的表情名字float类型属性Wi作为输入,其中属性变化范围为0-1,计算所述骨骼在所有表情下的最终位移位置。
4.如权利要求1所述的Maya表情编码方法,其特征在于:所述步骤S1具体包括如下步骤:
获取某个骨骼的初始旋转位置,假设有i个表情,其中i=0,1,2…n,获取每个表情对应于所述骨骼的旋转位置。
5.如权利要求4所述的Maya表情编码方法,其特征在于:所述步骤S2具体包括如下步骤:
在一个输入控制器上,添加对应的表情名字float类型属性Wi作为输入,其中属性变化范围为0-1,计算所述骨骼在所有表情下的最终旋转位置。
6.如权利要求1所述的Maya表情编码方法,其特征在于:所述步骤S1具体包括如下步骤:
获取某个骨骼的初始缩放位置,假设有i个表情,其中i=0,1,2…n,获取每个表情对应于所述骨骼的缩放位置。
7.如权利要求6所述的Maya表情编码方法,其特征在于:所述步骤S2具体包括如下步骤:
在一个输入控制器上,添加对应的表情名字float类型属性Wi作为输入,其中属性变化范围为0-1,计算所述骨骼在所有表情下的最终缩放位置。
8.如权利要求7所述的Maya表情编码方法,其特征在于:所述步骤S3具体包括如下步骤:
假设添加新的表情p,在最终位移位置、最终旋转位置和最终缩放位置的基础上,添加所述新的表情p对应于所述骨骼的位移位置、旋转位置和缩放位置,以获取新的最终位移位置、新的最终旋转位置和新的最终缩放位置。
9.一种采用如权利要求1-8任一项所述的Maya表情编码方法的系统,其特征在于:所述系统包括:
数据采集模块,用于获取Maya坐标系下某个骨骼的初始位置,包括初始位移位置、初始旋转位置和初始缩放位置,同时获取每个表情对应于所述骨骼的位移位置、旋转位置和缩放位置;
计算模块,用于计算所述骨骼在所有表情下的最终位置,包括最终位移位置、最终旋转位置和最终缩放位置;
更新模块,用于后续添加新的表情时,在最终位置的基础上,添加所述新的表情对应于所述骨骼的位移位置、旋转位置和缩放位置,以获取新的最终位置;
编辑模块,用于在其他软件或者引擎里编写数据采集模块、计算模块和更新模块对应的脚本,以对某个骨骼的初始位置、每个表情对应于所述骨骼的位移位置、旋转位置和缩放位置进行编辑,得到所述骨骼在所有表情下的最终位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211284322.4A CN115578493B (zh) | 2022-10-20 | 2022-10-20 | 一种Maya表情编码方法及其系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211284322.4A CN115578493B (zh) | 2022-10-20 | 2022-10-20 | 一种Maya表情编码方法及其系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115578493A CN115578493A (zh) | 2023-01-06 |
CN115578493B true CN115578493B (zh) | 2023-05-30 |
Family
ID=84587375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211284322.4A Active CN115578493B (zh) | 2022-10-20 | 2022-10-20 | 一种Maya表情编码方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115578493B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012043057A (ja) * | 2010-08-16 | 2012-03-01 | Copcom Co Ltd | 顔画像編集用プログラム、その顔画像編集用プログラムを記録した記録媒体及び顔画像編集システム |
CN107633542A (zh) * | 2016-07-19 | 2018-01-26 | 珠海金山网络游戏科技有限公司 | 一种捏脸编辑和动画附加融合方法和系统 |
CN108320321A (zh) * | 2017-01-17 | 2018-07-24 | 北京佳士乐动漫科技有限公司 | 一种表情和动作同步的三维动画制作方法及系统 |
CN109272566A (zh) * | 2018-08-15 | 2019-01-25 | 广州多益网络股份有限公司 | 虚拟角色的动作表情编辑方法、装置、设备、系统及介质 |
CN110246208A (zh) * | 2019-06-20 | 2019-09-17 | 武汉两点十分文化传播有限公司 | 一种可提高动画制作流程效率的插件 |
CN110766776A (zh) * | 2019-10-29 | 2020-02-07 | 网易(杭州)网络有限公司 | 生成表情动画的方法及装置 |
CN110766777A (zh) * | 2019-10-31 | 2020-02-07 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、电子设备及存储介质 |
CN113610981A (zh) * | 2021-08-04 | 2021-11-05 | 广州虎牙科技有限公司 | 脸部模型生成方法、交互方法及相关装置 |
CN113870398A (zh) * | 2021-10-27 | 2021-12-31 | 武汉两点十分文化传播有限公司 | 一种动画生成方法、装置、设备及介质 |
CN114140564A (zh) * | 2021-12-06 | 2022-03-04 | 珠海金山数字网络科技有限公司 | 表情创建方法及装置 |
CN114432703A (zh) * | 2022-02-08 | 2022-05-06 | 上海光追网络科技有限公司 | 基于嵌套骨骼分离运动的角色模型自定义方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101998059B1 (ko) * | 2017-08-31 | 2019-07-09 | 한국과학기술원 | 캐릭터 애니메이션용 모션 리타겟팅 방법 및 장치 |
-
2022
- 2022-10-20 CN CN202211284322.4A patent/CN115578493B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012043057A (ja) * | 2010-08-16 | 2012-03-01 | Copcom Co Ltd | 顔画像編集用プログラム、その顔画像編集用プログラムを記録した記録媒体及び顔画像編集システム |
CN107633542A (zh) * | 2016-07-19 | 2018-01-26 | 珠海金山网络游戏科技有限公司 | 一种捏脸编辑和动画附加融合方法和系统 |
CN108320321A (zh) * | 2017-01-17 | 2018-07-24 | 北京佳士乐动漫科技有限公司 | 一种表情和动作同步的三维动画制作方法及系统 |
CN109272566A (zh) * | 2018-08-15 | 2019-01-25 | 广州多益网络股份有限公司 | 虚拟角色的动作表情编辑方法、装置、设备、系统及介质 |
CN110246208A (zh) * | 2019-06-20 | 2019-09-17 | 武汉两点十分文化传播有限公司 | 一种可提高动画制作流程效率的插件 |
CN110766776A (zh) * | 2019-10-29 | 2020-02-07 | 网易(杭州)网络有限公司 | 生成表情动画的方法及装置 |
CN110766777A (zh) * | 2019-10-31 | 2020-02-07 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、电子设备及存储介质 |
CN113610981A (zh) * | 2021-08-04 | 2021-11-05 | 广州虎牙科技有限公司 | 脸部模型生成方法、交互方法及相关装置 |
CN113870398A (zh) * | 2021-10-27 | 2021-12-31 | 武汉两点十分文化传播有限公司 | 一种动画生成方法、装置、设备及介质 |
CN114140564A (zh) * | 2021-12-06 | 2022-03-04 | 珠海金山数字网络科技有限公司 | 表情创建方法及装置 |
CN114432703A (zh) * | 2022-02-08 | 2022-05-06 | 上海光追网络科技有限公司 | 基于嵌套骨骼分离运动的角色模型自定义方法 |
Non-Patent Citations (4)
Title |
---|
俞晓妮 ; .基于Maya的人物动画研究.电子世界.2014,(14),337. * |
孙治."动画人物面部表情的快速设计与实现".《中国优秀硕士学位论文全文数据库电子期刊(信息科技辑)》.2016,I138-6810. * |
成红艳 ; 景军锋 ; 师小燕 ; 林静 ; 李诗宁 ; .基于Maya脚本语言的虚拟士兵动画研究.微型机与应用.2012,(13),39-41. * |
苗语 ; 石乐民 ; 刘桥 ; 盛译丹 ; 梁铭 ; .表情数据驱动三维人脸模型方法.长春理工大学学报(自然科学版).2016,(02),116-119. * |
Also Published As
Publication number | Publication date |
---|---|
CN115578493A (zh) | 2023-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021169839A1 (zh) | 一种基于骨骼关键点的动作还原方法以及装置 | |
CN106600667B (zh) | 一种基于卷积神经网络的视频驱动人脸动画方法 | |
JP7200439B1 (ja) | アバター表示装置、アバター生成装置及びプログラム | |
TW202046250A (zh) | 虛擬對象的變形處理方法、裝置、設備及儲存媒體 | |
CN111553968B (zh) | 一种三维人体重构动画的方法 | |
CN111294665B (zh) | 视频的生成方法、装置、电子设备及可读存储介质 | |
CN101324961B (zh) | 计算机虚拟世界中人脸部三维贴图方法 | |
US20080136814A1 (en) | System and method for generating 3-d facial model and animation using one video camera | |
CN113744374B (zh) | 一种基于表情驱动的3d虚拟形象生成方法 | |
CN111640173A (zh) | 一种基于特定路径的家装漫游动画的云端渲染方法及系统 | |
JP2009104570A (ja) | 画像の形成用のデータ構造及び画像の形成方法 | |
WO2021051605A1 (zh) | 基于表情驱动的虚拟视频合成方法、装置及存储介质 | |
CN112700524B (zh) | 一种基于深度学习的3d角色面部表情动画实时生成方法 | |
CN115578493B (zh) | 一种Maya表情编码方法及其系统 | |
Aizawa et al. | Human facial motion analysis and synthesis with application to model-based coding | |
CN110992455B (zh) | 一种实时表情捕捉系统 | |
Pandzic et al. | Towards natural communication in networked collaborative virtual environments | |
CN111476899A (zh) | 基于单视点rgb相机的人手稠密纹理坐标三维重建方法 | |
KR100918095B1 (ko) | 한 대의 비디오 카메라를 이용한 3차원 얼굴 모델 및애니메이션 생성 시스템 및 방법 | |
CN113763536A (zh) | 一种基于rgb图像的三维重建方法 | |
Li et al. | Animating cartoon faces by multi‐view drawings | |
CN114067407A (zh) | 一种表情驱动方法、装置、电子设备及存储介质 | |
CN110097644A (zh) | 一种基于混合现实的表情迁移方法、装置、系统和处理器 | |
McCall et al. | Real-time driver affect analysis and tele-viewing system | |
Cannavò et al. | A sketch-based interface for facial animation in immersive virtual reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |