CN117899469A - 骨骼处理方法、装置、电子设备和计算机可读存储介质 - Google Patents
骨骼处理方法、装置、电子设备和计算机可读存储介质 Download PDFInfo
- Publication number
- CN117899469A CN117899469A CN202410096157.2A CN202410096157A CN117899469A CN 117899469 A CN117899469 A CN 117899469A CN 202410096157 A CN202410096157 A CN 202410096157A CN 117899469 A CN117899469 A CN 117899469A
- Authority
- CN
- China
- Prior art keywords
- controller
- bone
- curve
- movement
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000000988 bone and bone Anatomy 0.000 title claims abstract description 207
- 238000003672 processing method Methods 0.000 title claims abstract description 15
- 238000003860 storage Methods 0.000 title claims abstract description 15
- 230000033001 locomotion Effects 0.000 claims abstract description 147
- 210000003054 facial bone Anatomy 0.000 claims abstract description 27
- 210000000744 eyelid Anatomy 0.000 claims description 100
- 238000000034 method Methods 0.000 claims description 48
- 230000004397 blinking Effects 0.000 claims description 18
- 210000003491 skin Anatomy 0.000 claims description 16
- 230000001815 facial effect Effects 0.000 claims description 14
- 210000003780 hair follicle Anatomy 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 19
- 210000001508 eye Anatomy 0.000 description 47
- 210000004709 eyebrow Anatomy 0.000 description 21
- 210000005252 bulbus oculi Anatomy 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 210000000216 zygoma Anatomy 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种骨骼处理方法、装置、电子设备和计算机可读存储介质,本申请实施例通过在动画客户端中创建至少一个脸部骨骼,对所述至少一个脸部骨骼进行蒙皮处理,得到至少一个蒙皮脸部骨骼;获取所述至少一个脸部骨骼的位置,并根据所述至少一个脸部骨骼的位置,生成所述至少一个脸部骨骼对应的目标形状;生成所述至少一个蒙皮脸部骨骼的至少一个控制器,并将所述至少一个控制器与所述目标形状进行关联,以通过控制所述目标形状的运动带动所述至少一个控制器进行运动,通过所述至少一个控制器的运动带动所述至少一个蒙皮脸部骨骼进行运动。本申请实施例可以提高捏脸效率。
Description
技术领域
本申请涉及计算机技术领域,具体涉及一种骨骼处理方法、装置、电子设备和计算机可读存储介质。
背景技术
随着科学技术的发展,游戏中的功能越来越丰富,比如,游戏玩家可以在游戏中对游戏角色进行捏脸。
对游戏角色进行捏脸指游戏玩家可以自由地修改游戏角色的脸型的技术。在目前的捏脸骨骼方法中,制作捏脸骨骼的过程繁琐,使得绑定脸部骨骼的过程较为繁琐,容易出错,降低捏脸效率。
发明内容
本申请实施例提供一种骨骼处理方法、装置、电子设备和计算机可读存储介质,可以简化制作捏脸骨骼的过程,从而简化绑定脸部骨骼的过程,降低出错率,提高捏脸效率。
第一方面,本申请实施例提供一种骨骼处理方法,上述方法包括:
在动画客户端中创建至少一个脸部骨骼,对上述至少一个脸部骨骼进行蒙皮处理,得到至少一个蒙皮脸部骨骼;
获取上述至少一个脸部骨骼的位置,并根据上述至少一个脸部骨骼的位置,生成上述至少一个脸部骨骼对应的目标形状;
生成上述至少一个蒙皮脸部骨骼的至少一个控制器,并将上述至少一个控制器与上述目标形状进行关联,以通过控制上述目标形状的运动带动上述至少一个控制器进行运动,通过上述至少一个控制器的运动带动上述至少一个蒙皮脸部骨骼进行运动。
第二方面,本申请实施例还提供一种骨骼处理装置,上述装置包括:
创建模块,用于在动画客户端中创建至少一个脸部骨骼,对上述至少一个脸部骨骼进行蒙皮处理,得到至少一个蒙皮脸部骨骼;
生成模块,用于获取上述至少一个脸部骨骼的位置,并根据上述至少一个脸部骨骼的位置,生成上述至少一个脸部骨骼对应的目标形状;
关联模块,用于生成上述至少一个蒙皮脸部骨骼的至少一个控制器,并将上述至少一个控制器与上述目标形状进行关联,以通过控制上述目标形状的运动带动上述至少一个控制器进行运动,通过上述至少一个控制器的运动带动上述至少一个蒙皮脸部骨骼进行运动。
第三方面,本申请实施例还提供一种电子设备,包括存储器存储有多条指令;上述处理器从上述存储器中加载指令,以执行本申请实施例所提供的任一种骨骼处理方法。
第四方面,本申请实施例还提供一种计算机可读存储介质,上述计算机可读存储介质存储有多条指令,上述指令适于处理器进行加载,以执行本申请实施例所提供的任一种骨骼处理方法。
本申请实施例中,在动画客户端中创建至少一个脸部骨骼,对至少一个脸部骨骼进行蒙皮处理,得到至少一个蒙皮脸部骨骼;获取至少一个脸部骨骼的位置,并根据至少一个脸部骨骼的位置,生成至少一个脸部骨骼对应的目标形状;生成至少一个蒙皮脸部骨骼的至少一个控制器,并将至少一个控制器与目标形状进行关联,以通过控制目标形状的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动至少一个蒙皮脸部骨骼进行运动,实现通过目标形状控制控制器,通过控制器控制蒙皮脸部骨骼,简化制作脸部骨骼的过程,从而简化绑定脸部骨骼的过程,提高脸部骨骼绑定的效率,降低出错率,从而提高捏脸效率并提高脸部骨骼的塑造性和可操控性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的骨骼处理系统示意图;
图2是本申请实施例提供的骨骼处理方法的一种实施例流程示意图;
图3是本申请实施例中提供的表情骨骼和脸部骨骼的示意图;
图4是本申请实施例中提供的眼球骨骼和眼周骨骼的示意图;
图5是本申请实施例中提供的眼皮跟随曲线的示意图;
图6是本申请实施例中提供的眼皮跟随控制器、眨眼控制器以及眼皮主控制器的示意图;
图7是本申请实施例中提供的嘴巴控制器的示意图;
图8是本申请实施例中提供的UI窗的示意图;
图9是本申请实施例提供的骨骼处理装置的结构示意图;
图10是本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在对本申请实施例进行详细地解释说明之前,先对本申请实施例涉及到的一些名词进行解释说明。
其中,在本申请实施例的描述中,术语“第一”、“第二”等可在本文中用于描述各种概念,但除非特别说明,这些概念不受这些术语限制。这些术语仅用于将一个概念与另一个概念区分。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请实施例提供一种骨骼处理方法、装置、电子设备和计算机可读存储介质。具体地,本申请实施例的骨骼处理方法可以由电子设备执行,其中,该电子设备可以为终端或者服务器等设备。该终端可以为智能手机、平板电脑、笔记本电脑、触控屏幕、游戏机、个人计算机(PC,Personal Computer)、个人数字助理(Personal Digital Assistant,PDA)等终端设备,终端还可以包括客户端,该客户端可以是游戏应用客户端、携带有游戏程序的浏览器客户端或即时通信客户端等。服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
例如,如图1所示,该电子设备以终端10为例进行说明,该终端10可以在动画客户端中创建至少一个脸部骨骼,对至少一个脸部骨骼进行蒙皮处理,得到至少一个蒙皮脸部骨骼,获取至少一个脸部骨骼的位置,并将至少一个脸部骨骼的位置发送至服务器20。服务器20根据至少一个脸部骨骼的位置,生成至少一个脸部骨骼对应的目标形状,将目标形状发送至终端10。终端10生成至少一个蒙皮脸部骨骼的至少一个控制器,并将至少一个控制器与目标形状进行关联,以通过控制目标形状的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动至少一个蒙皮脸部骨骼进行运动。
以下结合附图分别进行详细说明。需说明的是,以下实施例的描述顺序不作为对实施例优选顺序的限定。虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于附图所示的顺序执行所示出或描述的步骤。
在本实施例中,以终端为例进行说明,本实施例提供了一种骨骼处理方法,如图2所示,该骨骼处理方法的具体流程可以如下:
201、在动画客户端中创建至少一个脸部骨骼,对至少一个脸部骨骼进行蒙皮处理,得到至少一个蒙皮脸部骨骼。
其中,动画客户端也可以称为三维动画客户端,其可以用于创建动画、三维物品以及游戏角色,比如,动画客户端可以为maya,本申请实施例在此不做限定。
动画客户端的形式可以根据实际情况进行选择,比如,动画客户端可以为动画小程序、动画应用程序以及动画网页,本申请实施例在此不做限定。
至少一个脸部骨骼指虚拟对象的脸部包括的骨骼,比如,至少一个脸部骨骼可以为虚拟对象的至少一个脸部五官骨骼,至少一个脸部五官骨骼可以包括眼睛骨骼、嘴巴骨骼、鼻子骨骼、脸颊骨骼、眉毛骨骼以及耳朵骨骼等。
虚拟对象指具备脸部的物体的数字化表达,比如,虚拟对象可以为游戏角色或虚拟宠物,对于虚拟对象的类型可以根据实际情况进行选择,本申请实施例在此不做限定。
蒙皮处理指将至少一个脸部骨骼和预设模型进行绑定的过程,以便通过至少一个脸部骨骼驱动预设模型运动。
对至少一个脸部骨骼进行蒙皮处理的方法可以根据实际情况进行选择,比如,可以通过线性混合蒙皮算法、球面混合蒙皮算法或双四元数蒙皮算法,本申请实施例在此不做限定。
当动画客户端为maya时,可以通过skinConstraint节点,对至少一个脸部骨骼进行蒙皮处理,得到至少一个蒙皮脸部骨骼。
在一些实施例中,动画客户端包括目标插件,目标插件包括定位器控件,在动画客户端中创建至少一个脸部骨骼,包括:
响应于对定位器控件的触发操作,创建至少一个定位器;
在至少一个定位器上创建至少一个脸部骨骼。
在本申请实施例中,动画客户端包括目标插件,目标插件包括定位器控件,响应于对定位器控件的触发操作,创建至少一个定位器,在至少一个定位器上创建至少一个脸部骨骼,以便通过至少一个定位器的位置,确定至少一个脸部骨骼的位置,提高得到至少一个脸部骨骼的位置的便捷性,并且,用户可以根据实际需求,通过定位器控件创建和删除定位器,实现根据实际需求,增加脸部骨骼和删除脸部骨骼,使得可以根据实际需求进行捏脸。
在一些实施例中,在动画客户端中创建至少一个脸部骨骼,包括:
获取表情骨骼;
在动画客户端中,在表情骨骼的下级骨骼中创建至少一个脸部骨骼;
本申请的骨骼处理方法还包括:
获取表情骨骼的移动参数;
根据移动参数,控制至少一个蒙皮脸部骨骼进行运动。
其中,如果未创建表情骨骼,则可以在动画客户端中创建表情骨骼。
在本申请实施例中,获取表情骨骼;在动画客户端中,在表情骨骼的下级骨骼中创建至少一个脸部骨骼,使得表情骨骼作为至少一个脸部骨骼的父级骨骼,至少一个脸部骨骼作为表情骨骼的子级骨骼(比如,如图3所示,图3中的捏脸骨骼即为脸部骨骼),不仅使得至少一个蒙皮脸部骨骼可以继承表情骨骼的移动参数,而且使得用户可以根据实际需求创建至少一个脸部骨骼,实现表情和捏脸一体化控制。
在一些实施例中,当动画客户端包括目标插件,目标插件包括定位器时,在动画客户端中,在表情骨骼的下级骨骼中创建至少一个脸部骨骼,包括:
响应于对定位器控件的触发操作,创建至少一个表情定位器的至少一个下级定位器;
在至少一个下级定位器上创建至少一个脸部骨骼。
其中,如果未创建表情骨骼,则可以响应于对定位器控件的触发操作,创建至少一个表情定位器,在至少一个表情定位器上创建至少一个表情骨骼。
在本申请实施例中,响应于对定位器控件的触发操作,创建至少一个表情定位器的至少一个下级定位器;在至少一个下级定位器上创建至少一个脸部骨骼,实现通过定位器的父子级关系设置至少一个表情骨骼和至少一个脸部骨骼之间父子级关系。
202、获取至少一个脸部骨骼的位置,并根据至少一个脸部骨骼的位置,生成至少一个脸部骨骼对应的目标形状。
其中,当通过至少一个定位器创建至少一个脸部骨骼时,可以将至少一个定位器的位置,确定为至少一个脸部骨骼的位置。或者,终端也可以从至少一个脸部骨骼的属性中读取至少一个脸部骨骼的位置。
可选地,如果至少一个脸部骨骼的位置为至少一个脸部骨骼的世界坐标,则可以直接根据至少一个脸部骨骼的位置,生成至少一个脸部骨骼对应的目标形状,如果至少一个脸部骨骼的位置不是至少一个脸部骨骼的世界坐标,则先转换为世界坐标,再根据世界坐标,生成至少一个脸部骨骼对应的目标形状。
可选地,当动画客户端为maya时,可以通过maya中的xform命令获取至少一个脸部骨骼的位置,可以通过maya中的curve命令、rebulidCurve命令以及multiplyDivide命令根据至少一个脸部骨骼的位置,生成至少一个脸部骨骼对应的目标形状。
目标形状可以指至少一个脸部骨骼的位置的视觉特征,其类型可以根据实际情况进行设置,比如,目标形状可以为目标点、目标曲线以及目标曲面中的至少一种,本申请实施例在此不做限定。
203、生成至少一个蒙皮脸部骨骼的至少一个控制器,并将至少一个控制器与目标形状进行关联,以通过控制目标形状的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动至少一个蒙皮脸部骨骼进行运动。
其中,至少一个控制器也可以称为至少一个正向控制器(Forward Kinematics,FK)。一个蒙皮脸部骨骼对应的目标形状可以对应一个控制器,也可以对应多个控制器,本申请实施例在此不做限定。
将至少一个控制器与目标形状进行关联的方法,可以根据实际情况进行设置,比如,可以通过maya中的路径动画(motionPath)或毛囊点(Follicle)将至少一个控制器与目标形状进行关联,其中,路径动画可以通过pathAnimation命令和pointConstraint命令实现,本申请实施例在此不做限定。
在本实施例中,由于目标形状可以为目标点、目标曲线以及目标曲面中的至少一种,因此,在动画客户端中创建至少一个脸部骨骼,对至少一个脸部骨骼进行蒙皮处理,得到至少一个蒙皮脸部骨骼;获取至少一个脸部骨骼的位置,并根据至少一个脸部骨骼的位置,生成至少一个脸部骨骼对应的目标形状;生成至少一个蒙皮脸部骨骼的至少一个控制器,并将至少一个控制器与目标形状进行关联,以通过控制目标形状的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动至少一个蒙皮脸部骨骼进行运动,可以实现通过点、线以及面控制控制器,控制蒙皮脸部骨骼,简化制作脸部骨骼的过程,从而简化绑定脸部骨骼的过程(绑定脸部骨骼,可以理解为将控制器和脸部骨骼进行绑定),提高脸部骨骼绑定的效率,降低出错率,从而提高捏脸效率并提高脸部骨骼的塑造性和可操控性。
在一些实施例中,至少一个脸部骨骼包括眼睛骨骼,至少一个蒙皮脸部骨骼包括蒙皮眼睛骨骼,目标形状为目标曲线,根据至少一个脸部骨骼的位置,生成至少一个脸部骨骼对应的目标形状,包括:
根据眼睛骨骼的位置,生成眼睛骨骼对应的至少一条候选曲线;
对至少一条候选曲线进行融合变形处理,得到眼睛骨骼对应的目标曲线;
将至少一个控制器与目标形状进行关联,以通过目标形状的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动至少一个蒙皮脸部骨骼进行运动,包括:
将至少一个控制器与目标曲线进行关联,以通过控制至少一条候选曲线的运动带动目标曲线进行运动,通过目标曲线的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动蒙皮眼睛骨骼进行运动。
在本申请实施例中,根据眼睛骨骼的位置,生成眼睛骨骼对应的至少一条候选曲线;对至少一条候选曲线进行融合变形处理,得到眼睛骨骼对应的目标曲线(目标曲线也可以称为MasterCurve),将至少一个控制器与目标曲线进行关联,以通过控制至少一条候选曲线的运动带动目标曲线进行运动,通过目标曲线的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动蒙皮眼睛骨骼进行运动,实现通过至少一条候选曲线控制蒙皮眼睛骨骼的运动,提高控制蒙皮眼睛骨骼的运动细节,使得蒙皮眼睛骨骼的运动更加真实。
可选地,至少一条候选曲线包括眼皮跟随曲线、眨眼曲线以及眼皮主控制曲线,眼皮主控制曲线为眼皮跟随曲线和眨眼曲线的下级曲线;
将至少一个控制器与目标曲线进行关联,以通过控制至少一条候选曲线的运动带动目标曲线进行运动,通过目标曲线的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动蒙皮眼睛骨骼进行运动,包括:
将至少一个控制器与目标曲线进行关联,以通过控制眼皮跟随曲线的运动和眨眼曲线的运动带动眼皮主控制曲线进行运动,通过眼皮主控制曲线的运动带动目标曲线进行运动,通过目标曲线的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动蒙皮眼睛骨骼进行运动。
其中,眼睛骨骼可以包括眼周骨骼和眼球骨骼。眼球骨骼的数量和眼周骨骼的数量可以根据实际情况进行设置,比如,眼球骨骼的数量可以为一个,眼周骨骼可以为八个。当眼球骨骼为一个且眼周骨骼为八个时,眼周骨骼和眼球骨骼可以如图4所示(图4只是示出了一只眼睛中的眼周骨骼和眼球骨骼,未示出另外一只眼睛的眼周骨骼和眼球骨骼)。
可选地,终端可以根据眼周骨骼的轮廓生成眼皮跟随曲线(眼皮跟随曲线也可以称为FreshyCurve)、眨眼曲线(眨眼曲线也可以为称为BlinkCurve)以及眼皮主控制曲线(眼皮主控制曲线也可以称为TweakCurve),眼皮跟随曲线和眨眼曲线之间的关系可以并列关系,眼皮主控制曲线为眼皮跟随曲线和眨眼曲线的下级曲线。其中,终端可以通过BlendShape节点,将眼皮主控制曲线设置为眼皮跟随曲线和眨眼曲线的下级曲线。
可选地,眼皮跟随曲线、眨眼曲线以及眼皮主控制曲线可以相同,也可以不相同。当眼皮跟随曲线、眨眼曲线以及眼皮主控制曲线相同时,可以是根据眼睛骨骼先生成某一条曲线,然后对某一条曲线进行复制,得到其他两条曲线,或者,也可以是直接根据眼睛骨骼生成眼皮跟随曲线、眨眼曲线以及眼皮主控制曲线。
当根据眼睛骨骼先生成某一条曲线,然后对某一条曲线进行复制,得到其他两条曲线时,比如,根据眼睛骨骼生成眼皮跟随曲线,然后对眼皮跟随曲线进行复制,得到眨眼曲线以及眼皮主控制曲线。
当眼皮跟随曲线、眨眼曲线以及眼皮主控制曲线相同时,如果眼周骨骼和眼球骨骼如图4所示时,则眼皮跟随曲线、眨眼曲线以及眼皮主控制曲线可以如图5所示。
需要说明的是,当针对两只眼睛时,眼皮跟随曲线可以包括左眼皮跟随曲线和右眼皮跟随曲线,其中,左眼皮跟随曲线为根据左眼的眼周骨骼的位置生成的曲线,右眼皮跟随曲线为根据右眼的眼周骨骼的位置生成的曲线。眨眼曲线可以包括左眨眼曲线和右眨眼曲线,其中,左眨眼曲线为根据左眼的眼周骨骼的位置生成的曲线,右眨眼曲线为根据右眼的眼周骨骼的位置生成的曲线。眼皮主控制曲线可以包括左眼皮主控制曲线和右眼皮主控制曲线,其中,左眼皮主控制曲线为根据左眼的眼周骨骼的位置生成的曲线,右眼皮主控制曲线为根据右眼的眼周骨骼的位置生成的曲线。
在本申请实施例中,至少一条候选曲线包括眼皮跟随曲线、眨眼曲线以及眼皮主控制曲线,眼皮主控制曲线为眼皮跟随曲线和眨眼曲线的下级曲线,将至少一个控制器与目标曲线进行关联,以通过控制眼皮跟随曲线的运动和眨眼曲线的运动带动眼皮主控制曲线进行运动,通过眼皮主控制曲线的运动带动目标曲线进行运动,通过目标曲线的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动蒙皮眼睛骨骼进行运动,实现多个曲线之间的层级控制,提高眼睛运动的真实性。
可选地,可以将上述眨眼曲线称为候选眨眼曲线,然后将候选眨眼曲线的上曲线和下曲线进行融合变形处理,得到眨眼曲线。
在一些实施例中,至少一个控制器包括眼皮跟随控制器、眨眼控制器以及眼皮主控制器,将至少一个控制器与目标曲线进行关联,以通过控制眼皮跟随曲线的运动和眨眼曲线的运动带动眼皮主控制曲线进行运动,通过眼皮主控制曲线的运动带动目标曲线进行运动,通过目标曲线的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动蒙皮眼睛骨骼进行运动,包括:
将眼皮跟随控制器、眨眼控制器以及眼皮主控制器与目标曲线进行关联,以通过控制眼皮跟随曲线的运动和眨眼曲线的运动带动眼皮主控制曲线进行运动,通过眼皮主控制曲线的运动带动目标曲线进行运动,通过目标曲线的运动带动眼皮跟随控制器、眨眼控制器以及眼皮主控制器进行运动,通过眼皮跟随控制器的运动、眨眼控制器的运动以及眼皮主控制器的运动带动蒙皮眼睛骨骼进行运动。
其中,眼皮跟随控制器可以为控制眼皮跟随眼球骨骼运动的控制器,眨眼控制器可以为控制眼皮跟随眨眼运动的控制器,眼皮主控制器可以为主要控制眼皮运动的控制器。控制器的数量可以根据骨骼的数量确定(当动画客户端为maya时,可以通过maya中的joint命令设置控制器的数量)。
可选地,可以根据眼睛骨骼的数量设置眼皮跟随控制器的数量、眨眼控制器的数量以及眼皮主控制器的数量。
比如,当眼周骨骼包括八个时,眼皮跟随控制器的数量可以为一个,眨眼控制器的数量可以为四个,眼皮主控制器的数量为八个,则眼皮跟随控制器、眨眼控制器以及眼皮主控制器可以如图6所示。
在本申请实施例中,将眼皮跟随控制器、眨眼控制器以及眼皮主控制器与目标曲线进行关联,以通过控制眼皮跟随曲线的运动和眨眼曲线的运动带动眼皮主控制曲线进行运动,通过眼皮主控制曲线的运动带动目标曲线进行运动,通过目标曲线的运动带动眼皮跟随控制器、眨眼控制器以及眼皮主控制器进行运动,通过眼皮跟随控制器的运动、眨眼控制器的运动以及眼皮主控制器的运动带动蒙皮眼睛骨骼进行运动,实现通过不同的控制器控制眼睛骨骼,使得眼睛的运动的真实性更高。
在一些实施例中,至少一个脸部骨骼为嘴巴骨骼,至少一个蒙皮脸部骨骼为蒙皮嘴巴骨骼,目标形状为目标曲面,根据至少一个脸部骨骼的位置,生成至少一个脸部骨骼对应的目标形状,包括:
根据嘴巴骨骼的位置,生成嘴巴骨骼对应的目标曲面;
将至少一个控制器与目标形状进行关联,以通过控制目标形状的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动至少一个蒙皮脸部骨骼进行运动,包括:
在目标曲面上创建毛囊点;
通过毛囊点将至少一个控制器与目标曲面进行关联,以通过控制目标曲面的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动至少一个蒙皮嘴巴骨骼进行运动。
其中,至少一个控制器也可以称为至少一个嘴巴控制器。其中,毛囊点(follicle)可以用于关联控制器和目标曲线。至少一个嘴巴控制器的数量可以根据实际情况进行设置,本申请实施例在此不做限定。
比如,目标曲面和至少一个嘴巴控制器可以如图7所示。
在一些实施例中,当至少一个脸部骨骼包括鼻子骨骼时,可以生成鼻子骨骼对应的鼻子曲线,生成鼻子骨骼对应的鼻子控制器,将鼻子曲线和鼻子控制器进行关联,以通过控制鼻子曲线的运动带动鼻子控制器的运动,通过鼻子控制器的运动带动蒙皮鼻子骨骼的运动。
在一些实施例中,当至少一个脸部骨骼包括脸颊骨骼时,可以生成脸颊骨骼对应的脸颊曲线,生成脸颊骨骼对应的脸颊控制器,将脸颊曲线和脸颊控制器进行关联,以通过控制脸颊曲线的运动带动脸颊控制器的运动,通过脸颊控制器的运动带动蒙皮脸颊骨骼的运动。
在一些实施例中,当至少一个脸部骨骼包括眉毛骨骼时,可以生成眉毛骨骼对应的眉毛曲线,生成眉毛骨骼对应的眉毛控制器,将眉毛曲线和眉毛控制器进行关联,以通过控制眉毛曲线的运动带动眉毛控制器的运动,通过眉毛控制器的运动带动蒙皮眉毛骨骼的运动。
在一些实施例中,当至少一个脸部骨骼包括鼻子骨骼、脸颊骨骼和眉毛骨骼时,可以通过设置受驱动关键帧(Set Driven Key)(在设置受驱动关键帧时,可以设置鼻子骨骼、脸颊骨骼和眉毛骨骼之间相互驱动),以便通过受驱动关键帧,联合控制鼻子骨骼、脸颊骨骼和眉毛骨骼,此时,鼻子骨骼、脸颊骨骼和眉毛骨骼的控制过程可以为:
通过控制鼻子曲线的运动带动鼻子控制器的运动,通过控制脸颊曲线的运动带动脸颊控制器的运动,通过控制眉毛曲线的运动带动眉毛控制器的运动,通过鼻子控制器的运动、脸颊控制器的运动以及眉毛控制器的运动联合控制受驱动关键帧中蒙皮鼻子骨骼的运动、蒙皮脸颊骨骼的运动以及蒙皮眉毛骨骼的运动。
在一些实施例中,当至少一个脸部骨骼包括耳朵骨骼时,可以生成耳朵骨骼对应的耳朵曲线,生成耳朵骨骼对应的耳朵控制器,将耳朵曲线和耳朵控制器进行关联,以通过控制耳朵曲线的运动带动耳朵控制器的运动,通过耳朵控制器的运动带动蒙皮耳朵骨骼的运动。
在一些实施例中,可以将上述对骨骼进行处理的方法集成至目标插件中,以便可以直接通过目标插件进行捏脸,进一步提升捏脸效率。
其中,可以将实现上述对骨骼进行处理的方法命令在UI窗内进行融合,得到目标插件,然后通过Mel,将目标插件拖进动画客户端中进行安装,比如,如图8所示,图8中的CheekCtrlBuild.py用于生成脸颊控制器,createFaceLoctors.py用于生成至少一个定位器,CtrlCreate.py用于生成眼皮跟随控制器、眨眼控制器以及眼皮主控制器,EyelidCtrlBuild.py用于控制生成眼皮,JointsBulid.py用于创建至少一个脸部骨骼,MouthLipsCtrlBuild.py用于生成嘴巴控制器,skinJointsSelect.py用于选择进行蒙皮处理的预设模型。
由以上内容可以看出,本申请实施例中,在动画客户端中创建至少一个脸部骨骼,对至少一个脸部骨骼进行蒙皮处理,得到至少一个蒙皮脸部骨骼;获取至少一个脸部骨骼的位置,并根据至少一个脸部骨骼的位置,生成至少一个脸部骨骼对应的目标形状;生成至少一个蒙皮脸部骨骼的至少一个控制器,并将至少一个控制器与目标形状进行关联,以通过控制目标形状的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动至少一个蒙皮脸部骨骼进行运动,实现通过目标形状控制控制器,通过控制器控制蒙皮脸部骨骼,简化制作脸部骨骼的过程,从而简化绑定脸部骨骼的过程,提高脸部骨骼绑定的效率,降低出错率,从而提高捏脸效率并提高脸部骨骼的塑造性和可操控性。
为了更好地实施以上方法,本申请实施例还提供一种骨骼处理装置,该骨骼处理装置具体可以集成在电子设备中,比如,计算机设备,该计算机设备可以为终端、服务器等设备。
其中,终端可以为手机、平板电脑、智能蓝牙设备、笔记本电脑、个人电脑等设备;服务器可以是单一服务器,也可以是由多个服务器组成的服务器集群。
比如,在本实施例中,将以骨骼处理装置具体集成在终端为例,对本申请实施例的方法进行详细说明,本实施例提供了一种骨骼处理装置,如图9所示,该骨骼处理装置可以包括:
创建模块901,用于在动画客户端中创建至少一个脸部骨骼,对至少一个脸部骨骼进行蒙皮处理,得到至少一个蒙皮脸部骨骼。
生成模块902,用于获取至少一个脸部骨骼的位置,并根据至少一个脸部骨骼的位置,生成至少一个脸部骨骼对应的目标形状。
关联模块903,用于生成至少一个蒙皮脸部骨骼的至少一个控制器,并将至少一个控制器与目标形状进行关联,以通过控制目标形状的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动至少一个蒙皮脸部骨骼进行运动。
在一些实施例中,至少一个脸部骨骼包括眼睛骨骼,至少一个蒙皮脸部骨骼包括蒙皮眼睛骨骼,目标形状为目标曲线,生成模块902具体用于执行:
根据眼睛骨骼的位置,生成眼睛骨骼对应的至少一条候选曲线;
对至少一条候选曲线进行融合变形处理,得到眼睛骨骼对应的目标曲线。
关联模块903具体用于:
将至少一个控制器与目标曲线进行关联,以通过控制至少一条候选曲线的运动带动目标曲线进行运动,通过目标曲线的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动蒙皮眼睛骨骼进行运动。
在一些实施例中,至少一条候选曲线包括眼皮跟随曲线、眨眼曲线以及眼皮主控制曲线,眼皮主控制曲线为眼皮跟随曲线和眨眼曲线的下级曲线,生成模块902具体用于执行:
将至少一个控制器与目标曲线进行关联,以通过控制眼皮跟随曲线的运动和眨眼曲线的运动带动眼皮主控制曲线进行运动,通过眼皮主控制曲线的运动带动目标曲线进行运动,通过目标曲线的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动蒙皮眼睛骨骼进行运动。
在一些实施例中,至少一个控制器包括眼皮跟随控制器、眨眼控制器以及眼皮主控制器,关联模块903具体用于:
将眼皮跟随控制器、眨眼控制器以及眼皮主控制器与目标曲线进行关联,以通过控制眼皮跟随曲线的运动和眨眼曲线的运动带动眼皮主控制曲线进行运动,通过眼皮主控制曲线的运动带动目标曲线进行运动,通过目标曲线的运动带动眼皮跟随控制器、眨眼控制器以及眼皮主控制器进行运动,通过眼皮跟随控制器的运动、眨眼控制器的运动以及眼皮主控制器的运动带动蒙皮眼睛骨骼进行运动。
在一些实施例中,至少一个脸部骨骼为嘴巴骨骼,至少一个蒙皮脸部骨骼为蒙皮嘴巴骨骼,目标形状为目标曲面,上述生成模块902具体用于:
根据嘴巴骨骼的位置,生成嘴巴骨骼对应的目标曲面。
关联模块903具体用于:
在目标曲面上创建毛囊点;
通过毛囊点将至少一个控制器与目标曲面进行关联,以通过控制目标曲面的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动至少一个蒙皮嘴巴骨骼进行运动。
在一些实施例中,动画客户端包括目标插件,目标插件包括定位器控件,上述创建模块901具体用于:
响应于对定位器控件的触发操作,创建至少一个定位器;
在至少一个定位器上创建至少一个脸部骨骼。
在一些实施例中,上述创建模块901具体用于:
获取表情骨骼;
在动画客户端中,在表情骨骼的下级骨骼中创建至少一个脸部骨骼;
方法还包括:
获取表情骨骼的移动参数;
根据移动参数,控制至少一个蒙皮脸部骨骼进行运动。
具体实施时,以上各个模块可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个模块的具体实施方式以及对应的有益效果可参见前面的方法实施例,在此不再赘述。
相应地,本申请实施例还提供一种电子设备,该电子设备可以为终端,该终端可以为智能手机、平板电脑、笔记本电脑、触控屏幕、游戏机、个人计算机(PC,PersonalComputer)、个人数字助理(Personal Digital Assistant,PDA)等终端设备。如图10所示,图10为本申请实施例提供的电子设备的结构示意图。该电子设备1000包括有一个或者一个以上处理核心的处理器1001、有一个或一个以上计算机可读存储介质的存储器1002及存储在存储器1002上并可在处理器上运行的计算机程序。其中,处理器1001与存储器1002电性连接。本领域技术人员可以理解,图中示出的电子设备结构并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
处理器1001是电子设备1000的控制中心,利用各种接口和线路连接整个电子设备1000的各个部分,通过运行或加载存储在存储器1002内的软件程序和/或模块,以及调用存储在存储器1002内的数据,执行电子设备1000的各种功能和处理数据,从而对电子设备1000进行整体监控。
在本申请实施例中,电子设备1000中的处理器1001会按照如下的步骤,将一个或一个以上的应用程序的进程对应的指令加载到存储器1002中,并由处理器1001来运行存储在存储器1002中的应用程序,从而实现各种功能,例如:
在动画客户端中创建至少一个脸部骨骼,对至少一个脸部骨骼进行蒙皮处理,得到至少一个蒙皮脸部骨骼;
获取至少一个脸部骨骼的位置,并根据至少一个脸部骨骼的位置,生成至少一个脸部骨骼对应的目标形状;
生成至少一个蒙皮脸部骨骼的至少一个控制器,并将至少一个控制器与目标形状进行关联,以通过控制目标形状的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动至少一个蒙皮脸部骨骼进行运动。
以上各个操作的具体实施方式以及对应的有益效果可参见上文对骨骼处理方法的详细描述,在此不作赘述。
可选的,如图10所示,电子设备1000还包括:触控显示屏1003、射频电路1004、音频电路1005、输入单元1006以及电源1007。其中,处理器1001分别与触控显示屏1003、射频电路1004、音频电路1005、输入单元1006以及电源1007电性连接。本领域技术人员可以理解,图10中示出的电子设备结构并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
触控显示屏1003可用于显示图形用户界面以及接收用户作用于图形用户界面产生的操作指令。触控显示屏1003可以包括显示面板和触控面板。其中,显示面板可用于显示由用户输入的信息或提供给用户的信息以及电子设备的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。可选的,可以采用液晶显示器(LCD,Liquid Crystal Display)、有机发光二极管(OLED,Organic Light-EmittingDiode)等形式来配置显示面板。触控面板可用于收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板上或在触控面板附近的操作),并生成相应的操作指令,且操作指令执行对应程序。可选的,触控面板可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1001,并能接收处理器1001发来的命令并加以执行。触控面板可覆盖显示面板,当触控面板检测到在其上或附近的触摸操作后,传送给处理器1001以确定触摸事件的类型,随后处理器1001根据触摸事件的类型在显示面板上提供相应的视觉输出。在本申请实施例中,可以将触控面板与显示面板集成到触控显示屏1003而实现输入和输出功能。但是在某些实施例中,触控面板与触控面板可以作为两个独立的部件来实现输入和输出功能。即触控显示屏1003也可以作为输入单元1006的一部分实现输入功能。
射频电路1004可用于收发射频信号,以通过无线通信与网络设备或其他电子设备建立无线通讯,与网络设备或其他电子设备之间收发信号。
音频电路1005可以用于通过扬声器、传声器提供用户与电子设备之间的音频接口。音频电路1005可将接收到的音频数据转换后的电信号,传输到扬声器,由扬声器转换为声音信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路1005接收后转换为音频数据,再将音频数据输出处理器1001处理后,经射频电路1004以发送给比如另一电子设备,或者将音频数据输出至存储器1002以便进一步处理。音频电路1005还可能包括耳塞插孔,以提供外设耳机与电子设备的通信。
输入单元1006可用于接收输入的数字、字符信息或用户特征信息(例如指纹、虹膜、面部信息等),以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
电源1007用于给电子设备1000的各个部件供电。可选的,电源1007可以通过电源管理系统与处理器1001逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源1007还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管图10中未示出,电子设备1000还可以包括摄像头、传感器、无线保真模块、蓝牙模块等,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有多条计算机程序,该计算机程序能够被处理器进行加载,以执行本申请实施例所提供的任一种骨骼处理方法。例如,该计算机程序可以执行如下步骤:
在动画客户端中创建至少一个脸部骨骼,对至少一个脸部骨骼进行蒙皮处理,得到至少一个蒙皮脸部骨骼;
获取至少一个脸部骨骼的位置,并根据至少一个脸部骨骼的位置,生成至少一个脸部骨骼对应的目标形状;
生成至少一个蒙皮脸部骨骼的至少一个控制器,并将至少一个控制器与目标形状进行关联,以通过控制目标形状的运动带动至少一个控制器进行运动,通过至少一个控制器的运动带动至少一个蒙皮脸部骨骼进行运动。
以上各个操作的具体实施方式以及对应的有益效果可参见上文对骨骼处理方法的详细描述,在此不作赘述。
其中,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该计算机可读存储介质中所存储的计算机程序,可以执行本申请实施例所提供的任一种骨骼处理方法,因此,可以实现本申请实施例所提供的任一种骨骼处理方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种骨骼处理方法、装置、电子设备和计算机可读存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种骨骼处理方法,其特征在于,所述方法包括:
在动画客户端中创建至少一个脸部骨骼,对所述至少一个脸部骨骼进行蒙皮处理,得到至少一个蒙皮脸部骨骼;
获取所述至少一个脸部骨骼的位置,并根据所述至少一个脸部骨骼的位置,生成所述至少一个脸部骨骼对应的目标形状;
生成所述至少一个蒙皮脸部骨骼的至少一个控制器,并将所述至少一个控制器与所述目标形状进行关联,以通过控制所述目标形状的运动带动所述至少一个控制器进行运动,通过所述至少一个控制器的运动带动所述至少一个蒙皮脸部骨骼进行运动。
2.如权利要求1所述的骨骼处理方法,其特征在于,所述至少一个脸部骨骼包括眼睛骨骼,所述至少一个蒙皮脸部骨骼包括蒙皮眼睛骨骼,所述目标形状为目标曲线,所述根据所述至少一个脸部骨骼的位置,生成所述至少一个脸部骨骼对应的目标形状,包括:
根据所述眼睛骨骼的位置,生成所述眼睛骨骼对应的至少一条候选曲线;
对所述至少一条候选曲线进行融合变形处理,得到所述眼睛骨骼对应的目标曲线;
所述将所述至少一个控制器与所述目标形状进行关联,以通过所述目标形状的运动带动所述至少一个控制器进行运动,通过所述至少一个控制器的运动带动所述至少一个蒙皮脸部骨骼进行运动,包括:
将所述至少一个控制器与所述目标曲线进行关联,以通过控制所述至少一条候选曲线的运动带动所述目标曲线进行运动,通过所述目标曲线的运动带动所述至少一个控制器进行运动,通过所述至少一个控制器的运动带动所述蒙皮眼睛骨骼进行运动。
3.如权利要求2所述的骨骼处理方法,其特征在于,所述至少一条候选曲线包括眼皮跟随曲线、眨眼曲线以及眼皮主控制曲线,所述眼皮主控制曲线为所述眼皮跟随曲线和所述眨眼曲线的下级曲线;
所述将所述至少一个控制器与所述目标曲线进行关联,以通过控制所述至少一条候选曲线的运动带动所述目标曲线进行运动,通过所述目标曲线的运动带动所述至少一个控制器进行运动,通过所述至少一个控制器的运动带动所述蒙皮眼睛骨骼进行运动,包括:
将所述至少一个控制器与所述目标曲线进行关联,以通过控制所述眼皮跟随曲线的运动和所述眨眼曲线的运动带动所述眼皮主控制曲线进行运动,通过所述眼皮主控制曲线的运动带动所述目标曲线进行运动,通过所述目标曲线的运动带动所述至少一个控制器进行运动,通过所述至少一个控制器的运动带动所述蒙皮眼睛骨骼进行运动。
4.如权利要求3所述的骨骼处理方法,其特征在于,所述至少一个控制器包括眼皮跟随控制器、眨眼控制器以及眼皮主控制器,所述将所述至少一个控制器与所述目标曲线进行关联,以通过控制所述眼皮跟随曲线的运动和所述眨眼曲线的运动带动所述眼皮主控制曲线进行运动,通过所述眼皮主控制曲线的运动带动所述目标曲线进行运动,通过所述目标曲线的运动带动所述至少一个控制器进行运动,通过所述至少一个控制器的运动带动所述蒙皮眼睛骨骼进行运动,包括:
将所述眼皮跟随控制器、所述眨眼控制器以及所述眼皮主控制器与所述目标曲线进行关联,以通过控制所述眼皮跟随曲线的运动和所述眨眼曲线的运动带动所述眼皮主控制曲线进行运动,通过所述眼皮主控制曲线的运动带动所述目标曲线进行运动,通过所述目标曲线的运动带动所述眼皮跟随控制器、所述眨眼控制器以及所述眼皮主控制器进行运动,通过所述眼皮跟随控制器的运动、所述眨眼控制器的运动以及所述眼皮主控制器的运动带动所述蒙皮眼睛骨骼进行运动。
5.如权利要求1所述的骨骼处理方法,其特征在于,所述至少一个脸部骨骼为嘴巴骨骼,所述至少一个蒙皮脸部骨骼为蒙皮嘴巴骨骼,所述目标形状为目标曲面,所述根据所述至少一个脸部骨骼的位置,生成所述至少一个脸部骨骼对应的目标形状,包括:
根据所述嘴巴骨骼的位置,生成所述嘴巴骨骼对应的目标曲面;
所述将所述至少一个控制器与所述目标形状进行关联,以通过控制所述目标形状的运动带动所述至少一个控制器进行运动,通过所述至少一个控制器的运动带动所述至少一个蒙皮脸部骨骼进行运动,包括:
在所述目标曲面上创建毛囊点;
通过所述毛囊点将所述至少一个控制器与所述目标曲面进行关联,以通过控制所述目标曲面的运动带动所述至少一个控制器进行运动,通过所述至少一个控制器的运动带动所述至少一个蒙皮嘴巴骨骼进行运动。
6.如权利要求1-5任一项所述的骨骼处理方法,其特征在于,所述动画客户端包括目标插件,所述目标插件包括定位器控件,所述在动画客户端中创建至少一个脸部骨骼,包括:
响应于对所述定位器控件的触发操作,创建至少一个定位器;
在所述至少一个定位器上创建至少一个脸部骨骼。
7.如权利要求1-5任一项所述的骨骼处理方法,其特征在于,所述在动画客户端中创建至少一个脸部骨骼,包括:
获取表情骨骼;
在动画客户端中,在所述表情骨骼的下级骨骼中创建至少一个脸部骨骼;
所述方法还包括:
获取所述表情骨骼的移动参数;
根据所述移动参数,控制所述至少一个蒙皮脸部骨骼进行运动。
8.一种骨骼处理装置,其特征在于,所述装置包括:
创建模块,用于在动画客户端中创建至少一个脸部骨骼,对所述至少一个脸部骨骼进行蒙皮处理,得到至少一个蒙皮脸部骨骼;
生成模块,用于获取所述至少一个脸部骨骼的位置,并根据所述至少一个脸部骨骼的位置,生成所述至少一个脸部骨骼对应的目标形状;
关联模块,用于生成所述至少一个蒙皮脸部骨骼的至少一个控制器,并将所述至少一个控制器与所述目标形状进行关联,以通过控制所述目标形状的运动带动所述至少一个控制器进行运动,通过所述至少一个控制器的运动带动所述至少一个蒙皮脸部骨骼进行运动。
9.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有多条指令;所述处理器从所述存储器中加载指令,以执行如权利要求1至7任一项所述的骨骼处理方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求1至7任一项所述的骨骼处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410096157.2A CN117899469A (zh) | 2024-01-23 | 2024-01-23 | 骨骼处理方法、装置、电子设备和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410096157.2A CN117899469A (zh) | 2024-01-23 | 2024-01-23 | 骨骼处理方法、装置、电子设备和计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117899469A true CN117899469A (zh) | 2024-04-19 |
Family
ID=90685656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410096157.2A Pending CN117899469A (zh) | 2024-01-23 | 2024-01-23 | 骨骼处理方法、装置、电子设备和计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117899469A (zh) |
-
2024
- 2024-01-23 CN CN202410096157.2A patent/CN117899469A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107632706A (zh) | 多模态虚拟人的应用数据处理方法和系统 | |
CN112233211B (zh) | 动画制作的方法、装置、存储介质及计算机设备 | |
CN112206517B (zh) | 一种渲染方法、装置、存储介质及计算机设备 | |
WO2023213037A1 (zh) | 毛发虚拟模型的渲染方法、装置、计算机设备及存储介质 | |
CN113952720A (zh) | 游戏场景渲染方法、装置、电子设备及存储介质 | |
CN112870718A (zh) | 道具的使用方法、装置、存储介质及计算机设备 | |
CN113344184A (zh) | 用户画像预测方法、装置、终端和计算机可读存储介质 | |
CN113426129B (zh) | 自定义角色的相貌调整方法、装置、终端和存储介质 | |
CN113413600B (zh) | 信息处理方法、装置、计算机设备及存储介质 | |
CN113824982A (zh) | 一种直播方法、装置、计算机设备及存储介质 | |
CN117058284A (zh) | 图像生成方法、装置和计算机可读存储介质 | |
CN117593493A (zh) | 三维脸部拟合方法、装置、电子设备及存储介质 | |
CN116999817A (zh) | 游戏中的交互方法、装置和计算机可读存储介质 | |
CN116385615A (zh) | 虚拟面部生成方法、装置、计算机设备及存储介质 | |
CN113345059B (zh) | 动画生成方法、装置、存储介质及电子设备 | |
CN113426115B (zh) | 游戏角色的展示方法、装置和终端 | |
CN113350801B (zh) | 模型处理方法、装置、存储介质及计算机设备 | |
CN117899469A (zh) | 骨骼处理方法、装置、电子设备和计算机可读存储介质 | |
CN113362435B (zh) | 虚拟对象模型的虚拟部件变化方法、装置、设备及介质 | |
CN113546420B (zh) | 虚拟对象的控制方法、装置、存储介质及电子设备 | |
CN114189731B (zh) | 赠送虚拟礼物后的反馈方法、装置、设备及存储介质 | |
CN115888101A (zh) | 虚拟角色的状态切换方法、装置、存储介质及电子设备 | |
CN112799754B (zh) | 信息处理方法、装置、存储介质及计算机设备 | |
CN115222904A (zh) | 地形处理方法、装置、电子设备和可读存储介质 | |
CN114225412A (zh) | 信息处理方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |