CN102999934A - 计算机三维动画系统及动画方法 - Google Patents
计算机三维动画系统及动画方法 Download PDFInfo
- Publication number
- CN102999934A CN102999934A CN 201110278278 CN201110278278A CN102999934A CN 102999934 A CN102999934 A CN 102999934A CN 201110278278 CN201110278278 CN 201110278278 CN 201110278278 A CN201110278278 A CN 201110278278A CN 102999934 A CN102999934 A CN 102999934A
- Authority
- CN
- China
- Prior art keywords
- properties
- data
- action
- hierarchy
- animation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开一种能够降低数据的冗余性并以较少的数据实现高效、多样的计算机三维动画系统。动画控制模块1进行形状数据的指定、分层结构数据的指定、属性组的指定和状态信息的指定。并且,动画算法模块3从从形状数据处理模块5中获取形状数据,从分层结构处理模块4中获取分层结构数据,从属性组处理模块2中获取属性,从动作数据处理模块6获取状态信息中记载的动作数据;根据分层结构数据将与属性组编号相对应获取的动作数据的变更为上述形状数据。然后,三维图形绘制模块7对变更的形状数据进行三维绘画处理生成图像,在渲染模块9中进行图形渲染,最后在显示模块10中显示图像。
Description
技术领域
本发明涉及一种三维计算机动画领域的系统,特别是具有人物角色等的分层结构的复杂物体的三维计算机动画模块。
背景技术
以前,在用三维计算机制图(以下简称3D CG)将动物或人等人物生成动画图像时,使用顺序运动学和基于骨架法的关节角的主画面法(参照例如非专利文献1)作为广义的主画面法。下面用图2至图4简单说明这些方法。
人物的动作,用图2的骨架结构的路径方向和移动生成身体整体的动作,通过骨架结构在关节部的局部坐标的变换生成身体的局部动作。通过移动其表面形状使其与该骨架结构的动作相一致就成为人物的动作。作为关节位置上的局部坐标系的变换,一般用4×4矩阵,虽然能表达关节处的回转或平行移动,但一般使关节没有平行移动的自由度而只有旋转的自由度。这一回转角叫作关节角。使这些变换按照从路径到骨架结构的链接依次进行决定身体各部位的状态,作为在路径的坐标系(一般取宇宙坐标系)中的动作表示,根据其身体部位的动作决定身体整体的位置和方向,这样的方法称为顺序运动学。它们在各时刻(每一显示帧频)的重复,就成为作为随时间而动表达的动画。并且要有与帧频相一致的关节角数据,但关节角的主画面法只将其抽样时刻的关节角数据(关键数据)作为数据保存,在此以外的时刻的关节角用关键数据的插值计算法算出。
一般,为了与3D CG人物动画时,特别是游戏等人机对话的应用程序相对应,大多使用根据图7(a)所示的状态变换图反复进行动作变换、生成一连串的CG人物的动作的方法。在使用上述以前的方法时,图7(a)的基本状态或动作A、……、动作E用上述第2以前示例中所描述的3D CD动画生成方法制成。并且,如图7(a)所示的那样,包括基本状态的6种动作状态根据状态变换不断地变换。如果要生成伴随更多多样性的动作,就需要相应的动作数据,增大了数据量。
而且,在有例如“甩手走路”动作和“坐到椅子上”的动作时,如果不重新将该动作的整体做成1个动作合并到状态变换中,则“甩手坐到椅子上”这样的动作就不出现在CG人物的动作中。这种状况在包含表情动作时更明显,在即使身体动作相同而面部表情不同时,所有的面部表情都必须做成与每一个身体动作统一的动作。当然,做成动作数据时的工作可以再利用身体动作中的,因此可以省略,但数据量不能削减。在例如存储环境少的仪器时,由于这样的数据量的增加是致命的,因此为了减少数据量,就不得不减少动作的种类,其结果是感觉不到CG人物动作的多样性,使用者很快就厌烦了。
其次,实际的人的动作常常会出现握持物体,特别是道具等这样的情况。但是,这样的现实世界中经常容易发生的事情如果用以前的CG人物的动画方法来进行,存在以下问题。
第一个问题,由于握持物体的状态与没有握持的状态其骨架结构是不同的,因此必须要有未握持状态下的形状数据和握持状态下的形状数据,物的种类有多少,CG人物数据就需要多少。第二问题,由于上述骨架结构不同,即使身体动作数据相同,也必须要有握持物体状态下与未握持物体状态下的2种动作。因此,即使同样的动作,形状数据和动作数据也差不多变成2倍的数据量。在这样的状态下,如果要实现上述那样的包括表情动作的动作的多样性,数据量就爆炸性地增加。
发明内容
本发明就是鉴于上述问题,其目的就是要提供一种极力排除造成上述问题的原因的数据的冗余性、能够以比以前少的合适的数据量实现多样的CG人物动画的计算机三维动画系统。
并且,本发明的另一个目的是实现能够容易地进行握有附属属性组、物体这样的形状或者分层结构等的追加或消除的计算机三维动画系统。
技术方案
为了解决上述问题,本发明的显示人物图像的计算机三维动画系统,其特征在于,包括:处理分层结构模块的分层结构处理模块,该分层结构数据为表示构成所述人物的多个部位的分层结构的数据;处理属性组的属性组处理模块,该属性组表示将所述多个部位的集合作为一个属性组、在对应的多个属性组中该属性组与所述部位的对应关系;动作数据处理模块,保存使动作分别与登记在所述属性组中的多个属性相对应的动作数据;动画控制模块,进行所述动作数据、所述属性组及所述分层结构数据的指定;动画算法模块,根据遵从所述动画控制模块的输入的所述动作数据、所述属性组及所述分层结构数据,计算出表示所述人物的形状随时间的变化的形状数据。
并且,本发明的计算机三维动画系统还包括输入与所述三维人物的动作有关的事件信息的动画控制模块,该动画控制模块根据输入的所述事件信息的种类进行所述动作数据、所述属性组及所述分层结构数据的指定,所述动画算法模块根据所述动画控制模块的输入算出表示所述人物的形状随时间的变化的形状数据。
并且,本发明不仅能够实现上述那样的计算机三维动画系统,而且能够实现将包括该动画模块的系统作为步骤的计算机动画方法。
发明效果
通过以上的构成,本发明的骨架结构导入独立属性组这一新概念,用属性组能够生成动作数据与属性组分割的个数进行组合的多样的CG人物的动作。并且,由于是属性组能够变换的结构,因此不仅进一步增加了其多样性,而且能够与形状或分层结构本身的追加或消除的变更相对应。
并且,本发明的动画系统,将构成CG人物的多个部位的集合作为属性组,给每个属性组付与数据控制CG人物整体的动作。因此,不必同时给构成CG人物的所有的部位付与数据,能够用少量的数据量进行CG人物整体动作的变更。
因此,本发明就是要解决以前的问题,能够极力排除引起问题的很大原因的数据冗余性,能够用比以前少的适当的数据量实现多样的CG人物的动画。而且通过使形状或分层结构的追加或消除能够容易地进行,对于握有物体这样的在日常的动作中很平常、但在以前的技术中难以实现的计算机动画(以下简称CG动画)图像的生成也能够容易地进行。通过以上的叙述,本发明的效果已经明显,可以得出在CG动画技术领域是非常重要的发明这一结论。
附图说明
图1表示基于本发明的实施形态的计算机三维动画系统的构成的方框图
图2骨架结构的说明图
图3主画面动画的说明图
图4基于结构的表情动作的说明图
图5图2的分层结构的说明图
图6本发明的属性组的说明图
图7(a)本发明的身体动作模式数据的说明图
(b)本发明的表情模式数据的说明图
(c)本发明的棒的作模式数据的说明图
具体实施方式
下面参照附图说明本发明的第1实施形态的计算机三维动画系统。
本发明的计算机三维动画系统为将三维CG人物分割成几个属性组(part),通过控制各个属性组的动作来控制CG人物整体动作的装置。
图1表示了本发明的第1实施形态的计算机三维动画系统的构成,由用于输入事件信息并根据该事件信息进行动画的控制的、将各种数据通知给动画算法模块3的动画控制模块1;管理处理属性组的属性组处理模块2;从形状数据处理模块5等获取数据、进行人物的形状数据的变换的动画算法模块3;将规定CG人物的骨架结构的分层结构数据作为地址管理保存的分层结构处理模块4;用地址管理保存CG人物或属性组的形状数据的从形状数据处理模块5;用地址或动作标识符(以下简称动作ID)管理保存用于进行CG人物或属性组的动画的动作数据的动作数据处理模块6;进行图像生成处理、进行CG动画的绘图的三维图形绘制模块7;用地址或ID管理保存CG绘图所必需的结构数据的结构数据处理模块8;将图形生成图像的渲染模块9;显示CG动画的显示模块10构成。
下面详细说明如上所述构成的本发明的实施形态中的计算机三维动画系统。
首先从保存数据开始说明。
分层结构处理模块4用地址管理保存着指定需要进行CG人物动画的CG人物(在以下的说明中有时省略CG而单称为人物)的骨架结构的分层结构数据。在例如人的骨架结构时,虽然有图2所示的骨架结构,但它们可以指定为具有图4所示那样的联结结构的分层结构数据。在CG领域中有时也将该分层结构数据称为现场图表。并且,在如图2所示的那样手上握有棒等物体时,具有图2所示那样的骨架结构的人物,必需规定将棒作为骨架结构的一部分。
虽然与图2相对应的分层结构数据表示在图5中,但由于除棒以外的结构与图2所示的骨架结构完全相同,因此棒可以规定作为图2所示的骨架结构的属性组。
在这样有追加的属性组时,可以将成为属性组(棒)的分层结构数据的路径的根源的分层结构中的连接处(在图2的棒的情况下为右手)作为指定的属性组的分层结构数据来指定。因此,这里保存的分层结构数据有以下3种:(1)作为根源的分层结构数据,(2)属性组的分层结构数据,(3)由规定了隶属关系的数据、作为根源的分层结构数据的地址和属性组的分层结构数据的地址构成的分层结构数据。
并且,分层结构处理模块4保存表示这些分层结构数据的种类的标识符和分层结构数据。因此,不必分别拥有图4和图5所示的分层结构数据。在访问分层结构数据时,首先根据标识符判别种类,如果类型为上述(1)或(2)则直接获取分层结构数据,如果类型为上述(3)则获取隶属关系和表示实体所在的地址,然后获取实体的分层结构数据,根据隶属关系的描述构筑整体的分层结构数据。
从形状数据处理模块5用地址管理保存CG人物和属性组的形状数据。CG人物的形状数据为与上述骨架结构相对应,对于人来说相当于皮肤或衣服这样的数据,由头部、上肢、躯干、下肢等形状部分构成,它们与上述分层结构数据相对应被分层。
并且,形状数据包括对应的分层结构数据的分层结构处理模块4中的地址和识别各形状部分与分层结构数据中的哪个相对应的标识符。属性组的形状数据时也一样。
各形状部分通常称为表面(surface)模型,用近似的多边形面的集合体表示物体表面,由三维空间内的顶点坐标、该顶点上的法线矢量成分(在光源辉度计算时必需)、结构坐标(在进行结构变换时必需)的标志化了的点的阵列数据和表示与其相关的方向的相位数据(例如,顶点标志依次写着1、2、3时表示以点1、2、3为顶点的三角形)构成,而且包含各面的反射率(扩散反射率、镜面反射率)或环境光强度、物体的颜色等属性数据。
并且,在CG人物用结构变换身上穿着的衣服或脸等来表示时,CG人物的形状数据的该属性组中明确表示了使用的结构(texture)在结构数据处理模块8中的地址。
动作数据处理模块6用地址或动作ID管理保存用于进行CG人物或属性组的动画的动作数据。虽然在本实施形态中,以CG人物为例说明具有分层结构的物体的动作数据,但对于其他的具有分层结构时的物体也同样能够实施。
在CG人物的情况下,动作可以分为身体动作和面部表情动作,因此,在本实施形态中,动作数据有身体动作数据和面部表情动作数据2种。
为了能在通常的CG人物动画中进行,该身体动作数据用分层结构数据的路径上的位置数据和方向数据表示身体整体在三维空间中各时刻的位置和姿势。路径的位置数据可以直接作为位置数据表示,但一般用初始时刻的位置矢量和表示在各时刻的移动量的移动矢量来表示。而对于方向,用路径所定义的局部坐标系的旋转变换来指定,具体地,它们用围绕三维空间内的3个坐标轴的旋转角度,或者用表示旋转的中心轴的矢量成分和围绕该矢量旋转的角度来表示。该路径的动作数据用图4或图3所示的分层结构数据的动作部位标识符m0来识别。
并且,身体各部分(上下肢、躯干等)的动作用围绕骨架结构中各关节定义的局部坐标系的坐标轴旋转的角度的时间系列数据表示。由于骨架结构的关节相当于分层结构数据的连接部,因此各连接部被付与图4所示的动作部位的标识符(动作ID)m0、m1、m2、……m27。因此,在以前的动画技术中,这些m0、m1、……m27的多变量时间系列数据的集合就成为身体动作数据。在以上的m0、m1、……m_27的这些路径或关节部的局部坐标系上的变换系中,变换CG人物的形状数据,生成各时刻的CG人物所处的位置和方向、CG人物的身体的姿态,进行三维绘画处理,通过一定时间连续地进行这些处理,能够实现CG动画。
而在如图3所示的使用主画面动画技术时,并未拥有所有画面的身体动作数据,而是用随时间跳跃的时间系列数据(内、f5、110……),它们之间的时刻(f1~f4、f6~f9……)的动作数据用插值计算进行,因此随时间跳跃的上述平行移动量和角度的时间系列数据成为身体动作数据。
如观察实际的人能够判断的那样,面部表情可以分解成眼、脸颊和嘴等的动作。在例如图4的骨架结构中,表情动作可以分解为眨眼动作、脸颊动作、嘴唇动作和眉的动作。它们为依脸型而决定的动作。
虽然表情的生成方法用通常进行的面部动画技术j但也有例如将脸的形状改变的方法或重新粘贴脸的结构的方法。
在这种将脸的形状改变的方法中,脸的形状数据中的与生成表情的眉、眼和嘴等的端点相对应的顶点坐标的移动量的时间系列数据为表情动作数据。这些移动量可以根据脸的肌肉模式用模拟计算计算出来。当进行变换的顶点横跨多个变换系时,也可以使用所谓包络方法,该方法将与各变换相对应的加权付与顶点,在各变换系中算出临时变换了的多个顶点,将它们变换成考虑了加权的平均的坐标。
图4为重新粘贴脸部结构生成表情时的说明图。在重新粘贴结构生成表情时,将多个笑的表情或哭的表情的结构以及其中间阶段的结构编档保存,在内部进行ID管理。在利用这样的结构时,用ID从归档保存的结构中选择各时刻生成表情所必需的数据,在脸部进行结构变换生成表情。因此,身体动作数据时的时间系列参数(画面番号或时间)与管理用的ID相对应。这些归档保存的结构数据就是用于生成表情的表情动作数据。
并且,对于上述改变脸部形状进行的方法或重新粘贴脸部结构的方法中的任何一种方法,都与骨架结构相对应具有动作数据,因此与身体动作时一样,用动作标识符识别。例如,在图4中,标识符m28、……m34的标识符为表情动作标识符。
并且,虽然在本实施形态中说明的是用上述归档保存的结构变换生成面部表情的情况,但在用改变形状或包络方法进行面部动画时,也可以通过使用与身体动作相同的方法相对应。
并且,虽然在本实施形态中使分层结构数据与上述形状数据和动作数据分开、彼此独立,但通过适当处理形状数据的描述方法或动作数据的描述方法,也可以使其包含在形状数据或动作数据中。即,由于形状数据是由属性组构成的,因此可以将其属性组的标识符和利用了该标识符、表示隶属关系的标识符插入到数据中,或对于动作数据也一样,可以将动作标识符和利用了该标识符、表示隶属关系的标识符插入。例如,当形状属性组的标识符1、标识符2存在隶属关系时,可以将根源的标识符1记入到标识符2的属性组数据的标题部或属性描述部。
在属性组处理模块2中,用属性组番号或地址管理保存着属性组。如图6所示,该属性组为将属性组ID和动作ID组作为数据保存的表。由于本发明中的属性组ID是与上述分层结构的联结结构独立定义的,因此对于一个属性组ID指定了多个动作ID的集合(动作ID组)。
例如,图6的属性组0相对于图4所示的CG人物的分层结构指定了从属性组0到属性组4。并且,属性组0包括路径(m0)和脊椎根部(m1),属性组1包括左大腿(m2)、右踝节(m7)等,属性组2包括左脖颈关节(m8)、上颈椎(m27)等,属性组3包括脸的嘴唇(m28)和左右脸颊(m29、m30),属性组4包括左右眼(m31、m32)和左右眉(m33、m34)。
并且,在图6所示的属性组1中,相对于图5的分层结构指定了属性组0到属性组5,属性组0包括路径(m0)和脊椎根部(m1),属性组1包括上下颈椎(m26、m27),属性组2包括身体左侧部分的左大腿(m2)、左脖颈关节(m8)等,属性组3包括身体右侧部分的右大腿(m5)、右脖颈关节(m17)等,属性组4包括脸部的嘴唇(m28)和左右脸颊(m29、m30),属性组5包括左右眼(m31、m32)和左右眉(m33、m34)。
并且,在图6所示的属性组2中,相对于图5的分层结构指定了属性组0到属性组5,属性组0包括路径(m0)和脊椎根部(m1),属性组1包括左大腿(m2)、右踝节(m7)等,属性组2包括左脖颈关节(m8)、上颈椎(m27)等,属性组3包括嘴唇(m28)和左右脸颊(m29、m30),属性组4包括左右眼(m31、m32)和左右眉(m33、m34),属性组5包括棒(m35)。
并且,在图2及图5中,图6的属性组2中的CG人物属性组的每个分区用虚线表示。属性组0包括路径(m0)和脊椎根部(m1),属性组1包括左大腿(m2)、左膝(m3)、左踝节(m4)、右大腿(m5)、右膝(m6)和右踝节(m7),属性组2包括左脖颈关节(m8)、左肩(m9)、左肘(m10)、左手腕(m11)、左手手指(m12~m16)、右脖颈关节(m17)、右肩(m18)、右肘(m19)、右手腕(m20)、右手手指(m21~m25)、下颈椎(m26)及上颈椎(m27);属性组3包括嘴唇(m28)及左右脸颊(m29、m30);属性组4包括左右眼(m31、m32)及左右眉(m33、m34);属性组5包括棒(m35)。
这样,本发明的计算机三维动画系统通过将构成CG人物的多个部位中的2个以上的集合分割成属性组,分别对这些属性组付与动作数据等控制CG人物整体的动作。因此,不必像以前的主画面动画控制那样为了表达CG动画的一个动作而给所有的部位付与数据,而是通过以各属性组独立的形式将数据付与动画算法模块3,可以计算出表示CG人物的形状随时间而改变的形状数据。
例如,在表达“笑着走”这样的CG人物时,以前的三维动画系统必须将“笑着走”这样的数据同时付与构成CG人物的所有的部位,而在本发明中,通过使CG人物为包含多个部位的属性组的集合,可以将“笑”动作数据和“走”动作数据分别付与各属性组,可以改变每个属性组的形状。因此,不必给所有的部位付与新数据,能够极力排除数据的冗余,能够用少的适当的数据量实现多样的CG人物动画。
而且,在CG动画中,虽然可以通过给构成人物的所有部位付与数据来表达多样的动作,但在本发明的三维动画系统中,不是简单地给CG人物的所有部位付与数据使动作复杂化,而是通过给每个作为构成部位的集合的属性组付与数据来表达具有CG人物整体意义的动作。
这样如果使用属性组,可以从每个属性组ID不同的动作数据中选择动作数据。并且,在只有一个属性组ID时,就成为与以前的主画面动画控制等价的情况。并且,属性组ID数的最大值与动作ID数相等。
结构数据处理模块8用地址或ID管理保存CG绘画所必须的结构数据。保存的结构数据有归档保存的用于生成上述表情动作的结构数据、形状数据附带的用于衣服、作为背景等使用的数据。通常,在三原色或亮度色差信号等形式的彩色图像时以压缩或者非压缩的状态保存。但在被压缩保存时,在进行结构变换之前需进行解压。
接下来对本实施形态中的动画图像的生成方法进行说明。
动画控制模块1预先通知或者保持用于生成CG动画图像的CG人物的形状数据的地址、附属属性组的形状数据的地址、CG人物和附属属性组的分层结构数据的地址、使用的属性组的地址、后述身体动作模式数据及表情模式数据。在CG人物为多个时,上述模式数据被保持在每个人物中。但是,即使在多个CG人物的情况下,如果变换同时开始,共同的属性组只要各有一种身体动动作和表情动作模式数据就可以。
并且,虽然属性组固定也可以,但本实施形态还对变换到例如事件信息(键盘输入的信息或声音分解的结果、与其他的形状接触或冲突等,内容依系统而定,本实施形态与其内容无关)不同的属性组的情况进行说明。但是,该属性组的变换是预先以提纲的形式保持着的。例如,输入事件P的信息后,参照提纲决定对该事件P的处理,在决定的内容为属性组的变换时开始属性组的变换。并且,该提纲(scenario)中还包含后述身体动作的变换(身体动作模式数据)、表情动作变换(表情模式数据)、与附属属性组的动作变换(附属属性组的模式数据)相关的决定信息。
身体动作模式数据为如图7(a)所示的有限状态的图表,为由能够从某个动作开始转换的动作关系和实体动作信息(动作ID、数据类型、各实体动作的地址和帧数、各变换的转换概率)组成的数据。例如从图7(a)可以判定,能够从表示基本状态的基本动作数据向动作A、动作B、动作C、动作D、动作E转换。在CG人物处于标准状态、预先规定的某个事件发生或者一个动作完了时,通过基于实体动作信息中描述的转换概率(也称变换概率)选择处理(随机处理),从动作A、动作B、动作C、动作D、动作E中选择动作,根据地址获取该动作实体。并且,该变换在属性组中的与身体动作有关的每个属性组ID中进行。
表情模式数据为这些表情动作的变换图形数据,与身体动作数据的变换图表数据一样,为能够从一定的表情动作数据向别的表情动作数据转换的有限状态的图表和实体表情信息(表情ID、数据种类、各实体表情动作数据的地址和帧数、各变换的转换概率)。例如图7(b)所示,在该示例中表情0为基本表情,可以向其他的表情1、表情2、表情3转换,转换前的选择根据实体表情信息的转换概率进行。并且,由于能够根据实体表情信息的数据种类指定是能够用于表情动作还是能够用于结构形状的形状,因此即使上述形状改变时的表情动作也能使用。例如,将数据种类的第1位用于是表情还是结构的分类,第2为以上的数字作为形状用的识别番号。由此,能够与根据数据种类、用结构生成的表情动作和用形状改变生成的表情中的任何一个相对应。
在表情动作中,特别是在进行嘴唇动作(嘴唇、脸颊动作等,本实施形态相当于属性组0所示的属性组3的动作ID组m28、m29、m30)、进行与声音同步的动作(对口形)时,不是用上述的表情模式数据,而是用下面这样的别的控制方法实现。并且,作为事件信息,为输入的对声音数据的分解结果,而作为声音分解结果,下面对获得声音强度分解结果和音素分解结果(虽然以母音分解为例进行说明,但在进行子音分解时也同样能够实施)的情况进行说明。
首先,作为嘴唇动作数据和脸颊动作数据,预先准备好与相对应的结构数据,并且,对准备好从其音量小到音量大的数据。由于从当时的事件信息判断了母音和音的强度,因此从与其母音相对应的结构中指定与音的强度相对应的音量的结构,通过选择该结构作为嘴唇动作数据、脸颊动作数据,能够对上口形。
并且,在用改变形状进行对口形时,同样只要选择与母音分解结果和声音强度分解结果相对应的形状改变量就可以。此时,事件信息输入后,至少会产生1帧的延迟,但例如在绘画为30帧/秒的帧频时,只有30毫秒左右的延迟,对于人的视觉能力这种程度的延迟没有问题。
本实施形态由于使用了作为CG人物的附属属性组的棒,因此以同时保持了表达棒的动作变换的棒动作模式数据为例进行说明,但在其他的附属属性组的情况下同样可以实施,并且附属属性组为多个时也同样能够实施。例如,图7(c)为进行棒(附属属性组)的动作控制的变换图表,与身体动作的变换图表一样指定从棒的基本状态向棒动作0、1、2的变换。
下面虽然说明的是根据随机变动进行的动作变换,但也可以是上述那样的固定地进行对口形或者选择处理的情况。在固定地进行选择处理时,最好是预先准备好变换的提纲,根据该提纲进行动作选择。
因此,本发明的三维动画系统通过规定多个包括构成CG人物的部位的属性组,将对应的动作数据付与各属性组,不仅能像上面所述的那样用少的数据量控制CG人物整体的动作,而且使CG人物整体能够表达复杂的动作,能够有效地防止三维动画系统的使用者由于CG人物表达的动作形态少而在短时间内厌烦等问题。
Claims (8)
1.一种显示物体图形、图像的计算机三维动画系统,其特征在于,包括:处理分层结构模块的分层结构处理模块,该分层结构数据为表示构成所述物体的多个部位的分层结构的数据;处理属性组的属性组处理模块,该属性组表示将所述多个动画属性的集合作为一个属性组、在对应的多个属性组中该属性组与所述部位的对应关系;动作数据处理模块,处理使动作分别与登记在所述属性组中的多个属性组相对应的动作数据;动画控制模块,进行所述动作数据、所述属性组及所述分层结构数据的指定;动画算法模块,根据遵从所述动画控制模块的输入的所述动作数据、所述属性组及所述分层结构数据,计算出表示所述物体的形状随时间的变化的形状数据。
2.如权利要求1所述的计算机三维动画系统,其特征在于,所述属性组处理模块还保存包括将所述人物以外的附属属性组作为属性组、在相应的属性组中该属性组与所述附属属性组的对应关系的属性组。
3.如权利要求1所述的计算机三维动画系统,其特征在于,所述动画控制模块根据输入的预先指定的提纲的动作信息、或者根据事件产生时指定的事件的动作信息,进行所述动作数据、所述属性组及所述分层结构数据的指定。
4.如权利要求1所述的计算机三维动画系统,其特征在于,所述动作数据处理模块具有使多个动作分别与所述属性组相对应的所述动作数据,并将该动作数据中的1个作为基本状态的动作数据;所述动画控制模块在进行所述属性组之间的变换时,通过强制地使每个属性组变换到所述基本状态的动作数据,取得所有的属性组的同步,然后进行向其他的属性组的变换。
5.如权利要求1所述的计算机三维动画系统,其特征在于,所述动画控制模块进行由所述属性组、识别所述动作数据的所在的标识符、和表示所述动作数据的时间系列参数的帧编号构成的状态信息的指定:所述动画算法模块根据遵从所述动画控制模块的输入的所述动作数据、所述属性组及所述分层结构数据,算出表示所述人物的形状随时间的变化的形状数据。
6.一种显示人物图像的计算机动画方法,其特征在于,包括:处理分层结构模块的分层结构保存步骤,该分层结构数据为表示构成所述人物的多个部位的分层结构的数据;处理属性组的属性组处理步骤,该属性组表示将所述多个部位的集合作为一个属性组、在对应的多个属性组中该属性组与所述部位的对应关系;动作数据保存步骤,保存使动作分别与登记在所述属性组中的多个属性组相对应的动作数据;动画控制步骤,进行所述动作数据、所述属性组及所述分层结构数据的指定;人物状态计算步骤,根据遵从所述动画控制步骤的输入的所述动作数据、所述属性组及所述分层结构数据,计算出表示所述人物的形状随时间的变化的形状数据。
7.一种能够计算机读取记录了显示人物图像的计算机三维动画系统的数据的数据记录媒体,其特征在于,所述数据包括:分层结构数据,其为表示构成所述人物的多个部位的分层结构的数据;处理属性组的属性组,该属性组表示将所述多个部位的集合作为一个属性组、在对应的多个属性组中该属性组与所述部位的对应关系;动作数据,保存使动作分别与登记在所述属性组中的多个属性组相对应的动作数据。
8.一种使计算机具有包括显示人物图像的计算机三维动画系统的装置的功能的程序,其特征在于,包括:处理分层结构模块昀分层结构保存步骤,该分层结构数据为表示构成所述人物的多个部位的分层结构的数据;处理属性组的属性组保存步骤,该属性组表示将所述多个部位的集合作为一个属性组、在对应的多个属性组中该属性组与所述部位的对应关系;动作数据保存步骤,保存使动作分别与登记在所述属性组中的多个属性组相对应的动作数据;动画控制步骤,进行所述动作数据、所述属性组及所述分层结构数据的指定;人物状态计算步骤,根据遵从所述动画控制步骤的输入的所述动作数、所述属性组及所述分层结构数据,计算出表示所述人物的形状随时间的变化的形状数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110278278 CN102999934A (zh) | 2011-09-19 | 2011-09-19 | 计算机三维动画系统及动画方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110278278 CN102999934A (zh) | 2011-09-19 | 2011-09-19 | 计算机三维动画系统及动画方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102999934A true CN102999934A (zh) | 2013-03-27 |
Family
ID=47928463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110278278 Pending CN102999934A (zh) | 2011-09-19 | 2011-09-19 | 计算机三维动画系统及动画方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102999934A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104700443A (zh) * | 2015-03-26 | 2015-06-10 | 金陵科技学院 | 一种优化模糊输入状态的三维动画制作系统及方法 |
CN108874114A (zh) * | 2017-05-08 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质 |
CN109598776A (zh) * | 2017-09-30 | 2019-04-09 | 腾讯科技(深圳)有限公司 | 一种动画实现方法、装置、终端和存储介质 |
CN110490093A (zh) * | 2017-05-16 | 2019-11-22 | 苹果公司 | 表情符号录制和发送 |
CN111563943A (zh) * | 2017-05-16 | 2020-08-21 | 苹果公司 | 表情符号录制和发送 |
US10846905B2 (en) | 2017-05-16 | 2020-11-24 | Apple Inc. | Emoji recording and sending |
US10861248B2 (en) | 2018-05-07 | 2020-12-08 | Apple Inc. | Avatar creation user interface |
CN112132932A (zh) * | 2020-09-02 | 2020-12-25 | 苏州好玩友网络科技有限公司 | 序列图自动生成方法及装置 |
US11107261B2 (en) | 2019-01-18 | 2021-08-31 | Apple Inc. | Virtual avatar animation based on facial feature movement |
US11733769B2 (en) | 2020-06-08 | 2023-08-22 | Apple Inc. | Presenting avatars in three-dimensional environments |
US12033296B2 (en) | 2023-04-24 | 2024-07-09 | Apple Inc. | Avatar creation user interface |
-
2011
- 2011-09-19 CN CN 201110278278 patent/CN102999934A/zh active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104700443A (zh) * | 2015-03-26 | 2015-06-10 | 金陵科技学院 | 一种优化模糊输入状态的三维动画制作系统及方法 |
CN108874114A (zh) * | 2017-05-08 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质 |
US10997768B2 (en) | 2017-05-16 | 2021-05-04 | Apple Inc. | Emoji recording and sending |
CN110490093A (zh) * | 2017-05-16 | 2019-11-22 | 苹果公司 | 表情符号录制和发送 |
CN111563943A (zh) * | 2017-05-16 | 2020-08-21 | 苹果公司 | 表情符号录制和发送 |
CN110490093B (zh) * | 2017-05-16 | 2020-10-16 | 苹果公司 | 表情符号录制和发送 |
US10846905B2 (en) | 2017-05-16 | 2020-11-24 | Apple Inc. | Emoji recording and sending |
US10845968B2 (en) | 2017-05-16 | 2020-11-24 | Apple Inc. | Emoji recording and sending |
US11532112B2 (en) | 2017-05-16 | 2022-12-20 | Apple Inc. | Emoji recording and sending |
CN109598776A (zh) * | 2017-09-30 | 2019-04-09 | 腾讯科技(深圳)有限公司 | 一种动画实现方法、装置、终端和存储介质 |
US10861248B2 (en) | 2018-05-07 | 2020-12-08 | Apple Inc. | Avatar creation user interface |
US11380077B2 (en) | 2018-05-07 | 2022-07-05 | Apple Inc. | Avatar creation user interface |
US11682182B2 (en) | 2018-05-07 | 2023-06-20 | Apple Inc. | Avatar creation user interface |
US11107261B2 (en) | 2019-01-18 | 2021-08-31 | Apple Inc. | Virtual avatar animation based on facial feature movement |
US11733769B2 (en) | 2020-06-08 | 2023-08-22 | Apple Inc. | Presenting avatars in three-dimensional environments |
CN112132932B (zh) * | 2020-09-02 | 2021-04-27 | 苏州好玩友网络科技有限公司 | 序列图自动生成方法及装置 |
CN112132932A (zh) * | 2020-09-02 | 2020-12-25 | 苏州好玩友网络科技有限公司 | 序列图自动生成方法及装置 |
US12033296B2 (en) | 2023-04-24 | 2024-07-09 | Apple Inc. | Avatar creation user interface |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1326094C (zh) | 计算机图形动画装置及计算机图形动画方法 | |
CN102999934A (zh) | 计算机三维动画系统及动画方法 | |
US11868515B2 (en) | Generating textured polygon strip hair from strand-based hair for a virtual character | |
JP7342008B2 (ja) | 仮想アバタのためのメッシュの合致 | |
US11557076B2 (en) | Computer generated hair groom transfer tool | |
JP2023165936A (ja) | 仮想アバタをアニメーション化するための骨格システム | |
US6545682B1 (en) | Method and apparatus for creating and customizing avatars using genetic paradigm | |
KR20210002888A (ko) | 2차원 이미지로부터 3차원 아바타를 생성하는 방법, 장치 및 시스템 | |
CN110634175A (zh) | 神经行为动画系统 | |
Bui | Creating emotions and facial expressions for embodied agents | |
Ashida et al. | Pedestrians: Creating agent behaviors through statistical analysis of observation data | |
JP2003337956A (ja) | コンピュータグラフィックス・アニメーション装置及びコンピュータグラフィックス・アニメーション方法 | |
Huang et al. | NURBS curve controlled modelling for facial animation | |
CN114432703A (zh) | 基于嵌套骨骼分离运动的角色模型自定义方法 | |
CN108198234B (zh) | 可实时互动的虚拟角色生成系统及方法 | |
CN110163957A (zh) | 一种基于唯美人脸程序的表情生成系统 | |
KR100366210B1 (ko) | 인간의 얼굴 모델을 생성하는 모델러 제작방법 및 기록매체 | |
Santos | Virtual Avatars: creating expressive embodied characters for virtual reality | |
JP2003196678A (ja) | 3次元モデルシステムおよびコンピュータプログラム | |
Maddock | An investigation of the modelling-animation relationship in computer graphics | |
Liang et al. | Innovative Algorithm of Immersive Artistic Experience Integrating CAD and Virtual Reality | |
Ashikhmin | Computer Animation | |
Nedel | Simulating virtual humans | |
Küderle | Muscle-Based Facial Animation | |
CN117994395A (zh) | 数字人面部资产生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130327 |