CN101540057B - 虚拟动物驱动方法和装置 - Google Patents

虚拟动物驱动方法和装置 Download PDF

Info

Publication number
CN101540057B
CN101540057B CN2009100829470A CN200910082947A CN101540057B CN 101540057 B CN101540057 B CN 101540057B CN 2009100829470 A CN2009100829470 A CN 2009100829470A CN 200910082947 A CN200910082947 A CN 200910082947A CN 101540057 B CN101540057 B CN 101540057B
Authority
CN
China
Prior art keywords
virtual
model
animal
upper limb
virtual human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2009100829470A
Other languages
English (en)
Other versions
CN101540057A (zh
Inventor
夏时洪
杨潇
魏毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XINJIANG MEITE INTELLIGENT SECURITY ENGINEERING Co Ltd
Original Assignee
Institute of Computing Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Computing Technology of CAS filed Critical Institute of Computing Technology of CAS
Priority to CN2009100829470A priority Critical patent/CN101540057B/zh
Publication of CN101540057A publication Critical patent/CN101540057A/zh
Application granted granted Critical
Publication of CN101540057B publication Critical patent/CN101540057B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明提供一种虚拟动物驱动方法,包括:选择动物运动样本数据;对虚拟动物模型做分层,确定虚拟动物模型的每一层所对应的控制参数;将所得到的动物运动样本数据代入虚拟动物模型的各个层,计算出虚拟动物模型中每一层的控制参数与该层虚拟动物模型的姿态间的映射关系;用户在驱动过程中,设定所述控制参数的具体取值,根据映射关系计算各层虚拟动物模型的姿态;将各层虚拟动物模型的姿态组合成虚拟动物的完整运动姿态。本发明增加了虚拟动物动作的多样性。

Description

虚拟动物驱动方法和装置
技术领域
本发明涉及计算机动画生成领域,特别涉及一种虚拟动物驱动方法和装置。
背景技术
虚拟角色动画是计算机图形学领域的一个热点问题,它广泛应用于动画制作、电影特技和游戏等领域,具有广阔的应用前景。目前在动画、电影、游戏等的虚拟角色生成过程中广泛采用了运动捕获技术,以直接将表演者的动作重定向到虚拟角色上,从而提高虚拟角色的真实性,生成高质量的虚拟角色运动。如在电影《金刚》中就大量使用了运动捕获技术。但采用运动捕获技术驱动虚拟角色运动的过程具有复杂且不直观的缺点。例如,在游戏制作时,通常可以采用运动捕获技术来获得人体做某些姿态时的关节角度,用这些关节角度来驱动虚拟角色,生成具有高真实性的虚拟角色运动。但由于人体的关节比较多,使得运动捕获所得到的关节角度构成的向量维度比较高,使得驱动虚拟角色运动的过程复杂。此外,运动捕获技术中所采用的运动捕获设备较为昂贵且操作复杂,使得已有的运动捕获技术不适合在家庭娱乐等应用中采用。
为了克服这一问题,当前在动画类游戏中采用了运动图方法。在该方法中,首先通过运动捕获设备获得一系列运动片段,然后将这些运动片段做切分重组,构成运动图,最后遍历所得到的运动图以产生一些新的运动片段。在游戏过程中,玩家的按键、鼠标等操作可被直接映射为由运动图产生的相应运动片段,从而实现虚拟角色的运动。但该方法的一个明显的缺点是不能修改运动图中已有的姿态,所以使得游戏中虚拟角色的游戏动作严重依赖运动图中的已有姿态。一旦运动图中已有姿态数量有限,则所生成的游戏动作就会缺乏多样性,给人以不同游戏动作具有雷同、近似的感觉。此外,运动图方法还会造成玩家无法对虚拟角色的运动做较为精细的控制。
发明内容
本发明的一个目的是克服现有的驱动虚拟角色运动的方法只能从现有的运动片段中生成姿态,虚拟角色的运动动作缺乏多样性的缺点,从而提供一种利用少量运动样本生成多种运动动作的虚拟动物驱动方法。
本发明的另一个目的是提供一种利用少量运动样本生成多种运动动作的虚拟动物驱动装置。
为了实现上述目的,本发明提供了一种虚拟动物驱动方法,包括:
步骤1)、选择动物运动样本数据;
步骤2)、对虚拟动物模型做分层,确定虚拟动物模型的每一层所对应的控制参数;
步骤3)、将步骤1)所得到的动物运动样本数据代入虚拟动物模型的各个层,计算出虚拟动物模型中每一层的控制参数与该层虚拟动物模型的姿态间的映射关系;
步骤4)、设定所述控制参数的具体取值,根据步骤3)得到的映射关系计算相应层虚拟动物模型的姿态。
上述技术方案中,还包括:
步骤5)、将各层虚拟动物模型的姿态组合成虚拟动物的完整运动姿态。
上述技术方案中,所述的虚拟动物为虚拟人,在所述的步骤2)中,将虚拟人模型分为三层,包括左部、右部和腿部;其中,所述的左部包括虚拟人模型的躯干和左上肢部分,所述的右部包括虚拟人模型的躯干和右上肢部分,所述的腿部包括虚拟人模型的两下肢;所述虚拟人模型的躯干为所述左部和所述右部的公共部分;
所述左部的控制参数包括虚拟人模型的左上肢末端位置;所述右部的控制参数包括虚拟人模型的右上肢末端位置;所述腿部的控制参数包括虚拟人模型的左上肢末端位置和右上肢末端位置。
上述技术方案中,所述的虚拟动物为虚拟人,在所述的步骤2)中,将虚拟人模型分为四层,包括左部、右部、左腿和右腿;其中,所述的左部包括虚拟人模型的躯干和左上肢部分,所述的右部包括虚拟人模型的躯干和右上肢部分;所述虚拟人模型的躯干为所述左部和所述右部的公共部分;
所述左部的控制参数包括虚拟人模型的左上肢末端位置;所述右部的控制参数包括虚拟人模型的右上肢末端位置;所述左腿的控制参数包括虚拟人模型的左下肢末端位置;所述右腿的控制参数包括虚拟人模型的右下肢末端位置。
上述技术方案中,所述的步骤3)包括:
步骤3-1)、根据所述人体运动样本数据中的姿态,通过前向运动学计算作为控制参数的肢体末端位置的值;
步骤3-2)、利用机器学习的方法分别计算一层的控制参数与该层虚拟人模型姿态间的映射关系;
步骤3-3)、为所述左部与所述右部的公共部分计算所述左部或所述右部对所述公共部分的最终姿态的权重系数。
上述技术方案中,所述权重系数采用最小二乘法估计得到。
上述技术方案中,所述的步骤4)包括:
步骤4-1)、用户设定作为控制参数的肢体末端位置的值;
步骤4-2)、利用步骤4-1)得到的肢体末端位置计算虚拟人各个分层的姿态;
步骤4-3)、利用所述公共部分在左部和右部的姿态以及所述的权重系数,计算所述公共部分的最终姿态。
上述技术方案中,在所述的步骤1)中,在选择人体运动样本数据时,根据待驱动的虚拟人运动类型特点来选择相应的人体运动样本数据。
上述技术方案中,在所述的步骤1)中,所述的人体运动样本数据采用关节角度的形式表示或采用虚拟人的各个顶点的三维位置的形式表示。
本发明还提供了一种虚拟动物驱动装置,包括运动样本数据选择单元、虚拟动物模型分层单元、映射模型生成单元、分层姿态生成单元;其中,
所述的运动样本数据选择单元用于选择动物运动样本数据;
所述的虚拟动物模型分层单元用于对虚拟动物模型做分层,确定虚拟动物模型的每一层所对应的控制参数;
所述的映射模型生成单元用于将动物运动样本数据代入虚拟动物模型的各个层,计算出虚拟动物模型中每一层的控制参数与该层虚拟动物模型的姿态间的映射关系;
所述的分层姿态生成单元用于由用户在驱动过程中设定所述控制参数的具体取值,根据所述的映射关系计算各层虚拟动物模型的姿态。
上述技术方案中,还包括姿态合成单元;所述的姿态合成单元将各层虚拟动物模型的姿态组合成虚拟动物的完整运动姿态。
本发明的优点在于:
1、本发明的方法增加了虚拟动物动作的多样性。
2、本发明的方法简化了虚拟角色的驱动过程。
附图说明
图1为本发明的虚拟动物驱动方法的实施例对虚拟人模型做分层的一种实现方式的示意图;
图2为本发明的虚拟动物驱动方法的实施例对虚拟人模型做分层的另一种实现方式的示意图;
图3为本发明的虚拟动物驱动方法的流程图。
具体实施方式
下面结合附图和具体实施方式对本发明加以说明。
本发明的虚拟动物驱动方法具有广泛的应用范围,下面以动画、电影、游戏中常见的虚拟人为例,对本发明的方法如何驱动虚拟人运动做详细的说明。
本发明的方法需要选择虚拟人的肢体末端位置作为控制参数,然后建立肢体末端位置与人体全身姿态间的映射模型。当用户通过鼠标、键盘或可以获取位置的传感器等输入工具确定人体肢体末端位置后,将肢体末端位置与前述的映射模型相结合,即可自动生成人体的全身姿态。当用户根据自己的需要改变虚拟人的上肢末端位置后,虚拟人的人体全身姿态会发生相应的改变,从而实现虚拟人的运动驱动。
从上述的说明可以看出,在本发明的方法中需要建立一个人体肢体末端位置与人体全身姿态间的映射模型。要建立所述的映射模型,首先需要选择一定数量的人体运动样本数据。
人体运动样本数据通常可通过前述的运动捕获设备获取。由于人体运动的类型多种多样,为了使得所建立的映射模型具有更好的效果,可以根据待驱动的虚拟人运动类型特点来选择对应的人体运动样本数据。例如,假设待驱动的虚拟人要做跑运动,则在选择人体运动样本数据时,可以重点选择带有跑运动的样本数据,类似的,如果待驱动的虚拟人要做下蹲运动,则在选择人体运动样本数据时,可以重点选择带有下蹲运动的样本数据。此外,鉴于本发明的方法需要建立人体肢体末端位置与人体全身姿态间的映射关系,因此在选择人体运动样本时,应当尽量使得样本中的虚拟人的肢体末端存在于空间中的各个位置。在本发明的一个实施例中,人体运动样本数据可用关节角度的形式表示,例如,用各个关节角度构成的向量所表示的一个运动姿态的形式为:p={q1,q2,…,qM},其中M为向量总的自由度数。在其他实施例中,也可以采用其它形式表示的人体运动样本数据,例如用虚拟人的各个顶点的三维位置来表示一个运动姿态,此时运动姿态的表达形式为p′={p1,p2,…,pM′},其中M’为向量总的自由度数。人体运动样本数据无论是用上述何种表示方式,在下文中的处理方法都相似,在本实施例中仅以关节角度表示方法为例做进一步说明。
在得到运动样本数据后,一般来说,就可以通过运动样本数据驱动虚拟人模型来呈现人体运动。但在本发明中,为了提高运动的重用性,对待驱动的虚拟人模型做分层,以在后续步骤中通过对各层的姿态做组合来生成更多的虚拟人姿态。在对虚拟人模型做分层时,考虑到运动过程中,人体各部分之间有一定的独立性,可根据运动中人体四肢运动情况的不同做不同类型的分层。
在一个实施例中,对于腿部运动不是很剧烈的运动,如打鼓、拍球等,可将一虚拟人模型按照图1所示分为以下三层:左部、右部、腿部。其中,左部包括人体躯干和左上肢部分,右部包括躯干和右上肢部分,而腿部则包括两下肢。更具体的,其中的躯干部分包括根关节(root,虚拟人模型中虚拟的一个关节,其他关节只有旋转,只有该关节既有平移又有旋转,平移表示出人的位置,通过其他关节的旋转表示出虚拟人的姿态)、腰、胸、颈、头;上肢包括肩、大臂、小臂、手;下肢包括大腿、小腿、脚。从上述定义可以看出,躯干部分属于左部和右部的公共部分。在将虚拟人模型做上述分层后可以看到,左上肢末端的位置直接与躯干和左上肢姿态相关,因此可以将左上肢末端的位置设为左部的控制参数,同样的,将右上肢末端的位置设为右部的控制参数。由于下肢姿态与上肢末端位置无明显关系,因此可以将左、右上肢末端的位置同时设为腿部的控制参数。即在这一实施例中,将虚拟人上肢的末端位置作为驱动过程中的控制参数。
在另一个实施例中,对于腿部运动相对剧烈的运动,如踢腿等,可将一虚拟人模型按照图2所示分为四层:左部、右部、左腿、右腿。其中,左部和右部的范围与前一实施例中左部和右部的范围相同,即左部包括人体躯干和左上肢部分,右部包括躯干和右上肢部分。而左腿和右腿即为人体的左腿和右腿。左部的控制参数为左上肢末端的位置,右部的控制参数为右上肢末端的位置,左腿的控制参数为左下肢末端的位置,右腿的控制参数为右下肢末端的位置。
在上述的两个实施例中给出了两种虚拟人模型分层方法,由于对这两种分层方法而言,后续的创建映射模型以及姿态合成的方法相类似,因此在下文中将以图1所示的分层方法为例对姿态合成方法进行说明。
在为虚拟人模型分层,并为各层分别设定控制参数后,就可以通过人体运动样本建立某一层的控制参数与该层的人体姿态间的映射关系,从而得到所述的映射模型。例如,为左上肢末端的位置建立与人体左部的姿态间的映射关系。由于在人体运动样本中的样本数据实际上已经反映了人体的姿态,因此,在建立某一层的控制参数与该层的人体姿态间的映射关系时,通常需要根据前向运动学由某一运动样本中的姿态计算所对应的上肢末端位置。例如,假设用pi表示第i个样本的姿态,则通过前向运动学就可以计算出左上肢末端在第i个样本中的位置ci,left,从而可以用机器学习等方法学习出左上肢末端与左部姿态的映射关系。类似的,将pi通过前向运动学可以求出右上肢末端在第i个样本中的位置ci,right,从而可以用机器学习等方法得出右上肢末端与右部姿态的映射关系。同时采用机器学习等方法还可以学习出两上肢末端位置到腿部姿态的映射关系。
特别的,对于如躯干之类的两层的公共部分,由于其姿态并非由一层的人体部分(如左部或右部)单独决定,而是由两层的公共部分的姿态加权得到。因此在建立映射模型的过程中,需要计算出各层对公共部分最终姿态的权重系数。对于公共部分的姿态的每一维分量(公共部分姿态由一向量表示),假设左部对公共部分的最终姿态的权重系数为l1,右部对公共部分的最终姿态的权重系数为l2,则这两个系数的值可通过最小二乘法来估计得到,相应的计算公式如下:
min Σ i = 1 N | | l 1 · p i , left k + l 2 · p i , right k - p i k | | 2
其中,k1+k2=1,N为总的样本数,pi,left k为左部通过第i个样本参数得到的躯干部分姿态的第k个分量,pi,right k为右部通过第i个样本参数得到的躯干部分姿态的第k个分量,pi k为运动样本的真实躯干姿态的第k个分量。
以上是对人体上肢末端位置与人体全身姿态间的映射模型的生成过程的说明。从上述的说明可以看出,在映射模型中,左上肢末端与人体左部的姿态间存在映射关系,右上肢末端与人体右部的姿态间存在映射关系,而左上肢末端和右上肢末端与人体腿部的姿态间都有映射关系。特别的,对于图2的分层方法,所生成的映射模型中还包括左脚位置与左腿姿态有映射关系,右脚位置与右腿姿态有映射关系。根据所得到的映射模型,可以实现虚拟人在运动时姿态的生成。
在实现虚拟人运动姿态的生成时,用户可以通过键盘、鼠标之类的输入工具为虚拟人设定左上肢末端和右上肢末端的位置。若用cl表示左上肢末端位置,用cr表示右上肢末端位置,c=(cl,cr),则利用前面得到的映射模型,将cl作为控制参数可计算出左部的姿态,cr作为控制参数可计算出右部的姿态,c作为控制参数可计算出腿部的姿态。而对于公共部分的躯干,其最终姿态可通过左部的躯干部分的姿态、右部的躯干部分的姿态以及权重系数l1、l2计算得到。由于在人体运动姿态的生成过程中,将相互独立的人体左部姿态、人体右部姿态以及人体腿部姿态组合起来,因此,可以生成人体运动样本中原本并不存在的姿态。例如,若在人体运动样本中原来存在左右手交替挥动的姿态,则通过本发明的方法可生成左右手同时挥动的姿态。特别的,对于图2中的分层方法,左腿的姿态以左脚的末端位置作为控制参数从映射模型中得到,右腿的姿态以右脚的末端位置作为控制参数从映射模型中得到,左部、右部以及公共部分的姿态生成与图1中的分层方法相同,最后将所有的姿态合成在一起即可得到虚拟人全身的姿态。
从对本发明方法的描述可以看出,本发明的方法对虚拟动物模型做了分层,为不同层的模型生成各自的姿态后,将各层姿态组合而成全身姿态,进而生成与运动样本不同的新动作,与现有技术中的驱动方法相比,增加了待驱动的虚拟动物动作的多样性。此外,本发明的方法将肢体末端位置作为驱动过程中的控制参数,这些控制参数的维度低、控制直观,与传统的关节角度驱动方法相比大大简化了虚拟角色的驱动过程,有利于使用普通的用户接口控制高自由度的虚拟角色运动。最后,本发明的方法在实现过程中主要采用线性算法,运算量小,适合实时驱动的需要。
本发明还提供了一种虚拟动物驱动装置,包括运动样本数据选择单元、虚拟动物模型分层单元、映射模型生成单元、分层姿态生成单元、姿态合成单元;其中,
所述的运动样本数据选择单元用于选择动物运动样本数据;
所述的虚拟动物模型分层单元用于对虚拟动物模型做分层,确定虚拟动物模型的每一层所对应的控制参数;
所述的映射模型生成单元用于将动物运动样本数据代入虚拟动物模型的各个层,计算出虚拟动物模型中每一层的控制参数与该层虚拟动物模型的姿态间的映射关系;
所述的分层姿态生成单元用于由用户在驱动过程中设定所述控制参数的具体取值,根据所述的映射关系计算各层虚拟动物模型的姿态;
所述的姿态合成单元将各层虚拟动物模型的姿态组合成虚拟动物的完整运动姿态。
在上述说明中,以虚拟人为例,对本发明的方法和装置如何驱动虚拟人运动做了相关的说明。但本领域的普通技术人员应当了解,本发明的方法并不局限虚拟人,对于猩猩、猴子等与人类具有相似拓扑结构的类人动物同样可以采用本发明的方法和装置实现驱动过程。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (9)

1.一种虚拟动物驱动方法,包括:
步骤1)、选择动物运动样本数据;
步骤2)、对虚拟动物模型做分层,确定虚拟动物模型的每一层所对应的控制参数;其中,所述虚拟动物为虚拟人;虚拟人模型分为三层,包括左部、右部和腿部;其中,所述的左部包括虚拟人模型的躯干和左上肢部分,所述的右部包括虚拟人模型的躯干和右上肢部分,所述的腿部包括虚拟人模型的两下肢;所述虚拟人模型的躯干为所述左部和所述右部的公共部分;所述左部的控制参数包括虚拟人模型的左上肢末端位置;所述右部的控制参数包括虚拟人模型的右上肢末端位置;所述腿部的控制参数包括虚拟人模型的左上肢末端位置和右上肢末端位置;
或者,所述虚拟人模型分为四层,包括左部、右部、左腿和右腿;其中,所述的左部包括虚拟人模型的躯干和左上肢部分,所述的右部包括虚拟人模型的躯干和右上肢部分;所述虚拟人模型的躯干为所述左部和所述右部的公共部分;所述左部的控制参数包括虚拟人模型的左上肢末端位置;所述右部的控制参数包括虚拟人模型的右上肢末端位置;所述左腿的控制参数包括虚拟人模型的左下肢末端位置;所述右腿的控制参数包括虚拟人模型的右下肢末端位置;
步骤3)、将步骤1)所得到的动物运动样本数据代入虚拟动物模型的各个层,计算出虚拟动物模型中每一层的控制参数与该层虚拟动物模型的姿态间的映射关系;
步骤4)、设定所述控制参数的具体取值,根据步骤3)得到的映射关系计算相应层虚拟动物模型的姿态。
2.根据权利要求1所述的虚拟动物驱动方法,其特征在于,还包括:
步骤5)、将各层虚拟动物模型的姿态组合成虚拟动物的完整运动姿态。
3.根据权利要求1或2所述的虚拟动物驱动方法,其特征在于,所述的步骤3)包括:
步骤3-1)、根据所述人体运动样本数据中的姿态,通过前向运动学计算作为控制参数的肢体末端位置的值;
步骤3-2)、利用机器学习的方法分别计算一层的控制参数与该层虚拟人模型姿态间的映射关系;
步骤3-3)、为所述左部与所述右部的公共部分计算所述左部或所述右部对所述公共部分的最终姿态的权重系数。
4.根据权利要求3所述的虚拟动物驱动方法,其特征在于,所述权重系数采用最小二乘法估计得到。
5.根据权利要求4所述的虚拟动物驱动方法,其特征在于,所述的步骤4)包括:
步骤4-1)、用户设定作为控制参数的肢体末端位置的值;
步骤4-2)、利用步骤4-1)得到的肢体末端位置计算虚拟人各个分层的姿态;
步骤4-3)、利用所述公共部分在左部和右部的姿态以及所述的权重系数,计算所述公共部分的最终姿态。
6.根据权利要求1或2所述的虚拟动物驱动方法,其特征在于,在所述的步骤1)中,在选择人体运动样本数据时,根据待驱动的虚拟人运动类型特点来选择相应的人体运动样本数据。
7.根据权利要求1或2所述的虚拟动物驱动方法,其特征在于,在所述的步骤1)中,所述的人体运动样本数据采用关节角度的形式表示或采用虚拟人的各个顶点的三维位置的形式表示。
8.一种虚拟动物驱动装置,其特征在于,包括运动样本数据选择单元、虚拟动物模型分层单元、映射模型生成单元、分层姿态生成单元;其中,
所述的运动样本数据选择单元用于选择动物运动样本数据;
所述的虚拟动物模型分层单元用于对虚拟动物模型做分层,确定虚拟动物模型的每一层所对应的控制参数;其中,所述虚拟动物为虚拟人,虚拟人模型分为三层,包括左部、右部和腿部;其中,所述的左部包括虚拟人模型的躯干和左上肢部分,所述的右部包括虚拟人模型的躯干和右上肢部分,所述的腿部包括虚拟人模型的两下肢;所述虚拟人模型的躯干为所述左部和所述右部的公共部分;所述左部的控制参数包括虚拟人模型的左上肢末端位置;所述右部的控制参数包括虚拟人模型的右上肢末端位置;所述腿部的控制参数包括虚拟人模型的左上肢末端位置和右上肢末端位置;
或者,所述虚拟人模型分为四层,包括左部、右部、左腿和右腿;其中,所述的左部包括虚拟人模型的躯干和左上肢部分,所述的右部包括虚拟人模型的躯干和右上肢部分;所述虚拟人模型的躯干为所述左部和所述右部的公共部分;所述左部的控制参数包括虚拟人模型的左上肢末端位置;所述右部的控制参数包括虚拟人模型的右上肢末端位置;所述左腿的控制参数包括虚拟人模型的左下肢末端位置;所述右腿的控制参数包括虚拟人模型的右下肢末端位置;
所述的映射模型生成单元用于将动物运动样本数据代入虚拟动物模型的各个层,计算出虚拟动物模型中每一层的控制参数与该层虚拟动物模型的姿态间的映射关系;
所述的分层姿态生成单元用于由用户在驱动过程中设定所述控制参数的具体取值,根据所述的映射关系计算各层虚拟动物模型的姿态。
9.根据权利要求8所述的虚拟动物驱动装置,其特征在于,还包括姿态合成单元;所述的姿态合成单元将各层虚拟动物模型的姿态组合成虚拟动物的完整运动姿态。
CN2009100829470A 2009-04-24 2009-04-24 虚拟动物驱动方法和装置 Expired - Fee Related CN101540057B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009100829470A CN101540057B (zh) 2009-04-24 2009-04-24 虚拟动物驱动方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009100829470A CN101540057B (zh) 2009-04-24 2009-04-24 虚拟动物驱动方法和装置

Publications (2)

Publication Number Publication Date
CN101540057A CN101540057A (zh) 2009-09-23
CN101540057B true CN101540057B (zh) 2011-05-11

Family

ID=41123230

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009100829470A Expired - Fee Related CN101540057B (zh) 2009-04-24 2009-04-24 虚拟动物驱动方法和装置

Country Status (1)

Country Link
CN (1) CN101540057B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104980558B (zh) * 2014-04-01 2019-01-01 中国移动通信集团公司 一种信息处理的方法、装置、手机宠物客户端及移动终端
CN105243682B (zh) * 2015-09-25 2018-07-27 翟翊民 一种肢体元件模型、角色以及二维动画制作的方法
CN106445701B (zh) 2016-09-21 2018-01-09 腾讯科技(深圳)有限公司 数据处理方法和装置
CN109002553B (zh) * 2018-08-08 2021-10-01 北京旷视科技有限公司 头发模型的构建方法、装置、电子设备和计算机可读介质

Also Published As

Publication number Publication date
CN101540057A (zh) 2009-09-23

Similar Documents

Publication Publication Date Title
CA3111430C (en) Systems and methods for generating complementary data for visual display
Dontcheva et al. Layered acting for character animation
JP3579148B2 (ja) 多関節体の動きを生成するように複数の動きユニットを操作する方法及びそのシステム
Zordan et al. Mapping optical motion capture data to skeletal motion using a physical model
Ishigaki et al. Performance-based control interface for character animation
US8180613B1 (en) Wrinkles on fabric software
CN103886588B (zh) 一种三维人体姿态投影的特征提取方法
Yang et al. Curve skeleton skinning for human and creature characters
Ashida et al. Pedestrians: Creating agent behaviors through statistical analysis of observation data
WO1997040471A1 (en) Limb coordination system for interactive computer animation of articulated characters with blended motion data
CN101540057B (zh) 虚拟动物驱动方法和装置
CN102930599B (zh) 一种基于双四元数的手运动的三维模拟方法
Kobayashi et al. Motion capture dataset for practical use of AI-based motion editing and stylization
Feng et al. Automating the transfer of a generic set of behaviors onto a virtual character
US7012608B1 (en) Simulation device
US20120223953A1 (en) Kinematic Engine for Adaptive Locomotive Control in Computer Simulations
Tejera et al. Learning part-based models for animation from surface motion capture
Yang et al. Stretch it-realistic smooth skinning
Gu et al. A real-time full-body motion capture and reconstruction system for VR basic set
Yang et al. Automatic muscle generation for character skin deformation
Igarashi Computer graphics for all
Kim et al. Realtime control for motion creation of 3d avatars
Li et al. Modeling of human body for animation by micro-sensor motion capture
Huang et al. Full-body hybrid motor control for reaching
Ip et al. Animation of hand motion from target posture images using an anatomy-based hierarchical model

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: XINJIANG MEITE INTELLIGENT SAFETY ENGINEERING CO.,

Free format text: FORMER OWNER: INSTITUTE OF COMPUTING TECHNOLOGY, CHINESE ACADEMY OF SCIENCES

Effective date: 20121214

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 100190 HAIDIAN, BEIJING TO: 830011 URUMQI, XINJIANG UYGUR AUTONOMOUS REGION

TR01 Transfer of patent right

Effective date of registration: 20121214

Address after: 2909, room 830011, B, Pacific Plaza, 217 Gaoxin street, Urumqi hi tech Zone, the Xinjiang Uygur Autonomous Region

Patentee after: Xinjiang Meite Intelligent Security Engineering Co., Ltd.

Address before: 100190 Haidian District, Zhongguancun Academy of Sciences, South Road, No. 6, No.

Patentee before: Institute of Computing Technology, Chinese Academy of Sciences

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110511

Termination date: 20180424