CN101477703A - 基于语义模型的运动捕捉数据直接驱动的人体动画方法 - Google Patents

基于语义模型的运动捕捉数据直接驱动的人体动画方法 Download PDF

Info

Publication number
CN101477703A
CN101477703A CNA2008102280567A CN200810228056A CN101477703A CN 101477703 A CN101477703 A CN 101477703A CN A2008102280567 A CNA2008102280567 A CN A2008102280567A CN 200810228056 A CN200810228056 A CN 200810228056A CN 101477703 A CN101477703 A CN 101477703A
Authority
CN
China
Prior art keywords
node
semantic
coordinate system
distortion
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2008102280567A
Other languages
English (en)
Other versions
CN101477703B (zh
Inventor
张强
肖伯祥
魏小鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University
Original Assignee
Dalian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University filed Critical Dalian University
Priority to CN2008102280567A priority Critical patent/CN101477703B/zh
Publication of CN101477703A publication Critical patent/CN101477703A/zh
Application granted granted Critical
Publication of CN101477703B publication Critical patent/CN101477703B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于语义模型的人体运动捕捉数据直接驱动的人体动画方法,该方法涉及计算机动画和人体运动捕捉技术领域,引入人体拓扑结构语义模型的概念和方法,以语义模型为衔接,在一种基于非均匀有理B样条(NURBS)曲面模型基础上,通过坐标系插补,实现了一种人体运动捕捉数据直接驱动的真实感人体动画方法。本发明中的检索方法经实际测试,能够有效实现人体运动捕捉数据直接驱动的真实感人体动画,具有良好的实用性和较高的效率。

Description

基于语义模型的运动捕捉数据直接驱动的人体动画方法
技术领域
本发明涉及计算机动画技术领域,特别涉及人体运动捕捉数据直接驱动的人体动画的方法和领域。
背景技术
近年来,随着计算机软硬件技术和人体运动捕获技术的飞速发展,基于运动捕捉数据驱动的真实感人体动画逐渐成为研究和技术热点。基于运动捕捉数据驱动的真实感动画技术和方法涉及数学、计算机图形学、图像处理、数据处理等多个学科,该领域相关理论方法的研究丰富了计算机动画、虚拟现实领域研究内容,具有重要的理论价值。当前,运动捕获设备逐渐普及推广,三维人体运动序列可以直接由运动捕捉设备获取,因而,运动捕捉技术在诸多领域特别是计算机动画、虚拟现实、影视制作等领域得到了广泛应用,具有重要的实际应用价值。
在传统的运动捕捉数据驱动的人体动画方法中,通常需要应用三维造型软件平台(例如Maya等)先建立一个虚拟角色,再在运动编辑软件平台(例如MotionBuilder)中导入运动捕捉数据,然后建立运动数据与虚拟角色之间的绑定关系,以生成运动数据驱动的人体动画,这种方法通常需要依赖多种软件平台,并且需要复杂的参数设定、繁琐的手工调整,这就要求用户不但要熟悉各种软件平台、还要具有相关动画设计经验,因此对于普通用户而言,设计基于数据驱动的真实感动画具有很大的难度。因此,研究设计一种简单的、通用的、易于推广的低成本运动捕捉数据驱动的人体动画方法逐渐成为近年来的热点问题,相关系统的设计、开发具有广泛的应用价值。
由于人体自然运动本身所具有的复杂性,以及不同规格、不同标准的运动捕捉数据之间的差异,同时不同三维造型软件对人物模型的参数化构造也存在较大差异,不易于统一表示,以上所述的多种因素造成了基于人体运动捕捉数据驱动的人体动画中存在诸多困难。
发明内容
本发明的目的在于通过对传统方法局限性的分析,引入人体拓扑结构语义模型的概念和方法,以语义模型为衔接,在一种基于非均匀有理B样条(NURBS)曲面模型基础上,通过坐标系插补,实现了一种人体运动捕捉数据直接驱动的真实感人体动画方法。附图1所示为本发明方法流程图。实验表明该方法具有良好的可行性和较高效率。
本发明的技术解决方案是这样实现的:
一种基于语义模型的运动捕捉数据直接驱动的人体动画方法,包括将基于C++程序设计语言和OpenGL图形库开发的真实感人体动画系统装入计算机和对人体运动语义模型进行构建、初始化的步骤,其特征在于还包括以下步骤:
(1)、本方法中的定义一个包含22个语义节点的语义模型。如图2所示,一个语义节点的定义如下:
语义节点:描述人体拓扑结构的最小单元,由以下属性参数表征:
序号:节点编号,如图2所示,指定根节点“序号”为1;
名称:节点物理标识;
度:该节点的直接子节点的个数,如根节点度为3;
级:该节点与根节点之间的节点个数(包括该节点本身),特别指定根节点“级”为0;
父节点:该节点所从属的节点的序号。特别指定根节点“父节点”为0;
长度:该节点至其父节点的距离。特别指定根节点“长度”为0.0cm;
方向:该节点父节点到该节点指向的单位向量。特别指定根节点“方向”为n0=(0.0,0.0,0.0);
位置:节点空间位置,可根据根节点“位置”、“长度”和“方向”参数计算得到。根节点“位置”须初始化;
其中“序号”、“名称”、“度”、“级”、“父节点”定义谓之从属关系属性,“长度”、“方向”和“位置”定义谓之空间位置属性。
语义模型:由所有语义节点组成的树型结构模型。
基于上述定义22节点语义模型,用以分别确定语义模型的从属关系属性和空间位置属性;
(2)、分别对标准姿态(如直立或步骤3中所述的初始的曲面模型的姿态)和人体运动捕捉数据进行语义结构转化,标准姿态转化为标准语义结构,作为运动参考。语义结构转化即设定运动数据与语义模型之间的相互联系,提取运动捕捉数据中的语义信息。相互联系可以视具体运动数据格式、特征确定,例如,如图2(a)所示,可以选取某些相关Marker标记点直接作为语义节点(膝部Marker、肘部Marker等),也可以选取两个节点的中点作为语义节点(颈部Marker等),以及四边形结构的Marker的中心(腰部、头部Marker等)或相关标记点(Marker)的线性变换;
(3)、建立基于非均匀有理B样条(NURBS)曲曲的三维人体虚拟模型,如图3所示,(a)为手臂的局部结构图,(b)和(c)分别为整个人体的全局和局部构成图,(d)为应用了OpenGL光照和纹理影射的真实感效果图。其中四肢分别使用了一个16×8排控制点的NURBS曲面,头部为16×16排控制点,躯干分为两部分,分别包含16×8排和9×9排控制点,这是由NURBS曲面的连通性质限制所决定的。
(4)、根据语义模型进行局部坐标系变换以及坐标系插补。首先确定运动数据语义模型中语义节点上的局部坐标系,作为关键坐标系,然后根据NURBS曲面模型的控制点沿语义节点连接线上的排数,分别设置插补坐标系,并以该连接线两端关键节点上的关键坐标系为依据进行插补,方法如图4所示,C0和C5分别为变形前关键坐标系,C1-C4分别为变形前的中间坐标系。C0’和C5’分别为对应的变形后的关键坐标系,坐标系插补即计算变形后的C1’-C4’,变形可以按照以下公式进行:
X i ( x i , y i , z i ) = ( 1 - t i ) · X 0 ( x 0 , y 0 , z 0 ) + t i · X 5 ( x 5 , y 5 , z 5 ) t i ∈ [ 0,1 ] Y i ( x i , y i , z i ) = ( 1 - t i ) · Y 0 ( x 0 , y 0 , z 0 ) + t i · Y 5 ( x 5 , y 5 , z 5 ) t i ∈ [ 0,1 ] - - - ( 1 )
Zi(xi,yi,zi)=Xi(xi,yi,zi)×Yi(xi,yi,zi)
                                                  (2)
Yi(xi,yi,zi)=Zi(xi,yi,zi)×Xi(xi,yi,zi)
其中t为两个相邻语义节点之间的距离比例。
(5)、将各NURBS曲面模型的各排控制点(控制点组V)按照对应的局部坐标系进行变形,计算得到变形后的控制点组:
V M = T i - 1 C i - 1 VC i ′ T i ; - - - ( 3 )
其中,V和VM分别为变形前和变形后的控制点组,Ti为控制点组对应的中心相对于世界坐标系原点平移矩阵,Ci和Ci′分别为某排控制点的变形前坐标系和经过插补的变形后的坐标系。
(6)、根据变形后的控制点组,重新计算NURBS曲面模型,以生成新的人体模型,循环运动数据中的所有帧,生成一段对应的人体运动序列,并添加OpenGL纹理影射、光照处理,即为运动捕捉数据驱动的真实感人体动画,如图5所示,上、中、下分别为运动捕捉数据、语义模型和人体动画效果;
与现有技术相比较,本发明的优势主要表现在通过定义人体语义节点和语义模型的方法,建立了人体运动捕捉数据和基于NURBS曲面模型之间的直接联系,并且通过坐标系插补实现控制点组的变形从而实现模型的变形,最终实现了一种由人体运动捕捉数据直接驱动的真实感人体动画生成方法。实验证明该方法具有良好的可行性和较高的效率。
附图说明
图1本发明的流程框图。
图2本发明中定义的22节点语义模型的空间关系和拓扑结构关系图。
图3本文中应用NURBS曲面构造的虚拟人体模型。
图4坐标系插补方法示意图。
图5部分系统实现效果图,上、中、下分别为运动捕捉数据、语义模型和人体动画效果。
具体实施方式
一种基于语义模型的运动捕捉数据直接驱动的人体动画方法,包括将基于C++程序设计语言和OpenGL图形库开发的真实感人体动画系统装入计算机和对人体运动语义模型进行构建、初始化的步骤,以及真实感人体动画的生成,所述各步骤的具体实施方式如下:
1.实施本发明方法测试实施是在一组使用DVMC-8820光学运动捕捉设备或取得人体运动数据的基础上进行的,该组数据共采集30组动作,采集者穿戴32个特征标记点(Marker),采样频率为60帧/秒,每组数据包含300帧时间经历约5秒。该组数据以文本文件的形式存储,每行记录特征标记点的三维坐标。
2.按照发明内容中所述的语义节点定义方法定义包含22节点的人体语义模型,将待使用的运动数据进行语义节点的提取,其中语义节点3、4、5、7、8、9、12、13、15、16、17、19分别直接对应相关Marker标记点;语义节点10、11、14、18、22分别对应于相关两个Marker的中点,其余语义节点对应于相关Marker标记点的线性变换,如图2所示。
3.建立分片的非均匀有理B样条曲面人体虚拟模型,局部划分方式如发明内容所述及图3所示,曲面生成方式如下:
P ( u ) = Σ i = 0 n B i , k ( u ) · W i · V i Σ i = 0 n B i , k ( u ) · W i P ( u , w ) = Σ i = 0 n Σ j = 0 m B i , k ( u ) · B j , h ( w ) · W i , j · V i , j Σ i = 0 n Σ j = 0 m B i , k ( u ) · B j , h ( w ) · W i , j
其中P为曲面上的点,B为B样条基函数,W为权因子,V为控制点组。
4.按照发明内容(4)所述方法根据语义模型进行局部坐标系变换以及坐标系插补。坐标系的插补实际上是对三个坐标轴向量的插补和正交化的过程。
5.按照发明内容(5)所述方法将各NURBS曲面模型的各排控制点(控制点组V)按照对应的局部坐标系进行变形,计算得到变形后的控制点组。其中局部坐标系变换矩阵可以分别由其三个坐标轴分量组成的行向量组成:
C i = a 11 a 12 a 13 a 21 a 22 a 33 a 31 a 32 a 33 X ( x , y , z ) = a 11 a 12 a 13 Y ( x , y , z ) = a 21 a 22 a 23 Z ( x , y , z ) = a 31 a 32 a 33
6.根据变形后的控制点组,重新计算NURBS曲面模型,以生成新的人体模型,循环运动数据中的所有帧,生成一段对应的人体运动序列,并添加OpenGL纹理影射、光照处理,即为运动捕捉数据驱动的真实感人体动画,如图5所示。

Claims (1)

1、一种基于语义模型的运动捕捉数据直接驱动的人体动画方法,包括将基于C++程序设计语言和OpenGL图形库开发的真实感人体动画系统装入计算机和对人体运动语义模型进行构建、初始化的步骤,其特征在于,还包括以下步骤:
(1)、本方法中的定义一个包含22个语义节点的语义模型,一个语义节点的定义如下:
语义节点:描述人体拓扑结构的最小单元,由以下属性参数表征:
序号:节点编号,如图2所示,指定根节点“序号”为1;
名称:节点物理标识;
度:该节点的直接子节点的个数,如根节点度为3;
级:该节点与根节点之间的节点个数(包括该节点本身),特别指定根节点“级”为0;
父节点:该节点所从属的节点的序号。特别指定根节点“父节点”为0;
长度:该节点至其父节点的距离。特别指定根节点“长度”为0.0cm;
方向:该节点父节点到该节点指向的单位向量。特别指定根节点“方向”为n0=(0.0,0.0,0.0);
位置:节点空间位置,可根据根节点“位置”、“长度”和“方向”参数计算得到。根节点“位置”须初始化;
其中“序号”、“名称”、“度”、“级”、“父节点”定义谓之从属关系属性,“长度”、“方向”和“位置”定义谓之空间位置属性;
语义模型:由所有语义节点组成的树型结构模型;
基于上述定义22节点语义模型,用以分别确定语义模型的从属关系属性和空间位置属性;
(2)、本方法分别对标准姿态(如直立或步骤3中所述的初始的曲面模型的姿态)和人体运动捕捉数据进行语义结构转化,标准姿态转化为标准语义结构,作为运动参考。语义结构转化即设定运动数据与语义模型之间的相互联系,提取运动捕捉数据中的语义信息。相互联系可以视具体运动数据格式、特征确定,例如,如图2(a)所示,可以选取某些相关Marker标记点直接作为语义节点(膝部Marker、肘部Marker等),也可以选取两个节点的中点作为语义节点(颈部Marker等),以及四边形结构的Marker的中心(腰部、头部Marker等)或相关标记点(Marker)的线性变换;
(3)、本方法是建立在一种基于分片的非均匀有理B样条(NURBS)曲面的三维人体虚拟模型的基础上的,其中四肢分别使用了一个16×8排控制点的NURBS曲面,头部为16×16排控制点,躯干分为两部分,分别包含16×8排和9×9排控制点,这是由NURBS曲面的连通性质限制所决定的;
(4)、根据语义模型进行局部坐标系变换以及坐标系插补。首先确定运动数据语义模型中语义节点上的局部坐标系,作为关键坐标系,然后根据NURBS曲面模型的控制点沿语义节点连接线上的排数,分别设置插补坐标系,并以该连接线两端关键节点上的关键坐标系为依据进行插补,方法如图4所示,C0和C5分别为变形前关键坐标系,C1-C4分别为变形前的中间坐标系。C0’和C5’分别为对应的变形后的关键坐标系,坐标系插补即计算变形后的C1’-C4’,变形可以按照以下公式进行:
X i ( x i , y i , z i ) = ( 1 - t i ) · X 0 ( x 0 , y 0 , z 0 ) + t i · X 5 ( x 5 , y 5 , z 5 ) t i ∈ [ 0,1 ] Y i ( x i , y i , z i ) = ( 1 - t i ) · Y 0 ( x 0 , y 0 , z 0 ) + t i · Y 5 ( x 5 , y 5 , z 5 ) t i ∈ [ 0,1 ] - - - ( 1 )
Zi(xi,yi,zi)=Xi(xi,yi,zi)×Yi(xi,yi,zi)
Yi(xi,yi,zi)=Zi(xi,yi,zi)×Xi(xi,yi,zi)
                                                    (2)
其中t为两个相邻语义节点之间的距离比例。
(5)、本发明的方法是将各NURBS曲面模型的各排控制点(控制点组V)按照对应的局部坐标系进行变形,计算得到变形后的控制点组:
V M = T i - 1 C i - 1 VC i ′ T i ; - - - ( 3 )
其中,V和VM分别为变形前和变形后的控制点组,Ti为控制点组对应的中心相对于世界坐标系原点平移矩阵,Ci和Ci′分别为某排控制点的变形前坐标系和经过插补的变形后的坐标系;
(6)、根据变形后的控制点组,重新计算NURBS曲面模型,以生成新的人体模型,循环运动数据中的所有帧,生成一段对应的人体运动序列,并添加OpenGL纹理影射、光照处理,即为运动捕捉数据驱动的真实感人体动画。
CN2008102280567A 2008-10-11 2008-10-11 基于语义模型的运动捕捉数据直接驱动的人体动画方法 Active CN101477703B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008102280567A CN101477703B (zh) 2008-10-11 2008-10-11 基于语义模型的运动捕捉数据直接驱动的人体动画方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008102280567A CN101477703B (zh) 2008-10-11 2008-10-11 基于语义模型的运动捕捉数据直接驱动的人体动画方法

Publications (2)

Publication Number Publication Date
CN101477703A true CN101477703A (zh) 2009-07-08
CN101477703B CN101477703B (zh) 2011-09-14

Family

ID=40838411

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008102280567A Active CN101477703B (zh) 2008-10-11 2008-10-11 基于语义模型的运动捕捉数据直接驱动的人体动画方法

Country Status (1)

Country Link
CN (1) CN101477703B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102298788A (zh) * 2011-08-12 2011-12-28 山东师范大学 基于多目标评价的交互式动漫造型实现方法
CN102708582A (zh) * 2012-05-08 2012-10-03 电子科技大学 一种面向异构拓扑的角色运动重定向方法
CN103403766A (zh) * 2011-02-16 2013-11-20 史克威尔·艾尼克斯有限公司 对象动作装置及方法、以及程序
CN103514622A (zh) * 2012-06-29 2014-01-15 甲尚股份有限公司 虚拟角色的步态自动适应地形的系统及方法
CN104103075A (zh) * 2014-07-24 2014-10-15 北京邮电大学 一种多视角人体部件语义匹配方法和装置
CN106023287A (zh) * 2016-05-31 2016-10-12 中国科学院计算技术研究所 一种数据驱动的交互式三维动画合成方法及系统
CN107481303A (zh) * 2017-08-07 2017-12-15 东方联合动画有限公司 一种实时动画生成方法及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4665928A (en) * 1983-08-10 1987-05-19 Orthotronics, Inc. Range of motion measuring and displaying device
JP3709881B2 (ja) * 2003-06-04 2005-10-26 オムロン株式会社 機械警備システム、制御装置、リモート報知器、制御方法、ならびに制御プログラム、制御プログラムを記録したコンピュータ読み取り可能な記録媒体
CN1323370C (zh) * 2004-05-28 2007-06-27 中国科学院计算技术研究所 一种色情图像检测方法
CN100367294C (zh) * 2005-06-23 2008-02-06 复旦大学 在彩色数字图像和视频中分割出人体皮肤区域的方法
CN101216952B (zh) * 2008-01-17 2011-05-18 大连大学 用于人体运动捕捉数据的动态时空耦合降噪处理方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103403766A (zh) * 2011-02-16 2013-11-20 史克威尔·艾尼克斯有限公司 对象动作装置及方法、以及程序
CN103403766B (zh) * 2011-02-16 2017-02-15 史克威尔·艾尼克斯有限公司 对象动作装置及方法
CN102298788A (zh) * 2011-08-12 2011-12-28 山东师范大学 基于多目标评价的交互式动漫造型实现方法
CN102708582A (zh) * 2012-05-08 2012-10-03 电子科技大学 一种面向异构拓扑的角色运动重定向方法
CN103514622A (zh) * 2012-06-29 2014-01-15 甲尚股份有限公司 虚拟角色的步态自动适应地形的系统及方法
CN104103075A (zh) * 2014-07-24 2014-10-15 北京邮电大学 一种多视角人体部件语义匹配方法和装置
CN106023287A (zh) * 2016-05-31 2016-10-12 中国科学院计算技术研究所 一种数据驱动的交互式三维动画合成方法及系统
CN106023287B (zh) * 2016-05-31 2019-06-18 中国科学院计算技术研究所 一种数据驱动的交互式三维动画合成方法及系统
CN107481303A (zh) * 2017-08-07 2017-12-15 东方联合动画有限公司 一种实时动画生成方法及系统

Also Published As

Publication number Publication date
CN101477703B (zh) 2011-09-14

Similar Documents

Publication Publication Date Title
CN101477703B (zh) 基于语义模型的运动捕捉数据直接驱动的人体动画方法
CN102289836B (zh) 植物动画合成方法
CN104463788A (zh) 基于运动捕捉数据的人体运动插值方法
CN111369649B (zh) 一种基于高精度三维扫描模型的制作计算机蒙皮动画的方法
CN102509333A (zh) 基于动作捕获数据驱动的二维卡通表情动画制作方法
CN110310351A (zh) 一种基于草图的三维人体骨骼动画自动生成方法
CN106960465A (zh) 一种基于方向场和螺旋线匹配的单幅图像头发重建方法
CN101655990B (zh) 一种基于非线性流形学习的三维人体运动合成方法
CN103544733B (zh) 基于统计形状分析的三维人体头部三角网格模型建立方法
CN103793552A (zh) 一种软组织形变的局部质点弹簧模型的实时动态生成方法
Hyun et al. Tiling motion patches
Bhati et al. Template based procedural rigging of quadrupeds with custom manipulators
Guo et al. The design of a form-changing female fitting robot
Peng et al. Exploration of CAD and Neural Network Integration in Art Design and Cultural Heritage Protection
Kim et al. Component-based locomotion composition
Nuić et al. Algorithms for procedural generation and display of trees
Lu et al. Venation skeleton-based modeling plant leaf wilting
Chaudhry et al. Character skin deformation: A survey
Tejera et al. Space-time editing of 3d video sequences
CN104616337B (zh) 一种基于纵向切分的风吹无叶树的摇曳模拟方法
Casas et al. Parametric control of captured mesh sequences for real-time animation
Jiang et al. Animation scene generation based on deep learning of CAD data
Yuan et al. The Fusion Method of Virtual Reality Technology and 3D Movie Animation Design.
CN110349268A (zh) 一种三维人体姿态、表情及手势的重构方法
CN110163981A (zh) 一种基于运动相似性的引导发丝提取方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant