CN103914873A - 一种根据人体动作驱动的雕塑三维模型生成方法 - Google Patents
一种根据人体动作驱动的雕塑三维模型生成方法 Download PDFInfo
- Publication number
- CN103914873A CN103914873A CN201410093523.5A CN201410093523A CN103914873A CN 103914873 A CN103914873 A CN 103914873A CN 201410093523 A CN201410093523 A CN 201410093523A CN 103914873 A CN103914873 A CN 103914873A
- Authority
- CN
- China
- Prior art keywords
- sculpture
- point
- guide
- vertex
- skeleton
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000005516 engineering process Methods 0.000 claims abstract description 8
- 230000008859 change Effects 0.000 claims description 28
- 239000011159 matrix material Substances 0.000 claims description 19
- 230000009471 action Effects 0.000 claims description 13
- 230000007704 transition Effects 0.000 claims description 8
- 238000012546 transfer Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims 1
- 238000013461 design Methods 0.000 abstract description 4
- 230000002452 interceptive effect Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 210000001699 lower leg Anatomy 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 235000012364 Peperomia pellucida Nutrition 0.000 description 1
- 240000007711 Peperomia pellucida Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种根据人体动作驱动的雕塑三维模型生成方法,对任意给定的虚拟雕塑,该方法利用改进的Kinect动作识别技术识别用户关节点信息并捕获其运动参数,通过关节点与用户选择的控制点之间的关联方式,引导虚拟雕塑调整姿态实现雕塑三维模型创意设计,其中虚拟雕塑姿态的改变通过虚拟雕塑编辑算法实现,能够对虚拟雕塑实时操作。该方法充分考虑到虚拟雕塑与一般三维模型在生成时的不同约束,能够很好保存雕塑的风格特征。
Description
技术领域
本发明涉及一种根据人体动作驱动的雕塑三维模型生成方法,特别是将改进的Kinect动作识别技术与能够保存虚拟雕塑三维模型风格特征的网格编辑方法相结合实现雕塑三维模型创意生成方法。
背景技术
随着数字雕塑软件迅猛的发展,不但在软件的数量和功能上有突飞猛进的提高,在行业的应用上也有很大的拓展,从游戏行业到影视动画再到玩具手办制作,我们都越来越多的看到数字雕塑软件的身影。并且,数字雕塑软件的出现也改变了很多设计师的工作流程,强大的雕塑建模功能和颜色绘制功能解放了艺术家的灵感,可以让设计师把更多的精力关注在设计和创作上,将软件的操作难度降到最低。
到目前为止,数字雕塑软件主要有三个类别,第一类是以ZBrush为代表的数字雕塑软件,这类软件的主要功能是雕塑建模,它制作模型的功能强大,并且对多边形面数的支持高。第二类是带有数字雕塑功能的三维软件。例如Modo、Silo等,这类软件的功能更多,由于雕塑模型并不是它们的主要功能,所以在雕塑功能和面数支持上都比不上前一类软件,但使用这类软件可以避免在不同的软件中频繁切换。另外现在也有越来越多的三维软件集成了数字雕塑功能,例如3D Max和Maya。第三类是一些工业设计方面的软件,比较著名的有FreeForm等,一些浮雕软件也可以归在这个类别里,这些软件相对于前两类软件应用的范围更专一,使用的用户也少很多。
我们应该看到,虽然这些软件为专业用户(雕塑工作者)和非专业用户提供了强大建模功能,但没有提供用于艺术创新的平台和合理便捷的交互方式,这让许多传统雕塑家对这些优秀的软件不屑一顾。
发明内容
发明目的:本发明所要解决的问题是针对雕塑创作过程当中实体雕塑后期修改费时费力以及雕塑创新过程中创新思想难以具体呈现的问题,提供一种新颖的利用Kinect动作识别技术和网格编辑技术,为雕塑姿态调整提供可视化方法并能保存雕塑的风格特征。
为了解决上述问题,本发明公开了一种根据人体动作驱动的雕塑三维模型生成方法,包括以下步骤:
步骤1:输入虚拟雕塑三维模型,该雕塑模型由一组三角面片构成(虚拟雕塑文件只需满足能够提取顶点信息和三角面片信息,类型可以任意给定);
步骤2:分析虚拟雕塑三维模型,保存其顶点信息V,边信息E以及三角面片信息Triangle,然后计算顶点,边和三角面片之间的拓扑关系,包括每个顶点的邻接顶点,邻接面,邻接边,每个三角面片的邻接面以及每条边的邻接面;
步骤3:根据步骤2中得到的顶点,边和三角面片信息以及它们之间的拓扑关系,构造虚拟雕塑中顶点之间的测地距离矩阵;
步骤4:选择驱动虚拟雕塑三维模型的控制点,所选择的控制点分为两类:视觉引导点{vguide}和雕塑骨架点。这两类控制点在雕塑姿态调整的过程中所起的作用不同,视觉引导点用来引导雕塑姿态改变,雕塑骨架点根据用户的需要用来约束雕塑姿态的改变,保存形态特征。
其中nske表示雕塑骨架点的数目, 且ncontrol=nske+1,ncontrol表示两类控制点的总数目,;
步骤5:计算由控制点形成的特征空间,特征空间由视觉引导点生成,同时受到雕塑骨架点的影响,在最终的特征空间中,每个顶点的特征值与该顶点到视觉引导点的距离成正比,与该顶点到雕塑骨架点的距离成反比,在极端情况下,视觉引导点位置处的特征值为1,雕塑骨架点位置处的特征值为0;
步骤6:启动Kinect摄像头,用户处于摄像头能够识别的区域,利用Kinect提供的骨架追踪技术,获取用户的骨架图像和深度图像;
步骤7:保存用户关节点信息J,由于存在Kinect摄像头受到遮挡或用户没有完全处于摄像头所能识别的区域这种情况,用户关节点有时并不能全部被识别出来,保存已识别的关节点信息对后续步骤有参考价值;
步骤8:选择引导虚拟雕塑姿态调整的关节点并计算关节点与控制点的关联矩阵M,在选择关节点的时候,对于跟雕塑骨架点关联的关节点可以满足一个关节点对应多个雕塑骨架点的关系;
步骤9:上述步骤完成之后,该步骤利用Kinect持续捕获的用户关节点位置信息,计算关节点位置的改变并将关节点位置的改变信息传递给相应的控制点。由于Kinect能够捕捉关节点在空间中的位置改变,将三维空间中关节点位置的改变传送给对应的控制点,这样可以为用户提供更加自然的交互方式,这也是选择Kinect作为交互工具的主要原因。但直接捕获到的位置信息,会存在突变或丢失的情况,因此加入关节点位置的修正操作是很有必要的,可以提高整个系统的鲁棒性;
步骤10:根据步骤9控制点收到的三维空间中关节点位置的改变信息计算相应的视觉引导点的变化信息并根据变化信息构造变换矩阵T;
步骤11:根据步骤5计算得到的特征空间和步骤10得到的视觉引导点变换矩阵,计算每个顶点的转换矩阵Tj;
步骤12:根据步骤11计算得到的每个顶点的转换矩阵,计算更新后的顶点坐标v′;
步骤13:更新显示虚拟雕塑三维模型;
本发明步骤3中,计算任意两个顶点vi,vj的测地距离di,j包括以下步骤:
计算顶点vi到顶点vj的单位向量:
其中,1≤i,jjnver,|vj-vi|表示向量vj-vi的长度。
由步骤2得到顶点vi的邻接面集合和对应的邻接面向外法向量集合其中表示顶点v?的邻接面个数,选择与向量夹角最小的邻接面fi,k:
其中计算向量在邻接面fi,k上的投影与该邻接面上边的交点C,计算顶点vi与交点C的距离s;
然后将交点C设置为起点,顶点vj设置为终点,按以下步骤执行:
31计算起点到终点的单位向量
32计算向量在交点C所在边的邻接面上的投影与该邻接面的交点C′,计算交点C与交点C′的距离τ;
33当交点C′与顶点vj不重合时,将交点C′设置为起点,返回步骤31,当交点C′与顶点vj重合时,迭代结束。
经过上述迭代计算,得到距离集合,其中niterator表示上一步骤中迭代次数;顶点vi,vj的测地距离di,j可表示为:
其中,m的取值范围1,2,3,…,niterator,s表示顶点vi到第一个交点的距离。
本发明步骤5中,计算由控制点形成的特征空间,包括以下步骤:
首先,计算在视觉引导点产生的特征空间下,顶点vi的特征值fi(di,guide):
其中,1≤i≤nver,di,guide表示顶点vi到视觉引导点vguide的测地距离且1≤guide≤nver,μ是参数,用来控制特征值随测地距离改变的速率,设置μ等于其他顶点到视觉引导点的最大距离:
μμmaxj{dj,guide},
其中,dj,guide表示顶点vj到视觉引导点vguide的测地距离且1≤j≤nver;
然后,计算雕塑骨架点对由视觉引导点产生的特征空间中顶点vi的特征值的影响:
其中,表示顶点vi到第l个雕塑骨架点的测地距离且1≤l≤nske,α是参数,用来控制雕塑骨架点的特征值随着测地距离改变的速率,设置α=1;
最后,在特征空间中,每个顶点的特征值ξ定义为:
其中,skeleton1表示第l个雕塑骨架点,nske表示雕塑骨架点的数目。
有益效果:本发明是一种根据人体动作驱动的雕塑三维模型生成方法,虚拟雕塑三维模型创意设计过程中,能够根据用户的选择任意改变雕塑姿态并能很好保存其风格特征。另外,引入改进后的Kinect动作识别技术可以减少系统的开销,为用户提供方便简洁的交互方式,用户可根据自定义的映射规则操作任意虚拟雕塑。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1为本发明流程图。
图2为采用本方法的实验结果示例。
具体实施方式:
本发明所述的根据人体动作驱动的雕塑三维模型生成方法的基本出发点是集成Kinect动作识别模块和基于曲面编辑模块,可以实时交互达到任意虚拟雕塑的造型创意设计。
下面结合附图1对本发明做更加详细的解释:
步骤1:选择虚拟雕塑Sculpture={V,E}。V代表顶点集,E代表边集,虚拟雕塑是由三角面片构成的网格模型。
步骤2:提取虚拟雕塑的顶点信息,边信息以及三角面片信息,将虚拟雕塑的顶点信息保存到数组,边信息保存到数组,三角面片信息保存到数组,其中nver,nedge,ntri分别表示虚拟雕塑中顶点数目,边数目和三角面片数目;然后计算顶点,边和三角面片之间的拓扑关系,包括每个顶点的邻接顶点,邻接面,邻接边,每个三角面片的邻接面以及每条边的邻接面。
步骤3:根据步骤2中得到的顶点,边和三角面片信息以及它们之间的拓扑关系,构造虚拟雕塑中顶点之间的测地距离矩阵。
首先计算任意两个顶点vi,vj的测地距离di,j,其中1≤i,j≤nver;
然后构造顶点的测地距离矩阵:
其中,nver表示虚拟雕塑中顶点的数目。
步骤4:选择驱动虚拟雕塑三维模型的控制点,所选择的控制点分为两类:视觉引导点{vguide}和雕塑骨架点。这两类控制点在雕塑姿态调整的过程中所起的作用不同,视觉引导点用来引导雕塑姿态改变,雕塑骨架点根据用户的需要用来约束雕塑姿态的改变,保存形态特征。
其中nske表示雕塑骨架点的数目,ncontrol表示两类控制点的总数目, 且ncontrol=nske+1;
步骤5:计算由控制点形成的特征空间,特征空间由视觉引导点生成,同时受到雕塑骨架点的影响,在最终的特征空间中,离视觉引导点越近,特征值越大,离雕塑骨架点越近,特征值越小,极端情况下,在雕塑骨架点位置处的特征值为0。
首先,计算在视觉引导点产生的特征空间下,顶点vi的特征值fi(di,guide):
其中,1≤i≤nver,di,guide表示顶点vi到视觉引导点vguide的测地距离且1≤guide≤nver,μ是参数,用来控制特征值随测地距离改变的速率,设置μ等于其他顶点到视觉引导点的最大距离:
μμmaxj{dj,guide},
其中,dj,guide表示顶点vj到视觉引导点vguide的测地距离且1≤j≤nver;
然后,计算雕塑骨架点对由视觉引导点产生的特征空间中顶点vi的特征值的影响:
其中,表示顶点vi到雕塑骨架点的测地距离且1≤l≤nske,α是参数,用来控制雕塑骨架点对特征值随的影响随着测地距离改变的速率,设置α=1;
最后,在特征空间中,每个顶点的特征值ξ定义为:
其中,skeleton1表示第l个雕塑骨架点,nske表示雕塑骨架点的数目。
步骤6:启动Kinect摄像头,用户处于摄像头能够识别的区域,利用Kinect提供的骨架识别技术,获取用户的骨架图像和深度图像。
步骤7:保存用户关节点信息J-[joint1joint2…joint20],由于存在Kinect摄像头受到遮挡或用户没有完全处于摄像头所能识别的区域这种情况,有时用户关节点并不能全部被识别出来,保存已识别的关节点信息对后续步骤有参考价值。
将关节点个数定义在20之内是因为Kinect多识别20个关节点信息。
步骤8:经过步骤7用户关节点成功识别之后,选择引导虚拟雕塑姿态调整的关节点并构造这些关节点与控制点的关联矩阵,在选择关节点的时候需要注意,对于跟雕塑骨架点关联的关节点可以满足一对多的对应方式。
需要注意,对于视觉引导点,只能跟一个关节点对应,是一对一的关系,但对于雕塑骨架点,它跟关节点的关系是多对一的关系。
步骤9:上述步骤完成之后,该步骤利用Kinect持续捕获的用户关节点位置信息p∈R3,计算关节点位置的改变量Δ=[ΔxΔyΔz]并将关节点位置的改变信息传递给相应的控制点。由于Kinect能够捕捉关节点在空间中的位置改变,将三维空间中关节点位置的改变传送给对应的控制点,这样可以为用户提供更加自然的交互方式,这也是选择Kinect作为交互工具的主要原因。但直接捕获到的位置信息,会存在突变或丢失的情况,因此加入对关节点位置的平滑修正操作是很有必要的,可以提高整个系统的鲁棒性。
表示在t时刻平滑后的关节点位置,pt表示在t时刻关节点的位置,Ζt表示在t时刻关节点的运动趋势,△t+1表示在t+1时刻相对于t时刻关节点的改变量。β,γ表示可控制的平滑参数。
步骤10:Kinect将关节点位置的变化信息Δ传送给对应的视觉引导点,视觉引导点根据得到的变化信息构造变换矩阵T;
步骤11:根据步骤5计算得到的顶点在特征空间中的特征值和步骤10得到的视觉引导点变换矩阵,计算每个顶点的转换矩阵Ti;
步骤12:根据步骤11计算得到的每个顶点的转换矩阵,计算更新后的顶点坐标
步骤13:更新显示虚拟雕塑三维模型。
如图2所示(由于本发明的特殊性,不可避免的采用灰度照片展示处理效果),以人体的三维模型为例,通过5个控制点展示了根据人体动作驱动的三维模型生成结果。第一行为用户和模型的初始状态,用来控制模型的5个控制点分别位于人体三维模型的头顶,左手指,右手指,左脚趾,右脚趾处,用户通过相对应的关节点来引导模型姿态改变。第二行为用户抬起右脚后,分别从正面和侧面展示模型改变后的效果。第三行为用户抬头后,分别从正面和侧面展示模型改变后的效果。
Claims (3)
1.一种根据人体动作驱动的雕塑三维模型生成方法,其特征在于,包括以下步骤:
步骤1:输入虚拟雕塑三维模型,该虚拟雕塑三维模型由一组三角面片构成;
步骤2:分析虚拟雕塑三维模型,保存其顶点信息、边信息和三角面片信息,计算顶点、边和三角面片之间的拓扑关系,包括每个顶点的邻接顶点、邻接面、邻接边,每个三角面片的邻接面以及每条边的邻接面;
步骤3:根据步骤2中得到的顶点、边和三角面片信息以及它们之间的拓扑关系,构造虚拟雕塑三维模型中顶点之间的测地距离矩阵;
步骤4:选择控制虚拟雕塑三维模型的控制点,所选择的控制点分为两类:人工设置视觉引导点{vguide}和雕塑骨架点,其中 nske表示雕塑骨架点的数目,nver表示虚拟雕塑三维模型顶点的数目,视觉引导点用来引导虚拟雕塑姿态的改变,雕塑骨架点用来约束虚拟雕塑姿态的改变;
步骤5:计算由控制点形成的特征空间:特征空间由视觉引导点生成,同时受到雕塑骨架点的影响,在最终的特征空间中,每个顶点的特征值与顶点到视觉引导点的距离成正比,与顶点到雕塑骨架点的距离成反比;
步骤6:启动Kinect摄像头,用户处于摄像头能够识别的区域,根据Kinect提供的骨架识别技术,获取用户的骨架图像和深度图像;
步骤7:保存用户关节点信息;
步骤8:选择引导虚拟雕塑三维模型姿态调整的关节点并计算关节点与控制点的关联矩阵;
步骤9:利用Kinect持续捕获用户关节点的位置信息,计算关节点位置的改变并将三维空间中关节点位置的改变信息传送给对应的控制点;
步骤10:根据步骤9控制点收到的三维空间中关节点位置的改变信息计算相应的视觉引导点的变化信息,并根据视觉引导点的变化信息构造视觉引导点的变换矩阵;
步骤11:根据步骤5计算得到的特征空间和步骤10得到的视觉引导点变换矩阵,计算每个顶点的转换矩阵;
步骤12:根据步骤11计算得到的每个顶点的转换矩阵,迭代更新每个顶点的坐标;
步骤13:更新显示虚拟雕塑三维模型。
2.根据权利要求1所述的一种根据人体动作驱动的雕塑三维模型生成方法,其特征在于,步骤2和步骤3中,
步骤2中,计算顶点vi的邻接面集合和对应的邻接面向外法向量集合,其中表示顶点vi的邻接面个数。
步骤3中,计算任意两个顶点vi,vj的测地距离di,j包括以下步骤:
计算顶点vi到顶点vj的单位向量:
其中,1≤i,j≤nver,|vj-vi|表示向量vj-vi的长度;
计算向量与顶点vi的邻接面的夹角并选择夹角最小的邻接面fi,k:
其中计算向量在邻接面fi,k上的投影与该邻接面上边的交点C,并计算顶点vi与交点C的距离s;
然后将交点C设置为起点,顶点vj设置为终点,按以下步骤执行:
步骤31,计算起点到终点的单位向量;
步骤32,计算向量在交点C所在边的邻接面上的投影与该邻接面的交点C′,计算交点C与交点C′的距离τ;
步骤33,当交点C′与顶点vj不重合时,将交点C′设置为起点,返回步骤31,当交点C′与顶点vj重合时,迭代结束;
经过上述迭代计算,得到距离集合,其中表示迭代次数,顶点vi,vj的测地距离di,j可表示为:
其中,m的取值范围1,2,3,…,niterator,s表示顶点vi到第一个交点的距离。
3.根据权利要求1所述的一种根据人体动作驱动的雕塑三维模型生成方法,其特征在于,步骤5包括以下步骤:
计算由视觉引导点产生的特征空间下,顶点vi的特征值fi(di,guide):
其中,di,guide表示顶点vi到视觉引导点vguide的测地距离,且1≤guide≤nver,μ是参数,用来控制特征值随测地距离改变的速率,设置μ等于其他顶点到视觉引导点的最大距离:
μμmaxj{dj,guide},
其中,dj,guide表示顶点vj到视觉引导点vguide的测地距离且1≤j≤nver;计算雕塑骨架点对由视觉引导点产生的特征空间中顶点vi的特征值的影响:
其中,表示顶点vi到第l个雕塑骨架点的测地距离且1≤l≤nske,nske表示雕塑骨架点的数目,α是参数,用来控制雕塑骨架点对特征值随着测地距离改变的速率,设置α=1;
在特征空间中,每个顶点的特征值ξ定义为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410093523.5A CN103914873B (zh) | 2014-03-13 | 2014-03-13 | 一种根据人体动作驱动的雕塑三维模型生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410093523.5A CN103914873B (zh) | 2014-03-13 | 2014-03-13 | 一种根据人体动作驱动的雕塑三维模型生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103914873A true CN103914873A (zh) | 2014-07-09 |
CN103914873B CN103914873B (zh) | 2016-07-06 |
Family
ID=51040526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410093523.5A Expired - Fee Related CN103914873B (zh) | 2014-03-13 | 2014-03-13 | 一种根据人体动作驱动的雕塑三维模型生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103914873B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107274467A (zh) * | 2017-06-29 | 2017-10-20 | 厦门游亨世纪科技有限公司 | 一种基于Unity3D的模型动画联动方法 |
CN107577451A (zh) * | 2017-08-03 | 2018-01-12 | 中国科学院自动化研究所 | 多Kinect人体骨架坐标变换方法及处理设备、可读存储介质 |
WO2018045670A1 (zh) * | 2016-09-09 | 2018-03-15 | 华南理工大学 | 基于自然手势的虚拟数字雕塑方法 |
CN108520684A (zh) * | 2018-04-09 | 2018-09-11 | 天津慧医谷科技有限公司 | 一种基于三维的中医经脉描绘练习方法及练习系统 |
CN112668550A (zh) * | 2021-01-18 | 2021-04-16 | 沈阳航空航天大学 | 基于关节点-深度联合关注rgb模态数据的双人交互行为识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120050256A1 (en) * | 2010-09-01 | 2012-03-01 | Disney Enterprises, Inc. | System and method for virtual camera control using motion control systems for augmented three dimensional reality |
CN103325142A (zh) * | 2013-05-29 | 2013-09-25 | 南京大学 | 一种基于Kinect的计算机三维模型建模方法 |
-
2014
- 2014-03-13 CN CN201410093523.5A patent/CN103914873B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120050256A1 (en) * | 2010-09-01 | 2012-03-01 | Disney Enterprises, Inc. | System and method for virtual camera control using motion control systems for augmented three dimensional reality |
CN103325142A (zh) * | 2013-05-29 | 2013-09-25 | 南京大学 | 一种基于Kinect的计算机三维模型建模方法 |
Non-Patent Citations (2)
Title |
---|
张顺: "基于运动的感知用户界面模型及其应用", 《中国博士学位论文全文数据库(信息科技辑)》 * |
童晶: "基于深度相机的三维物体与人体扫描重建", 《中国博士学位论文全文数据库(信息科技辑)》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018045670A1 (zh) * | 2016-09-09 | 2018-03-15 | 华南理工大学 | 基于自然手势的虚拟数字雕塑方法 |
CN107274467A (zh) * | 2017-06-29 | 2017-10-20 | 厦门游亨世纪科技有限公司 | 一种基于Unity3D的模型动画联动方法 |
CN107577451A (zh) * | 2017-08-03 | 2018-01-12 | 中国科学院自动化研究所 | 多Kinect人体骨架坐标变换方法及处理设备、可读存储介质 |
CN108520684A (zh) * | 2018-04-09 | 2018-09-11 | 天津慧医谷科技有限公司 | 一种基于三维的中医经脉描绘练习方法及练习系统 |
CN112668550A (zh) * | 2021-01-18 | 2021-04-16 | 沈阳航空航天大学 | 基于关节点-深度联合关注rgb模态数据的双人交互行为识别方法 |
CN112668550B (zh) * | 2021-01-18 | 2023-12-19 | 沈阳航空航天大学 | 基于关节点-深度联合关注rgb模态数据的双人交互行为识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103914873B (zh) | 2016-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101853523B (zh) | 一种采用草图创建三维人脸模型的方法 | |
CN106023288B (zh) | 一种基于图像的动态替身构造方法 | |
CN104008564B (zh) | 一种人脸表情克隆方法 | |
CN103914873A (zh) | 一种根据人体动作驱动的雕塑三维模型生成方法 | |
US9367944B2 (en) | Tree model and forest model generating method and apparatus | |
CN103606190A (zh) | 单张人脸正面照片自动转换为三维人脸模型的方法 | |
CN102306386B (zh) | 从单张树木图像快速构建真实感树木模型的方法 | |
CN103678769B (zh) | 基于人体骨架与二维形变的真实感服装创建方法 | |
CN106504329B (zh) | 一种基于牙体长轴的质点弹簧模型的牙龈变形仿真方法 | |
CN103208133A (zh) | 一种图像中人脸胖瘦的调整方法 | |
CA2772530C (en) | Hair meshes | |
CN102332180A (zh) | 一种基于立体裁剪的三维服装造型与纸样设计方法 | |
CN104103090A (zh) | 图像处理方法、个性化人体显示方法及其图像处理系统 | |
CN102521869A (zh) | 一种几何特征引导的三维模型表面纹理空洞填补方法 | |
CN107067393A (zh) | 一种基于用户交互和形状先验知识的三维医学图像分割方法 | |
CN105225272B (zh) | 一种基于多轮廓线三角网重构的三维实体建模方法 | |
US10137616B2 (en) | Fabricating lightweight skin systems for large scale robotic characters | |
CN103632394A (zh) | 一种特征保持的模型简化方法 | |
CN101276483B (zh) | 一种实现平移敏感的Laplacian网格编辑方法 | |
KR102181161B1 (ko) | 영상 처리 방법 및 장치 | |
CN103793552A (zh) | 一种软组织形变的局部质点弹簧模型的实时动态生成方法 | |
CN104091318B (zh) | 一种中国手语视频过渡帧的合成方法 | |
CN109064547B (zh) | 一种基于数据驱动的单幅图像头发重建方法 | |
Nam et al. | SPACESKETCH: Shape modeling with 3D meshes and control curves in stereoscopic environments | |
CN104143211B (zh) | 基于单幅图像的三维自由形体生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160706 Termination date: 20180313 |