CN112907709B - 一种虚拟人物抓握目标物体动作的实现方法及系统 - Google Patents
一种虚拟人物抓握目标物体动作的实现方法及系统 Download PDFInfo
- Publication number
- CN112907709B CN112907709B CN202110348111.1A CN202110348111A CN112907709B CN 112907709 B CN112907709 B CN 112907709B CN 202110348111 A CN202110348111 A CN 202110348111A CN 112907709 B CN112907709 B CN 112907709B
- Authority
- CN
- China
- Prior art keywords
- virtual character
- finger
- target object
- action
- grasping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种虚拟人物抓握目标物体动作的实现方法及系统,按照以下步骤实现:步骤S1、初始化,步骤S2、获取手指数据,步骤S3、手指碰撞体计算,步骤S4、目标物体碰撞体计算,步骤S5、抓握动作计算,步骤S6、抓握动作实现模块,将记录的抓握数据与当前动作根据设置的权重值进行差值处理;将处理后的数据应用至虚拟人物模型上。本方案实现了,自动计算手部抓握任意物体的手型动作。使要实现虚拟人物抓握动作的3D动画或者游戏,在生产流程上无需制作抓握物体的手型动作。而且由于可以实现根据物体形状自动计算手型的机制,被抓握对象的尺寸也无需进行标准化,增强了可抓握对象的丰富度。
Description
技术领域
本发明涉及虚拟人物动作执行技术领域,特别是一种虚拟人物抓握目标物体动作的实现方法及系统。
背景技术
目前实现虚拟人物抓握物体的方法为使用的软件编辑的手部抓取动画。此方案缺点为需要人力进行动画编辑,和被抓取的物体尺寸必须标准化。否则使用同一个手部抓取动作,会产生穿帮的效果。
发明内容
为解决上述问题,本发明的目的是提供一种虚拟人物抓握目标物体动作的实现方法,实现虚拟人物抓握目标物体不穿帮。
本发明实施例中采用以下方案实现:提供一种虚拟人物抓握目标物体动作的实现方法,按照以下步骤实现:
步骤S1、初始化,解析虚拟人物的人体骨骼,将骨骼记录的模型手掌紧握的最大极限值显示在模型上,然后将双手每一个手指关节骨骼的四元数旋转值记录下来;
步骤S2、获取手指数据,在虚拟人物上查找绑定左手和右手的网格模型;遍历查找网格模型上所有绑定每一个手指关节骨骼的顶点,建立顶点字典以骨骼为Key将顶点根据骨骼分类存储起来;遍历顶点字典中所有顶点的网格位置,获取每个顶点相对骨骼节点的相对位置;
步骤S3、手指碰撞体计算,遍历顶点字典,计算获取手指每一个关节的半径和每一个关节的长度;根据获取的关节半径和长度,给每一节手指骨骼上建立圆柱型碰撞器;
步骤S4、目标物体碰撞体计算,获取目标物体的网格;遍历网格顶点建立网格碰撞器;
步骤S5、抓握动作计算,检测目标物体是否在可被抓取范围;在范围内则虚拟人物手掌张开至记录的最大极限值,虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作;直到所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据;
步骤S6、抓握动作实现模块,将记录的抓握数据与当前动作根据设置的权重值进行差值处理;将处理后的数据应用至虚拟人物模型上。
本发明一实施例中,所述步骤S1进一步具体为:解析虚拟人物的人体骨骼,模型手掌张开至骨骼记录的极限状态,记录模型手掌极限张开状态的手指关节骨骼的四元数旋转值;模型手掌握拳至骨骼记录的极限状态,记录手掌极限握拳状态的手指关节骨骼的四元数旋转值。
本发明一实施例中,所述步骤S5进一步具体为,
步骤S51、首先检测目标物体是否在可被抓取范围的范围内;
步骤S52、若不在可抓取范围内,则结束计算;若在范围内则虚拟人物手掌张开至记录的最大极限值,进入下一步;
步骤S53、虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作,进入下一步;
步骤S54、判断所有的手指碰撞体是否都与目标物体碰撞停止运动;若还有手指碰撞体未与目标物体碰撞则重复步骤S53;若所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据。
本发明一实施例中,所述步骤S6进一步具体为,抓握动作的权重值为1时则将处理后的数据应用再虚拟人物模型上;抓握动作权重值不为1时,则将记录的抓握数据与当前动作进行权重处理后应用再虚拟人物模型上。
本发明还提供一种虚拟人物抓握目标物体动作的系统,保证虚拟人物抓握目标物体不穿帮,所述系统包括初始化模块、获取手指数据模块、手指碰撞体计算模块、目标物体碰撞体计算模块、抓握动作计算模块,抓握动作实现模块;
所述初始模块,用于解析虚拟人物的人体骨骼,将骨骼记录的模型手掌紧握的最大极限值显示在模型上,然后将双手每一个手指关节骨骼的四元数旋转值记录下来;
所述获取手指数据模块,用于在虚拟人物上查找绑定左手和右手的网格模型;遍历查找网格模型上所有绑定每一个手指关节骨骼的顶点,建立顶点字典以骨骼为Key将顶点根据骨骼分类存储起来;遍历顶点字典中所有顶点的网格位置,获取每个顶点相对骨骼节点的相对位置;
所述手指碰撞体计算模块,用于遍历顶点字典,计算获取手指每一个关节的半径和每一个关节的长度;根据获取的关节半径和长度,给每一节手指骨骼上建立圆柱型碰撞器;
所述目标物体碰撞体计算模块,用于获取目标物体的网格;遍历网格顶点建立网格碰撞器;
所述抓握动作计算模块,用于检测目标物体是否在可被抓取范围;在范围内则虚拟人物手掌张开至记录的最大极限值,虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作;直到所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据;
所述抓握动作实现模块,用于将记录的抓握数据与当前动作根据设置的权重值进行差值处理;将处理后的数据应用至虚拟人物模型上。
本发明一实施例中,所述初始化模块进一步具体为:解析虚拟人物的人体骨骼,模型手掌张开至骨骼记录的极限状态,记录模型手掌极限张开状态的手指关节骨骼的四元数旋转值;模型手掌握拳至骨骼记录的极限状态,记录手掌极限握拳状态的手指关节骨骼的四元数旋转值。
本发明一实施例中,所述抓握动作计算模块进一步具体为,
首先检测目标物体是否在可被抓取范围的范围内;
若不在可抓取范围内,则结束计算;若在范围内则虚拟人物手掌张开至记录的最大极限值,进入下一步;
虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作,进入下一步;
判断所有的手指碰撞体是否都与目标物体碰撞停止运动;若还有手指碰撞体未与目标物体碰撞,则重复上一步;若所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据。
本发明一实施例中,所述抓握动作实现模块进一步具体为,抓握动作的权重值为1时则将处理后的数据应用再虚拟人物模型上;抓握动作权重值不为1时,则将记录的抓握数据与当前动作进行权重处理后应用再虚拟人物模型上。
本发明的有益效果:本发明提供一种虚拟人物抓握目标物体动作的实现方法,本方案实现了,自动计算手部抓握任意物体的手型动作。使要实现虚拟人物抓握动作的3D动画或者游戏,在生产流程上无需制作抓握物体的手型动作。而且由于可以实现根据物体形状自动计算手型的机制,被抓握对象的尺寸也无需进行标准化,增强了可抓握对象的丰富度。
附图说明
图1是一种虚拟人物抓握目标物体动作的实现方法的流程图。
图2是一种虚拟人物抓握目标物体动作的系统框图。
图3是抓握动作计算模块的运行流程。
图4是抓握动作实现模块的运行流程。
具体实施方式
下面结合附图对本发明做进一步说明。
请参阅图1至图4,本发明提供一种虚拟人物抓握目标物体动作的实现方法,按照以下步骤实现:
步骤S1、初始化,解析虚拟人物的人体骨骼,将骨骼记录的模型手掌紧握的最大极限值显示在模型上,然后将双手每一个手指关节骨骼的四元数旋转值记录下来;
步骤S2、获取手指数据,在虚拟人物上查找绑定左手和右手的网格模型;遍历查找网格模型上所有绑定每一个手指关节骨骼的顶点,建立顶点字典以骨骼为Key将顶点根据骨骼分类存储起来;遍历顶点字典中所有顶点的网格位置,获取每个顶点相对骨骼节点的相对位置;
步骤S3、手指碰撞体计算,遍历顶点字典,计算获取手指每一个关节的半径和每一个关节的长度;根据获取的关节半径和长度,给每一节手指骨骼上建立圆柱型碰撞器;
步骤S4、目标物体碰撞体计算,获取目标物体的Mesh网格;遍历网格顶点建立网格碰撞器;
步骤S5、抓握动作计算,检测目标物体是否在可被抓取范围;在范围内则虚拟人物手掌张开至记录的最大极限值,虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作;直到所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据;
步骤S6、抓握动作实现模块,将记录的抓握数据与当前动作根据设置的权重值进行差值处理;将处理后的数据应用至虚拟人物模型上。
本发明一实施例中,所述步骤S1进一步具体为:解析虚拟人物的人体骨骼,模型手掌张开至骨骼记录的极限状态,记录模型手掌极限张开状态的手指关节骨骼的四元数旋转值;模型手掌握拳至骨骼记录的极限状态,记录手掌极限握拳状态的手指关节骨骼的四元数旋转值。
请参阅图3,本发明一实施例中,所述步骤S5进一步具体为,
步骤S51、首先检测目标物体是否在可被抓取范围的范围内;
步骤S52、若不在可抓取范围内,则结束计算;若在范围内则虚拟人物手掌张开至记录的最大极限值,进入下一步;
步骤S53、虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作,进入下一步;
步骤S54、判断所有的手指碰撞体是否都与目标物体碰撞停止运动;若还有手指碰撞体未与目标物体碰撞则重复步骤S53;若所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据。
本发明一实施例中,所述步骤S6进一步具体为,抓握动作的权重值为1时则将处理后的数据应用再虚拟人物模型上;抓握动作权重值不为1时,则将记录的抓握数据与当前动作进行权重处理后应用再虚拟人物模型上。
本发明一实施例中,所述碰撞器使用应用此方案的游戏引擎能力,如Unity 3D 游戏引擎的碰撞器等,但并不以此为限。
请参阅图2至图4,本发明还提供一种虚拟人物抓握目标物体动作的系统,保证虚拟人物抓握目标物体不穿帮,所述系统包括初始化模块、获取手指数据模块、手指碰撞体计算模块、目标物体碰撞体计算模块、抓握动作计算模块,抓握动作实现模块;
所述初始模块,用于解析虚拟人物的人体骨骼,将骨骼记录的模型手掌紧握的最大极限值显示在模型上,然后将双手每一个手指关节骨骼的四元数旋转值记录下来;
所述获取手指数据模块,用于在虚拟人物上查找绑定左手和右手的网格模型;遍历查找网格模型上所有绑定每一个手指关节骨骼的顶点,建立顶点字典以骨骼为Key将顶点根据骨骼分类存储起来;遍历顶点字典中所有顶点的网格位置,获取每个顶点相对骨骼节点的相对位置;
所述手指碰撞体计算模块,用于遍历顶点字典,计算获取手指每一个关节的半径和每一个关节的长度;根据获取的关节半径和长度,给每一节手指骨骼上建立圆柱型碰撞器;
所述目标物体碰撞体计算模块,用于获取目标物体的Mesh网格;遍历网格顶点建立网格碰撞器;
所述抓握动作计算模块,用于检测目标物体是否在可被抓取范围;在范围内则虚拟人物手掌张开至记录的最大极限值,虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作;直到所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据;
所述抓握动作实现模块,用于将记录的抓握数据与当前动作根据设置的权重值进行差值处理;将处理后的数据应用至虚拟人物模型上。
本发明一实施例中,所述初始化模块进一步具体为:解析虚拟人物的人体骨骼,模型手掌张开至骨骼记录的极限状态,记录模型手掌极限张开状态的手指关节骨骼的四元数旋转值;模型手掌握拳至骨骼记录的极限状态,记录手掌极限握拳状态的手指关节骨骼的四元数旋转值。
请参阅图3,本发明一实施例中,所述抓握动作计算模块进一步具体为,
首先检测目标物体是否在可被抓取范围的范围内;
若不在可抓取范围内,则结束计算;若在范围内则虚拟人物手掌张开至记录的最大极限值,进入下一步;
虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作,进入下一步;
判断所有的手指碰撞体是否都与目标物体碰撞停止运动;若还有手指碰撞体未与目标物体碰撞,则重复上一步;若所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据。
请参阅图4,本发明一实施例中,所述抓握动作实现模块进一步具体为,抓握动作的权重值为1时则将处理后的数据应用再虚拟人物模型上;抓握动作权重值不为1时,则将记录的抓握数据与当前动作进行权重处理后应用再虚拟人物模型上。
本发明具有以下工作原理:
基于绑定动画骨骼的人形虚拟人物,首先查找模型上的手指并建立碰撞模型,然后通过虚拟人物的骨骼记录的每根手指可以张开的最大值,在一帧内渐变至最小值来模拟手部展开至并拢握拳的过程。当每根手指在并拢的过程中碰到要抓握的目标物体时停止运动。当所有手指都停止运动时,此时手掌状态为模拟出的抓握状态。
以上所述仅为本发明的较佳实施例,不能理解为对本申请的限制,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (8)
1.一种虚拟人物抓握目标物体动作的实现方法,包括其特征在于:按照以下步骤实现:
步骤S1、初始化,解析虚拟人物的人体骨骼,将骨骼记录的模型手掌紧握的最大极限值显示在模型上,然后将双手每一个手指关节骨骼的四元数旋转值记录下来;
步骤S2、获取手指数据,在虚拟人物上查找绑定左手和右手的网格模型;遍历查找网格模型上所有绑定每一个手指关节骨骼的顶点,建立顶点字典以骨骼为Key将顶点根据骨骼分类存储起来;遍历顶点字典中所有顶点的网格位置,获取每个顶点相对骨骼节点的相对位置;
步骤S3、手指碰撞体计算,遍历顶点字典,计算获取手指每一个关节的半径和每一个关节的长度;根据获取的关节半径和长度,给每一节手指骨骼上建立圆柱型碰撞器;
步骤S4、目标物体碰撞体计算,获取目标物体的网格;遍历网格顶点建立网格碰撞器;
步骤S5、抓握动作计算,检测目标物体是否在可被抓取范围;在范围内则虚拟人物手掌张开至记录的最大极限值,虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作;直到所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据;
步骤S6、抓握动作实现模块,将记录的抓握数据与当前动作根据设置的权重值进行差值处理;将处理后的数据应用至虚拟人物模型上。
2.根据权利要求1所述的一种虚拟人物抓握目标物体动作的实现方法,其特征在于:所述步骤S1进一步具体为:解析虚拟人物的人体骨骼,模型手掌张开至骨骼记录的极限状态,记录模型手掌极限张开状态的手指关节骨骼的四元数旋转值;模型手掌握拳至骨骼记录的极限状态,记录手掌极限握拳状态的手指关节骨骼的四元数旋转值。
3.根据权利要求1所述的一种虚拟人物抓握目标物体动作的实现方法,其特征在于:所述步骤S5进一步具体为,
步骤S51、首先检测目标物体是否在可被抓取范围的范围内;
步骤S52、若不在可抓取范围内,则结束计算;若在范围内则虚拟人物手掌张开至记录的最大极限值,进入下一步;
步骤S53、虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作,进入下一步;
步骤S54、判断所有的手指碰撞体是否都与目标物体碰撞停止运动;若还有手指碰撞体未与目标物体碰撞则重复步骤S53;若所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据。
4.根据权利要求1所述的一种虚拟人物抓握目标物体动作的实现方法,其特征在于:所述步骤S6进一步具体为,抓握动作的权重值为1时则将处理后的数据应用再虚拟人物模型上;抓握动作权重值不为1时,则将记录的抓握数据与当前动作进行权重处理后应用再虚拟人物模型上。
5.一种虚拟人物抓握目标物体动作的系统,其特征在于:所述系统包括初始化模块、获取手指数据模块、手指碰撞体计算模块、目标物体碰撞体计算模块、抓握动作计算模块,抓握动作实现模块;
所述初始化模块,用于解析虚拟人物的人体骨骼,将骨骼记录的模型手掌紧握的最大极限值显示在模型上,然后将双手每一个手指关节骨骼的四元数旋转值记录下来;
所述获取手指数据模块,用于在虚拟人物上查找绑定左手和右手的网格模型;遍历查找网格模型上所有绑定每一个手指关节骨骼的顶点,建立顶点字典以骨骼为Key将顶点根据骨骼分类存储起来;遍历顶点字典中所有顶点的网格位置,获取每个顶点相对骨骼节点的相对位置;
所述手指碰撞体计算模块,用于遍历顶点字典,计算获取手指每一个关节的半径和每一个关节的长度;根据获取的关节半径和长度,给每一节手指骨骼上建立圆柱型碰撞器;
所述目标物体碰撞体计算模块,用于获取目标物体的网格;遍历网格顶点建立网格碰撞器;
所述抓握动作计算模块,用于检测目标物体是否在可被抓取范围;在范围内则虚拟人物手掌张开至记录的最大极限值,虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作;直到所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据;
所述抓握动作实现模块,用于将记录的抓握数据与当前动作根据设置的权重值进行差值处理;将处理后的数据应用至虚拟人物模型上。
6.根据权利要求5所述的一种虚拟人物抓握目标物体动作的系统,其特征在于:所述初始化模块进一步具体为:解析虚拟人物的人体骨骼,模型手掌张开至骨骼记录的极限状态,记录模型手掌极限张开状态的手指关节骨骼的四元数旋转值;模型手掌握拳至骨骼记录的极限状态,记录手掌极限握拳状态的手指关节骨骼的四元数旋转值。
7.根据权利要求5所述的一种虚拟人物抓握目标物体动作的系统,其特征在于:所述抓握动作计算模块进一步具体为,
首先检测目标物体是否在可被抓取范围的范围内;
若不在可抓取范围内,则结束计算;若在范围内则虚拟人物手掌张开至记录的最大极限值,进入下一步;
虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作,进入下一步;
判断所有的手指碰撞体是否都与目标物体碰撞停止运动;若还有手指碰撞体未与目标物体碰撞,则重复上一步;若所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据。
8.根据权利要求5所述的一种虚拟人物抓握目标物体动作的系统,其特征在于:所述抓握动作实现模块进一步具体为,抓握动作的权重值为1时则将处理后的数据应用再虚拟人物模型上;抓握动作权重值不为1时,则将记录的抓握数据与当前动作进行权重处理后应用再虚拟人物模型上。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110348111.1A CN112907709B (zh) | 2021-03-31 | 2021-03-31 | 一种虚拟人物抓握目标物体动作的实现方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110348111.1A CN112907709B (zh) | 2021-03-31 | 2021-03-31 | 一种虚拟人物抓握目标物体动作的实现方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112907709A CN112907709A (zh) | 2021-06-04 |
CN112907709B true CN112907709B (zh) | 2023-07-25 |
Family
ID=76109730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110348111.1A Active CN112907709B (zh) | 2021-03-31 | 2021-03-31 | 一种虚拟人物抓握目标物体动作的实现方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112907709B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103729879A (zh) * | 2013-12-20 | 2014-04-16 | 浙江大学 | 基于力觉计算的虚拟手稳定抓取方法 |
CN109725782A (zh) * | 2017-10-27 | 2019-05-07 | 腾讯科技(深圳)有限公司 | 一种实现虚拟现实的方法、装置及智能设备、存储介质 |
CN110320929A (zh) * | 2019-06-04 | 2019-10-11 | 杭州电子科技大学 | 一种自主式无人机群目标跟随避障方法 |
CN110515455A (zh) * | 2019-07-25 | 2019-11-29 | 山东科技大学 | 一种基于Leap Motion和局域网内协同的虚拟装配方法 |
CN111292403A (zh) * | 2020-03-10 | 2020-06-16 | 黄海波 | 一种创建活动布娃娃的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2674913B1 (en) * | 2012-06-14 | 2014-07-23 | Softkinetic Software | Three-dimensional object modelling fitting & tracking. |
-
2021
- 2021-03-31 CN CN202110348111.1A patent/CN112907709B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103729879A (zh) * | 2013-12-20 | 2014-04-16 | 浙江大学 | 基于力觉计算的虚拟手稳定抓取方法 |
CN109725782A (zh) * | 2017-10-27 | 2019-05-07 | 腾讯科技(深圳)有限公司 | 一种实现虚拟现实的方法、装置及智能设备、存储介质 |
CN110320929A (zh) * | 2019-06-04 | 2019-10-11 | 杭州电子科技大学 | 一种自主式无人机群目标跟随避障方法 |
CN110515455A (zh) * | 2019-07-25 | 2019-11-29 | 山东科技大学 | 一种基于Leap Motion和局域网内协同的虚拟装配方法 |
CN111292403A (zh) * | 2020-03-10 | 2020-06-16 | 黄海波 | 一种创建活动布娃娃的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112907709A (zh) | 2021-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lee et al. | Model-based analysis of hand posture | |
Oprea et al. | A visually realistic grasping system for object manipulation and interaction in virtual reality environments | |
Ciocarlie et al. | Dimensionality reduction for hand-independent dexterous robotic grasping | |
Nandy et al. | Recognizing & interpreting Indian sign language gesture for human robot interaction | |
McConachie et al. | Estimating model utility for deformable object manipulation using multiarmed bandit methods | |
Skoglund et al. | Programming by demonstration of pick-and-place tasks for industrial manipulators using task primitives | |
Zhang et al. | Dextrous manipulation planning by grasp transformation | |
Arsenic | Developmental learning on a humanoid robot | |
CN112907709B (zh) | 一种虚拟人物抓握目标物体动作的实现方法及系统 | |
Hanson et al. | A neuro-symbolic humanlike arm controller for sophia the robot | |
Ikeuchi et al. | Applying learning-from-observation to household service robots: three common-sense formulation | |
Palm et al. | Recognition of human grasps by time-clustering and fuzzy modeling | |
Shi et al. | Grasping 3d objects with virtual hand in vr environment | |
Huagen et al. | Virtual grasping for virtual assembly tasks | |
Bai et al. | Coupling cloth and rigid bodies for dexterous manipulation | |
CN113703570B (zh) | 基于vr环境的虚拟手模型构建方法及系统 | |
CN114952836A (zh) | 多指手机器人抓取方法、装置与机器人系统 | |
Ehlers et al. | Self-scaling Kinematic Hand Skeleton for Real-time 3D Hand-finger Pose Estimation. | |
Singh et al. | Self-supervised 3d representation learning for robotics | |
Kaya et al. | Modeling and simulation of an anthropomorphic hand prosthesis with an object interaction | |
Chu et al. | Towards model-free markerless motion capture | |
Bonilla et al. | Advanced grasping with the Pisa/IIT SoftHand | |
Przybylski et al. | Human-inspired selection of grasp hypotheses for execution on a humanoid robot | |
CN109948579B (zh) | 一种人体肢体语言识别方法及系统 | |
Rusa´ k et al. | A new approach to interactive grasping simulation of product concepts in a virtual reality environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |