CN112907709B - 一种虚拟人物抓握目标物体动作的实现方法及系统 - Google Patents

一种虚拟人物抓握目标物体动作的实现方法及系统 Download PDF

Info

Publication number
CN112907709B
CN112907709B CN202110348111.1A CN202110348111A CN112907709B CN 112907709 B CN112907709 B CN 112907709B CN 202110348111 A CN202110348111 A CN 202110348111A CN 112907709 B CN112907709 B CN 112907709B
Authority
CN
China
Prior art keywords
virtual character
finger
target object
action
grasping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110348111.1A
Other languages
English (en)
Other versions
CN112907709A (zh
Inventor
刘德建
王赫放
吴少林
陈宏展
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujian Tianqing Online Interactive Technology Co Ltd
Original Assignee
Fujian Tianqing Online Interactive Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujian Tianqing Online Interactive Technology Co Ltd filed Critical Fujian Tianqing Online Interactive Technology Co Ltd
Priority to CN202110348111.1A priority Critical patent/CN112907709B/zh
Publication of CN112907709A publication Critical patent/CN112907709A/zh
Application granted granted Critical
Publication of CN112907709B publication Critical patent/CN112907709B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及一种虚拟人物抓握目标物体动作的实现方法及系统,按照以下步骤实现:步骤S1、初始化,步骤S2、获取手指数据,步骤S3、手指碰撞体计算,步骤S4、目标物体碰撞体计算,步骤S5、抓握动作计算,步骤S6、抓握动作实现模块,将记录的抓握数据与当前动作根据设置的权重值进行差值处理;将处理后的数据应用至虚拟人物模型上。本方案实现了,自动计算手部抓握任意物体的手型动作。使要实现虚拟人物抓握动作的3D动画或者游戏,在生产流程上无需制作抓握物体的手型动作。而且由于可以实现根据物体形状自动计算手型的机制,被抓握对象的尺寸也无需进行标准化,增强了可抓握对象的丰富度。

Description

一种虚拟人物抓握目标物体动作的实现方法及系统
技术领域
本发明涉及虚拟人物动作执行技术领域,特别是一种虚拟人物抓握目标物体动作的实现方法及系统。
背景技术
目前实现虚拟人物抓握物体的方法为使用的软件编辑的手部抓取动画。此方案缺点为需要人力进行动画编辑,和被抓取的物体尺寸必须标准化。否则使用同一个手部抓取动作,会产生穿帮的效果。
发明内容
为解决上述问题,本发明的目的是提供一种虚拟人物抓握目标物体动作的实现方法,实现虚拟人物抓握目标物体不穿帮。
本发明实施例中采用以下方案实现:提供一种虚拟人物抓握目标物体动作的实现方法,按照以下步骤实现:
步骤S1、初始化,解析虚拟人物的人体骨骼,将骨骼记录的模型手掌紧握的最大极限值显示在模型上,然后将双手每一个手指关节骨骼的四元数旋转值记录下来;
步骤S2、获取手指数据,在虚拟人物上查找绑定左手和右手的网格模型;遍历查找网格模型上所有绑定每一个手指关节骨骼的顶点,建立顶点字典以骨骼为Key将顶点根据骨骼分类存储起来;遍历顶点字典中所有顶点的网格位置,获取每个顶点相对骨骼节点的相对位置;
步骤S3、手指碰撞体计算,遍历顶点字典,计算获取手指每一个关节的半径和每一个关节的长度;根据获取的关节半径和长度,给每一节手指骨骼上建立圆柱型碰撞器;
步骤S4、目标物体碰撞体计算,获取目标物体的网格;遍历网格顶点建立网格碰撞器;
步骤S5、抓握动作计算,检测目标物体是否在可被抓取范围;在范围内则虚拟人物手掌张开至记录的最大极限值,虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作;直到所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据;
步骤S6、抓握动作实现模块,将记录的抓握数据与当前动作根据设置的权重值进行差值处理;将处理后的数据应用至虚拟人物模型上。
本发明一实施例中,所述步骤S1进一步具体为:解析虚拟人物的人体骨骼,模型手掌张开至骨骼记录的极限状态,记录模型手掌极限张开状态的手指关节骨骼的四元数旋转值;模型手掌握拳至骨骼记录的极限状态,记录手掌极限握拳状态的手指关节骨骼的四元数旋转值。
本发明一实施例中,所述步骤S5进一步具体为,
步骤S51、首先检测目标物体是否在可被抓取范围的范围内;
步骤S52、若不在可抓取范围内,则结束计算;若在范围内则虚拟人物手掌张开至记录的最大极限值,进入下一步;
步骤S53、虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作,进入下一步;
步骤S54、判断所有的手指碰撞体是否都与目标物体碰撞停止运动;若还有手指碰撞体未与目标物体碰撞则重复步骤S53;若所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据。
本发明一实施例中,所述步骤S6进一步具体为,抓握动作的权重值为1时则将处理后的数据应用再虚拟人物模型上;抓握动作权重值不为1时,则将记录的抓握数据与当前动作进行权重处理后应用再虚拟人物模型上。
本发明还提供一种虚拟人物抓握目标物体动作的系统,保证虚拟人物抓握目标物体不穿帮,所述系统包括初始化模块、获取手指数据模块、手指碰撞体计算模块、目标物体碰撞体计算模块、抓握动作计算模块,抓握动作实现模块;
所述初始模块,用于解析虚拟人物的人体骨骼,将骨骼记录的模型手掌紧握的最大极限值显示在模型上,然后将双手每一个手指关节骨骼的四元数旋转值记录下来;
所述获取手指数据模块,用于在虚拟人物上查找绑定左手和右手的网格模型;遍历查找网格模型上所有绑定每一个手指关节骨骼的顶点,建立顶点字典以骨骼为Key将顶点根据骨骼分类存储起来;遍历顶点字典中所有顶点的网格位置,获取每个顶点相对骨骼节点的相对位置;
所述手指碰撞体计算模块,用于遍历顶点字典,计算获取手指每一个关节的半径和每一个关节的长度;根据获取的关节半径和长度,给每一节手指骨骼上建立圆柱型碰撞器;
所述目标物体碰撞体计算模块,用于获取目标物体的网格;遍历网格顶点建立网格碰撞器;
所述抓握动作计算模块,用于检测目标物体是否在可被抓取范围;在范围内则虚拟人物手掌张开至记录的最大极限值,虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作;直到所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据;
所述抓握动作实现模块,用于将记录的抓握数据与当前动作根据设置的权重值进行差值处理;将处理后的数据应用至虚拟人物模型上。
本发明一实施例中,所述初始化模块进一步具体为:解析虚拟人物的人体骨骼,模型手掌张开至骨骼记录的极限状态,记录模型手掌极限张开状态的手指关节骨骼的四元数旋转值;模型手掌握拳至骨骼记录的极限状态,记录手掌极限握拳状态的手指关节骨骼的四元数旋转值。
本发明一实施例中,所述抓握动作计算模块进一步具体为,
首先检测目标物体是否在可被抓取范围的范围内;
若不在可抓取范围内,则结束计算;若在范围内则虚拟人物手掌张开至记录的最大极限值,进入下一步;
虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作,进入下一步;
判断所有的手指碰撞体是否都与目标物体碰撞停止运动;若还有手指碰撞体未与目标物体碰撞,则重复上一步;若所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据。
本发明一实施例中,所述抓握动作实现模块进一步具体为,抓握动作的权重值为1时则将处理后的数据应用再虚拟人物模型上;抓握动作权重值不为1时,则将记录的抓握数据与当前动作进行权重处理后应用再虚拟人物模型上。
本发明的有益效果:本发明提供一种虚拟人物抓握目标物体动作的实现方法,本方案实现了,自动计算手部抓握任意物体的手型动作。使要实现虚拟人物抓握动作的3D动画或者游戏,在生产流程上无需制作抓握物体的手型动作。而且由于可以实现根据物体形状自动计算手型的机制,被抓握对象的尺寸也无需进行标准化,增强了可抓握对象的丰富度。
附图说明
图1是一种虚拟人物抓握目标物体动作的实现方法的流程图。
图2是一种虚拟人物抓握目标物体动作的系统框图。
图3是抓握动作计算模块的运行流程。
图4是抓握动作实现模块的运行流程。
具体实施方式
下面结合附图对本发明做进一步说明。
请参阅图1至图4,本发明提供一种虚拟人物抓握目标物体动作的实现方法,按照以下步骤实现:
步骤S1、初始化,解析虚拟人物的人体骨骼,将骨骼记录的模型手掌紧握的最大极限值显示在模型上,然后将双手每一个手指关节骨骼的四元数旋转值记录下来;
步骤S2、获取手指数据,在虚拟人物上查找绑定左手和右手的网格模型;遍历查找网格模型上所有绑定每一个手指关节骨骼的顶点,建立顶点字典以骨骼为Key将顶点根据骨骼分类存储起来;遍历顶点字典中所有顶点的网格位置,获取每个顶点相对骨骼节点的相对位置;
步骤S3、手指碰撞体计算,遍历顶点字典,计算获取手指每一个关节的半径和每一个关节的长度;根据获取的关节半径和长度,给每一节手指骨骼上建立圆柱型碰撞器;
步骤S4、目标物体碰撞体计算,获取目标物体的Mesh网格;遍历网格顶点建立网格碰撞器;
步骤S5、抓握动作计算,检测目标物体是否在可被抓取范围;在范围内则虚拟人物手掌张开至记录的最大极限值,虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作;直到所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据;
步骤S6、抓握动作实现模块,将记录的抓握数据与当前动作根据设置的权重值进行差值处理;将处理后的数据应用至虚拟人物模型上。
本发明一实施例中,所述步骤S1进一步具体为:解析虚拟人物的人体骨骼,模型手掌张开至骨骼记录的极限状态,记录模型手掌极限张开状态的手指关节骨骼的四元数旋转值;模型手掌握拳至骨骼记录的极限状态,记录手掌极限握拳状态的手指关节骨骼的四元数旋转值。
请参阅图3,本发明一实施例中,所述步骤S5进一步具体为,
步骤S51、首先检测目标物体是否在可被抓取范围的范围内;
步骤S52、若不在可抓取范围内,则结束计算;若在范围内则虚拟人物手掌张开至记录的最大极限值,进入下一步;
步骤S53、虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作,进入下一步;
步骤S54、判断所有的手指碰撞体是否都与目标物体碰撞停止运动;若还有手指碰撞体未与目标物体碰撞则重复步骤S53;若所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据。
本发明一实施例中,所述步骤S6进一步具体为,抓握动作的权重值为1时则将处理后的数据应用再虚拟人物模型上;抓握动作权重值不为1时,则将记录的抓握数据与当前动作进行权重处理后应用再虚拟人物模型上。
本发明一实施例中,所述碰撞器使用应用此方案的游戏引擎能力,如Unity 3D 游戏引擎的碰撞器等,但并不以此为限。
请参阅图2至图4,本发明还提供一种虚拟人物抓握目标物体动作的系统,保证虚拟人物抓握目标物体不穿帮,所述系统包括初始化模块、获取手指数据模块、手指碰撞体计算模块、目标物体碰撞体计算模块、抓握动作计算模块,抓握动作实现模块;
所述初始模块,用于解析虚拟人物的人体骨骼,将骨骼记录的模型手掌紧握的最大极限值显示在模型上,然后将双手每一个手指关节骨骼的四元数旋转值记录下来;
所述获取手指数据模块,用于在虚拟人物上查找绑定左手和右手的网格模型;遍历查找网格模型上所有绑定每一个手指关节骨骼的顶点,建立顶点字典以骨骼为Key将顶点根据骨骼分类存储起来;遍历顶点字典中所有顶点的网格位置,获取每个顶点相对骨骼节点的相对位置;
所述手指碰撞体计算模块,用于遍历顶点字典,计算获取手指每一个关节的半径和每一个关节的长度;根据获取的关节半径和长度,给每一节手指骨骼上建立圆柱型碰撞器;
所述目标物体碰撞体计算模块,用于获取目标物体的Mesh网格;遍历网格顶点建立网格碰撞器;
所述抓握动作计算模块,用于检测目标物体是否在可被抓取范围;在范围内则虚拟人物手掌张开至记录的最大极限值,虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作;直到所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据;
所述抓握动作实现模块,用于将记录的抓握数据与当前动作根据设置的权重值进行差值处理;将处理后的数据应用至虚拟人物模型上。
本发明一实施例中,所述初始化模块进一步具体为:解析虚拟人物的人体骨骼,模型手掌张开至骨骼记录的极限状态,记录模型手掌极限张开状态的手指关节骨骼的四元数旋转值;模型手掌握拳至骨骼记录的极限状态,记录手掌极限握拳状态的手指关节骨骼的四元数旋转值。
请参阅图3,本发明一实施例中,所述抓握动作计算模块进一步具体为,
首先检测目标物体是否在可被抓取范围的范围内;
若不在可抓取范围内,则结束计算;若在范围内则虚拟人物手掌张开至记录的最大极限值,进入下一步;
虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作,进入下一步;
判断所有的手指碰撞体是否都与目标物体碰撞停止运动;若还有手指碰撞体未与目标物体碰撞,则重复上一步;若所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据。
请参阅图4,本发明一实施例中,所述抓握动作实现模块进一步具体为,抓握动作的权重值为1时则将处理后的数据应用再虚拟人物模型上;抓握动作权重值不为1时,则将记录的抓握数据与当前动作进行权重处理后应用再虚拟人物模型上。
本发明具有以下工作原理:
基于绑定动画骨骼的人形虚拟人物,首先查找模型上的手指并建立碰撞模型,然后通过虚拟人物的骨骼记录的每根手指可以张开的最大值,在一帧内渐变至最小值来模拟手部展开至并拢握拳的过程。当每根手指在并拢的过程中碰到要抓握的目标物体时停止运动。当所有手指都停止运动时,此时手掌状态为模拟出的抓握状态。
以上所述仅为本发明的较佳实施例,不能理解为对本申请的限制,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (8)

1.一种虚拟人物抓握目标物体动作的实现方法,包括其特征在于:按照以下步骤实现:
步骤S1、初始化,解析虚拟人物的人体骨骼,将骨骼记录的模型手掌紧握的最大极限值显示在模型上,然后将双手每一个手指关节骨骼的四元数旋转值记录下来;
步骤S2、获取手指数据,在虚拟人物上查找绑定左手和右手的网格模型;遍历查找网格模型上所有绑定每一个手指关节骨骼的顶点,建立顶点字典以骨骼为Key将顶点根据骨骼分类存储起来;遍历顶点字典中所有顶点的网格位置,获取每个顶点相对骨骼节点的相对位置;
步骤S3、手指碰撞体计算,遍历顶点字典,计算获取手指每一个关节的半径和每一个关节的长度;根据获取的关节半径和长度,给每一节手指骨骼上建立圆柱型碰撞器;
步骤S4、目标物体碰撞体计算,获取目标物体的网格;遍历网格顶点建立网格碰撞器;
步骤S5、抓握动作计算,检测目标物体是否在可被抓取范围;在范围内则虚拟人物手掌张开至记录的最大极限值,虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作;直到所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据;
步骤S6、抓握动作实现模块,将记录的抓握数据与当前动作根据设置的权重值进行差值处理;将处理后的数据应用至虚拟人物模型上。
2.根据权利要求1所述的一种虚拟人物抓握目标物体动作的实现方法,其特征在于:所述步骤S1进一步具体为:解析虚拟人物的人体骨骼,模型手掌张开至骨骼记录的极限状态,记录模型手掌极限张开状态的手指关节骨骼的四元数旋转值;模型手掌握拳至骨骼记录的极限状态,记录手掌极限握拳状态的手指关节骨骼的四元数旋转值。
3.根据权利要求1所述的一种虚拟人物抓握目标物体动作的实现方法,其特征在于:所述步骤S5进一步具体为,
步骤S51、首先检测目标物体是否在可被抓取范围的范围内;
步骤S52、若不在可抓取范围内,则结束计算;若在范围内则虚拟人物手掌张开至记录的最大极限值,进入下一步;
步骤S53、虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作,进入下一步;
步骤S54、判断所有的手指碰撞体是否都与目标物体碰撞停止运动;若还有手指碰撞体未与目标物体碰撞则重复步骤S53;若所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据。
4.根据权利要求1所述的一种虚拟人物抓握目标物体动作的实现方法,其特征在于:所述步骤S6进一步具体为,抓握动作的权重值为1时则将处理后的数据应用再虚拟人物模型上;抓握动作权重值不为1时,则将记录的抓握数据与当前动作进行权重处理后应用再虚拟人物模型上。
5.一种虚拟人物抓握目标物体动作的系统,其特征在于:所述系统包括初始化模块、获取手指数据模块、手指碰撞体计算模块、目标物体碰撞体计算模块、抓握动作计算模块,抓握动作实现模块;
所述初始化模块,用于解析虚拟人物的人体骨骼,将骨骼记录的模型手掌紧握的最大极限值显示在模型上,然后将双手每一个手指关节骨骼的四元数旋转值记录下来;
所述获取手指数据模块,用于在虚拟人物上查找绑定左手和右手的网格模型;遍历查找网格模型上所有绑定每一个手指关节骨骼的顶点,建立顶点字典以骨骼为Key将顶点根据骨骼分类存储起来;遍历顶点字典中所有顶点的网格位置,获取每个顶点相对骨骼节点的相对位置;
所述手指碰撞体计算模块,用于遍历顶点字典,计算获取手指每一个关节的半径和每一个关节的长度;根据获取的关节半径和长度,给每一节手指骨骼上建立圆柱型碰撞器;
所述目标物体碰撞体计算模块,用于获取目标物体的网格;遍历网格顶点建立网格碰撞器;
所述抓握动作计算模块,用于检测目标物体是否在可被抓取范围;在范围内则虚拟人物手掌张开至记录的最大极限值,虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作;直到所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据;
所述抓握动作实现模块,用于将记录的抓握数据与当前动作根据设置的权重值进行差值处理;将处理后的数据应用至虚拟人物模型上。
6.根据权利要求5所述的一种虚拟人物抓握目标物体动作的系统,其特征在于:所述初始化模块进一步具体为:解析虚拟人物的人体骨骼,模型手掌张开至骨骼记录的极限状态,记录模型手掌极限张开状态的手指关节骨骼的四元数旋转值;模型手掌握拳至骨骼记录的极限状态,记录手掌极限握拳状态的手指关节骨骼的四元数旋转值。
7.根据权利要求5所述的一种虚拟人物抓握目标物体动作的系统,其特征在于:所述抓握动作计算模块进一步具体为,
首先检测目标物体是否在可被抓取范围的范围内;
若不在可抓取范围内,则结束计算;若在范围内则虚拟人物手掌张开至记录的最大极限值,进入下一步;
虚拟人物手掌由最大极限值不断向最小极限值进行线性差值,当手指碰撞体与目标物体进行碰撞时,则该手指停止聚拢动作,进入下一步;
判断所有的手指碰撞体是否都与目标物体碰撞停止运动;若还有手指碰撞体未与目标物体碰撞,则重复上一步;若所有手指都停止运动时,记录当前所有手指关节骨骼四元数旋转值作为抓握数据。
8.根据权利要求5所述的一种虚拟人物抓握目标物体动作的系统,其特征在于:所述抓握动作实现模块进一步具体为,抓握动作的权重值为1时则将处理后的数据应用再虚拟人物模型上;抓握动作权重值不为1时,则将记录的抓握数据与当前动作进行权重处理后应用再虚拟人物模型上。
CN202110348111.1A 2021-03-31 2021-03-31 一种虚拟人物抓握目标物体动作的实现方法及系统 Active CN112907709B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110348111.1A CN112907709B (zh) 2021-03-31 2021-03-31 一种虚拟人物抓握目标物体动作的实现方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110348111.1A CN112907709B (zh) 2021-03-31 2021-03-31 一种虚拟人物抓握目标物体动作的实现方法及系统

Publications (2)

Publication Number Publication Date
CN112907709A CN112907709A (zh) 2021-06-04
CN112907709B true CN112907709B (zh) 2023-07-25

Family

ID=76109730

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110348111.1A Active CN112907709B (zh) 2021-03-31 2021-03-31 一种虚拟人物抓握目标物体动作的实现方法及系统

Country Status (1)

Country Link
CN (1) CN112907709B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103729879A (zh) * 2013-12-20 2014-04-16 浙江大学 基于力觉计算的虚拟手稳定抓取方法
CN109725782A (zh) * 2017-10-27 2019-05-07 腾讯科技(深圳)有限公司 一种实现虚拟现实的方法、装置及智能设备、存储介质
CN110320929A (zh) * 2019-06-04 2019-10-11 杭州电子科技大学 一种自主式无人机群目标跟随避障方法
CN110515455A (zh) * 2019-07-25 2019-11-29 山东科技大学 一种基于Leap Motion和局域网内协同的虚拟装配方法
CN111292403A (zh) * 2020-03-10 2020-06-16 黄海波 一种创建活动布娃娃的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2674913B1 (en) * 2012-06-14 2014-07-23 Softkinetic Software Three-dimensional object modelling fitting & tracking.

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103729879A (zh) * 2013-12-20 2014-04-16 浙江大学 基于力觉计算的虚拟手稳定抓取方法
CN109725782A (zh) * 2017-10-27 2019-05-07 腾讯科技(深圳)有限公司 一种实现虚拟现实的方法、装置及智能设备、存储介质
CN110320929A (zh) * 2019-06-04 2019-10-11 杭州电子科技大学 一种自主式无人机群目标跟随避障方法
CN110515455A (zh) * 2019-07-25 2019-11-29 山东科技大学 一种基于Leap Motion和局域网内协同的虚拟装配方法
CN111292403A (zh) * 2020-03-10 2020-06-16 黄海波 一种创建活动布娃娃的方法

Also Published As

Publication number Publication date
CN112907709A (zh) 2021-06-04

Similar Documents

Publication Publication Date Title
Lee et al. Model-based analysis of hand posture
Oprea et al. A visually realistic grasping system for object manipulation and interaction in virtual reality environments
Ciocarlie et al. Dimensionality reduction for hand-independent dexterous robotic grasping
Nandy et al. Recognizing & interpreting Indian sign language gesture for human robot interaction
McConachie et al. Estimating model utility for deformable object manipulation using multiarmed bandit methods
Skoglund et al. Programming by demonstration of pick-and-place tasks for industrial manipulators using task primitives
Zhang et al. Dextrous manipulation planning by grasp transformation
Arsenic Developmental learning on a humanoid robot
CN112907709B (zh) 一种虚拟人物抓握目标物体动作的实现方法及系统
Hanson et al. A neuro-symbolic humanlike arm controller for sophia the robot
Ikeuchi et al. Applying learning-from-observation to household service robots: three common-sense formulation
Palm et al. Recognition of human grasps by time-clustering and fuzzy modeling
Shi et al. Grasping 3d objects with virtual hand in vr environment
Huagen et al. Virtual grasping for virtual assembly tasks
Bai et al. Coupling cloth and rigid bodies for dexterous manipulation
CN113703570B (zh) 基于vr环境的虚拟手模型构建方法及系统
CN114952836A (zh) 多指手机器人抓取方法、装置与机器人系统
Ehlers et al. Self-scaling Kinematic Hand Skeleton for Real-time 3D Hand-finger Pose Estimation.
Singh et al. Self-supervised 3d representation learning for robotics
Kaya et al. Modeling and simulation of an anthropomorphic hand prosthesis with an object interaction
Chu et al. Towards model-free markerless motion capture
Bonilla et al. Advanced grasping with the Pisa/IIT SoftHand
Przybylski et al. Human-inspired selection of grasp hypotheses for execution on a humanoid robot
CN109948579B (zh) 一种人体肢体语言识别方法及系统
Rusa´ k et al. A new approach to interactive grasping simulation of product concepts in a virtual reality environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant