CN104376309A - 一种基于手势识别的手势运动基元模型结构化方法 - Google Patents
一种基于手势识别的手势运动基元模型结构化方法 Download PDFInfo
- Publication number
- CN104376309A CN104376309A CN201410706278.0A CN201410706278A CN104376309A CN 104376309 A CN104376309 A CN 104376309A CN 201410706278 A CN201410706278 A CN 201410706278A CN 104376309 A CN104376309 A CN 104376309A
- Authority
- CN
- China
- Prior art keywords
- gesture
- images
- gesture motion
- image
- gestures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/10—Recognition assisted with metadata
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种基于手势识别的手势运动基元模型结构化方法,包括利用视频或图像采集装置获取手势图像,进行预处理,将人物图像按照轮廓、颜色、纹理分割为轮廓图像、颜色图像和纹理图像;将经过处理的轮廓图像、颜色图像和纹理图像进行再合成,建立手势图像数据库;基于手势图像数据库中的手势图像,建立与手势图像匹配的手势运动基元模型。基于手势识别的手势运动基元模型结构化方法基于真人图像建立,画面生动真实,并且虚拟人模型灵活多变,能够直观、生动的方式表现手势动作。
Description
技术领域
本发明涉及手势动画研究领域,更具体地说涉及到手势动画基本动作单元及其结构化描述研究。
背景技术
语言伴随性手势合成是以自然语言理解为基础,使用手势作为虚拟人语言信息表达的辅助输出方式。已有手势合成研究主要集中在以自然文本汉语词与手语词映射为基础的手语动画合成,并未考虑语言伴随手势,使得虚拟人类似于机器人一样机械运动,无法满足人机交互的智能性和交互性要求,在交互性和真实感方面还有可待提升。在人机交互过程中,通过语言伴随性手势合成研究能够为人机交互中手势和语音协同表达表达提供解决方案,提高手势动画的真实感,实现虚拟人生动、形象、直观的视觉运动效果。
手势识别主要是通过分析手势具有的各种特征实现对手势的判断,这些特征主要包括颜色特征、文理特征、形状特征、轮廓特征及动态手势具有的运动特征等。目前,手势识别系统主要分为基于数据手套的识别系统和基于视觉的识别系统。基于数据手套的识别系统主要通过传感器获取人手运动的信号,这种方式更有利于获取手势运动信息;然而,这些设备价格非常昂贵而且在使用这些设备的同时往往给用户带来诸多不便。但是,基于视觉的识别系统由于不需要价格昂贵的硬件设备,因此越来越适合人机交互技术。早期的基于视觉的手势识别系统往往需要对手势进行标记然后再进行图像处理;然而,目前基于视觉的手势识别系统主要是利用手势特征如手势颜色、手势形状、手势轮廓或其他深度信息进行识别。基于视觉的手势识别系统可以识别输入视频中的不同手势,并且用这些手势作为计算机的人工输入命令,并且可以建立包括有完整人物及其手势的图库、并且这种手势识别系统由于设备简单,因而使用方便有效。基于视觉的手势识别系统为人机交互提供了一种直观的交流方式。
语言伴随性手势作为一种动作语言,是手和手臂运动的统一,需要计算机动画来实现具体动作。人体的外形主要有皮肤和所附着骨骼肌肉运动决定的,因此,在描述手势动作之前必须先建立一个静态几何模型,通过激活具有大量关节的复杂模型,根据决定运动的几个主关节的最终角度可以确定手臂运动,从而创建精确灵活的基本手势动作单元——手势运动基元。根据伴随语言学和统计学分析,基于语言连贯表达的手势运动基元连接能够实现的手势和有声语言的协同表达,提高运动合成效果和真实感。然而,目前虚拟人并非基于真人图像建立,不够生动真实,并且虚拟人模型固定,无法根据环境和需要进行变换。
发明内容
本发明的目的在于克服现有技术的不足,提供了一种基于真人图像建立,画面生动真实,并且虚拟人模型灵活多变,能够直观、生动的方式表现手势动作的基于手势识别的手势运动基元模型结构化方法,并且云数据库单元的使用,使得数据备份份数更多,更有保障,利用了云计算端大的存储容量,优越的运算能力和更广的数据网络,功能更加强大,结合远程客户端,可以对数据进行自定义编辑后更新,操作和查询更加方便,可控性更强,更加灵活多变,适应性更强。
基于手势识别的手势运动基元模型结构化方法,依次包括以下步骤:
(1)利用视频或图像采集装置获取一个或多个分辨率为N×M的手势图像,对一个或多个手势图像进行预处理,将一个或多个手势图像中的人物图像提取出来,删除除了人物图像部分之外的背景图像;
(2)对提取后的人物图像进行去噪处理,消除传输和采集过程中的噪声干扰,之后将去噪后的人物图像按照轮廓、颜色、纹理分割为轮廓图像、颜色图像和纹理图像;
(3)对轮廓图像进行修正,进行平滑处理;
(4)将颜色图像按照RGB图像的R、G、B三个分量通道进行分解,分别将三个分量通道中的每一个像素与其邻近的8个像素构成3×3的像素块,按照如下公式分别得到处理后的每一个像素分别对应的R、G、B三个分量的值:
Pij(R)、Pij(G)、Pij(B)分别为经过处理后的R、G、B三个分量通道中的像素值,Pij为R、G、B三个分量通道中对应第i行、第j列的像素值,其中i=1,2,…,N,j=1,2,…,M;
(5)将经过处理后的R、G、B三个分量通道中的像素值进行分配,合成经过处理后的颜色图像;
(6)对纹理图像进行修正,进行平滑处理;
(7)将经过处理的轮廓图像、颜色图像和纹理图像进行再合成,建立手势图像数据库;
(8)基于手势图像数据库中的手势图像,按照身体的生理结构以及各个关节运动时的约束关系,以关键帧的方式建立手势动作的基本单位,并且描述所述基本单位的时序变化信息,建立与手势图像匹配的手势运动基元模型;
(9)将手势运动基元模型和图像数据库中的手势图像对应合成,建立虚拟人数据库;
(10)将虚拟人数据库中的数据上传至云数据库单元,所述云数据库单元将接收到的数据存储后作为备份数据,供远程客户端下载;远程客户端下载云数据库单元中存储的数据,进行自定义编辑,将自定义编辑后的数据回传至虚拟人数据库,对虚拟人数据库中的数据进行更新。
附图说明
图1上肢骨骼构成示意图
图2手臂活动自由度示意图
图3带有起始和恢复姿态的手势运动基元示意图。
图4手势运动基元的关键帧标注示意图
具体实施方式
下面详细说明本发明的具体实施,有必要在此指出的是,以下实施只是用于本发明的进一步说明,不能理解为对本发明保护范围的限制,该领域技术熟练人员根据上述本发明内容对本发明做出的一些非本质的改进和调整,仍然属于本发明的保护范围。
本发明提供了一种基于手势识别的手势运动基元模型结构化方法,依次包括以下步骤:
(1)利用视频或图像采集装置获取一个或多个分辨率为N×M的手势图像,对一个或多个手势图像进行预处理,将一个或多个手势图像中的人物图像提取出来,删除除了人物图像部分之外的背景图像;
(2)对提取后的人物图像进行去噪处理,消除传输和采集过程中的噪声干扰,之后将去噪后的人物图像按照轮廓、颜色、纹理分割为轮廓图像、颜色图像和纹理图像;
(3)对轮廓图像进行修正,进行平滑处理;
(4)将颜色图像按照RGB图像的R、G、B三个分量通道进行分解,分别将三个分量通道中的每一个像素与其邻近的8个像素构成3×3的像素块,按照如下公式分别得到处理后的每一个像素分别对应的R、G、B三个分量的值:
Pij(R)、Pij(G)、Pij(B)分别为经过处理后的R、G、B三个分量通道中的像素值,Pij为R、G、B三个分量通道中对应第i行、第j列的像素值,其中i=1,2,…,N,j=1,2,…,M;
(5)将经过处理后的R、G、B三个分量通道中的像素值进行分配,合成经过处理后的颜色图像;
(6)对纹理图像进行修正,进行平滑处理;
(7)将经过处理的轮廓图像、颜色图像和纹理图像进行再合成,建立手势图像数据库;
(8)基于手势图像数据库中的手势图像,按照身体的生理结构以及各个关节运动时的约束关系,以关键帧的方式建立手势动作的基本单位,并且描述所述基本单位的时序变化信息,建立与手势图像匹配的手势运动基元模型;
(9)将手势运动基元模型和图像数据库中的手势图像对应合成,建立虚拟人数据库;
(10)将虚拟人数据库中的数据上传至云数据库单元,所述云数据库单元将接收到的数据存储后作为备份数据,供远程客户端下载;远程客户端下载云数据库单元中存储的数据,进行自定义编辑,将自定义编辑后的数据回传至虚拟人数据库,对虚拟人数据库中的数据进行更新。
所述步骤(9)中还包括将虚拟人手势动作划分为三类:指向性手势动作、节拍性手势动作、描述性手势动作。
所述约束关系包括采用四元数表示关节旋转。
所述步骤(8)中以关键帧的方式建立手势动作的基本单位,并且描述所述基本单位的时序变化信息,建立与手势图像匹配的手势运动基元模型步骤中,还包括为手势运动基元模型中的关键帧添加flag标记位,将手势运动基元按具有时间次序关键帧标注“start”,“prepare”,“achieve_goal”,“release_goal”,“end”,并且将每个手势运动基元分解为四个运动时段:准备阶段、伸出阶段、后伸出阶段、恢复阶段。
手势图像釆集是本发明方法的关键,一般通过视频或图像釆集设备对手势图形进行采集,从而提取手势视频流或手势图像。手势图像预处理是手势分割与手势分析的前提与基础。一般手势图像预处理主要是为了消除图像在传输和釆集过程中所产生的干扰,从而为后续工作打好基础。
计算机的色彩显示基本原理与彩色的电视机显示色彩基本原理一样,都是通过R、G、B相加混色原理,通过发射不同强度的三种电子束,使屏幕内覆盖的蓝、红、绿的憐光材料通过发光而产生色彩。该色彩表示法称为RGB颜色空间表示。在多媒体的计算机技术里,RGB色彩空间表示是最常用的颜色空间。RGB颜色空间是基于自然界中三种基色光的加法混合原理,将Red、Green、Blue三种基色按照从黑色(灰度值为0)到白色(灰度值为255)的亮度值在三个颜色通道中分配,从而确定色彩,由于RGB颜色空间中的三个分量R、G、B有255个等级,通过RGB三个分量的组合可以产生256*256*256种颜色,因此,RGB颜色空间是广泛应用于数字图像处理与存储的颜色空间之一。在RGB色彩空间中,任意色光F都可以用R、G、B三种分量相加混合而成,其中,当R、G、B三基色分量最弱(为0)时,混合为黑色光,当R、G、B三基色分量最强(为255)时,混合为白色光。RGB颜色空间如图2-4所示,三个轴分别对应R、G、B三分量,原点对应R、G、B值为0的点即黑色,与原点对应的顶点为纯白色。过原点的对角线对应从黑色到白色的灰度值变化。而立方体内(包含立方体表面)的点都是256*256*256种颜色中的一种,用从原点到该点的矢量表示。本发明通过特殊的图像处理方式,使得经过处理后的手势图像,颜色失真更小,颜色更加真实,具体通过将颜色图像按照RGB图像的R、G、B三个分量通道进行分解,分别将三个分量通道中的每一个像素与其邻近的8个像素构成3×3的像素块,按照如下公式分别得到处理后的每一个像素分别对应的R、G、B三个分量的值:
Pij(R)、Pij(G)、Pij(B)分别为经过处理后的R、G、B三个分量通道中的像素值,Pij为R、G、B三个分量通道中对应第i行、第j列的像素值,其中i=1,2,…,N,j=1,2,…,M;
此外,在人体运动分析中,通常将人的身体抽象为简单刚体,关节抽象为球体,用各关节之间的相对位置和姿态变化描述人体运动,这种模型称为人体骨架模型。本发明的手势动画是以虚拟人作为运动载体的,因而,人体骨架模型对本文研究的手势运动表示是至关重要的。
人体骨骼模型中各骨骼之间通过旋转关节相互连接,旋转关节之间满足相关约束不能进行相互变换,进而整个人体骨架有一个统一的位置和朝向。所有刚性子段的长度和关节点的三维坐标决定了人体运动的状态,当前关节位置或姿态发生变化时,依附于该关节的身体段以及其子关节也随之变化。我们可以计算人体关节点的当前位置实现角色模型的运动姿态转换。
人体上肢同样由多个关节连接而成,结构灵活。大致来说,上肢包括肩关节,上臂,肘关节,前臂,腕关节和手部。肩关节连接上臂和躯体,肘关节连接前臂和上臂,腕关节连接手和前臂。因此,人体手臂几何模型包括手臂几何建模和手臂关节运动约束。
本发明假设上肢和手指是刚性的,它们是由一个个关节连接起来的刚体,在运动过程中形状是固定,这样可以对它们进行建模,将自由上肢部分的关节简化成父子节点关系,如附图1所示单只手臂有18个关节,不计整个手臂三维空间位置的6个自由度及其约束影响,共包含28个自由度,即关节转角变量。
相对于手指动画而言,手臂运动对手势动作真实感影响较大,在实际应用中往往需要进行插值平滑处理。当忽略手部关节时,手臂基础建模可简单地视为具有7个DOF的关节模型,如附图2所示。其中,肩部包含3个DOF(肩关节的屈伸,旋内旋外,外摆内敛),肘部包含1个DOF(肘关节屈伸),前臂1个DOF(内旋),腕部包含3个DOF(手腕的屈伸,旋内旋外,外展内敛)。手臂的形态或姿态定义为7个关节旋转角的集合,并且每一个关节旋转角与上肢运动模型中7个自由度一一对应。
基于上肢的生理结构,上肢的关节运动必须符合一定的约束关系,正是这些约束关系的存在才使得上肢以自然的方式运动。手臂模型中前臂旋转与腕部关联,若不加以限制前臂旋转将会产生问题。因为在现实世界中,类似于大多数人物角色的DOF,前臂旋转并非与局部关节关联,当两块前臂骨骼(桡骨和尺骨)围绕彼此旋转时,其旋转行为将沿前臂自身方向分布。以站立手臂时手臂垂直为初始状态,人体上肢各关节活动范围如表1。
表1上肢关节运动范围
手势合成是一种以虚拟人连续的手臂动作运动序列来增强语言信息表达的技术。在分析有声语言的语音结构时,可以找到最小的表示单位是音位。通过音位有机嵌套可定义各种有声语言的语素、词句、段落。同样地,Stokoe等人曾指出手势也存在类似的“语音单位”,可以由有限的手势要素(chereme)在运动中反复出现,分别定义为:手臂姿态、位置、运动
手势运动基元表示形式,从运动学角度,将手臂运动简化为手臂关节运动,定义上肢关节链所有可能的姿态向量空间为该上肢关节链的运动空间。运动空间的每一个向量定义了上肢关节链的一种状态,通过一组独立的位置、朝向及旋转角度等参数唯一确定。通过指定角色上肢关节自由度可以确定一个静态手势,本发明使用静态手势序列定义一个手势运动基元。在28个手臂关节自由度中,除了其余手指的近端关节和远端关节都有2/3的角度线性相关,所以只需要其中一个关节的自由度就可以角度的线性变换方法计算出另一关节的旋转角度,因此,单只手臂姿态可以由24个关节自由度参数唯一确定。根据运动原理,人体的父关节运动影响子关节运动,而子关节本身又可根据自身特征进行运动而不受父关节运动的影响,如小臂转动动作。本发明采用四元数表示关节旋转能够有效避免欧拉角表示人体关节旋转所产生的万象锁等奇异性问题。令ξi=[xi1,xi2,…,xis]为记录一个手臂关节运动的特征向量,其中xik表示该关节的在目标空间中的特征值,s表示关节特征值个数(自由度)。手臂姿态向量G表示如下:
G={ξ1,ξ2,ξ3,…,ξn,sim,flag} (1)
其中,n表示手臂关节特征向量数目,且特征向量且顺序是确定的,sim保存手势运动基元当前姿态和前一个相邻姿态的相似度,flag是基于任务目标的手势运动基元结构化标记,实现对运动基元的运动时段划分。则包含m个关键帧的手势运动基元Φ可表示为:
Φ={G1,G2,…,Gm} (2)
手臂姿态可由一组向量唯一确定,不同手臂姿态可通过改变左右手臂关节的旋转角参数来实现,将这些不同的手臂姿态连接起来便可生成相应的手势动作。
手势运动基元中动作分类,本发明根据手臂运动特征将虚拟人手势动作划分为三类:
第一类是指向性手势动作,用手指向某个物体或位置的手势(如用手指向这、那等指向动作);
第二类是节拍性手势动作,即手指或手掌上下点击或左右摆动的手势(例如虚拟人在列举某学校的地址、电话、招生人数等);
第三类是描述性手势动作,即手型或胳膊的运动象征某种物体、行为、概念或关系(如示意某物体宽度、长度等信息)。
本发明通过对手势如何伴随着语言内容的不同而不同进行分析,并对所有语言伴随性手势运动基元进行反复研究发现每个运动基元大都遵循以下规律:手势动作从休息位置(一种常见手势运动起始位置,如双手臂下垂的静止站立姿态)开始远离休息位置、达到运动目标最后回到休息位置。附图3展示了手势运动基元中的手臂运动规律。
本发明根据手势运动特点和运动任务目标原理,提出了一种关键帧标注的手势运动基元结构化描述方法,为手势运动基元模型中的关键帧添加了flag标记位,将手势运动基元按具有时间次序关键帧标注“start”,“prepare”,“achieve_goal”,“release_goal”,“end”将每个手势运动基元分解为四个运动时段:
准备阶段:手势开始展开;
伸出阶段:手势动作努力达到任务目标;
后伸出阶段:手势动作完成任务目标释放;
恢复阶段:手势最终回到休息位置;
附图4展示了基于关键帧标注运动时段的手势运动基元结构化形式。
该方法能够为运动合成提供运动过渡信息实现运动基元的最优过渡点定位,可以保证手势运动基元在正确的时间进行运动合成。否则,我们很可能会将一个动作的“achieve_goal”之前的运动阶段与另一个动作的“release_goal”之后的运动阶段进行合成,这将会造成运动变形严重甚至是无法合成运动的情况。
尽管为了说明的目的,已描述了本发明的示例性实施方式,但是本领域的技术人员将理解,不脱离所附权利要求中公开的发明范围和精神的情况下,可以在形式和细节上进行各种修改、添加和替换等的改变,而所有这些改变都应属于本发明所附权利要求的保护范围,并且本发明要求保护的产品各个部门和方法中的各个步骤,可以以任意组合的形式组合在一起。因此,对本发明中所公开的实施方式的描述并非为了限制本发明的范围,而是用于描述本发明。相应地,本发明的范围不受以上实施方式的限制,而是由权利要求或其等同物进行限定。
Claims (4)
1.一种基于手势识别的手势运动基元模型结构化方法,其特征在于,依次包括以下步骤:
(1)利用视频或图像采集装置获取一个或多个分辨率为N×M的手势图像,对一个或多个手势图像进行预处理,将一个或多个手势图像中的人物图像提取出来,删除除了人物图像部分之外的背景图像;
(2)对提取后的人物图像进行去噪处理,消除传输和采集过程中的噪声干扰,之后将去噪后的人物图像按照轮廓、颜色、纹理分割为轮廓图像、颜色图像和纹理图像;
(3)对轮廓图像进行修正,进行平滑处理;
(4)将颜色图像按照RGB图像的R、G、B三个分量通道进行分解,分别将三个分量通道中的每一个像素与其邻近的8个像素构成3×3的像素块,按照如下公式分别得到处理后的每一个像素分别对应的R、G、B三个分量的值:
Pij(R)、Pij(G)、Pij(B)分别为经过处理后的R、G、B三个分量通道中的像素值,Pij为R、G、B三个分量通道中对应第i行、第j列的像素值,其中i=1,2,…,N,j=1,2,…,M;
(5)将经过处理后的R、G、B三个分量通道中的像素值进行分配,合成经过处理后的颜色图像;
(6)对纹理图像进行修正,进行平滑处理;
(7)将经过处理的轮廓图像、颜色图像和纹理图像进行再合成,建立手势图像数据库;
(8)基于手势图像数据库中的手势图像,按照身体的生理结构以及各个关节运动时的约束关系,以关键帧的方式建立手势动作的基本单位,并且描述所述基本单位的时序变化信息,建立与手势图像匹配的手势运动基元模型;
(9)将手势运动基元模型和图像数据库中的手势图像对应合成,建立虚拟人数据库;
(10)将虚拟人数据库中的数据上传至云数据库单元,所述云数据库单元将接收到的数据存储后作为备份数据,供远程客户端下载;远程客户端下载云数据库单元中存储的数据,进行自定义编辑,将自定义编辑后的数据回传至虚拟人数据库,对虚拟人数据库中的数据进行更新。
2.如权利要求1所述的基于手势识别的手势运动基元模型结构化方法,其特征在于:所述步骤(9)中还包括将虚拟人手势动作划分为三类:指向性手势动作、节拍性手势动作、描述性手势动作。
3.如权利要求1所述的基于手势识别的手势运动基元模型结构化方法,其特征在于:所述约束关系包括采用四元数表示关节旋转。
4.如权利要求1所述的基于手势识别的手势运动基元模型结构化方法,其特征在于:所述步骤(8)中以关键帧的方式建立手势动作的基本单位,并且描述所述基本单位的时序变化信息,建立与手势图像匹配的手势运动基元模型步骤中,还包括为手势运动基元模型中的关键帧添加flag标记位,将手势运动基元按具有时间次序关键帧标注“start”,“prepare”,“achieve_goal”,“release_goal”,“end”,并且将每个手势运动基元分解为四个运动时段:准备阶段、伸出阶段、后伸出阶段、恢复阶段。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410706278.0A CN104376309B (zh) | 2014-11-27 | 2014-11-27 | 一种基于手势识别的手势运动基元模型结构化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410706278.0A CN104376309B (zh) | 2014-11-27 | 2014-11-27 | 一种基于手势识别的手势运动基元模型结构化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104376309A true CN104376309A (zh) | 2015-02-25 |
CN104376309B CN104376309B (zh) | 2018-12-25 |
Family
ID=52555207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410706278.0A Active CN104376309B (zh) | 2014-11-27 | 2014-11-27 | 一种基于手势识别的手势运动基元模型结构化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104376309B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106250903A (zh) * | 2016-04-15 | 2016-12-21 | 广东工业大学 | 有限的用户自定义手势语义的手势知识库创建方法 |
CN108496166A (zh) * | 2016-01-26 | 2018-09-04 | 无限增强现实以色列有限公司 | 用于生成姿势和手势的综合数据库的方法和系统 |
CN109308438A (zh) * | 2017-07-28 | 2019-02-05 | 上海形趣信息科技有限公司 | 动作识别库的建立方法、电子设备、存储介质 |
CN109410276A (zh) * | 2018-11-01 | 2019-03-01 | 北京达佳互联信息技术有限公司 | 关键点位置确定方法、装置及电子设备 |
CN109992093A (zh) * | 2017-12-29 | 2019-07-09 | 博世汽车部件(苏州)有限公司 | 一种手势比较方法以及手势比较系统 |
CN110796064A (zh) * | 2019-10-25 | 2020-02-14 | 清华大学 | 人体肌肉图像的建立方法、装置、存储介质及电子设备 |
CN111552368A (zh) * | 2019-05-16 | 2020-08-18 | 毛文涛 | 一种车载人机交互方法及车载设备 |
CN113496165A (zh) * | 2020-04-01 | 2021-10-12 | 北京海益同展信息科技有限公司 | 用户手势识别方法、装置、手部智能穿戴设备及存储介质 |
US11426875B2 (en) * | 2014-08-25 | 2022-08-30 | Boston Dynamics, Inc. | Natural pitch and roll |
CN116051926A (zh) * | 2023-01-12 | 2023-05-02 | 北京百度网讯科技有限公司 | 图像识别模型的训练方法、图像识别方法和装置 |
CN116311385A (zh) * | 2023-05-18 | 2023-06-23 | 山东睿芯半导体科技有限公司 | 手势识别芯片及其手势识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101727766A (zh) * | 2009-12-04 | 2010-06-09 | 哈尔滨工业大学深圳研究生院 | 基于虚拟人的手语新闻播报方法 |
CN101958007A (zh) * | 2010-09-20 | 2011-01-26 | 南京大学 | 一种采用草绘的三维动画姿态建模方法 |
CN103136780A (zh) * | 2013-03-18 | 2013-06-05 | 北京工业大学 | 基于关键帧的手语语流音变动画合成方法 |
US20140105453A1 (en) * | 2012-10-08 | 2014-04-17 | Pixart Imaging Inc. | Gesture identification with natural images |
-
2014
- 2014-11-27 CN CN201410706278.0A patent/CN104376309B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101727766A (zh) * | 2009-12-04 | 2010-06-09 | 哈尔滨工业大学深圳研究生院 | 基于虚拟人的手语新闻播报方法 |
CN101958007A (zh) * | 2010-09-20 | 2011-01-26 | 南京大学 | 一种采用草绘的三维动画姿态建模方法 |
US20140105453A1 (en) * | 2012-10-08 | 2014-04-17 | Pixart Imaging Inc. | Gesture identification with natural images |
CN103136780A (zh) * | 2013-03-18 | 2013-06-05 | 北京工业大学 | 基于关键帧的手语语流音变动画合成方法 |
Non-Patent Citations (1)
Title |
---|
付延强: "《基于运动基元关键帧插值的语言伴随性手势动画合成研究》", 《中国优秀硕士学位论文全文数据库(信息科技辑)》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11911916B2 (en) | 2014-08-25 | 2024-02-27 | Boston Dynamics, Inc. | Natural pitch and roll |
US11426875B2 (en) * | 2014-08-25 | 2022-08-30 | Boston Dynamics, Inc. | Natural pitch and roll |
CN108496166A (zh) * | 2016-01-26 | 2018-09-04 | 无限增强现实以色列有限公司 | 用于生成姿势和手势的综合数据库的方法和系统 |
CN108496166B (zh) * | 2016-01-26 | 2020-11-03 | 阿里巴巴(以色列)科技有限公司 | 用于生成姿势和手势的综合数据库的方法和系统 |
CN106250903A (zh) * | 2016-04-15 | 2016-12-21 | 广东工业大学 | 有限的用户自定义手势语义的手势知识库创建方法 |
CN109308438B (zh) * | 2017-07-28 | 2020-11-27 | 上海形趣信息科技有限公司 | 动作识别库的建立方法、电子设备、存储介质 |
CN109308438A (zh) * | 2017-07-28 | 2019-02-05 | 上海形趣信息科技有限公司 | 动作识别库的建立方法、电子设备、存储介质 |
CN109992093A (zh) * | 2017-12-29 | 2019-07-09 | 博世汽车部件(苏州)有限公司 | 一种手势比较方法以及手势比较系统 |
CN109992093B (zh) * | 2017-12-29 | 2024-05-03 | 博世汽车部件(苏州)有限公司 | 一种手势比较方法以及手势比较系统 |
CN109410276A (zh) * | 2018-11-01 | 2019-03-01 | 北京达佳互联信息技术有限公司 | 关键点位置确定方法、装置及电子设备 |
CN109410276B (zh) * | 2018-11-01 | 2020-10-27 | 北京达佳互联信息技术有限公司 | 关键点位置确定方法、装置及电子设备 |
CN111552368A (zh) * | 2019-05-16 | 2020-08-18 | 毛文涛 | 一种车载人机交互方法及车载设备 |
CN110796064B (zh) * | 2019-10-25 | 2022-08-23 | 清华大学 | 人体肌肉图像的建立方法、装置、存储介质及电子设备 |
CN110796064A (zh) * | 2019-10-25 | 2020-02-14 | 清华大学 | 人体肌肉图像的建立方法、装置、存储介质及电子设备 |
CN113496165A (zh) * | 2020-04-01 | 2021-10-12 | 北京海益同展信息科技有限公司 | 用户手势识别方法、装置、手部智能穿戴设备及存储介质 |
CN113496165B (zh) * | 2020-04-01 | 2024-04-16 | 京东科技信息技术有限公司 | 用户手势识别方法、装置、手部智能穿戴设备及存储介质 |
CN116051926B (zh) * | 2023-01-12 | 2024-04-16 | 北京百度网讯科技有限公司 | 图像识别模型的训练方法、图像识别方法和装置 |
CN116051926A (zh) * | 2023-01-12 | 2023-05-02 | 北京百度网讯科技有限公司 | 图像识别模型的训练方法、图像识别方法和装置 |
CN116311385B (zh) * | 2023-05-18 | 2023-08-15 | 山东睿芯半导体科技有限公司 | 手势识别芯片及其手势识别方法 |
CN116311385A (zh) * | 2023-05-18 | 2023-06-23 | 山东睿芯半导体科技有限公司 | 手势识别芯片及其手势识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104376309B (zh) | 2018-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104376309A (zh) | 一种基于手势识别的手势运动基元模型结构化方法 | |
CN104331164A (zh) | 一种基于手势识别的相似度阈值分析的手势运动平滑处理方法 | |
Zurdo et al. | Animating wrinkles by example on non-skinned cloth | |
CN109815776B (zh) | 动作提示方法和装置、存储介质及电子装置 | |
KR20190110227A (ko) | 동작 인식을 위한 가상 학습 데이터를 생성하는 방법 및 장치 | |
CN110992454A (zh) | 基于深度学习的实时动作捕捉和三维动画生成方法与装置 | |
CN110288681B (zh) | 角色模型的蒙皮方法、装置、介质及电子设备 | |
KR100782974B1 (ko) | 모션 캡춰 데이터 기반 3차원 애니메이션 구현 방법 | |
CN113496507A (zh) | 一种人体三维模型重建方法 | |
Tong et al. | Research on skeleton animation motion data based on Kinect | |
CN105045496A (zh) | 一种基于关节点变换的手势交互方法 | |
CN107038430B (zh) | 一种构造人体姿态数据样本的方法及其装置 | |
CN114821006B (zh) | 交互式间接推理的孪生体态检测方法及系统 | |
CN110751733A (zh) | 用于将3d扫描对象转换为化身的方法和装置 | |
CN106469467A (zh) | 一种基于人体功能部位的虚拟维修行为合成方法及系统 | |
CN104484034A (zh) | 一种基于手势识别的手势运动基元过渡帧定位方法 | |
US7057618B2 (en) | Patch picking methods and apparatus | |
CN116977506A (zh) | 模型动作重定向的方法、装置、电子设备及存储介质 | |
Goncalves et al. | Reach out and touch space (motion learning) | |
Bhati et al. | Analysis of design principles and requirements for procedural rigging of bipeds and quadrupeds characters with custom manipulators for animation | |
CN114581288A (zh) | 一种图像生成方法、装置、电子设备以及存储介质 | |
Zeng et al. | Motion capture and reconstruction based on depth information using Kinect | |
Garcia-Rojas et al. | An ontology of virtual humans: incorporating semantics into human shapes | |
Xia et al. | Recent advances on virtual human synthesis | |
CN110751710A (zh) | 用于将附件对象拟合到化身的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |