CN103226388B - 一种基于Kinect的手写方法 - Google Patents

一种基于Kinect的手写方法 Download PDF

Info

Publication number
CN103226388B
CN103226388B CN201310118074.0A CN201310118074A CN103226388B CN 103226388 B CN103226388 B CN 103226388B CN 201310118074 A CN201310118074 A CN 201310118074A CN 103226388 B CN103226388 B CN 103226388B
Authority
CN
China
Prior art keywords
model
gesture
hand
character
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310118074.0A
Other languages
English (en)
Other versions
CN103226388A (zh
Inventor
金连文
叶植超
张鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201310118074.0A priority Critical patent/CN103226388B/zh
Publication of CN103226388A publication Critical patent/CN103226388A/zh
Application granted granted Critical
Publication of CN103226388B publication Critical patent/CN103226388B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Character Discrimination (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于Kinect的手写方法,主要包括如下步骤:步骤1、捕捉视频信息;步骤2、分析处理并分割视频信息,分割得到每一帧图像里面用户的手部;步骤3、分割后的视频信息分为两个模块:手写轨迹定位和字符识别模块与手势识别和响应模块。具有书写的自由度高、使用方便和实用性强等优点。

Description

一种基于Kinect的手写方法
技术领域
本发明涉及一种计算机图像处理及模式识别技术,特别涉及一种基于Kinect的手写方法,该方法是一种空中虚拟手写的识别和交互的方法。
背景技术
纵观人机交互的发展史,我们一直在为创造一种更为自然的、用户友好的交互系统而努力,但是在现存的手写系统中,受限于硬件和软件上的制约,依然没有完全达到一种人性化的交互要求:一方面,传统的手写输入系统都需要凭借一定的介质设备,比如键盘、鼠标、电子笔、触摸屏,这种手写的行为与硬件“捆绑”在一起,一定程度上制约着我们手写的自由和应用场合;另一方面,目前国内外在类似的虚拟手写领域的尝试和研究也有不少,但是他们某种层面而言都存在一定的局限性,比如说,对应用场景要有严格的控制,要求背景干净和稳定不变;又或者需要高昂的电子设备,如高精度TOF相机、数据手套等,这些制约着他们的应用方案成为一种实用性的系统;可见现有的手写技术使用的限制很多,使用不方便,实用性差。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种基于Kinect的手写方法,该方法具有人性化程度高、用户操作友好、可以空中虚拟手写的特点。
本发明的目的通过下述技术方案实现:一种基于Kinect的手写方法,包括如下步骤:
步骤1、捕捉视频信息;
步骤2、分析处理并分割视频信息,分割得到每一帧图像里面用户的手部;
步骤3、分割后的视频信息分为两个模块:手写轨迹定位和字符识别模块与手势识别和响应模块。
所述步骤3中:
所述手写轨迹定位和字符识别模块的工作过程包括如下步骤:
(A)在人手分割的结果上进行指尖定位,并且存储定位得到的指尖位置;
(B)将一次书写检测得到的所有指尖点位置拼接起来得到一个完整字符的连笔进行字符重构,并把重构后的字符输入到字符识别引擎,以得到识别结果输出;
所述手势识别和响应模块的工作过程包括如下步骤:
(a)在人手分割的结果上提取手部信息特征,所述手部信息特征作为手势识别的输入,如果提取的所述手部信息特征的变化与预先设定的手势的变化规则一致,则可被判定为所述手势正在进行书写,所述手势识别和响应模块检测用户的手势变化作为人机交互的指令并输入手写系统从而实现手写系统的基本功能,所述手写系统包括:用户登入、落笔、抬笔、选择、删除和注销;
(b)系统检测到手势,界面做出相应响应。
所述步骤1中,采用微软的Kinect传感器来采集视频信息,所述视频信息包括彩色图像和深度图像;并利用Kinect将用户从复杂背景中分离出来。
所述步骤2中,所述分析处理并分割视频信息采用了一种混合模型的算法,所述混合模型的算法对肤色模型、深度模型和背景模型分别进行建模;所述肤色模型的分割结果、深度模型的分割结果和背景模型的分割结果被输入到神经网络的评价系统,神经网络输出肤色模型的置信系数、深度模型的置信系数和背景模型的置信系数,分割结果取决于肤色模型、深度模型和背景模型经由置信系数加权之后的综合,所述加权之后的综合指:所述肤色模型的分割结果、深度模型的分割结果和背景模型的分割结果分别乘以各自的置信系数得到三个二值图,然后把所述的三个二值图进行累加,最后把累加的结果经过一个阈值得到最终分割结果。
所述步骤2中,所使用的神经网络是一个三层感知器模型,分为输入层、隐藏层和输出层;所述肤色模型、深度模型和背景模型这三个模型分割结果的两两重叠率输入所述神经网络的输入层,重叠率越高意味着分割的结果越好,即吻合度越高;所述肤色模型的置信系数、深度模型的置信系数和背景模型的置信系数由神经网络的输出层输出,置信系数越大意味着相对应模型的可靠性越高(在最终分割结果里面占据更重要的成分);隐藏层具有20个神经元,神经网络的激活函数是sigmod函数。
所述步骤(A)中,所述指尖定位采用了双模式切换的指尖定位算法,所述双模式切换的指尖定位算法通过手部的物理模型来决定选用的模式,对不同形态角度的手部自适应地采用相应的指尖定位算法。
所述步骤(B)中,在字符重构之后,轨迹点集经由一个均值滤波做平滑,消除因为局部噪声造成的影响;对于一个完整的字符在空中手写系统中,其指尖定位算法采样为n个点,则整个字符可视作n维向量,用字母c表示,所述整个字符的表达式如下:
c=(P1,P2,P3,...,Pn),
假设Pi为第i个采样点,平滑策略为该点与邻近6个采样点取均值。经由均值滤波器得到的平滑后轨迹在每个点上的数值为:
P i = ( P i - 3 + P i - 2 + P i - 1 + P i + P i + 1 + P i + 2 + P i + 3 ) 7 P i ,
当4≤i≤n-3时,当i>n-3或i<4时Pi=Pi。所述步骤(a)中,所述提取手部信息特征采用如下特征:手心与手腕连线和垂直线形成的角度特征、手张开指尖的数目特征、掌心的位置特征和当前时间特征这4个特征,这4个特征描述了当前手的角度、手掌形态、位置还有运动状况。
所述步骤(a)中,在所述系统检测用户的手势时,自定义类似身体语言的手势动作,所述手势动作包括手的张开停顿、单指与多指的互相变换、挥手、抓取和放开。
所述步骤(a)中,自定义用户登入手势操作和注销手势操作,所述登入手势操作用于记录当前操作用户的ID并且屏蔽手势的背景,所述注销手势操作用于去掉当前操作用户的ID并且接受下一位用户的登入使用。
本发明可运用到如下应用领域:
1、体感游戏中的字符输入,如用户名,游戏角色名称,档案记录名字等。
2、未来智能电视的远程控制操作,如切换频道,搜索内容时输入关键字。
3、会议和展示中的非接触式书写和控制。
除上述的领域,本发明还可以运用到需要远程操控的其他手写输入应用的场合。
本发明的工作原理:本发明的手写系统借助微软的Kinect传感器来捕捉视角内的用户手写RGB图信息和深度图信息,分割人手和定位指尖位置,并以此还原手写轨迹,通过一个字符识别引擎输出识别的候选字,进一步地,通过检测特定的手势来实现手写系统;
本发明相对于现有技术具有如下的优点及效果:
1、书写的自由度高,使用方便;本发明的手写系统实现了一种空中虚拟手写系统,提高了手写的自由度和用户体验,更加符合自然的人机交互理念,用户可以将手指当成虚拟笔尖在空中高自由度地书写而无需接触任何硬件。
2、应用范围广,对应用场景的要求更加宽松,用户可以在Kinect的有效视场内这个大范围里面空中书写,可以抵抗复杂背景和旁人的干扰。
3、采用混合模型分割人手有利于解决传统基于视觉的分割算法面临的光线变化、脸手交叠的影响,同时也对Kinect自身采样时候彩色图信息和深度图不同步的问题有鲁棒性。
4、采用双模式切换的指尖定位算法,它可以定位高自由度的手部指尖位置。
5、定义了一套符合人的肢体语言的动作作为这个空中手写系统的人机交互手势,容易被用户掌握和使用。
6、实用性强;系统使用了当前字符识别领域主流的算法和识别引擎,它支持6763个常用汉字,26个英文(大小写)和10个数字的识别,完全可以应对正常的字符输入场合,实用性非常强。
附图说明
图1为本发明的整体框图。
图2为本发明的重构后的字符轨迹示意图。
图3为本发明的经由均值滤波器之后的字符轨迹示意图。
图4为本发明定义的空中手写系统交互手势示意图。
图5为本发明的手势检测状态转移示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,为本发明的整体框图,通过Kinect获取用户手写视频后,进行人手分割,将手部这一感兴趣区域从背景中分离,此后系统分为两个模块:手写轨迹定位与字符识别模块和手势识别与响应模块,在手写轨迹定位与字符识别模块中,对分割出来的手部进行指尖定位并且视为字符的一系列离散节点,完成一个字符的手写后,将这些节点拼接起来重构得到恢复的字符笔画,它被输入到一个字符识别引擎从而输出候选字;在手势识别与响应模块中,对分割出来的手部提取形态特征,这些特征被用来作为手势检测的依据,一旦检测到指定的手势动作,系统将做出相应的响应操作。
本实施例主要包括以下技术特征:
1、获取用户手写视频。
本发明的第一步是获取用户的手写视频,系统采用了微软的Kinect作为视频采集的传感器,它提供了帧率为30fps的大小为640*480的彩色图信息和深度图信息,可以满足一个实时手写系统的需求。深度信息的引入可以更好地辅助人手分割和指尖的定位;同时,Kinect向外提供API调用,其中包括标示当前成像位置里面哪些像素属于用户这一功能,这帮助将用户由复杂背景中分离出来。
2、人手分割。
为实现有效而鲁棒性好的人手分割,本发明采用是采用了一种混合模型的分割算法,它对肤色模型、深度模型和背景模型分别建模;鉴于肤色模型、深度模型和背景模型这三个模型各自有着自己的优点和缺陷。本系统的分割结果是三个模型的有机融合;为了评判每个模型的分割好坏,三个模型的分割结果被输入到一个神经网络的评价系统;这个神经网络的输入是三个模型分割结果的两两重叠率,重叠率越高意味着分割的结果越好,即吻合度越高。神经网络的输出是三个模型各自的置信系数,这个系数越大意味着对应模型的可靠性越高(在最终分割结果里面占据更重要的成分)。结构上,这个神经网络包括三层:输入层,隐藏层和输出层。训练阶段输入三模型分割结果的两两重叠率,输出端则通过有监督的方式指定置信系数。置信系数的选择是由人工判读决定最优解。隐藏层包括20个神经元,激活函数是sigmod函数。一旦神经网络模型训练完成,即可用作评定三模型分割结果,对不同的输入(即重叠率的不同取值),输出相应的三模型置信系数。最终的分割结果取决于三个模型经由置信系数加权之后的综合,所述加权之后的综合指:所述肤色模型的分割结果、深度模型的分割结果和背景模型的分割结果分别乘以各自的置信系数得到三个二值图,然后把所述的三个二值图进行累加,最后把累加的结果经过一个阈值得到最终分割结果。
3、手写轨迹定位与字符识别模块的指尖定位。
在指尖定位部分,采用了一种双模式切换的指尖定位算法,包括(1)“最远模式”,这种情况下,指尖可确定是在人手分割得到的结果上,有着距离手臂最大二维欧式距离的点;(2)“最前模式”,这种情况下,指尖可确定是在人手分割得到的结果上,有着距离Kinect最近距离的点。在观测和实验的基础上,通过构造一个手部的物理模型来决定选用的模式,对不同形态角度的手部自适应地采用不同的指尖定位算法。
4、手写轨迹定位与字符识别模块的轨迹重构。
在书写轨迹重构部分,将一次字符书写检测得到的所有指尖点位置拼接起来得到一个完整字符。之后点集经由一个均值滤波做平滑,消除因为局部噪声造成的影响,假设一个完整的字符在空中手写系统中被指尖定位算法采样为n个点,则整个字符可视作一个n维向量:
c=(P1,P2,P3,...,,Pn),
假设Pi为第i个采样点,平滑策略为该点与邻近6个采样点取均值。经由均值滤波器得到的平滑后轨迹在每个点上的数值为:
当4≤i≤n-3时,当i>n-3或i<4时Pi=Pi
这种平滑处理可以有效消除因为上一步指尖定位错误而引起的局部噪声,如图2所示,重构后的字符存在着一些细节局部的噪声,经由均值滤波后噪声被消除(如图3所示),但是字符的整体分布结构依然得到保留。这有利于最终的字符识别。
5、手写轨迹定位与字符识别模块的字符识别。
字符识别部分把上一步重构并经过平滑得到的手写轨迹作为输入。本系统使用了当前主流的修正的二次判决函数(MQDF)分类器,识别引擎先提取书写轨迹的8方向特征得到1024维特征向量,并经由线性判别分析(LDA)减至160维,经由压缩的MQDF分类器得到最后的识别候选字,它支持6763个常用汉字,26个英文(大小写)和10个数字的识别,完全可以应对正常的字符输入场合。
6、手势识别和响应模块模块中手的形态特征提取。
在手势识别与响应模块,首先需要提取手的形态特征,本发明提取了4个特征作为用户手的当前形态的描述:手心与手腕连线和垂直线形成的角度、手张开指尖的数目、掌心的位置和当前帧的时间。它覆盖了手的角度、手掌的形态、手掌的位置还有动态的描画,这些特征在前后帧的变化形成了一种手的动态描述:角度的改变展示了手的挥动动作,指尖数目的变化反映了手的张合,
掌心位置的变动意味着手的移动。
7、手势识别和响应模块模块的手势检测。
系统检测用户的手势作为人机交互的指令从而完成一个手写系统的基本功能,包括:用户登入、落笔、抬笔、选择、删除、注销。如图4所示,展示了空中手写系统交互手势示意图。其中登入和注销手势要求用户保持手部张开放到指定位置持续一段时间;落笔手势表示用户开始书写一个字符,相应的手势是由多指变成单指;抬笔手势表示用户书写一个字符完成,相应的手势是由单指变成多指;删除手势是用户的挥手动作,通过检测手的角度的变化和持续时间来实现;选择动作是用户把手放到候选字的选区然后抓取和放开,这通过检测掌心的位置,指尖数目的变化动态来实现;如图5所示,展示了本发明的手势检测的状态转移图,圆圈里面为手势,矩形是落笔和抬笔手势确定的用户书写阶段。
8、手势识别和响应模块中系统的交互响应。
系统检测到指定手势时候,将在界面上做出响应,例如输出候选字符,删除字符。
本实施例主要通过以下步骤实现:(1)通过Kinect捕捉视频信息,包括彩色图像,还有深度图像;(2)通过分析处理视频信息,分割得到每一帧图像里面用户的手部;分割之后分为两个模块:手写轨迹定位和字符识别模块还有手势识别和响应模块。其中手写轨迹定位和字符识别模块的步骤如下:(A)在人手分割的结果上进行指尖定位,并且存储位置;(B)将一次书写检测得到的所有指尖点位置拼接起来得到一个完整字符的连笔,输入到字符识别引擎得到识别结果输出。手势识别和响应模块的步骤如下:(a)在人手分割的结果上提取手部信息特征。这些特征作为用户手的当前状况的描述,被当做手势识别的输入特征向量。系统检测用户的手势作为人机交互的指令从而完成一个手写系统的基本功能,如图4所示,包括:用户登入、落笔、抬笔、选择、删除、注销;(b)系统检测到手势,界面做出相应响应。
上述技术方案中,所述步骤(2)的对视频人手分割的操作是采用了一种混合模型的算法,它对肤色模型、深度模型和背景模型分别建模。三个模型的分割结果被输入到一个神经网络的评价系统,神经网络输出三个模型各自的置信系数。最终的分割结果取决于三个模型经由置信系数加权之后的综合,所述加权之后的综合指:所述肤色模型的分割结果、深度模型的分割结果和背景模型的分割结果分别乘以各自的置信系数得到三个二值图,然后把所述的三个二值图进行累加,最后把累加的结果经过一个阈值得到最终分割结果。
所述步骤(2)中,所使用的神经网络是一个三层感知器模型,分为输入层、隐藏层和输出层。这个神经网络的输入是三个模型分割结果的两两重叠率,重叠率越高意味着分割的结果越好,即吻合度越高。神经网络的输出是三个模型各自的置信系数,这个系数越大意味着对应模型的可靠性越高(在最终分割结果里面占据更重要的成分),隐藏层包括20个神经元,激活函数是现有的sigmod函数。
所述手写轨迹定位和字符识别模块的步骤(A)在人手的指尖定位上采用了一种双模式切换的指尖定位算法。它通过一个手部的物理模型来决定选用的模式,对不同形态角度的手部自适应地采用不同的指尖定位算法。
所述手写轨迹定位和字符识别模块的步骤(B)在重构字符之后,轨迹点集会经由一个均值滤波做平滑,消除因为局部噪声造成的影响。假设一个完整的字符在空中手写系统中被指尖定位算法采样为n个点,则整个字符可视作一个n维向量:
c=(P1,P2,P3,...,Pn),
假设Pi为第i个采样点,平滑策略为该点与邻近6个采样点取均值。经由均值滤波器得到的平滑后轨迹在每个点上的数值为:
当4≤i≤n-3时,当i>n-3或i<4时Pi=Pi
所述手势识别和响应模块的步骤(a)在手势检测中提取人手的形态特征时候采用了如下4个:手心与手腕连线和垂直线形成的角度、手张开指尖的数目、掌心的位置和当前时间。这4个特征描述了当前手的角度、手掌形态、位置还有运动状况。
所述手势识别和响应模块的步骤(a)在系统检测用户手势阶段,自定义了一套类似身体语言的手势动作,这些手势动作包括手的张开停顿、单指与多指的互相变换、挥手、抓取和放开。
所述手势识别和响应模块的步骤(a)定义了一个用户登入的手势操作。它记录当前操作用户的ID并且屏蔽其他背景人物的动作。注销手势去掉这个标志ID并且接受下一位用户的登入使用。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (9)

1.一种基于Kinect的手写方法,其特征在于,包括如下步骤:
步骤1、捕捉视频信息;
步骤2、分析处理并分割视频信息,分割得到每一帧图像里面用户的手部;
步骤3、把分割后的视频信息分为两个模块:手写轨迹定位和字符识别模块与手势识别和响应模块;
步骤2中,所述分析处理并分割视频信息采用了一种混合模型的算法,所述混合模型的算法对肤色模型、深度模型和背景模型分别进行建模;所述肤色模型的分割结果、深度模型的分割结果和背景模型的分割结果分别被输入到神经网络的评价系统,所述神经网络输出肤色模型的置信系数、深度模型的置信系数和背景模型的置信系数,所述分割结果取决于肤色模型、深度模型和背景模型经由置信系数加权之后的综合,所述加权之后的综合指:所述肤色模型的分割结果、深度模型的分割结果和背景模型的分割结果分别乘以各自的置信系数得到三个二值图,然后把所述的三个二值图进行累加,最后把累加的结果经过阈值得到最终分割结果。
2.根据权利要求1所述的手写方法,其特征在于,步骤3中:
所述手写轨迹定位和字符识别模块的工作过程包括如下步骤:
(A)在人手分割的结果上进行指尖定位,并且定位得到的指尖位置;
(B)将书写检测得到的所有指尖点位置拼接起来得到完整字符的连笔进行字符重构,并把重构后的字符输入到字符识别引擎,得到识别结果,并输出识别结果;
所述手势识别和响应模块的工作过程包括如下步骤:
(a)在人手分割的结果上提取手部信息特征,所述手部信息特征作为手势识别的输入,如果提取的所述手部信息特征的变化与预先设定的手势的变化规则一致,则可被判定为所述手势正在进行书写,所述手势识别和响应模块检测用户的手势变化输入手写系统,所述手写系统包括:用户登入手势操作、落笔手势操作、抬笔手势操作、选择手势操作、删除手势操作和注销手势操作;
(b)系统检测到手势,界面做出相应响应。
3.根据权利要求1所述的手写方法,其特征在于,步骤1中,采用微软的Kinect传感器来采集视频信息,所述视频信息包括彩色图像深度图像;并利用Kinect将用户的手部从背景中分离出来。
4.根据权利要求1所述的手写方法,其特征在于,所述神经网络是感知器模型,所述感知器模型分为输入层、隐藏层和输出层,所述肤色模型、深度模型和背景模型这三个模型分割结果的两两重叠率输入所述神经网络的输入层,所述肤色模型的置信系数、深度模型的置信系数和背景模型的置信系数由神经网络的输出层输出,所述隐藏层具有神经元,所述神经网络的激活函数是sigmod函数。
5.根据权利要求2所述的手写方法,其特征在于,步骤(A)中,所述指尖定位采用了双模式切换的指尖定位算法,所述双模式切换的指尖定位算法通过手部的物理模型来决定选用的模式,对形态角度的手部自适应地采用相应的指尖定位算法。
6.根据权利要求2所述的手写方法,其特征在于,步骤(B)中,在字符重构之后,轨迹点集经由一个均值滤波做平滑,消除因为局部噪声造成的影响;对于一个完整的字符在空中手写系统中,其指尖定位算法采样为n个点,则整个字符可视作n维向量,用字母c表示,所述整个字符的表达式如下:
c=(P1,P2,P3,...,Pn),
假设Pi为第i个采样点,平滑策略为该点与邻近6个采样点取均值,经由均值滤波器得到的平滑后轨迹在每个点上的数值为:
P i = ( P i - 3 + P i - 2 + P i - 1 + P i + P i + 1 + P i + 2 + P i + 3 ) 7 P i ,
当4≤i≤n-3时, P i = P i - 3 + P i - 2 + P i - 1 + P i + P i + 1 + P i + 2 + P i + 3 7 , 当i>n-3或i<4时Pi=Pi
7.根据权利要求2所述的手写方法,其特征在于,步骤(a)中,提取的所述手部信息特征包括:手心与手腕连线和垂直线形成的角度特征、手张开指尖的数目特征、掌心的位置特征和当前时间特征。
8.根据权利要求2所述的手写方法,其特征在于,步骤(a)中,在所述系统检测用户的手势时,自定义类似身体语言的手势动作,所述手势动作包括手的张开停顿、单指与多指的互相变换、挥手、抓取和放开。
9.根据权利要求2所述的手写方法,其特征在于,步骤(a)中,自定义所述用户登入手势操作和注销手势操作,所述用户登入手势操作用于记录当前操作用户的ID并且屏蔽手势的背景,所述注销手势操作用于去掉当前操作用户的ID并且接受下一位用户的登入使用。
CN201310118074.0A 2013-04-07 2013-04-07 一种基于Kinect的手写方法 Active CN103226388B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310118074.0A CN103226388B (zh) 2013-04-07 2013-04-07 一种基于Kinect的手写方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310118074.0A CN103226388B (zh) 2013-04-07 2013-04-07 一种基于Kinect的手写方法

Publications (2)

Publication Number Publication Date
CN103226388A CN103226388A (zh) 2013-07-31
CN103226388B true CN103226388B (zh) 2016-05-04

Family

ID=48836870

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310118074.0A Active CN103226388B (zh) 2013-04-07 2013-04-07 一种基于Kinect的手写方法

Country Status (1)

Country Link
CN (1) CN103226388B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103472916B (zh) * 2013-09-06 2016-05-04 东华大学 一种基于人体手势识别的人机交互方法
CN103500010B (zh) * 2013-09-29 2016-10-05 华南理工大学 一种视频人手指尖定位方法
CN103577843B (zh) * 2013-11-22 2016-06-22 中国科学院自动化研究所 一种空中手写字符串识别方法
CN103616952B (zh) * 2013-12-03 2017-08-08 北京悦动双成科技有限公司 确定动作的方法及三维传感器
CN104020853A (zh) * 2014-06-23 2014-09-03 暨南大学 基于Kinect的操纵网络浏览器的系统及方法
JP2016038811A (ja) 2014-08-08 2016-03-22 株式会社東芝 仮想試着装置、仮想試着方法、およびプログラム
JP6320237B2 (ja) 2014-08-08 2018-05-09 株式会社東芝 仮想試着装置、仮想試着方法、およびプログラム
JP6242768B2 (ja) * 2014-08-08 2017-12-06 株式会社東芝 仮想試着装置、仮想試着方法、およびプログラム
CN105528061A (zh) * 2014-09-30 2016-04-27 财团法人成大研究发展基金会 手势辨识系统
CN105302298B (zh) * 2015-09-17 2017-05-31 深圳市国华识别科技开发有限公司 空中书写断笔系统和方法
CN106502390B (zh) * 2016-10-08 2019-05-14 华南理工大学 一种基于动态3d手写数字识别的虚拟人交互系统及方法
CN106570920A (zh) * 2016-11-02 2017-04-19 邹操 基于平面扫描技术的艺术展示系统及方法
CN106527729A (zh) * 2016-11-17 2017-03-22 科大讯飞股份有限公司 非接触式输入方法和装置
CN107122042A (zh) * 2017-03-29 2017-09-01 浙江大学 一种静动态手势结合的汉字书写方法及系统
CN108764070B (zh) * 2018-05-11 2021-12-31 西北大学 一种基于书写视频的笔画分割方法及书法临摹指导方法
US10732725B2 (en) * 2018-09-25 2020-08-04 XRSpace CO., LTD. Method and apparatus of interactive display based on gesture recognition
CN110196635B (zh) * 2019-04-28 2020-07-31 浙江大学 一种基于可穿戴设备的手势输入方法
CN110722903A (zh) * 2019-11-08 2020-01-24 青岛罗博智慧教育技术有限公司 一种轨迹记录装置及轨迹记录方法
CN112379779B (zh) * 2020-11-30 2022-08-05 华南理工大学 一种基于迁移学习的动态手势识别虚拟交互系统
CN114415830A (zh) * 2021-12-31 2022-04-29 科大讯飞股份有限公司 隔空输入方法及设备、计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102184021A (zh) * 2011-05-27 2011-09-14 华南理工大学 一种基于手写输入和指尖鼠标的电视人机交互方法
CN102402680A (zh) * 2010-09-13 2012-04-04 株式会社理光 人机交互系统中手部、指示点定位方法和手势确定方法
CN102866852A (zh) * 2012-07-30 2013-01-09 成都西可科技有限公司 基于体感技术的手写文字输入方法
CN102945079A (zh) * 2012-11-16 2013-02-27 武汉大学 一种基于智能识别与控制的立体投影系统与方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9117274B2 (en) * 2011-08-01 2015-08-25 Fuji Xerox Co., Ltd. System and method for interactive markerless paper documents in 3D space with mobile cameras and projectors

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102402680A (zh) * 2010-09-13 2012-04-04 株式会社理光 人机交互系统中手部、指示点定位方法和手势确定方法
CN102184021A (zh) * 2011-05-27 2011-09-14 华南理工大学 一种基于手写输入和指尖鼠标的电视人机交互方法
CN102866852A (zh) * 2012-07-30 2013-01-09 成都西可科技有限公司 基于体感技术的手写文字输入方法
CN102945079A (zh) * 2012-11-16 2013-02-27 武汉大学 一种基于智能识别与控制的立体投影系统与方法

Also Published As

Publication number Publication date
CN103226388A (zh) 2013-07-31

Similar Documents

Publication Publication Date Title
CN103226388B (zh) 一种基于Kinect的手写方法
Mukherjee et al. Fingertip detection and tracking for recognition of air-writing in videos
CN105718878B (zh) 基于级联卷积神经网络的第一视角空中手写和空中交互方法
CN102332095B (zh) 一种人脸运动跟踪方法和系统以及一种增强现实方法
CN105807926B (zh) 一种基于三维连续动态手势识别的无人机人机交互方法
Ma et al. Kinect Sensor‐Based Long‐Distance Hand Gesture Recognition and Fingertip Detection with Depth Information
Mekala et al. Real-time sign language recognition based on neural network architecture
CN107168527A (zh) 基于区域卷积神经网络的第一视角手势识别与交互方法
CN108052884A (zh) 一种基于改进残差神经网络的手势识别方法
CN108459785A (zh) 一种视频多尺度可视化方法与交互方法
CN103577843A (zh) 一种空中手写字符串识别方法
Huang et al. Hand gesture recognition with skin detection and deep learning method
CN107885327A (zh) 一种基于Kinect深度信息的指尖检测方法
CN114265498B (zh) 一种多模态手势识别和视觉反馈机制结合的方法
CN102930270A (zh) 基于肤色检测与背景消除的手部识别方法及系统
CN106502390B (zh) 一种基于动态3d手写数字识别的虚拟人交互系统及方法
CN104517100B (zh) 手势预判方法和系统
CN102402289A (zh) 一种基于机器视觉的手势鼠标识别方法
CN106503619B (zh) 基于bp神经网络的手势识别方法
CN111444488A (zh) 一种基于动态手势的身份认证方法
CN112379779B (zh) 一种基于迁移学习的动态手势识别虚拟交互系统
CN106778456A (zh) 一种手写输入的优化方法及装置
CN108960171B (zh) 一种基于特征迁移学习的转换手势识别到身份识别的方法
CN108073851A (zh) 一种抓取手势识别的方法、装置及电子设备
Chalasani et al. Egocentric gesture recognition for head-mounted ar devices

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant