CN1304931C - 一种头戴式立体视觉手势识别装置 - Google Patents

一种头戴式立体视觉手势识别装置 Download PDF

Info

Publication number
CN1304931C
CN1304931C CNB2005100029513A CN200510002951A CN1304931C CN 1304931 C CN1304931 C CN 1304931C CN B2005100029513 A CNB2005100029513 A CN B2005100029513A CN 200510002951 A CN200510002951 A CN 200510002951A CN 1304931 C CN1304931 C CN 1304931C
Authority
CN
China
Prior art keywords
head
stereo vision
hand
image
wearable computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB2005100029513A
Other languages
English (en)
Other versions
CN1648840A (zh
Inventor
贾云得
柳阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CNB2005100029513A priority Critical patent/CN1304931C/zh
Publication of CN1648840A publication Critical patent/CN1648840A/zh
Application granted granted Critical
Publication of CN1304931C publication Critical patent/CN1304931C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明为头戴式立体视觉手势识别装置,属于计算机视觉与人机交互技术领域。该装置由立体视觉成像头、立体视觉板、头戴显示器和穿戴计算机四个部分组成;立体视觉成像头获取穿戴者手的灰度图像,立体视觉板实时计算稠密视差图(深度图),并将视差图和灰度图像传送给穿戴计算机,穿戴计算机完成人手跟踪与手势识别的任务,并将计算结果显示在头戴显示器上。本发明可以实现在穿戴计算环境下的人手跟踪与手势识别,用于完成手势鼠标、手语识别和手写字符输入等,实现基于手势的智能人机接口。

Description

一种头戴式立体视觉手势识别装置
技术领域
本发明为一种头戴式立体视觉手势识别装置,属于计算机视觉与人机交互技术领域,用于穿戴计算机的手势交互。
背景技术
穿戴计算机的各种输入装置,比如键盘、鼠标、写字板等,都穿戴在人身上,比如腰部、胸部、肩部、手臂等部位。这些输入装置对于穿戴者来说,比较累赘,因此,人们在大力研发手势识别技术,以解决人和计算机之间的自然交互。目前,已有各种不同的装置和技术用来解决穿戴条件下的手势识别问题,主要可以分为二大类。第一类是基于数据手套的手势识别装置,如,澳大利亚的“Tinmith-Hand”。但该类装置体积大,需要佩戴数据手套,没有完全把人手解放出来。第二类是基于计算机视觉的手势识别装置,该类装置使用一个普通的CCD或CMOS摄像头,具有体积小、价格便宜和功耗较低的特点。如,日本国家工业科学技术研究院智能系统研究所研发的单目穿戴视觉系统“Weavy”,美国加州大学HRL实验室研制的穿戴视觉系统“SNAP&TELL”。已有这类装置的主要不足是:(1)采用单个摄像机,获取的信息有限,容易受到环境光线和复杂背景的影响;(2)摄像头方向固定,只能面向前方,识别手势时穿戴者必须将手抬起来,容易产生疲劳,缺乏灵活性;(3)主要采用肤色信息进行人手跟踪与手势识别,肤色易受光照条件的影响,随着穿戴者的行走,会引起光照条件的改变,从而导致跟踪与识别的失败;除此之外,当摄像机视野中出现与肤色相近的物体时,会产生二义性,无法区分。
针对现有装置和技术存在的问题与不足,本发明提出了一种头戴式立体视觉手势识别装置。该装置包括立体视觉成像头、立体视觉板、头戴显示器和穿戴计算机四个主要部分,以及图像数据线缆、IEEE1394连接线、VGA连接线、旋转轴和头箍五个辅助部件。该装置可以同步采集两幅或两幅以上的人手图像,能够实时计算稠密视差图,结合稠密视差图和人手图像,能够稳定和鲁棒的进行人手跟踪和手势识别,为穿戴计算机提供基于手势的自然友好的人机接口。
发明内容
本发明包括立体视觉成像头1、立体视觉板2、头戴显示器3和穿戴计算机4四个主要部分,以及图像数据线缆5、IEEE1394连接线6、VGA连接线7、旋转轴9和头箍10五个辅助部件;立体视觉成像头1包括两个或两个以上的彩色微型摄像机8,可以同步采集两幅或两幅以上的人手图像;立体视觉板2以视频速度计算稠密视差图,并将稠密视差图和人手图像以视频速度传输到穿戴计算机4,穿戴计算机4完成人手跟踪和手势识别,并将识别和控制结果显示在头戴显示器3上;为了方便地恢复近距离的手势稠密视差图,微型摄像机8采用了广角摄像头;微型摄像机8之间的基线距离较小,这样既保证了摄像机视场角公共区与摄像机的距离较小,也保证了人手具有一定的活动范围。
立体视觉成像头1通过一个旋转轴9连接在立体视觉板2上,立体视觉板2固定在头箍10的右边或左边,使用旋转轴9来改变立体视觉成像头1的朝向,便于获取右手或左手的图像。
立体视觉板2以一片FPGA作为处理芯片,实时完成图像变形修正、外极线校正和稠密视差图的计算。立体视觉板2中包含有一个基于IEEE1394通讯芯片设计的实时图像传输接口,用于实现稠密视差图和人手图像的实时传输。立体视觉板的体积小,重量轻,计算速度快。
穿戴计算机4实时接收来自立体视觉板2的稠密视差图和人手图像,穿戴计算机4完成人手跟踪与手势识别的任务,并将计算结果显示在头戴显示器3上,用于实现手势鼠标、手语识别和手写字符输入等应用。
本发明的具体特征如下:
(1)头戴式立体视觉手势识别装置中的立体视觉成像头1包括两个或两个以上的微型摄像机8,可以同步获取两幅或两幅以上的人手图像,为穿戴计算机4提供人手图像的同时,还提供了稠密视差图,可以鲁棒地实现人手跟踪和手势识别。
(2)立体视觉成像头1通过一个旋转轴9连接在立体视觉板2上,立体视觉板2固定在头箍10的右或左边,便于获取右手或左手的图像,并可使用旋转轴9来调节立体视觉成像头1的朝向,如前方、下方、斜下方等,以方便穿戴者在座姿、站立、行走等不同情况下调节最合适的立体视觉成像头1的朝向。
(3)头戴式立体视觉手势识别装置中的立体视觉板2以视频的速度计算稠密视差图或稠密深度图,并将人手图像和稠密视差图以视频的速度传输到穿戴计算机4中进行手势跟踪与识别。
(4)通过廉价的立体视觉技术,获取两幅或两幅以上的人手图像,通过对这些图像的实时计算得到稠密视差图,利用人手图像和稠密视差图能够更稳定的实现人手跟踪和手势识别,并将计算结果显示在头戴显示器3上,用于实现手势鼠标、手语识别和手写字符输入等应用。
本发明具有以下优点:
1.本发明采用了立体视觉信息和灰度图像或彩色图像信息,实现更加可靠和鲁棒的人手定位、跟踪和识别。
2.本发明采用广角镜头(60°以上),并使用图像变形修正算法,有效地提高场景图像感知效率,可以在穿戴条件下可靠地对近距离人手进行定位、跟踪和识别。
3.本发明采用两个或多个微型摄像机8,并采用硬件实现图像的变形修正处理、图像外极线校正处理、稠密视差图和稠密深度图的视频速度计算。
4.本发明采用IEEE1394接口16实现与穿戴计算机4的实时通讯,降低了延迟,提高了交互的效率。
5.本发明体积小、重量轻、计算速度快。
附图说明
图1是本发明的组成示意图。
图2是本发明的基本组成框图。
图3是本发明的穿戴示意图。
图4是本发明的两种立体视觉成像头外观图。
图5是本发明的立体视觉成像头组成框图。
图6是本发明的立体视觉板组成框图。
图7是本发明的手语识别的流程示意图。
图8是本发明的手势鼠标应用中用到的三种手势。
图9是本发明的手势鼠标的流程示意图。
图10是本发明的手写字符输入应用中用到的三种手势。
图11是本发明的手写字符输入的流程示意图。
图1-图11中的1-立体视觉成像头、2-立体视觉板、3-头戴显示器、4-穿戴计算机、5-图像数据线缆、6-IEEE1394连接线、7-VGA连接线、8-微型摄像机、9-旋转轴、10-头箍、11-图像采集控制器、12-图像传输接口、13-立体视觉信息处理器、14-控制器/通讯接口、15-图像高层处理与传输控制器、16-IEEE1394接口、17-帧存储器、18-图像传输接口。
具体实施方式
一种头戴式立体视觉手势识别装置的结构:如图1、2、3所示,该装置包括立体视觉成像头1、立体视觉板2、头戴显示器3和穿戴计算机4四个主要部分,以及图像数据线缆5、IEEE1394连接线6、VGA连接线7、旋转轴9和头箍10五个辅助部件。立体视觉成像头1通过一个旋转轴9连接在立体视觉板2上,立体视觉板2固定在头箍10的右或左边,便于获取右手或左手的图像,并可使用旋转轴9来调节立体视觉成像头1的朝向。立体视觉成像头1通过图像数据线缆5把采集到的人手图像传送到立体视觉板2。立体视觉板2完成图像变形修正、图像外级线校正和稠密视差图的实时计算,并将稠密视差图连同人手图像通过IEEE1394接口16传送给穿戴计算机4;穿戴计算机4根据稠密视差图和人手图像,实现人手的分割、跟踪和手势识别,并将手势控制显示在头戴显示器3上,实现文本、图形、图像界面的控制。
图4是两种立体视觉成像头1的外观图,一种是双目的,另一种是三目的。图5是立体视觉成像头组成框图。立体视觉成像头1由两个或两个以上的微型摄像机8、图像采集控制器11、图像传输接口18和帧存储器17组成。立体视觉成像头1采用三个微型摄像机比采用两个微型摄像机获取的视觉信息更丰富,视差图更稠密、更精确,而采用两个微型摄像机8更加轻巧,并可以获得更快的执行速度。可根据需求选取合适的微型摄像机8数目。微型摄像机8采用了广角镜头,摄像头的对角线视场角范围为60°以上,可以恢复0.3-1.2米深度范围内人手的稠密三维数据。图像采集控制器11控制多个微型摄像机同步采集图像,并将图像缓存到帧存储器17,然后再通过图像传输接口18传送到立体视觉板2。立体视觉成像头1通过一个手动旋转轴9与立体视觉板2相连,并固定在头箍10上,人们可以根据需要,旋转立体视觉成像头1。这样,穿戴者可以在坐姿、站姿或行走时选择最合适的摄像头朝向。
图6是立体视觉板2的组成框图。立体视觉板2由立体视觉信息处理器13和控制器/通讯接口14组成。立体视觉信息处理器13以一片FPGA作为处理芯片,完成图像变形修正、LoG滤波、图像外极线校正、稠密视差图计算。立体视觉信息处理器13的实现方法见我们的发明专利ZL02100547.8。控制器/通讯接口14由图像高层处理与传输控制器15和1394接口16组成。图像高层处理与传输控制器15由DSP芯片实现,不仅可以向立体视觉信息处理器13传送立体成像头1的内部和外部参数,并进行图像的高层处理,而且还可以通过1394接口16将人手图像和稠密视差图传输给穿戴计算机4。
立体视觉成像头1在使用之前,要进行标定。把标定参数由穿戴计算机4通过1394接口16传输到立体视觉板2。立体视觉成像头1采用固定的镜头,并将其与成像芯片固化到一起,已保证在穿戴者使用过程中,系统参数不会发生改变。
穿戴计算机4是整个装置的中央控制机构和高层处理单元。穿戴计算机4对系统的各个部分进行统一管理和协调控制,并对立体视觉板2输出的稠密视差图和人手图像进行进一步的高层处理,完成人手跟踪与手势识别的任务,为穿戴计算机提供基于手势的智能人机接口。
手势是一种自然而直观的人际交流模式,基于视觉的手势交互是实现新一代人机交互的关键技术。特别是对于穿戴计算机来说,基于视觉的手势交互是最有希望突破人机交互瓶颈的核心技术。目前已经有许多手势识别和跟踪的方法,但在动态和复杂背景下,比如穿戴计算机视觉系统所处的环境,由于图像的抖动、光照的变化、背景的动态和复杂性,给穿戴计算环境下的人手跟踪与手势识别带来一定的困难。利用单一的视觉信息很难获得鲁棒的跟踪与识别结果,因此,多信息融合是一个行之有效的好方法。该装置可以实时地获取灰度和稠密视差图,综合利用多种视觉信息完成人手跟踪与手势识别的任务。
人手跟踪与手势识别是手势交互过程中两项重要的技术。在下面的应用实例中,我们采用粒子滤波器(Particle Filter)进行人手的鲁棒跟踪。粒子滤波器是一种非线性/非高斯的贝叶斯滤波器,它利用随机产生的样本集合来表示跟踪目标在图像中的概率分布,该分布是非高斯的,可以同时维持多个假设,能够增强复杂背景下的目标跟踪能力;除此之外,样本集合中可以同时存在多种类别的粒子,便于融合多种视觉信息进行人手的鲁棒跟踪。我们采用隐马尔可夫模型(Hidden Markov Models,HMM)进行手势识别,在基于HMM的识别算法里,每种手势有一个HMM,可观察符号对应着模型参数空间里的向量,例如几何矩向量,Zernike矩,特征图像系数向量,或者3D空间的运动速度等等。基于HMM识别技术不仅具有时间尺度不变性,而且还具备自动分割和分类的能力,可以用于动态手势和手语的识别。
应用举例1
图7给出了一个手语识别的流程示意图。立体视觉成像头1把采集到人手图像传送至立体视觉板2。立体视觉板2对人手图像进行变形修正、外极线校正和稠密视差图计算,把校正后的人手图像和稠密视差图通过1394接口16传送至穿戴计算机4。从稠密视差图和人手图像中提取特征,采用基于HMM的手语识别方法进行手语识别。最后,将识别结果显示在头戴显示器3上。
应用举例2
图9给出了是一个手势鼠标的流程示意图。立体视觉成像头1把采集得到人手图像传送至立体视觉板2。立体视觉板2对人手图像对进行变形修正、外极线校正和稠密视差图计算,把校正后的人手图像和稠密视差图通过1394接口16传送至穿戴计算机4。穿戴计算机4综合利用人手图像信息和稠密视差图进行人手的鲁棒跟踪,并在跟踪过程中进行手势识别。图8给出了手势鼠标中用到的三种手势,手势1是右手自然伸展状态,手背朝向摄像机,对应鼠标移动事件;手势2是右手握拳状态,对应单击鼠标左键事件;手势3是右手自然伸展状态,手心朝向摄像机8,对应单击鼠标右键事件。通过对这三种手势的跟踪、识别就可以完成传统的鼠标操作,我们把这种基于手势的人机交互方式称为手势鼠标。
应用举例3
图11给出了是一个手写字符输入的流程示意图。立体视觉成像头1把采集得到人手图像传送至立体视觉板2。立体视觉板2对人手图像对进行变形修正、外极线校正和稠密视差图计算,把校正后的人手图像和稠密视差图通过1394接口16传送至穿戴计算机4。穿戴计算机4综合利用人手图像和稠密视差图进行人手的鲁棒跟踪,并在跟踪过程中进行手势识别和食指指尖定位。图10给出了三种手势,字符轨迹输入点由食指指尖确定。由手势1切换到手势2表示字符笔画输入的开始;由手势2切换到手势1表示字符笔画输入的结束;手势3表示字符轨迹输入完毕。通过这3种手势的识别,就可以实现字符轨迹的输入,可以是单或多笔画的字符,甚至可以输入汉字轨迹。之后,进行字符识别。从而实现了基于手势的手写体字符的输入。

Claims (3)

1.一种头戴式立体视觉手势识别装置,其特征在于:该装置包括立体视觉成像头(1)、立体视觉板(2)、头戴显示器(3)和穿戴计算机(4)四个主要部分,以及图像数据线缆(5)、IEEE1394连接线(6)、VGA连接线(7)、旋转轴(9)和头箍(10)五个辅助部件;立体视觉成像头(1)包括两个或两个以上的微型摄像机(8),同步采集两幅或两幅以上的人手图像并传送至立体视觉板;立体视觉板(2)以视频速度计算稠密视差图,并将稠密视差图和人手图像以视频速度传输到穿戴计算机(4),穿戴计算机(4)完成人手跟踪和手势识别,并将识别和控制结果显示在头戴显示器(3)上。
2.如权利要求1所述的一种头戴式立体视觉手势识别装置,其特征在于:为了计算近距离的人手稠密视差图,微型摄像机(8)采用了广角摄像头。
3.如权利要求1所述的一种头戴式立体视觉手势识别装置,其特征在于:立体视觉成像头(1)通过旋转轴(9)连接在立体视觉板(2)上,立体视觉板(2)固定在头箍(10)的右边或左边,通过旋转轴(9)来改变立体视觉成像头(1)的朝向,便于获取右手或左手的图像。
CNB2005100029513A 2005-01-27 2005-01-27 一种头戴式立体视觉手势识别装置 Expired - Fee Related CN1304931C (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CNB2005100029513A CN1304931C (zh) 2005-01-27 2005-01-27 一种头戴式立体视觉手势识别装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNB2005100029513A CN1304931C (zh) 2005-01-27 2005-01-27 一种头戴式立体视觉手势识别装置

Publications (2)

Publication Number Publication Date
CN1648840A CN1648840A (zh) 2005-08-03
CN1304931C true CN1304931C (zh) 2007-03-14

Family

ID=34875145

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2005100029513A Expired - Fee Related CN1304931C (zh) 2005-01-27 2005-01-27 一种头戴式立体视觉手势识别装置

Country Status (1)

Country Link
CN (1) CN1304931C (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100487636C (zh) * 2006-06-09 2009-05-13 中国科学院自动化研究所 基于立体视觉的游戏控制系统及方法
JP5507797B2 (ja) * 2007-03-12 2014-05-28 キヤノン株式会社 頭部装着型撮像表示装置及び画像生成装置
CN100487568C (zh) * 2007-05-29 2009-05-13 南京航空航天大学 具有视线跟踪功能的增强现实自然交互式头盔
CN101609362B (zh) * 2008-06-19 2011-07-20 大同股份有限公司 以视讯为基础的游标控制装置及其控制方法
US9898675B2 (en) * 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
JP5648443B2 (ja) * 2010-11-26 2015-01-07 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN102760198A (zh) * 2011-04-27 2012-10-31 德信互动科技(北京)有限公司 近距离体感互动装置和方法
TWI540461B (zh) * 2011-12-05 2016-07-01 緯創資通股份有限公司 手勢輸入的方法及系統
TWI450024B (zh) * 2012-06-05 2014-08-21 Wistron Corp 立體深度影像建立系統及其方法
EP2680228B1 (en) * 2012-06-25 2014-11-26 Softkinetic Software Improvements in or relating to three dimensional close interactions.
US10133342B2 (en) * 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
CN103336579A (zh) * 2013-07-05 2013-10-02 百度在线网络技术(北京)有限公司 穿戴式设备的输入方法和穿戴式设备
CN103345064B (zh) * 2013-07-16 2015-08-26 深圳市智帽科技开发有限公司 一种集成3d识别的帽子及帽子的3d识别方法
KR102065417B1 (ko) * 2013-09-23 2020-02-11 엘지전자 주식회사 웨어러블 이동단말기 및 그 제어방법
CN104063092B (zh) * 2014-06-16 2016-12-07 青岛歌尔声学科技有限公司 一种触摸屏控制方法及装置
CN104571511B (zh) * 2014-12-30 2018-04-27 青岛歌尔声学科技有限公司 一种3d场景中重现物体的系统和方法
CN104571510B (zh) * 2014-12-30 2018-05-04 青岛歌尔声学科技有限公司 一种3d场景中输入手势的系统和方法
US10482670B2 (en) 2014-12-30 2019-11-19 Qingdao Goertek Technology Co., Ltd. Method for reproducing object in 3D scene and virtual reality head-mounted device
US10156908B2 (en) * 2015-04-15 2018-12-18 Sony Interactive Entertainment Inc. Pinch and hold gesture navigation on a head-mounted display
CN107407805A (zh) * 2015-12-30 2017-11-28 深圳市柔宇科技有限公司 头戴式显示设备及其控制方法
US10948994B2 (en) 2016-02-29 2021-03-16 Huawei Technologies Co., Ltd. Gesture control method for wearable system and wearable system
CN106648078B (zh) * 2016-12-05 2020-06-02 北京光年无限科技有限公司 应用于智能机器人的多模态交互方法及系统
CN114677766B (zh) * 2022-05-26 2023-02-14 中国科学院西安光学精密机械研究所 基于无镜头成像技术的手语识别方法、系统及交互设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1218936A (zh) * 1997-09-26 1999-06-09 松下电器产业株式会社 手势识别装置
JPH11184584A (ja) * 1997-12-19 1999-07-09 Nippon Telegr & Teleph Corp <Ntt> 仮想現実端末装置
CN1136738C (zh) * 2002-01-31 2004-01-28 北京理工大学 一种微型实时立体视觉机
US6750848B1 (en) * 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1218936A (zh) * 1997-09-26 1999-06-09 松下电器产业株式会社 手势识别装置
JPH11184584A (ja) * 1997-12-19 1999-07-09 Nippon Telegr & Teleph Corp <Ntt> 仮想現実端末装置
US6750848B1 (en) * 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications
CN1136738C (zh) * 2002-01-31 2004-01-28 北京理工大学 一种微型实时立体视觉机

Also Published As

Publication number Publication date
CN1648840A (zh) 2005-08-03

Similar Documents

Publication Publication Date Title
CN1304931C (zh) 一种头戴式立体视觉手势识别装置
Yang et al. Gesture interaction in virtual reality
CN105389539B (zh) 一种基于深度数据的三维手势姿态估计方法及系统
Suarez et al. Hand gesture recognition with depth images: A review
Khan et al. Survey on gesture recognition for hand image postures
US20180186452A1 (en) Unmanned Aerial Vehicle Interactive Apparatus and Method Based on Deep Learning Posture Estimation
CN110555412B (zh) 基于rgb和点云相结合的端到端人体姿态识别方法
CN102831380A (zh) 一种基于深度图像感应的肢体动作识别方法及系统
CN109145802B (zh) 基于Kinect的多人手势人机交互方法及装置
CN105739702A (zh) 用于自然人机交互的多姿态指尖跟踪方法
CN104881118B (zh) 一种用于捕获人体上肢运动信息的穿戴系统
CN108734194A (zh) 一种面向虚拟现实的基于单深度图的人体关节点识别方法
CN110135249A (zh) 基于时间注意力机制和lstm的人体行为识别方法
CN111596767B (zh) 一种基于虚拟现实的姿态捕获方法和装置
CN103529944A (zh) 一种基于Kinect的人体动作识别方法
CN104440926A (zh) 一种基于Kinect的机械臂体感远程控制方法及系统
CN106625658A (zh) 一种实时模仿人体上半身动作的人形机器人控制方法
CN110210426B (zh) 基于注意力机制从单幅彩色图像进行手部姿态估计的方法
CN105107200A (zh) 基于实时深度体感交互与增强现实技术的变脸系统及方法
CN110135277B (zh) 一种基于卷积神经网络的人体行为识别方法
WO2018045670A1 (zh) 基于自然手势的虚拟数字雕塑方法
Sreejith et al. Real-time hands-free immersive image navigation system using Microsoft Kinect 2.0 and Leap Motion Controller
Liu et al. The study on human action recognition with depth video for intelligent monitoring
CN203070205U (zh) 一种基于手势识别的输入设备
CN114296543A (zh) 一种指尖力检测及手势识别的智能交互系统及智能指环

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20070314

Termination date: 20120127