CN110427945A - 一种基于实物及手势的交互方法和计算机设备 - Google Patents
一种基于实物及手势的交互方法和计算机设备 Download PDFInfo
- Publication number
- CN110427945A CN110427945A CN201910567789.1A CN201910567789A CN110427945A CN 110427945 A CN110427945 A CN 110427945A CN 201910567789 A CN201910567789 A CN 201910567789A CN 110427945 A CN110427945 A CN 110427945A
- Authority
- CN
- China
- Prior art keywords
- gesture
- material object
- finger
- deep learning
- association
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供一种基于实物及手势的交互方法,包括步骤S1、通过摄像头获取包含手势和实物的画面;步骤S2、通过深度学习算法识别出画面中的第一手势及与该手势有关联的实物;步骤S3、根据识别结果执行下一步指令。本发明还提供能执行上述方法的一种计算机设备。本发明在对手势识别的同时,还对与手势有关联的实物也需要识别,并根据识别结果执行相应的指令;还可结合语音指令、以及进一步的手势动作执行更为复杂的指令。可以广泛用于机器教学、商务演示、VR/AR、机器人等领域,操作很便利高效,大大的提升了用户的体验度。
Description
技术领域
本发明涉及一种计算机交互方法和计算机设备。
背景技术
计算机问世以后,如何让它跟人打交道,一直很让人头疼。虽然Geek们发明了各种各样的“语言”,让人和计算机有了沟通的渠道,但是当时的机器毕竟能力有限,需要人付出极大的努力才能实现“对话”。交互设计解决的问题就是“人类如何使用计算机并且通过计算机如何达到目的。
计算机交互设计经历了以下六个阶段:穿孔纸带交互时代、键盘交互时代、鼠标交互时代、触摸屏时代、语音输入时代、人工智能的百花齐放时代。其中人工智能带来的交互方式不止一种,随着视觉识别技术的成熟,摄像头也成为了一种交互方式,人们只要对着摄像头做出某种手势,机器就能识别出你的操作意图(例如是或否,左或右等),例如在无人机场景下,手势就可以完成一些简单的信息输入(如自拍或跟随)。
但目前现有技术中的人工智能视觉识别技术多只是手势本身识别,并不涉及对实物的识别,因此限制了很多应用场合,且用户的体验度也得不到有效的提高。如公开日为20170623,公开号为CN106886741A的中国发明公开了一种基手指识别的手势识别方法,属于手势识别技术领域;方法包括:通过一图像采集装置获取关联于使用者全身的视频数据流,并处理得到骨骼点信息;根据骨骼点信息,确定手心位置信息与手长信息;根据手心位置信息判断使用者的手心距离地面的高度是否大于一预设的高度阈值,并在是时继续执行步骤;判断得到手掌区域的图像,并对手掌区域的图像进行分割裁剪以及进行预处理,得到相应的手部掩膜并输出;根据处理结果,识别出手部的指尖区域,并根据指尖区域的几何关系对使用者的手势进行识别。上述技术方案的有益效果是:消除背影响,避免一些无效手势被误认为使用者进行手势指令输入的情况发生,提升了手势识别的准确性。
然而,单独根据手势的识别结果来执行某些指令,会使可执行指令的范围较小,对于有些机器教学、商务演示、VR/AR、机器人等领域,往往要求更为复杂的指令辨识,有些在需要对手势识别的同时,还需对与手势有关联的实物也需要识别,才能正确执行相应的指令,因此若只有手势的识别功能显然已不相适应了。
发明内容
本发明要解决的技术问题,在于提供一种基于实物及手势的交互方法和计算机设备,同时识别出手势及与该手势有关联的实物,并根据识别结果执行相应的指令,大大的提升了用户的体验度。
本发明方法是这样实现的:一种基于实物及手势的交互方法,包括以下步骤:
步骤S1、通过摄像头获取包含手势和实物的画面;
步骤S2、通过深度学习算法识别出画面中的第一手势及与该手势有关联的实物;
步骤S3、根据识别结果执行下一步指令。
进一步的,所述步骤S3中,所述执行下一步指令时是根据识别结果并结合语音指令进行,或根据识别结果并结合第二手势进行。
进一步的,所述第一手势和所述关联为下述情况的一种:
(1)所述第一手势为手指指点手势,所述关联是与手指指点方向延长线上并与手指距离最近的实物。
(2)所述第一手势为手掌托举或抓取手势,所述关联是手掌托举或抓取的实物。
(3)所述第一手势为手臂抱握手势,所述关联是手臂抱握的实物。
(4)所述第一手势为手指画圈手势,所述关联是处于手指所画圈内的实物。
进一步的,所述步骤S2中,对所述实物的识别过程是:先通过深度学习算法进行目标检测或语义分割,找出画面中所有可识别的物体;然后根据识别出的手势和预先设置好的关联条件,来确定具体的实物。
进一步的,所述步骤S2中,对所述实物的识别过程是:先通过深度学习算法进行手指骨骼点识别,并确定是否存在手势,在确认有手势时,根据预先设置好的关联条件,结全深度学习算法进行目标检测或语义分割,找出画面中的实物。
本发明的计算机设备是这样实现的:一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤:
步骤S1、通过摄像头获取包含手势和实物的画面;
步骤S2、通过深度学习算法识别出画面中的第一手势及与该手势有关联的实物;
步骤S3、根据识别结果执行下一步指令。
进一步的,所述步骤S3中,所述执行下一步指令时是根据识别结果并结合语音指令进行,或根据识别结果并结合第二手势进行。
进一步的,所述第一手势和所述关联为下述情况的一种:
(1)所述第一手势为手指指点手势,所述关联是与手指指点方向延长线上并与手指距离最近的实物。
(2)所述第一手势为手掌托举或抓取手势,所述关联是手掌托举或抓取的实物。
(3)所述第一手势为手臂抱握手势,所述关联是手臂抱握的实物。
(4)所述第一手势为手指画圈手势,所述关联是处于手指所画圈内的实物。
进一步的,所述步骤S2中,对所述实物的识别过程是:先通过深度学习算法进行目标检测或语义分割,找出画面中所有可识别的物体;然后根据识别出的手势和预先设置好的关联条件,来确定具体的实物。
进一步的,所述步骤S2中,对所述实物的识别过程是:先通过深度学习算法进行手指骨骼点识别,并确定是否存在手势,在确认有手势时,根据预先设置好的关联条件,结全深度学习算法进行目标检测或语义分割,找出画面中的实物。
本发明具有如下优点:本发明在对手势识别的同时,还对与手势有关联的实物也需要识别,并根据识别结果执行相应的指令;还可结合语音指令、以及进一步的手势动作执行更为复杂的指令。可以广泛用于机器教学、商务演示、VR/AR、机器人等领域。操作很便利高效,大大的提升了用户的体验度。
附图说明
下面参照附图结合实施例对本发明作进一步的说明。
图1为本发明方法执行流程图。
图2为本发明的应用场景示意图。
图3为本发明一实施例的画面示例。
具体实施方式
请参阅图1,本发明的基于实物及手势的交互方法,包括以下步骤:
步骤S1、通过摄像头获取包含手势和实物的画面;
步骤S2、通过深度学习算法识别出画面中的第一手势及与该手势有关联的实物;其中,对所述实物的识别过程有两种方式;
一种是:先通过深度学习算法进行目标检测或语义分割,找出画面中所有可识别的物体;然后根据识别出的手势和预先设置好的关联条件,来确定具体的实物。
另一种是:先通过深度学习算法进行手指骨骼点识别,并确定是否存在手势,在确认有手势时,根据预先设置好的关联条件,结全深度学习算法进行目标检测或语义分割,找出画面中的实物。这种方式是先识别出的手势,再根据手势的范围来缩小目标检测或语义分割的范围,从而识别出实物,会大大减少计算量,相较于第一种方式,识别效率得到有效提高。
步骤S3、根据识别结果执行下一步指令。所述执行下一步指令时是根据识别结果并结合语音指令或第二手势进行。
所述第一手势和所述关联可以有很多种选择,如为下述情况的任一种:
(1)所述第一手势为手指指点手势,所述关联是与手指指点方向延长线上并与手指距离最近的实物。
(2)所述第一手势为手掌托举或抓取手势,所述关联是手掌托举或抓取的实物。
(3)所述第一手势为手臂抱握手势,所述关联是手臂抱握的实物。
(4)所述第一手势为手指画圈手势,所述关联是处于手指所画圈内的实物。
如图2所示,为本发明的一应用场景示意图。
在本发明的应用场景中,需要一摄像头、一应用终端(电脑或手持终端等)和服务器,摄像头可以是与应用终端分离设置,也可以合体设置,摄像头对着人和实物拍摄;
下面说明一下本发明在机器教学中的应用:
1、如图3所示,学生想学习苹果的英文单词,可以准备一个苹果实物,按用手指指点手势(方法中要求第一手势为手指指点手势)指向苹果,在摄像头的拍摄范围内,由摄像头获取包含人体和实物的画面,并将拍摄的画面数据传送给应用终端;
2、由应用终端通过深度学习算法进行目标检测或语义分割,找出摄像头拍摄到画面中可识别的物体,如画面上矩形框中的物体,即人脸和苹果;
3、应用终端通过深度学习算法进行手指骨骼点识别,并确定是否存在手指指点手势;
4、在确认有手指指点手势时,根据手指指点方向的延长线,查找最近的相交物体,即找到了苹果;
5、由于苹果落在手指指点方向的延长线上,列为目标实物,此时,可以根据语音指令(如“请说出这个物体名称的英文单词)、第二手势(手指作左右移动的动作)等指示或无需进一步的特定指令,即可执行下一步指令,即读出实物名称的英文单词,从而达到了机器教学的目的,无论成人和孩童都能轻易掌握。
上述识别第一手势和实物的过程可以前后作适当的调整,调整后的整个过程如下:
1、如图3所示,学生想学习苹果的英文单词,先准备一个苹果实物,并按用手指指点手势(方法中要求第一手势为手指指点手势)指向苹果,在摄像头的拍摄范围内,由摄像头获取包含人体和实物的画面,并将拍摄的画面数据传送给应用终端;
2、应用终端通过深度学习算法进行手指骨骼点识别,并确定是否存在手指指点手势;
3、在确认有手指指点手势时,计算手指指点方向的延长线;
4、由应用终端通过深度学习算法进行目标检测或语义分割,找出摄像头拍摄到画面中可识别的物体,或在手指指点方向的延长线的方向上查找最近的相交物体,即找到了苹果,列为目标实物;
5、此时,可以根据语音指令(如“请说出这个物体名称的英文单词)、第二手势(手指作左右移动的动作)等指示或无需进一步的特定指令,即可执行下一步指令,即读出实物名称的英文单词,从而达到了机器教学的目的。
下面说明一下本发明在商务演示中的应用:
1、商家在展示产品时,可以手掌托举或抓取一需展示的产品实物(方法中要求第一手势为手掌托举或抓取),立于摄像头的拍摄范围内,由摄像头获取包含人体和实物的画面,并将拍摄的画面数据传送给应用终端;
2、应用终端通过深度学习算法进行手掌托举或抓取手势的识别,得到识别结果;
3、由应用终端根据关联关系通过深度学习算法进行目标检测或语义分割,找出画面中手掌托举或抓取的可识别的物体,即找到需展示的产品图像;
4、此时,可以根据语音指令(如“请在大屏幕上展示这个产品的图文或视频资料)、或根据第二手势(如另一手指的动作)等指示或无需进一步的特定指令,即可执行下一步指令,即大屏幕上展示这个产品的图文或视频资料,无需再通过别的方式进行控制,也无需别人帮忙播放相应的图文或视频资料,展示过程紧凑流畅,且方便。
虽然以上描述了本发明的具体实施方式,但是熟悉本技术领域的技术人员应当理解,我们所描述的具体的实施例只是说明性的,而不是用于对本发明的范围的限定,熟悉本领域的技术人员在依照本发明的精神所作的等效的修饰以及变化,都应当涵盖在本发明的权利要求所保护的范围内。
Claims (10)
1.一种基于实物及手势的交互方法,其特征在于:包括以下步骤:
步骤S1、通过摄像头获取包含手势和实物的画面;
步骤S2、通过深度学习算法识别出画面中的第一手势及与该手势有关联的实物;
步骤S3、根据识别结果执行下一步指令。
2.根据权利要求1所述的一种基于实物及手势的交互方法,其特征在于:所述步骤S3中,所述执行下一步指令时是根据识别结果并结合语音指令进行,或根据识别结果并结合第二手势进行。
3.根据权利要求1或2所述的一种基于实物及手势的交互方法,其特征在于:所述第一手势和所述关联为下述情况的任意一种:
(1)所述第一手势为手指指点手势,所述关联是与手指指点方向延长线上并与手指距离最近的实物;
(2)所述第一手势为手掌托举或抓取手势,所述关联是手掌托举或抓取的实物;
(3)所述第一手势为手臂抱握手势,所述关联是手臂抱握的实物;
(4)所述第一手势为手指画圈手势,所述关联是处于手指所画圈内的实物。
4.根据权利要求1所述的一种基于实物及手势的交互方法,其特征在于:所述步骤S2中,对所述实物的识别过程是:先通过深度学习算法进行目标检测或语义分割,找出画面中所有可识别的物体;然后根据识别出的手势和预先设置好的关联条件,来确定具体的实物。
5.根据权利要求1所述的一种基于实物及手势的交互方法,其特征在于:所述步骤S2中,对所述实物的识别过程是:先通过深度学习算法进行手指骨骼点识别,并确定是否存在手势,在确认有手势时,根据预先设置好的关联条件,结全深度学习算法进行目标检测或语义分割,找出画面中的实物。
6.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现以下步骤:
步骤S1、通过摄像头获取包含手势和实物的画面;
步骤S2、通过深度学习算法识别出画面中的第一手势及与该手势有关联的实物;
步骤S3、根据识别结果执行下一步指令。
7.根据权利要求6所述的一种计算机设备,其特征在于:所述步骤S3中,所述执行下一步指令时是根据识别结果并结合语音指令进行,或根据识别结果并结合第二手势进行。
8.根据权利要求6或7所述的一种计算机设备,其特征在于:所述第一手势和所述关联为下述情况的一种:
(1)所述第一手势为手指指点手势,所述关联是与手指指点方向延长线上并与手指距离最近的实物。
(2)所述第一手势为手掌托举或抓取手势,所述关联是手掌托举或抓取的实物。
(3)所述第一手势为手臂抱握手势,所述关联是手臂抱握的实物。
(4)所述第一手势为手指画圈手势,所述关联是处于手指所画圈内的实物。
9.根据权利要求6所述的一种计算机设备,其特征在于:所述步骤S2中,对所述实物的识别过程是:先通过深度学习算法进行目标检测或语义分割,找出画面中所有可识别的物体;然后根据识别出的手势和预先设置好的关联条件,来确定具体的实物。
10.根据权利要求6所述的一种计算机设备,其特征在于:所述步骤S2中,对所述实物的识别过程是:先通过深度学习算法进行手指骨骼点识别,并确定是否存在手势,在确认有手势时,根据预先设置好的关联条件,结全深度学习算法进行目标检测或语义分割,找出画面中的实物。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910567789.1A CN110427945A (zh) | 2019-06-27 | 2019-06-27 | 一种基于实物及手势的交互方法和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910567789.1A CN110427945A (zh) | 2019-06-27 | 2019-06-27 | 一种基于实物及手势的交互方法和计算机设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110427945A true CN110427945A (zh) | 2019-11-08 |
Family
ID=68409760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910567789.1A Pending CN110427945A (zh) | 2019-06-27 | 2019-06-27 | 一种基于实物及手势的交互方法和计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110427945A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113128368A (zh) * | 2021-04-01 | 2021-07-16 | 西安电子科技大学广州研究院 | 一种人物交互关系的检测方法、装置及系统 |
CN113510707A (zh) * | 2021-07-23 | 2021-10-19 | 上海擎朗智能科技有限公司 | 一种机器人的控制方法、装置、电子设备及存储介质 |
CN113642488A (zh) * | 2021-08-19 | 2021-11-12 | 三星电子(中国)研发中心 | 物品定位方法和装置 |
CN114063856A (zh) * | 2021-11-17 | 2022-02-18 | 塔米智能科技(北京)有限公司 | 一种身份注册方法、装置、设备和介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013000099A1 (en) * | 2011-06-29 | 2013-01-03 | Intel Corporation | Techniques for gesture recognition |
CN104217197A (zh) * | 2014-08-27 | 2014-12-17 | 华南理工大学 | 一种基于视觉手势的点读方法和装置 |
CN105894873A (zh) * | 2016-06-01 | 2016-08-24 | 北京光年无限科技有限公司 | 一种面向智能机器人的儿童教学方法和装置 |
CN106297434A (zh) * | 2015-06-03 | 2017-01-04 | 李璇 | 一种智能幼儿教育系统及其操作方法 |
CN107992507A (zh) * | 2017-03-09 | 2018-05-04 | 北京物灵智能科技有限公司 | 一种儿童智能对话学习方法、系统及电子设备 |
CN109522835A (zh) * | 2018-11-13 | 2019-03-26 | 北京光年无限科技有限公司 | 基于智能机器人的儿童读物阅读与交互方法及系统 |
CN109800676A (zh) * | 2018-12-29 | 2019-05-24 | 上海易维视科技股份有限公司 | 基于深度信息的手势识别方法及系统 |
US10304208B1 (en) * | 2018-02-12 | 2019-05-28 | Avodah Labs, Inc. | Automated gesture identification using neural networks |
CN109840586A (zh) * | 2017-11-28 | 2019-06-04 | 英特尔公司 | 自主机器中对有问题的传感器的基于深度学习的实时检测和校正 |
-
2019
- 2019-06-27 CN CN201910567789.1A patent/CN110427945A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013000099A1 (en) * | 2011-06-29 | 2013-01-03 | Intel Corporation | Techniques for gesture recognition |
CN104217197A (zh) * | 2014-08-27 | 2014-12-17 | 华南理工大学 | 一种基于视觉手势的点读方法和装置 |
CN106297434A (zh) * | 2015-06-03 | 2017-01-04 | 李璇 | 一种智能幼儿教育系统及其操作方法 |
CN105894873A (zh) * | 2016-06-01 | 2016-08-24 | 北京光年无限科技有限公司 | 一种面向智能机器人的儿童教学方法和装置 |
CN107992507A (zh) * | 2017-03-09 | 2018-05-04 | 北京物灵智能科技有限公司 | 一种儿童智能对话学习方法、系统及电子设备 |
CN109840586A (zh) * | 2017-11-28 | 2019-06-04 | 英特尔公司 | 自主机器中对有问题的传感器的基于深度学习的实时检测和校正 |
US10304208B1 (en) * | 2018-02-12 | 2019-05-28 | Avodah Labs, Inc. | Automated gesture identification using neural networks |
CN109522835A (zh) * | 2018-11-13 | 2019-03-26 | 北京光年无限科技有限公司 | 基于智能机器人的儿童读物阅读与交互方法及系统 |
CN109800676A (zh) * | 2018-12-29 | 2019-05-24 | 上海易维视科技股份有限公司 | 基于深度信息的手势识别方法及系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113128368A (zh) * | 2021-04-01 | 2021-07-16 | 西安电子科技大学广州研究院 | 一种人物交互关系的检测方法、装置及系统 |
CN113510707A (zh) * | 2021-07-23 | 2021-10-19 | 上海擎朗智能科技有限公司 | 一种机器人的控制方法、装置、电子设备及存储介质 |
CN113642488A (zh) * | 2021-08-19 | 2021-11-12 | 三星电子(中国)研发中心 | 物品定位方法和装置 |
CN114063856A (zh) * | 2021-11-17 | 2022-02-18 | 塔米智能科技(北京)有限公司 | 一种身份注册方法、装置、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Garg et al. | Vision based hand gesture recognition | |
Licsár et al. | User-adaptive hand gesture recognition system with interactive training | |
Oka et al. | Real-time tracking of multiple fingertips and gesture recognition for augmented desk interface systems | |
CN111680594B (zh) | 一种基于手势识别的增强现实交互方法 | |
Turk et al. | Perceptual interfaces | |
CN110427945A (zh) | 一种基于实物及手势的交互方法和计算机设备 | |
Yin et al. | Toward natural interaction in the real world: Real-time gesture recognition | |
Kumar et al. | Mouse simulation using two coloured tapes | |
Pang et al. | A real time vision-based hand gesture interaction | |
Lech et al. | Gesture-based computer control system applied to the interactive whiteboard | |
Demirdjian et al. | Untethered gesture acquisition and recognition for virtual world manipulation | |
CN109725722B (zh) | 有屏设备的手势控制方法和装置 | |
Chen et al. | A dynamic gesture interface for virtual environments based on Hidden Markov Models | |
Choondal et al. | Design and implementation of a natural user interface using hand gesture recognition method | |
CN115016641A (zh) | 基于手势识别的会议控制方法、装置、会议系统和介质 | |
Zaletelj et al. | Vision-based human-computer interface using hand gestures | |
Sato et al. | Video-based tracking of user's motion for augmented desk interface | |
Le et al. | Remote mouse control using fingertip tracking technique | |
Bhuyan et al. | Hand motion tracking and trajectory matching for dynamic hand gesture recognition | |
Lech et al. | Hand gesture recognition supported by fuzzy rules and Kalman filters | |
Ko et al. | Untethered gesture acquisition and recognition for a multimodal conversational system | |
Sherrah et al. | Interpretation of group behaviour in visually mediated interaction | |
Rautaray et al. | Manipulating objects through hand gesture recognition in virtual environment | |
Mazumdar et al. | Adaptive hand segmentation and tracking for application in continuous hand gesture recognition | |
Kansal et al. | Volume Control feature for gesture recognition in Augmented and Virtual reality applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 350000 building 18, 89 software Avenue, Gulou District, Fuzhou City, Fujian Province Applicant after: Ruixin Microelectronics Co.,Ltd. Address before: 350000 building 18, 89 software Avenue, Gulou District, Fuzhou City, Fujian Province Applicant before: FUZHOU ROCKCHIP ELECTRONICS Co.,Ltd. |