CN106095081A - 人机交互方法及装置 - Google Patents

人机交互方法及装置 Download PDF

Info

Publication number
CN106095081A
CN106095081A CN201610384381.7A CN201610384381A CN106095081A CN 106095081 A CN106095081 A CN 106095081A CN 201610384381 A CN201610384381 A CN 201610384381A CN 106095081 A CN106095081 A CN 106095081A
Authority
CN
China
Prior art keywords
hand
user
information
described user
gesture feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610384381.7A
Other languages
English (en)
Inventor
叶坚挺
邱铭龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Lianbao Information Technology Co Ltd
Original Assignee
Hefei Lianbao Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Lianbao Information Technology Co Ltd filed Critical Hefei Lianbao Information Technology Co Ltd
Priority to CN201610384381.7A priority Critical patent/CN106095081A/zh
Publication of CN106095081A publication Critical patent/CN106095081A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种人机交互方法及装置,所述方法包括:获取用户手部信息;所述手部信息包括:所述用户的手部位置信息和手部姿态;根据所述用户手部信息,判断所述用户的手部动作是否为输入动作;若所述用户的手部动作为输入动作,则根据所述用户的手部姿态,进行相应的操作。本发明的技术方案通过获取用户手部信息,其中用户的手部信息包括手部的位置和手部姿态,然后根据用户手部位置信息和手部姿态确定用户的手部动作是否为输入动作,再根据用户的手手势特征,执行与手热特征相对应的操作,从而使用户不需要切换键盘和鼠标,提高了计算机的输入效率。

Description

人机交互方法及装置
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种人机交互方法及装置。
背景技术
随着科技的进步,计算机的操作方式也在不断地改变,键盘、鼠标或触控板等操作装置陆续被提出,来解决使用者面临的输入操作问题。而且由于计算机的日益普及,计算机的输入装置的发展也是日新月异。
人们在使用计算机时需要用键盘打字,或是移动到触控板来对计算机输入数据,或者使用鼠标进行操作。人们的手部不停地在键盘、鼠标或触控板之间来回移动。当人们的手部在键盘、鼠标或触控板之间来回切换时,从而降低计算机的输入效率。
发明内容
有鉴于此,本发明的目的是提供一种能够提高计算机输入效率的人机交互方法及装置。
为了实现上述目的,本发明提供了一种人机交互法,包括:
获取用户手部信息,所述手部信息包括所述用户的手部位置信息和手部姿态信息;
根据所述用户手部信息,判断所述用户的手部动作是否为输入动作;
若判断结果为所述用户的手部动作为输入动作,则根据所述用户的手部姿态信息,进行相应的操作。
优选地,获取用户手部信息,包括:
通过对所述用户的手部进行红外感测,获取所述用户手部的红外感测信号;
根据所述红外感测信号,确定所述用户的手部位置信息。
优选地,获取用户手部信息,还包括:
通过对所述用户的手部进行拍摄,获取所述用户手部的视频流;
对所述用户手部的视频流进行解析,以获取所述用户的手部姿态信息。
优选地,判断所述用户的手部动作是否为输入动作,包括:
判断所述用户的手部位置信息是否对应于键盘区域;
判断所述用户的手部姿态是否为预定的操作姿态。
优选地,根据所述用户的手部姿态信息,进行相应的操作,包括:
从所述用户的手部姿态信息中提取手势特征;
将提取的所述手势特征与预存储的手势特征进行比对;
若一致,则执行所述预存储的手部特征所对应的操作。
基于同一发明构思,本发明还提供一种人机交互装置,包括:
获取模块,配置为获取用户手部信息,所述手部信息包括,所述用户的手部位置信息和手部姿态信息;
判断模块,配置为根据所述用户手部信息,判断所述用户的手部动作是否为输入动作;
处理模块,配置为当所述判断模块判断所述用户的手部动作为输入动作时,根据所述用户的手部姿态信息,进行相应的操作。
优选地,所述获取模块包括:
红外感测部,其配置为通过对所述用户的手部进行红外感测来获取所述用户手部的红外感测信号;
第一数据处理部,其配置为根据所述红外感测信号,确定所述用户的手部位置信息。
优选地,所述获取模块,还包括:
拍摄部,其配置为通过对所述用户的手部进行拍摄获取所述用户手部的视频流;
第二数据处理部,其配置为对所述用户手部的视频流进行解析,以获取所述用户的手部姿态信息。
优选地,所述判断模块包括:
位置判断部,其配置为判断所述用户的手部位置信息是否对应于键盘区域;
姿态判断部,其配置为判断所述用户的手部姿态是否为预定的操作姿态。
优选地,所述处理模块包括:
提取部,其配置为从所述用户的手部姿态信息中提取手势特征;
存储部,其配置为预存储有多个手势特征以及与各手势特征对应存储的操作信息;
比对部,其配置为将提取的所述手势特征与预存储的手势特征进行比对;
执行部,其配置为当提取的手势特征与预存储的手势特征一致时,根据与所述手势特征对应存传课的操作信息而执行与所述预存储的手势特征所对应的操作。
与现有技术相比,本发明具有以下有益效果:本发明的技术方案通过获取用户手部信息,其中用户的手部信息包括手部的位置和手部姿态,然后根据用户手部位置信息和手部姿态确定用户的手部动作是否为输入动作,再根据用户的手手势特征,执行与手热特征相对应的操作,从而使用户不需要切换键盘和鼠标,提高了计算机的输入效率。
附图说明
图1为本发明的人机交互方法的实施例一的流程图;
图2为本发明的人机交互方法的实施例二的流程图;
图3为本发明的人机交互方法的实施例二的用户手部位置和手部姿态示意图图;
图4为本发明的人机交互装置的实施例一的示意图;
图5为本发明的人机交互装置的实施例二的示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
图1为本发明的人机交互方法的实施例一的流程图,如图1所示,本实施例的人机交互方法,具体可以包括如下步骤:
S101,获取用户手部信息,所述手部信息包括所述用户的手部位置信息和手部姿态信息。
本发明的执行主体是计算机。获取用户手部信息的方式可以包括利用传感器采集用户手部的红外信号,或摄像头采集用户手部的姿态。采集用户手部位置信息的方法可以包括,在计算机上设置外传感器、位置传感器或光传感器等,当然还可以采用摄像头采集用户手部的视频的方式,来确定用户手部的位置信息。采集用户手部姿态信息可以采用摄像头采集用户手部的视频流的方式来获取用户手部姿态信息。
S102,根据用户手部信息,判断用户的手部动作是否为输入动作。
在具体实施时,用户的手部会随时停止按压键盘并离开键盘,计算机上设置有红外传感器和摄像头,当用户手部随时停止按压键盘并离开键盘时,开始实时采集用户的手部信息,以便于根据用户的手部信息判断用户的手部动作是否为输入动作,一般来讲确定手部动作是否为输入动作的方法可以包括提取手部动作的特征,例如,用户的手手部动作是否为五指并拢、手掌弯曲、手部位于键盘区域等特征来确定手部动作是否为输入动作。
S103,若判断结果为用户的手部动作为输入动作,则根据用户的手部姿态信息进行相应的操作。
具体地,用户手部停止按压键盘并离开键盘后,不一定是想利用手部姿态信息对计算机进行操作,所以计算机应先判断用户的手部动作是否为输入动作,例如,用户的手部位置信息是否位于输入区域,以笔记本为例,输入区域可以是笔记本电脑的键盘上方。根据用户的手部姿态信息所对应的对计算机的输入命令,对计算机执行相应的操作。至于用户的手部姿态信息计算机的输入命令可以预先进行存储。
本发明的技术方案通过获取用户手部信息;其中用户的手部信息包括手部的位置和手部姿态信息,然后根据用户手部位置信息和手部姿态信息确定用户的手部动作是否为输入动作,再根据用户的手手势特征,执行与手热特征相对应的操作,从而使用户不需要切换键盘和鼠标,提高了计算机的输入效率。
图2为本发明的人机交互方法的实施例二的流程图,本实施例的移动人机交互方法在上述实施例一的基础上,进一步更加详细地介绍本发明的 技术方案。如图2所示,本实施例的人机交互方法,具体可以包括如下步骤:
S201,通过对用户的手部进行红外感测,获取用户手部位置信息的红外感测信号。
本发明的获取用户手部位置信息的方法有很多种,例如,可以在计算机的键盘区域上设置被动红外传感器(Passive Infrared Sensor),以确定用户的手部位置。但是用户在按压键盘时,手部仍然在键盘区域,因此,本实施例,当用户手部按压键盘上的按键时,并不采集用户的手部位置,而当用户停止按压键盘上的按键时才开始采集用户手部所发出的红外感测信号。在本发明的其他实施例中,也可以采用其他类型的传感器,例如,位置传感器和光电传感器等。
S202,根据红外感测信号,确定用户的手部位置信息。
具体地,根据在计算机的键盘区域所设置的被动红外传感器,可以确定用户的手部位置,当用户的手部位于键盘区域上方时,再判断用户的手势,以确定用户是否做出输入动作。
S203,通过对用户的手部进行拍摄,获取用户手部的视频流。
具体地,计算机上设置有摄像头,当用记在计算机上进行操作时,摄像头实时采集用户手部的视频流。在本发明的其他实施例中,也可以不在计算机上设置被动红外传感器,而仅设置摄像头,通过对摄像头获取的视频流进行解析以获取用户的手部位置信息。本发明作为优选方案,由于被动式红外传感器能够直接采集到用户的手部位置信息,相对速度较快,用户体验较好。
S204,对用户手部的视频流进行解析,以获取用户的手部姿态信息。
具体地,计算机根据用户手部的视频流进行解析,解析的方法可以采用现有技术中的常用方法手势跟踪方法,获取用户手部前一帧的图像,确定用户手部在图像中的位置,再获取用户手部后一帧的图像,确定用户手部在图像中的位置,对用户手部在图像中的位置进行比对,可以获取用户手部姿态信息。
S205,根据用户手部位置信息和手部姿态信息,判断用户的手部动作是否为输入动作。
在本实施例中,用户手部会随时离开键盘,或者进行其他的动作,因此,计算机需要实时采集用户手部信息,并根据用户手部信息进行判断,以确定用户是否正在利用手部姿态信息对计算机进行操作。但是,如果计算机一直采集用户手部的红外感测信号和用户手部的视频流,则会占用计算机的中央处理器的使用率,因此在本发明的其中一个实施例中,当用户手部停止按压键盘时,才启动对用户手部位置信息和手部姿态信息的采集,以判断用户的手部动作是否为输入动作。本实施例中当用户做出输入动作时,手部位置和手部姿态如图3所示。
举例来说,判断用户的手部动作是否为输入动作可以包括:A,判断用户的手部位置信息是否处于键盘区域;B,若是,则判断用户手部五指是否并拢,呈握鼠标的姿态。
在本实施例中,以键盘区域作为输入区域,在本发明的其他实施例中,也可以仅设置摄像头采集用户的手部信息,根据摄像头来判断用户手部位置和手部姿态信息,但是本发明采用被动式红外传感器的方式,可以直接获得用户手部的红外感测信号,处理速度更快一些。具体地,用户手部虽然处于键盘区域,但并不一定为输入状态,只有当用手户手部弯曲,五指并拢,呈鼠标的姿态,才认为是用户呈输入状态,对计算进行操作。当用户的手部没有做出输入动作时,计算机继续执行当前的操作。
S206,若判断结果为用户的手部动作为输入动作,则从所述用户的手部姿态信息中提取手势特征。
具体地,当用户的手部动作为输入动作时,计算机可以从用户的手势姿态信息中提取手势特征,并根据手势特征所对应的命令,执行相应的操作。在本实施例中,获取用户的手部姿态信息的手势特征所采用的方法可以为现有技术中常用的方法,例如,camshift算法和卡尔曼滤波算法等手势跟踪算法,但并不限于此。
S207,将提取的手势特征与预存储的手势特征进行比对。
具体地,用户的手部姿态信息为一种握鼠标的姿态,因此用户手部的每一种手势特征与用户操作实际鼠标的动作是一一对应的,计算机根据用户的手势特征所执行的操作与用户操作鼠标时计算机所执行的操作也是一一对应的。例如,手势特征与操作鼠标的对应关系可以包括:①手部移动动作,对应鼠标滑动动作;②食指单击动作,对应单击鼠标左键动作;③中食单击动作,对应单鼠标右键动作;④食指双击动作,对应双击鼠 标左键动作;⑤中指向前方滑动动作,对应鼠标向上滑动滚轮动作;⑥中指向后方滑动动作,对应鼠标向下滑动滚轮的动作。在本发明的其他实施例中也可以将手部特征与操作鼠标的对应关系设置为其他对应关系,而不限于此。
S208,若一致,则执行预存储的手势特征所对应的操作。
具体地,用户手部停止按压键盘并离开键盘后,不一定是想利用手部姿态信息对计算机进行操作,所以计算机应先判断用户的手部动作是否为输入动作,例如,用户的手部位置信息是否位于输入区域,以笔记本为例,输入区域可以是笔记本电脑的键盘上方。根据用户的手部姿态信息所对应的对计算机的输入命令,对计算机执行相应的操作。
本发明的技术方案通过获取用户手部信息,其中用户的手部信息位置和手部姿态信息,然后根据用户手部位置信息和手部姿态信息确定用户的手部动作是否为输入动作,再根据用户的手部姿态信息进行手势特征提取,根据手势特征所对应的命令,执行相应的操作,从而使用户不需要切换键盘和鼠标,提高了计算机的输入效率。
图4为本发明的人机交互装置的实施例一的示意图,如图4所示,本实施例的人机交互装置,具体可以包括获取模块41、判断模块42和处理模块43。
获取模块41,配置为获取用户手部信息,所述手部信息包括所述用户的手部位置信息和手部姿态信息;
判断模块42,配置为根据所述用户手部信息,判断所述用户的手部动作是否为输入动作;
处理模块43,配置为当所述判断模块判断所述用户的手部动作为输入动作时,根据所述用户的手部姿态信息进行相应的操作。
本实施例的人机交互装置,通过采用上述模块实现人机交互的实现机制与上述图1所示实施例的人机交互方法的实现机制相同,详细可以参考上述图1所示实施例的记载,在此不再赘述。
图5为本发明的人机交互装置的实施例二的示意图,本实施例的人机交互装置在如图4所示的实施例一的基础上,进一步更加详细地介绍本发 明的技术方案。如图4所示,本实施例的人机交互装置,进一步可以包括如下。
进一步地,获取模块41包括:
红外感测部411,其配置为通过对所述用户的手部进行红外感测来获取所述用户手部的红外感测信号;
第一数据处理部412,其配置为根据所述红外感测信号,确定所述用户的手部位置信息。
获取模块41还包括:
拍摄部413,其配置为通过对所述用户的手部进行拍摄来获取所述用户手部的视频流;
第二数据处理部414,其配置为对所述用户手部的视频流进行解析,以获取所述用户的手部姿态信息。
判断模块42包括:
位置判断部421,其配置为判断所述用户的手部位置信息是否对应于键盘区域;
姿态判断部422,其配置为判断所述用户的手部姿态信息是否为预定的操作姿态。
处理模块43包括:
提取部431,其配置为从所述用户的手部姿态信息中提取手势特征;
存储部432,其配置为预存储有多个手势特征以及与各手势特征对应存储的操作信息;
比对部433,其配置为将提取的所述手势特征与预存储的手势特征进行比对;
执行部434,其配置为当提取的手势特征与预存储的手势特征一致时,根据与所述手势特征对应存储的操作信息而执行与所述预存储的手势特征所对应的操作。
本实施例的人机交互装置,通过采用上述模块实现人机交互的实现机制与上述图2所示实施例的人机交互方法的实现机制相同,详细可以参考上述图2所示实施例的记载,在此不再赘述。
以上实施例仅为本发明的示例性实施例,不用于限制本发明,本发明的保护范围由权利要求书限定。本领域技术人员可以在本发明的实质和保 护范围内,对本发明做出各种修改或等同替换,这种修改或等同替换也应视为落在本发明的保护范围内。

Claims (10)

1.一种人机交互方法,其特征在于,包括:
获取用户手部信息,所述手部信息包括所述用户的手部位置信息和手部姿态信息;
根据所述用户手部信息,判断所述用户的手部动作是否为输入动作;
若判断结果为所述用户的手部动作为输入动作,则根据所述用户的手部姿态信息进行相应的操作。
2.根据权利要求1所述的方法,其特征在于,获取用户手部信息包括:
通过对所述用户的手部进行红外感测,获取所述用户手部的红外感测信号;
根据所述红外感测信号,确定所述用户的手部位置信息。
3.根据权利要求1或2所述的方法,其特征在于,获取用户手部信息还包括:
通过对所述用户的手部进行拍摄,获取所述用户手部的视频流;
对所述用户手部的视频流进行解析,以获取所述用户的手部姿态信息。
4.根据权利要求3所述的方法,其特征在于,判断所述用户的手部动作是否为输入动作包括:
判断所述用户的手部位置信息是否对应于键盘区域;
判断所述用户的手部姿态是否为预定的操作姿态。
5.根据权利要求1所述的方法,其特征在于,根据所述用户的手部姿态信息进行相应的操作包括:
从所述用户的手部姿态信息中提取手势特征;
将提取的所述手势特征与预存储的手势特征进行比对;
若一致,则执行所述预存储的手势特征所对应的操作。
6.一种人机交互装置,其特征在于,包括:
获取模块,配置为获取用户手部信息,所述手部信息包括所述用户的手部位置信息和手部姿态信息;
判断模块,配置为根据所述用户手部信息,判断所述用户的手部动作是否为输入动作;
处理模块,配置为当所述判断模块判断所述用户的手部动作为输入动作时,根据所述用户的手部姿态信息进行相应的操作。
7.根据权利要求6所述的装置,其特征在于,所述获取模块包括:
红外感测部,其配置为通过对所述用户的手部进行红外感测来获取所述用户手部的红外感测信号;
第一数据处理部,其配置为根据所述红外感测信号,确定所述用户的手部位置信息。
8.根据权利要求6或7所述的装置,其特征在于,所述获取模块还包括:
拍摄部,其配置为通过对所述用户的手部进行拍摄来获取所述用户手部的视频流;
第二数据处理部,其配置为对所述用户手部的视频流进行解析,以获取所述用户的手部姿态信息。
9.根据权利要求8所述的装置,其特征在于,所述判断模块包括:
位置判断部,其配置为判断所述用户的手部位置信息是否对应于键盘区域;
姿态判断部,其配置为判断所述用户的手部姿态是否为预定的操作姿态。
10.根据权利要求6所述的装置,其特征在于,所述处理模块包括:
提取部,其配置为从所述用户的手部姿态信息中提取手势特征;
存储部,其配置为预存储有多个手势特征以及与各手势特征对应存储的操作信息;
比对部,其配置为将提取的所述手势特征与预存储的手势特征进行比对;
执行部,其配置为当提取的手势特征与预存储的手势特征一致时,根据与所述手势特征对应存储的操作信息而执行与所述预存储的手势特征所对应的操作。
CN201610384381.7A 2016-05-30 2016-05-30 人机交互方法及装置 Pending CN106095081A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610384381.7A CN106095081A (zh) 2016-05-30 2016-05-30 人机交互方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610384381.7A CN106095081A (zh) 2016-05-30 2016-05-30 人机交互方法及装置

Publications (1)

Publication Number Publication Date
CN106095081A true CN106095081A (zh) 2016-11-09

Family

ID=57448043

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610384381.7A Pending CN106095081A (zh) 2016-05-30 2016-05-30 人机交互方法及装置

Country Status (1)

Country Link
CN (1) CN106095081A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109190478A (zh) * 2018-08-03 2019-01-11 北京猎户星空科技有限公司 焦点跟随过程中目标对象的切换方法、装置及电子设备
CN112487844A (zh) * 2019-09-11 2021-03-12 华为技术有限公司 手势识别方法、电子设备、计算机可读存储介质和芯片
CN116614666A (zh) * 2023-07-17 2023-08-18 微网优联科技(成都)有限公司 一种基于ai摄像头特征提取系统及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1378171A (zh) * 2002-05-20 2002-11-06 许旻 一种计算机输入系统
US20100199228A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding
CN101847057A (zh) * 2010-06-01 2010-09-29 郭小卫 一种触摸板获取输入信息的方法
CN101937267A (zh) * 2009-07-03 2011-01-05 北京宏景捷讯网络技术股份有限公司 模拟鼠标输入的方法及装置
CN102200830A (zh) * 2010-03-25 2011-09-28 夏普株式会社 基于静态手势识别的非接触控制系统和控制方法
CN102467237A (zh) * 2011-11-17 2012-05-23 厦门集芯科技有限公司 一种由非接触式手势动作实现鼠标功能的装置及其方法
CN104331154A (zh) * 2014-08-21 2015-02-04 周谆 实现非接触式鼠标控制的人机交互方法和系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1378171A (zh) * 2002-05-20 2002-11-06 许旻 一种计算机输入系统
US20100199228A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding
CN101937267A (zh) * 2009-07-03 2011-01-05 北京宏景捷讯网络技术股份有限公司 模拟鼠标输入的方法及装置
CN102200830A (zh) * 2010-03-25 2011-09-28 夏普株式会社 基于静态手势识别的非接触控制系统和控制方法
CN101847057A (zh) * 2010-06-01 2010-09-29 郭小卫 一种触摸板获取输入信息的方法
CN102467237A (zh) * 2011-11-17 2012-05-23 厦门集芯科技有限公司 一种由非接触式手势动作实现鼠标功能的装置及其方法
CN104331154A (zh) * 2014-08-21 2015-02-04 周谆 实现非接触式鼠标控制的人机交互方法和系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109190478A (zh) * 2018-08-03 2019-01-11 北京猎户星空科技有限公司 焦点跟随过程中目标对象的切换方法、装置及电子设备
CN112487844A (zh) * 2019-09-11 2021-03-12 华为技术有限公司 手势识别方法、电子设备、计算机可读存储介质和芯片
CN116614666A (zh) * 2023-07-17 2023-08-18 微网优联科技(成都)有限公司 一种基于ai摄像头特征提取系统及方法
CN116614666B (zh) * 2023-07-17 2023-10-20 微网优联科技(成都)有限公司 一种基于ai摄像头特征提取系统及方法

Similar Documents

Publication Publication Date Title
US10126826B2 (en) System and method for interaction with digital devices
KR100687737B1 (ko) 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US9063573B2 (en) Method and system for touch-free control of devices
CN104571852B (zh) 图标的移动方法及装置
Taylor et al. Type-hover-swipe in 96 bytes: A motion sensing mechanical keyboard
US20150220150A1 (en) Virtual touch user interface system and methods
US20150220149A1 (en) Systems and methods for a virtual grasping user interface
US20120293434A1 (en) Touch alphabet and communication system
CN106104421A (zh) 一种指环式无线指感控制器、控制方法及控制系统
US20150033177A1 (en) System and method for inputting symbols
US10228794B2 (en) Gesture recognition and control based on finger differentiation
An et al. Finger gesture-based mobile user interface using a rear-facing camera
CN106095081A (zh) 人机交互方法及装置
KR100962569B1 (ko) 손의 모양 변화에 기초하여 제어되는 가상 마우스 장치 및그 구동 방법
JP2024520943A (ja) キー機能実行方法、キー機能実行システム、キー機能実行装置、電子機器、及びコンピュータプログラム
Yin et al. CamK: Camera-based keystroke detection and localization for small mobile devices
CN104798014A (zh) 基于姿势的分区切换
Ling et al. Secure fingertip mouse for mobile devices
CN113282164A (zh) 一种处理方法和装置
CN105912239A (zh) 移动终端的操作控制方法及移动终端
Pansare et al. Gestuelle: A system to recognize dynamic hand gestures using hidden Markov model to control windows applications
KR20230168568A (ko) 정보 입력 방법 및 장치, 전자 기기 및 저장 매체
Patel et al. Hand gesture recognition used for functioning system using opencv
CN104461284B (zh) 关联方法及装置
US20170277338A1 (en) Control method for terminal and terminal

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20161109