CN108027648A - 一种可穿戴设备的手势输入方法及可穿戴设备 - Google Patents

一种可穿戴设备的手势输入方法及可穿戴设备 Download PDF

Info

Publication number
CN108027648A
CN108027648A CN201680049793.3A CN201680049793A CN108027648A CN 108027648 A CN108027648 A CN 108027648A CN 201680049793 A CN201680049793 A CN 201680049793A CN 108027648 A CN108027648 A CN 108027648A
Authority
CN
China
Prior art keywords
area
gesture
identification
wearable device
identification area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201680049793.3A
Other languages
English (en)
Inventor
杨波
金庆浩
张泽狮
贺真
卢睿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of CN108027648A publication Critical patent/CN108027648A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及终端技术领域,具体涉及一种可穿戴设备的手势输入方法及可穿戴设备。该收拾输入方法包括,通过传感器采集轨迹识别区内用户手势运动的运动轨迹,轨迹识别区为设置于传感器预设的扫描区域内的区域,轨迹识别区包括手势识别区和设于手势识别区之上的手势感应区;根据轨迹识别区的区域信息将手势识别区内的运动轨迹识别为输入的信息,区域信息包括轨迹识别区的坐标系信息。在该轨迹识别区内的手势识别区内的用户手势运动的运动轨迹,计算该运动轨迹在该坐标系中的位置,而后将坐标系中运动轨迹的位置识别为输入的信息,解决了现有技术操作区域有限问题,并且由于采用手势输入的方式,输入准确度和适用环境范围会大大提高。

Description

一种可穿戴设备的手势输入方法及可穿戴设备 技术领域
本发明涉及终端技术领域,具体涉及一种可穿戴设备的手势输入方法及可穿戴设备。
背景技术
随着系统级芯片(System on Chip,SOC)的高速发展,其体积越来越来越小的同时却具有越来越高的性能,并且能够同时集成多种功能,由此带动了智能的可穿戴设备的发展,一些可穿戴设备甚至集成了一些移动操作系统,如安卓操作系统和IOS操作系统,在一些情况下能够取代手机或者平板电脑的功能。
目前的可穿戴设备受限于结构大小的限制,操作区域有限,既无法配备较大的触摸屏,也无法配备较多的按键,导致信息的输入一般采用如下几种方式,1、通过设置常用短语和表情图标,在信息回复时直接从列表中点选实现信息的输入;2、通过语音输入,通过内置的语音系统将语音识别成文文字信息输入;3、将可穿戴设备尽量做大,以适配更大操作区域,从而能够设计更大的触摸屏或者更多的按键。
然而,对于方式1,表达受限,实用性低;对于方式2,使用环境受限;对于方式3,可穿戴设备尺寸大,导致佩戴舒适性不足,并且受限于可穿戴方式,仅能有限的增大尺寸,从而操作区域仍然偏小。
发明内容
本发明实施例提供了一种可穿戴设备的手势输入方法及可穿戴设备来解决现有可穿戴设备采用常用语回复表达受限、语音输入使用环境受限以及设备尺寸大但是操作区域依然较小的问题。
有鉴于此,本发明第一方面提供一种可穿戴设备的手势输入方法,该方法中,由于可穿戴设备内设有传感器,可在传感器的扫描区域内选取一区域作为轨迹识别区,且该轨迹识别区包括两个部分,一部分作为实际识别运动轨迹的 手势识别区和设置在手势识别区上的手势感应区,而后通过传感器采集此轨迹识别区内用户手势运动的运动轨迹,最后根据轨迹识别区的区域信息,该区域信息可以是轨迹识别区的坐标系信息,将手势识别区内采集的运动轨迹识别为输入的信息。
可以看出,依靠传感器设置轨迹识别区,该轨迹识别区的位置及大小与传感器的扫描区域相关,通过传感器不停的对轨迹识别区进行扫描,从而得出在该轨迹识别区内的手势识别区内的用户手势运动的运动轨迹,而后以该轨迹识别区的坐标系信息为基础对该运动轨迹进行识别,即计算该运动轨迹在该坐标系中的位置,而后将坐标系中运动轨迹的位置识别为输入的信息,由于该轨迹识别区是以传感器的扫描区域为基础设定的,因此其大小可以自行设定,从而使得输入信息的操作区域的大小也可自行定义,解决了现有技术操作区域有限问题,并且由于采用手势输入的方式,输入准确度和适用环境范围会大大提高。
在一些实施例中,由于传感器扫描区域是不可见的,为了更便于用户在准确的区域内进行手势运动,可在可穿戴设备上设置显示屏,且将轨迹识别区内的运动轨迹同步映射至该显示屏上,且将轨迹识别区内的位置与所述显示屏内的位置设置为相对应,从而使得手势运动更为直观,更有利于通过手势运动实现信息的输入。
在一些实施例中,传感器可以仅仅识别手势识别区的运动轨迹,而不必要对整个轨迹识别区内的运动轨迹进行识别,此时,在识别输入的信息时,首先根据所述轨迹识别区的区域信息确定所述手势识别区的区域信息,而后根据所述手势识别区的区域信息对此运动轨迹进行识别即可,可以看出,仅需要直接识别手势识别区内的运动轨迹即可,能够提高手势识别的效率。
在一些实施例中,对于信息的输入来说,都是通过二维识别,如字符和文字等,将运动轨迹识别为输入的信息可以首先根据手势识别区的区域信息确定识别基准面,该识别基准面作为最终进行二维识别的参考平面,之后再将手势识别区内的运动轨迹投影至该识别基准面,最后再识别该识别基准面内的内容达到对输入的信息的识别的效果。由于手势识别区一般而言考虑到运动轨迹的三维空间性,即不可能仅在一个平面上输入,因此会设计成一个三维的空间, 以容纳三维的运动轨迹,而在实际识别运动轨迹时,又需要转换为二维,因此设置此识别基准面用以配合运动轨迹的识别,提高轨迹识别的效率。
在一些实施例中,手势感应区也可以对运动轨迹进行识别,不过在手势感应区的运动轨迹无需进行识别,仅需要以该运动轨迹的位置为基础在显示屏的对应位置上显示出光标即可。能够给予用户更为友好的输入提示。
在一些实施例中,手势识别区和手势感应区是相接触的,且两区域都位于可穿戴设备的上方,因此运动轨迹在穿过手势感应区就会抵达手势识别区,手势感应区相当于书写操作的提笔区域,而手势识别区相当于书写操作的落笔书写区域,从而手势识别区和手势感应区相接触的设置能够模拟真实的提笔区域和落笔书写区域,由于无需重新适应新的输入习惯,能够提高手势输入方法的输入效率。
在一些实施例中,手势识别区和手势感应区也可以不仅在可穿戴设备的上方,而可以位于可穿戴设备的斜上方或侧方,只要是在传感器的扫描范围之内即可。此方式能够增强该手势输入方法的可扩展性。
在一些实施例中,手势识别区除了设置在可穿戴设备的上方作为悬空的输入方式之外,还可将该手势识别区设置为识别面,具体的,在识别时,会根据所述手势识别区的区域信息将在第一识别面内的运动轨迹识别为输入的信息,且该第一识别面可以是平面或者曲面。该第一识别面可以与物体的表面的重合,从而使得用户在物体表面上进行书写操作能够被识别为输入的信息,能够提高手势输入方法的可实现性,此外平面或曲面的设置能够满足不同形状的物体表面,增强手势输入方法的可扩展性。
在一些实施例中,物体表面相对于可穿戴设备之间会发生运动,从而会导致第一识别面与物体表面之间产生夹角,从而会影响手势输入,此时可设置一预设识别面,该预设识别面为第一识别面与物体表面重合时的识别面,即为最佳识别面,当可穿戴设备与物体之间发生相对运动时,第一识别面会与该预设识别面之间产生夹角,当此夹角超过预设的角度阈值时,手势输入的效果会变差,此时会发出提醒,以提示需要调整第一识别面。
在一些实施例中,可穿戴设备为手腕可穿戴设备,第一识别面位于所述可 穿戴设备的穿戴者的手背上。此设置由于手背作为书写区域大小足够,直接将第一识别面设置在手背上,能够便于用户进行手势输入。
在一些实施例中,传感器可以是一个以上的传感器组成的传感器组,且传感器的类型可以是超声波传感器或者红外传感器。可以理解,多个传感器组合的方式能够提高轨迹采集精确度,从而提升识别效率,超声波传感器或者红外传感器可以视实际情况进行选择。
本发明实施例第二方面还提供一种可穿戴设备,该可穿戴设备包括传感器和识别模块两个部分,其中,传感器用于采集轨迹识别区内用户手势运动的运动轨迹,所述轨迹识别区为设置于所述传感器预设的扫描区域内的区域,所述轨迹识别区包括手势识别区和设于所述手势识别区之上的手势感应区;而识别模块用于根据所述轨迹识别区的区域信息将所述手势识别区内的运动轨迹识别为输入的信息,所述区域信息包括所述轨迹识别区的坐标系信息。
可以理解,由于该轨迹识别区是以传感器的扫描区域为基础设定的,因此其大小可以自行设定,从而使得输入信息的操作区域的大小也可自行定义,解决了现有技术操作区域有限问题,并且由于采用手势输入的方式,输入准确度和适用环境范围会大大提高。
在一些实施例中,由于传感器扫描区域是不可见的,为了更便于用户在准确的区域内进行手势运动,所述可穿戴设备还包括,显示屏,用于将所述轨迹识别区的运动轨迹同步映射至所述显示屏内,所述轨迹识别区与所述显示屏内的区域相对应。从而使得手势运动更为直观,更有利于通过手势运动实现信息的输入。
在一些实施例中,传感器可以仅仅识别手势识别区的运动轨迹,而不必要对整个轨迹识别区内的运动轨迹进行识别,此时传感器实际采集的是轨迹识别区内的手势识别区内的运动轨迹;此时识别模块首先根据所述轨迹识别区的区域信息确定所述手势识别区的区域信息;而后根据所述手势识别区的区域信息将所述手势识别区内的运动轨迹识别为输入的信息。由于识别的区域变小,能够提高识别效率。
在一些实施例中,对于信息的输入来说,都是通过二维识别,如字符和文 字等,因此识别模块实际的识别过程可以是,首先根据所述手势识别区的区域信息确定识别基准面;其次,将所述手势识别区内的运动轨迹投影至所述识别基准面;最后将投影至所述识别基准面内的运动轨迹识别为输入的信息。由于手势识别区一般而言考虑到运动轨迹的三维空间性,即不可能仅在一个平面上输入,因此会设计成一个三维的空间,以容纳三维的运动轨迹,而在实际识别运动轨迹时,又需要转换为二维,因此设置此识别基准面用以配合运动轨迹的识别,提高轨迹识别的效率。
在一些实施例中,手势感应区也可以对运动轨迹进行识别,不过在手势感应区的运动轨迹无需进行识别,仅需要以该运动轨迹的位置为基础在显示屏的对应位置上显示出光标即可,此时,传感器还具体用于检测所述手势感应区内的运动轨迹;所述显示屏还用于在所述显示屏内对应所述手势感应区内的运动轨迹的当前位置显示出光标。通过此方式能够给予用户更为友好的输入提示。
在一些实施例中,手势识别区和手势感应区是相接触的,且两区域都位于可穿戴设备的上方,因此运动轨迹在穿过手势感应区就会抵达手势识别区,手势感应区相当于书写操作的提笔区域,而手势识别区相当于书写操作的落笔书写区域,从而手势识别区和手势感应区相接触的设置能够模拟真实的提笔区域和落笔书写区域,由于无需重新适应新的输入习惯,能够提高手势输入方法的输入效率。
在一些实施例中,手势识别区除了设置在可穿戴设备的上方作为悬空的输入方式之外,还可将该手势识别区设置为识别面,所述手势识别区为根据所述手势识别区的区域信息建立的第一识别面,此时识别模块具体用于:根据所述手势识别区的区域信息将在第一识别面内的运动轨迹识别为输入的信息,所述第一识别面为平面或者曲面。该第一识别面可以与物体的表面的重合,从而使得用户在物体表面上进行书写操作能够被识别为输入的信息,能够提高手势输入方法的可实现性,此外平面或曲面的设置能够满足不同形状的物体表面,增强手势输入方法的可扩展性。
在一些实施例中,物体表面相对于可穿戴设备之间会发生运动,从而会导致第一识别面与物体表面之间产生夹角,从而会影响手势输入,为解决此问题, 可穿戴设备还包括提示模块,用于当确定所述第一识别面与预设识别面的夹角超出预设的角度阈值时,发出第一识别面调整提示。当可穿戴设备与物体之间发生相对运动时,第一识别面会与该预设识别面之间产生夹角,当此夹角超过预设的角度阈值时,手势输入的效果会变差,此时会发出提醒,以提示需要调整第一识别面。
在一些实施例中,可穿戴设备为手腕可穿戴设备,第一识别面位于所述可穿戴设备的穿戴者的手背上。此设置由于手背作为书写区域大小足够,直接将第一识别面设置在手背上,能够便于用户进行手势输入。
在一些实施例中,传感器可以是一个以上的传感器组成的传感器组,且传感器的类型可以是超声波传感器或者红外传感器。可以理解,多个传感器组合的方式能够提高轨迹采集精确度,从而提升识别效率,超声波传感器或者红外传感器可以视实际情况进行选择。
本发明实施例第三方面还提供一种可穿戴设备,该可穿戴设备包括传感器、处理器和内存所述传感器用于采集用户手势运动的运动轨迹,所述内存用于存储处理器要执行的指令和数据,所述处理器用于执行所述内存中的指令以实现将手势识别区内的运动轨迹识别为输入的信息。
附图说明
图1是本发明实施例的可穿戴设备的手势输入方法中的直线距离采集示意图;
图2是本发明实施例的可穿戴设备的手势输入方法中的平面距离采集示意图;
图3是本发明实施例的可穿戴设备的手势输入方法中的空间距离采集示意图;
图4是本发明实施例的可穿戴设备的手势输入方法的一个实施例图;
图5为本发明实施例的可穿戴设备的手势输入方法的另一个实施例图;
图6为本发明实施例的可穿戴设备的手势输入方法的另一个实施例图;
图7为本发明实施例的可穿戴设备的手势输入方法的另一个实施例图;
图8为本发明实施例的可穿戴设备的手势输入方法的另一个实施例图;
图9为本发明实施例的可穿戴设备的手势输入方法的另一个实施例图;
图10为本发明实施例的可穿戴设备的手势输入方法的另一个实施例图;
图11为本发明实施例的可穿戴设备的手势输入方法的另一个实施例图;
图12为本发明实施例的可穿戴设备的手势输入方法的另一个实施例图;
图13是本发明实施例的可穿戴设备的手势输入方法的一个实施例图;
图14是本发明实施例的可穿戴设备的一个实施例图;
图15是本发明实施例的可穿戴设备的一个实施例图。
具体实施方式
本发明实施例提供了一种可穿戴设备的手势输入方法及可穿戴设备来解决现有可穿戴设备采用常用语回复表达受限、语音输入使用环境受限以及设备尺寸大但是操作区域依然较小的问题。。
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
以下分别进行详细说明。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。
可穿戴设备的信息的输入是阻碍可穿戴设备发展的一个重要原因,由于输入不便使得可穿戴设备目前仍是一种辅助其他便携终端的工具,例如辅助手机,辅助平板电脑,而事实上,该可穿戴设备的性能在一些功能上已经能够取代这些便携终端,例如代替手机发送短信,代替平板电脑进行一些文字输入。
目前的一些输入方式例如,常用内容快速回复,仅仅是预先设定的固定内 容,内容的编辑上需要通过与该可穿戴设备通信连接的终端进行编辑,但是这些一般都是较为简单的常用语,仅能作为快速回复使用,表达限制性太大,实用性较低;又例如采用语音输入的方式,但是由于语音输入的特性,嘈杂的环境使用效果较差,公共环境考虑到隐私性的需要,也不便于使用,局限性大,此外,将可穿戴设备做的较大,例如智能手表上设置一个较大的表盘,但是由于手表产品特性的限制,即便尽可能做大,相对于手机等终端类设备,依旧是较小,也无法配备足够大的触摸屏或者配备足够多按键进行内容输入。
上述问题均是由于可穿戴设备本身设计空间局促所造成的,因此如何能在较为局促的空间的前提下设计一套符合这种情形的信息输入方式对于可穿戴设备来说,是尤为重要的。
未解决上述问题,本发明实施例采取传感器扫描手势运动的运动轨迹的方式识别出输入的信息,此方式在于在现有的可穿戴设备的基础上添加能够扫描运动轨迹的传感器组,通过对预设空间内的轨迹捕捉作为用户的输入轨迹,对这些轨迹进行识别从而得到相应的输入字符。
本发明实施例中的传感器组主要采用超声波技术的超声波传感器或者红外技术的红外传感器或者二者均采用而组成的传感器组,通过设置测量基准点及基本的坐标信息,而后在捕捉手势在该坐标区域内的运动轨迹,即可实现轨迹的捕捉。下面分别对一维、二维和三维情形下采集轨迹的原理进行说明。
对于情形,即一维线性情形,请参阅图1,图1是本发明实施例的可穿戴设备的手势输入方法中的直线距离采集示意图,图1中传感器组可仅包括传感器A,即最少采用一个传感器即可实现一维情形中的距离的采集,通过传感器A发射出红外光线或者超声波,测量该红外光线或者超声波遇到障碍后返回的时间,根据返回时间可计算出传感器A到被测物体之间的距离,通过记录并得到两次不同的t1时刻和t2时刻传感器A与被测物体之间的距离,从而可以计算出被测物体在t2-t1时间段内沿直线方向移动的距离。
对于情形二,即二维平面情形,请参阅图2,图2是本发明实施例的可穿戴设备的手势输入方法中的平面距离采集示意图,在平面内X轴和Y轴确定的前提下,在图1的基础上传感器组中增加一个传感器B,即最少采用两个传 感器即可实现二维情形中的距离的采集,并且传感器A和传感器B之间的距离L已知,在测量被测物体时,由传感器A和传感器B分别测量与被测物体之间的距离L1和L2,并测量在不同的t1时刻和t2时刻传感器A和传感器B与被测物体之间的距离,从而通过t1时刻的L11和L21数据和t2时刻的L12和L22数据结合距离L即可计算出被测物体在平面上的X轴和Y轴方向上的偏移量,通过连续测量即可确定出被测物体在该平面内的运动轨迹。
对于情形散三,即三维空间情形,请参阅图3,图3是本发明实施例的可穿戴设备的手势输入方法中的空间距离采集示意图,在空间内X轴、Y轴和Z轴确定的前提下,在图2的基础上传感器组中增加一个传感器C,即最少采用三个传感器即可实现三维情形中的距离的采集,并且传感器A、传感器B和传感器C三者不共线,传感器A与传感器B之间、传感器A与传感器C以及传感器B与传感器C之间的距离是已知的,传感器A、传感器B和传感器C之间的距离分别为L1、L2和L3,测量在不同的t1时刻和t2时刻传感器A、传感器B和传感器C与被测物体之间的距离,从而通过t1时刻的L11、L21和L31数据和t2时刻的L12、L22和L32数据结合各传感器之间的固定距离即可计算出被测物体在t1至t2时间段内在三维空间中X轴、Y轴和Z轴方向上的偏移量,连续测量即可确定出被测物体在三维空间中的运动轨迹。
需要说明的是,为了便于计算,可将传感器A设置于X/Z平面和X/Y平面的交界处,传感器B设置于X/Y平面内,传感器C设置于X/Z平面内,此时通过传感器A和传感器B即可测得t1到t2时间段内被测物体在X轴和Y轴方向上的偏移量,通过传感器A和传感器C即可测得t1到t2时间段内被测物体在X轴和Z轴方向上的偏移量,从而得到被测物体在X轴、Y轴和Z轴上的偏移量。
具体的,请参阅图4,图4是本发明实施例的可穿戴设备的手势输入方法的一个实施例图,该方法可包括:
401、通过传感器采集轨迹识别区内用户手势运动的运动轨迹。
其中,所述轨迹识别区为设置于所述传感器预设的扫描区域内的区域,所述轨迹识别区包括手势识别区和设于所述手势识别区之上的手势感应区。
可以理解的是,传感器的数量根据前述三种情形需要的最少数量有所不同,在测量时首先会根据情形对预设的扫描区域进行设置,此外,由于传感器能够采集的区域的不规则性以及对不同区域的采集的精准度的不同,可在传感器的扫描区域中选取采集精准度相对较高的区域作为轨迹识别区进行轨迹识别。此外,将轨迹识别区设置为包括手势识别区和设于所述手势识别区之上的手势感应区能够模拟真实书写情况中的提笔和落笔操作,其中手势感应区可以模拟提笔操作区域,手势识别区可以模拟落笔书写操作区域。
可选的,该传感器可以是多个传感器构成的传感器组,而传感器组中的传感器可主要采用超声波技术的超声波传感器或者红外技术的红外传感器或者二者均采用而组成的传感器组,通过测算红外光线或者超声波在发出后碰到障碍返回的时间计算传感器到障碍物,即被测物体的之间的距离,由于红外光线和超声波的传输速度很快,远高于被测物体的运动速度,因此相对于被测物体的运动过程中的运动距离,在红外光线或者超声波从发射到碰到被测物体返回的时间内的被测物体运动的距离可以忽略不计。
需要说明的是,手势输入方式可以采用的是书写的方式,由其特性决定,会有提笔操作和落笔操作两种,而只有落笔操作的部分才是实际需要进行识别的部分,因此传感器的轨迹识别区需要为两种情形划分出两种不同的区域,即对应提笔操作的区域和对应落笔操作的区域,而落笔操作的区域称之为手势识别区,在该手势识别区内的所有运动轨迹都作为后续识别为输入的信息的基础;而手势感应区则可作为提笔操作区域。
需要说明的是,设置手势感应区和手势识别区还可配合实现类似鼠标的输入操作,如指尖进入手势感应区的操作作为鼠标的左键单击操作,在预设的较短时间内连续进入两次手势感应区则作为左键双击操作,进入手势识别区的操作为鼠标的右键单击操作,指尖在手势感应区内维持预设的时间则为长按操作或者呼出菜单操作,多个指尖同时进入手势感应区可作为多点触控操作。可以看出,由于设置了两个区域,通过两个区域的合理定义能够多种类型的输入操作。
可以理解的是,除了能够模拟鼠标的左键单击、左键双击和右键单击之外, 该输入操作也可以是针对触摸屏的,即可以是单击触摸、双击触摸、长按触摸或者是多点触摸输入等触摸操作。
可选的,在输入过程中,为了便于用户能够识别正在输入的信息,可将运动轨迹同步映射至可穿戴设备的显示屏上,且轨迹识别区与所述显示屏上的区域相对应,请参阅图13,图13是本发明实施例的可穿戴设备的手势输入方法的一个实施例图,图13中可穿戴设备的显示屏上显示的用户在作为轨迹识别区的用户的手背上输入的信息,且显示屏中的内容与轨迹识别区的内容相对应,由于在轨迹识别区中划分手势感应区和手势识别区的情形下,若运动轨迹当前时刻位于手势感应区内,则在显示屏上显示出对应位置的光标,若运动轨迹当前时刻位于手势识别区内,则除了在显示屏上对应位置显示光标之外,还会识别出的书写轨迹也显示在显示屏上,如图中所示,虚线表示在手势感应区内的运动轨迹,而粗实线表示在手势识别区内的运动轨迹,可穿戴设备的显示屏上也映射出手势识别区内的运动轨迹,此外,手势感应区内的手指位置对应显示屏内的光标的位置。
可以理解的是,为了增强用户的输入体验,当进行书写操作时,穿戴设备可以通过显示屏上的光标等浮标图形状态的变化给予用于操作反馈,例如采用不同大小、不同透明度、不同虚实程度等的浮标图形给予操作反馈,当然也可以采用声音或振动作为区分提笔与落笔动作的操作反馈,辅助用户操作,增强用户的输入体验。
需要说明的是,对于手势操作来说,除了使用指尖进行操作,还可以采用与指尖类似的柱状物体进行操作。
当然,除了上述将轨迹识别区中划分出两个区域之外,也可将整个轨迹识别区作为手势识别区,而非轨迹识别区作为提笔操作的区域。这两种情形都需要对是否为连续输入进行确定,在前一种分区域的情形中,由于提笔操作的区域也为轨迹识别区,只要运动轨迹仍在该区域内则表示输入尚未完成,而对于后一种情形,由于没有轨迹识别区作为感应条件,一个可行的方式是增加延时时间,在运动轨迹离开轨迹识别区达到预设时间即确定输入操作完成,而在预设之间内又再次进入轨迹识别区,则表示输入尚未完成。
可选的,手势感应区设置的目的在于只要在该区域内检测到运动轨迹,并在可穿戴设备的显示屏内对应所述手势感应区内的运动轨迹的当前位置显示出光标。当然,也可将该手势感应区作为提笔操作区域,即书写过程中,只要未离开手势感应区则判定书写过程并未中断。。
可选的,上述手势识别区和手势感应区之间可以是相接触的,并且由于轨迹识别区是由传感器的扫描区域确定,因此可以设置在可穿戴设备的任意方位上,例如可穿戴设备的上方,该可穿戴设备的上方的周围,例如用户的手背上,或者是手臂上,该轨迹识别区的位置可根据实际需要进行位置设定,此外,针对不同的可穿戴设备,该轨迹识别区的大小也可自行设定,以满足不同用户对书写区域大小的需求。
举例来说,可穿戴设备为手环或者手表,其书写区域可以直接设置在穿戴该手环或者手表的手的手背上,手环或者手表上的传感器首先将扫描区域覆盖到手背,并在该扫描区域内通过坐标系预定义一个与手背表面类似的区域,当然,也可以实时扫描用户的手背,通过扫描出的手背数据从扫描区域中确定出一个对应该手背的手势识别区,该手势识别区在空间上能够与手背基本重合,而后可在该手势识别区上设置一形状与该手势识别区类似的手势感应区。
当然,对于其他物体,也可参照上述方式按照物体的表面设置手势识别区和手势感应区。
又举例来说,可穿戴设备为眼镜或者类似头戴可穿戴设备,则可将手势识别区设置在用户身前一定距离处,且为了便于用户操作,可将该区域的高度设置在用户的上半身某处,此外,由于这类可穿戴设备会具有一个透明的显示屏,可直接在该透明的显示屏上设置一区域图标,穿过该区域图标内部看到的空间作为轨迹识别区。
举例来说,请参阅图5至图8,图5为本发明实施例的可穿戴设备的手势输入方法的另一个实施例图,图6为本发明实施例的可穿戴设备的手势输入方法的另一个实施例图,图7为本发明实施例的可穿戴设备的手势输入方法的另一个实施例图,图8为本发明实施例的可穿戴设备的手势输入方法的另一个实施例图,在图5至图8中,轨迹识别区1的浅色区域部分为手势感应区11, 而深色区域部分则为手势识别区12,且该手势感应区11和手势识别区12是相接触的,此外,该手势识别区12和手势感应区11在图5和图6中位于可穿戴设备2的上方,而在图7和图8中则位于可穿戴设备2的侧上方,当用户的手指进入手势感应区11时,在可穿戴设备2的显示屏21上会以光标的方式显示出用户手指在手势感应区11的对应位置,而当用户的手指进入手势识别区12时,在可穿戴设备2的显示屏21上不仅会显示出用户手指在手势感应区11的对应位置,而且会显示出用户当前书写的过程。
此外,请参阅图9,图9是本发明实施例的可穿戴设备的手势输入方法的另一个实施例图,其中,轨迹识别区可位于可穿戴设备的侧上方,并且该轨迹识别区可以同时设置多个位置,以便于用户在各个应用场景下均能够顺利操作。
在上述情形下,步骤401具体为:
通过传感器采集所述轨迹识别区内的手势识别区内的运动轨迹。
可以看出,在此情形下,传感器采集的轨迹主要是手势识别区内的轨迹,而非整个轨迹识别区的轨迹,此方式能够减少一部分计算量,从而提高轨迹识别的性能。
402、根据轨迹识别区的区域信息将所述手势识别区内的运动轨迹识别为输入的信息。
其中,所述区域信息包括所述轨迹识别区的坐标系信息。
可以理解的是,为了能够正确识别出运动轨迹中的方向即偏移量信息,需要为轨迹识别区预先设置区域信息,该区域信息可以包括该轨迹识别区的坐标系信息,而由于手势识别区是设置在轨迹识别区内部的一个区域,在确定出轨迹识别区的坐标系信息后,便可以确定出手势识别区的坐标系信息,从而运动轨迹的方向以及偏移量均以该坐标系为基础进行计算。
可选的,若将轨迹识别区中划分出手势识别区和手势感应区的情形下,步骤402具体可为:
根据轨迹识别区的区域信息确定手势识别区的区域信息;
根据所述手势识别区的区域信息将所述手势识别区内的运动轨迹识别为 输入的信息。可以看出,此时无需识别整个轨迹识别区,而是仅需要识别轨迹识别区内的手势识别区即可完成输入的信息的识别,并且由于仅识别一个区域,识别干扰性较小,使得识别的准确性和速率都有所增强。
对于上述手势识别区的具体识别过程,具体可包括以下内容:
a、根据所述手势识别区的区域信息确定识别基准面。
可以理解的是,该识别基准面可以作为纸质书写过程中的纸面,也是用户在书写过程中默认书写的面,由于手势识别区为一个三维空间,在获得该空间内的运动轨迹后,需要对该运动轨迹进行处理才可得到在识别基准面上的轨迹,即最终需要的运动轨迹。
b、将所述手势识别区内的运动轨迹投影至所述识别基准面。
其中,为了使得手势识别区中的运动轨迹能够准确被识别成输入的信息,因此需要将该运动轨迹投影至识别基准面上,从而得到在该识别基准面上的精确的运动轨迹。
c、将投影至所述识别基准面内的运动轨迹识别为输入的信息。
在完成前述步骤a和步骤b后,即可对投影至所述识别基准面内的运动轨迹进行识别,从而通过该运动轨迹识别出想要的输入的信息。
需要说明的是,除了上述采用从轨迹识别区中划分出手势感应区和手势识别区的方式之外,轨迹识别区还可采用如下方式实现。
可选的,述轨迹识别区包括根据所述坐标系建立的第一识别面,所述根据所述轨迹识别区的区域信息将所述运动轨迹识别为输入的信息包括:
根据所述第一识别面的区域信息将在第一识别面内的运动轨迹识别为输入的信息,所述第一识别面为平面或者曲面。
即此情形下,轨迹识别区中真正作为识别的部分并非是一个区域而是一个面,即第一识别面,且该第一识别面可以是平面或者曲面,此方式目的在于区别于前述划分手势感应区和手势识别区的悬空的手势输入方式,此方式可以将真正用作识别的面投影至某一物体的表面,从而获得更为真实的书写体验。
需要说明的是,该第一识别面可设置在一些的物体的表面上。举例来说,当可穿戴设备为智能手表或者智能手环,当该第一识别面设置在用户的手背 上,用户的指尖或者其他类似柱状的物体作为笔尖,该第一识别面作为书写的参照面,当笔尖与第一识别面的距离大于0毫米时,视为提笔操作,当笔尖与第一识别面的距离小于等于0毫米时,则表示为落笔操作。由于人体手背是柔性表面,因此会出现笔尖与第一识别面的距离小于0毫米的情形,此外,该在设置提笔操作的距离时,也可预留预定的余量,如当笔尖与第一识别面的距离大于2毫米时,视为提笔操作,而笔尖与第一识别面的距离小于等于2毫米时,则为落笔操作,该余量可自行设定,可根据物体表面的形状以及第一识别面的大小进行设定。
此外,可选的,类似前述手势识别区和手势感应区的组合,该轨迹识别区中除了第一识别面之外,还可设置第二识别区,该第二识别区域第一识别面相接触,该第二识别区的作用与前述情形中的手势感应区的功能类似,一方面能够作为提笔区域,另一方面能够定位当前手势输入在输入区域内的位置,反应在可穿戴设备上即显示屏上的光标位置。
可选的,除了第一识别面之外,还可设置一个预设识别面,由于可穿戴设备是在佩戴过程中使用输入操作,因此物体相对于可穿戴设备在使用时难免会发生一定角度的移动,导致投影在物体上的第一识别面的大小会发生变化,若移动幅度过大,可能导致输入轨迹的识别不准,因此设置一个预设识别面,当第一识别面的角度与预设识别面夹角超过一定数值后,发出调整提示,从而保证第一识别面在能够在高精度的输入环境下进行输入操作。
其中,对于第一识别面与预设识别面的夹角的计算可以有多种方式,下面以其中一种进行介绍,对于一个物体表面来说,可穿戴设备的不同角度的移动会导致第一识别面在物体表面上投影出的区域大小发生改变,根据大小改变的程度即可计算出当前第一识别面的角度相较于固定的预设识别面之间的夹角。
举例来说,请参阅图10至图12,图10为本发明实施例的可穿戴设备的手势输入方法的另一个实施例图,图11为本发明实施例的可穿戴设备的手势输入方法的另一个实施例图,图12为本发明实施例的可穿戴设备的手势输入方法的另一个实施例图。其中,如图10所示,穿戴设备3为手腕可穿戴设备,轨迹识别区4的第一识别面41位于所述可穿戴设备3的穿戴者的手背上;
此外,如图11所示,该轨迹识别区4还包括第二识别区42,该第二识别区42与第一识别面41相接触,此情形下,用户在第二识别区42内的操作的轨迹均会映射至可穿戴设备3的显示屏上,该轨迹的当前位置会映射至显示屏上作为光标31的位置,此外,只要在该第二识别区42内不接触手背的情况下,都视为提笔操作,只有接触到手背,即相当于接触了第一识别面41才被认作是落笔操作;
另外,图12中给出了前述识别基准面43以及第一识别面41与该识别基准面43之间夹角的示意,图中识别基准面可以是垂直于Z轴的X/Y平面,只要该第一识别面41与X/Y平面的夹角在预设范围内,则由于处于正确的区域不发出第一识别面41调整的提示,而若第一识别面41与X/Y平面的夹角超出预设的范围,则发出第一识别面41调整的提示,指示用户需要对手背进行调整,以达到最佳的书写效果。
上面对本发明实施例的可穿戴设备的手势输入方法进行了介绍,下面对本发明实施例的可穿戴设备进行介绍,请参阅图14,图14是本发明实施例的可穿戴设备的一个实施例图,该可穿戴设备14包括:
传感器1401,用于采集轨迹识别区内用户手势运动的运动轨迹,所述轨迹识别区为设置于所述传感器预设的扫描区域内的区域,所述轨迹识别区包括手势识别区和设于所述手势识别区之上的手势感应区。
其中,该传感器1401能够实现图4所示实施例中步骤401。
此外,该传感器1401可以是多个传感器构成的传感器组,传感器的类型可以是超声波传感器或者是红外传感器,具体的多个传感器1401构成传感器组与图4所示实施例中针对步骤401的说明类似,此处不再赘述。
需要说明的是,设置手势识别区和手势感应区是为了对应实际书写过程的提笔和落笔操作,具体可参见图4所示实施例中针对步骤401的说明类似,此处不再赘述。当然,手势识别区和手势感应区除了实现提笔和落笔操作外,与图4所示实施例中针对步骤401的说明类似,还可以配合实现类似鼠标或者触摸屏的输入操作。
识别模块1402,用于根据所述轨迹识别区的区域信息将所述手势识别区 内的运动轨迹识别为输入的信息,所述区域信息包括所述轨迹识别区的坐标系信息。
可以看出,本发明实施例的可穿戴设备的工作过程可以是先由传感器1401采集轨迹识别区内尤其是手势识别区内的用户手势运动的运动轨迹,而后再由识别模块1402识别运动轨迹的基础为轨迹识别区的区域信息以及在手势识别区内的运动轨迹将运动轨迹识别成输入的信息,完成信息输入的过程。可选的,所述可穿戴设备还包括:
显示屏1403,用于将所述轨迹识别区的运动轨迹同步映射至所述显示屏1403内,所述轨迹识别区与所述显示屏内的区域相对应。
可以理解的是,与图4所实施例中针对步骤401的说明类似,次数的显示屏1403主要用于配合手势感应区显示出光标,该光标反应出的是在手势感应区内的用户手势运动的当前位置,且由于手势感应区与该显示屏1403具有位置对应关系,因此在手势感应区内的当前位置也会对应显示在显示屏1403上。
可选的,所述传感器1401具体用于:采集所述轨迹识别区内的手势识别区内的运动轨迹;
所述识别模块1402具体用于:根据所述轨迹识别区的区域信息确定所述手势识别区的区域信息;根据所述手势识别区的区域信息将所述手势识别区内的运动轨迹识别为输入的信息。
可以看出,与图4所示实施例中步骤402的说明类似,在实际进行运动轨迹识别时,用于确定最终输入的信息为手势识别区内的运动轨迹,因此传感器1401可以仅采集手势识别区内的运动轨迹即可,而识别模块1402在具有轨迹识别区的区域信息的基础上,会根据此区域信息确定出手势识别区的区域信息,即手势识别区的坐标系信息,并通过该坐标系信息对手势识别区内的运动轨迹进行识别,最终获得输入的信息。
可选的,与图4所示实施例中针对步骤402的替换步骤a至步骤c类似,识别模块1402具体用于:
根据所述手势识别区的区域信息确定识别基准面;
将所述手势识别区内的运动轨迹投影至所述识别基准面;
将投影至所述识别基准面内的运动轨迹识别为输入的信息。
可以看出,在识别模块1402的识别过程中,首先会确定出识别基准面,该识别基准面可以作为纸质书写过程中的纸面,也是用户在书写过程中默认书写的面,由于手势识别区为一个三维空间,在获得该空间内的运动轨迹后,需要对该运动轨迹进行处理才可得到在识别基准面上的轨迹,即最终需要的运动轨迹。在确定出识别基准面后,变回将手势识别区内的运动轨迹向该识别基准面进行投影,以获得在该识别基准面上的投影轨迹,最后对该投影轨迹进行识别,得到最终的输入的信息。
需要说明的是,本发明实施例中的通过传感器1401扫描的区域设立的手势识别区和手势感应区可以是悬空设置,也可以是手势识别区是位于物体上的一个面。下面分别进行说明:
一、手势识别区和手势感应区可以是悬空设置。
可选的,所述手势识别区和所述手势感应区相接触,所述手势识别区和所述手势感应区位于所述可穿戴设备的上方。此设置方式无需考虑承载该手势识别区和手势感应区的媒介,可以应用于各种场合。
二、手势识别区是位于物体上。
可选的,所述手势识别区为根据所述手势识别区的区域信息建立的第一识别面,所述识别模块1402具体用于:
根据所述手势识别区的区域信息将在第一识别面内的运动轨迹识别为输入的信息,所述第一识别面为平面或者曲面。
可以看出,在此情形下,手势识别区可以是设置在物体表面上的一个识别面,该识别面基本与物体的表面重合,从而使得用户能在物体表面上通过书写进行输入操作,能够大大增强书写的真实感,第一识别面的与图4所示实施例中针对步骤402的说明类似,此外,针对该第一识别面的信息说明可参见图4所示实施例中针对步骤402的说明中以可穿戴设备为智能手表或者智能手环的书写实例,此处不再赘述。
可选的,由于可穿戴设备与物体表面之间往往会发生相对运动,可能影响到手势输入的准确性,可以通过设置预设识别面进行矫正,可选的,该可穿戴 设备14还可包括提示模块1404,用于当确定所述第一识别面与预设识别面的夹角超出预设的角度阈值时,发出第一识别面调整提示。
具体的,由于可穿戴设备是在佩戴过程中使用输入操作,因此物体相对于可穿戴设备在使用时难免会发生一定角度的移动,导致投影在物体上的第一识别面的大小会发生变化,若移动幅度过大,可能导致输入轨迹的识别不准,因此设置一个预设识别面,当第一识别面的角度与预设识别面夹角超过一定数值后,发出调整提示,从而保证第一识别面在能够在高精度的输入环境下进行输入操作。
下面对本发明实施例中训练设备的结构进行描述,请参阅图15,图15是本发明实施例的可穿戴设备的一个实施例图,其中,可穿戴设备15可包括均与总线相连接的至少一个处理器1501、至少一个传感器1502和至少一个内存1503,本发明实施例涉及的可穿戴设备可以具有比图15所示出的更多或更少的部件,可以组合两个或更多个部件,或者可以具有不同的部件配置或设置,各个部件可以在包括一个或多个信号处理和/或专用集成电路在内的硬件、软件或硬件和软件的组合实现。
具体的,对于图14所示的实施例来说,该处理器1501能实现图14所示实施例中的识别模块1402和提示模块1404的功能,该传感器1502能实现图14所示实施例中的传感器1401的功能,该内存1503用于存储处理器1501要执行的指令和数据,处理器1501用于执行所述内存中的指令以实现将手势识别区内的运动轨迹识别为输入的信息。其中,可穿戴设备还可以包括显示屏1504,该显示屏1504能实现图14中显示屏1403的功能。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或 一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (21)

  1. 一种可穿戴设备的手势输入方法,其特征在于,所述方法包括:
    通过传感器采集轨迹识别区内用户手势运动的运动轨迹,所述轨迹识别区为设置于所述传感器预设的扫描区域内的区域,所述轨迹识别区包括手势识别区和设于所述手势识别区之上的手势感应区;
    根据所述轨迹识别区的区域信息将所述手势识别区内的运动轨迹识别为输入的信息,所述区域信息包括所述轨迹识别区的坐标系信息。
  2. 根据权利要1所述的可穿戴设备的手势输入方法,其特征在于,所述可穿戴设备还包括显示屏,所述方法还包括:
    将所述轨迹识别区的运动轨迹同步映射至所述显示屏内,所述轨迹识别区与所述显示屏内的区域相对应。
  3. 根据权利要求1或2所述的可穿戴设备的手势输入方法,其特征在于,所述通过传感器采集轨迹识别区内用户手势运动的运动轨迹具体为:
    通过传感器采集所述轨迹识别区内的手势识别区内的运动轨迹;
    所述根据所述轨迹识别区的区域信息将所述运动轨迹识别为输入的信息具体为:
    根据所述轨迹识别区的区域信息确定所述手势识别区的区域信息;
    根据所述手势识别区的区域信息将所述手势识别区内的运动轨迹识别为输入的信息。
  4. 根据权利要求3所述的可穿戴设备的手势输入方法,其特征在于,所述根据所述手势识别区的区域信息将所述手势识别区内的运动轨迹识别为输入的信息包括:
    根据所述手势识别区的区域信息确定识别基准面;
    将所述手势识别区内的运动轨迹投影至所述识别基准面;
    将投影至所述识别基准面内的运动轨迹识别为输入的信息。
  5. 根据权利要求3或4所述的可穿戴设备的手势输入方法,其特征在于:所述方法还包括:
    当所述手势感应区检测到运动轨迹,所述可穿戴设备的显示屏内对应所述 手势感应区内的运动轨迹的当前位置显示出光标。
  6. 根据权利要求5所述的可穿戴设备的手势输入方法,其特征在于:所述手势识别区和所述手势感应区相接触,所述手势识别区和所述手势感应区位于所述可穿戴设备的上方。
  7. 根据权利要求1或2所述的可穿戴设备的手势输入方法,其特征在于,所述手势识别区为根据所述手势识别区的区域信息建立的第一识别面,根据所述轨迹识别区的区域信息将所述手势识别区内的运动轨迹识别为输入的信息包括:
    根据所述手势识别区的区域信息将在第一识别面内的运动轨迹识别为输入的信息,所述第一识别面为平面或者曲面。
  8. 根据权利要求7所述的可穿戴设备的手势输入方法,其特征在于,所述方法还包括:
    当确定所述第一识别面与预设识别面的夹角超出预设的角度阈值时,发出第一识别面调整提示。
  9. 根据权利要求7或8中任一项所述的可穿戴设备的手势输入方法,其特征在于,所述可穿戴设备为手腕可穿戴设备,所述第一识别面位于所述可穿戴设备的穿戴者的手背上。
  10. 根据权利要求1至9中任一项所述的可穿戴设备的手势输入方法,其特征在于,所述传感器为一个以上的超声波传感器或者红外传感器。
  11. 一种可穿戴设备,其特征在于,包括:
    传感器,用于采集轨迹识别区内用户手势运动的运动轨迹,所述轨迹识别区为设置于所述传感器预设的扫描区域内的区域,所述轨迹识别区包括手势识别区和设于所述手势识别区之上的手势感应区;
    识别模块,用于根据所述轨迹识别区的区域信息将所述手势识别区内的运动轨迹识别为输入的信息,所述区域信息包括所述轨迹识别区的坐标系信息。
  12. 根据权利要求11所述的可穿戴设备,其特征在于,所述可穿戴设备还包括:
    显示屏,用于将所述轨迹识别区的运动轨迹同步映射至所述显示屏内,所 述轨迹识别区与所述显示屏内的区域相对应。
  13. 根据权利要求11或12所述的可穿戴设备,其特征在于,所述传感器具体用于:
    采集所述轨迹识别区内的手势识别区内的运动轨迹;
    所述识别模块具体用于:
    根据所述轨迹识别区的区域信息确定所述手势识别区的区域信息;
    根据所述手势识别区的区域信息将所述手势识别区内的运动轨迹识别为输入的信息。
  14. 根据权利要求13所述的可穿戴设备,其特征在于,所述识别模块具体用于:
    根据所述手势识别区的区域信息确定识别基准面;
    将所述手势识别区内的运动轨迹投影至所述识别基准面;
    将投影至所述识别基准面内的运动轨迹识别为输入的信息。
  15. 根据权利要求13所述的可穿戴设备,其特征在于,所述传感器还具体用于检测所述手势感应区内的运动轨迹;
    所述显示屏还用于在所述显示屏内对应所述手势感应区内的运动轨迹的当前位置显示出光标。
  16. 根据权利要求15所述的可穿戴设备,其特征在于,所述手势识别区和所述手势感应区相接触,所述手势识别区和所述手势感应区位于所述可穿戴设备的上方。
  17. 根据权利要求11或12所述的可穿戴设备,其特征在于,所述手势识别区为根据所述手势识别区的区域信息建立的第一识别面,所述识别模块具体用于:
    根据所述手势识别区的区域信息将在第一识别面内的运动轨迹识别为输入的信息,所述第一识别面为平面或者曲面。
  18. 根据权利要求17所述的可穿戴设备,其特征在于,所述可穿戴设备还包括:
    提示模块,用于当确定所述第一识别面与预设识别面的夹角超出预设的角 度阈值时,发出第一识别面调整提示。
  19. 根据权利要求17或18所述的可穿戴设备,其特征在于,所述可穿戴设备为手腕可穿戴设备,所述第一识别面位于所述可穿戴设备的穿戴者的手背上。
  20. 根据权利要求11至19中任一项所述的可穿戴设备,其特征在于,所述传感器为一个以上的超声波传感器或者红外传感器。
  21. 一种可穿戴设备,其特征在于,包括传感器、处理器和内存所述传感器用于采集用户手势运动的运动轨迹,所述内存用于存储处理器要执行的指令和数据,所述处理器用于执行所述内存中的指令以实现将手势识别区内的运动轨迹识别为输入的信息。
CN201680049793.3A 2016-07-29 2016-07-29 一种可穿戴设备的手势输入方法及可穿戴设备 Pending CN108027648A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2016/092399 WO2018018624A1 (zh) 2016-07-29 2016-07-29 一种可穿戴设备的手势输入方法及可穿戴设备

Publications (1)

Publication Number Publication Date
CN108027648A true CN108027648A (zh) 2018-05-11

Family

ID=61015913

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680049793.3A Pending CN108027648A (zh) 2016-07-29 2016-07-29 一种可穿戴设备的手势输入方法及可穿戴设备

Country Status (4)

Country Link
US (1) US20210117078A1 (zh)
EP (1) EP3486747A1 (zh)
CN (1) CN108027648A (zh)
WO (1) WO2018018624A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110989844A (zh) * 2019-12-16 2020-04-10 广东小天才科技有限公司 一种基于超声波的输入方法、手表、系统及存储介质
CN111580656A (zh) * 2020-05-08 2020-08-25 安徽华米信息科技有限公司 可穿戴设备及其控制方法、装置
CN113672093A (zh) * 2021-08-27 2021-11-19 歌尔科技有限公司 一种手势识别方法、装置、穿戴设备主体及穿戴设备
CN113934307A (zh) * 2021-12-16 2022-01-14 佛山市霖云艾思科技有限公司 一种根据手势和场景开启电子设备的方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11461907B2 (en) * 2019-02-15 2022-10-04 EchoPixel, Inc. Glasses-free determination of absolute motion
CN110209268A (zh) * 2019-04-24 2019-09-06 努比亚技术有限公司 穿戴式设备控制方法、穿戴式设备及计算机可读存储介质
USD962929S1 (en) * 2020-04-03 2022-09-06 Embr Labs Inc. Wearable device
JP1695382S (zh) * 2020-09-28 2021-09-21

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6313825B1 (en) * 1998-12-28 2001-11-06 Gateway, Inc. Virtual input device
US20070121097A1 (en) * 2005-11-29 2007-05-31 Navisense, Llc Method and system for range measurement
US20100289740A1 (en) * 2009-05-18 2010-11-18 Bong Soo Kim Touchless control of an electronic device
CN102782612A (zh) * 2010-02-24 2012-11-14 诺基亚公司 姿势控制
US20150324000A1 (en) * 2014-05-07 2015-11-12 Samsung Electronics Co., Ltd. User input method and portable device
CN105302298A (zh) * 2015-09-17 2016-02-03 深圳市国华识别科技开发有限公司 空中书写断笔系统和方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8624836B1 (en) * 2008-10-24 2014-01-07 Google Inc. Gesture-based small device input
CN105159539B (zh) * 2015-09-10 2018-06-01 京东方科技集团股份有限公司 可穿戴设备的触控响应方法、装置及可穿戴设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6313825B1 (en) * 1998-12-28 2001-11-06 Gateway, Inc. Virtual input device
US20070121097A1 (en) * 2005-11-29 2007-05-31 Navisense, Llc Method and system for range measurement
US20100289740A1 (en) * 2009-05-18 2010-11-18 Bong Soo Kim Touchless control of an electronic device
CN102782612A (zh) * 2010-02-24 2012-11-14 诺基亚公司 姿势控制
US20150324000A1 (en) * 2014-05-07 2015-11-12 Samsung Electronics Co., Ltd. User input method and portable device
CN105302298A (zh) * 2015-09-17 2016-02-03 深圳市国华识别科技开发有限公司 空中书写断笔系统和方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110989844A (zh) * 2019-12-16 2020-04-10 广东小天才科技有限公司 一种基于超声波的输入方法、手表、系统及存储介质
CN111580656A (zh) * 2020-05-08 2020-08-25 安徽华米信息科技有限公司 可穿戴设备及其控制方法、装置
CN113672093A (zh) * 2021-08-27 2021-11-19 歌尔科技有限公司 一种手势识别方法、装置、穿戴设备主体及穿戴设备
CN113672093B (zh) * 2021-08-27 2024-02-02 歌尔科技有限公司 一种手势识别方法、装置、穿戴设备主体及穿戴设备
CN113934307A (zh) * 2021-12-16 2022-01-14 佛山市霖云艾思科技有限公司 一种根据手势和场景开启电子设备的方法

Also Published As

Publication number Publication date
EP3486747A4 (en) 2019-05-22
WO2018018624A1 (zh) 2018-02-01
US20210117078A1 (en) 2021-04-22
EP3486747A1 (en) 2019-05-22

Similar Documents

Publication Publication Date Title
CN108027648A (zh) 一种可穿戴设备的手势输入方法及可穿戴设备
US11755137B2 (en) Gesture recognition devices and methods
EP3090331B1 (en) Systems with techniques for user interface control
CN105159539B (zh) 可穿戴设备的触控响应方法、装置及可穿戴设备
KR20160124786A (ko) 인 에어 초음파 펜 제스처들
US9262012B2 (en) Hover angle
WO2019062243A1 (zh) 触摸操作的识别方法、装置及电子设备
US20190272090A1 (en) Multi-touch based drawing input method and apparatus
CN205050078U (zh) 一种可穿戴设备
CN106598422B (zh) 混合操控方法及操控系统和电子设备
CN113515228A (zh) 一种虚拟标尺显示方法以及相关设备
CN112639696A (zh) 手写板、手写板装置及书写控制方法
CN110667287B (zh) 痕迹清除方法及相关产品
CN112698739B (zh) 一种控制方法及装置
CN104281301A (zh) 一种输入方法及电子设备
EP4073624B1 (en) Systems and methods for grid-aligned inking
JP6523509B1 (ja) ゲームプログラム、方法、および情報処理装置
WO2020124422A1 (zh) 手写系统的控制方法和手写系统
CN112363644A (zh) 一种红外影像装置及其手势识别方法
CN115904063A (zh) 非接触式人机交互笔笔迹生成方法、装置、设备及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180511