CN105159539A - 可穿戴设备的触控响应方法、装置及可穿戴设备 - Google Patents
可穿戴设备的触控响应方法、装置及可穿戴设备 Download PDFInfo
- Publication number
- CN105159539A CN105159539A CN201510575198.0A CN201510575198A CN105159539A CN 105159539 A CN105159539 A CN 105159539A CN 201510575198 A CN201510575198 A CN 201510575198A CN 105159539 A CN105159539 A CN 105159539A
- Authority
- CN
- China
- Prior art keywords
- finger tip
- touch
- target finger
- wearable device
- track
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/08—Touch switches specially adapted for time-pieces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明公开了一种可穿戴设备的触控响应方法、装置及可穿戴设备,以使可穿戴设备能够实时向用户反馈触控操作效果,提高可穿戴设备的触控精准性。可穿戴设备的触控响应方法包括:获取双目识别设备所采集的目标指尖在设定的触控动作发生区域的位置信息;根据目标指尖的位置信息,确定目标指尖映射到可穿戴设备屏幕上的映射点的位置信息;在可穿戴设备屏幕上的所述映射点显示光标。
Description
技术领域
本发明涉及可穿戴设备技术领域,特别是涉及一种可穿戴设备的触控响应方法、装置及可穿戴设备。
背景技术
随着科技的发展,越来越多的可穿戴产品进入人们的生活中。可穿戴产品出于穿戴舒适性要求,往往做的比较小巧,相应的,可穿戴产品所配置的显示屏幕也比较小巧。目前,可穿戴产品主要采用触摸输入方式,较小的屏幕给用户带来的人机交互体验相对较差。
以智能手表为例,智能手表往往配置有比较丰富的软件资源,相应地,会在表盘屏幕上显示十几个甚至几十个软件图标。在实际使用时,手指触摸屏幕会遮挡相关的图标,以致用户无法准确判断触控的位置,也经常会导致误点击。虽然一些智能手表通过使用一些按键或定义一些例如上下左右滑动的触摸操作方式,可以在一定程度上缓解上述问题,然而还未达到让人比较满意的效果。
综上,如何使可穿戴设备实时向用户反馈触控操作效果,提高可穿戴设备的触控精准性,是目前亟待解决的技术问题。
发明内容
本发明实施例的目的是提供一种可穿戴设备的触控响应方法、装置及可穿戴设备,以使可穿戴设备能够实时向用户反馈触控操作效果,提高可穿戴设备的触控精准性。
本发明实施例提供了一种可穿戴设备的触控响应方法,包括:
获取双目识别设备所采集的目标指尖在设定的触控动作发生区域的位置信息;
根据目标指尖的位置信息,确定目标指尖映射到可穿戴设备屏幕上的映射点的位置信息;
在可穿戴设备屏幕上的所述映射点显示光标。
在本发明实施例的技术方案中,当目标指尖位于设定的触控动作发生区域时,目标指尖的位置与可穿戴设备屏幕上显示的光标存在映射关系,用户可悬空触控可穿戴设备的屏幕,可穿戴设备能够实时向用户反馈触控操作效果,因此,该方案提高了可穿戴设备的触控精准性,提升了用户体验。
优选的,获取目标指尖在设定的触控动作发生区域的位置信息之前,所述方法还包括:
确定触控动作发生区域;
所述确定触控动作发生区域,包括:
在接收到设置触控动作发生区域的触发指令后,获取双目识别设备所采集的目标指尖圈画轨迹,并确定所述目标指尖圈画轨迹对应的标准圈画轨迹;
根据标准圈画轨迹和可穿戴设备屏幕的边界,确定建立目标指尖与可穿戴设备屏幕映射的基准点,所述映射点为基准点和目标指尖连线与可穿戴设备屏幕的交点;
根据基准点、标准圈画轨迹和可穿戴设备屏幕的边界,确定设定的触控动作发生区域。
具体的,所述确定目标指尖圈画轨迹对应的标准圈画轨迹,包括:
对目标指尖圈画轨迹进行包络计算,确定可容纳目标指尖圈画轨迹的最小包络空间;
根据最小包络空间,确定目标指尖圈画轨迹对应的标准圈画轨迹。
优选的,所述方法还包括:
获取目标指尖在设定的触控动作发生区域的手势动作;
当所述手势动作为设定手势动作时,进行与所述设定手势动作相匹配的数据处理,和/或,将光标显示与所述设定手势动作相匹配的设定变化效果。
优选的,所述方法还包括:当检测到位于设定的触控动作发生区域的目标指尖移出该触控动作发生区域的时间超过预设阈值时,停止触控响应。
优选的,确定目标指尖映射到可穿戴设备屏幕上的映射点的位置信息之前,所述方法还包括:
获取加速度传感器采集的可穿戴设备的空间加速度信息;
根据所述空间加速度信息,修正目标指尖的位置信息。
用户佩戴可穿戴设备后,可穿戴设备的位置姿态会随人体动作而变化,采用加速度传感器检测可穿戴设备的空间加速度信息,根据该空间加速度信息修正目标指尖的位置信息,可以使相关的计算处理结果更加准确,从而减少误操作,进一步提高可穿戴设备的触控精准性。
本发明实施例还提供了一种可穿戴设备的触控响应装置,包括:
第一获取模块,用于获取双目识别设备所采集的目标指尖在设定的触控动作发生区域的位置信息;
第一确定模块,用于根据目标指尖的位置信息,确定目标指尖映射到可穿戴设备屏幕上的映射点的位置信息;
处理模块,用于在可穿戴设备屏幕上的所述映射点显示光标。
同理,本发明上述实施例所提供的可穿戴设备的触控响应装置,当目标指尖位于设定的触控动作发生区域时,目标指尖的位置与可穿戴设备屏幕上显示的光标存在映射关系,用户可悬空触控可穿戴设备的屏幕,可穿戴设备能够实时向用户反馈触控操作效果,因此,该方案提高了可穿戴设备的触控精准性,提升了用户体验。
本发明实施例还提供了一种可穿戴设备,包括:双目识别设备,用于采集目标指尖的位置信息;
以及与所述双目识别设备信号连接的控制芯片,用于获取双目识别设备所采集的目标指尖在设定的触控动作发生区域的位置信息;根据目标指尖的位置信息,确定目标指尖映射到可穿戴设备屏幕上的映射点的位置信息;在可穿戴设备屏幕上的所述映射点显示光标。
可选的,还包括与所述控制芯片信号连接的加速度传感器。
可选的,所述加速度传感器为陀螺仪或者三轴加速度传感器。
可选的,所述可穿戴设备为智能手表,所述智能手表包括表带、表壳和屏幕。
可选的,所述双目识别设备包括:主摄像头、辅摄像头,以及分别与所述主摄像头和辅摄像头信号连接的集成电路。
该可穿戴设备具有悬空触控功能,能够实时向用户反馈触控操作效果,触控精准性比较高,用户体验相比现有技术大大提升。
附图说明
图1为本发明一实施例可穿戴设备的结构示意图;
图2为本发明一实施例可穿戴设备的触控响应方法流程示意图;
图3为目标指尖与可穿戴设备屏幕映射原理示意图;
图4为确定标准圈画轨迹原理示意图;
图5为本发明一实施例可穿戴设备的触控响应装置结构示意图;
图6为本发明一实施例可穿戴设备的触控响应装置结构示意图。
附图标记:
1-表带
2-表壳
3-屏幕
4a、4b-双目摄像头
5-控制芯片
6-加速度传感器
7a-第一获取模块
7b-第二获取模块
8a-第一确定模块
8b-第二确定模块
9-处理模块
10-光标
11-标准圈画轨迹
12-目标指尖圈画轨迹
13-最小包络空间
14-设定的触控动作发生区域
具体实施方式
为使可穿戴设备能够实时向用户反馈触控操作效果,提高可穿戴设备的触控精准性,本发明实施例提供了一种可穿戴设备的触控响应方法、装置及可穿戴设备。为使本发明的目的、技术方案和优点更加清楚,以下举实施例对本发明作进一步详细说明。
如图1所示,本发明实施例提供了一种可穿戴设备,包括:双目识别设备(包括如图1所示的双目摄像头4a、4b),用于采集目标指尖的位置信息;以及与双目识别设备信号连接的控制芯片5,用于获取双目识别设备所采集的目标指尖在设定的触控动作发生区域的位置信息;根据目标指尖的位置信息,确定目标指尖映射到可穿戴设备屏幕上的映射点的位置信息;在可穿戴设备屏幕上的所述映射点显示光标。具体的,可在映射点位置显示光标方式来标识映射点位置。
目标指尖的位置信息与可穿戴设备屏幕上的映射点位置的对应关系可预先设置。
在本发明的实施例中,可穿戴设备的具体类型不限,例如可以为智能手表、智能腕带及其它智能配饰等等。如图1所示,该实施例中,可穿戴设备具体为智能手表,从外观上可以看到表带1、表壳2、屏幕3、双目摄像头4a、4b等硬件设备。双目识别设备包括双目摄像头4a、4b和控制电路,控制电路中写入相关的识别程序。双目识别设备的控制电路和前述控制芯片5设置在表壳2内部,优选的,双目识别设备的控制电路与前述控制芯片5集成后设置在表壳2的内部。
双目摄像头4a、4b包括两个摄像头,分别为主摄像头和辅摄像头,辅摄像头与主摄像头的坐标系有一定的位置偏差。双目识别设备的控制芯片根据两个摄像头摄取的图像,通过精确计算得到目标体在空间中的位置信息。双目识别设备的控制芯片在写入相关识别程序后,不但能够识别出用户的手、手势动作、特定手指的指尖位置,还能够同时识别两根或多根手指的指尖位置。
如图1所示,在该优选实施例中,表壳2为矩形状,集成电路和控制芯片5集成设置在表壳2内部,主摄像头和辅摄像头分别设置在表壳2边缘相对的两个边上。此外,表壳也可以采用矩形外的其它形状,例如圆形,椭圆形等等。
在本发明的实施例中,目标指尖可以为任意目标指尖,也可以为特定目标指尖。例如,若将食指指尖定义为目标指尖,则双目识别设备以食指指尖为作为识别目标体,用户仅可使用食指指尖进行悬空触控操作;若将任意指尖定义为目标指尖,则双目识别设备以任意指尖作为识别目标体,用户可使用任意指尖进行悬空触控操作。
当目标指尖位于设定的触控动作发生区域时,可穿戴设备屏幕存在映射点与目标指尖的位置相对应,在该映射点位置显示光标,可以向用户反馈出目标指尖的相对位置信息;其中,光标的具体类型不限,例如可以为鼠标形状、小红点、小圆圈或者高亮显示等等。当用户在设定的触控动作发生区域移动目标指尖时,屏幕的映射点位置随之改变,用户则可以看到屏幕上光标的相应移动。当目标指尖移出该设定的触控动作发生区域时,光标从屏幕上消失,用户可据此判断出目标指尖已移出可触控区域。
在本发明实施例的技术方案中,包含一双目识别设备,该双目识别设备用于采集目标指尖的位置信息,当目标指尖位于设定的触控动作发生区域时,目标指尖的位置与可穿戴设备屏幕上显示的光标存在映射关系,用户可通过移动目标指尖控制光标移动及进行屏幕的悬空触控操作,可穿戴设备能够实时向用户反馈触控操作效果,因此,该方案提高了可穿戴设备的触控精准性,提升了用户体验。
值得一提的是,该设定的触控动作发生区域可以为固定不变的某个区域,也可以为由用户在使用可穿戴设备的悬空触控功能时自定义的某个区域。本发明的一个较优实施例则基于第二种方案,在该实施例中,控制芯片还用于在接收到设置触控动作发生区域的触发指令后,获取双目识别设备所采集的目标指尖圈画轨迹;确定目标指尖圈画轨迹对应的标准圈画轨迹;根据标准圈画轨迹和可穿戴设备屏幕的边界,确定建立目标指尖与可穿戴设备屏幕映射的基准点,映射点为基准点和目标指尖连线与可穿戴设备屏幕的交点;根据基准点、标准圈画轨迹和可穿戴设备屏幕的边界,确定设定的触控动作发生区域。
例如,可设定用户按压某个实体按键、单击屏幕或者双击屏幕等作为设置触控动作发生区域的触发条件。当用户进行触发操作后,可自定义触控动作发生区域。相比第一种方案设定固定不变的触控动作发生区域,用户无需调整自身姿态,可在任意时刻任意姿态下对触控动作发生区域进行设定或更新,从而使接下来的悬空触控操作便于实现并且准确性较高。
如图1所示,在一个优选实施例中,可穿戴设备还包括与控制芯片信号连接的加速度传感器6。加速度传感器6用于采集可穿戴设备的空间加速度信息;控制芯片5可根据可穿戴设备的空间加速度信息,修正目标指尖的位置信息。
加速度传感器是一种能够测量加速力的电子设备,应用在可穿戴设备中,可以检测可穿戴设备的空间加速度信息,这等效于感知可穿戴设备的姿态位置变化。加速度传感器的具体类型不限,例如可以为陀螺仪或者三轴加速度传感器等。控制芯片根据可穿戴设备的空间加速度信息,修正目标指尖的位置信息,可以减少由于用户姿态不稳而造成的错误计算,从而减少误击操作。
较佳的,控制芯片5,还用于当目标指尖位于设定的触控动作发生区域且执行特定手势动作时,进行与特定手势动作相匹配的数据处理,和/或,将光标显示特定的变化效果。例如,当光标位于某个应用的图标按钮上,目标指尖在设定的时间段内(例如1秒内)做出相对于屏幕靠近然后远离的点击动作时,将该应用开启,可同时将光标显示特定的变化效果,例如鼠标的形状变化、烟花绽放效果、水波动效果等等,以提示用户该应用在开启中。特定手势动作的具体类型不限,可结合人体工学或使用习惯进行设定。
在本发明的一个实施例中,控制芯片5,还用于当未获取到目标指尖的位置信息时,取消可穿戴设备屏幕上的光标显示,和/或,在经历设定时间段后,消除触控动作发生区域设置记录。
当目标指尖移出设定的触控动作发生区域时,可穿戴设备屏幕上的光标相应取消,从而使用户得到操作反馈。此外,如果目标指尖移出设定的触控动作发生区域超过设定时间段(例如5分钟),则消除对于触控动作发生区域的设置记录,用户若要使用可穿戴设备的悬空触控功能,需要再次触发设备并重新设置触控动作发生区域。该方案的一个优势在于,双目识别设备并不是一直处于工作状态,而是在用户启用悬空触控功能后才工作,不但节约系统资源,而且还能够减少误击操作。
如图2所示,本发明实施例提供的可穿戴设备的触控响应方法,包括如下步骤:
步骤101、获取双目识别设备所采集的目标指尖在设定的触控动作发生区域的位置信息;
步骤102、根据目标指尖的位置信息,确定目标指尖映射到可穿戴设备屏幕上的映射点的位置信息;
步骤103、在可穿戴设备屏幕上的映射点显示光标。
当目标指尖位于设定的触控动作发生区域时,目标指尖的位置与可穿戴设备屏幕上显示的光标存在映射关系,用户可悬空触控可穿戴设备的屏幕,可穿戴设备能够实时向用户反馈触控操作效果,因此,该方案提高了可穿戴设备的触控精准性,提升了用户体验。
该设定的触控动作发生区域可以为固定不变的某个区域,也可以为由用户在使用可穿戴设备的悬空触控功能时自定义的某个区域。
本发明一优选实施例中,在步骤101之前,方法还包括:确定触控动作发生区域。
请结合图3和图4所示,在本发明方法的一个优选实施例中,确定触控动作发生区域,具体包括:
步骤一、在接收到设置触控动作发生区域的触发指令后,获取双目识别设备所采集的目标指尖圈画轨迹12(如图4所示)。目标指尖圈画轨迹可以大致为圆形、方形或者其他形状,由于为用户虚画操作,因此,该目标指尖圈画轨迹不一定为理想形状,不一定为封闭轨迹,也不一定为平面图形。
步骤二、确定目标指尖圈画轨迹12对应的标准圈画轨迹11。标准圈画轨迹11是设定的触控动作发生区域的一道边界。该标准圈画轨迹11可通过如下子步骤确定:
子步骤一、对目标指尖圈画轨迹12进行包络计算,确定可容纳目标指尖圈画轨迹12的最小包络空间13。最小包络空间的形状不限,可以为圆柱空间、长方体空间等等。在图4所示的实施例中,最小包络空间13为能够容纳目标指尖圈画轨迹12的直径最小、高度最小的圆柱空间。
子步骤二、根据最小包络空间13,确定目标指尖圈画轨迹12对应的标准圈画轨迹11。如图4所示,可以将圆柱空间的的柱心所在圆面定义为标准圈画轨迹,也可以将圆柱空间的圆表面定义为标准圈画轨迹。如果最小包络空间为长方体或者其它形状,也可以采用类似的规则来定义。通过该步骤,标准圈画轨迹11的形状尺寸、相对于屏幕的位置等数据均可通过几何计算来确定。
步骤三、根据标准圈画轨迹和屏幕的边界,确定建立目标指尖与可穿戴设备屏幕映射的基准点,映射点为基准点和目标指尖连线与可穿戴设备屏幕的交点。如图3所示,该实施例中,基准点可通过如下方式确定:过标准圈画轨迹中心点A和屏幕中心点B做直线l1;确定包含l1的任意平面与标准圈画轨迹的交点C,以及与屏幕边界的交点D;过交点C和交点D作直线l2,l1和l2的交点O即为基准点。目标指尖M与O点的连线与屏幕3的交点N即为映射点。
步骤四、根据基准点O、标准圈画轨迹11和屏幕3的边界,确定设定的触控动作发生区域14。在该设定的触控动作发生区域,无论目标指尖处于哪个位置,均能够在可穿戴设备屏幕上对应一映射点。图3中,触控动作发生区域14仅为示意,应理解为能够使目标指尖与屏幕形成映射的目标指尖的位置的集合。
可设定用户按压某个实体按键、单击屏幕或者双击屏幕等作为设置触控动作发生区域的触发条件。当用户进行触发操作后,可根据上述步骤确定设定的触控动作发生区域。采用上述方案,用户可在任意时刻任意姿态下对触控动作发生区域进行设定或更新,从而使接下来的悬空触控操作便于实现并且准确性较高。
在本发明的优选实施例中,方法还包括:
获取目标指尖在设定的触控动作发生区域的手势动作;
当手势动作为设定手势动作时,进行与设定手势动作相匹配的数据处理,和/或,将光标显示与设定手势动作相匹配的设定变化效果。
在本发明的优选实施例中,方法还包括:当检测到位于设定的触控动作发生区域的目标指尖移出该触控动作发生区域的时间超过预设阈值时,停止触控响应。
在本发明的优选实施例中,确定目标指尖映射到可穿戴设备屏幕上的映射点的位置信息之前,方法还包括:
获取加速度传感器采集的可穿戴设备的空间加速度信息;
根据可穿戴设备的空间加速度信息,修正目标指尖的位置信息。
用户佩戴可穿戴设备后,可穿戴设备的位置姿态会随人体动作而变化,采用加速度传感器检测可穿戴设备的空间加速度信息,根据该空间加速度信息修正目标指尖的位置信息,可以使相关的计算处理结果更加准确,从而减少误操作,进一步提高可穿戴设备的触控精准性。
上述各实施例中,目标指尖为任意目标指尖,或者目标指尖为特定目标指尖。
如图5所示,基于相同的发明构思,本发明实施例还提供了一种可穿戴设备的触控响应装置,包括:
第一获取模块7a,用于获取双目识别设备所采集的目标指尖在设定的触控动作发生区域的位置信息;
第一确定模块8a,用于根据目标指尖的位置信息,确定目标指尖映射到可穿戴设备屏幕上的映射点的位置信息;
处理模块9,用于在可穿戴设备屏幕上的映射点显示光标。
同理,本发明上述实施例所提供的可穿戴设备的触控响应装置,当目标指尖位于设定的触控动作发生区域时,目标指尖的位置与可穿戴设备屏幕上显示的光标存在映射关系,用户可悬空触控可穿戴设备的屏幕,可穿戴设备能够实时向用户反馈触控操作效果,因此,该方案提高了可穿戴设备的触控精准性,提升了用户体验。
如图6所示,在一个优选实施例中,装置还包括第二确定模块8b,用于在获取目标指尖在设定的触控动作发生区域的位置信息之前,确定触控动作发生区域;确定触控动作发生区域,包括:在接收到设置触控动作发生区域的触发指令后,获取双目识别设备所采集的目标指尖圈画轨迹,并确定目标指尖圈画轨迹对应的标准圈画轨迹;根据标准圈画轨迹和可穿戴设备屏幕的边界,确定建立目标指尖与可穿戴设备屏幕映射的基准点,映射点为基准点和目标指尖连线与可穿戴设备屏幕的交点;根据基准点、标准圈画轨迹和可穿戴设备屏幕的边界,确定设定的触控动作发生区域。
在一个优选实施例中,第二确定模块8b,具体用于对目标指尖圈画轨迹进行包络计算,确定可容纳目标指尖圈画轨迹的最小包络空间;根据最小包络空间,确定目标指尖圈画轨迹对应的标准圈画轨迹。
在一个优选实施例中,第一获取模块7a,还用于获取目标指尖在设定的触控动作发生区域的手势动作;处理模块9,还用于当手势动作为设定手势动作时,进行与设定手势动作相匹配的数据处理,和/或,将光标显示与设定手势动作相匹配的设定变化效果。
在一个优选实施例中,处理模块9,还用于当检测到位于设定的触控动作发生区域的目标指尖移出该触控动作发生区域的时间超过预设阈值时,停止触控响应。
在一个优选实施例中,还包括第二获取模块7b,第二获取模块7b用于获取加速度传感器采集的可穿戴设备的空间加速度信息;第一确定模块8a,还用于根据可穿戴设备的空间加速度信息,修正目标指尖的位置信息。
可选的,目标指尖为任意目标指尖,或者目标指尖为特定目标指尖。
本发明实施例还提供一种可穿戴设备,包括:设置于可穿戴设备的主体结构上用于采集目标指尖的位置信息的双目识别设备,以及与所述双目识别设备信号连接的控制芯片,所述控制芯片用于接收所述双目识别设备采集的位置信息,将可穿戴设备的屏幕上且与所述位置信息对应的区域作为触控区域。
优选的,还包括与所述控制芯片信号连接的加速度传感器。
优选的,所述加速度传感器为陀螺仪或者三轴加速度传感器。
优选的,所述可穿戴设备为智能手表,所述主体结构包括表壳和屏幕。
优选的,所述双目识别设备包括:主摄像头、辅摄像头,以及分别与所述主摄像头和辅摄像头信号连接的集成电路。
优选的,所述表壳为矩形状,所述集成电路和控制芯片集成设置在表壳内部,所述主摄像头和辅摄像头分别设置在表壳边缘相对的两个边上。
优选的,所述屏幕为矩形状,所述集成电路和控制芯片集成设置在表壳内部,所述主摄像头和辅摄像头分别设置在屏幕边缘相对的两个边上。
优选的,所述表壳和屏幕为圆形,所述主摄像头和辅摄像头分别设置在表壳或屏幕的边缘,且位于圆形表壳或屏幕的径线上。
该可穿戴设备通过设置于可穿戴设备的主体结构上用于采集目标指尖的位置信息的双目识别设备,以及与所述双目识别设备信号连接的控制芯片,所述控制芯片用于接收所述双目识别设备采集的位置信息,将可穿戴设备的屏幕上且与所述位置信息对应的区域作为触控区域,可有效提高可穿戴设备的触控区域的精准性。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (17)
1.一种可穿戴设备的触控响应方法,其特征在于,包括:
获取双目识别设备所采集的目标指尖在设定的触控动作发生区域的位置信息;
根据目标指尖的位置信息,确定目标指尖映射到可穿戴设备屏幕上的映射点的位置信息;
在可穿戴设备屏幕上的所述映射点显示光标。
2.如权利要求1所述的方法,其特征在于,获取目标指尖在设定的触控动作发生区域的位置信息之前,所述方法还包括:
确定触控动作发生区域;
所述确定触控动作发生区域,包括:
在接收到设置触控动作发生区域的触发指令后,获取双目识别设备所采集的目标指尖圈画轨迹,并确定所述目标指尖圈画轨迹对应的标准圈画轨迹;
根据标准圈画轨迹和可穿戴设备屏幕的边界,确定建立目标指尖与可穿戴设备屏幕映射的基准点,所述映射点为基准点和目标指尖连线与可穿戴设备屏幕的交点;
根据基准点、标准圈画轨迹和可穿戴设备屏幕的边界,确定设定的触控动作发生区域。
3.如权利要求2所述的方法,其特征在于,所述确定目标指尖圈画轨迹对应的标准圈画轨迹,包括:
对目标指尖圈画轨迹进行包络计算,确定可容纳目标指尖圈画轨迹的最小包络空间;
根据最小包络空间,确定目标指尖圈画轨迹对应的标准圈画轨迹。
4.如权利要求2或3所述的方法,其特征在于,所述方法还包括:
获取目标指尖在设定的触控动作发生区域的手势动作;
当所述手势动作为设定手势动作时,进行与所述设定手势动作相匹配的数据处理,和/或,将光标显示与所述设定手势动作相匹配的设定变化效果。
5.如权利要求4所述的方法,其特征在于,所述方法还包括:
当检测到位于设定的触控动作发生区域的目标指尖移出该触控动作发生区域的时间超过预设阈值时,停止触控响应。
6.如权利要求1所述的方法,其特征在于,确定目标指尖映射到可穿戴设备屏幕上的映射点的位置信息之前,所述方法还包括:
获取加速度传感器采集的可穿戴设备的空间加速度信息;
根据所述空间加速度信息,修正目标指尖的位置信息。
7.一种可穿戴设备的触控响应装置,其特征在于,包括:
第一获取模块,用于获取双目识别设备所采集的目标指尖在设定的触控动作发生区域的位置信息;
第一确定模块,用于根据目标指尖的位置信息,确定目标指尖映射到可穿戴设备屏幕上的映射点的位置信息;
处理模块,用于在可穿戴设备屏幕上的所述映射点显示光标。
8.如权利要求7所述的装置,其特征在于,还包括:
第二确定模块,用于在获取目标指尖在设定的触控动作发生区域的位置信息之前,确定触控动作发生区域;
所述第二确定模块,具体用于:在接收到设置触控动作发生区域的触发指令后,获取双目识别设备所采集的目标指尖圈画轨迹,并确定所述目标指尖圈画轨迹对应的标准圈画轨迹;根据标准圈画轨迹和可穿戴设备屏幕的边界,确定建立目标指尖与可穿戴设备屏幕映射的基准点,所述映射点为基准点和目标指尖连线与可穿戴设备屏幕的交点;以及根据基准点、标准圈画轨迹和可穿戴设备屏幕的边界,确定设定的触控动作发生区域。
9.如权利要求8所述的装置,其特征在于,所述第二确定模块,具体还用于:对目标指尖圈画轨迹进行包络计算,确定可容纳目标指尖圈画轨迹的最小包络空间;根据最小包络空间,确定目标指尖圈画轨迹对应的标准圈画轨迹。
10.如权利要求8或9所述的装置,其特征在于,
所述第一获取模块,还用于获取目标指尖在设定的触控动作发生区域的手势动作;
所述处理模块,还用于当所述手势动作为设定手势动作时,进行与所述设定手势动作相匹配的数据处理,和/或,将光标显示与所述设定手势动作相匹配的设定变化效果。
11.如权利要求10所述的装置,其特征在于,所述处理模块,还用于当检测到位于设定的触控动作发生区域的目标指尖移出该触控动作发生区域的时间超过预设阈值时,停止触控响应。
12.如权利要求7所述的装置,其特征在于,还包括第二获取模块,用于获取加速度传感器采集的可穿戴设备的空间加速度信息;
所述第一确定模块,还用于根据可穿戴设备的空间加速度信息,修正目标指尖的位置信息。
13.一种可穿戴设备,其特征在于,包括:双目识别设备,用于采集目标指尖的位置信息;
以及与所述双目识别设备信号连接的控制芯片,用于获取双目识别设备所采集的目标指尖在设定的触控动作发生区域的位置信息;根据目标指尖的位置信息,确定目标指尖映射到可穿戴设备屏幕上的映射点的位置信息;在可穿戴设备屏幕上的所述映射点显示光标。
14.如权利要求13所述的可穿戴设备,其特征在于,还包括与所述控制芯片信号连接的加速度传感器。
15.如权利要求14所述的可穿戴设备,其特征在于,所述加速度传感器为陀螺仪或者三轴加速度传感器。
16.如权利要求13所述的可穿戴设备,其特征在于,所述可穿戴设备为智能手表,所述智能手表包括表带、表壳和屏幕。
17.如权利要求16所述的可穿戴设备,其特征在于,所述双目识别设备包括:主摄像头、辅摄像头,以及分别与所述主摄像头和辅摄像头信号连接的集成电路。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510575198.0A CN105159539B (zh) | 2015-09-10 | 2015-09-10 | 可穿戴设备的触控响应方法、装置及可穿戴设备 |
US15/325,057 US10185433B2 (en) | 2015-09-10 | 2016-02-14 | Method and apparatus for touch responding of wearable device as well as wearable device |
PCT/CN2016/073771 WO2017041433A1 (zh) | 2015-09-10 | 2016-02-14 | 可穿戴设备的触控响应方法、装置及可穿戴设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510575198.0A CN105159539B (zh) | 2015-09-10 | 2015-09-10 | 可穿戴设备的触控响应方法、装置及可穿戴设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105159539A true CN105159539A (zh) | 2015-12-16 |
CN105159539B CN105159539B (zh) | 2018-06-01 |
Family
ID=54800415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510575198.0A Active CN105159539B (zh) | 2015-09-10 | 2015-09-10 | 可穿戴设备的触控响应方法、装置及可穿戴设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10185433B2 (zh) |
CN (1) | CN105159539B (zh) |
WO (1) | WO2017041433A1 (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105589607A (zh) * | 2016-02-14 | 2016-05-18 | 京东方科技集团股份有限公司 | 触控系统、触控显示系统和触控交互方法 |
WO2017041433A1 (zh) * | 2015-09-10 | 2017-03-16 | 京东方科技集团股份有限公司 | 可穿戴设备的触控响应方法、装置及可穿戴设备 |
CN107042803A (zh) * | 2016-02-09 | 2017-08-15 | 通用汽车有限责任公司 | 可穿戴装置控制的车辆系统 |
CN107450672A (zh) * | 2017-09-19 | 2017-12-08 | 曾泓程 | 一种高识别率的腕式智能装置 |
CN108737720A (zh) * | 2018-04-11 | 2018-11-02 | 努比亚技术有限公司 | 可穿戴设备拍摄方法、可穿戴设备及计算机可读存储介质 |
WO2018205724A1 (zh) * | 2017-05-08 | 2018-11-15 | 北京搜狗科技发展有限公司 | 一种表体和一种穿戴设备 |
EP3486747A4 (en) * | 2016-07-29 | 2019-05-22 | Huawei Technologies Co., Ltd. | GESTURE INPUT METHOD FOR PORTABLE DEVICE, AND PORTABLE DEVICE |
CN109960448A (zh) * | 2019-03-21 | 2019-07-02 | 掌阅科技股份有限公司 | 场景特效显示方法、电子设备及计算机存储介质 |
CN110244843A (zh) * | 2019-06-03 | 2019-09-17 | 努比亚技术有限公司 | 可穿戴设备控制方法、可穿戴设备及计算机可读存储介质 |
CN113359995A (zh) * | 2021-07-02 | 2021-09-07 | 北京百度网讯科技有限公司 | 人机交互方法、装置、设备以及存储介质 |
CN115640561A (zh) * | 2022-11-15 | 2023-01-24 | 季华实验室 | 屏幕控制方法、装置、终端及存储介质 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019041238A1 (zh) * | 2017-08-31 | 2019-03-07 | 华为技术有限公司 | 一种输入方法及智能终端设备 |
CN111722703A (zh) * | 2019-03-22 | 2020-09-29 | 上海博泰悦臻网络技术服务有限公司 | 手势交互方法及系统 |
CN111752380B (zh) * | 2019-04-08 | 2024-03-19 | 广东小天才科技有限公司 | 一种基于腕式穿戴设备的交互方法及腕式穿戴设备 |
CN111240472A (zh) * | 2019-12-31 | 2020-06-05 | Oppo广东移动通信有限公司 | 电子设备、手势识别装置和方法 |
US11816275B1 (en) * | 2022-08-02 | 2023-11-14 | International Business Machines Corporation | In-air control regions |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102662462A (zh) * | 2012-03-12 | 2012-09-12 | 中兴通讯股份有限公司 | 电子装置、手势识别方法及手势应用方法 |
CN103150020A (zh) * | 2013-03-14 | 2013-06-12 | 上海电机学院 | 一种三维指控操作方法及系统 |
CN103336575A (zh) * | 2013-06-27 | 2013-10-02 | 深圳先进技术研究院 | 一种人机交互的智能眼镜系统及交互方法 |
US20140085259A1 (en) * | 2012-09-25 | 2014-03-27 | Samsung Electronics Co., Ltd. | System for providing a user interface for use by portable and other devices |
CN103713737A (zh) * | 2013-12-12 | 2014-04-09 | 中国科学院深圳先进技术研究院 | 用于智能眼镜的虚拟键盘系统 |
CN103995592A (zh) * | 2014-05-21 | 2014-08-20 | 上海华勤通讯技术有限公司 | 穿戴式设备与终端进行信息交互的方法及终端 |
CN205050078U (zh) * | 2015-09-10 | 2016-02-24 | 京东方科技集团股份有限公司 | 一种可穿戴设备 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020036617A1 (en) * | 1998-08-21 | 2002-03-28 | Timothy R. Pryor | Novel man machine interfaces and applications |
US7148913B2 (en) * | 2001-10-12 | 2006-12-12 | Hrl Laboratories, Llc | Vision-based pointer tracking and object classification method and apparatus |
US10026177B2 (en) * | 2006-02-28 | 2018-07-17 | Microsoft Technology Licensing, Llc | Compact interactive tabletop with projection-vision |
CN104471511B (zh) * | 2012-03-13 | 2018-04-20 | 视力移动技术有限公司 | 识别指点手势的装置、用户接口和方法 |
EP2951811A4 (en) * | 2013-01-03 | 2016-08-17 | Meta Co | DIGITAL EYES FOR EXTRAMISSIVE SPATIAL IMAGING, PROCESSES AND SYSTEMS FOR VIRTUAL OR ENLARGED VISIBILITY, MANIPULATION, PRODUCTION OR INTERACTION WITH OBJECTS, MATERIALS, OR OTHER UNITS |
US20140337621A1 (en) * | 2013-05-07 | 2014-11-13 | Serguei Nakhimov | Wearable communication device, security complex and user interface |
US10203812B2 (en) * | 2013-10-10 | 2019-02-12 | Eyesight Mobile Technologies, LTD. | Systems, devices, and methods for touch-free typing |
US9740296B2 (en) * | 2013-12-16 | 2017-08-22 | Leap Motion, Inc. | User-defined virtual interaction space and manipulation of virtual cameras in the interaction space |
CN106104426B (zh) * | 2014-03-21 | 2020-04-03 | 意美森公司 | 用于基于力的对象操纵和触觉检测的系统、方法和计算机可读介质 |
JP6279104B2 (ja) * | 2014-05-12 | 2018-02-14 | クエスト ダイアグノスティックス インヴェストメンツ インコーポレイテッド | 質量分析によるタモキシフェンおよびその代謝産物の定量化 |
US9924143B2 (en) * | 2014-09-23 | 2018-03-20 | Intel Corporation | Wearable mediated reality system and method |
US10277242B2 (en) * | 2014-11-11 | 2019-04-30 | Zerokey Inc. | Method of detecting user input in a 3D space and a 3D input system employing same |
CN105159539B (zh) * | 2015-09-10 | 2018-06-01 | 京东方科技集团股份有限公司 | 可穿戴设备的触控响应方法、装置及可穿戴设备 |
-
2015
- 2015-09-10 CN CN201510575198.0A patent/CN105159539B/zh active Active
-
2016
- 2016-02-14 US US15/325,057 patent/US10185433B2/en active Active
- 2016-02-14 WO PCT/CN2016/073771 patent/WO2017041433A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102662462A (zh) * | 2012-03-12 | 2012-09-12 | 中兴通讯股份有限公司 | 电子装置、手势识别方法及手势应用方法 |
US20140085259A1 (en) * | 2012-09-25 | 2014-03-27 | Samsung Electronics Co., Ltd. | System for providing a user interface for use by portable and other devices |
CN103150020A (zh) * | 2013-03-14 | 2013-06-12 | 上海电机学院 | 一种三维指控操作方法及系统 |
CN103336575A (zh) * | 2013-06-27 | 2013-10-02 | 深圳先进技术研究院 | 一种人机交互的智能眼镜系统及交互方法 |
CN103713737A (zh) * | 2013-12-12 | 2014-04-09 | 中国科学院深圳先进技术研究院 | 用于智能眼镜的虚拟键盘系统 |
CN103995592A (zh) * | 2014-05-21 | 2014-08-20 | 上海华勤通讯技术有限公司 | 穿戴式设备与终端进行信息交互的方法及终端 |
CN205050078U (zh) * | 2015-09-10 | 2016-02-24 | 京东方科技集团股份有限公司 | 一种可穿戴设备 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017041433A1 (zh) * | 2015-09-10 | 2017-03-16 | 京东方科技集团股份有限公司 | 可穿戴设备的触控响应方法、装置及可穿戴设备 |
US10185433B2 (en) | 2015-09-10 | 2019-01-22 | Boe Technology Group Co., Ltd. | Method and apparatus for touch responding of wearable device as well as wearable device |
CN107042803A (zh) * | 2016-02-09 | 2017-08-15 | 通用汽车有限责任公司 | 可穿戴装置控制的车辆系统 |
US10303276B2 (en) | 2016-02-14 | 2019-05-28 | Boe Technology Group Co., Ltd. | Touch control system, touch control display system and touch control interaction method |
WO2017136980A1 (zh) * | 2016-02-14 | 2017-08-17 | 京东方科技集团股份有限公司 | 触控系统、触控显示系统和触控交互方法 |
CN105589607A (zh) * | 2016-02-14 | 2016-05-18 | 京东方科技集团股份有限公司 | 触控系统、触控显示系统和触控交互方法 |
CN105589607B (zh) * | 2016-02-14 | 2018-09-07 | 京东方科技集团股份有限公司 | 触控系统、触控显示系统和触控交互方法 |
EP3486747A4 (en) * | 2016-07-29 | 2019-05-22 | Huawei Technologies Co., Ltd. | GESTURE INPUT METHOD FOR PORTABLE DEVICE, AND PORTABLE DEVICE |
TWI711903B (zh) * | 2017-05-08 | 2020-12-01 | 大陸商北京搜狗科技發展有限公司 | 錶體及穿戴設備 |
WO2018205724A1 (zh) * | 2017-05-08 | 2018-11-15 | 北京搜狗科技发展有限公司 | 一种表体和一种穿戴设备 |
CN107450672A (zh) * | 2017-09-19 | 2017-12-08 | 曾泓程 | 一种高识别率的腕式智能装置 |
CN107450672B (zh) * | 2017-09-19 | 2024-03-29 | 曾泓程 | 一种高识别率的腕式智能装置 |
CN108737720A (zh) * | 2018-04-11 | 2018-11-02 | 努比亚技术有限公司 | 可穿戴设备拍摄方法、可穿戴设备及计算机可读存储介质 |
CN109960448A (zh) * | 2019-03-21 | 2019-07-02 | 掌阅科技股份有限公司 | 场景特效显示方法、电子设备及计算机存储介质 |
CN110244843A (zh) * | 2019-06-03 | 2019-09-17 | 努比亚技术有限公司 | 可穿戴设备控制方法、可穿戴设备及计算机可读存储介质 |
CN110244843B (zh) * | 2019-06-03 | 2023-12-08 | 努比亚技术有限公司 | 可穿戴设备控制方法、可穿戴设备及计算机可读存储介质 |
CN113359995A (zh) * | 2021-07-02 | 2021-09-07 | 北京百度网讯科技有限公司 | 人机交互方法、装置、设备以及存储介质 |
CN115640561A (zh) * | 2022-11-15 | 2023-01-24 | 季华实验室 | 屏幕控制方法、装置、终端及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20170205939A1 (en) | 2017-07-20 |
WO2017041433A1 (zh) | 2017-03-16 |
CN105159539B (zh) | 2018-06-01 |
US10185433B2 (en) | 2019-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105159539A (zh) | 可穿戴设备的触控响应方法、装置及可穿戴设备 | |
CN105824431B (zh) | 信息输入装置与方法 | |
KR102120930B1 (ko) | 포터블 디바이스의 사용자 입력 방법 및 상기 사용자 입력 방법이 수행되는 포터블 디바이스 | |
KR100630806B1 (ko) | 동작 인식 장치를 이용한 명령 입력 방법 | |
EP2817693B1 (en) | Gesture recognition device | |
EP3764206A1 (en) | Electronic device and method for processing gesture thereof | |
US10042438B2 (en) | Systems and methods for text entry | |
WO2015110063A1 (zh) | 信息处理方法、装置及设备 | |
CN205050078U (zh) | 一种可穿戴设备 | |
US20150323998A1 (en) | Enhanced user interface for a wearable electronic device | |
WO2018018624A1 (zh) | 一种可穿戴设备的手势输入方法及可穿戴设备 | |
WO2008157250A1 (en) | Mode sensitive processing of touch data | |
US20100225602A1 (en) | Input device and input method | |
KR100777107B1 (ko) | 가속도 센서를 이용한 문자인식 장치 및 방법 | |
KR20140114913A (ko) | 사용자 기기의 센서 운용 방법 및 장치 | |
KR102379635B1 (ko) | 전자 장치 및 이의 제스처 처리 방법 | |
KR20150065336A (ko) | 전자 장치의 제스처 인식 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 | |
CN103605433B (zh) | 一种多功能人体学输入设备 | |
EP2840479B1 (en) | Methods for interacting with an electronic device by using a stylus comprising body having conductive portion and systems utilizing the same | |
US20190272090A1 (en) | Multi-touch based drawing input method and apparatus | |
US20130268900A1 (en) | Touch sensor gesture recognition for operation of mobile devices | |
US20140195989A1 (en) | Input device, display device and method of controlling thereof | |
WO2015102974A1 (en) | Hangle-based hover input method | |
CN104503576A (zh) | 一种基于手势识别的计算机操作方法 | |
US20150277649A1 (en) | Method, circuit, and system for hover and gesture detection with a touch screen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |