CN106104421A - 一种指环式无线指感控制器、控制方法及控制系统 - Google Patents

一种指环式无线指感控制器、控制方法及控制系统 Download PDF

Info

Publication number
CN106104421A
CN106104421A CN201580005826.XA CN201580005826A CN106104421A CN 106104421 A CN106104421 A CN 106104421A CN 201580005826 A CN201580005826 A CN 201580005826A CN 106104421 A CN106104421 A CN 106104421A
Authority
CN
China
Prior art keywords
finger
sensing module
module
controller
finger ring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201580005826.XA
Other languages
English (en)
Inventor
白桂雨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of CN106104421A publication Critical patent/CN106104421A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0227Cooperation and interconnection of the input arrangement with other functional units of a computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C23/00Non-electrical signal transmission systems, e.g. optical systems
    • G08C23/04Non-electrical signal transmission systems, e.g. optical systems using light waves, e.g. infrared
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0331Finger worn pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/40Arrangements in telecontrol or telemetry systems using a wireless architecture

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

一种指环式无线指感控制器、控制方法及控制系统,涉及到人机交互技术领域。解决现有的人机交互设备体积大、结构复杂及操作不便的技术不足,控制器包括有一个用于佩戴于手指上的指环本体,在指环本体内设有微处理模块,以及分别与微处理模块连接的无线通讯模块和供电模块;所述的指环本体的上还设有一个以上用于感应人体接触或接近,为微处理模块提供生成控制指令所需传感信号的传感模块。类似一戒指,可佩戴于手指上,在控制器的表面多个不同位置上分别设多个传感模块,根据不同手势触发控制器上相对应各传感模块,由各传感信号排列组合生成相应控制指令,实现对被控设备的人机交互,也即本发明的控制器可以用来识别操作者的手指姿势,用户可以用直观而简单的手指姿势和手势来与被控设备进行互动。

Description

一种指环式无线指感控制器、控制方法及控制系统 技术领域
本发明涉及到人机交互技术领域。
背景技术
人机界面使人们对机器进行控制以及与机器进行互动。例如,键盘,鼠标,触摸板,允许用户与计算机进行互动。游戏遥控器使用户与游戏机进行互动。电视遥控器使用户可以远距离操控电视。语音识别技术使用户用声音操控机器。一些游戏机控制器有内置的相机来捕捉用户的身体动作图像,并发送给游戏机控制器,进而使游戏机控制器对用户的姿势作出判断,还可以通过利用红外点阵技术来提高游戏控制器对用户姿势的辨别能力。一些游戏控制器拥有加速度传感器用于确定用户的手的动作。一些设备也整合了肌电图学传感器,通过测量用户的肌肉电活动来确定手或手指姿势。
目前用于人机交互的设备存在体积大,操作及携带不便;结构复杂成本高;或者是智能识别难度大,误操作率高。
发明内容
综上所述,本发明的目的在于解决现有的人机交互设备体积大、结构复杂及操作不便的技术不足,而提出一种指环式无线指感控制器、控制方法及控制系统。
为解决本发明所提出的技术问题,采用的技术方案如下:一种指环式无线指感控制器,其特征在于所述的控制器包括有一个用于佩戴于手指上的指环本体,在指环本体内设有微处理模块,以及分别与微处理模块连接的无线通讯模块和供电模块;所述的指环本体的上还设有一个以上用于感应人体接触或接近,为微处理模块提供生成控制指令所需传感信号的传感模块。
所述的指环本体的上设有用于感应位于指环本体佩戴手指左侧相邻手指接触或接近的第一传感模块和用于感应位于指环本体佩戴手指右侧相邻手指接触或接近的第二传感模块;所述的第一传感模块和第二传感模块分别与所述的微处理模块电连接。
所述的指环本体掌心面上设有与微处理模块连接电连接用于感应拇指接触或接近的第三传感模块。
所述的指环本体掌背面上设有与微处理模块电连接用于感应人体接触或接近的第四传感模块。
所述的指环本体上设有与微处理模块电连接感应指环本体佩戴手指弯曲的第五传感模块。
所述的指环本体掌背面边缘位置设有与微处理模块连接电连接用于感应人体接触或接近的第六传感模块。
所述的指环本体内还设有与微处理模块连接电连接的惯性测量传感器、加速度传感器、陀螺仪或识别手势的磁力计。
所述的第一传感模块、第二传感模块、第三传感模块、第四传感模块、第五传感模块、第六传感模块为红外传感器、双触点传感器、多触点传感器、电阻式触摸传感器、电容触摸和/或近距离传感器、触摸板传感器、电感式近距离传感器、激光测距传感器、压力传感器。
所述的无线通讯模块为蓝牙通讯模块、RF射频模块、wifi模块或ZigBee模块。
所述的第一传感模块、第二传感模块、第三传感模块、第四传感模块、第 五传感模块、第六传感模块设有指环本体外表面上。
所述传感模块为设于指环本体上的曲面结构触控面板,在触控面板上设有一个以上用于感应人体接触或接近的触控区。
所述控制器的控制方法,其特征在于所述控制方法将所述控制器的指环本体佩戴于用户手指上,所述的控制器通过无线通讯模块与被控设备建立无线通讯,当指环本体佩戴手指左侧相邻手指与第一传感模块接触或接近时,第一传感模块被触发,向微处理模块提供第A1传感信号;
当指环本体佩戴手指右侧相邻手指与第二传感模块接触或接近时,第二传感模块被触发,向微处理模块提供第B1传感信号;
微处理模块根据各传感模块提供的传感信号生成相应的控制指令,从而对无线连接的被控设备进行操作控制。
所述的第一传感模块还感应指环本体佩戴手指左侧相邻手指相对于环本体佩戴手指滑动轨迹,向微处理模块提供第A2传感信号。
所述的第二传感模块还感应指环本体佩戴手指右侧相邻手指相对于环本体佩戴手指滑动轨迹,向微处理模块提供第B2传感信号。
当指环本体佩戴手指所在手的拇指与第三传感模块接触或接近时,第三传感模块被触发,向微处理模块提供第C1传感信号。
所述的第三传感模块还感应拇指在其上滑动轨迹,向微处理模块提供第C2传感信号。
当第四传感模块接触或接近到人体时,或被另一只手的手指接触或接近时,第四传感模块向微处理模块提供第D传感信号。
当指环本体佩戴手指弯曲后与第五传感模块接触或接近时,第五传感模块被触发,向微处理模块提供第E传感信号。
当指环本体佩戴手指左侧相邻手指与第六传感模块接触或接近时,第六传感模块被触发,向微处理模块提供第F传感信号。
微处理模块根据第一传感模块、第二传感模块、第三传感模块、第四传感模块、第五传感模块或第六传感模块的传感信号与惯性测量传感器、加速度传感器、陀螺仪或识别手势的磁力计的传感信号组合生成控制指令。
一种指感控制系统,其特征在于所述系统包括有所述控制器,及与所述控制器无线连接的被控设备;所述的控制器佩戴于使用者手指上,根据不同手指姿势触发控制器上相对应各传感模块,由各传感信号排列组合生成相应控制指令,从而对无线连接的被控设备进行操作控制。
所述的被控设备通过一个所述控制器配对的转发器与所述控制器无线连接。
所述的转发器与被控设备通过USB接口连接,红外模块连接,RF模块连接,WIFI模块连接或ZigBee模块连接。
所述的被控设备包括有电视机、音频设备、灯光设备、游戏机、电脑、投影仪、手机、机顶盒、温控设备、虚拟现实设备、增强现实设备、或智能系统设备。
本发明的有益效果为:本发明的控制器类似一戒指,可佩戴于手指上,在控制器的表面多个不同位置上分别设多个传感模块,根据不同手势触发控制器上相对应各传感模块,由各传感信号排列组合生成相应控制指令,实现对被控设备的人机交互,也即本发明的控制器可以用来识别操作者的手指姿势,用户可以用直观而简单的手指姿势和手势来与被控设备进行互动。不同手指姿势和同样的 手势可以用来发出不同指令,例如写不同的字或者是控制不同的设备。控制器尺寸小,重量轻,因此用户可以毫不费力的随时随处地使用。用户可以不必使用遥控器便可以对被控设备进行控制。用户可以不用眼睛看着手便可以灵活变动手指姿势和手势。这样的手势和手指姿势是非常有用的,例如在虚拟现实和增强现实的应用中,用户需要在看不见手但是要求发出指令时便非常有用。如果用户使用头戴式显示器并正专注于看周围所呈现的画面以及展示的内容的时候,他们不需要看着手便可以知道正在按的是什么控制键。使用本发明控制器,只需细微的手指姿势或手势就可以发出相关的指令,使用灵活方便。
附图说明
图1为本发明的控制器与电子设备进行互动时的结构方框图。
图2为本发明控制器的立体结构示意图一;
图3为本发明控制器的立体结构示意图二;
图4为本发明控制器的结构原理方框;
图5为本发明控制系统的结构方框图;
图6至图50为本发明具体应用案例示意图;
图51和图52为本发明指环本体上的接触区分布图。
具体实施方式
以下结合附图和本发明优选的具体实施例对本发明作进一步地说明。
参照图1中所示,本发明的指环式无线指感控制器100为类似于戒指,可佩戴于其中一个手指上,通过表面上的多个不同位置的传感模块感知各手指的相关位置,手指姿势和手势识别用户的手指动所和手势。用户可以实施一系列的简单,自然灵活的控制方式。例如,戒控制器100能用于操控一系列电子产品,包括电视、游戏控制器、灯光设备,以及其他有内置数据处理器或者有微型控制器的设备(例如恒温器、电视机顶盒、音频设备、视频设备、乐器、智能手机、台式电脑、笔记本电脑、平板电脑、投影仪)。控制器100可用于对具有头戴式显示器的虚拟设备或增强现实设备(例如有内置的显示和数据处理器和/或微控制器的眼镜,护目镜,头盔)下达指令。控制器100也可用于帮助机器识别手语。用户也可以同时在手上佩戴多个控制器100,用于识别手指姿势和手势。控制器100提供给用户便携,简单自然的有多个应用的人机交互。
参照图2、图3及图4中所示,本发明的指环式无线指感控制器100,具体结构包括有一个用于佩戴于手指上的指环本体101,在指环本体101内设有微处理模块,以及分别与微处理模块连接的无线通讯模块和供电模块;所述的指环本体101的外表面设有多个用来识别手势或手指姿势的传感模块,根据用户做出的手势或手指姿势触发相应的传感模块,微处理模块根据各传感信号排列组合生成相应控制指令,从而对无线连接的被控设备进行操作控制。
参照图2和图3以指环本体101上设6组传感模块为例对本发明的指环式无线指感控制器100进行一步说明,所述6组传感模块分别为:
第一传感模块111,设于指环本体101左侧面102上,用于感应位于指环本体101佩戴手指左侧相邻手指接触或接近;为了说明方便,将指环本体101佩戴于用户右手中指上为例进行说明,也即佩戴手指左侧相邻手指为右食指、右侧相邻手指为右无名指;
第二传感模块112,设于指环本体101右侧面103上,用于感应右无名指接触或接近;
第三传感模块113,设于指环本体101掌心面104上,主要用于感应右拇指 接触或接近;
第四传感模块114,设于指环本体101掌背面105上,用于感应人体接触或接近的,主要是用于感应左手的手指接触或接近;
第五传感模块115,设于指环本体101掌心面104边缘位置上,用于感应右中指是否弯曲;在具体实施过程中,第五传感模块115可以设于掌心面104的上边缘位置上,或者设于掌心面104的下边缘位置上,或者同时设于掌心面104的上、下边缘位置。
第六传感模块116,设于指环本体101掌背面105边缘位置上,用于感应右食指是否交叉搭于右中指上;
6组传感模块111、112、113、114、115、116分别与所述的微处理模块电连接,为微处理模块提供传感信号。其中,第一传感模块111和第二传感模块112最常用传感模块,其余传感模块113、114、115、116根据需要而增设。
6组传感模块111、112、113、114、115、116为红外传感器、双触点传感器、多触点传感器、电阻式触摸传感器、电容触摸和/或近距离传感器、触摸板传感器、电感式近距离传感器、压力传感器及激光测距传感器中的一种传感器或多种传感器。根据需要部分传感模块不仅向微处理模块提供开关信号,还提供感应手指移动方向信号。触摸/近距离传感器通常指的是对于接触输入信号或近距离输入信号敏感的传感器。触摸/近距离敏感表面通常指的对于接触以及近距离输入敏感的表面。触摸/近距离输入信号通常指的是触摸输入或接近输入。触摸/接近敏感表面可以使用各种技术,例如电容式触摸和近距离传感器,感应距离传感器,或电阻式触控传感器,用于识别对象,对象的距离,对象的方位和/或对象接触。电阻触摸感应器需要直接接触来生成一个信号,而近距离传感器,如电容式近距离传感器或感应距离传感器不需要直接接触来生成一个信号。指环本体101和周围物体直接的距离可以根据电容或电感的变化测算出。
为了实现感应指环式无线指感控制器100在空中移动轨迹,所述的指环本体101内还设有与微处理模块连接电连接的惯性测量传感器、加速度传感器、陀螺仪或识别手势的磁力计。
所述的无线通讯模块为蓝牙通讯模块或RF射频模块。
指环式无线指感控制器100的指环本体101可以调节大小,以满足不同用户的需求。指环式无线指感控制器100的内侧表面和外侧面由穿戴舒服的材料制成,如金属或是塑料。
本发明所述控制器100的控制方法,将所述控制器的指环本体佩戴于用户手指上,以佩戴于右中指为例,所述的控制器通过无线通讯模块与被控设备建立无线通讯连接,其中
当指环本体101佩戴手指左侧相邻手指与第一传感模块111接触或接近时,第一传感模块111被触发,向微处理模块提供第A1传感信号;所述的第一传感模块111还感应指环本体101佩戴手指左侧相邻手指相对于环本体佩戴手指运动轨迹,向微处理模块提供第A2传感信号。
当指环本体101佩戴手指右侧相邻手指与第二传感模块接触112或接近时,第二传感模块112被触发,向微处理模块提供第B1传感信号;所述的第二传感模块112还感应指环本体佩戴手指右侧相邻手指相对于环本体佩戴手指运动轨迹,向微处理模块提供第B2传感信号。
当指环本体101佩戴手指所在手的拇指与第三传感模块113接触或接近时,第三传感模块113被触发,向微处理模块提供第C1传感信号。所述的第三传感 模块113还感应拇指在其上运动轨迹,向微处理模块提供第C2传感信号。
当第四传感模块114接触或接近到人体时,或被另一只手的手指接触或接近时,第四传感模块114向微处理模块提供第D传感信号。
当指环本体101佩戴手指弯曲后会与第五传感模块115接触或接近时,第五传感模块115被触发,向微处理模块提供第E传感信号。
当指环本体101佩戴手指左侧相邻手指与第六传感模块116接触或接近时,第六传感模块116被触发,向微处理模块提供第F传感信号。
各传感模块对应的传感信号列表如下:
传感模块 传感信号
111 A1、A2
112 B1、B2
113 C1、C2
114 D
115 E
116 F
微处理模块根据各传感模块提供的传感信号排列组合生成相应控制指令,从而对无线连接的被控设备进行操作控制。
另外,上述各传感模块的传感信号与惯性测量传感器、加速度传感器、陀螺仪或识别手势的磁力计的传感信号组合,生成控制指令;例如可实现手语识别,以及有关虚拟现实和增强现实的控制。
参照图5中所示,本发明的指感控制系统,包括有上述控制器及与所述控制器无线连接的被控设备;所述的控制器佩戴于使用者手指上,根据不同手指姿势触发控制器上相对应各传感模块,由各传感信号排列组合生成相应控制指令,从而对无线连接的被控设备进行操作控制。对于含蓝牙模块的被控设备,可以通过控制器内置的无线通讯模块直接连接控制;对于常规被控设备,如:电视机、音频设备、灯光设备、游戏机、电脑等,被控设备通过一个所述控制器配对的转发器与所述控制器无线连接。转发器与被控设备通过USB接口连接,红外模块连接,RF模块连接,或ZigBee模块连接。
以下参照图6至图52中所示,结合具体的应用案例对本发明的控制方法作进一步说明:
注:以下所述的接触区190对应控制器100的第三传感模块113,当接触区190被触发,也即代表第三传感模块113被触发;同理:接触区192对应第五传感模块115,接触区196对应第一传感模块111,接触区198对应第二传感模块112,接触区200对应第六传感模块116,接触区202对应第四传感模块114。第三传感模块113可以采用一个触控板320。
使用案例1
参照图6中所示,控制器100被戴在右手的中指头上。一些别的例子中,控制器可被戴在左手上。这样也可出现图中未显示的手势。通过接触或近距离传感器,本申请披露和提供了一种识别手指和手指姿势细节的方法。因为一个控制器可识别至少三个手指的相关位置和趋向。与仅仅识别手或手臂运动相比,通过集成内置加速计、陀螺测试仪和磁力仪,控制器100可执行更多种类的命令。为了切换控制器100内的不同设置,用户只需改变手指姿势。例如,通过一个手指 指出且手上下挥动,用户即可控制电视音量。通过另一种手指姿势和手势,用户可控制照明系统的亮或暗,如两个手指指出且用同一只手上下挥动。此外通过第三种手指姿势和手势(即三个手指指出,且用同一只手上下挥动),用户可控制风扇,使风扇速度上升或下降。
在一些例子中,控制器被戴在两只手上。另有些例子,控制器带在同一只手的多个手指上,此外还有些在两只手的多个手指上均佩戴控制器。
根据图42,在一些应用中,不同的手指姿势能够与不同的设备产生一个指令以实现相同的手势对不同设备的控制。比如,所有应用手指姿势330的手势被解读为控制卧室电视机的指令。同样地,手指姿势332,334,336,338,和340可以分别与家庭娱乐室的电视机、音响设备、房间风扇、灯具、窗帘产生一个指令。使用者可以应用手指姿势332,334,336,338,或者340,来发出控制家庭娱乐室电视机、音响设备、房间风扇、灯具、窗帘的指令。具体的手指姿势与家庭设备的对应关系可以与上面所述不同。使用控制器100的一个好处在于使用者在不需要使用多个遥控器,只需转换不同的手指姿势来控制多种家电。
使用案例2
在一些应用中,在应用一种手指姿势时,不同的手势可以用来表示不同的指令。例如,假设使用者应用手指姿势330来控制卧室电视机。如果维持手指姿势不变,使用者可以将手向上或向下摆动来分别升高或降低电视机的音频音量。使用者可以向左或向右摆动来分别调上或调下电视机的频道。如果使用者想要跳转频道,可以应用手指手势弹出一个数字小键盘,然后在空中写字来表示频道数。例如,使用者可以在空中写数字234表示234频道。
使用案例3
在一些应用中,触控板320上的触控输入可以与手指姿势结合使用。例如,若要控制电视,使用者可以应用其中一种手指姿势,并且用指尖向上或向下滑动控制器触控板320来分别升高或降低音量。使用者可以用指尖向左或向右滑动控制器触控板320来调上或调下频道。想要调换频道时使用者可以应用手指或手势弹出一个数字小键盘,然后在空中写字来表示频道数。例如,使用者可以在空中写数字234表示234频道。
使用案例4:
控制器可以用来促进手语的识别,例如,使用者可以在两只手上都戴上两个控制器。使用者可以用这些戴控制器的手指同时做出手指姿势和手势。而控制器能够捕捉手指和手势的信息。获得的信息资料可以通过控制器中心处理器进行处理或者被传输至外部设备,比如智能手机,能够将手语转化为文本或语音。用这种方式,手语就可以输入机器,或者直接被一个文本语音程序转换为语音。
控制器可以与其他系统一起使用来提高手语解读的准确性。例如,一个系统可以使用摄像机来获取手势的视频,并且可通过手势的分析来确定手势所呈现的语言信息。控制器所识别到的手指姿势信息可以提高手语录像分析的准确度。
使用案例5
使用者玩电子游戏时,使用者可以应用手指姿势或手势在游戏中发出指令。例如,在战斗游戏中,使用者可以通过改变手指姿势来切换武器,或者通过将拿武器的手碰撞另一只手以及模仿现实世界为枪支重新装上新的弹药,控制器的加速器会拾取碰撞信号并重新加载武器。控制器100可以应用于各种类型的游戏,包括运动游戏、射击游戏、和搏击游戏。
控制器100可以用于虚拟现实应用。例如,使用者可以佩戴一副具有可以 提供虚拟现实体验的内置显示器和运动传感器的护目镜。使用者可以使用控制器100来识别各种手指姿势或手势来发射指令,比如向前或向后移动,向上或向下移动,放大或缩小。
根据图43所示,控制器100包括一个存储着手指姿势和触发区域映射信息的图表,当使用者的手指触碰接触区(比如接触区190、192、196、198)时,对应传感模块的识别点识别触控或近距离输入,并发送传感器信息至触控或近距离控制器,对应传感模块将传感器信息推移至微处理模块,来决定接触区(比如190、192、196、198、200、202)的哪一部分被触发。
下面的表1是一个可以用来识别图6到26A中出现的手指姿势编码映射图350的例子。表1
手指姿势编码 被触发接触区
1 196,198
2 196
3 198
4  
5 192,196
6 192
7 192,198
8 192,196,198
9 190,192,198
10 190,192
11 190,192,196
12 190,192,196,198
13 196,200
41 190,192,196,200
15 190,192,196,202
16 196,198,202
17 196,202
18 190,192,196,198,230,232
基于手指姿势映射图350的信息,中心微处理器能识别手指姿势。微处理模块也把手指姿势编码发给射频控制器或蓝牙模块。射频控制器然后能够将手指姿势编码发送至一个被控设备或转发器。
不同的手指姿势可以通过按不同顺序共同轻击不同手指形成。控制器100可以用于识别这些手势并把他们转换成与机器互动的指令。以下的例子假设了控制器100戴在中指上。例如,可以单击接触区198产生一个指令。可以双击接触区196产生一个指令。可以双击接触区198产生一个指令。可以三击接触区196产生一个指令。可以三击接触区198产生一个指令。可以同时单击接触区196和198产生一个指令。可以同时轻击一次食指212、中指210、无名指214产生一个指令。可以同时双击接触区196和198产生一个指令。可以两次同时连续快速轻击食指212、中指210、无名指214产生一个指令。可以同时三击接触区196和198产生一个指令。可以三次同时连续快速轻击食指、中指、无名指产生一个指令。因此,各种手势输入可以通过单独或同时轻击接触区196和198的不同次数来完成。
例如,单击接触区196紧接着单击接触区198产生一个指令。这可以通过 先同时轻击食指和中指一次,然后同时轻击中指和无名指一次来实现。手可以单击接触区198紧接着单击接触区196产生一个指令。这可以通过先同时轻击中指和无名指一次,然后同时轻击食指和中指一次来实现。可以先轻击接触区196一次再轻击接触区198一次然后再轻击接触区196一次的三击顺序产生一个指令。可以先轻击接触区198一次再轻击接触区196一次然后再轻击接触区197一次的三击顺序产生一个指令。
可以依次轻击接触区196,198,196,和198的四击顺序产生一个指令。可以与依次轻击接触区198,196,198,和196的四击顺序产生一个指令。可以先双击接触区196再双击接触区198产生一个指令。可以先双击接触区198再双击接触区196产生一个指令。可以先单击接触区196再三击接触区198产生一个指令。可以先单击接触区198再双击接触区196产生一个指令。可以先三击接触区196再单击接触区198产生一个指令。可以先三击接触区198再单击接触区196产生一个指令。
可以先双击接触区196再三击接触区198的五击顺序产生一个指令。可以先双击接触区198再三击接触区196的五击顺序产生一个指令。可以先三击接触区196再双击接触区198产生一个指令。可以先三击接触区198再双击接触区196产生一个指令。
可以先单击接触区196再同时单击接触区196和198的顺序产生一个指令。可以先单击接触区198再同时单击接触区196和198的顺序产生一个指令。可以先同时单击接触区196和198,再单击接触区196的顺序产生一个指令。可以先同时单击接触区196和198,再单击接触区198的顺序产生一个指令。因此,各种手势输入可以通过改变单独或同时轻击接触区196和198的顺序和类型来提供。
如果每次轻击(单独或同时单击接触区196)被看做一步,使用者可以进行大约每秒四步的手势输入。有3个一步式手势输入,单击接触区196,单击接触区198,或者同时单击接触区196和198。有3x3=9个两步式手势输入,其中一个例子就是双击接触区196。另一个例子是先单击接触区196再单击接触区198。有3x3x3=27个三步式手势输入,其中一个例子是先单击接触区196,再单击接触区198,再单击接触区196。有3x3x3=27种四步式手势输入,其中一个例子是先单击接触区196,再单击198,再单击196,最后单击198。另一个例子是先单击接触区198,再单击196,再单击198,最后单击196。因此,通过应用一步、两步、三步、或四步手势输入,就会有3+9+27+81=120中手势输入。
如果步骤数增加到5,就会有120+35=363种不同的手势输入。如果步骤数增加到6,就会有363+36=1092种不同的手势输入。例如,多部手势输入可以被用作一种密码。密码可以用来解锁,例如电视频道利用本体控制设置受限。使用控制器100提供多步手势输入作为密码就会比使用电视遥控器上的方向键来选择字母或数字符号进行操作更加方便。
下面的表2是利用同时或单独轻击接触区196和198的不同顺序产生手势输入的例子。比如,注释“单击196,单击198,单击196,198”表示手势输入先单击接触区196,再单击接触区198,最后同时单击接触区196和198的顺序产生一个指令。注释“双击196,198单击196,198”表示手势输入同时双击接触区196,198,然后同时单击接触区196,198的顺序产生一个指令。表2
手势编码 手指姿势
101 单击196
102 单击198
103 单击196,198
104 双击196
105 双击198
106 双击196,198
107 单击196->单击198
108 单击198->单击196
109 单击196->单击196,198
110 单击198->单击196,198
111 单击196,198->单击196
112 单击196,198->单击198
113 三击196
114 三击198
115 三击196,198
116 单击196->双击198
117 双击198->单击196
118 单击198->双击196
119 双击196->单击198
120 单击196->双击196,198
121 单击198->双击196,198
122 双击196->单击196,198
123 双击198->单击196,198
124 双击196->双击198
125 双击198->双击196
126 单击196->三击196,198
127 单击198->三击196,198
128 双击196->双击196,198
129 双击196->三击196,198
130 双击198->双击196,198
131 双击198->三击196,198
132 Triple-tap 196->单击196,198
133 Triple-tap 196->双击196,198
134 Triple-tap 196->三击196,198
135 Triple-tap 198->单击196,198
136 Triple-tap 198->双击196,198
137 Triple-tap 198->三击196,198
表2显示了一部分可能通过轻击控制器100的接触区196和198提供的手势输入。在一些例子中,接触区190(可与拇指接触)可以与接触区196和198结合使用,来增加可通过改变轻击顺序来提供的手势输入数目。
表2中显示的手势输入可以与表1中显示的手势输入以及上面描述的其他手势相结合使用。
例1
虚拟现实应用可能允许使用者佩戴虚拟现实护目镜或头盔来体验到远方的旅行,比如亚马逊森林或遥远星球,例如火星。当使用者佩戴虚拟现实护目镜或头盔,并且欣赏着虚拟现实环境中的景象时,由于使用者很难看清键盘因此也很难进行键盘录入。使用者可能会使用有选择和方向按钮的游戏控制器。使用者需要适当练习以记住不同按钮的位置,可以不用看就正确地按下游戏控制器上的按钮。控制器100允许使用者通过直观的手势而不需去看控制器100的方式与虚拟显示系统来互动。
例如,在虚拟现实应用中“三连击接触区196,198”手势可与启动顶层菜单的指令相连,提供各种菜单项,如“开始导航”,“保持地理位置”,“更改地理位置”和“退出”。启动顶层菜单意味着顶层菜单是在虚拟现实的环境中显示的。通过左右滑动触控板320,用户可上下滚动菜单。当达到想要的菜单项时,用户可双击触控板320以进行选择,接着用户可使用“三连击196,198”手势来取消顶层菜单,继续在虚拟现实环境中畅游。
在导航模式中,用户可转动脑袋(和身体)来改变方向。用户可使用图39中的手势并在触控板320上滑动以在虚拟现实环境中向前或退后。用户用拇指从左向右滑动,并在最后将拇指从触控板320上抬起,那么用户会在虚拟环境中前行,前进次数的多少与拇指在触控板320上的滑动次数成正比。当用户用拇指从右向左滑动,并在最后将拇指从触控板320上抬起,用户会在虚拟环境中后退,后退次数的多少与拇指在触控板320上的滑动次数成正比。当用户用拇指从左到右滑动,并在最后将拇指停在触控板320上,那么用户就会在虚拟现实环境中一直向前,当用户用拇指从右向左滑动,并在最后将拇指停在触控板320上,那么用户就会在虚拟现实环境中一直后退。
用户可使用图37中的手势来滑动触控板320以放大或缩小虚拟现实环境。放大功能的效果与使用远距镜头的效果相似,都会使物体扩大,视野变小。缩小功能的效果与使用广角镜头的效果相似,都会使物体缩小,视野变大。当用户用拇指从左向右滑动,并在最后将拇指从触控板320上抬起,那么用户会放大虚拟环境,放大次数的多少与拇指在触控板320上的滑动次数成正比,当用户用拇指从右向左滑动,并在最后将拇指从触控板320上抬起,那么用户会缩小虚拟环境,缩小次数的多少与拇指在触控板320上的滑动次数成正比。当用户用拇指从左到右滑动,并在最后将拇指停在触控板320上,那么用户就会一直扩大虚拟现实环境,当用户用拇指从右向左滑动,并在最后将拇指停在触控板320上,那么用户就会一直缩小虚拟现实环境。
例2
用户带上虚拟现实眼镜或头盔,并坐在椅子上以享受异地的虚拟现实之旅。当用户把头转向左、右、上、下时,可看见虚拟现实环境中的左、右、上、下方位。当然,用户可能也希望不用转动头部也可操纵虚拟现实环境。例如,用户可能坐在沙发上,并希望不用转过头也能看到虚拟现实环境中身后的景色。控制器100可用来提供导航指令,使用户通过简单的手指或手部动作便可操纵虚拟现实环境。
例如,用户可使用“双击接触区196”手势来提示开始进行手势导航。例如可用手指或手部动作来向左向右转动,向左向右移动,向前向后移动,向上或向下抬头,向上或向下移动。当然这些仅是例子,用户还可以根据自己的喜好用手指或手部动作设定任何指令。
参考图44A,用户可使手掌朝下使用图7中的手势(与表格1中手指/手部 动作代码2一致,此代码可启动接触区196),使手由左右移动以分别指示在虚拟现实环境中向左或向右旋转。控制器100中的加速器可识别左右运动。
参考图44B,用户可使手掌朝下使用图8A中的手势(与表格1中手势代码3一致,此代码可启动接触区198),使手向左或向右移动以分别指示在虚拟现实环境中向左或向右移动。
参考图44C,用户可使手掌朝下使用图6中的手势(与表格一中手势代码1一致,此代码可启动接触区196和198),使手向左或向右移动以分别指示在虚拟现实环境中向后或向前移动。
参考图44D,用户可使手掌朝下使用图7中的手势(与表格1中手势代码2一致,此代码可启动接触区196),使手向上或向下移动以分别指示在虚拟现实环境中向上或向下抬头。控制器100中的加速器可识别上下运动。
参考图44E,用户可使手掌朝下使用图8A中的手势(与表格1中手势代码3一致,此代码可启动接触区198),使手向上或向下移动以分别指示在虚拟现实环境中向上或向下移动。
参考图44F,用户可使手掌朝下使用图6中的手势(与表格1中手势代码1一致,此代码可启动接触区196和198),使手向上或向下移动以分别指示缩小或放大虚拟现实环境。
在图44A至44F的例子中,用户可通过简单地向左、向右、向上、向下挥手便可操纵虚拟现实环境。根据手的动作有没有触碰接触区196或/和198,手的左右运动可有三种不同功能。类似的,根据手的动作有没有触碰接触区196或/和198,手的上下运动也可有三种不同功能。
控制器100可使用户根据直觉来用手势控制虚拟现实环境中的活动。以上的例子只需使用一个控制器100,如果在一只手上或两只手上使用多个控制器,可把更多的指令与更多的手势相连。
例3
用户带上虚拟现实护目镜或是头盔玩战斗机战斗游戏。用户可用手势来控制飞机和火力武器的方向。例如,用户使用图6中手势,手掌朝下,并使用“三连击接触区196,198”手势来指示校正。控制器100中的感应器可识别控制器的位置,并把这一位置与控制战斗机并保持直行飞行的指令相连。用户使用图6中手势,左右移动手掌以在虚拟现实环境中控制战斗机的飞行方向;户使用图6中手势,上下移动手掌以在虚拟现实环境中使战斗机骤升或骤降;用户使用图39A中手势左右滑动触控板320来分别减少或加大马力。
在用手势控制战斗机的旋转,上下运动与偏航角时,用户还可用食指点击接触区196来发射机关枪,或是用无名指点击接触区198来发射导弹。用户通过短暂分开食指和中指然后再快速并拢食指和中指来点击接触区196。为连续发射机关枪,用户需不停分开并拢食指和中指。用户通过短暂分开中指和无名指然后再快速并拢它们来点击接触区198。
控制器100可使用户在虚拟现实游戏中凭直觉使用手势来操控飞机和火力。以上例子仅需使用一个控制器100,如果在一只手上或两只手上使用多个控制器,可把更多的指令与更多的手势相连。
例4
例如钢琴家可戴上控制器100来翻动屏幕上显示的曲谱。例如双击接触区196可指示“翻到下一页”,而双击接触区198则指示“回到上一页”。在另一个例子中,双击接触区196可指示“翻到下一页”,而连续三击接触区196则表示 “回到上一页”。可通过减少电池大小并使用运动充电器来减轻控制器100的重量。当钢琴家弹钢琴时,带控制器的手指不停地运动并为电池充电。
例5
在一些装备中,接触区196和198都可以作为触控板使用并可识别滑动动作。与用指尖在触控板上移动相似,用户可用食指在接触区196上下滑动。与用指尖在触控板上移动相似,用户可用无名指在接触区198上下滑动。例如可用控制器100来选择显示在可戴在头上的显示器(如一副智能眼镜中的小巧镜片)中的菜单项。可用“三击接触区196和198”来启动菜单栏。用无名指在接触区198上下滑动到可使菜单栏中的活动菜单项分别左右移动。用食指在接触区196点击可使下拉菜单出现,用食指在接触区196上下滑动到可使菜单栏中的活动菜单项在下拉菜单中分别上下移动。用食指双击接触区196可选择菜单项。
用户戴着配有内置显示器和摄像机的智能眼镜或头盔来完成虚拟现实环境。在虚拟现实环境中,一些文件会悬浮在用户面前,用户可以抓取或移动文件。智能眼镜或头盔能捕获用户的手的视频,而智能眼镜或头盔的操作系统能分析视频以判断用户想要抓取哪个文件以及想要把文件放在哪个位置。控制器100能帮助智能眼镜或头盔的操作系统来准确识别用户的抓取或移动动作。
举例来说,参考图45A,抓取动作以食指,中指,无名指和小指相互接触并向里弯曲开始,拇指的指尖与食指的指尖相碰。紧接着,手向前移动,同时手指张开,当手接触到文件时,手指再次并拢,食指,中指,无名指和小指相互接触并向里弯曲,拇指的指尖与食指的指尖相碰,通过首先识别接触区196和198的接触情况,接触区的零接触情况,使用加速器来识别前移动作,再接着识别前移动作的停止及再一次识别在接触区196和198的接触情况,控制器100可识别上述的抓取动作。
参考图45B,一旦文件“抓取”完成,用户可在保持触动接触区196和198的手势的同时把手移动到新的位置。当文件到达指定位置后,用户可通过张开手指,不触动接触区196和198的方式来“释放”文件。
参考图46,为了辨认各种手指和手部手势,我们提供了过程370。过程370过程包括在第一个手指(372)上带上戒指,戒指上有面对第二个手指的第一接触区,而第二个手指临近第一手指。第二接触区面对第三个手指,而第三个手指也临近第一个手指。第一接触区用来识别第二个手指的接触或邻近信号,而第二接触区用来识别第三个手指的接触或邻近信。第一和第二接触区都有一个或多个接触或邻近感应器。
例如,控制器可是图1至45B中的控制器100。第一个接触面可以是接触面196,第二个接触面可以是接触面198。
过程370过程包括移动相邻的第一、第二、第三个手指(374),识别在第一接触区而非第二接触区的第一个手指和手部手势(376)的接触或邻近信号,识别在第二接触区而非第一接触区的第二个手指和手部手势(378)的接触或邻近信号,并识别在第一和第二接触区的第三个手指和手部手势(380)的接触或邻近信号。
例如,第一、第二、第三个手指可分别是中指,食指和无名指。第一个手指和手部手势可以是图7中的手势,第二个手指和手部手势可以是图8A中的手势,第三个手指和手部手势可以是图6中的手势。
例如,第一、第二、第三个手指可分别是食指,拇指和中指。第一个手指和手部手势可以是图28C中的手势,第二个手指和手部手势可以是图28A中的 手势,第三个手指和手部手势可以是图28B中的手势。
例如,第一、第二、第三个手指可分别是无名指,中指和小指。第一个手指和手部手势可以是图27A中的手势,第二个手指和手部手势可以是图27D中的手势,第三个手指和手部手势可以是图27C中的手势。
参考图47,为了辨认各种手指和手部手势,我们提供了过程390。390过程包括在一个手指上戴上控制器(392)。这个控制器在一边有第一接触区,以从手掌的一部分识别接触或邻近信号,而这一接触区有一个或多个接触或邻近感应器。例如控制器可以是图1到45B中的控制器100,第一接触区可以是接触区192。
过程390包括将手指靠近手掌(394),感应区给出的接触或邻近信号可以识别第一个手指和手部手势(396),感应区没有发出接触或邻近信号可以识别第二个手指和手部手势(398)。
例如,这个手指可以是中指,第一个手指和手部手势可以是图10A,11A,12A,13A,14A,15A,16A,或17A中的手势,而第二个手指和手部手势可以是图6,7,8A,或9A中的手势。
参考图48,为了辨认各种手指和手部手势,我们提供了过程400。过程400过程包括在一个手指上戴上控制器(402)。这个控制器至少有第一接触区和第二接触区,每个接触区有一个或多个接触或邻近感应器。
例如,这个控制器可以是图1至45B中的控制器100,第一接触区和第二接触区可以是接触区190,192,196,198,230,232,和320中的任意两个。
400过程包括识别一个手指和手部姿势(404)对一个或多个第一和第二感应器区内的一个或多个接触或邻近感应器的触发情况。例如,这个手指和手部姿势可以是图6到30C以及图37A到42的手势中的任意一个。
参考图49,为了控制被控设备,我们提供了过程410,过程410包括辨认一个手指和手部手势,这个动作基于由两个或更多的接触或邻近感应器识别到的接触或邻近信号,且这个接触和邻近感应器是戴着第一个手指上的(412)。410过程包括识别手指和/或手势动作(414),根据手指和手部手势(416)从几个设备中挑选其一,并根据手指和/或手部动作(418)来控制所选设备。
例如,这个控制器可以是图1至45B中的控制器100,例如手指和手部手势可以是图42的任意一个,手指和/或手部动作可以是图35至36中的任意一个,设备可以是图42中任意一个。
例如,第一个手指和手部手势可以为第二个手指接触到控制器而第三个手指不接触到控制器的姿势。在一些例子中,第一、第二、第三根手指分别为中指、食指和无名指;在一些例子中,第一、第二、第三根手指分别为中指、无名指和食指;在一些例子中,第一、第二、第三根手指分别为食指、拇指和中指;在一些例子中,第一、第二、第三根手指分别为食指、中指和拇指;在一些例子中,第一、第二、第三根手指分别为无名指、中指和小指;在一些例子中,第一、第二、第三根手指分别为无名指、小指和中指。
例如,第二个手指和手部手势可以为第二个手指和第三个手指都接触到控制器的姿势。在一些例子中,第一、第二、第三根手指分别为中指、食指和无名指;在一些例子中,第一、第二、第三根手指分别为食指、拇指和中指;在一些例子中,第一、第二、第三根手指分别为无名指、中指和小指。
例如,第一个设备可以是电视,音频设备,照明设备,游戏机,电脑,包含数据处理器或控制器的智能设备,增强现实设备,或虚拟现实设备。
例如,当识别到一个锁定指令的特殊手势后,所选设备与控制器之间的联系被保持下来,后续的手指和/或手部动作被用来控制所选设备,直到识别到一个解锁指令的特殊手指姿势。
其它的具体表现都包含在以下声明中,例如接触区190,192,194,196,198,200和202都可有一个对触摸和邻近信息敏感的触摸/邻近感应器。当控制器100佩戴在一根手指上时,用户可弯曲手指以使手指的一部分启动接触区194。不管接触区194有没有开启,控制器100可识别到各种手指和手部手势。在一些例子中,整个控制器外部表面都是一个对触摸敏感的表面。控制器可以有不同敏感度的接触/邻近感应器。比如说,当控制器戴在中指上时,控制器可能被设定为从食指和无名指识别接触情况,从手掌识别接触情况或是从拇指识别滑动情况。接触区192,196和198的传感器节点密度可以比接触区190和194的密度要小,因为接触区190和194需要高密度传感器节点来识别界面的滑动动作。智能设备可以是任何装有信息处理器或控制器并能接收和处理信息的设备。智能设备包括:智能手机,智能电视,智能冰箱,智能烤炉,智能烟雾警报器,智能恒温器等。
控制器100可以用来控制无人驾驶飞行器(无人机)或机器人。控制器100本身包含一个电池。在一些例子中,第二个控制器包含第二个电池,用户也可对其进行使用。用户可以戴上与第二控制器相邻有触摸或近距离传感器的第一个控制器,第一和第二控制器之间的电极允许电流从第二控制器流到第一控制器。由于控制器电池较小,用户可以在一个口袋里装上一些新鲜电池的控制器,当控制器上电池电量耗尽时,把电池耗尽的控制器放进另一个口袋里。如图50所示,控制器充电器360可以有一个基座362以及一个杆364,控制器电池366a,366b,以及366c可以在杆364周围堆叠。控制器电池366a的下沿所产生的电极接触电极基座362,可使控制器电池366a从基座362开始接受充电电流。控制器电池366b的下沿的电极接触控制器电池366a上边缘的电极,并且控制器电池366c的下沿的电极接触控制器电池366b上边缘的电极,可使控制器电池366b和366c充电。
详细描述
在一些执行动作中,用户可挥动手在空中画画。控制器100已经内置了加速计、磁力计和陀螺测试仪以便识别手的运动。当用户在空中画画时,控制器100可识别追踪手的运动,并将识别到的运动信息发送到控制器的中央控制器中。控制器则可根据追踪的用户信息,识别字母字符、数字、特殊字符或是符号。
控制器100的一个优势是当在空中写字时,通过使用不同的手指姿势,用户能够通过相似的手运动生成不同的指令或选择不同的字符。例如,用户在空中画了个“O”型,则我们可能不清楚用户是写了大写字母“O”还是小写字母“o”亦或是数字“0”。不同的手指姿势可以与不同的键盘布局关联。使用这种方式,我们通过测定使用了什么样的手指姿势执行了写字的动作来区分相似或相同的写字动作。
图31到34分析了使用控制器识别手指姿势和手势动作以便当用户在空中写字时改善字符识别的准确性。
参照图31,手指姿势260与一键盘布局262产生一个指令。当用户根据手势260的动作在空中挥动手指时,则控制器从控制器100中接收到的手动作信息信号将会按照键盘262布局进行阐释。
参照图32,手指姿势270与一键盘布局272产生一个指令。当用户根据手势270的动作在空中挥动手指时,则控制器从控制器100中接收到的信息信号将 会按照键盘272布局进行阐释。
根据图33,手势280能够与键盘布局282产生一个指令,当使用者根据手势280,用手指在空中写字时,控制器从控制器100接受的手部移动信号将会根据键盘布局282来解读这些动作。
根据图34,手势290能够与一套键盘布局292产生一个指令,当使用者根据290手势,用手指在空中定向地画图时,控制器从控制器100接受的手部移动信号将会根据键盘布局292来解读这些动作。
根据图35,在一些例子中,控制器可以将手指姿势260,270,280,290与不同的键盘布局联系起来。当使用者在空中画圈或椭圆时,控制器将会根据画图时所应用的手指姿势来解读手部的移动。例如,当使用者画椭圆时应用手指姿势260,控制器将会把手部的动作解读为画了一个小写字母“o”。同样地,当使用者画椭圆时应用手指姿势270、280、290,控制器将会把手部的动作分别解释为画了一个数字“0”,一个符号@,或者一个表情符号。
根据图36,当使用者在空中画垂直线段时,控制器将会根据画图时所用到的手指姿势来解释手部的移动。例如,如果使用者在画垂直线段时应用手指姿势260,控制器将会把手部移动解释为画了一个小写字母“i”。同样地,当使用者画垂直线段时应用手指姿势270、280、290,控制器将会把手部的动作分别解释为画了一个数字“1”,或者符号“|”,或者一个表情符号。
根据图37,在一些应用中,接触式/近距离传感器作为一个小触控板追踪着经过其表面的手指姿势。触控板可以识别不同的指尖运动,例如从左向右运动,从右向左运动,顶端至底部运动,底部至顶端运动,顺时针旋转运动,轻击,双击,三击等等。此处,当把控制器戴在中指上时,由左向右运动指的是由无名指向食指方向的运动,从右向左运动指的是由食指向无名指方向的运动,由上至下运动指的是从指尖向手掌的运动,由下至上的运动指的是从手掌到指尖的运动。
小型触控板具有多点触控功能,能够识别出两个或更多的触控或近距离输入或运动。触控板可以用来与控制器上的其他触控/近距离传感器相结合,随着手指姿势的不同,触控板上同样的动作也会有不同的解读。
在图37一部分触控或近距离敏感面起到触控板的作用。触控或近距离敏感面的其他接触区196和198可以识别食指或无名指的触控或近距离信号。在图37的例子中,使用者食指和无名指不接触控制器100以便于食指和无名指不去激活触控或近距离传感器的手指姿势。拇指可以在触控板区域320自由移动。
根据图38,使用者可能会应用食指压住中指的手指姿势以便于食指接触控制器100以激活接触区196内的触控或近距离传感器。无名指不接触控制器100以便于无名指不去激活触控或近距离传感器。拇指可以在触控器区域320移动,以识别比如说拇指是在向上、向下、向左还是向右做运滑动。
根据图39,使用者可能会应用中指挤压食指或无名指的手指姿势以便于食指或无名指接触控制器100以激活接触区196和198内的触控或近距离传感器。拇指可以在触控器区域320移动。
根据图40,使用者可能会应用中指压住无名指的手指姿势以便于无名指接触控制器100以激活接触区198内的触控或近距离传感器。食指不接触控制器100以便于食指不去激活触控或近距离传感器,拇指可以在触控器区域320内自由移动。
根据图41,使用者可能会应用中指压住食指的手指姿势以便于食指接触控制器100来激活接触区196内的触控或近距离传感器。小指和无名指向内弯曲以 便于无名指不接触触控或近距离传感器。控制器100戴在右手上,左手拇指可以跨触控器区域320自由移动。
例如,触控器区域320上同样的由左或向右滑动运动可以根据图37,38,39,40,或41中出现的不同手指姿势而被有区别地解读。更多的组合也可以用同样的原理来实现。
参照图6至30C,以及结合图51和图52中所示,图6至30C中各手势状态下被触发的触控区分别如下表所示。
对应附图 被触发的触控区
图6 196、198
图7 196
图8A 198
图9A
图10A 196、192
图11A、图11B 192
图12 198、192
图13 198、196、192
图14 198、192、190
图15 192、190
图16 196、192、190
图17 196、198、192、190
图18 196、200
图19 196、200、192、190
图20 202、190、196
图21 202、196、198
图22 202、196
图23A、图23B 196、198、192、190
图24A、图24B 192
图25A、图25B 196
图26A、图26B、图26C 198、192、190
图27A 196
图27B、图28E、图29B、图30A
图27C、图28B 196、198
图27D、图28A、图30B 198
图28C、图29A、图29C 196
图28D 190
图30C 202、198、196、192、190、200

Claims (24)

  1. 一种指环式无线指感控制器,其特征在于所述的控制器包括有一个用于佩戴于手指上的指环本体,在指环本体内设有微处理模块,以及分别与微处理模块连接的无线通讯模块和供电模块;所述的指环本体的上还设有一个以上用于感应人体接触或接近,为微处理模块提供生成控制指令所需传感信号的传感模块。
  2. 根据权利要求1所述的一种指环式无线指感控制器,其特征在于:所述的指环本体的上设有用于感应位于指环本体佩戴手指左侧相邻手指接触或接近的第一传感模块和用于感应位于指环本体佩戴手指右侧相邻手指接触或接近的第二传感模块;所述的第一传感模块和第二传感模块分别与所述的微处理模块电连接。
  3. 根据权利要求1所述的一种指环式无线指感控制器,其特征在于:所述的指环本体掌心面上设有与微处理模块连接电连接用于感应拇指接触或接近的第三传感模块。
  4. 根据权利要求1所述的一种指环式无线指感控制器,其特征在于:所述的指环本体掌背面上设有与微处理模块电连接用于感应人体接触或接近的第四传感模块。
  5. 根据权利要求1所述的一种指环式无线指感控制器,其特征在于:所述的指环本体上设有与微处理模块电连接感应指环本体佩戴手指弯曲的第五传感模块。
  6. 根据权利要求1所述的一种指环式无线指感控制器,其特征在于:所述的指环本体掌背面边缘位置设有与微处理模块连接电连接用于感应人体接触或接近的第六传感模块。
  7. 根据权利要求1所述的一种指环式无线指感控制器,其特征在于:所述的指环本体内还设有与微处理模块连接电连接的惯性测量传感器、加速度传感器、陀螺仪或识别手势的磁力计。
  8. 根据权利要求1至7任一项所述的一种指环式无线指感控制器,其特征在于:所述的第一传感模块、第二传感模块、第三传感模块、第四传感模块、第五传感模块、第六传感模块为红外传感器、双触点传感器、多触点传感器、电阻式触摸传感器、电容触摸和/或近距离传感器、触摸板传感器、电感式近距离传感器、激光测距传感器、压力传感器。
  9. 根据权利要求1所述的一种指环式无线指感控制器,其特征在于:所述的无线通讯模块为蓝牙通讯模块、RF射频模块、wifi模块或ZigBee模块。
  10. 根据权利要求1至7任一项所述的一种指环式无线指感控制器,其特征在于:所述的第一传感模块、第二传感模块、第三传感模块、第四传感模块、第五传感模块、第六传感模块设有指环本体外表面上。
  11. 根据权利要求1所述的一种指环式无线指感控制器,其特征在于:所述传感模块为设于指环本体上的曲面结构触控面板,在触控面板上设有一个以上用于感应人体接触或接近的触控区。
  12. 如权利要求1至11任一项所述控制器的控制方法,其特征在于所述控制方法将所述控制器的指环本体佩戴于用户手指上,所述的控制器通过无线通讯模块与被控设备建立无线通讯,当指环本体佩戴手指左侧相邻手指与第一传感模块接触或接近时,第一传感模块被触发,向微处理模块提供第A1传感信号;
    当指环本体佩戴手指右侧相邻手指与第二传感模块接触或接近时,第二传 感模块被触发,向微处理模块提供第B1传感信号;
    微处理模块根据各传感模块提供的传感信号生成相应的控制指令,从而对无线连接的被控设备进行操作控制。
  13. 根据权利要求12所述的控制方法,其特征在于:所述的第一传感模块还感应指环本体佩戴手指左侧相邻手指相对于环本体佩戴手指滑动轨迹,向微处理模块提供第A2传感信号。
  14. 根据权利要求12所述的控制方法,其特征在于:所述的第二传感模块还感应指环本体佩戴手指右侧相邻手指相对于环本体佩戴手指滑动轨迹,向微处理模块提供第B2传感信号。
  15. 根据权利要求12所述的控制方法,其特征在于:当指环本体佩戴手指所在手的拇指与第三传感模块接触或接近时,第三传感模块被触发,向微处理模块提供第C1传感信号。
  16. 根据权利要求15所述的控制方法,其特征在于:所述的第三传感模块还感应拇指在其上滑动轨迹,向微处理模块提供第C2传感信号。
  17. 根据权利要求12所述的控制方法,其特征在于:当第四传感模块接触或接近到人体时,或被另一只手的手指接触或接近时,第四传感模块向微处理模块提供第D传感信号。
  18. 根据权利要求12所述的控制方法,其特征在于:当指环本体佩戴手指弯曲后与第五传感模块接触或接近时,第五传感模块被触发,向微处理模块提供第E传感信号。
  19. 根据权利要求12所述的控制方法,其特征在于:当指环本体佩戴手指左侧相邻手指与第六传感模块接触或接近时,第六传感模块被触发,向微处理模块提供第F传感信号。
  20. 根据权利要求12所述的控制方法,其特征在于:微处理模块根据第一传感模块、第二传感模块、第三传感模块、第四传感模块、第五传感模块或第六传感模块的传感信号与惯性测量传感器、加速度传感器、陀螺仪或识别手势的磁力计的传感信号组合生成控制指令。
  21. 一种指感控制系统,其特征在于所述系统包括有如权利要求1至11任一项所述控制器,及与所述控制器无线连接的被控设备;所述的控制器佩戴于使用者手指上,根据不同手指姿势触发控制器上相对应各传感模块,由各传感信号排列组合生成相应控制指令,从而对无线连接的被控设备进行操作控制。
  22. 根据权利要求21所述的控制系统,其特征在于:所述的被控设备通过一个所述控制器配对的转发器与所述控制器无线连接。
  23. 根据权利要求22所述的控制系统,其特征在于:所述的转发器与被控设备通过USB接口连接,红外模块连接,RF模块连接,WIFI模块连接或ZigBee模块连接。
  24. 根据权利要求21所述的控制系统,其特征在于:所述的被控设备包括有电视机、音频设备、灯光设备、游戏机、电脑、投影仪、手机、机顶盒、温控设备、虚拟现实设备、增强现实设备、或智能系统设备。
CN201580005826.XA 2014-01-29 2015-01-28 一种指环式无线指感控制器、控制方法及控制系统 Pending CN106104421A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201461932801P 2014-01-29 2014-01-29
US61/932,801 2014-01-29
US14/274,602 US10139906B1 (en) 2014-01-29 2014-05-09 Ring human-machine interface
US14/274,602 2014-05-09
PCT/CN2015/071781 WO2015113503A1 (zh) 2014-01-29 2015-01-28 一种指环式无线指感控制器、控制方法及控制系统

Publications (1)

Publication Number Publication Date
CN106104421A true CN106104421A (zh) 2016-11-09

Family

ID=53756237

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580005826.XA Pending CN106104421A (zh) 2014-01-29 2015-01-28 一种指环式无线指感控制器、控制方法及控制系统

Country Status (4)

Country Link
US (2) US10139906B1 (zh)
CN (1) CN106104421A (zh)
TW (1) TWI528227B (zh)
WO (1) WO2015113503A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107632716A (zh) * 2017-11-07 2018-01-26 王可攀 一种输入信息处理装置及其处理输入信息的方法
CN108664127A (zh) * 2018-05-21 2018-10-16 云谷(固安)科技有限公司 一种基于手势识别输入设备的数据传输方法及其设备
CN109316740A (zh) * 2017-07-30 2019-02-12 宏达国际电子股份有限公司 检测手指的电子装置、方法及系统以及非暂态可读取媒体
CN110138641A (zh) * 2019-06-12 2019-08-16 福建师范大学福清分校 一种智能手势识别装置
CN110546597A (zh) * 2017-04-20 2019-12-06 脸谱科技有限责任公司 使用电容式触控板的手持控制器
CN111596855A (zh) * 2020-04-24 2020-08-28 沈阳工业大学 支持命令控制和交互操作的触摸式指节环及方法
CN111638801A (zh) * 2017-01-04 2020-09-08 宏达国际电子股份有限公司 用于手势辨识的控制器及其手势辨识的方法
CN115250126A (zh) * 2021-04-28 2022-10-28 Oppo广东移动通信有限公司 智能指环及电子设备的控制方法、装置、存储介质
CN116859992A (zh) * 2023-06-27 2023-10-10 中山大学 一种无人系统控制智能手套及其实现方法

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10845884B2 (en) * 2014-05-13 2020-11-24 Lenovo (Singapore) Pte. Ltd. Detecting inadvertent gesture controls
US10139966B2 (en) 2015-07-22 2018-11-27 Osterhout Group, Inc. External user interface for head worn computing
US20170185261A1 (en) * 2015-12-28 2017-06-29 Htc Corporation Virtual reality device, method for virtual reality
CN106200953A (zh) * 2016-07-05 2016-12-07 乐视控股(北京)有限公司 无线戒指、戒指组合及其虚拟现实设备操控方法
WO2018151449A1 (en) 2017-02-17 2018-08-23 Samsung Electronics Co., Ltd. Electronic device and methods for determining orientation of the device
US10693672B2 (en) * 2017-03-08 2020-06-23 Crackle, Inc. Security and environmental control based on virtual reality headset usage
CN107025908B (zh) * 2017-04-06 2020-11-03 英华达(上海)科技有限公司 无人载具的控制方法与控制系统
EP3635511B1 (en) * 2017-06-09 2023-03-01 Microsoft Technology Licensing, LLC Wearable device enabling multi-finger gestures
CN109843399B (zh) * 2017-08-03 2020-07-21 腾讯科技(深圳)有限公司 用于提供游戏控制的设备、方法和图形用户界面
CN107765889A (zh) * 2017-10-30 2018-03-06 赵长虹 一种用于无线遥控智能手机的戒指
US20190187834A1 (en) * 2017-12-19 2019-06-20 North Inc. Wearable electronic devices having an inward facing input device and methods of use thereof
US10671067B2 (en) * 2018-01-15 2020-06-02 Qualcomm Incorporated Managing limited safe mode operations of a robotic vehicle
JP2019185531A (ja) * 2018-04-13 2019-10-24 セイコーエプソン株式会社 透過型頭部装着型表示装置、表示制御方法、およびコンピュータープログラム
USD856289S1 (en) * 2018-04-30 2019-08-13 Hunter Douglas Inc. Remote control housing
US10579099B2 (en) * 2018-04-30 2020-03-03 Apple Inc. Expandable ring device
US11353967B2 (en) * 2018-05-31 2022-06-07 Arkh Litho Holdings, LLC Interacting with a virtual environment using a pointing controller
US10635895B2 (en) 2018-06-27 2020-04-28 Facebook Technologies, Llc Gesture-based casting and manipulation of virtual content in artificial-reality environments
US11150746B2 (en) * 2018-06-28 2021-10-19 Google Llc Wearable electronic devices having user interface mirroring based on device position
WO2020045616A1 (ja) * 2018-08-30 2020-03-05 株式会社アスタリスク ウェアラブルデバイス
USD951257S1 (en) * 2018-11-28 2022-05-10 Soo Hyun CHAE Portable terminal
US20200220998A1 (en) * 2019-01-09 2020-07-09 Timothy E. Bridges Method and apparatus for quickly capturing images with one hand
US11106223B2 (en) * 2019-05-09 2021-08-31 GEOSAT Aerospace & Technology Apparatus and methods for landing unmanned aerial vehicle
US10955929B2 (en) * 2019-06-07 2021-03-23 Facebook Technologies, Llc Artificial reality system having a digit-mapped self-haptic input method
CN110377152A (zh) * 2019-06-19 2019-10-25 重庆爱奇艺智能科技有限公司 一种穿戴式指环及控制对应虚拟现实设备的方法
US11048470B2 (en) * 2019-09-09 2021-06-29 Motorola Mobility Llc Audible display readout based on lighting conditions
US11637921B2 (en) 2019-09-09 2023-04-25 Motorola Mobility Llc Enabling vibration notification based on environmental noise
US20210089131A1 (en) * 2019-09-23 2021-03-25 Apple Inc. Finger-Mounted Input Devices
US11714494B2 (en) * 2019-09-26 2023-08-01 Apple Inc. Ring input devices
US11275456B2 (en) * 2019-09-27 2022-03-15 Apple Inc. Finger-wearable input assembly for controlling an electronic device
WO2021061249A1 (en) * 2019-09-27 2021-04-01 Apple Inc. Finger-wearable input assembly for controlling an electronic device
US11893164B2 (en) * 2019-10-18 2024-02-06 Trustees Of Dartmouth College Methods and systems for eyes-free text entry
TWI742543B (zh) * 2020-02-26 2021-10-11 香港商冠捷投資有限公司 顯示裝置
US11562054B2 (en) * 2020-04-03 2023-01-24 Proxy, Inc. Authorized gesture control methods and apparatus
US11709554B1 (en) * 2020-09-14 2023-07-25 Apple Inc. Finger devices with adjustable housing structures
US11733790B2 (en) 2020-09-24 2023-08-22 Apple Inc. Ring input device with pressure-sensitive input
TWI749877B (zh) * 2020-11-18 2021-12-11 華碩電腦股份有限公司 無線控制裝置
US11726552B1 (en) * 2021-04-30 2023-08-15 Meta Platforms Technologies, Llc Systems and methods for rendering a trigger finger
WO2022237958A1 (en) * 2021-05-10 2022-11-17 Telefonaktiebolaget Lm Ericsson (Publ) Wearable electronic device, electronic device system and methods thereof
EP4338034A1 (en) * 2021-05-10 2024-03-20 Telefonaktiebolaget LM Ericsson (publ) Wearable ring-shaped electronic device, and methods of the ring-shaped electronic device
US11823481B2 (en) * 2021-12-29 2023-11-21 Qualcomm Incorporated Adaptive activation of fingerprint sensor areas
US20230341944A1 (en) * 2022-04-26 2023-10-26 Oura Health Oy Ring-inputted commands
US11822732B1 (en) * 2023-02-15 2023-11-21 City University Of Hong Kong Interactive wearable device and method of machine learning based training thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101105728A (zh) * 2006-07-11 2008-01-16 何进 鼠标
US8009141B1 (en) * 2011-03-14 2011-08-30 Google Inc. Seeing with your hand
CN102866789A (zh) * 2012-09-18 2013-01-09 中国科学院计算技术研究所 一种人机交互戒指
CN103105945A (zh) * 2012-12-17 2013-05-15 中国科学院计算技术研究所 一种支持多点触摸手势的人机交互戒指

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001125722A (ja) * 1999-11-01 2001-05-11 Sharp Corp リモートコントロール装置
US20020163495A1 (en) * 2001-05-02 2002-11-07 Plamen Doynov Multi-functional ergonomic interface
GB2418974B (en) * 2004-10-07 2009-03-25 Hewlett Packard Development Co Machine-human interface
US8904312B2 (en) * 2006-11-09 2014-12-02 Navisense Method and device for touchless signing and recognition
EP2191458A4 (en) * 2007-08-19 2012-02-15 Ringbow Ltd FINGER-FITTED DEVICES AND METHODS OF USE THEREOF
JP5263833B2 (ja) * 2009-05-18 2013-08-14 国立大学法人 奈良先端科学技術大学院大学 ウェアラブルコンピュータに用いるリング型インタフェース、インタフェース装置、およびインタフェース方法
US20130135223A1 (en) * 2009-12-13 2013-05-30 Ringbow Ltd. Finger-worn input devices and methods of use
US10082950B2 (en) * 2011-11-09 2018-09-25 Joseph T. LAPP Finger-mapped character entry systems
US10042438B2 (en) * 2015-06-30 2018-08-07 Sharp Laboratories Of America, Inc. Systems and methods for text entry

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101105728A (zh) * 2006-07-11 2008-01-16 何进 鼠标
US8009141B1 (en) * 2011-03-14 2011-08-30 Google Inc. Seeing with your hand
CN102866789A (zh) * 2012-09-18 2013-01-09 中国科学院计算技术研究所 一种人机交互戒指
CN103105945A (zh) * 2012-12-17 2013-05-15 中国科学院计算技术研究所 一种支持多点触摸手势的人机交互戒指

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111638801B (zh) * 2017-01-04 2023-08-08 宏达国际电子股份有限公司 用于手势辨识的控制器及其手势辨识的方法
CN111638801A (zh) * 2017-01-04 2020-09-08 宏达国际电子股份有限公司 用于手势辨识的控制器及其手势辨识的方法
CN110546597A (zh) * 2017-04-20 2019-12-06 脸谱科技有限责任公司 使用电容式触控板的手持控制器
CN110546597B (zh) * 2017-04-20 2024-04-05 元平台技术有限公司 使用电容式触控板的手持控制器
CN109316740A (zh) * 2017-07-30 2019-02-12 宏达国际电子股份有限公司 检测手指的电子装置、方法及系统以及非暂态可读取媒体
CN109316740B (zh) * 2017-07-30 2022-06-07 宏达国际电子股份有限公司 检测手指的电子装置、方法及系统以及非暂态可读取媒体
CN107632716A (zh) * 2017-11-07 2018-01-26 王可攀 一种输入信息处理装置及其处理输入信息的方法
CN107632716B (zh) * 2017-11-07 2024-03-08 王可攀 一种输入信息处理装置及其处理输入信息的方法
CN108664127A (zh) * 2018-05-21 2018-10-16 云谷(固安)科技有限公司 一种基于手势识别输入设备的数据传输方法及其设备
CN108664127B (zh) * 2018-05-21 2021-06-22 云谷(固安)科技有限公司 一种基于手势识别输入设备的数据传输方法及其设备
CN110138641A (zh) * 2019-06-12 2019-08-16 福建师范大学福清分校 一种智能手势识别装置
CN111596855A (zh) * 2020-04-24 2020-08-28 沈阳工业大学 支持命令控制和交互操作的触摸式指节环及方法
CN115250126B (zh) * 2021-04-28 2023-11-10 Oppo广东移动通信有限公司 智能指环及电子设备的控制方法、装置、存储介质
CN115250126A (zh) * 2021-04-28 2022-10-28 Oppo广东移动通信有限公司 智能指环及电子设备的控制方法、装置、存储介质
CN116859992A (zh) * 2023-06-27 2023-10-10 中山大学 一种无人系统控制智能手套及其实现方法

Also Published As

Publication number Publication date
WO2015113503A1 (zh) 2015-08-06
TWI528227B (zh) 2016-04-01
TW201530353A (zh) 2015-08-01
US10139906B1 (en) 2018-11-27
US10948992B1 (en) 2021-03-16

Similar Documents

Publication Publication Date Title
CN106104421A (zh) 一种指环式无线指感控制器、控制方法及控制系统
US10417880B2 (en) Haptic device incorporating stretch characteristics
US11360558B2 (en) Computer systems with finger devices
US20190324595A1 (en) Systems, devices, and methods for touch-free typing
CN107533373B (zh) 虚拟现实中经由手与对象的场境敏感碰撞的输入
EP2733574B1 (en) Controlling a graphical user interface
US9218058B2 (en) Wearable digital input device for multipoint free space data collection and analysis
Prätorius et al. DigiTap: an eyes-free VR/AR symbolic input device
CN102707799B (zh) 一种手势识别方法及手势识别装置
CN108027705A (zh) 用于按钮/键和“手指书写”混合型输入的装置和方法以及基于手的低外廓/可变几何形状控制器
US11205075B2 (en) Interfaces, systems and apparatuses for constructing 3D AR environment overlays, and methods for making and using same
Li et al. Get a grip: Evaluating grip gestures for vr input using a lightweight pen
Matulic et al. Phonetroller: Visual representations of fingers for precise touch input with mobile phones in vr
US20160209968A1 (en) Mapping touch inputs to a user input module
CN102622083A (zh) 一种手势识别方法及手势识别装置
CN101893967A (zh) 控制触敏手势输入结果的方法
WO2015108112A1 (ja) 操作判定装置、操作判定方法、および、プログラム
Ren et al. Freehand gestural text entry for interactive TV
Prätorius et al. Sensing thumb-to-finger taps for symbolic input in vr/ar environments
CN112041795A (zh) 穿戴式数据输入设备及操作方法
CN105242795A (zh) 一种利用方位手势输入英文字母的方法
US20160217767A1 (en) A Peripheral Electronic Device and Method for Using Same
Yamagishi et al. A system for controlling personal computers by hand gestures using a wireless sensor device
Gil et al. Characterizing In-Air Eyes-Free Typing Movements in VR
Tochihara et al. A remote pointing method with dynamic cd ratio during a pinching gesture for large tabletop systems

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20161109

RJ01 Rejection of invention patent application after publication