CN103547989A - 用于装置状态的用户控制的方法、装置和计算机程序 - Google Patents

用于装置状态的用户控制的方法、装置和计算机程序 Download PDF

Info

Publication number
CN103547989A
CN103547989A CN201280023264.8A CN201280023264A CN103547989A CN 103547989 A CN103547989 A CN 103547989A CN 201280023264 A CN201280023264 A CN 201280023264A CN 103547989 A CN103547989 A CN 103547989A
Authority
CN
China
Prior art keywords
predefine
user
detecting device
gesture
stage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280023264.8A
Other languages
English (en)
Other versions
CN103547989B (zh
Inventor
J·萨缪尔斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Technologies Oy
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of CN103547989A publication Critical patent/CN103547989A/zh
Application granted granted Critical
Publication of CN103547989B publication Critical patent/CN103547989B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种方法包括:使用至少第一检测器执行用户输入检测;使用至少第一检测器检测预定义用户手势的预定义第一阶段;使用至少第二检测器检测该预定义用户手势的预定义第二阶段;以及响应于检测到该预定义用户手势的预定义第一阶段和预定义第二阶段,在以二维用户界面状态进行操作和以三维用户界面状态进行操作之间切换。

Description

用于装置状态的用户控制的方法、装置和计算机程序
技术领域
本发明的实施例涉及用于装置状态的用户控制的方法、装置和计算机程序。
背景技术
装置的操作可以使用状态机进行表示,该状态机指示该装置能够具有的各种状态以及如何能够在状态之间发生变换。
在一些实例中,期望响应于用户输入而从一种状态变换至另一种状态。
在一些环境中,用户可能必须记住引起特定状态变换所要求的用户输入。因而,将期望所要求的用户输入是容易记忆且直观的。
发明内容
根据本发明的各个但并不必要全部的实施例,提供了一种方法,包括:使用至少第一检测器执行用户输入检测;使用至少第一检测器检测预定义用户手势的预定义第一阶段;使用至少第二检测器检测该预定义用户手势的预定义第二阶段;以及响应于检测到该预定义用户手势的预定义第一阶段和预定义第二阶段两者,在以二维用户界面状态进行操作和以三维用户界面状态进行操作之间切换。
根据本发明的各个但并不必要全部的实施例,提供了一种方法,包括:启用第一用户手势检测器;启用第二用户手势检测器;以及仅在第一检测器已经检测到预定义用户手势的预定义第一阶段并且第二检测器已经检测到预定义用户手势的预定义第二阶段之后,从以二维用户界面状态进行操作切换至以三维用户界面状态进行操作。
根据本发明的各个但并不必要全部的实施例,提供了一种装置,包括:至少一个处理器;以及包括计算机程序代码的至少一个存储器,该至少一个存储器和该计算机程序代码被配置为与至少一个处理器一起使得该装置至少执行:
使用来自至少第一检测器的输入来检测预定义用户手势的预定义第一阶段;
使用来自至少第二检测器的输入来检测预定义用户手势的预定义第二阶段;以及
响应于检测到该预定义用户手势的预定义第一阶段和预定义第二阶段两者,使得在以二维用户界面状态进行操作和以三维用户界面状态进行操作之间切换。
根据本发明的各个但并不必要全部的实施例,提供了一种装置,包括:第一用户手势检测器,被配置为检测至少预定用户手势的第一阶段;第二用户手势检测器,被配置为检测至少预定用户手势的第二后续阶段;控制电路系统,被配置为在第一检测器已经检测到预定义用户手势的预定义第一阶段并且第二检测器已经检测到预定义用户手势的预定义第二阶段之后,将该装置从以二维用户界面状态进行操作切换至以三维用户界面状态进行操作。
根据本发明的各个但并不必要全部的实施例,提供了一种方法,包括:以第一状态对装置进行操作;使用至少第一检测器执行用户输入检测;使用至少第一检测器检测预定义用户手势的预定义第一阶段;使用至少第二检测器检测预定义用户手势的预定义第二阶段;以及响应于使用至少第一检测器检测到预定义用户手势的预定义第一阶段以及响应于使用至少第二检测器检测到预定义用户手势的预定义第二阶段,从以第一状态对该装置进行操作切换至以第二状态对该装置进行操作。
根据本发明的各个但并不必要全部的实施例,提供了一种方法,包括:以第一状态对装置进行操作;使用至少第一检测器执行用户输入检测;使用至少第一检测器而不是第二检测器检测预定义用户手势的预定义第一阶段;使用至少第二检测器检测预定义用户手势的预定义第二阶段;以及响应于使用至少第一检测器检测到预定义用户手势的预定义第一阶段以及响应于使用至少第二检测器检测到预定义用户手势的预定义第二阶段,从以第一状态对该装置进行操作切换至以第二状态对该装置进行操作。
根据本发明的各个但并不必要全部的实施例,提供了一种设备,包括:
用于使用至少一个第一检测器执行用户输入检测的装置;
用于使用至少第一检测器检测预定义用户手势的预定义第一阶段的装置;
用于使用至少第二检测器检测该预定义用户手势的预定义第二阶段的装置;以及用于响应于检测到该预定义用户手势的预定义第一阶段和预定义第二阶段两者而在以二维用户界面状态进行操作和以三维用户界面状态进行操作之间切换的装置。
附图说明
为了更好地理解本发明实施例的各个示例,现在将仅以示例的方式参照附图,其中:
一种用于装置状态的用户控制的方法、装置和计算机程序。
图1图示了包括第一检测器、第二检测器和控制电路系统的装置;
图2图示了具有作为第一检测器的触摸敏感显示器的装置的示例;
图3图示了控制电路系统的示例;
图4图示了用于产生状态变换的方法;
图5图示了图4中所示的方法的另一个实施例;
图6图示了用于产生另一状态变换的方法;以及
图7图示了用于计算机程序的载体。
具体实施方式
附图图示了装置10,其包括:第一(用户手势)检测器2,被配置为检测至少预定用户手势的第一阶段5;第二(用户手势)检测器4,被配置为检测至少预定用户手势的第二阶段7;以及控制电路系统8,被配置为在第一检测器2已经检测到预定义用户手势的预定义第一阶段5并且第二检测器4经检测到预定义用户手势的预定义第二阶段7之后,将装置10从以二维用户界面状态进行操作切换至以三维用户界面状态进行操作。控制电路系统8可以被配置为通过仅在第一检测器2已经检测到预定义用户手势的预定义第一阶段之后启用第二检测器4而节能。
附图还图示了方法30,其包括:以第一状态对装置进行操作31;使用至少第一检测器2执行32用户输入检测;使用至少第一检测器2检测33预定义用户手势的预定义第一阶段;使用至少第二检测器4检测35预定义用户手势的预定义第二阶段;以及响应于检测到预定义用户手势的预定义第一阶段和预定义第二阶段两者,从以二维用户界面状态进行操作切换至以三维用户界面状态进行操作。可以响应于使用至少第一检测器2检测到预定义用户手势的预定义第一阶段而启用使用至少第二检测器4的用户输入检测。
图1图示了包括第一检测器2、第二检测器4和控制电路系统8的装置10。
装置10可以是便携式装置。该装置10例如可以是手持装置,其是大小为在用户手掌中或用户夹克口袋中携带的装置。装置10可以包括并未图示的另外的电路系统和组件并且可以执行以下所描述的那些之外的功能。装置10例如可以作为媒体播放器和/或通信设备和/或媒体录制设备和/或导航设备和/或存储设备和/或客户端设备等进行操作。
控制电路系统8被配置为使得能够在二维用户界面状态和三维用户界面状态之间进行切换。在用户执行具有跟随有第二阶段7的第一阶段5的手势(例如见图2)时,该切换发生。该手势被预定义为第一阶段5和第二阶段7。
该手势包含物体的移动。该物体在坐标系统中具有位移d(t)并且该手势由移动的轨线所定义,也就是说由d(t)如何随时间变化而定义。该物体例如可以是其轨线可以使用第一检测器2和第二检测器4进行追踪的任意物件。其例如可以是用户的一个手或多个手、用户的一个或多个手指,或者其例如可以是由用户所佩戴或握持的物体。
手势可以被划分为可能有所不同并且不重叠的阶段(时间段)。第一阶段处于第二阶段之前。第二阶段可以紧跟第一阶段或者在第一阶段和第二阶段之间可以存在时间间隔。
第一阶段例如可以发生在时间t1和时间t2之间的第一时间段中,并且第二阶段例如可以发生在时间t2和t3之间的连续后续时间段。
第一检测器2被配置为检测至少预定用户手势的第一阶段5。在本文中,检测意味着检测器执行这样的测量,该测量能够用于识别或辨识预定手势的第一阶段5已经完成。第一检测器2可以或者可以不被配置为对那些测量进行处理以识别或辨识预定手势的第一阶段5已经完成。
第一检测器2可能无法准确检测预定义手势的第二阶段7。
然而,第二检测器4被配置为检测至少预定用户手势的第二阶段7。在本文中,检测意味着检测器执行这样的测量,该测量能够用于识别或辨识预定手势的第二阶段7已经完成。第二检测器4可以或者可以不被配置为对那些测量进行处理以识别或辨识预定手势的第二阶段7已经完成。
作为示例,预定义手势可以包括预定义第一阶段和预定义第二阶段,该预定义第一阶段包括大体上在第一平面的移动,该预定义第二阶段包括大体上在第一平面之外的移动。在这一示例中,第一平面可以是由两条正交基线(例如,x,y)所定义的笛卡尔(Cartesian)平面,并且第一手势可以由(x(t),y(t))所定义。预定义第二阶段包含这样的移动,该移动具有与正交于两条基线(x,y)的第三基线(z)平行的分量。第二手势可以由(x(t),y(t),z(t))所定义,其中至少z(t)随时间变化。
在这一示例中,第一检测器2应当能够测量在z=0时的(x,y)或(x,y)的变化。适当的第一检测器的示例是诸如触摸敏感显示器之类的触摸敏感设备。触摸敏感设备具有输入表面。这一表面定义了在其中可以做出手势的预定义第一阶段5的平面。在触摸敏感显示器的情况下,这一表面也是显示表面。
在这一示例中,第二检测器4应当能够至少测量大体上在第一平面之外的移动,也就是说,能够测量在第三维度(z)中的移动或者在(z)中的变化。其还能够测量三维移动,也就是说,测量(x,y,z)或者(x,y,z)的变化。
适当的第二检测器4的示例是接近检测器,其测量随着执行手势的物体与装置10的分隔距离而变化的参数。
接近检测器可以是被动检测器。其例如可以测量随着用户与装置10的分隔距离而变化的电容数值。
备选地,该接近检测器可以是主动检测器。其例如包括传送能量(例如,声波或电磁波)并且测量从执行手势的物体所反射的能量(例如,声波或电磁波)的发送器。这样的接近检测器例如可以用于测量装置10与执行手势的物体之间的飞行时间(time of flight)。这可以通过传输作为脉冲的能量并且测量该脉冲的传输和反射脉冲的接收之间的时间来实现。备选地,这样的接近检测器例如可以是包括频移检测器的多普勒(Doppler)雷达,该频移检测器用于测量所传输的能量的频率和所接收的能量的频率之间的多普勒频移。
适当的第二检测器4的另一个示例是位置检测器,该位置检测器能够检测执行手势的物体在三个维度中的位置。这样的第二检测器例如包括一个或多个检测器。
例如,可以使用多个接近检测器(例如,三个或更多非对准的检测器)来估计距每个接近检测器的分离距离。对接近检测器之间的分离矢量的认知使得能够使用三边测量法(trilateration)来定位执行手势的物体。
例如,单个摄像机可以结合接近检测器进行使用。接近检测器能够定位物体所位于的平面并且摄像机则能够在该平面内定位该物体。
例如,多个摄像机可以结合进行使用。摄像机能够通过对立体图像进行求解来定位执行手势的物体。
摄像机可以是包括一个或多个光学传感器的被动设备,该一个或多个光学传感器用于检测从执行手势的物体所反射的或所发射的外界光线,或者摄像机可以是另外包括发射器的主动设备,该发射器用于发射由执行手势的物体进行反射的光线(例如,红外光)。
如之前所提到的,控制电路系统被配置为使得能够在二维用户界面状态和三维用户界面状态之间进行切换。
二维用户界面状态可以是用于装置10的状态机的状态。该二维用户界面状态可以是例如使用第一检测器2作为触摸敏感设备而将用户输入限制为两个维度中的输入的状态。除此之外或备选地,该二维用户界面状态可以是将给用户的输出限制为二维表示的状态。例如,图形用户界面可以被呈现为图标的二维阵列而不是图标的三维阵列。例如,显示器(未示出)上显示的内容可以是二维内容而不是三维内容。
二维用户界面状态可以适合于诸如电子书、电子邮件、互联网浏览等应用。
三维用户界面状态可以是用于装置10的状态机的状态。该三维用户界面状态可以是例如使用至少第二检测器4作为三维手势检测器而将用户输入限制为三个维度中的输入的状态。除此之外或备选地,该三维用户界面状态可以是将给用户的输出限制为三维表示的状态。例如,图形用户界面可以被呈现为图标的三维阵列而不是图标的二维阵列。例如,显示器(未示出)上所显示的内容可以是三维内容而不是二维内容。
三维用户界面状态可适合于诸如视频播放的应用、以及用户应用。用户应用的一个示例是联系人名片盒。
控制电路系统8可以被配置为在应用运行而无需关闭并且重新打开应用的同时以及在保持应用的当前内容的同时,使得能够在二维用户界面状态和三维用户界面状态之间进行切换。例如,联系人名片盒可以在第一用户界面状态以平面的二维视图进行呈现,而联系人名片盒可以在第二用户界面状态以深度三维视图进行呈现。
要求第一检测器2在二维用户界面状态期间进行操作,原因在于该第一检测器2用于检测预定义用户手势的第一阶段,这对于触发从二维用户界面状态向三维用户界面状态的变换而言是必要而非充分条件。
并不要求第二检测器4在二维用户状态期间进行操作,原因在于该第二检测器4并不用于检测预定义用户手势的第一阶段。然而,要求第二检测器4在检测到预定义用户手势的第一阶段之后进行操作,以使得预定义用户手势的第二阶段能够得以被检测,这引起了从二维用户界面状态向三维用户界面状态的变换。
控制电路系统8因此可以被配置为选择性地启用和禁用第二检测器4。第二检测器4例如可以在第一用户界面状态期间被禁用,直至控制电路系统8辨识出第一检测器2已经检测到预定义用户手势的第一阶段5。该控制电路系统8随后启用第二检测器4以使得预定义用户手势的第二阶段可以由第二检测器4所检测并且由控制电路系统8所辨识。
在本文中,禁用可以要求第二检测器4关闭或者可以要求第二检测器4处于低能耗模式。
在本文中,启用可以要求第二检测器4开启或者可以要求第二检测器4处于高能耗模式。
控制电路系统8因此被配置为启用第一用户手势检测器2;被配置为仅在第一检测器检测到预定义用户手势的预定义第一阶段5之后,启用第二用户手势检测器4;以及被配置为当第二检测器4检测到预定义用户手势的预定义第二阶段7时,从以二维用户界面状态进行操作切换到以三维用户界面状态进行操作。
图4图示了适当的方法30。
在框31,装置10以二维用户界面状态进行操作。
在框32,装置10使用至少第一检测器2而不使用第二检测器4来执行用户输入检测。
在框33,装置10决定其是否已经使用至少第一检测器2检测到预定义用户手势的预定义第一阶段5。
如果装置10已经使用第一检测器2检测到预定义用户手势的预定义第一阶段5,则该方法行进至框34。
如果装置10并未使用第一检测器2检测到预定义用户手势的预定义第一阶段5,则该方法返回框32。
在框34,装置10启用第二检测器4并且使用至少第二检测器4执行用户输入检测。
在框35,装置10决定其是否已经使用至少第二检测器4检测到预定义用户手势的预定义第二阶段7。
如果装置10已经使用至少第二检测器4检测到预定义用户手势的预定义第二阶段7,则该方法行进至框36。
如果装置10并未使用至少第二检测器4检测到预定义用户手势的预定义第二阶段7,则该方法行进至框37。
在框36,装置10从以二维用户界面状态进行操作切换至以三维用户界面状态进行操作。
在三维用户界面状态,可选地可以发生三维用户检测(框40)。
在三维用户界面状态,可选地可以禁用第一检测器2(框41)。
返回框37,提供经由框39到框32的返回路径并且提供经由框38到框35的返回路径。框38还提供经由框39到框32的返回路径。
框37是可选的,并且框37测试超时条件。如果在该方法行进至框37时,计时器已经过期,则该方法从框37行进至框39并且重置计时器。如果在该方法行进至框37时,计时器还未过期,则该方法从框37行进至框38。超时条件允许在预定义手势的第一阶段与预定义手势的第二阶段7之间有延迟。该延迟可以通过设置计时器多久过期而进行编程。
框38是可选的,并且框38测试退出条件。如果在该方法行进至框38时,存在退出条件,则该方法从框38行进至框39并且重置该条件。如果在该方法行进至框38时,不存在退出条件,则该方法从框38行进至框35。无论是否实施了超时,该退出条件都允许该方法中断而无需等待检测第二阶段7。可以编程该退出条件。
退出条件的一个示例是所检测的第一阶段5后面跟随有预定义用户手势的第二阶段以外的手势。例如,如果第一检测器2检测到预定义用户手势的预定义第一阶段5之后的、并非预定义用户手势的预定义第一阶段5的一部分的用户手势,则可以存在一个退出条件。例如,如果第二检测器4检测到预定义用户手势的预定义第一阶段5之后的、并非预定义用户手势的预定义第二阶段7的一部分的用户手势,则可以存在一个退出条件。
在框39,在这一示例中禁用第二检测器4。这停止了预定义用户手势的预定义第二阶段7的检测。
图2图示了如之前所描述的装置10的示例。在这一示例中,装置10具有给出触摸敏感显示器14的外壳12。该外壳是可手持的。
触摸敏感显示器14作为第一检测器2进行操作。该触摸敏感显示器14例如可以是电容或电阻式触摸敏感显示器。
触摸敏感显示器14具有二维(Cartesian)表面16,并且其被配置为测量表面16上的一个或多个接触点的用户移动。
第二检测器4并未图示并且其可以位于触摸敏感显示器14之后。第二检测器4被配置为测量至少在垂直于二维表面16的方向的用户移动。
第二检测器4例如可以包括如之前所描述的接近检测器和/或位置检测器。
在这一示例中,预定义用户手势的预定义第一阶段5包括两个同时接触点3A、3B在触摸敏感设备14的表面16上的移动。在所图是的示例中,预定义用户手势的第一阶段5包括多个同时接触点3A、3B在触摸敏感显示器14上的相对移动5A、5B。同时接触点3A、3B朝向彼此进行移动直至它们遇到或几乎遇到3A’、3B’。
继续这一示例,预定义用户手势的预定义第二阶段7包括该预定义用户手势的预定义第一阶段5所不需要的方向中的移动。预定义用户手势的预定义第二阶段7包括远离装置10的移动。在这一示例中,该移动大体上垂直于触摸敏感显示器14的表面16。
所图示的预定义用户手势可以由用户通过在例如接触点3A处将拇指指尖置于触摸敏感显示器14上并且在例如接触点3B处将手指指尖置于触摸敏感显示器14上来执行。预定义用户手势的第一阶段5通过执行捏合手势来实现,该捏合手势带着5A、5B拇指指尖和手指在仍然与触摸敏感显示器14相接触的同时朝向彼此3A’、3B’。预定义用户手势的第二阶段7通过立即执行提取手势来实现—该提取手势将捏住的拇指指尖和手指指尖移动远离触摸敏感显示器14。预定义手势包括顺序的捏合手势和提取手势—就像显示器被捏住和提起或者向外拉出一样。
在一些实施例中,用户可能对预定义手势的第一阶段和/或第二阶段进行编程。例如,装置10可以通过由用户所执行的示例学习预定义用户手势。该装置随后存储所学习的手势,以使得其关于未来使用而得以被预定义。
虽然预定义手势已经被描述为具有两个阶段的手势,但是预定义手势也可以具有多于两个的阶段。
图5图示了方法30的另一个实施例。其图示了可以替代图4所示的方法30中的框33的框45、46的序列。
在图4中,可以仅使用第一检测器2(例如,触摸敏感显示器14)来检测预定义手势的第一阶段4。然而,在其它实施例中,还可以附加地使用一个或多个附加检测器或者检测器6(在图1中被图示为可选的)来检测预定义手势的第一阶段。
例如,第一检测器2可以用于检测预定义手势的第一阶段的第一部分。如果第一检测器2是触摸敏感显示器14,则该第一部分可以包括触摸敏感显示器表面16上的一个或多个接触点的移动。
例如,附加检测器6可以用于检测预定义手势的第一阶段的第二部分。该第一阶段的第二部分可以包含由第一检测器2所检测的移动以外的维度中的移动。如果附加检测器是接近检测器,则该第二部分可以包括执行远离装置10的手势的物体的移动。
附加检测器可以是不如高功率的第二检测器4准确的低功耗接近检测器。
参考图5,从图4的方法30的框32进入框45。在框45,如果使用第一检测器2检测到预定义手势的第一阶段的第一部分,则该方法行进至框46,并且如果没有检测到,则该方法行进至图4的方法30的框32。在框46,如果使用(多个)附加检测器6检测到预定义手势的第一阶段的第二部分,则该方法行进至图4的框34,并且如果没有检测到,则该方法行进至图4中的框32。
图6图示了用于从三维用户界面状态返回二维用户界面状态的方法50。
装置10初始地以三维用户界面状态进行操作。
在框51,该装置使用至少第二检测器4执行用户输入检测。
如果装置10已经使用至少第二检测器4检测到预定义附加用户手势的预定义初始阶段,则该方法行进至框52(或53)。
如果装置10并未使用至少第二检测器4检测到预定义附加用户手势的预定义初始阶段,则该方法进行迭代。
在可选框52,如果第一检测器2是禁用的,则将第一检测器2启用。该方法随后行进至框53。
在框53,使用至少第一检测器2来检测附加预定义用户手势的预定义最终阶段。
如果装置10已经使用至少第一检测器2检测到预定义附加用户手势的预定义最终阶段,则该方法行进至框54。
如果装置10并未使用至少第一检测器2检测到预定义附加用户手势的预定义最终阶段,则该方法行进至框57。
在框54,装置10的控制电路系统8将用户界面状态从三维用户界面状态切换至二维用户界面状态。
在二维用户界面状态,发生二维手势检测(框55)。
在二维用户界面状态,可选地可以禁用第二检测器4(框56)。
返回框57,提供经由框59到框51的返回路径,并且提供经由框58到框53的返回路径。框58还提供经由框54到框51的返回路径。
框57是类似于图4中的框37的超时框。框58是类似于图4中的框38的退出框。
框59是可选的,在这一框处,禁用第一检测器2。这一框通常在可选框52存在的情况下存在。
预定义附加用户手势的预定义初始阶段可以具有与之前所描述的预定义手势的第二阶段7相类似的特征,除了其是在相反意义上。例如,预定义附加用户手势的预定义初始阶段可以包含定义该手势的物体朝向装置10移动。
预定义附加用户手势的预定义最终阶段可以具有与之前所描述的预定义手势的第一阶段5相类似的特征。例如,预定义附加用户手势的预定义最终阶段可以包含定义该手势的物体接触触摸敏感显示器14。
例如,预定义附加用户手势可以由用户将其手掌或指尖推向触摸敏感显示器14(预定义初始阶段)直至手掌或指尖触摸到触摸敏感显示器(预定义最终阶段)来执行。预定义附加用户手势包括顺序的推动手势和触摸手势-就像由用户对着显示器将三维用户界面压入二维用户界面那样。
控制电路系统8的实施方式可以是全硬件的(电路、处理器…),具有包括全固件在内的软件的某些方面,或者可以是硬件和软件(包括固件)的组合。
控制电路系统8可以使用使能硬件功能的指令来实施,例如,通过使用通用或专用处理器中的可执行计算机程序指令来实施,该可执行计算机程序指令可以存储在计算机可读存储介质(磁盘、存储器等)以便由这样的处理器来执行。
图3图示了控制电路系统8的一个示例。在这一示例中,处理电路系统8包括处理器20和存储器22。
处理器20被配置为从存储器22进行读取并对存储器22进行写入。处理器20还可以包括输出接口和输入接口,该处理器经由该输出接口输出数据和/或命令,以及经由输入接口数据和/或命令被输入到该处理器。
存储器22存储计算机程序24,该计算机程序24包括在被加载到处理器20中时对装置10的操作进行控制的计算机程序指令。计算机程序指令24提供使得装置能够执行图4、5和6所示的方法的逻辑和例程。通过读取存储器22,处理器20能够加载并执行计算机程序24。
根据这一示例,装置10因此包括:至少一个处理器20;以及包括计算机程序代码24的至少一个存储器22,该至少一个存储器22和计算机程序代码24被配置为与该至少一个处理器一起使得该装置至少执行:
启用第一用户手势检测器;
启用第二用户手势检测器;以及
在第一检测器检测到预定义用户手势的预定义第一阶段并且第二检测器检测到预定义用户手势的预定义第二阶段之后,从以二维用户界面状态进行操作切换至以三维用户界面状态进行操作。
第二用户手势检测器可以仅在第一检测器检测到预定义用户手势的预定义第一阶段之后被启用。
该计算机程序24可以经由如图7中所示的任意适当传送机制28而到达装置10。传送机制28例如可以是计算机可读存储介质、计算机程序产品、存储器设备、记录介质(诸如紧密盘只读存储器(CD-ROM)或数字多功能盘(DVD))、有形体现计算机程序24的制造品。该传送机制可以是被配置为可靠传递计算机程序24的信号。
装置10可以将计算机程序24作为计算机数据信号进行传播或传输。
虽然存储器22被图示为单个组件,但是其可以被实施为一个或多个单独组件,其中的一些或全部可以是集成的/可移动的和/或可以提供持久性/半持久性/动态/缓存的存储。
对“计算机可读存储介质”、“计算机程序产品”、“有形体现的计算机程序”等,或者“控制器”、“计算机”、“处理器”等的引用应当被理解为不仅涵盖具有诸如单个/多个处理器架构和顺序(冯·诺依曼)/并行架构的不同架构的计算机,而且还涵盖诸如现场可编程门阵列(FPGA)、专用集成电路(ASIC)、信号处理设备和其它处理电路系统之类的专用电路。对计算机程序、指令、代码等的引用应当被理解为涵盖用于可编程处理器或固件的软件,例如硬件设备的可编程内容,无论是用于处理器的指令,还是针对固定功能设备、门阵列或可编程逻辑设备等的配置设置。
如本申请中所使用的,术语“电路系统”涉及以下的全部:
(a)仅硬件的电路实施方式(诸如仅以模拟和/或数字电路系统的实施方式),以及
(b)电路和软件(和/或固件)的组合,诸如(如可应用的):(i)涉及(多个)处理器的组合,或者(ii)共同进行工作以使得诸如移动电话或服务器的装置执行各种功能的(多个)处理器/软件(包括(多个)数字信号处理器)的部分、软件和(多个)存储器;以及
(c)电路,诸如(多个)微处理器或者(多个)微处理器的一部分,其需要软件或固件进行操作,即使该软件或固件并非物理存在。
“电路系统”的这一定义应用于该术语在本申请、包括在任意权利要求中的所有使用。作为进一步的示例,如本申请中所使用的,术语“电路系统”还将覆盖仅处理器(或多个处理器)或者处理器及其所附软件和/或固件的一部分的实施方式。例如并且如果可应用于特定请求保护的元件,术语“电路系统”还将覆盖基带集成电路或用于移动电话的应用处理器集成电路,或者在服务器、蜂窝网络设备或其它网络设备中的类似集成电路。
如这里所使用的,“模块”指代排除由终端制造商或用户将会添加的某些部分/组件的单元或装置。控制电路系统8可以是模块,第一检测器2和第二检测器4亦是如此。
图4、5和6中所示的框可以表示方法中的步骤和/或计算机程序24中的代码段。针对框的特定顺序的图示并不必要意味着对于框具有所要求或优选的顺序,并且框的顺序和布置可以有所变化。此外,一些框可能被省略。
虽然已经在之前的段落中参考各个示例对本发明的实施例进行了描述,但是应当意识到的是,在并不脱离所请求保护的本发明的范围的情况下,可以对所给出的示例进行修改。
之前描述中所描述的特征可以以明确描述的组合形式以外的组合形式加以使用。
虽然已经参考某些特征对功能进行了描述,但是那些功能可通过其它特征(无论其是否有所描述)来执行。
虽然已经参考某些实施例对特征进行了描述,但是那些特征也可以出现在其它实施例(无论其是否有所描述)中。
尽管在前述说明书中,努力将注意力集中于本发明中被认为特别重要的那些特征,但是应当理解的是,申请人要求关于之前所涉及和/或附图中所示出的任意可专利的特征或特征组合的保护,无论是否已经进行了特别强调。

Claims (40)

1.一种方法,包括:
使用至少第一检测器执行用户输入检测;
使用至少所述第一检测器检测预定义用户手势的预定义第一阶段;
使用至少第二检测器检测所述预定义用户手势的预定义第二阶段;以及
响应于检测到所述预定义用户手势的所述预定义第一阶段和所述预定义第二阶段,在以二维用户界面状态进行操作和以三维用户界面状态进行操作之间切换。
2.根据权利要求1所述的方法,其中使用至少第二检测器执行用户输入检测是响应于使用至少所述第一检测器检测到所述预定义用户手势的所述预定义第一阶段。
3.根据权利要求1或2所述的方法,其中使用至少第一检测器执行用户输入检测不涉及使用所述第二检测器。
4.根据前述任一项权利要求所述的方法,包括在超时时段之后而没有检测到所述预定义用户手势的所述预定义第二阶段的情况下,停止检测所述预定义用户手势的所述预定义第二阶段。
5.根据前述任一项权利要求所述的方法,包括在使用至少所述第一检测器检测到在预定义用户手势的所述预定义第一阶段之后的、并非所述预定义用户手势的所述预定义第一阶段的一部分的用户手势之后,停止检测所述预定义用户手势的所述预定义第二阶段。
6.根据前述任一项权利要求所述的方法,其中所述第一检测器是触摸敏感设备,所述触摸敏感设备被配置为检测二维表面上的触摸。
7.根据前述任一项权利要求所述的方法,其中所述第一检测器是触摸敏感显示器,所述触摸敏感显示器被配置为检测显示器的二维表面上的触摸。
8.根据权利要求6或7所述的方法,其中所述第二检测器是被配置为测量至少在垂直于所述二维表面的方向中的用户移动的设备。
9.根据前述任一项权利要求所述的方法,其中所述第二检测器包括摄像机。
10.根据前述任一项权利要求所述的方法,其中所述第二检测器包括接近检测器。
11.根据前述任一项权利要求所述的方法,其中所述第二检测器包括发送器、接收器和频移检测器。
12.根据前述任一项权利要求所述的方法,其中所述预定义用户手势的所述预定义第一阶段包括大体上在第一平面中的移动,并且其中所述预定义用户手势的所述预定义第二阶段包括大体上在所述第一平面以外的移动。
13.根据前述任一项权利要求所述的方法,其中所述预定义用户手势的所述预定义第一阶段包括触摸敏感设备上的至少一个接触点的移动。
14.根据前述任一项权利要求所述的方法,其中所述预定义用户手势的所述预定义第一阶段包括触摸敏感设备上的多个同时接触点。
15.根据权利要求14所述的方法,其中所述预定义用户手势的所述预定义第一阶段包括所述触摸敏感设备上的所述多个同时接触点的相对移动。
16.根据前述任一项权利要求所述的方法,其中所述预定义用户手势的所述预定义第一阶段包括触摸敏感设备上的捏合手势。
17.根据前述任一项权利要求所述的方法,其中所述预定义用户手势的所述预定义第一阶段是用户可设计的。
18.根据前述任一项权利要求所述的方法,其中所述预定义用户手势的所述预定义第二阶段包括在所述预定义用户手势的所述预定义第一阶段所不需要的方向中的移动。
19.根据前述任一项权利要求所述的方法,其中所述预定义用户手势的所述预定义第二阶段包括远离所述第一检测器和所述第二检测器的移动。
20.根据前述任一项权利要求所述的方法,其中所述预定义用户手势的所述预定义第二阶段是用户可设计的。
21.根据前述任一项权利要求所述的方法,其中使用至少第一检测器而不使用第二检测器执行用户输入检测包括仅使用第一检测器而不使用第二检测器来执行用户输入检测;
其中使用至少所述第一检测器检测所述预定义用户手势的所述预定义第一阶段包括仅使用所述第一检测器检测所述预定义用户手势的所述预定义第一阶段;并且
其中使用至少所述第二检测器执行用户输入检测是响应于仅使用所述第一检测器检测到所述预定义用户手势的所述预定义第一阶段。
22.根据权利要求1至20中任一项所述的方法,其中使用至少第一检测器而不使用第二检测器执行用户输入检测包括使用所述第一检测器和附加检测器而不使用第二检测器来执行用户输入检测;
其中使用至少所述第一检测器检测所述预定义用户手势的所述预定义第一阶段包括使用所述第一检测器和所述附加检测器检测所述预定义用户手势的所述预定义第一阶段;并且
其中使用至少所述第二检测器执行用户输入检测是响应于使用所述第一检测器和所述第二检测器检测到所述预定义用户手势的所述预定义第一阶段。
23.根据权利要求22所述的方法,其中所述附加检测器检测由所述第一检测器所检测到的移动以外的维度中的移动。
24.根据权利要求23所述的方法,其中所述第二检测器检测至少在由所述第一检测器所检测到的移动以外的所述维度中的移动但是比所述附加检测器更准确。
25.根据前述任一项权利要求所述的方法,包括:
以所述三维用户界面状态进行操作;
使用至少所述第二检测器执行用户输入检测;
使用至少所述第二检测器检测附加的预定义用户手势的预定义初始阶段;
使用至少所述第一检测器检测所述附加的预定义用户手势的预定义最终阶段;以及
响应于使用至少所述第一检测器检测到所述附加的预定义用户手势的所述预定义最终阶段,从以所述三维用户界面状态进行操作切换至以所述二维用户界面状态进行操作。
26.根据权利要求25所述的方法,进一步包括:
响应于使用至少所述第一检测器检测到所述预定义用户手势的所述预定义第一阶段,开始使用至少所述第二检测器进行用户输入检测。
27.一种方法,包括:
启用第一用户手势检测器;
启用第二用户手势检测器;以及
仅在所述第一检测器已经检测到预定义用户手势的预定义第一阶段并且所述第二检测器已经检测到所述预定义用户手势的预定义第二阶段之后,在以二维用户界面状态进行操作和以三维用户界面状态进行操作之间切换。
28.根据权利要求27所述的方法,仅在所述第一检测器已经检测到所述预定义用户手势的所述预定义第一阶段之后,启用所述第二用户手势检测器。
29.一种计算机程序,当被加载到装置的处理器中时,所述计算机程序使得所述装置能够执行根据权利要求1至28中任一项所述的方法。
30.一种设备,包括用于执行根据权利要求1至28中任一项所述的方法的装置。
31.一种装置,包括:
至少一个处理器;以及
包括计算机程序代码的至少一个存储器;
所述至少一个存储器和所述计算机程序代码被配置为与所述至少一个处理器一起,使得所述装置至少执行根据权利要求1至28中任一项所述的方法。
32.一种装置,包括:
第一用户手势检测器,被配置为至少检测预定用户手势的第一阶段;
第二用户手势检测器,被配置为至少检测所述预定用户手势的第二后续阶段;
控制电路系统,被配置为在所述第一检测器已经检测到预定义用户手势的预定义第一阶段并且所述第二检测器已经检测到预定义用户手势的预定义第二阶段之后,将所述装置在以二维用户界面状态进行操作和以三维用户界面状态进行操作之间切换。
33.根据权利要求32所述的装置,其中所述控制电路系统被配置为仅在所述第一检测器已经检测到所述预定义用户手势的所述预定义第一阶段之后,启用所述第二用户手势检测器。
34.根据权利要求32或33所述的装置,其中所述第一检测器是触摸敏感设备,所述触摸敏感设备被配置为检测二维表面上的触摸。
35.根据权利要求32、33或34所述的装置,其中所述第一检测器是触摸敏感显示器,所述触摸敏感显示器被配置为检测显示器的二维表面上的触摸。
36.根据权利要求32至35中任一项所述的装置,其中所述第二检测器是被配置为测量至少在垂直于所述二维表面的方向中的用户移动的设备。
37.根据权利要求32至36中任一项所述的装置,其中所述第二检测器包括摄像机、接近检测器和/或发送器、接收器和频移检测器。
38.根据权利要求32至37中任一项所述的装置,包括可手持的外壳。
39.一种方法,包括:
以第一状态对装置进行操作;
使用至少第一检测器执行用户输入检测;
使用至少第一检测器检测预定义用户手势的预定义第一阶段;
使用至少第二检测器检测所述预定义用户手势的预定义第二阶段;以及
响应于使用至少所述第一检测器检测到所述预定义用户手势的所述预定义第一阶段以及响应于使用至少所述第二检测器检测到所述预定义用户手势的所述预定义第二阶段,从以所述第一状态对所述装置进行操作切换至以第二状态对所述装置进行操作。
40.一种方法,包括:
以第一状态对装置进行操作;
使用至少第一检测器执行用户输入检测;
使用至少第一检测器而不是第二检测器检测预定义用户手势的预定义第一阶段;
使用至少所述第二检测器检测所述预定义用户手势的预定义第二阶段;以及
响应于使用至少所述第一检测器检测到所述预定义用户手势的所述预定义第一阶段以及响应于使用至少所述第二检测器检测到所述预定义用户手势的所述预定义第二阶段,从以所述第一状态对所述装置进行操作切换至以第二状态对所述装置进行操作。
CN201280023264.8A 2011-04-13 2012-04-12 用于装置状态的用户控制的方法、装置和计算机程序 Active CN103547989B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1106271.8 2011-04-13
GB1106271.8A GB2490108B (en) 2011-04-13 2011-04-13 A method, apparatus and computer program for user control of a state of an apparatus
PCT/IB2012/051794 WO2012140593A2 (en) 2011-04-13 2012-04-12 A method, apparatus and computer program for user control of a state of an apparatus

Publications (2)

Publication Number Publication Date
CN103547989A true CN103547989A (zh) 2014-01-29
CN103547989B CN103547989B (zh) 2018-10-26

Family

ID=44123048

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280023264.8A Active CN103547989B (zh) 2011-04-13 2012-04-12 用于装置状态的用户控制的方法、装置和计算机程序

Country Status (5)

Country Link
US (1) US11112872B2 (zh)
CN (1) CN103547989B (zh)
DE (1) DE112012001663T5 (zh)
GB (1) GB2490108B (zh)
WO (1) WO2012140593A2 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018076523A1 (zh) * 2016-10-25 2018-05-03 科世达(上海)管理有限公司 手势识别的方法、装置及车载系统
CN111095183A (zh) * 2017-09-06 2020-05-01 三星电子株式会社 用户界面中的语义维度
CN112286339A (zh) * 2019-07-23 2021-01-29 哈尔滨拓博科技有限公司 一种多维手势识别装置、方法、电子设备和存储介质

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10331219B2 (en) 2013-01-04 2019-06-25 Lenovo (Singaore) Pte. Ltd. Identification and use of gestures in proximity to a sensor
US9423913B2 (en) 2013-07-01 2016-08-23 Blackberry Limited Performance control of ambient light sensors
US9398221B2 (en) 2013-07-01 2016-07-19 Blackberry Limited Camera control using ambient light sensors
US9256290B2 (en) 2013-07-01 2016-02-09 Blackberry Limited Gesture detection using ambient light sensors
US9367137B2 (en) 2013-07-01 2016-06-14 Blackberry Limited Alarm operation by touch-less gesture
US9323336B2 (en) 2013-07-01 2016-04-26 Blackberry Limited Gesture detection using ambient light sensors
EP2821886A1 (en) * 2013-07-01 2015-01-07 BlackBerry Limited Touch-less user interface using ambient light sensors
US9342671B2 (en) 2013-07-01 2016-05-17 Blackberry Limited Password by touch-less gesture
US9489051B2 (en) 2013-07-01 2016-11-08 Blackberry Limited Display navigation using touch-less gestures
EP2824539B1 (en) * 2013-07-09 2019-09-04 BlackBerry Limited Operating a device using touchless and touchscreen gestures
US9405461B2 (en) 2013-07-09 2016-08-02 Blackberry Limited Operating a device using touchless and touchscreen gestures
US9465448B2 (en) 2013-07-24 2016-10-11 Blackberry Limited Backlight for touchless gesture detection
US9304596B2 (en) 2013-07-24 2016-04-05 Blackberry Limited Backlight for touchless gesture detection
US9194741B2 (en) 2013-09-06 2015-11-24 Blackberry Limited Device having light intensity measurement in presence of shadows
US9542004B1 (en) * 2013-09-24 2017-01-10 Amazon Technologies, Inc. Gesture-based flash
GB2519558A (en) 2013-10-24 2015-04-29 Ibm Touchscreen device with motion sensor
DE102017125070A1 (de) * 2017-10-26 2019-05-02 Jacques Tchouangueu Verfahren und Vorrichtung zur Eröffnung einer Mensch-Maschine-Kommunikation
US10592013B2 (en) * 2018-04-25 2020-03-17 Microsoft Technology Licensing, Llc Systems and methods for unifying two-dimensional and three-dimensional interfaces
WO2020133078A1 (zh) * 2018-12-27 2020-07-02 深圳市优必选科技有限公司 一种机器人操作控制方法、手势识别装置以及机器人
US11467254B2 (en) * 2020-02-27 2022-10-11 Samsung Electronics Co., Ltd. Method and apparatus of radar-based activity detection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101500328A (zh) * 2008-02-02 2009-08-05 德信智能手机技术(北京)有限公司 一种在手机上实现三维交互的装置和方法
CN101611374A (zh) * 2007-02-15 2009-12-23 诺基亚公司 在用户界面中可视化与应用程序相关联的信息
EP2144148A2 (en) * 2008-07-07 2010-01-13 Lg Electronics Inc. Mobile terminal and operation control method thereof
US20100095206A1 (en) * 2008-10-13 2010-04-15 Lg Electronics Inc. Method for providing a user interface using three-dimensional gestures and an apparatus using the same
US20100241999A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Canvas Manipulation Using 3D Spatial Gestures

Family Cites Families (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US6088023A (en) * 1996-12-10 2000-07-11 Willow Design, Inc. Integrated pointing and drawing graphics system for computers
US5986357A (en) * 1997-02-04 1999-11-16 Mytech Corporation Occupancy sensor and method of operating same
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US6229542B1 (en) 1998-07-10 2001-05-08 Intel Corporation Method and apparatus for managing windows in three dimensions in a two dimensional windowing system
US6822662B1 (en) 1999-03-31 2004-11-23 International Business Machines Corporation User selected display of two-dimensional window in three dimensions on a computer screen
US6492979B1 (en) * 1999-09-07 2002-12-10 Elo Touchsystems, Inc. Dual sensor touchscreen utilizing projective-capacitive and force touch sensors
KR100404285B1 (ko) 2000-02-09 2003-11-03 (주) 고미드 2차원/3차원 겸용 웹 브라우징 방법 및 이를 저장하고 있는 기록매체
US6791536B2 (en) * 2000-11-10 2004-09-14 Microsoft Corporation Simulating gestures of a pointing device using a stylus and providing feedback thereto
US6977645B2 (en) * 2001-03-16 2005-12-20 Agilent Technologies, Inc. Portable electronic device with mouse-like capabilities
US7068256B1 (en) * 2001-11-20 2006-06-27 Palm, Inc. Entering and exiting power modes and activating hand writing presentation display triggered by electronic muscle material
EP1479065A4 (en) * 2002-02-26 2009-11-11 Cirque Corp TAPPED KEY WITH FINE AND ROUGH ENTRY RESOLUTION
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US20060012580A1 (en) * 2004-07-15 2006-01-19 N-Trig Ltd. Automatic switching for a dual mode digitizer
US7728316B2 (en) * 2005-09-30 2010-06-01 Apple Inc. Integrated proximity sensor and light sensor
US7620316B2 (en) * 2005-11-28 2009-11-17 Navisense Method and device for touchless control of a camera
US7569762B2 (en) * 2006-02-02 2009-08-04 Xpresense Llc RF-based dynamic remote control for audio effects devices or the like
US8587526B2 (en) * 2006-04-12 2013-11-19 N-Trig Ltd. Gesture recognition feedback for a dual mode digitizer
US8589824B2 (en) * 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US8180114B2 (en) * 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US8970501B2 (en) * 2007-01-03 2015-03-03 Apple Inc. Proximity and multi-touch sensor detection and demodulation
CN103913178B (zh) * 2007-03-23 2017-10-31 高通股份有限公司 多传感器数据采集和/或处理
US9394756B2 (en) * 2007-04-02 2016-07-19 Halliburton Energy Services, Inc. Timeline from slumber to collection of RFID tags in a well environment
US8054300B2 (en) * 2008-06-17 2011-11-08 Apple Inc. Capacitive sensor panel having dynamically reconfigurable sensor size and shape
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
KR101555055B1 (ko) * 2008-10-10 2015-09-22 엘지전자 주식회사 이동단말기 및 그 디스플레이방법
US8433138B2 (en) * 2008-10-29 2013-04-30 Nokia Corporation Interaction using touch and non-touch gestures
KR20100048090A (ko) * 2008-10-30 2010-05-11 삼성전자주식회사 터치와 모션을 통해 제어 명령을 생성하는 인터페이스 장치, 인터페이스 시스템 및 이를 이용한 인터페이스 방법
US8451236B2 (en) * 2008-12-22 2013-05-28 Hewlett-Packard Development Company L.P. Touch-sensitive display screen with absolute and relative input modes
US20110254792A1 (en) * 2008-12-30 2011-10-20 France Telecom User interface to provide enhanced control of an application program
CA2748881C (en) * 2009-01-05 2017-01-17 Smart Technologies Ulc Gesture recognition method and interactive input system employing the same
US8704767B2 (en) * 2009-01-29 2014-04-22 Microsoft Corporation Environmental gesture recognition
RU2534073C2 (ru) * 2009-02-20 2014-11-27 Конинклейке Филипс Электроникс Н.В. Система, способ и аппарат для инструктирования устройству входить в активный режим
US8289316B1 (en) * 2009-04-01 2012-10-16 Perceptive Pixel Inc. Controlling distribution of error in 2D and 3D manipulation
KR101593598B1 (ko) * 2009-04-03 2016-02-12 삼성전자주식회사 휴대단말에서 제스처를 이용한 기능 실행 방법
US8269175B2 (en) * 2009-05-22 2012-09-18 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting gestures of geometric shapes
US9086875B2 (en) * 2009-06-05 2015-07-21 Qualcomm Incorporated Controlling power consumption of a mobile device based on gesture recognition
KR20100136649A (ko) * 2009-06-19 2010-12-29 삼성전자주식회사 휴대단말기의 근접 센서를 이용한 사용자 인터페이스 구현 방법 및 장치
US9174123B2 (en) * 2009-11-09 2015-11-03 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements
KR101688655B1 (ko) * 2009-12-03 2016-12-21 엘지전자 주식회사 사용자의 프레전스 검출에 의한 제스쳐 인식 장치의 전력 제어 방법
KR101652110B1 (ko) * 2009-12-03 2016-08-29 엘지전자 주식회사 사용자의 제스쳐로 제어가능한 장치의 전력 제어 방법
US20110148786A1 (en) * 2009-12-18 2011-06-23 Synaptics Incorporated Method and apparatus for changing operating modes
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
US8866791B2 (en) * 2010-01-06 2014-10-21 Apple Inc. Portable electronic device having mode dependent user input controls
US9268404B2 (en) * 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US8760631B2 (en) * 2010-01-27 2014-06-24 Intersil Americas Inc. Distance sensing by IQ domain differentiation of time of flight (TOF) measurements
IL204436A (en) * 2010-03-11 2016-03-31 Deutsche Telekom Ag A system and method for remote control of online TV by waving hands
CA2735325C (en) * 2010-03-25 2015-01-20 User Interface In Sweden Ab System and method for gesture detection and feedback
US8826184B2 (en) * 2010-04-05 2014-09-02 Lg Electronics Inc. Mobile terminal and image display controlling method thereof
KR101334107B1 (ko) * 2010-04-22 2013-12-16 주식회사 굿소프트웨어랩 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법
US9201511B1 (en) * 2010-04-23 2015-12-01 Cypress Semiconductor Corporation Optical navigation sensor and method
US8296151B2 (en) * 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8581844B2 (en) * 2010-06-23 2013-11-12 Google Inc. Switching between a first operational mode and a second operational mode using a natural motion gesture
US20130155031A1 (en) * 2010-06-29 2013-06-20 Elliptic Laboratories As User control of electronic devices
EP2402511B1 (en) * 2010-07-02 2016-03-02 IHC Holland IE B.V. Template for and method of installing a plurality of foundation elements in an underwater ground formation
US20120092286A1 (en) * 2010-10-19 2012-04-19 Microsoft Corporation Synthetic Gesture Trace Generator
US9043732B2 (en) * 2010-10-21 2015-05-26 Nokia Corporation Apparatus and method for user input for controlling displayed information
US8816964B2 (en) * 2010-11-26 2014-08-26 Mckesson Financial Holdings Sensor-augmented, gesture-enabled keyboard and associated apparatus and computer-readable storage medium
US9049663B2 (en) * 2010-12-10 2015-06-02 Qualcomm Incorporated Processing involving multiple sensors
US9131060B2 (en) * 2010-12-16 2015-09-08 Google Technology Holdings LLC System and method for adapting an attribute magnification for a mobile communication device
US8635560B2 (en) * 2011-01-21 2014-01-21 Blackberry Limited System and method for reducing power consumption in an electronic device having a touch-sensitive display
US8717318B2 (en) * 2011-03-29 2014-05-06 Intel Corporation Continued virtual links between gestures and user interface elements
US20120280900A1 (en) * 2011-05-06 2012-11-08 Nokia Corporation Gesture recognition using plural sensors
US9329703B2 (en) * 2011-06-22 2016-05-03 Apple Inc. Intelligent stylus
US9176608B1 (en) * 2011-06-27 2015-11-03 Amazon Technologies, Inc. Camera based sensor for motion detection
US8891868B1 (en) * 2011-08-04 2014-11-18 Amazon Technologies, Inc. Recognizing gestures captured by video
CN103890695B (zh) * 2011-08-11 2017-10-13 视力移动技术有限公司 基于手势的接口系统和方法
US9389690B2 (en) * 2012-03-01 2016-07-12 Qualcomm Incorporated Gesture detection based on information from multiple types of sensors
US9063574B1 (en) * 2012-03-14 2015-06-23 Amazon Technologies, Inc. Motion detection systems for electronic devices
US9170676B2 (en) * 2013-03-15 2015-10-27 Qualcomm Incorporated Enhancing touch inputs with gestures

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101611374A (zh) * 2007-02-15 2009-12-23 诺基亚公司 在用户界面中可视化与应用程序相关联的信息
CN101500328A (zh) * 2008-02-02 2009-08-05 德信智能手机技术(北京)有限公司 一种在手机上实现三维交互的装置和方法
EP2144148A2 (en) * 2008-07-07 2010-01-13 Lg Electronics Inc. Mobile terminal and operation control method thereof
US20100095206A1 (en) * 2008-10-13 2010-04-15 Lg Electronics Inc. Method for providing a user interface using three-dimensional gestures and an apparatus using the same
US20100241999A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Canvas Manipulation Using 3D Spatial Gestures

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018076523A1 (zh) * 2016-10-25 2018-05-03 科世达(上海)管理有限公司 手势识别的方法、装置及车载系统
CN111095183A (zh) * 2017-09-06 2020-05-01 三星电子株式会社 用户界面中的语义维度
CN111095183B (zh) * 2017-09-06 2024-04-09 三星电子株式会社 用户界面中的语义维度
CN112286339A (zh) * 2019-07-23 2021-01-29 哈尔滨拓博科技有限公司 一种多维手势识别装置、方法、电子设备和存储介质
CN112286339B (zh) * 2019-07-23 2022-12-16 哈尔滨拓博科技有限公司 一种多维手势识别装置、方法、电子设备和存储介质

Also Published As

Publication number Publication date
WO2012140593A2 (en) 2012-10-18
US20140033141A1 (en) 2014-01-30
CN103547989B (zh) 2018-10-26
WO2012140593A3 (en) 2013-01-17
DE112012001663T5 (de) 2014-01-09
GB201106271D0 (en) 2011-05-25
GB2490108A (en) 2012-10-24
US11112872B2 (en) 2021-09-07
GB2490108B (en) 2018-01-17

Similar Documents

Publication Publication Date Title
CN103547989A (zh) 用于装置状态的用户控制的方法、装置和计算机程序
CN107407980B (zh) 具有被配置成传送经同步的信号的多个操作部分的触控笔
US9767338B2 (en) Method for identifying fingerprint and electronic device thereof
US20160349845A1 (en) Gesture Detection Haptics and Virtual Tools
KR102331888B1 (ko) 디스플레이 센서 및 베젤 센서에 대한 도전성 트레이스 라우팅
US9753545B2 (en) Input device, input method, and storage medium
US20130194208A1 (en) Information terminal device, method of controlling information terminal device, and program
US9785281B2 (en) Acoustic touch sensitive testing
CN103210366A (zh) 用于基于邻近的输入的装置和方法
KR20150103240A (ko) 깊이 기반 사용자 인터페이스 제스처 제어
US20130257761A1 (en) Method for operating an electronic device
WO2015105756A1 (en) Increasing touch and/or hover accuracy on a touch-enabled device
TW201543342A (zh) 電子裝置及其繪圖方法及電腦程式產品
CN104076972A (zh) 用于选择热点的设备和方法
CN106527670A (zh) 一种手势动作互动装置
CN107272892B (zh) 一种虚拟触控系统、方法及装置
CN109857245A (zh) 一种手势识别方法和终端
CN105814520A (zh) 具有改进的干扰性能的激活笔
WO2020222873A1 (en) Intended input to a user interface from detected gesture positions
CN106527671A (zh) 一种设备隔空控制方法
CN108027704A (zh) 信息处理设备、信息处理方法及程序
CN105474164A (zh) 间接输入的歧义消除
CN104793879A (zh) 终端设备上的对象选择方法和终端设备
CN106527669A (zh) 基于无线信号的交互控制系统
CN110667287B (zh) 痕迹清除方法及相关产品

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20160114

Address after: Espoo, Finland

Applicant after: Technology Co., Ltd. of Nokia

Address before: Espoo, Finland

Applicant before: Nokia Oyj

GR01 Patent grant
GR01 Patent grant