CN105531646A - 手势驱动的范围和值的同时选择 - Google Patents

手势驱动的范围和值的同时选择 Download PDF

Info

Publication number
CN105531646A
CN105531646A CN201480051271.8A CN201480051271A CN105531646A CN 105531646 A CN105531646 A CN 105531646A CN 201480051271 A CN201480051271 A CN 201480051271A CN 105531646 A CN105531646 A CN 105531646A
Authority
CN
China
Prior art keywords
user
contact point
value
inputs
scope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201480051271.8A
Other languages
English (en)
Inventor
N.劳特
J.C.戈斯塞林克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of CN105531646A publication Critical patent/CN105531646A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

提供一种方法、手势输入设备以及计算机程序产品,用于手势驱动的范围和值的同时选择。用户利用两个手指(210、220)做出手势以选择值的范围(例如秒、分钟或小时的范围之一),并且从此所选择的值的范围内选择值(例如如果所选择的值的范围是小时,00到23小时之间的值)。该手势使用基于照相机的输入设备或者触摸输入设备被捕获,该基于照相机的输入设备或者触摸输入设备检测两个用户输入接触点(230、240)。这两个用户输入接触点(230、240)之间的距离(250)确定所选择的值的范围。来自此所选择的值的范围的值的选择是由两条假想线(250、270)之间的角度(280)确定。第一假想线(250)是第一用户输入接触点(230)和第二用户输入接触点(240)之间的线。第二假想线(270)是假想锚点(260)和该第一用户输入接触点(230)之间的线。该两个手指(210、220)之间的距离(250)允许用户选择范围,并且相对于第一手指(210)旋转第二手指(220)允许用户在所选择的范围内选择值作为用户输入。

Description

手势驱动的范围和值的同时选择
技术领域
本发明总体涉及用于接收用户输入的方法、设备和计算机程序产品,并且特别涉及用于经由手势输入设备接收用户输入的方法和计算机程序产品并且涉及手势输入设备。
背景技术
基于手势的输入被广泛地实践于触摸输入设备,例如具有触摸敏感屏幕的智能电话。经由照相机的基于手势的输入例如从美国专利6,600,475中也是已知的。这种基于手势的输入允许用户切换开关(以选择开值或者关值),选择设置(例如静音或取消静音)或者选择值(例如从城市名字的列表中选择城市名字),等等。典型地,值的选择由与正被显示的用户界面联合的用户执行。这例如通过显示确定用户可以输入哪种手势(例如在关和开值之间切换按钮的滑动手势)的按钮而提供用户反馈。其它手势,例如挤捏手势或者旋转手势,可以在智能电话的触摸敏感屏幕上的任何位置做出,以分别地减小或者增大被显示的内容的大小(例如扩大图像或者增大字体大小)或者旋转被显示的内容(例如从肖像到风景模式)。考虑到手势输入设备在人们的生活中起到越来越大的作用,存在对一种通过手势输入设备提供用户输入的更加用户直观的方法的需求。
EP2442220公开一种系统和一种方法,其中输入数据区的选择被检测。响应于该输入数据区的选择,产生具有内同心圆和外同心圆的用户界面。对应于触摸手势的位置的接触点被检测,该触摸手势经由在该内同心圆和该外同心圆之一内的触摸驱动的(touch-enabled)输入设备而提交。测量来自该接触点的围绕同心圆之一的圆周运动的角速度。以基于接触点的粒度并且以基于所测量的圆周运动的角速度的速率调整输入数据值。
DE102011084802涉及一种具有触摸敏感显示区域的显示和操作设备,借助该显示区域,参数向量的参数可以改变。为了设置该参数,由圆形或环形元件制成的结构被使用,相应的接触元件被放置在该元件的圆周上。使用该接触元件在该圆环元件的圆周上的位置,该参数的值被编码。
发明内容
本发明的一目的是提供一种方法、手势输入设备以及计算机程序产品,其使一种更加用户直观的提供用户输入的方法成为可能。在本发明的第一方面中,提供一种用于选择值作为用户输入的方法,该方法包含下述步骤:经由手势输入设备,在假想平面中检测第一用户输入接触点;经由该手势输入设备,在该假想平面中检测第二用户输入接触点;在该假想平面中,确定该第一用户输入接触点和该第二用户输入接触点之间的距离;在该假想平面中,确定第一假想线和第二假想线之间的角度,该第一假想线是从该第一用户输入接触点到该第二用户输入接触点,该第二假想线从该第一用户输入接触点到该假想平面中的预定义假想锚点;基于所确定的距离,从值的范围的集合中选择值的范围;以及,基于所确定的角度,在所选择的值的范围内选择值作为用户输入。该方法使用户能够通过一手势同时地选择范围和值。
在依据本发明的方法的一实施例中,该手势输入设备是布置成检测至少两个同时触摸输入的触摸输入设备;并且其中在该假想平面中的该第一用户输入接触点和该第二用户输入接触点分别是在该触摸输入设备上的第一和第二用户输入接触点。
在依据本发明的方法的一实施例中,该手势输入设备是布置成捕获图像以检测用户的手部手势的基于图像的输入设备;并且其中在该假想平面中的该第一用户输入接触点和该第二用户输入接触点分别是通过对由该基于图像的输入设备捕获的该图像的分析而确定的第一和第二手指的位置。
在依据本发明的方法的一实施例中,该方法另外包含,检测该第二用户输入接触点从第一位置到第二位置的移动的步骤;其中对于从值的范围的集合中选择值的范围的步骤,该第一位置被当作在确定该距离中的该第二用户输入接触点;并且其中对于在所选择的值的范围内选择值作为用户输入的步骤,该第二位置被当作在确定该角度中的该第二用户输入接触点。
在依据本发明的方法的一实施例中,该方法另外包含,检测该第二用户输入接触点从第一位置到第二位置的移动的步骤;其中对于从值的范围的集合中选择值的范围的步骤,该第二位置被当作在确定该距离中的该第二用户输入接触点;并且其中对于在所选择的值的范围内选择值作为用户输入的步骤,该第一位置被当作在确定该角度中的该第二用户输入接触点。
在依据本发明的方法的一实施例中,该方法另外包含下述步骤:检测该第二用户输入接触点从第一位置到第二位置的第一移动;以及检测该第二用户输入接触点从第二位置到第三位置的第二移动;其中对于从值的范围的集合中选择值的范围的步骤,该第二位置被当作在确定该距离中的该第二用户输入接触点;并且其中对于在所选择的值的范围内选择值作为用户输入的步骤,该第三位置被当作在确定该角度中的该第二用户输入接触点。
在依据本发明的方法的一实施例中,该方法另外包含下述步骤:检测该第二用户输入接触点从第一位置到第二位置的第一移动;检测该第二用户输入接触点从第二位置到第三位置的第二移动;其中对于从值的范围的集合中选择值的范围的步骤,该第三位置被当作在确定该距离中的该第二用户输入接触点;并且其中对于在所选择的值的范围内选择值作为用户输入的步骤,该第二位置被当作在确定该角度中的该第二用户输入接触点。
在依据本发明的方法的一实施例中,当下述的任一发生时,结束检测该第一移动结束并且开始检测该第二移动:在所检测的移动中的暂停,在所检测的移动的速度中的变化,在所检测的移动的方向中的变化和/或在所检测的第二用户输入接触点中的压力中的改变。
在依据本发明的方法的一实施例中,选择值作为用户输入的步骤被延迟直到至少一个用户输入接触点不再被检测到。
在依据本发明的方法的一实施例中,当下述的任一发生时,选择值作为用户输入的步骤被跳过、撤销、反转或者选择默认值:所计算的距离小于一预确定的阈值或者所计算的距离大于一预确定的阈值;和/或所计算的角度小于一预确定的阈值或者所计算的角度大于一预确定的阈值;和/或该第一和/或第二用户输入接触点的检测的时长小于一预确定的阈值或该第一和/或第二用户输入接触点的检测的时长大于一预确定的阈值。
在依据本发明的方法的一实施例中:产生用户界面的步骤,该用户界面用于显示来自该值的范围的集合中的至少一个值的范围或者在该范围内的至少一个值的可视表示。
在依据本发明的方法的另外实施例中,该用户界面包含至少部分地包围该第一用户输入接触点的多个被显示元素,每个所述被显示元素表示来自该值的范围的集合的至少一个值的范围的至少部分。
在依据本发明的方法的一实施例中,该方法另外包含在虚拟平面中检测至少一个附加用户输入接触点的步骤;其中来自该范围的集合的至少一个值的范围内的值的粒度是基于被检测的用户输入接触点的数量,来自该至少一个值的范围的值可以被选择作为用户输入。
在本发明的第二方面中,提供一种用于接收值作为用户输入的触摸输入设备,该触摸输入设备包含:触摸敏感屏幕;以及处理器,其耦合到该触摸敏感屏幕,布置成检测多个用户输入接触点;其中该处理器另外布置成执行本发明第一方面的方法的任何步骤。
在本发明的第三方面中,提供一种用于接收值作为用户输入的基于图像的输入设备,该基于图像的输入设备包含:用于捕获图像的照相机;以及处理器,其耦合到该照相机,用于接收该图像并且处理该图像以检测多个用户输入接触点;其中该处理器另外布置成执行本发明第一方面的方法的任何步骤。
在本发明的第四方面中,提供一种用于接收值作为用户输入的计算机程序产品,该计算机程序产品包含软件代码部分,其用于当该计算机程序产品在计算机上运行时,执行本发明第一方面的方法的任何步骤。
应理解,该方法、该手势输入设备和该计算机程序产品具有相似和/或相同的优选实施例,具体如从属权利要求中所定义。应理解,本发明的优选实施例也可以是从属权利要求与各自独立权利要求的任何组合。
本发明的这些和其它方面将会从下文描述的实施例显而易见,并且将会参考下文描述的实施例予以解释说明。
附图说明
在下述附图中:
图1示意地和示例地示出依据本发明第一方面的用于接收值作为用户输入的方法;
图2示意地和示例地示出依据本发明的方法的具有第一和第二用户输入接触点的假想平面;
图3A、3B示意地和示例地示出依据本发明的方法的具有第一用户输入接触点和正在移动的第二用户输入接触点的假想平面;
图4示意地和示例地示出依据本发明的方法的用于接收值作为用户输入的基于图像的输入设备;
图5示意地和示例地示出依据本发明的方法的用于接收值作为用户输入的触摸输入设备;以及
图6A、6B、6C、6D示意地和示例地示出依据本发明的方法的经由触摸输入设备提供值作为用户输入的用户。
具体实施方式
图1示出依据本发明的方法100的一实施例的步骤的示意表示。在第一步骤110中,经由手势输入设备检测在假想平面中的第一用户输入接触点。该假想平面可以是触摸输入设备的表面,例如平板计算机或者相似设备(例如智能电话、笔记本计算机、智能白板或者具有触摸敏感区域的其它设备)的触摸敏感屏幕。接触点于是可以是物理接触点;用户触摸该触摸敏感屏幕的位置。作为另一例子,该接触点可以是在由照相机捕获的图像中的假想平面和用户的指尖的交叉处。用户于是可以朝向照相机做出手势,此后图像处理确定用户输入接触点在该假想平面中的位置。该方法因此适用于触摸输入设备、基于图像的输入设备、以及其它类型的手势输入设备。
在第二步骤120中,相似于该第一步骤110,检测第二用户输入接触点。在该假想平面中的(这些)第一和第二用户输入接触点(的位置)是用于接下来的步骤的输入。
在第三步骤130中,确定第一和第二用户输入接触点之间的(在该假想平面中的)距离。第四步骤140包含确定两条假想线之间的角度。第一假想线是从该第一用户输入接触点延伸到该第二用户输入接触点的线。第二假想线在该假想平面中从预定义假想锚点延伸到该第一用户输入接触点。该假想锚点的位置可以与例如下述有关:显示在平板计算机的触摸敏感屏幕上的用户界面,或者在正朝向照相机做手势的用户的图像的背景中被捕获的空间的形状。
第五步骤150提取在该第三步骤130中确定的距离,并且基于此距离,从值的范围的集合中选择值的范围。在第六步骤160中,从此值的范围内选择值作为用户输入。被选择作为用户输入的该值是基于在第四步骤140中确定的角度。用户因此可以在单一手势中通过至少两个用户输入接触点同时地提供一范围和在此范围内的值,以便提供一值作为用户输入。作为例子,如果所确定的距离等于或者大于一值A(例如1厘米、40像素、用户输入接触点的宽度的10倍),所选择的值的范围可以是小时(例如0-24小时的范围),并且如果所确定的距离小于A,所选择的值的范围可以是分钟(例如0-59分钟的范围)。在此例子中,如果所确定的距离小于A,5度的角度可以与值“5分钟”有关,然而10度的角度可以与值“15分钟”有关。所选择的值的范围和被选择作为用户输入的值然而可以是任何值(的范围),例如数值(例如范围“1、2、3、…”;“10、20、30、…”;“100、200、300、…”)颜色点(例如“浅绿、深绿”,“浅蓝、深蓝”,“浅红、深红”),与电影评价有关的值(例如“1星级评级…5星级评级”、“动作、喜剧、纪实…”),等等。
该方法可以结合如菜单的用户界面(其的例子在图6A、6B、6C、6D中提供)而实践,但是也可以不结合这种用户界面。考虑到手势的极度的简单性以及这允许用户同时地选择一范围和该范围内的值的方式非常直观,该方法使“盲控”成为可能。外科医生可以使用此手势并且不从病人移开视线地调整在装配有基于图像的输入设备的手术室中的一般照明或者提高工作照明的亮度。在此例子中,该外科医生仅仅知道照相机在哪并且朝向它做出手势,或者该外科医生在内嵌于存在于该手术室中的桌子中的触摸敏感区域上执行手势。手的顺时针方向的移动调亮,逆时针方向调暗,并且小的第一和第二用户输入接触点之间的距离(例如当外科医生使用拇指和食指时)控制一般照明以及大的距离(例如拇指和小指)控制工作照明。
图2示出依据本发明的方法的一实施例的假想平面200,第一手指210和第二手指220提供在该假想平面200中的第一用户输入接触点230和第二用户输入接触点240。作为一例子,图2可以是穿过平板计算机(未示出)的触摸敏感屏幕或者用户朝向其做出手势的照相机(未示出)捕获的图像而看到的该假想平面200的从底到上视图。
在第一用户接触点230和第二用户接触点240之间的假想线250是用于从值的范围的集合中选择值的范围的基础。在该假想平面200中此线的长度确定选择哪个值的范围。预定义假想锚点260可以位于该假想平面200中的任何位置。作为一例子,预定义假想锚点260可以与经由平板计算机的触摸敏感屏幕在用户界面中显示的点有关。作为另一例子,预定义假想锚点260可以与智能电话的触摸敏感屏幕的物理特征(例如该屏幕的角落之一)有关。作为再一例子,预定义假想锚点260可以与用户朝向其做出手势的照相机捕获的图像中检测的水平线(例如,诸如地面和墙之间的角落的所检测的水平线和所捕获的图像的边缘的交叉处)有关。假想线270和假想线250之间的角度280是从所选择的值的范围内选出值的基础,假想线270在预定义假想锚点260和第一用户接触点230之间,假想线250在该第一用户接触点230和第二用户接触点240之间。
确定第一用户输入接触点230和第二用户输入接触点240是什么可以基于哪个用户输入接触点230、240被首先检测到(例如用户首先触摸平板计算机的触摸敏感屏幕的位置),哪个用户输入接触点230、240最靠近平板计算机的触摸敏感屏幕的边缘,或者最靠近在该触摸敏感屏幕上显示的菜单项目。其它例子包含最左的用户输入接触点或者最静止的用户输入接触点被检测为第一用户输入接触点230。
图3A和3B阐释依据本发明的方法的一实施例,其中该用户(例如在该触摸敏感屏幕各处)移动300他的第二手指220。在此例子中,该第二手指220移动导致第二用户输入接触点240从第一位置310移动到第二位置360。该第一用户输入接触点230和该第二用户输入接触点240之间的距离320、370在此例子中保持相同。然而,假想线330和假想线320、370之间的角度340、380改变,该假想线330位于该预定义假想锚点260和该第一用户接触点230之间,该假想线320、370位于该第一用户接触点230和该第二用户接触点240之间。在此例子中,用户因此从值的范围的集合中选择值的范围,并且然后通过将第二用户接触点340从第一位置310移动到第二位置360而改变来自此被选择的值的范围的该值的选择。
在各种实施例中,检测(多个)第一用户输入接触点230和/或第二用户输入接触点240的移动。作为第一例子,用户将他的第二手指220放下的第一位置310可以是用于确定距离320的基础,并且第二位置360可以是用于确定角度380的基础。这允许用户首先选择范围(例如从范围“日”、“月”、“年”的集合中选择的“日”),并且然后自由地改变第一手指210和第二手指220之间的距离370(并且因此第一用户输入接触点230和第二用户输入接触点240之间的距离)而这不改变所选择的范围。反之亦然,如果角度340基于第一位置310而确定并且距离370基于第二位置360而确定,用户可以首先选择值,并且然后选择范围。这可以允许用户首先选择亮度水平(例如从调光“0、10、20…90、100”的范围的集合中选择的“调光10%”),并且之后选择颜色范围(例如“柔和白色”、“冷白色”、“日光”)。
作为另一例子,第一位置310可以仅仅用于触发向用户示出当前值的事件(例如通过用户界面),在此之后用户的手指移动到的第二位置360用于确定范围,并且用户的手指移动到的第三位置(未示出)用于确定值。再次,反之亦然,这可以利用第二位置360确定值和第三位置确定范围而实践。作为又一例子,多个用户输入值可以通过此方法接收,例如当该第一位置310确定用于一值的第一用户输入的距离320和角度340两者,并且第二位置360确定用于一值的第二用户输入的距离370和角度380两者时。同样,在一实施例中,第一用户接触点230可以从第一位置移动到第二位置(未示出),此处该假想锚点260移动从而对于该第一用户接触点230保持在同一相对位置。这使用户不必在执行手势时不得不将第一用户接触点230(完全地)保持在同一区域中。
在其它实施例中,被检测的移动的各方面可以确定第一位置310、第二位置360和第三位置,例如当第二用户输入接触点240以每秒1厘米的速度从第一位置310移动到第二位置360并且以每秒2厘米的速度从第二位置360移动到第三位置时。相似地,所检测的移动的方向的改变或者压力的改变(例如当具有压力敏感触摸界面的触摸输入设备被使用时)可以是用于确定第一位置310、第二位置360和第三位置的基础。作为一另外实施例,选择值作为用户输入的步骤可以被延迟直到第二用户输入接触点240保持在同一位置上达到一预确定的时间量,防止意外地选择不正确的值;或者如果用户从假想平面220同时移除两个手指210、220,则不选择值,这允许用户“撤销”手势。
图4示出依据本发明的方法的用于接收值作为用户输入的基于图像的输入设备。照相机400具有视场410,用户(未示出)在该视场中朝向照相机做出手势。照相机400具有到处理器430的(有线或无线的)连接部420。处理器430分析用照相机400捕获的图像,并且检测在假想平面200中的第一用户输入接触点230和第二用户输入接触点240。作为一例子,照相机400可以是立体感知的并且创建三维图像,其允许处理器430更准确地确定在该假想平面200中第一用户输入接触点230和第二用户输入接触点240之间的距离,以及第一假想线(未示出)和第二假想线(未示出)之间的角度,该第一假想线是从该第一用户输入接触点230到该第二用户输入接触点240,该第二假想线是从第一用户输入接触点230到该假想平面200中的预定义假想锚点(未示出)。处理器430基于所确定的距离另外从值的范围的集合中选择值的范围;并且基于所确定的角度在该值的范围内选择值作为用户输入。通过处理器430和用户设备450之间的(有线或无线的)连接部440,选作用户输入的值可以传输到用户设备450。作为一例子,用户设备而450可以是电视并且由用户做出的手势允许选择范围(例如电视频道或电视音量设置)和所选择的范围内的值(例如“频道1…频道20”或“静音、低音量…高音量”)。作为另一例子,用户设备450可以是安装在墙上的钟,并且手势允许用户通过选择范围(例如小时或分钟)和值(例如“00到23时”或“00到59分”)而设置时间。照相机400和处理器430可以例如被集成在该用户设备450(例如电视、安装在墙上的钟)中,或者在具有照相机的(智能)电话中被实践。
图5示出平板计算机500,其具有用于依据本发明的方法接收值作为用户输入的触摸敏感屏幕510。用户用第一手指210和第二手指220触摸该触摸敏感屏幕510。该阐释示出用户用每个手的一根手指210、220触摸该触摸敏感屏幕510,然而可以使用来自同一个手的多根手指或者两个用户可以分别用一根手指。在另外例子中,替代一手指或者在一手指之外,使用多根手指,使用其它身体部分,或者使用如触笔的设备。平板计算机500经由触摸敏感屏幕510检测第一用户输入接触点230和第二用户输入接触点240,并且依据本发明的方法选择值作为用户输入。所选择的值可以例如用作应用程序或者系统菜单中的对话屏幕中的用户输入。作为另外例子,用户输入可以用于改变平板计算机500的设置(例如音量、亮度),而不需要在触摸敏感屏幕510上显示用户界面(例如屏幕510可以被关闭或者示出于屏幕510上的用户界面不与用手势执行的动作有关)。作为另外例子,平板计算机(500)可以具有允许用户精细地调整值的选择的多个物理按钮(520、521、522),例如当用户使用手势做出第一选择并且然后使用一物理按钮(520)减少该值,使用一物理按钮(522)增加该值,并且使用一物理按钮(521)选择该值作为最终用户输入时。
图6A、6B、6C、6D示出依据本发明的方法,用户经由平板计算机500提供值作为用户输入的多个步骤。在第一步骤(图6A)中,平板计算机500通过触摸敏感屏幕510提供按钮600。该按钮可以是可见的或者不可见的(例如“热区”)。当用户触摸按钮600时(图6B),显示当前值610(“01:45”)。在此例子中,当前值610是设置成从1小时45分钟倒计时到零的计时器功能(例如烹饪计时器)。两个元素620、630显示在触摸敏感屏幕510上,每个元素与一值的范围有关。显示的第一元素620部分地包围按钮600,第一用户输入接触点230在该按钮处被检测。显示的第二元素630部分地包围该第一元素620。在此例子中,该第一元素620示出与增量为15分钟的选择分钟有关的四个值(“0分钟”、“15分钟”、“30分钟”和“45分钟”)。在此例子中,显示的第二元素示出与选择小时有关的八个值(“0、1…6、7小时”)。
在接下来的步骤(图6C)中,用户使用第二手指220在第一元素620中创建第二用户输入接触点240。第一用户输入接触点230和第二用户输入接触点240位于假想平面200中,即,在此例子中,触摸敏感屏幕510的表面(的一部分)表面。在此例子中,用户从显示的第一元素与之有关的“增量为15分钟的分钟”范围中选择值“30分钟”。用户之后(图6D)将第二用户输入接触点240移动到显示在该触摸敏感屏幕510上的第二元素630的区域。用户藉此从与此显示的第二元素630有关的范围(“0、1…6、7小时”)中选择值“3小时”。在每次从值的范围选择值之后,当前值610被更新;首先当选择值“30分”时,从“01:45”更新为“01:30”,并且之后当选择值“3小时”时,从“01:30”更新为“03:30”。用户之后可以(未示出)将第一手指210和第二手指220从平板计算机500的触摸敏感屏幕510移开,此后该平板计算机500前往第一步骤(图6A)。
应注意:上述实施例阐释而不是限制本发明,并且本领域技术人员将能够设计可替代的实施例而不脱离所附权利要求的范畴。在权利要求中,任何置于括号之间的参考符号不应理解为是限制该权利要求。词语“包括”并不排除未在权利要求中列出的元素或步骤的存在。在元件之前的词语“一(a)”或“一(an)”并不排除多个这种元件的存在。在列举若干构件的单元权利要求中,这些构件的若干个可以通过一个且同一项的硬件来体现。词语第一、第二和第三等等的使用并不指示任何的排序。这些词语将被解释为名称。除非明确地指出,并不打算要求动作的特定顺序。

Claims (14)

1.一种用于接收值作为用户输入的方法(100),所述方法包含下述步骤:
-经由手势输入设备,在假想平面(200)中检测(120)用户输入接触点(240);
-在所述假想平面(200)中,确定(130)参考点(230)和所述用户输入接触点(240)之间的距离(250);
-在所述假想平面(200)中,确定(140)第一假想线(250)和第二假想线(270)之间的角度(280),所述第一假想线(250)是从所述参考点(230)到所述用户输入接触点(240),所述第二假想线(270)是从第一用户输入接触点(230)到所述假想平面(200)中的预定义假想锚点(260);
-基于所确定的距离(250),从值的范围的集合中选择(150)值的范围;以及
-基于所确定的角度(280),在所选择的值的范围内选择(160)值作为用户输入,
其特征在于,所述参考点是附加用户输入接触点(230),所述附加用户输入接触点(230)和所述用户输入接触点分别地定义第一用户输入接触点和第二用户输入接触点。
2.根据权利要求1所述的方法,其中所述手势输入设备是布置成检测至少两个同时触摸输入的触摸输入设备(500);并且其中在所述假想平面(200)中的所述第一用户输入接触点(230)和所述第二用户输入接触点(240)分别是在所述触摸输入设备(500)上的第一用户输入接触点(230)和第二用户输入接触点(240)。
3.根据权利要求1所述的方法,其中所述手势输入设备是布置成捕获图像以检测用户的手部手势的基于图像的输入设备;并且其中在所述假想平面(200)中的所述第一用户输入接触点(230)和所述第二用户输入接触点(240)分别是通过对由所述基于图像的输入设备捕获的所述图像的分析而确定的第一手指(210)和第二手指(220)的位置。
4.根据权利要求1到3中任意一项所述的方法,另外包含,检测所述第二用户输入接触点(240)从第一位置(310)到第二位置(360)的移动(300)的步骤;
其中对于从值的范围的集合中选择值的范围的步骤,所述第一位置(310)或所述第二位置(360)被当作在确定所述距离(320)中的所述第二用户输入接触点(240);并且
其中对于在所选择的值的范围内选择值作为用户输入的步骤,所述第二位置(360)或所述第一位置(310)分别地被当作在确定所述角度(380)中的所述第二用户输入接触点(240)。
5.根据权利要求1到3中任意一项所述的方法,另外包含下述步骤:
-检测所述第二用户输入接触点的从第一位置到第二位置的第一移动;以及
-检测所述第二用户输入接触点的从第二位置到第三位置的第二移动;
其中对于从值的范围的集合中选择值的范围的步骤,所述第二位置或所述第三位置被当作在确定所述距离中的所述第二用户输入接触点;并且
其中对于在所选择的值的范围内选择值作为用户输入的步骤,所述第三位置或所述第二位置分别地被当作在确定所述角度中的所述第二用户输入接触点。
6.根据权利要求5所述的方法,其中当下述的至少一个发生时,结束检测所述第一移动并且开始检测所述第二移动:在所检测的移动中的暂停,在所检测的移动的速度中的变化,在所检测的移动的方向中的变化,以及在所检测的第二用户输入接触点中的压力中的改变。
7.根据权利要求1到6中任意一项所述的方法,其中所述选择值作为用户输入的步骤被延迟直到至少一个用户输入接触点不再被检测到。
8.根据权利要求1到7中任意一项所述的方法,其中当下述的至少一个发生时,所述选择值作为用户输入的步骤被跳过、撤销、反转或者选择默认值:所计算的距离小于一预确定的阈值,所计算的距离大于一预确定的阈值,所计算的角度小于一预确定的阈值,所计算的角度大于一预确定的阈值,所述第一用户输入接触点或所述第二用户输入接触点的检测的时长小于一预确定的阈值,以及所述第一用户输入接触点或所述第二用户输入接触点的检测的时长大于一预确定的阈值。
9.根据权利要求1到8中任意一项所述的方法,另外包含下述步骤:产生用户界面,用于显示来自所述值的范围的集合中的至少一个值的范围或者在所述范围内的至少一个值的可视表示。
10.根据权利要求9所述的方法,其中所述用户界面包含至少部分地包围所述第一用户输入接触点(230)的多个被显示元素(620、630),每个所述被显示元素(620、630)表示来自所述值的范围的集合的至少一个值的范围的至少部分。
11.根据权利要求1到10中任意一项所述的方法,另外包含在虚拟平面中检测至少一个附加用户输入接触点的步骤;其中来自所述值的范围的集合的至少一个值的范围内的值的粒度是基于被检测的用户输入接触点的数量,来自所述至少一个值的范围的值可以被选择作为用户输入。
12.一种用于接收值作为用户输入的触摸输入设备(500),所述设备包含:
-触摸敏感屏幕(510);以及
-处理器,其耦合到所述触摸敏感屏幕(510),并且布置成检测多个用户输入接触点;
其中所述处理器另外布置成执行权利要求1到11中任意一项所述的方法的步骤。
13.一种用于接收值作为用户输入的基于图像的输入设备,所述设备包含:
-用于捕获图像的照相机(400);以及
-处理器,其耦合到所述照相机(400),并且布置成用于接收和处理所述图像以检测多个用户输入接触点;
其中所述处理器另外布置成执行权利要求1到11中任意一项所述的方法的步骤。
14.一种用于接收值作为用户输入的计算机程序产品,包含软件代码部分,其用于当所述计算机程序产品在计算机上运行时,执行权利要求1到11中任意一项所述的步骤。
CN201480051271.8A 2013-09-17 2014-09-16 手势驱动的范围和值的同时选择 Pending CN105531646A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP13184772 2013-09-17
EP13184772.5 2013-09-17
PCT/EP2014/069704 WO2015040020A1 (en) 2013-09-17 2014-09-16 Gesture enabled simultaneous selection of range and value

Publications (1)

Publication Number Publication Date
CN105531646A true CN105531646A (zh) 2016-04-27

Family

ID=49223597

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480051271.8A Pending CN105531646A (zh) 2013-09-17 2014-09-16 手势驱动的范围和值的同时选择

Country Status (5)

Country Link
US (1) US20160196042A1 (zh)
EP (1) EP3047354A1 (zh)
JP (1) JP2016530659A (zh)
CN (1) CN105531646A (zh)
WO (1) WO2015040020A1 (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8984431B2 (en) 2009-03-16 2015-03-17 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US10706096B2 (en) 2011-08-18 2020-07-07 Apple Inc. Management of local and remote media items
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US10088989B2 (en) * 2014-11-18 2018-10-02 Duelight Llc System and method for computing operations based on a first and second user input
KR102206053B1 (ko) * 2013-11-18 2021-01-21 삼성전자주식회사 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법
CN103823596A (zh) * 2014-02-19 2014-05-28 青岛海信电器股份有限公司 一种触摸事件扫描方法及装置
US9690478B2 (en) * 2014-03-04 2017-06-27 Texas Instruments Incorporated Method and system for processing gestures to cause computation of measurement of an angle or a segment using a touch system
US11256294B2 (en) 2014-05-30 2022-02-22 Apple Inc. Continuity of applications across devices
GB2530713A (en) * 2014-08-15 2016-04-06 Myriada Systems Ltd Multi-dimensional input mechanism
CN113824998A (zh) 2014-09-02 2021-12-21 苹果公司 音乐用户界面
GB2537348A (en) * 2015-03-23 2016-10-19 Motivii Ltd User input mechanism
US10929008B2 (en) 2015-06-05 2021-02-23 Apple Inc. Touch-based interactive learning environment
US9740384B2 (en) * 2015-06-25 2017-08-22 Morega Systems Inc. Media device with radial gesture control and methods for use therewith
US10289206B2 (en) * 2015-12-18 2019-05-14 Intel Corporation Free-form drawing and health applications
DK201670622A1 (en) 2016-06-12 2018-02-12 Apple Inc User interfaces for transactions
KR20180037721A (ko) * 2016-10-05 2018-04-13 엘지전자 주식회사 디스플레이 장치
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
CN110221735B (zh) * 2018-03-02 2021-03-12 Oppo广东移动通信有限公司 图标处理方法、装置以及移动终端
KR102478031B1 (ko) * 2018-03-08 2022-12-16 삼성전자주식회사 외부 장치와의 연결을 위한 전자 장치 및 방법
US10996917B2 (en) 2019-05-31 2021-05-04 Apple Inc. User interfaces for audio media control
DK201970533A1 (en) 2019-05-31 2021-02-15 Apple Inc Methods and user interfaces for sharing audio
JP7075547B2 (ja) 2019-05-31 2022-05-25 アップル インコーポレイテッド オーディオメディア制御のためのユーザインタフェース
US10904029B2 (en) 2019-05-31 2021-01-26 Apple Inc. User interfaces for managing controllable external devices
US11392291B2 (en) * 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
US11847378B2 (en) 2021-06-06 2023-12-19 Apple Inc. User interfaces for audio routing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040205606A1 (en) * 2001-02-12 2004-10-14 Mccully Nathaniel M. Method for determining line leading in accordance with traditional japanese practices
CN1618056A (zh) * 2000-12-27 2005-05-18 皇家菲利浦电子有限公司 一种提供对图形用户界面的显示的方法
CN102566896A (zh) * 2010-10-15 2012-07-11 Sap股份公司 用于时间和日期输入的可触控圆形控制
WO2013056902A1 (de) * 2011-10-19 2013-04-25 Siemens Aktiengesellschaft Anzeige- und bedieneinrichtung

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6147678A (en) * 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US7469381B2 (en) * 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US7138983B2 (en) * 2000-01-31 2006-11-21 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
US6600475B2 (en) 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US20030210286A1 (en) * 2002-02-26 2003-11-13 George Gerpheide Touchpad having fine and coarse input resolution
US7466307B2 (en) * 2002-04-11 2008-12-16 Synaptics Incorporated Closed-loop sensor on a solid-state object position detector
JP3903968B2 (ja) * 2003-07-30 2007-04-11 日産自動車株式会社 非接触式情報入力装置
JP2005301693A (ja) * 2004-04-12 2005-10-27 Japan Science & Technology Agency 動画編集システム
JP4903371B2 (ja) * 2004-07-29 2012-03-28 任天堂株式会社 タッチパネルを用いたゲーム装置およびゲームプログラム
US20070130547A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
EP2030102A4 (en) * 2006-06-16 2009-09-30 Cirque Corp BY TOUCHDOWN ON A PRESENT POINT ON A TOUCHPAD ACTIVATED SCROLLING PROCESS WITH GESTURE DETECTION FOR CONTROLLING SCROLLING FUNCTIONS
US7907125B2 (en) * 2007-01-05 2011-03-15 Microsoft Corporation Recognizing multiple input point gestures
KR101239797B1 (ko) * 2007-02-07 2013-03-06 엘지전자 주식회사 터치 스크린을 구비한 전자 기기 및 이를 이용한 아날로그시계 제공 방법
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US7941765B2 (en) * 2008-01-23 2011-05-10 Wacom Co., Ltd System and method of controlling variables using a radial control menu
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
US8174504B2 (en) * 2008-10-21 2012-05-08 Synaptics Incorporated Input device and method for adjusting a parameter of an electronic system
JP2011028345A (ja) * 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
JP5363259B2 (ja) * 2009-09-29 2013-12-11 富士フイルム株式会社 画像表示装置、画像表示方法およびプログラム
JPWO2011142317A1 (ja) * 2010-05-11 2013-07-22 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
JP2011253468A (ja) * 2010-06-03 2011-12-15 Aisin Aw Co Ltd 表示装置、表示方法、及び表示プログラム
US9361009B2 (en) * 2010-12-01 2016-06-07 Adobe Systems Incorporated Methods and systems for setting parameter values via radial input gestures
JP2012123461A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 電子機器
US9547428B2 (en) * 2011-03-01 2017-01-17 Apple Inc. System and method for touchscreen knob control
JP5769516B2 (ja) * 2011-06-27 2015-08-26 キヤノン株式会社 画像処理装置及びその制御方法
JP5959372B2 (ja) * 2011-08-29 2016-08-02 京セラ株式会社 装置、方法、及びプログラム
CN104115108B (zh) * 2012-02-16 2018-07-27 古野电气株式会社 信息显示装置以及显示模式切换方法
FR2999725B1 (fr) * 2012-12-18 2015-01-23 Thales Sa Procede de reglage d'un secteur de cision/masquage d'un dispositif de scrutation d'environnement, dispositif de reglage et terminal d'operateur correspondants

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1618056A (zh) * 2000-12-27 2005-05-18 皇家菲利浦电子有限公司 一种提供对图形用户界面的显示的方法
US20040205606A1 (en) * 2001-02-12 2004-10-14 Mccully Nathaniel M. Method for determining line leading in accordance with traditional japanese practices
CN102566896A (zh) * 2010-10-15 2012-07-11 Sap股份公司 用于时间和日期输入的可触控圆形控制
WO2013056902A1 (de) * 2011-10-19 2013-04-25 Siemens Aktiengesellschaft Anzeige- und bedieneinrichtung

Also Published As

Publication number Publication date
WO2015040020A1 (en) 2015-03-26
US20160196042A1 (en) 2016-07-07
EP3047354A1 (en) 2016-07-27
JP2016530659A (ja) 2016-09-29

Similar Documents

Publication Publication Date Title
CN105531646A (zh) 手势驱动的范围和值的同时选择
JP6785273B2 (ja) ウェアラブルデバイスを通じたレーダ型ジェスチャ認識
US11687224B2 (en) User interface camera effects
JP6398987B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR102287018B1 (ko) 레이더-기반 제스처 감지 및 데이터 송신
US8666115B2 (en) Computer vision gesture based control of a device
RU2609101C2 (ru) Узел сенсорного управления, способ управления устройствами, контроллер и электронное оборудование
KR101919009B1 (ko) 안구 동작에 의한 제어 방법 및 이를 위한 디바이스
JP6252409B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20170053443A1 (en) Gesture-based reorientation and navigation of a virtual reality (vr) interface
US20150002475A1 (en) Mobile device and method for controlling graphical user interface thereof
US20230236547A1 (en) User interfaces for indicating time
US10388121B2 (en) Method for providing notifications
US20170322700A1 (en) Haptic interface for population of a three-dimensional virtual environment
US20170371183A1 (en) Control of a Periodic Light Source Illuminating a Room Shared by Two Users Wearing Shutter Glasses Synchronized with the Light Source
CN106325745A (zh) 一种截图方法及装置
KR20150029522A (ko) 터치 입력 구별 및 보류 중인 터치 입력 시각화 장치 및 방법
JP6409948B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2024064373A1 (en) Devices, methods, and graphical user interfaces for interacting with window controls in three-dimensional environments
WO2015082211A1 (en) Method of operating a multi-touch device and multi-touch device therefore

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned
AD01 Patent right deemed abandoned

Effective date of abandoning: 20191108