CN103999019A - 基于手势的输入命令 - Google Patents

基于手势的输入命令 Download PDF

Info

Publication number
CN103999019A
CN103999019A CN201180075797.6A CN201180075797A CN103999019A CN 103999019 A CN103999019 A CN 103999019A CN 201180075797 A CN201180075797 A CN 201180075797A CN 103999019 A CN103999019 A CN 103999019A
Authority
CN
China
Prior art keywords
gesture
frame
input
input block
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201180075797.6A
Other languages
English (en)
Inventor
D.L.霍夫曼
M.德皮尔
W.S.斯普洛克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of CN103999019A publication Critical patent/CN103999019A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了具有传感器的装置,用于针对手势检测不包括输入部件的机架的位置,以及如果所述手势在不包括所述输入部件的机架的位置处被检测到,则基于所述手势在所述装置上执行输入命令。

Description

基于手势的输入命令
背景技术
当与呈现在装置上的用户界面交互时,用户可以访问装置的输入部件,诸如键盘和/或鼠标。用户可以把鼠标从一个位置重定位到另一个以导航用户界面并访问在用户界面上呈现的可视内容。在另一示例中,用户可以利用键盘上的快捷键来访问用户界面上的可视内容和/或在其之间导航。
附图说明
根据结合附图做出的以下详细描述,所公开的实施例的各个特征和优点将显而易见,附图通过示例的方式一起图示了所公开的实施例的特征。
图1图示了根据示例的装置。
图2A和图2B图示了根据示例的装置的机架和用于检测来自用户的手势的传感器。
图3图示了根据示例的识别针对装置的输入命令的输入应用的框图。
图4是图示根据示例的用于检测针对装置的输入的方法的流程图。
图5是图示根据另一示例的用于检测针对装置的输入的方法的流程图。
具体实施方式
一种装置包括传感器和具有所述装置的输入部件的机架。所述机架可以是所述装置的框架、外壳和/或罩。所述输入部件可以是触摸板或键盘,其不设置在所述机架的一个或多个位置,诸如所述机架的边缘。所述传感器可以是触摸传感器、邻近传感器、触摸表面和/或图像捕获部件,其可以检测来自所述装置的用户的手势的信息。响应于检测到手势的信息,所述装置可以确定所述手势是否在不包括输入部件的机架的位置处做出。如果在不包括输入部件的机架的位置处检测到手势,则所述装置可以基于手势的信息来识别并执行针对所述装置的输入命令。输入命令可以是所述装置的访问和/或导航用户界面的输入指令。
在一个实施例中,如果在不包括输入部件的机架的位置处检测到手势,则输入命令可以被识别成在所述装置的用户界面的内容之间导航的手势命令。所述内容可以包括所述装置的应用、文件、媒体、菜单、设置和/或壁纸。在另一实施例中,如果所述输入部件通过手势而访问,则所述装置将把针对所述装置的输入命令识别为指针命令。指针命令可以用于访问和/或导航用户界面的目前呈现的内容。通过检测手势和确定所述手势是否在不包括输入部件的机架的位置处做出,所述装置可以准确地识别所述装置上的一个或多个输入命令以供用户利用一个或多个手势访问和导航用户界面。
图1图示了根据示例的装置100。装置100可以是膝上型电脑、笔记本、平板、上网本、一体化系统和/或台式电脑。在另一实施例中,装置100可以是蜂窝装置、PDA(个人数字助理)、E(电子)-阅读器、和/或用户可通过手势与其交互的具有机架180的任何装置。装置100包括机架105、控制器120、输入部件135、传感器130和供装置100的部件彼此通信的通信信道150。在一个实施例中,装置100包括输入应用,该输入应用可以被独立地和/或结合控制器120而利用以管理装置100。输入应用可以是可由控制器120执行的来自装置100的非瞬变计算机可读存储器的固件或应用。
用户可以通过在机架180的位置处做出供装置100的传感器130检测的一个或多个手势来与装置100交互。出于这个应用的目的,机架180包括装置100的框架、外壳和/或罩。机架180包括下述一个或多个位置,该一个或多个位置不包括装置100的输入部件135。输入部件135是装置100的硬件部件,诸如触摸板和/或键盘。出于这个应用的目的,不包括输入部件135的机架180的位置包括机架180的空间和/或部分,诸如不设置输入部件135的机架180的边缘。一个或多个边缘可以包括机架180的顶边缘、底边缘、左边缘和/或右边缘。在一个实施例中,机架180包括顶部和底部。机架180的顶部和底部两者都可以包括一个或多个不包括输入部件135的对应位置。
传感器130是装置100的硬件部件,当用户正在做出一个或多个手势以与装置100交互时,传感器130可以针对用户的手或手指检测不包括输入部件135的机架180的一个或多个位置。在一个实施例中,传感器130可以是装置100的触摸表面或邻近传感器,其被包括在机架180的对应位置处,该对应位置不包括输入部件135。在其它实施例中,传感器130可以是图像捕获部件,其可以捕获访问机架180的一个或多个对应位置的手势的视图。出于这个应用的目的,手势包括:用户的手指和/或手触摸机架180的位置或来到机架180的位置的邻近区域内。在另一实施例中,手势可以包括:当触摸机架180的位置时或当处于机架180的位置的邻近区域内时,用户用至少一个手指和/或手做出运动。
当检测到手势时,传感器130可以检测手势的信息。该信息可以包括一个或多个坐标,该坐标对应于机架280的被访问的位置和/或传感器130的被访问的位置。使用所检测到的被访问的位置的信息,控制器120和/或输入应用可以确定该手势是否在不包括输入部件135的机架180的位置处被检测到。此外,使用所检测到的被访问的位置的信息,控制器120和/或输入应用可以确定手势是否包括运动和该运动的方向。
传感器130可以把检测到的手势的信息传递到控制器120和/或输入应用。控制器120和/或输入应用可以使用该信息来确定手势是否在不包括输入部件135的机架180的对应位置处被检测到。在一个实施例中,如果传感器130是被设置在不包括输入部件135的机架180的位置处的触摸表面或邻近传感器,则响应于从传感器130接收到手势的任何信息,控制器120和/或输入应用确定手势在不包括输入部件135的机架180的位置处被检测到。在另一实施例中,控制器120和/或输入应用可以将被访问的位置的坐标与对应于不包括输入部件135的机架180的位置的预定义坐标进行比较。如果发现匹配,则控制器120和/或输入应用确定手势已经在不包括输入部件135的机架180的位置处被检测到。
如果手势在不包括输入部件135的机架180的位置处被检测到,则控制器120和/或输入应用继续将输入命令140识别为手势命令。出于这个应用的目的,输入命令140包括访问和/或导航用户界面的输入指令。手势命令可以是在装置100的用户界面的内容之间导航的指令。当识别对应的手势命令时,控制器120和/或输入应用将手势的信息与手势命令的预定义信息进行比较。如果检测到的信息与对应的手势命令匹配,则输入命令140将已被识别并且控制器120和/或输入应用可以在装置100上执行输入命令140。
在另一实施例中,如果不包括输入部件135的机架180的位置未被访问,则控制器120和/或输入应用可以确定输入部件135是否已被访问。用户可以通过在输入部件135处做出手势来访问输入部件135。如果输入部件135被访问,则控制器120和/或输入应用可以确定针对装置100的输入命令140不是手势命令。在一个实施例中,如果触摸板被访问,则控制器120和/或输入应用确定输入命令140是访问和导航在用户界面上目前呈现的内容的指针命令。在另一实施例中,如果键盘被访问,则控制器120和/或输入应用可以识别对应的字母数字输入,该字母数字输入对应于由用户访问的键盘的键。
图2A和图2B图示了根据示例的装置200的机架280和用于检测来自用户205的手势的传感器230。用户205可以是可通过一个或多个手势访问装置200的任何人。机架280可以是用于容纳装置200的一个或多个部件的框架、外壳和/或罩。在一个实施例中,机架280的成分可以包括合金、塑料、碳纤维、纤维玻璃、和/或附加于和/或代替上面提到的那些的任何附加元素或元素组合。如图2A中示出的,机架280包括一个或多个对应的位置270,该位置270不包括装置200的输入部件235。如上面提到的,不包括输入部件235的机架280的位置270包括机架280的空间和/或部分,诸如不设置输入部件235的机架280的边缘。
在一个实施例中,不包括输入部件235的机架280的位置270包括机架280的边缘。一个或多个边缘包括机架280的顶边缘、底边缘、右边缘和/或左边缘。此外,如在图2A中示出的,一个或多个对应的位置270可以包括可视标记,以显示在机架280上何处包括对应的位置270。可视标记可以是机架280的表面上的可视印迹。在另一实施例中,可视标记可以包括机架280的表面上的裂缝或位置,其被从装置200的光源照明。在其它实施例中,可视标记可以是可以用于指示不包括输入部件235的机架280的对应位置的任何附加可视物体。
机架280可以包括顶部和底部。顶部和底部两者都可以包括不包括输入部件235的对应位置270。在一个实施例中,不包括输入部件235的机架280的底部的对应位置270可以在输入部件235的上方、下方、左侧和/或右侧。输入部件235可以被容纳在机架280的底部中。出于这个应用的目的,输入部件235是装置200的硬件部件,诸如用户205可针对非手势命令而访问的触摸板或键盘。
此外,机架280的顶部可以容纳装置的显示部件260。显示部件260是硬件输出部件,其可以在用户界面265上显示可视内容以供装置200的用户205查看和/或与之交互。在一个实施例中,显示部件260是LCD(液晶显示器)、LED(发光二极管)显示器、CRT(阴极射线管)显示器、等离子体显示器、投影仪、和/或被配置成将用户界面265显示为包括可视内容的任何附加装置。可视内容可以包括装置200的文件、应用、文档、媒体、菜单、子菜单和/或壁纸。
如图2A中示出的,装置200可以包括一个或多个传感器230以检测不包括输入部件235的机架280的对应位置270处的手势。出于这个应用的目的,传感器230是装置200的硬件部件,其可以检测来自用户205的手势的信息。在一个实施例中,传感器230可以耦合到或集成在机架280的单个位置270,诸如机架280的边缘,邻近装置200的键盘。在另一实施例中,装置200可以包括被设置在不包括输入部件235的机架280的不同位置270处的多于一个传感器230。传感器230可以包括触摸传感器、触摸表面、邻近传感器、和/或可检测触摸不包括输入部件235的机架280的位置270和/或来到该位置270的邻近区域内的手势的信息的任何附加硬件部件。
在另一实施例中,如图2B中图示的,不包括输入部件235的机架280的一个或多个位置235在机架280的边缘和输入部件235之间包括区域或间隔。如在本实施例中示出的,不包括输入部件235的机架280的对应位置270在装置200的触摸板部件的一侧且未达到机架280的边缘。在其它实施例中,一个或多个传感器230可以包括图像捕获部件,其可以耦合到机架280的顶部。图像捕获部件可以捕获底部的对应位置270的视图以检测来自用户205的手势。
当用户205用手势访问机架280的对应位置270时,传感器230可以检测手势的信息。用户205可以使用手指和/或手以通过触摸机架280或来到机架280的邻近区域内来做出手势。传感器230可以通过针对手势检测不包括输入部件235的机架280的位置270来检测来自用户205的手势的信息。在一个实施例中,信息可以包括通过手势访问的传感器230的坐标或机架280的坐标。传感器230可以与装置200的控制器和/或输入应用共享所检测到的手势信息。响应于接收到所检测到的手势信息,控制器和/或输入应用可以识别针对装置200的输入命令。
图3图示了根据示例的识别针对装置的输入命令的输入应用310的框图。在一个实施例中,输入应用310可以是嵌入到装置的一个或多个部件上的固件。在另一实施例中,输入应用310可以是可从装置的非易失性计算机可读存储器访问的应用。计算机可读存储器是包含、存储、传送或传输该应用以供该装置使用或与该装置一起使用的有形设备。在一个实施例中,计算机可读存储器是硬盘驱动器、紧凑盘、闪存盘、网络驱动器或耦合到该装置的任何其它形式的有形设备。
如图3中示出的,传感器330已检测到来自用户的手势的信息。在一个实施例中,信息包括手势被检测到的机架的位置。在另一实施例中,如果传感器330被包括在不包括输入部件的机架的位置处,则信息可以包括通过手势访问的传感器330的位置。机架和/或传感器330的位置可以作为机架或传感器330的坐标而被传感器330共享。使用所检测到的手势信息,控制器320和/或输入应用310可以基于所检测到的手势的信息来识别输入命令。
在一个实施例中,控制器320和/或输入应用310可以最初访问输入命令的列表、表格和/或数据库并将所检测到的手势信息与对应于装置的输入命令的预定义信息进行比较。输入命令的列表、表格和/或数据库可以本地存储在装置上或从另一装置远程访问。如本实施例中示出的,输入命令的列表、表格和/或数据库可以包括一个或多个手势命令以及一个或多个指针命令。手势命令可以用于在用户界面的内容之间导航。指针命令可以用于访问和/或导航用户界面的目前呈现的内容。在其它实施例中,附加于和/或代替上面提到的且在图3中图示的那些命令,装置可以包括附加的输入命令。
如果控制器320和/或输入应用310确定手势在不包括输入部件的机架的位置(诸如机架的边缘)处被检测到,则输入命令将被识别为手势命令。如果传感器330被包括在机架的边缘处并且传感器330已利用手势而访问,则控制器320和/或输入应用310可以确定手势在不包括输入部件的机架的位置处被检测到。
在另一实施例中,如果传感器330是捕获边缘的视图的图像捕获部件,则控制器320和/或输入应用310将机架的被访问的位置与对应于不包括输入部件的机架的位置的预定义坐标进行比较。如果任何被访问的位置与对应于不包括输入部件的机架的位置的预定义坐标匹配,则控制器320和/或输入应用310确定机架的边缘已通过手势而访问。机架的位置的预定义坐标可以被控制器320、输入应用310、用户和/或装置的制造商定义。
响应于确定不包括输入部件的机架的位置已通过手势而访问,控制器320和/或输入应用310继续访问手势命令的列表,并将手势的信息与每个手势命令的预定义信息进行比较。如果发现匹配,则控制器320和/或输入应用310继续在装置上执行所识别的手势命令。
在一个实施例中,如果所检测到的手势信息指明手势包括机架边缘处的水平运动,则控制器320和/或输入应用310把输入命令识别为在用户界面的内容之间导航的手势命令。在另一实施例中,如果所检测到的手势信息指明手势包括机架边缘处的垂直运动,则控制器320和/或输入应用310把输入命令识别为引出菜单或设置的手势命令。该菜单或设置可以对应于当前呈现在用户界面上的内容,或者该菜单或设置可以对应于装置的操作系统的菜单或设置。当该菜单或设置被呈现在用户界面上时,用户可以做出一个或多个附加手势来导航该菜单或设置。此外,用户可以做出一个或多个附加手势以选择该菜单或设置的项目或引出子菜单。
在另一实施例中,如果控制器320和/或输入应用310确定手势未在不包括输入部件的机架的位置处被检测到,则控制器320和/或输入应用310确定输入部件是否已被访问。如上面指出的,输入部件可以是装置的键盘和/或触摸板。如果触摸板被访问,则控制器320和/或输入应用310确定针对装置的输入命令是指针命令。然后,控制器320和/或输入应用310可以基于手势的信息来确定要执行哪个指针命令。
如果所检测到的信息指明手势包括利用输入部件的水平运动,则控制器320和/或输入应用310把输入命令识别为水平重定位指针的指针命令。在另一实施例中,如果所检测到的信息指明手势包括使用输入部件的垂直运动,则输入命令被识别为垂直重定位指针的指针命令。如果输入部件是键盘,则控制器320和/或输入应用310可以把输入命令识别为键盘录入并且基于键盘的哪个键被访问来识别要处理哪个字母数字输入。
在其它实施例中,当识别输入命令时,控制器320和/或输入应用310可以附加地考虑不包括输入部件的机架的哪个位置被访问。控制器320、输入应用310和/或装置的用户可以定义机架的哪个位置可以用于手势命令以及机架的哪个位置可以用于指针命令。
在一个实施例中,机架的第一边缘可以用于手势命令,而机架的第二边缘可以用于指针命令。例如,如果机架的右边缘通过手势而访问,则控制器320和/或输入应用310可以把该输入命令识别为手势命令。此外,如果与右边缘相对的机架的左边缘通过手势而访问,则控制器320和/或输入应用可以把该输入命令识别为指针命令。然后,控制器320和/或输入应用310可以继续基于手势的信息识别和执行对应的输入命令。
图4是图示根据示例的用于检测针对装置的输入的方法的流程图。可以独立地和/或彼此结合地利用控制器和/或输入应用来识别装置的输入命令。装置的传感器(诸如触摸传感器、触摸表面和/或邻近传感器)可以最初检测在不包括输入部件的机架的位置处做出的手势的信息400。机架可以是容纳输入部件的装置的框架、外壳和/或罩。机架包括不包括和/或不设置输入部件的一个或多个位置,诸如机架的边缘。
如果传感器检测到手势,则传感器可以针对控制器和/或输入应用传递手势的信息(诸如机架的被访问的位置的位置)以识别装置的输入命令。控制器和/或输入应用可以使用所检测到的手势信息来确定手势是否在不包括输入部件的机架的位置处做出。在410,如果控制器和/或输入应用确定手势在机架的对应位置处做出,则控制器和/或输入应用可以继续基于手势的信息在装置上执行输入命令,诸如手势命令。
在另一实施例中,如果手势未在不包括输入部件的机架的位置处被检测到,则控制器和/或输入应用可以确定手势是否访问输入部件,诸如触摸板或键盘。如果输入部件被访问,则控制器和/或输入应用可以基于手势的信息来识别和执行对应的指针命令。然后该方法完成。在其它实施例中,图4的方法包括附加于和/或替代图4中描绘的那些步骤的附加步骤。
图5是图示根据示例的用于检测针对装置的输入的方法的流程图。在500,控制器和/或输入应用使用装置的传感器来检测访问输入部件或不包括输入部件的机架的位置的手势的信息。如上面指出的,机架的对应位置可以包括可视标记以显示它们被设置在机架上何处。在510,控制器和/或输入应用可以使用所检测到的信息来确定手势的手指或手是否正在触摸不包括输入部件的机架的对应位置或在其邻近区域内。
在一个实施例中,如果传感器被设置在不包括输入部件的机架的对应位置处,则控制器和/或输入应用响应于传感器检测到手势而确定手势在对应位置处被检测到。在另一实施例中,如果传感器是捕获对应位置的视图的图像捕获部件,则控制器和/或输入应用可以将手势的被访问的位置与对应于不包括输入部件的机架的位置的预定义坐标进行比较。如果任何被访问的位置与预定义坐标匹配,则控制器和/或输入应用确定不包括输入部件的机架的位置已通过手势而访问。
如果不包括手势的机架的对应位置被确定为未被访问,则控制器和/或输入应用确定输入部件是否已被访问。如果输入部件通过手势而访问,则在520,将输入命令识别为指针命令。在一个实施例中,控制器和/或输入应用可以访问输入命令的列表、表格和/或数据库,并且将所检测到的手势信息与指针命令的预定义信息进行比较。如果发现匹配,则在530,控制器和/或输入应用可以继续执行对应的指针命令以访问和/或导航装置上的目前呈现的内容。
如果手势在不包括输入部件的机架的对应位置处被检测到,则在540,控制器和/或输入应用把输入命令识别为手势命令。控制器和/或输入应用访问输入命令的列表、表格和/或数据库,并且将所检测到的手势信息与手势命令的预定义信息进行比较。如果发现匹配,则在550,控制器和/或输入应用继续执行对应的手势命令以在装置的内容之间导航。然后该方法完成。在其它实施例中,图5的方法包括附加于和/或替代图5中描绘的那些步骤的附加步骤。

Claims (15)

1.一种装置,包括:
机架,包括输入部件;
传感器,用于检测不包括所述输入部件的机架的位置处的手势;以及
控制器,用于:如果所述手势在不包括所述输入部件的机架的位置处被检测到,则基于所述手势在所述装置上执行输入命令。
2.根据权利要求1的装置,其中,所述输入部件包括所述装置的键盘和触摸板中的至少一个。
3.根据权利要求1的装置,其中,不包括所述输入部件的所述机架的位置包括所述机架的边缘。
4.根据权利要求1的装置,其中,不包括所述输入部件的所述机架的位置包括所述机架的边缘和所述输入部件之间的所述机架的至少一部分。
5.根据权利要求1的装置,其中,所述传感器包括以下各项中的至少一个:触摸传感器、触摸表面、和设置在所述机架的边缘处的邻近传感器。
6.根据权利要求1的装置,其中,所述传感器是图像捕获部件,其捕获所述机架的所述边缘的视图。
7.根据权利要求6的装置,其中,所述机架包括顶部和底部,所述顶部包括所述传感器,所述底部包括所述输入部件。
8.一种用于检测针对装置的输入的方法,包括:
利用传感器检测不包括输入部件的装置的机架的位置处的手势;以及
如果在不包括输入部件的机架的位置处检测到手势,则基于该手势在所述装置上执行输入命令。
9.根据权利要求8的用于检测针对装置的输入的方法,其中检测边缘处的手势包括针对手势检测所述机架的边缘。
10.根据权利要求8的用于检测针对装置的输入的方法,进一步包括检测访问所述输入部件的手势。
11.根据权利要求10的用于检测针对装置的输入的方法,进一步包括确定所述输入命令是手势命令还是指针命令。
12.根据权利要求11的用于检测针对装置的输入的方法,其中:如果所述手势在所述装置的边缘处被检测到,则所述输入命令被识别为在装置的内容之间导航的手势命令。
13.根据权利要求11的用于检测针对装置的输入的方法,其中:如果所述输入部件检测到手势,则所述输入命令被识别为导航所述装置的目前呈现的内容的指针命令。
14.一种包括指令的计算机可读介质,所述指令在被执行的情况下使控制器:
利用传感器针对手势检测不包括输入部件的装置的机架的位置;以及
如果在不包括输入部件的机架的位置处检测到手势,则基于该手势在所述装置上执行输入命令。
15.根据权利要求14的计算机可读介质,其中附加地:
如果手势在所述机架的第一边缘处被检测到,则所述控制器把所述输入命令识别为手势命令;并且如果手势在所述机架的第二边缘处被检测到,则所述输入命令被识别为指针命令。
CN201180075797.6A 2011-12-23 2011-12-23 基于手势的输入命令 Pending CN103999019A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2011/067079 WO2013095602A1 (en) 2011-12-23 2011-12-23 Input command based on hand gesture

Publications (1)

Publication Number Publication Date
CN103999019A true CN103999019A (zh) 2014-08-20

Family

ID=48669243

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180075797.6A Pending CN103999019A (zh) 2011-12-23 2011-12-23 基于手势的输入命令

Country Status (6)

Country Link
US (1) US20140253438A1 (zh)
CN (1) CN103999019A (zh)
DE (1) DE112011105888T5 (zh)
GB (1) GB2511976A (zh)
TW (1) TWI468989B (zh)
WO (1) WO2013095602A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210155663A (ko) * 2020-06-16 2021-12-23 에스케이하이닉스 주식회사 메모리 장치 및 그 동작 방법
US11507197B1 (en) * 2021-06-04 2022-11-22 Zouheir Taher Fadlallah Capturing touchless inputs and controlling an electronic device with the same
US11853480B2 (en) 2021-06-04 2023-12-26 Zouheir Taher Fadlallah Capturing touchless inputs and controlling a user interface with the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000021023A1 (en) * 1998-10-07 2000-04-13 Intel Corporation Controlling a pointer using digital video
US20070125633A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for activating a touchless control
US20070130547A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
CN101014924A (zh) * 2004-08-25 2007-08-08 苹果电脑有限公司 便携式计算机上的宽触摸板
US20080055247A1 (en) * 2006-09-05 2008-03-06 Marc Boillot Method and Apparatus for Touchless Calibration

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6466198B1 (en) * 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US8120625B2 (en) * 2000-07-17 2012-02-21 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US6522962B2 (en) * 2000-08-24 2003-02-18 Delphi Technologies, Inc. Distributed control architecture for mechatronic automotive systems
US7688306B2 (en) * 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7692627B2 (en) * 2004-08-10 2010-04-06 Microsoft Corporation Systems and methods using computer vision and capacitive sensing for cursor control
US7242588B2 (en) * 2005-09-13 2007-07-10 Kitsopoulos Sotirios Constanti Multifunction modular electronic apparatus
US7995034B2 (en) * 2006-06-22 2011-08-09 Microsoft Corporation Input device having a presence sensor
US20080040692A1 (en) * 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
WO2008093683A1 (ja) * 2007-01-31 2008-08-07 Alps Electric Co., Ltd. 静電容量式モーション検出装置及びそれを用いた入力装置
US20080186287A1 (en) * 2007-02-05 2008-08-07 Nokia Corporation User input device
TWM320708U (en) * 2007-02-16 2007-10-11 Arima Computer Corp Ultra mobile personal computer
KR102559017B1 (ko) * 2007-09-24 2023-07-25 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US20110047459A1 (en) * 2007-10-08 2011-02-24 Willem Morkel Van Der Westhuizen User interface
US8933892B2 (en) * 2007-11-19 2015-01-13 Cirque Corporation Touchpad combined with a display and having proximity and touch sensing capabilities to enable different functions or interfaces to be displayed
US7971497B2 (en) * 2007-11-26 2011-07-05 Air Products And Chemicals, Inc. Devices and methods for performing inspections, repairs, and/or other operations within vessels
US9767681B2 (en) * 2007-12-12 2017-09-19 Apple Inc. Handheld electronic devices with remote control functionality and gesture recognition
TW200943062A (en) * 2008-04-10 2009-10-16 Inventec Corp Apparatus and method for automatically performing system configuration
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
JP4966292B2 (ja) * 2008-12-25 2012-07-04 株式会社東芝 情報処理装置および冷却性能判定方法
US20100164878A1 (en) * 2008-12-31 2010-07-01 Nokia Corporation Touch-click keypad
US8698741B1 (en) * 2009-01-16 2014-04-15 Fresenius Medical Care Holdings, Inc. Methods and apparatus for medical device cursor control and touchpad-based navigation
US8836648B2 (en) * 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
CN101963840B (zh) * 2009-07-22 2015-03-18 罗技欧洲公司 用于远程、虚拟屏幕输入的系统和方法
US9551590B2 (en) * 2009-08-28 2017-01-24 Robert Bosch Gmbh Gesture-based information and command entry for motor vehicle
US20110260976A1 (en) * 2010-04-21 2011-10-27 Microsoft Corporation Tactile overlay for virtual keyboard
HK1147905A2 (en) * 2010-06-30 2011-08-19 Chi Ching Lee System and method for virtual touch sensing
US20120001923A1 (en) * 2010-07-03 2012-01-05 Sara Weinzimmer Sound-enhanced ebook with sound events triggered by reader progress
US8432301B2 (en) * 2010-08-10 2013-04-30 Mckesson Financial Holdings Gesture-enabled keyboard and associated apparatus and computer-readable storage medium
US8624837B1 (en) * 2011-03-28 2014-01-07 Google Inc. Methods and apparatus related to a scratch pad region of a computing device
US9086794B2 (en) * 2011-07-14 2015-07-21 Microsoft Technology Licensing, Llc Determining gestures on context based menus
US9257098B2 (en) * 2011-12-23 2016-02-09 Nokia Technologies Oy Apparatus and methods for displaying second content in response to user inputs
CN104137026B (zh) * 2011-12-30 2017-05-10 英特尔公司 用于制图识别的方法、装置和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000021023A1 (en) * 1998-10-07 2000-04-13 Intel Corporation Controlling a pointer using digital video
CN101014924A (zh) * 2004-08-25 2007-08-08 苹果电脑有限公司 便携式计算机上的宽触摸板
US20070125633A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for activating a touchless control
US20070130547A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
US20080055247A1 (en) * 2006-09-05 2008-03-06 Marc Boillot Method and Apparatus for Touchless Calibration

Also Published As

Publication number Publication date
US20140253438A1 (en) 2014-09-11
WO2013095602A1 (en) 2013-06-27
GB201410950D0 (en) 2014-08-06
TW201327279A (zh) 2013-07-01
DE112011105888T5 (de) 2014-09-11
GB2511976A (en) 2014-09-17
TWI468989B (zh) 2015-01-11

Similar Documents

Publication Publication Date Title
US9207806B2 (en) Creating a virtual mouse input device
US8386963B2 (en) Virtual inking using gesture recognition
US20140075302A1 (en) Electronic apparatus and handwritten document processing method
EP2770423A2 (en) Method and apparatus for operating object in user device
US20140059428A1 (en) Portable device and guide information provision method thereof
CN104137034A (zh) 基于手势位置的输入模式
KR20140033839A (ko) 터치스크린을 구비한 단말에서 한 손을 이용한 사용자 인터페이스 방법 및 장치
US20130212511A1 (en) Apparatus and method for guiding handwriting input for handwriting recognition
US20110043463A1 (en) Apparatus and method for providing gui interacting according to recognized user approach
TW201203037A (en) Touch controlled electric apparatus and control method thereof
CN103535019A (zh) 图像的感兴趣区域
US8947378B2 (en) Portable electronic apparatus and touch sensing method
CN105074631A (zh) 基于预测输入的便携式计算设备的输入
US8948514B2 (en) Electronic device and method for processing handwritten document
EP2799970A1 (en) Touch screen panel display and touch key input system
CN103999019A (zh) 基于手势的输入命令
CN103593085B (zh) 使用第一触摸接口和第二触摸接口来检测触摸事件
KR20140009687A (ko) 매크로 기능을 이용하는 복합 입력 처리 방법 및 장치
US10521108B2 (en) Electronic apparatus for detecting touch, method of controlling the same, and display apparatus including touch controller
CN104375697A (zh) 一种移动设备
US20140111435A1 (en) Cursor control device and method using the same to launch a swipe menu of an operating system
CN104375698A (zh) 一种触控设备
CN102467297A (zh) 具文本输入功能的电子装置及方法
US20140035876A1 (en) Command of a Computing Device
CN104375639A (zh) 一种空中感应设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20140820

RJ01 Rejection of invention patent application after publication