CN102203701A - 接近界面设备、系统和方法 - Google Patents

接近界面设备、系统和方法 Download PDF

Info

Publication number
CN102203701A
CN102203701A CN2009801429505A CN200980142950A CN102203701A CN 102203701 A CN102203701 A CN 102203701A CN 2009801429505 A CN2009801429505 A CN 2009801429505A CN 200980142950 A CN200980142950 A CN 200980142950A CN 102203701 A CN102203701 A CN 102203701A
Authority
CN
China
Prior art keywords
display screen
rank
detection area
user interface
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2009801429505A
Other languages
English (en)
Inventor
克里斯托弗·T·弗雷泽
布莱恩·F·罗伯茨
乔治·M·希加
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Verizon Services Organization Inc
Verizon Patent and Licensing Inc
Original Assignee
Verizon Services Organization Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Verizon Services Organization Inc filed Critical Verizon Services Organization Inc
Publication of CN102203701A publication Critical patent/CN102203701A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0445Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using two or more layers of sensing electrodes, e.g. using two layers of electrodes separated by a dielectric layer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

在特定的示例性实施例中,保持用于表示接近试探的数据,所述接近试探指定与显示屏幕相关联的物体检测区域的多个级别;在所述物体检测区域内检测物体;基于所述物体的至少一个属性来选择所述级别中的一个;以及,执行与所选级别相关联的行为。在特定示例中,该行为包括:修改在显示屏幕上显示的图形用户界面视图。

Description

接近界面设备、系统和方法
相关申请的交叉引用
本申请要求在2008年10月27日提交的美国专利申请No.12/258,691的优先权,通过引用,将其相应地整体包含在此。
技术领域
背景技术
电子装置持续地在复杂性和功能上不断进步。这对于这样的装置的设计者造成若干的挑战。例如,设计者可能难以开发和提供用于特定电子装置的直观的、功能性的和方便的用户界面,特别是对于在尺寸上较小、具有有限的输入机制并且/或者具有鲁棒功能的装置更是如此。
发明内容
附图说明
附图图示各个实施例,并且其是说明书的一部分。所图示的实施例仅是示例,并且不限制本公开的范围。在全部附图中,相同或类似的附图标记指示相同或类似的元件。
图1图示接近界面系统。
图2图示其中实现了图1的系统的示例性装置。
图3A图示与显示屏幕相关联的一个示例性物体检测区域的透视图。
图3B图示与显示屏幕相关联的另一个示例性物体检测区域的透视图。
图3C图示与显示屏幕相关联的多个示例性物体检测区域的透视图。
图3D图示位于图3B的物体检测区域内的物体的透视图。
图4图示示例性电容传感器。
图5图示与物体检测区域相关联的示例性距离级别的横截面侧视图。
图6图示与物体检测区域相关联的示例性速度级别。
图7A-7D图示可以在显示屏幕上显示的示例性图形用户界面(“GUI”)视图。
图8A-8C图示与显示屏幕相关联的另一个示例性物体检测区域和与示例性物体检测区域相关的物体的各种位置。
图9图示示例性的接近界面方法。
具体实施方式
在此描述了示例性接近界面设备、系统和方法。在特定的示例性实施例中,保持用于表示接近试探(proximity heuristic)的数据,该接近试探指定与显示屏幕相关联的物体检测区域的多个级别,在物体检测区域内检测物体,并且基于物体的至少一个属性来选择级别之一,并且执行与所选择的级别相关联的行为。在特定示例中,该行为包括:修改在显示屏幕上显示的图形用户界面视图。下面描述接近试探、物体检测区域、与物体检测区域相关联的级别、位于物体检测区域内的物体的属性和与物体检测区域的级别相关联的行为的示例。
在此所述的示例性接近界面设备、系统和方法可以促进直观的、功能性的和/或鲁棒的用户界面。这样的接近界面可以允许装置的用户通过在与显示屏幕相关联的物体检测区域内定位和/或移动物体(例如,手指或拇指)来控制在显示屏幕上的图形用户界面视图的显示。在特定实施例中,物体检测区域可以与显示屏幕相邻(例如,物体检测区域可以包括接近显示屏幕并且从显示屏幕延伸出但是不包括显示屏幕的体积空间),使得位于接近显示屏幕和/或移动接近显示屏幕的物体可以控制在显示屏幕上的图形用户界面视图的显示,而使得物体不物理地接触显示屏幕。在特定的其他实施例中,物体检测区域可以包括在显示屏幕上的区域空间,使得接触或位于显示屏幕上的物体可以控制在显示屏幕上的图形用户界面视图的显示。
现在,将参考附图更详细地描述接近界面设备、系统和方法的示例性实施例。
图1图示示例性接近界面系统100(或简称为“系统100”)。如图1中所示,系统100可以包括彼此可通信地连接的通信设备110、处理设备120、存储设备130、应用设备140、用户界面设备150、和接近界面设备160。可以使用任何适当的技术来可通信地连接设备110-160,并且设备110-160可以使用适合于在设备110-160之间传送通信、数据和/或信号的任何通信平台和/或技术来进行通信。
在一些示例中,系统100可以包括被配置来执行在此所述的处理的一个或多个的任何计算硬件和/或指令(例如,软件程序)或计算指令和硬件的组合。具体地说,应当明白,系统100或系统100的部件可以被实现在一个物理计算装置上,或可以被实现在多于一个的物理计算装置上。因此,系统100可以包括任何数量的计算装置,并且可以使用任何数量的计算机操作系统。
在此所述的一个或多个处理可以至少部分地被实现为在计算机可读介质中确实包含的计算机可执行指令,即,由一个或多个计算装置可执行的指令。通常,处理器(例如,微处理器)从例如存储器、计算机可读介质等中接收指令,并且执行那些指令,由此执行一个或多个处理,包括在此所述的一个或多个处理。可以使用多种已知的计算机可读介质来存储和发送这样的指令。
计算机可读介质(也称为处理器可读介质)包括参与提供可以被计算机(例如,被计算机的处理器)读取的数据(例如,指令)的任何介质。这样的介质可以采取许多形式,包括但是不限于非易失性介质、易失性介质、和传输介质。非易失性介质可以例如包括光盘或磁盘和其他永久存储器。易失性介质可以包括例如动态随机存取存储器(“DRAM”),其中,DRAM通常构成主存储器。传输介质可以包括例如同轴电缆、铜线、和光纤,其包括导线,该导线包括耦合到处理器或计算机的系统总线。传输介质可以包括或传送诸如在射频(“RF”)和红外线(“IR”)数据通信期间产生的声波、光波、和电磁辐射。计算机可读介质的常见形式例如包括软盘、软磁盘、硬盘、磁带、任何其他磁介质、CD-ROM、DVD、任何其他光学介质、穿孔卡、纸带、具有孔的图案的任何其他物理介质、RAM、PROM、EPROM、快闪EEPROM、任何其他存储芯片或盒、或计算装置可以读取的任何其他介质。
因此,设备110-160的每一个可以被实现为被配置来执行在此所述的一个或多个处理的硬件、在计算机可读介质上确实包含的计算指令(例如,软件)、或硬件和确实包含的计算指令的组合。在特定实施例中,例如,接近界面设备160和/或一个或多个其他设备可以被实现为一个或多个软件应用,该一个或多个软件应用被包含在诸如存储设备130或其他存储器的计算机可读介质上,并且被配置来引导处理设备120执行在此所述的一个或多个处理。
在图1中所示的系统100的部件仅是说明性的。其他实施例可以增加、省略、或重新配置一个或多个部件。在特定实施例中,例如,可以省略通信设备110。
可以将系统100实现为可适合于特定应用。图2图示其上实现了系统100的示例性装置200。装置200可以包括在图1中所示的设备110-160的一个或多个,并且可以被配置来执行在此所述的处理和/或操作的一个或多个。装置200可以包括但是不限于移动装置(例如,移动电话装置)、介质装置、手持装置、计算机、游戏装置、电话装置(例如,Verizon集线器装置)、通信装置、导航装置、娱乐装置、汽车装置、个人数字助理、数字照像机、和其中实现了系统100的一个或多个部件的任何其他装置。
装置200可以包括显示屏幕220,显示屏幕220被配置来显示要由装置200的用户观看的一个或多个图形用户界面(“GUI”)。显示屏幕220可以被包括在用户界面设备150中,如下进一步所述。在特定实施例中,显示屏幕可以包括被配置来感测触摸输入的触摸屏显示器。触摸屏显示器可以使用单个触摸和/或多个触摸触摸屏技术。下面进一步详细描述可以在显示屏幕220上显示的GUI和各种GUI视图的示例。装置200也可以包括输入装置,诸如在图2中所示的输入按钮230的一个或多个。
现在更详细地描述在图1中所示的设备110-160的每一个。
通信设备110可以被配置来向/从一个或多个外部装置(例如,服务器)发送和/或接收通信。通信设备110可以包括和/或使用适合于发送和接收通信信号和数据的任何装置、逻辑、通信介质、通信协议和/或其他技术。这样的通信技术、装置、介质、和协议的示例包括但是不限于数据传输介质、通信装置、传输控制协议(“TCP”)、因特网协议(“IP”)、文件传送协议(“FTP”)、远程登录协议(Telnet)、超文本传送协议(“HTTP”)、超文本传送协议安全(“HTTPS”)、会话发起协议(“SIP”)、简单物体访问协议(“SOAP”)、可扩展标记语言(“XML”)及其各种变化、简单邮件传送协议(“SMTP”)、实时传送协议(“RTP”)、用户数据报协议(“UDP”)、全球移动通信系统(“GSM”)技术、码分多址(“CDMA”)技术、时分多址(“TDMA”)技术、短消息服务(“SMS”)、多媒体消息服务(“MMS”)、演进数据优化协议(“EVDO”)、射频(“RF”)信令技术、信令系统7(“SS7”)技术、以太网、带内和带外信令技术、光纤到户(“FTTP”)技术、无源光网络(“PON”)技术、和其他适当的通信网络和技术。
处理设备120可以包括一个或多个处理器,并且可以被配置来执行和/或引导在此所述的一个或多个处理或操作的执行。处理设备120可以根据例如可以在存储设备130或另一种计算机可读介质中存储的计算机可执行指令来引导操作的执行。例如,处理设备120可以被配置来处理数据,包括解调、解码和分析所获取的数据以及编码和调制数据以由通信设备110发送。
存储设备130可以包括一个或多个数据存储介质、装置、或配置,并且可以使用任何类型、形式、和组合的存储介质。例如,存储设备130可以包括但是不限于硬盘驱动器、网络驱动器、快闪驱动器、磁盘、光盘、随机存取存储器(“RAM”)、动态RAM(“DRAM”)、其他非易失性和/或易失性存储单元、或其组合或子组合。电子数据(例如,用于表示接近试探的数据)可以被暂时和/或永久地存储在存储设备130中。
应用设备140可以包括被配置来执行一个或多个应用的硬件、软件和/或固件的任何组合。在特定实施例中,应用设备140包括至少一个软件应用,该至少一个软件应用被确实地包含在计算机可读介质上,并且被配置来引导处理设备120执行一个或多个应用操作。这样的应用的示例可以包括但是不限于介质播放器应用、介质内容处理应用、菜单应用、图像查看器应用(例如,三维图像查看器应用)和通信应用(例如,电话、消息传送和/或万维网浏览器应用)。
用户界面设备150可以被配置来向用户提供输出。例如,用户界面设备150可以包括被配置来显示要由用户观看的GUI的一个或多个部件。用户界面设备150可以使用任何适当的显示部件和技术,包括显示屏幕220和一个或多个显示屏幕驱动器。在附图中图示并且下面进一步描述可以在用户界面设备150的显示屏幕220上显示的示例性GUI视图。
用户界面设备150可以被配置来从用户接收输入。如上所述,在特定实施例中,用户界面设备150可以包括被配置来接收用户输入的一个或多个触摸屏部件。用户界面设备150可以使用任何适当的触摸屏部件和技术。例如,用户界面设备150可以包括具有一个或多个传感器的触摸屏,该一个或多个传感器被配置来感测触摸触摸的表面的一个或多个物体。可以以任何适当的方式并且使用任何适当的传感器技术来感测在触摸屏上的物体触摸,该传感器技术例如包括电容、热和/或光学传感器技术。
在特定实施例中,用户界面设备150可以包括显示部件和触摸屏部件的组合。例如,用户界面设备150可以包括触摸屏显示器,该触摸屏显示器被配置来同时显示GUI,并且感测在触摸屏显示器的表面上的一个或多个物体触摸。
用户界面设备150可以被配置来与应用设备140交互。例如,用户界面设备150可以向/从应用设备140发送和接收数据和/或信号,包括提供用于表示所感测的用户输入的数据信号,和接收用于表示用户输出的数据信号。例如,用户界面设备150可以从应用设备140接收GUI数据,并且基于GUI数据来产生和显示GUI。用户界面设备150也可以向应用设备140提供用于表示所感测的用户输入的数据,以由一个或多个应用使用。
接近界面设备160可以被配置来检测位于与显示屏幕220相关联的物体检测区域内的物体。在特定实施例中,物体检测区域可以包括接近显示屏幕220的空间。图3A图示与显示屏幕220相邻但是不包括显示屏幕220的示例性物体检测区域310-1。如所示,物体检测区域310-1可以包括接近显示屏幕220的表面并且从该表面延伸出的体积空间。在所图示的示例中,物体检测区域310-1包括大致为三维的矩形空间,该空间被虚线限定,并且接近显示屏幕220的表面。
可以参考坐标系统320来限定和/或描述物体检测区域310-1,坐标系统320具有可以如图3A中所示定位的方向轴“X”、“Y”和“Z”。如所示,显示屏幕220的表面可以位于X-Y平面内,并且物体检测区域310-1可以包括X-Y平面区域,该X-Y平面区域具有大致对应于显示屏幕220的表面面积的大小,并且在Z轴方向上从显示屏幕220延伸特定距离,以产生如图3A中所示的体积空间。坐标系统320可以用于限定、确定和/或描述位于物体检测区域310内的物体的位置和/或一个或多个其他属性。
在特定实施例中,物体检测区域310-1不包括显示屏幕220的表面。在这样的实施例中,接近界面设备160可以被配置来与用户界面设备150交互,使得系统100可以接收和映射不同类型的用户输入。例如,接近界面设备160可以被配置来检测位于物体检测区域310-1内的物体,并且从所检测的接近物体识别基于接近的用户输入。作为补充或替代,用户界面设备150的一个或多个触摸屏部件可以被配置来检测触摸显示屏幕220的表面的物体,并且从所检测的触摸显示屏幕220的物体识别基于触摸的用户输入。在特定示例中,可以将一种类型的用户输入优先于另一种类型的用户输入。例如,在一些实施方式中,可以将基于触摸的用户输入优先于基于接近的用户输入。
如所示,物体检测区域310-1的大小分量(例如,物体检测区域310-1的X-Y平面面积)可以大致与显示屏幕220的大小(例如,表面面积)对应。因此,基本上垂直于在显示屏幕220的表面上的特定位置的在物体检测区域310-1内的物体的定位可以被接近界面设备160检测到对应于那个位置。
在图3A中所示的示例性物体检测区域310-1仅是说明性的。可以在其他实施例中使用具有不同形状、大小、方向和/或其他参数和/或与显示屏幕220的关联的其他物体检测区域。图3B图示接近显示屏幕220的另一个示例性物体检测区域310-2的透视图。如图3B中所示,物体检测区域310-2可以接近显示屏幕220的一部分并且从该部分延伸出。以这种或类似的方式,物体检测区域310-2可以与显示屏幕220的特定部分相关联。例如,在显示屏幕220上显示的GUI可以包括图形325(例如,文件夹、文件、或菜单项目图标)。所显示的图形325可以仅占用显示屏幕220的一部分,物体检测区域310-2可以接近显示图形325的显示屏幕220的一部分并且从该部分延伸出。
在特定实施例中,多个物体检测区域可以与显示屏幕220相关联。例如,物体检测区域可以与显示屏幕220的不同区域部分相关联。图3C图示接近但是不包括显示屏幕220的不同区域部分的物体检测区域210-2和另一个物体检测区域310-3。图3C进一步图示示例性图形325-1和325-2,示例性图形325-1和325-2可以被显示在显示屏幕220上,并且分别与物体检测区域310-2和310-3分别相关联。
虽然在图3A-3C中图示各种物体检测区域和物体检测区域的配置,但是该示例仅是说明性的。可以在其他实施例中使用其他物体检测区域和/或物体检测区域的配置。例如,取代三维矩形物体检测区域,可以使用具有半球形状的物体检测区域。诸如在图3A-3C中图示的那些的物体检测区域一般可以被称为“物体检测区域310”。
图3D图示位于图3B的物体检测区域310-2内的物体330的透视图。在图3D中所示的示例中,物体330包括人手指。这仅是说明性的,并且不在任何意义上进行限制。可以使用可以被位于物体检测区域310内的接近界面设备160检测到的任何物体。例如,物体330可以包括人手指或拇指、指示笔或可以位于在物体检测区域310内并且被在物体检测区域310内的接近界面设备160检测到的任何其他确实物体。如在此使用的,在物体检测区域310内的物体330的检测可以包括如图3D中所示的位于物体检测区域310内的物体330的检测和/或对进入物体检测区域310或从物体检测区域310退出的物体330的检测。
可以使用任何适当的方式并且使用任何适当的技术来检测位于物体检测区域310内的物体330。例如,用户界面150和/或接近界面设备160可以包括被配置来感测位于物体检测区域310内的物体330的一个或多个传感器。在特定实施例中,物体检测区域310的形状可以被传感器的一个或多个检测能力(例如,检测范围)限定。
可以使用适合于感测物体330的传感器和/或其他部件的任何类型和配置。这样的部件的示例可以包括,但是不限于一个或多个电容传感器、光学传感器、热传感器、电磁信号发射器和/或传感器(例如,红外线传感器)、其他适当传感器、或上面部件的任何组合或子组合。
在特定实施例中,接近界面设备160可以包括被配置来检测位于物体检测区域310内的一个或多个类型的物体330(例如,人手指或拇指)多个红外线传感器。红外线传感器可以包括无源红外线传感器、有源红外线发射器和传感器、或其组合。对于有源红外线感测,接近界面设备160可以包括被配置来投射物体检测区域310或场的一个或多个红外线信号发射器。当物体330进入或位于由红外线信号发射器投射的红外线场内时,一个或多个红外线传感器可以检测位于该场内的物体330。
作为替代或补充,在特定的其他实施例中,可以使用一个或多个电容传感器来检测在物体检测区域310内的物体330。图4示出可以用于检测位于物体检测区域310内的物体330的示例性电容传感器400。电容传感器400可以包括被配置来作为保护表面的塑料盖410。传感器400也可以包括发射器420和接收器430。发射器420和接收器430可以每一个都包括在印刷电路板(“PCB”)的层上形成的金属迹线(或其他导电迹线)。激励信号路径440可以连接到发射器420,使得在发射器420和接收器430之间形成电场450。电场450可以基本上集中在发射器420和接收器430之间。电容至数字转换器460可以测量电场450的强度。
传感器400可以被配置使得边际电场470可以从发射器420延伸到PCB外部,并且返回在接收器430终止,使得边际电场470位于传感器400的塑料盖410表面上。当物体330(例如,人手指或拇指)与边际电场470相交时,电场450的一部分分流到地480而不是在接收器430终止。结果导致的在电容上的减小可以被电容至数字转换器460检测,并且可以指示在物体检测区域310内的物体330。
可以基于特定的预定调整来将电容传感器400的灵敏度设置在较高或较低的水平,以可适合于特定实施方式。相比于当将灵敏度设置在较低水平时,较高的灵敏度水平可以用于检测相距传感器400的表面更远的物体330。在特定示例中,可以通过一个或多个电容传感器400的灵敏度来确定物体检测区域310的大小(例如,深度)。
可以将传感器配置为可以适合于特定的实施方式。在特定示例中,多个传感器可以被布置来形成与显示屏幕220相关联的传感器的网格。传感器网格可以位于大致平行于显示屏幕220的表面的平面(例如,X-Y平面)内。这样的网格可以有助于确定在物体检测区域310内的物体330的位置。可以基于坐标系统320来识别该位置。在特定实施例中,例如,可以至少部分地基于由一个或多个传感器的获取的数据(在此称为“传感器数据”)来确定物体330的坐标位置,或至少与物体330的位置相关联的特定坐标值。
接近界面设备160可以被配置来保持接近试探,该接近试探可以被配置来引导对在物体检测区域310内的物体330的检测的解释和对该检测的反应。用于表示接近试探的数据可以被存储在诸如存储设备130的计算机可读介质中,并且可以被配置来引导由处理设备120和/或接近界面设备160执行的一个或多个操作。
该接近试探可以指定用于基于传感器数据来确定所检测的物体330的一个或多个属性的一个或多个规则。物体属性可以包括物体330的任何属性,包括但是不限于物体330的位置、速度、方向、取向、与显示屏幕220的距离、与在显示屏幕220上的特定位置(例如,其中显示图形的区域)的距离、轨迹、和/或形状。可以以任何适当方式并且根据接近试探来确定这样的属性。
例如,响应于在物体检测区域310内物体330的检测,接近界面设备160可以分析与物体330相关联的传感器数据,以根据接近试探来确定物体330的一个或多个属性。例如,接近试探可以指定一个或多个形状图案,并且接近界面设备160可以被配置来将传感器数据与形状图案作比较,以识别物体330的形状。在一些示例中,形状图案可以指定例如,人手指或拇指典型的数据,并且可以将传感器数据与这样的形状图案作比较,以确定所检测的物体330是否可以具有人手指或拇指形状。
对物体330的形状的识别可以有益于确定物体330的一个或多个其他属性。例如,接近界面设备160从所识别的形状中可以确定物体330的取向,诸如人手指或拇指以什么方式取向。又如,对物体形状的识别可以用于识别物体330的位置。当确定物体330具有例如人手指或拇指的形状时,可以将物体330的位置确定为位于手指或拇指的尖端上的点。这个位置可以与最接近显示屏幕220的物体330的部分重合。
接近试探可以指定用于确定其他属性的一个或多个规则。例如,接近试探可以指定一个或多个等式和/或算法,该一个或多个等式和/或算法被配置来利用物体位置数据来计算物体330相距显示屏幕220和/或与在显示屏幕220上的特定点或区域的距离。在特定示例中,与显示屏幕220的距离可以被设置为与物体330的位置的坐标相关联的z轴值。在其他示例中,两个位置的位置坐标可以用于计算在位置之间的距离。可以在其他实施例中使用其他适当的距离等式和/或算法。
作为另外的示例,接近试探可以指定可以用于计算物体330的速度、方向、加速度和/或轨迹的一个或多个等式和/或算法。因此,接近界面设备160可以被配置来计算物体330的这样的属性。在特定示例中,接近界面设备160可以被配置来随着时间记录与物体330相关联的数据。包括时间数据的所记录的数据可以用于确定物体属性,诸如物体速度、方向和/或轨迹。接近界面设备160可以被配置来使用一个或多个这些物体属性来预测物体330可能去往的目标(例如,显示屏幕220的特定区域)。
接近试探可以指定与物体检测区域310相关联的多个级别。该级别可以包括与一个或多个物体属性相关联的预定义阈值和/或范围。例如,特定的示例性级别可以包括与物体330的位置和/或距离属性相关联的距离级别、与物体330的位置属性相关联的位置级别、与物体330的速度属性相关联的速度级别、与物体330的轨迹属性相关联的轨迹级别、与物体330的加速度属性相关联的加速度级别、与物体330的属性的组合相关联的组合级别、和与物体330的一个或多个属性相关联的任何其他类型的级别。
接近试探可以进一步指定在物体检测区域310的级别中的每一个和一个或多个行为之间的一个或多个关联。如下面进一步详细所述,响应于在物体检测区域310内的物体330的检测,接近界面设备160可以基于物体330的至少一个属性来选择多个级别之一,并且启动与所选择的级别相关联的行为的性能。
为了帮助促进理解可以通过接近试探来指定的级别和相关联的行为,图5图示示例性物体检测区域310的横截面侧视图和与物体检测区域310相关联的多个距离级别510-1至510-5(统称为“距离级别510”)。图5的横截面侧视图示出物体检测区域310的示例性X-Z平面视图。
在所图示的示例中,多个距离级别510包括多个距离间隔。每一个距离间隔可以包括一个距离范围,诸如沿着Z轴测量的相距显示屏幕220的距离范围。例如,距离级别510-1可以包括相距显示屏幕220的表面的第一距离范围,距离级别510-2可以包括相距显示屏幕220的表面的第二距离范围,距离级别510-3可以包括相距显示屏幕220的表面的第三距离范围,距离级别510-4可以包括相距显示屏幕220的表面的第四距离范围,距离级别510-5可以包括相距显示屏幕220的表面的第五距离范围。在图5中所示的示例性距离级别510仅是说明性的。可以在其他实施方式中定义其他距离级别510。例如,作为包括距离范围的距离级别510的每一个的替代形式,每一个距离级别510可以包括与相距显示屏幕220的距离对应的离散距离值。
距离级别510的每一个可以与由接近试探指定的一个或多个行为(例如,行为520-1至520-5,在此统称为“行为520”)相关联。在图5中所示的示例中,距离级别510-1与第一行为520-1相关联,距离级别510-2与第二行为520-2相关联,距离级别510-3与第三行为520-3相关联,距离级别510-4与第四行为520-4相关联,并且距离级别510-5与第五行为520-5相关联。
响应于在物体检测区域310内的物体330的检测,在特定实施方式中,接近界面设备160可以确定诸如物体330相距显示屏幕220的距离的物体属性,基于物体330相距显示屏幕220的距离来选择由接近试探指定的距离级别510之一,并且启动与所选择的距离级别510相关联的由接近试探指定的行为520的执行。例如,可以在距离级别510-5内的位置检测物体330。作为响应,接近界面设备160可以基于物体330相距显示屏幕220的距离来选择距离级别510-5,并且根据接近试探来启动行为520-5的执行。
可以随后检测对于物体330的属性的改变。例如,物体330可以移动到在物体检测区域310内的另一个位置。新位置可以与前一个位置相距显示屏幕220不同的距离,并且可以落在不同的距离级别510-4内。因此,接近界面设备160可以基于新的物体位置来选择距离级别510-4,并且根据接近试探来启动行为520-4的执行。当在距离级别510-3、510-2或510-1内的位置检测到物体330时,接近界面设备160可以类似地操作。因此,可以选择适当的距离级别510,并且可以基于物体330相距显示屏幕220的距离并且根据由接近试探指定的一个或多个规则来识别和执行相关联的行为520。当物体330从一个距离级别510向另一个距离级别510移动时,可以对于每一个距离级别510执行不同的行为。
图6图示在其他实施例中由接近试探可以指定的另一种类型的级别。具体地说,图6图示示例性物体检测区域310和与其相关联的多个速度级别(例如,速度级别610-1至610-5,在此统称为“速度级别610”)。在所图示的示例中,多个速度级别610包括多个速度间隔。每个速度间隔可以包括一个速度范围,诸如物体330可以在Z轴方向上向显示屏幕220移动的速度范围。例如,速度级别610-1可以包括第一速度范围值,速度级别610-2可以包括第二速度范围值,速度级别610-3可以包括第三速度范围值,速度级别610-4可以包括第四速度范围值,速度级别610-5可以包括第五速度范围值。在图6中所示的示例性速度级别610仅是示例性的。可以在其他实施方式中定义其他速度级别610。例如,作为对于速度范围的替代形式,在特定实施方式中,每一个速度级别610可以包括离散速度值。
在图6中所示的速度级别610的每一个可以与由接近试探指定的一个或多个行为(例如,行为620-1至620-6,在此统称为“行为620”)相关联。在图6中所示的示例中,速度级别610-1与行为620-1相关联,速度级别610-2与行为620-2相关联,速度级别610-3与行为620-3相关联,速度级别610-4与行为620-4相关联,并且速度级别610-5与行为620-5相关联。
物体330向显示屏幕220移动的速度可能落在由接近试探指定的速度级别610之一内,并且,可以基于所确定的物体330的速度来识别和执行与速度级别610相关联的特定的行为620。例如,可以将物体330确定为以特定速度向显示屏幕220移动。接近界面设备160可以基于物体330的速度来选择速度级别610之一(例如,速度级别610-3),并且启动对应的行为620(例如,行为620-3)的执行。以这种或类似的方式,可以选择速度级别610,并且可以基于物体330的速度来识别和执行对应的行为。
虽然已经上述了与物体检测区域310相关联的示例性距离级别510和速度级别610,但是这些示例是说明性的,并且不在任何意义上进行限制。在其他实施例中,通过接近试探可以指定其他级别、级别的类型和/或级别的配置。其他级别和/或级别的类型的示例可以包括,但是不限于物体轨迹级别(例如,物体330可以相对于显示屏幕220的表面移动的轨迹的级别)、与物体330相距显示屏幕220上的特定位置(例如,在显示屏幕220上显示的图形的位置)的距离相关联的距离级别、与物体330的加速度相关联的加速度级别、与在物体检测区域310内的物体330的位置相关联的位置级别、和在一个或多个其他方向上(例如,在X-Y平面内的方向上)的物体的速度级别。
在特定实施例中,接近试探可以指定可以与如上所述的级别的任何一种的组合或子组合相关联的级别的组合。为了说明,可以组合距离级别510和速度级别610,以确定要执行的一个或多个行为。例如,多个距离级别510的每一个可以与多个速度级别610相关联。接近界面设备160可以被配置来识别与所检测的物体330相关联的距离级别510和速度级别610,并且基于所识别的距离级别510和速度级别610来启动行为。因此,以特定速度移动的物体330当位于一个距离级别510内时可以触发与当以相同的速度在另一个距离级别510内移动时不同的行为。类似地,以特定速度在距离级别510内移动的物体330可以触发与以另一个速度在同一距离级别510内移动的物体330不同的行为。
如上所述,与物体检测区域310相关联的级别可以与由接近试探指定的一个或多个行为相关联。在特定实施例中,特定类型的级别可以与特定类型的行为相关联。例如,在特定实施方式中,距离级别510可以分别与一种类型的行为(例如,在显示屏幕220上显示特定信息或信息的类型)相关联,并且,速度级别610可以与另一个类型的行为(例如,显示特定级别或数量的细节或信息)相关联。例如,较慢的速度级别可以与用于在显示屏幕220显示大量细节的行为相关联,并且较高的速度级别可以与用于在显示屏幕220上显示少量的细节的行为相关联。类似地,与较大的距离相关联的距离级别510可以与用于在显示屏幕220上显示一种类型的信息(例如,基本信息)的行为相关联,并且,与较短的距离相关联的另一个距离级别可以与用于在显示屏幕220上显示另一种类型的信息(例如,上下文信息)的行为相关联。可以在其他实施方式中使用在行为和级别之间和/或在行为的类型和级别的类型之间的其他关联。
现在描述可以通过接近试探与物体检测区域310的级别相关联的示例性行为。可以使用任何适当的行为。在特定实施例中,行为可以包括修改在显示屏幕220上显示的GUI视图。修改可以包括:改变一个或多个GUI元素,诸如在GUI视图中包括的一个或多个图形。这样的修改的示例可以包括但是不限于:向GUI增加另外的元素;从GUI去除元素;改变在GUI中的细节数量;在GUI中显示另外的信息;在GUI中显示一种类型的信息;改变GUI的大小和/或在GUI中的元素;改变GUI视图和/或GUI元素的分辨率;加亮GUI元素;改变GUI元素的密度、颜色、色调、饱和度、取向、亮度、视角、内容或其他属性;移动GUI元素;旋转GUI元素;缩小或放大GUI元素和/或视图;以及,可以对于GUI视图和/或元素执行的任何其他行为。
在特定实施例中,行为可以包括以不同程度执行的行为。例如,第一行为可以包括:将GUI元素的分辨率改变为特定值,第二行为可以包括将GUI元素的分辨率改变为另一个值。因此,与物体检测区域310相关联的级别可以与不同程度的行为相关联。例如,距离级别510-5的选择可以触发将GUI元素的分辨率修改为特定值,另一个距离级别510-3的选择可以触发将GUI元素的分辨率修改为另一个值。因此,当物体330通过不同的距离级别510更接近显示屏幕220时,可以不同程度地改变在显示屏幕220上显示的GUI元素的分辨率。
为了帮助促进理解与物体检测区域310的级别相关联的示例性行为,图7A-7D图示可以在显示屏幕220上显示的示例性GUI视图。图7A图示包括用于表示图像文件(例如,照片)的库的多个图形710和对应的文件名的GUI视图。响应于检测到位于物体检测区域310内的物体330,接近界面设备160可以确定物体330的属性,基于物体330的属性来选择与物体检测区域310相关联的多个级别之一,并且启动与所选择的级别相关联的行为的执行。该行为可以包括:以如上所述的任何方式来修改在图7A中所示的GUI视图。例如,图7B图示另一个GUI视图,其中,已经放大和重新定位特定的一些图形710,并且已经从GUI视图去除了其他的图形710。图7B可以表示在图7A的GUI视图上执行了包括放大的行为后的GUI视图。
如果随后检测到对于物体330的属性的改变,并且基于物体330的改变的属性而选择另一个级别,则可以执行通过接近试探而与其他级别相关联的行为。例如,图7C图示另一个GUI视图,其中,已经再一次放大和重新定位特定的一些图形710,并且已经从GUI视图去除了其他图形710。图7C可以表示在图7B的GUI视图上再一次执行通过进一步放大而修改GUI视图的行为后的GUI视图。图7C进一步图示在通过增加另外的信息和/或细节而进一步修改GUI视图的行为的执行后的GUI视图。在所图示的示例中,该另外的信息是与在GUI视图中表示的图像文件的每一个相关联的日期(例如,建立日期)。
例如,物体330可能在物体检测区域310内的位置被检测到,并且与由接近试探指定的距离级别510-5相关联。作为响应,可以修改在图7A中所示的GUI视图以变为在图7B中所示的GUI视图。然后,如果在与由接近试探指定的距离级别510-4相关联的位置检测到物体330,则可以将图7B中所示的GUI视图修改得变为在图7C中所示的GUI视图。以这种或类似的方式,可以基于在物体检测区域310内的物体330的移动(例如,更接近显示屏幕220的表面的物体330的移动)来修改在显示屏幕220上显示的GUI视图。
虽然图7A-7C图示修改特定GUI视图的特定类似性行为,但是该示例仅是说明性的。可以执行其他行为,包括:与物体检测区域310的级别和/或位于物体检测区域310内的物体330的一个或多个属性相关联地以其他方式修改GUI视图。例如,图7D图示了如下示例性GUI视图,该示例性GUI视图可以是在图7A中所示的GUI视图的修改版本。在这个特定示例中,在还没有修改与其他图像文件相关联的其他图形710的同时,已经放大了与特定图像文件相关联的图形710。另外,已经向在图7D中的GUI视图加上了与特定的图像文件相关联的附加信息(例如,与文件相关联的日期)。以这种或类似的方式,可以执行行为,以仅修改GUI视图中所选择的元素。例如,可以执行行为来修改在图3C中所示的与物体检测区域310-2相关联的图形325-1,并且可以执行不同的行为以修改在图3C中所示的与物体检测区域310-3相关联的图形325-2。
在特定实施例中,可以执行如上所述的示例性行为的一个或多个,以操纵在显示屏幕220上显示的一个或多个三维图形。另外,可以在物体检测区域310内移动和/或定位物体330,以便控制在GUI视图中的三维图形的显示。例如,一般在Z轴的方向上的物体330的移动可以用于对该三维图形进行放大和将该三维图形缩小(例如,物体330向显示屏幕220的移动可以用于对三维图形进行放大,并且物体330离开显示屏幕220的移动可以用于将三维图形缩小),并且,一般在X轴和/或Y轴方向上的物体330的移动可以用于使得三维对象在GUI内旋转。接近界面设备160可以被配置来响应于在物体检测区域310内的这样的移动来启动在三维物体上的旋转和缩放行为。
在特定实施例中,接近界面设备160可以被配置来识别非故意的用户输入。例如,接近试探可以被配置来将在物体检测区域310内的特定物体330识别为典型的非故意的界面交互。这样的非故意的界面交互的示例可以包括但是不限于在衣服口袋中揉搓显示屏幕220、人使用多个手指抓住显示屏幕220、在公文包中的显示屏幕220的碰撞、和物体330与物体检测区域310的任何其他非故意的交互。
系统100可以被配置来响应于非故意的用户输入而采取适当的行为。接近试探可以指定在非故意的界面交互和一个或多个行为之间的关联。因此,非故意的界面交互的检测可以触发适当的行为内,诸如忽略交互,或启动或停止输入界面和/或显示屏幕220。例如,可以响应于例如当检测到显示屏幕220位于衣服口袋或公文包中时的非故意的界面交互的检测,而接通或关断接近界面、触摸板界面、和/或显示屏幕220。以这种或类似的方式,接近界面设备160可以基于接近试探来确定何时在物体检测区域310内的物体330与非故意的用户输入相关联,并且启动适当的行为。
如上所述的实施例说明了特定的示例性接近界面。可以在其他实施例中实现其他接近界面,包括如上所述的实施例的变化形式。例如,图8A-8C图示与显示屏幕220相关联的另一个示例性物体检测区域800。与可以在显示屏幕220上显示的GUI视图相结合地示出了物体检测区域800,并且物体检测区域800包括用于表示图像文件和对应的文件名的图形710。如所示,物体检测区域800可以包括在GUI视图内和/或在显示屏幕220的表面上的区域空间。因此,物体检测区域800可以如所示位于显示屏幕220上,接近图形710。
多个距离级别810(例如,810-1至810-3)可以与物体检测区域800相关联,并且可以包括与相对于图形710的不同距离或不同距离范围对应的距离间隔。接近界面设备160可以被配置来检测位于物体检测区域800内的物体830。物体830可以包括可以通过用户输入在GUI视图中各处移动的在屏图形(例如,鼠标指示符或者光标)。接近界面设备160可以以任何适当方式来检测物体830,包括与关联于物体830的应用交互,以访问物体数据(例如,位置数据)。根据物体数据,接近界面设备160可以确定物体830的一个或多个属性,诸如物体830的位置、速度、轨迹和方向。
接近界面设备160可以基于物体830的一个或多个属性来选择与物体检测区域800相关联的距离级别810之一。例如,可以基于物体830的位置来选择距离级别810。
通过接近试探可以执行与所选择的级别相关联的行为。该行为可以包括如上所述的行为的任何一个,或任何其他适当的行为。例如,响应于物体830从在图8A中所示的位置向在图8B中所示的位置的移动,可以例如通过增大与如图8B中所示的图形710相关联的亮度和/或对比度来修改图形710。如果物体830再一次向在图8C中所示的位置移动,则可以例如通过进一步增大与如图8C中所示的图形710相关联的亮度和/或对比度来再一次修改图形710。因此,当物体830接近图形710时,可以修改图形710和/或包括图形710的GUI视图的一个或多个可视特性。
虽然以上将物体830描述为包括在屏图形,但是这仅是说明性的。在其他实施方式中,接近界面设备160可以被配置来检测接触显示屏幕220的物体检测区域800内的诸如手指的另一个物体。
图9图示示例性接近界面方法。虽然图9图示根据一个实施例的示例性步骤,但是其他实施例可以省略、增加、重新排序和/或修改在图9中所示的步骤的任何一个。
在步骤910中,保持用于指定与关联于显示屏幕的物体检测区域相关联的多个级别的接近试探。可以以如上所述的任何方式来执行步骤910,包括接近界面设备160在存储设备130中保持用于表示接近试探的数据。
在步骤920中,在物体检测区域内检测物体。可以以如上所述的任何方式并且对于如上所述的示例性物体检测区域的任何一个执行步骤920。
在步骤930中,确定物体的至少一个属性。可以以如上所述的任何方式来执行步骤930,包括接近界面设备160基于传感器数据并且根据接近试探来确定一个或多个属性。
在步骤940中,基于物体的至少一个属性来选择与物体检测区域相关联的级别之一。可以以如上所述的任何方式来执行步骤940,包括接近界面设备160根据接近试探来将属性与级别匹配。
在步骤950中,执行与所选择的级别相关联的行为。接近试探可以将该行为与所选择的级别相关联。可以以如上所述的任何方式来执行步骤950,包括接近界面设备160基于接近试探来识别行为,并且启动行为的执行。该行为可以包括但是不限于如上所述的示例性行为的任何一个。
可以重复在图9中所示的步骤的一个或多个。例如,可以检测在物体的至少一个属性上的改变,并且可以基于改变的属性来重复步骤940和950。
在前面的描述中,已经参考附图描述了各个示例性实施例。然而显然,在不偏离在所附的权利要求中给出的本发明的范围的情况下,可以对各个示例性实施例进行各种修改和改变,并且可以实现另外的实施例。例如,在此描述的一个实施例的特定特征可以与在此所述的另一个实施例的特征组合,或者被其替换。因此,应当在说明性而不是限定性意义上看待说明和附图。

Claims (24)

1.一种方法,包括:
保持用于表示接近试探的数据,所述接近试探指定与显示屏幕相关联的物体检测区域的多个级别;
在所述物体检测区域内检测物体;
基于所述物体的至少一个属性来选择所述级别中的一个级别;以及
执行与所述级别中的所述一个级别相关联的行为。
2.根据权利要求1所述的方法,其中,所述至少一个属性包括在所述物体和所述显示屏幕之间的距离,并且所述多个级别包括多个距离间隔。
3.根据权利要求1所述的方法,其中,所述至少一个属性包括所述物体的速度,并且所述多个级别包括多个速度间隔。
4.根据权利要求1所述的方法,其中,所述物体检测区域包括与所述显示屏幕相邻的体积空间。
5.根据权利要求1所述的方法,进一步包括:在所述显示屏幕上显示图形,其中,所述物体检测区域包括与在所述显示屏幕上的所述图形的位置相关联的空间。
6.根据权利要求1所述的方法,其中,所述多个级别包括多个距离级别、多个速度级别、多个轨迹级别、多个加速度级别、和多个位置级别中的至少一个。
7.根据权利要求1所述的方法,进一步包括:在所述显示屏幕上显示图形用户界面视图,其中,所述执行所述行为包括:修改所述图形用户界面视图。
8.根据权利要求7所述的方法,其中,所述修改包括:改变包括在所述图形用户界面中的图形的分辨率、细节水平、大小、取向、亮度和内容中的至少一个。
9.根据权利要求1所述的方法,所述方法作为计算机可执行指令被有形地包含在至少一个计算机可读介质上。
10.一种方法,包括:
在显示屏幕上显示图形用户界面视图;
检测与所述显示屏幕相邻的物体检测区域内的物体;
基于所述物体的至少一个属性并且根据接近试探来选择与所述物体检测区域相关联的多个级别中的一个;以及
基于所述级别中的所述一个来修改所述图形用户界面视图。
11.根据权利要求10所述的方法,进一步包括:
检测对于所述物体的所述至少一个属性的改变;
基于所述改变来选择与所述物体检测区域相关联的所述级别中的另一个;以及
基于所述级别中的所述另一个来进一步修改所述图形用户界面视图。
12.根据权利要求11所述的方法,其中,所述至少一个属性包括在所述物体和所述显示屏幕之间的距离,并且对于所述至少一个属性的所述改变包括在所述物体和所述显示屏幕之间的所述距离上的改变。
13.根据权利要求11所述的方法,其中,所述至少一个属性包括所述物体的速度,并且对于所述至少一个属性的所述改变包括在所述物体的所述速度上的改变。
14.根据权利要求11所述的方法,其中,所述修改所述图形用户界面视图包括在所述图形用户界面上放大,并且其中,所述进一步修改所述图形用户界面视图包括在所述图形用户界面视图上进一步放大。
15.根据权利要求11所述的方法,其中,所述修改所述图形用户界面视图包括:改变包括在所述图形用户界面视图中的图形的分辨率、细节水平、大小、取向、亮度和内容中的至少一个。
16.根据权利要求15所述的方法,其中,所述进一步修改所述图形用户界面视图包括:进一步改变在所述图形用户界面视图中包括的所述图形的分辨率、细节水平、大小、取向、亮度、和内容的至少一个。
17.根据权利要求10所述的方法,其中,所述修改包括:旋转包括在所述图形用户界面视图中的三维图形。
18.一种方法,包括:
在显示屏幕上显示图形用户界面视图;
检测与所述显示屏幕相邻的物体检测区域内的物体;
确定所述物体的至少一个属性;
基于所述物体的所述至少一个属性来修改所述图形用户界面视图;
检测对于所述物体的所述至少一个属性的改变;以及
基于对于所述至少一个属性的所述改变来进一步修改所述图形用户界面视图。
19.根据权利要求18所述的方法,其中,所述至少一个属性包括所述物体的速度和在所述物体与在所述显示屏幕上显示的图形之间的距离中的至少一个。
20.一种系统,包括:
存储设备,所述存储设备被配置来存储表示接近试探的数据,所述接近试探指定与显示屏幕相关联的物体检测区域的多个级别和在所述多个级别和多个行为之间的一个或多个关联;以及
接近界面设备,所述接近界面设备被配置来:
检测在所述物体检测区域内的物体;
基于所述物体的至少一个属性并且根据所述接近试探来选择所述级别中的一个;以及
启动所述接近试探对与所述级别中的所述一个相关联的所述行为中的一个的执行。
21.根据权利要求20所述的系统,其中,所述行为中的所述一个包括:修改在所述显示屏幕上显示的图形用户界面视图。
22.根据权利要求20所述的系统,其中,所述物体检测区域包括与所述显示屏幕相邻的体积空间。
23.根据权利要求20所述的系统,其中,所述物体检测区域包括在所述显示屏幕上的区域空间。
24.根据权利要求20所述的系统,其中,所述至少一个属性包括所述物体的速度和在所述物体与所述显示屏幕之间的距离中的至少一个。
CN2009801429505A 2008-10-27 2009-10-21 接近界面设备、系统和方法 Pending CN102203701A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/258,691 2008-10-27
US12/258,691 US8516397B2 (en) 2008-10-27 2008-10-27 Proximity interface apparatuses, systems, and methods
PCT/US2009/061415 WO2010051190A1 (en) 2008-10-27 2009-10-21 Proximity interface apparatuses, systems, and methods

Publications (1)

Publication Number Publication Date
CN102203701A true CN102203701A (zh) 2011-09-28

Family

ID=42118723

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009801429505A Pending CN102203701A (zh) 2008-10-27 2009-10-21 接近界面设备、系统和方法

Country Status (5)

Country Link
US (2) US8516397B2 (zh)
EP (1) EP2350789A4 (zh)
CN (1) CN102203701A (zh)
CA (1) CA2741836A1 (zh)
WO (1) WO2010051190A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103019518A (zh) * 2012-12-14 2013-04-03 广东欧珀移动通信有限公司 一种自动调整人机交互界面的方法
CN103376917A (zh) * 2012-04-12 2013-10-30 三星电子株式会社 感测3d对象的设备和方法
CN104937522A (zh) * 2013-01-22 2015-09-23 科智库公司 非触控式用户界面的改进的反馈
CN105144143A (zh) * 2013-02-26 2015-12-09 搜诺思公司 音频内容的预缓存
CN105528059A (zh) * 2014-09-30 2016-04-27 奥视电子科技(海南)有限公司 一种三维空间手势操作方法及系统
CN107667340A (zh) * 2015-05-28 2018-02-06 三星电子株式会社 用于显示医学图像的方法和装置
TWI614645B (zh) * 2012-08-27 2018-02-11 微晶片科技德國公司 具有手姿勢控制之輸入裝置
CN105210020B (zh) * 2013-03-14 2018-11-13 谷歌科技控股有限责任公司 偏离中心的传感器目标区域
CN109416242A (zh) * 2016-04-22 2019-03-01 惠普发展公司,有限责任合伙企业 距离确定

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US8327272B2 (en) 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
KR101569176B1 (ko) 2008-10-30 2015-11-20 삼성전자주식회사 오브젝트 실행 방법 및 장치
JP4816713B2 (ja) * 2008-11-25 2011-11-16 ソニー株式会社 情報処理装置、情報処理方法および情報処理用プログラム
CN102004544B (zh) * 2009-08-28 2016-04-13 英华达(上海)电子有限公司 用户界面控制方法和使用该方法的电子装置
JP2011053971A (ja) * 2009-09-02 2011-03-17 Sony Corp 情報処理装置、情報処理方法およびプログラム
TW201117063A (en) * 2009-11-13 2011-05-16 Novatek Microelectronics Corp Control method, control device and electronic apparatus
KR101634388B1 (ko) * 2009-12-07 2016-06-28 엘지전자 주식회사 이동 통신 단말기에서 방송 데이터를 표시하는 방법 및 이를 적용한 이동 통신 단말기
US8862576B2 (en) 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
JP2011150414A (ja) * 2010-01-19 2011-08-04 Sony Corp 情報処理装置、操作入力決定方法及び操作入力決定プログラム
JP5636678B2 (ja) * 2010-01-19 2014-12-10 ソニー株式会社 表示制御装置、表示制御方法及び表示制御プログラム
JP2011150413A (ja) 2010-01-19 2011-08-04 Sony Corp 情報処理装置、操作入力方法及び操作入力プログラム
JP2011170834A (ja) * 2010-01-19 2011-09-01 Sony Corp 情報処理装置、操作予測方法及び操作予測プログラム
KR101630302B1 (ko) * 2010-02-02 2016-06-14 삼성전자주식회사 입체 터치 패널을 구비하는 디지털 촬영 장치 및 이의 제어 방법
US20110219340A1 (en) * 2010-03-03 2011-09-08 Pathangay Vinod System and method for point, select and transfer hand gesture based user interface
US8766931B2 (en) 2010-07-16 2014-07-01 Perceptive Pixel Inc. Capacitive touch sensor having code-divided and time-divided transmit waveforms
US8519970B2 (en) 2010-07-16 2013-08-27 Perceptive Pixel Inc. Capacitive touch sensor having correlation with a receiver
US20120013565A1 (en) 2010-07-16 2012-01-19 Perceptive Pixel Inc. Techniques for Locally Improving Signal to Noise in a Capacitive Touch Sensor
JP5812582B2 (ja) * 2010-07-20 2015-11-17 キヤノン株式会社 情報処理装置および情報処理方法
JP5625599B2 (ja) * 2010-08-04 2014-11-19 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US8599165B2 (en) 2010-08-16 2013-12-03 Perceptive Pixel Inc. Force and true capacitive touch measurement techniques for capacitive touch sensors
US20120050007A1 (en) * 2010-08-24 2012-03-01 Babak Forutanpour Methods and apparatus for interacting with an electronic device application by moving an object in the air over an electronic device display
JP5556515B2 (ja) * 2010-09-07 2014-07-23 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5768347B2 (ja) * 2010-09-07 2015-08-26 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US9164581B2 (en) 2010-10-22 2015-10-20 Hewlett-Packard Development Company, L.P. Augmented reality display system and method of display
US8854802B2 (en) 2010-10-22 2014-10-07 Hewlett-Packard Development Company, L.P. Display with rotatable display screen
JP5640680B2 (ja) 2010-11-11 2014-12-17 ソニー株式会社 情報処理装置、立体視表示方法及びプログラム
JP2012133729A (ja) 2010-12-24 2012-07-12 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP5652652B2 (ja) * 2010-12-27 2015-01-14 ソニー株式会社 表示制御装置および方法
US9123316B2 (en) * 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8619047B2 (en) 2011-02-04 2013-12-31 Perceptive Pixel Inc. Techniques for disambiguating touch data
US8658917B2 (en) 2011-02-04 2014-02-25 Perceptive Pixel Inc. Techniques for disambiguating touch data using user devices
KR101903810B1 (ko) 2011-03-02 2018-10-02 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 터치 센서에서의 잡음 제거 기법
US9470922B2 (en) 2011-05-16 2016-10-18 Panasonic Intellectual Property Corporation Of America Display device, display control method and display control program, and input device, input assistance method and program
US8933913B2 (en) * 2011-06-28 2015-01-13 Microsoft Corporation Electromagnetic 3D stylus
CN102890611B (zh) * 2011-07-21 2016-03-30 华为技术有限公司 一种基于触摸式操作提供文件夹项目信息的方法及装置
US9507454B1 (en) * 2011-09-19 2016-11-29 Parade Technologies, Ltd. Enhanced linearity of gestures on a touch-sensitive surface
CN104137043A (zh) 2011-09-30 2014-11-05 瑞艾利缇盖特(Pty)有限公司 用于在图形用户界面(gui)上进行人机交互的方法
US9367233B2 (en) * 2011-10-31 2016-06-14 Samsung Electronics Co., Ltd. Display apparatus and method thereof
JP5647968B2 (ja) * 2011-11-22 2015-01-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JPWO2013088655A1 (ja) * 2011-12-16 2015-04-27 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America タッチパネル及び電子機器
EP2807541B1 (en) * 2012-01-26 2020-09-02 EntIT Software LLC Image-based application automation
US20150105124A1 (en) * 2012-02-01 2015-04-16 Cho-Yi Lin Smart mobile communication device
EP2634680A1 (en) * 2012-02-29 2013-09-04 BlackBerry Limited Graphical user interface interaction on a touch-sensitive device
US8654076B2 (en) * 2012-03-15 2014-02-18 Nokia Corporation Touch screen hover input handling
CN103377353B (zh) * 2012-04-23 2018-04-17 富泰华工业(深圳)有限公司 电子装置及其触控屏保护方法与保护系统
WO2013175787A1 (ja) * 2012-05-24 2013-11-28 パナソニック株式会社 撮影装置
US8949858B2 (en) * 2012-06-18 2015-02-03 Intel Corporation Augmenting user interface elements with information
DE102012014910A1 (de) * 2012-07-27 2014-01-30 Volkswagen Aktiengesellschaft Bedienschnittstelle, Verfahren zum Anzeigen einer eine Bedienung einer Bedienschnittstelle erleichternden Information und Programm
CN103677494B (zh) * 2012-09-07 2016-12-21 华为终端有限公司 一种内容展示方法、装置和设备
KR102051418B1 (ko) * 2012-09-28 2019-12-03 삼성전자주식회사 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치
US9310895B2 (en) * 2012-10-12 2016-04-12 Microsoft Technology Licensing, Llc Touchless input
USD738896S1 (en) * 2012-11-16 2015-09-15 The Yokohama Rubber Co., Ltd. Display device for tire pressure monitoring system with graphical user interface
KR20140087731A (ko) * 2012-12-31 2014-07-09 엘지전자 주식회사 포터블 디바이스 및 사용자 인터페이스 제어 방법
WO2014108728A2 (en) * 2013-01-08 2014-07-17 Ayotle Sas Methods and systems for controlling a virtual interactive surface and interactive display systems
US9182812B2 (en) 2013-01-08 2015-11-10 Ayotle Virtual sensor systems and methods
KR102086799B1 (ko) 2013-02-21 2020-03-09 삼성전자주식회사 가상 키 패드를 디스플레이하기 위한 방법 및 그 전자 장치
US20140282269A1 (en) * 2013-03-13 2014-09-18 Amazon Technologies, Inc. Non-occluded display for hover interactions
US10120540B2 (en) * 2013-03-14 2018-11-06 Samsung Electronics Co., Ltd. Visual feedback for user interface navigation on television system
CN104122974B (zh) * 2013-04-24 2017-07-18 华硕电脑股份有限公司 具有识别人体功能的移动通信装置
US20140325455A1 (en) * 2013-04-26 2014-10-30 Ebay Inc. Visual 3d interactive interface
US9195332B2 (en) * 2013-05-23 2015-11-24 Nokia Technologies Oy Apparatus with deformable flexible user interface area and adjustable hover input region and associated methods
US9671868B2 (en) 2013-06-11 2017-06-06 Honeywell International Inc. System and method for volumetric computing
EP2818985B1 (en) * 2013-06-28 2021-05-12 Nokia Technologies Oy A hovering input field
WO2015022498A1 (en) * 2013-08-15 2015-02-19 Elliptic Laboratories As Touchless user interfaces
KR20150043063A (ko) * 2013-10-14 2015-04-22 삼성전자주식회사 전자 장치 및 이의 정보 제공 방법
KR102186393B1 (ko) * 2014-01-02 2020-12-03 삼성전자주식회사 입력 처리 방법 및 그 전자 장치
KR102214437B1 (ko) * 2014-01-10 2021-02-10 삼성전자주식회사 컴퓨팅 디바이스에서 컨텐츠 복사 실행 방법, 컨텐츠 붙여넣기 실행 방법 및 컴퓨팅 디바이스
KR20150088024A (ko) * 2014-01-23 2015-07-31 현대자동차주식회사 에이브이엔 모드 전환 시스템 및 방법
US10168864B2 (en) * 2014-01-24 2019-01-01 Citrix Systems, Inc. Gesture menu
US9785243B2 (en) 2014-01-30 2017-10-10 Honeywell International Inc. System and method for providing an ergonomic three-dimensional, gesture based, multimodal interface for use in flight deck applications
KR20150092962A (ko) * 2014-02-06 2015-08-17 삼성전자주식회사 입력 처리 방법 및 그 전자 장치
TWI530819B (zh) * 2014-02-26 2016-04-21 宏碁股份有限公司 電子裝置與其控制方法
US9652044B2 (en) 2014-03-04 2017-05-16 Microsoft Technology Licensing, Llc Proximity sensor-based interactions
KR20150111164A (ko) * 2014-03-25 2015-10-05 엘지전자 주식회사 터치 보정을 제공하는 디지털 디바이스 및 그 제어 방법
DE102014106960A1 (de) 2014-05-16 2015-11-19 Faindu Gmbh Verfahren zur Darstellung einer virtuellen Interaktion auf zumindest einem Bildschirm und Eingabevorrichtung, System und Verfahren für eine virtuelle Anwendung mittels einer Recheneinheit
US10691324B2 (en) * 2014-06-03 2020-06-23 Flow Labs, Inc. Dynamically populating a display and entering a selection interaction mode based on movement of a pointer along a navigation path
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US10108320B2 (en) * 2014-10-08 2018-10-23 Microsoft Technology Licensing, Llc Multiple stage shy user interface
JP6460094B2 (ja) * 2014-12-26 2019-01-30 株式会社ニコン 検出装置、空中像制御装置、検出方法および検出プログラム
JP6065064B2 (ja) * 2015-06-24 2017-01-25 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
KR102426695B1 (ko) * 2015-10-20 2022-07-29 삼성전자주식회사 화면 출력 방법 및 이를 지원하는 전자 장치
US9990078B2 (en) * 2015-12-11 2018-06-05 Immersion Corporation Systems and methods for position-based haptic effects
US11003345B2 (en) * 2016-05-16 2021-05-11 Google Llc Control-article-based control of a user interface
US10725647B2 (en) * 2017-07-14 2020-07-28 Microsoft Technology Licensing, Llc Facilitating interaction with a computing device based on force of touch
EP3680755A4 (en) * 2017-09-04 2020-10-28 Wacom Co., Ltd. SPATIAL POSITION INDICATOR SYSTEM
WO2019050223A1 (en) 2017-09-05 2019-03-14 Samsung Electronics Co., Ltd. ACCESSING DATA ELEMENTS ON A COMPUTER DEVICE
JP7335487B2 (ja) * 2019-04-02 2023-08-30 船井電機株式会社 入力装置
EP3966678A1 (en) 2019-05-06 2022-03-16 Apple Inc. Handwriting entry on an electronic device
CN113906367B (zh) 2019-07-26 2024-03-29 谷歌有限责任公司 通过imu和雷达的认证管理
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
CN118192796A (zh) 2019-08-30 2024-06-14 谷歌有限责任公司 移动设备的输入方法
WO2021040748A1 (en) 2019-08-30 2021-03-04 Google Llc Visual indicator for paused radar gestures
US20210349627A1 (en) * 2020-05-11 2021-11-11 Apple Inc. Interacting with handwritten content on an electronic device

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5367614A (en) 1992-04-01 1994-11-22 Grumman Aerospace Corporation Three-dimensional computer image variable perspective display system
US6204839B1 (en) 1997-06-27 2001-03-20 Compaq Computer Corporation Capacitive sensing keyboard and pointing device
GB2330669B (en) * 1997-10-24 2002-09-11 Sony Uk Ltd Data processing
US7509592B1 (en) * 2000-09-07 2009-03-24 International Business Machines Corporation Spotlight cursor
US6693653B1 (en) * 2000-09-19 2004-02-17 Rockwell Collins, Inc. Method of assisting cursor movement toward a nearby displayed target
US6717600B2 (en) * 2000-12-15 2004-04-06 International Business Machines Corporation Proximity selection of selectable item in a graphical user interface
US20020171690A1 (en) * 2001-05-15 2002-11-21 International Business Machines Corporation Method and system for scaling a graphical user interface (GUI) widget based on selection pointer proximity
US6816176B2 (en) * 2001-07-05 2004-11-09 International Business Machines Corporation Temporarily moving adjacent or overlapping icons away from specific icons being approached by an on-screen pointer on user interactive display interfaces
JP4974319B2 (ja) * 2001-09-10 2012-07-11 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
WO2003065190A2 (en) * 2002-01-29 2003-08-07 Meta4Hand Inc. Computer pointer control
US7170492B2 (en) * 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
DE10310794B4 (de) * 2003-03-12 2012-10-18 Hewlett-Packard Development Co., L.P. Bedieneinrichtung und Kommunikationsgerät
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8059099B2 (en) * 2006-06-02 2011-11-15 Apple Inc. Techniques for interactive input to portable electronic devices
US7600201B2 (en) * 2004-04-07 2009-10-06 Sony Corporation Methods and apparatuses for viewing choices and making selections
WO2006003586A2 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. Zooming in 3-d touch interaction
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US8381135B2 (en) * 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
EP1815424B1 (en) * 2004-11-16 2019-01-09 Koninklijke Philips N.V. Touchless manipulation of images for regional enhancement
US20070055947A1 (en) * 2005-09-02 2007-03-08 Microsoft Corporation Animations and transitions
US8139028B2 (en) * 2006-02-01 2012-03-20 Synaptics Incorporated Proximity sensor and method for indicating extended interface results
US7614018B1 (en) * 2006-02-13 2009-11-03 Google Inc. Web based user interface for selecting options
US7825797B2 (en) * 2006-06-02 2010-11-02 Synaptics Incorporated Proximity sensor device and method with adjustment selection tabs
US20080040692A1 (en) * 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8284165B2 (en) 2006-10-13 2012-10-09 Sony Corporation Information display apparatus with proximity detection performance and information display method using the same
US8904312B2 (en) * 2006-11-09 2014-12-02 Navisense Method and device for touchless signing and recognition
US20080120568A1 (en) * 2006-11-20 2008-05-22 Motorola, Inc. Method and device for entering data using a three dimensional position of a pointer
US8219936B2 (en) * 2007-08-30 2012-07-10 Lg Electronics Inc. User interface for a mobile device using a user's gesture in the proximity of an electronic device
JP5430572B2 (ja) * 2007-09-14 2014-03-05 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
CN101533320B (zh) * 2008-03-10 2012-04-25 神基科技股份有限公司 触控显示装置区域影像的近接放大显示方法及其装置
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
KR101506488B1 (ko) * 2008-04-04 2015-03-27 엘지전자 주식회사 근접센서를 이용하는 휴대 단말기 및 그 제어방법
US8949743B2 (en) * 2008-04-22 2015-02-03 Apple Inc. Language input interface on a device
US20090327886A1 (en) * 2008-06-27 2009-12-31 Microsoft Corporation Use of secondary factors to analyze user intention in gui element activation
US20100042954A1 (en) * 2008-08-12 2010-02-18 Apple Inc. Motion based input selection
KR20100039024A (ko) * 2008-10-07 2010-04-15 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US8237666B2 (en) * 2008-10-10 2012-08-07 At&T Intellectual Property I, L.P. Augmented I/O for limited form factor user-interfaces
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
KR101613555B1 (ko) * 2009-10-26 2016-04-19 엘지전자 주식회사 이동 단말기

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103376917B (zh) * 2012-04-12 2017-09-12 三星电子株式会社 感测3d对象的设备和方法
CN103376917A (zh) * 2012-04-12 2013-10-30 三星电子株式会社 感测3d对象的设备和方法
TWI614645B (zh) * 2012-08-27 2018-02-11 微晶片科技德國公司 具有手姿勢控制之輸入裝置
CN103019518A (zh) * 2012-12-14 2013-04-03 广东欧珀移动通信有限公司 一种自动调整人机交互界面的方法
CN103019518B (zh) * 2012-12-14 2016-06-22 广东欧珀移动通信有限公司 一种自动调整人机交互界面的方法
CN104937522A (zh) * 2013-01-22 2015-09-23 科智库公司 非触控式用户界面的改进的反馈
CN108628767A (zh) * 2013-02-26 2018-10-09 搜诺思公司 音频内容的预缓存
US11175884B2 (en) 2013-02-26 2021-11-16 Sonos, Inc. Pre-caching of media
CN105144143B (zh) * 2013-02-26 2018-05-18 搜诺思公司 音频内容的预缓存
CN105144143A (zh) * 2013-02-26 2015-12-09 搜诺思公司 音频内容的预缓存
US10127010B1 (en) 2013-02-26 2018-11-13 Sonos, Inc. Pre-Caching of Media in a Playback Queue
US10572218B2 (en) 2013-02-26 2020-02-25 Sonos, Inc. Pre-caching of media
CN108628767B (zh) * 2013-02-26 2022-06-03 搜诺思公司 音频内容的预缓存
CN105210020B (zh) * 2013-03-14 2018-11-13 谷歌科技控股有限责任公司 偏离中心的传感器目标区域
CN105528059A (zh) * 2014-09-30 2016-04-27 奥视电子科技(海南)有限公司 一种三维空间手势操作方法及系统
CN105528059B (zh) * 2014-09-30 2019-11-19 云南北方奥雷德光电科技股份有限公司 一种三维空间手势操作方法及系统
CN107667340A (zh) * 2015-05-28 2018-02-06 三星电子株式会社 用于显示医学图像的方法和装置
CN109416242A (zh) * 2016-04-22 2019-03-01 惠普发展公司,有限责任合伙企业 距离确定
CN109416242B (zh) * 2016-04-22 2021-05-18 惠普发展公司,有限责任合伙企业 用于距离确定的设备和方法
US10775151B2 (en) 2016-04-22 2020-09-15 Hewlett-Packard Development Company, L.P. Distance determination

Also Published As

Publication number Publication date
WO2010051190A1 (en) 2010-05-06
US8516397B2 (en) 2013-08-20
EP2350789A1 (en) 2011-08-03
US20130311938A1 (en) 2013-11-21
US8954896B2 (en) 2015-02-10
US20100107099A1 (en) 2010-04-29
EP2350789A4 (en) 2014-04-16
CA2741836A1 (en) 2010-05-06

Similar Documents

Publication Publication Date Title
CN102203701A (zh) 接近界面设备、系统和方法
US9250797B2 (en) Touch gesture interface apparatuses, systems, and methods
CN107810470B (zh) 便携式装置和用于改变其屏幕的方法
KR101666995B1 (ko) 멀티 텔레포인터, 가상 객체 표시 장치, 및 가상 객체 제어 방법
US9977497B2 (en) Method for providing haptic effect set by a user in a portable terminal, machine-readable storage medium, and portable terminal
US8798534B2 (en) Mobile devices and methods employing haptics
CN101730874B (zh) 基于免接触的手势的输入
KR101247991B1 (ko) 사용자 인터페이스 제어를 위한 카메라 제스처들
KR102092132B1 (ko) 호버링 입력 효과를 제공하는 전자 장치 및 그 제어 방법
US20160048209A1 (en) Method and apparatus for controlling vibration
US9886089B2 (en) Method and apparatus for controlling vibration
CN103502911A (zh) 使用多个传感器的手势识别
CN111566599A (zh) 交互式系统和方法
CN104914987A (zh) 用于触觉启用的投影用户界面的系统和方法
CN103562820A (zh) 目标歧义消除和校正
US20140168094A1 (en) Tangible alphanumeric interaction on multi-touch digital display
EP2728448B1 (en) Input apparatus for controlling a display apparatus and input controlling method thereof
KR20140105385A (ko) 터치스크린에서 필기 입력을 통한 컨텐츠 작성 방법 및 장치
US20130088427A1 (en) Multiple input areas for pen-based computing
CN105210020B (zh) 偏离中心的传感器目标区域
CN108073322A (zh) 有源笔面板接收器干扰消除
KR20150145729A (ko) 지문 입력을 통한 화면 이동 및 서비스 선택 방법, 지문 센서를 구비한 착용형 전자 장치 및 컴퓨터 프로그램
CN107943406B (zh) 一种触摸屏触控点确定方法及终端
CN107037874A (zh) 重压和移动手势
CN103399641A (zh) 一种终端控制的方法、传感模组及终端

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1157887

Country of ref document: HK

C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20110928

REG Reference to a national code

Ref country code: HK

Ref legal event code: WD

Ref document number: 1157887

Country of ref document: HK