CN103080887B - 用于基于接近的输入的装置和方法 - Google Patents

用于基于接近的输入的装置和方法 Download PDF

Info

Publication number
CN103080887B
CN103080887B CN201180040218.4A CN201180040218A CN103080887B CN 103080887 B CN103080887 B CN 103080887B CN 201180040218 A CN201180040218 A CN 201180040218A CN 103080887 B CN103080887 B CN 103080887B
Authority
CN
China
Prior art keywords
input
response
dimensional
user interface
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201180040218.4A
Other languages
English (en)
Other versions
CN103080887A (zh
Inventor
P·皮拉雅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Technologies Oy
Original Assignee
Nokia Technologies Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Technologies Oy filed Critical Nokia Technologies Oy
Publication of CN103080887A publication Critical patent/CN103080887A/zh
Application granted granted Critical
Publication of CN103080887B publication Critical patent/CN103080887B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

根据本发明的示例性实施例,提供了一种用于控制电子设备中的显示操作的方法。该电子设备提供输入模式,在该输入模式中,第一功能与悬停输入相关联,并且第二功能与对输入表面的触摸输入相关联。显示三维虚拟用户接口项目,并且响应于在相对于输入表面的防护范围内检测到输入物体,而调节该虚拟用户接口项目以提醒用户避免无意地触摸输入表面。

Description

用于基于接近的输入的装置和方法
技术领域
本发明的实施例涉及一种用于检测基于接近(proximity)的输入的装置和方法。
背景技术
触摸屏被用在许多便携电子设备中,例如PDA(个人数字助理)设备、写字板和移动设备中。触摸屏可由指示设备(或者触笔)和/或由手指操作。通常,这些设备还包括用于特定操作的常规按钮。
近来,已经针对具有触摸屏的设备提出所谓悬停(hovering)用户接口。悬停一般指通过与用户接口输入表面近邻而不触摸该输入表面的物体(诸如手指)进行的输入。因此,也可以使用在触摸屏表面上方的空间作为用于用户输入的其他手段。例如,用户接口可以被布置成通过弹出菜单来对手指悬停做出反应。然后,可以通过触摸屏幕来选择菜单上的期望项目。移动设备的用户一般期望具有与他们的设备交互的更多通用和直观的方式。
发明内容
在权利要求书中阐述了本发明的示例的各个方面。
根据一个方面,提供了一种装置,该装置包括:用于提供输入模式的部件,在该输入模式中,第一功能与悬停输入相关联,并且第二功能对输入表面的触摸输入相关联;用于显示三维虚拟用户接口项目的部件;以及用于响应于在相对于输入表面的防护范围内检测到输入物体,而调节三维虚拟用户接口项目以提醒用户避免无意地触摸输入表面的部件。
根据一个方面,提供了一种方法,该方法包括:提供输入模式, 在该输入模式中,第一功能与悬停输入相关联,并且第二功能与对输入表面的触摸输入相关联;显示三维虚拟用户接口项目;以及响应于在相对于输入表面的防护范围内检测到输入物体,而调节三维虚拟用户接口项目以提醒用户避免无意地触摸输入表面。
根据一个示例性实施例,检测输入物体虚拟地触摸三维虚拟用户接口项目,并且响应于对该虚拟触摸的检测而调节三维虚拟用户接口项目的外观。
根据另一示例性实施例,该装置被配置用于确定输入物体与输入表面之间的距离,并且该装置被配置成基于输入物体与输入表面之间的距离而在三维虚拟用户接口项目的至少两个可用外观之间进行选择。
根据又一示例性实施例,响应于检测到悬停输入或者与输入表面近邻的输入物体的存在而进入第一输入模式,并且响应于检测到触摸输入而进入第二输入模式,并且响应于在预定防护范围内检测到输入物体而调节三维虚拟用户接口项目的外观以向用户通知输入模式在第一输入模式与第二输入模式之间的改变。
本发明和本发明的各实施例提供了若干优点,通过以下具体描述这些优点将变得清楚。
附图说明
为了更完整理解本发明的示例性实施例,现在参照以下结合附图进行的描述,在附图中:
图1是根据本发明示例性实施例的输入装置的侧视图的简化框图;
图2图示了根据本发明示例性实施例的方法;
图3图示了根据本发明示例性实施例的方法;
图4a至图4h图示了用户接口交互序列示例;
图5图示了显示操作的顶视图示例;以及
图6图示了根据本发明示例性实施例的电子设备。
具体实施方式
图1图示了具有一个或者多个输入和/或输出设备的示例性装置10。可以例如从按钮、开关、滑块、键或者键区、导航板、触摸板、触摸屏等中选择输入设备。可以例如从显示器、扬声器、指示器中选择输出设备。
装置10还包括被配置用于检测输入物体100(诸如手指或者触笔)何时被带到输入表面112附近、但不与输入表面112接触的接近检测系统或者单元120。输入表面112可以是触摸屏或者该装置中能够检测用户输入的另一输入设备的表面。
感测区140可以示例其中输入物体100被检测到与表面112近邻的近似区域和/或距离。感测区140也可以被称为悬停区,并且向悬停区引入输入物体100并且由该物体100在悬停区中进行的可能的进一步(非触摸)输入可以被称为悬停。在一些实施例中,即使在不触摸输入表面112的情况下,悬停区140仍然能够在装置10中实现对数据的输入和/或访问。至少部分地基于输入物体100不触摸输入表面112而检测到的在悬停区140中的用户输入,诸如检测到的特定手势可以被称为悬停输入。这样的悬停输入与至少一个功能,例如选择用户接口(UI)项目、缩放显示区或者激活弹出菜单相关联。
装置10可以是外围设备、诸如键盘或者鼠标,或者被集成于电子设备中。电子设备的示例包括诸如计算机、媒体播放器、无线通信终端设备等的任何客户电子设备。
在一些实施例中,在包括触摸屏显示器的装置中提供接近检测系统120。因此,图1的装置可以包括触摸屏110。可以提供多个触敏检测器114以检测对触摸屏输入表面的触摸输入。
在一些实施例中,检测系统120通过一个或者多个接近传感器122生成感测场。在一个示例性实施例中,应用电容接近检测系统,其中传感器122是电容感测节点。监视一个或者多个输入物体100 在感测场中的扰动,并且基于检测到的扰动来检测一个或者多个物体的存在。电容检测电路120检测在触摸屏110的表面上方的电容改变。
然而,将理解当前特征不限于任何特定类型的接近检测的应用。接近检测系统120可以基于红外线接近检测、光学阴影检测、声学发射检测、超声检测或者任何其它适当接近检测技术。例如,如果接近检测系统120基于红外线检测,则该系统将包括发送出红外光脉冲的一个或者多个发射器。将提供一个或者多个检测器用于检测该光从附近物体100的反射。如果系统检测到反射光,则假设输入物体存在。
检测系统120可以被布置用于估计在输入物体100与输入表面112之间的距离,该距离使得与物体100相对于输入表面的位置有关的z坐标数据能够被提供。接近检测系统120也可以被布置用于生成关于物体100的x、y位置的信息以便能够确定目标UI项目或者悬停输入的区域。x和y方向一般基本上平行于输入表面112,而z方向基本上垂直于输入表面112。
根据所应用的接近检测技术、装置10和输入表面112的尺寸以及期望的用户交互,悬停区140可以被布置成从输入表面112延伸某一距离,例如从几毫米到甚至上至数十厘米选择的距离。接近检测系统120也可以被布置用于检测用户的手的其他部分,并且该系统可以被布置用于识别错误输入并且避免进一步动作。
接近检测系统120耦合到控制器130。接近检测系统120被配置用于当在悬停区140中检测到输入物体100时向控制器130提供信号。基于这样的输入信号,可以发起命令、选择和其它类型的动作,通常引起用户的视觉、听觉和/或触觉反馈。可以向控制器130或者经由控制电路向另一控制器用信号发送对触敏检测器114的触摸输入。
控制器130还可以连接到一个或者多个输出设备,诸如触摸屏显示器110。控制器130可以被配置用于控制显示器110上的不同应 用视图。控制器130可以基于来自接近检测系统120和触敏检测器114的信号来检测触摸输入和悬停输入。控制器130然后可以控制与检测到的触摸输入或者悬停输入关联的显示功能。将理解控制器130的功能可以由单个控制单元或者多个控制单元实现。
一般而言,利用悬停用户接口可能难以控制输入物体100使得它足够临近输入表面而不触摸该表面。可能难以控制这样的移动,该移动应当在半空中、例如在图形用户界面(GUI)项目上方的一厘米处停止并且避免无意地触摸显示器。
在不限制权利要求的范围的前提下,在一些示例性实施例中,如将通过以下也参照图1的示例进一步说明的那样,可以通过生成UI项目的、从输入表面突出的幻象来至少部分地缓解该问题。
装置10可以被布置成生成三维虚拟UI项目160,该三维虚拟UI项目一般指UI项目的三维表示。在下文中一般也被称为“虚拟UI项目”的三维虚拟UI项目是这样的UI项目表示,该UI项目表示的至少一部分是立体的或者提供三维物体的感觉。虚拟UI项目160也可以用作手指移动的虚拟目标。另外,如果虚拟UI项目160大于用户的指尖,则用户可能能够通过将手指的深度与项目的深度匹配来将手指保持在与显示器表面相距适当的距离处。在一些示例中,这可以使得能够提供直观和可靠的悬停交互。
在一些实施例中,监视悬停区140内的防护范围150。响应于在相对于输入表面的防护范围150内检测到输入物体100,而调节三维虚拟UI项目160以提醒用户避免无意地触摸输入表面。例如,可以响应于检测到输入物体进入防护范围150而闪烁虚拟UI项目或者将虚拟UI项目改变成另一形式或者颜色。这进一步实现更好地防止错误的触摸输入。术语“防护范围”将被广义地理解为指可以在其中检测到输入物体的存在的区域,并且该区域无需由装置10精确确定。
在一个实施例中,装置10可以被布置成通过估计在输入物体100与输入表面112之间的距离并且将估计的距离与预定防护或者提醒距离值进行比较来确定输入物体是否在防护范围内。根据所应 用的技术、装置和输入表面的尺寸以及期望的用户交互,防护范围150可以被布置成从输入表面延伸某一距离,例如从一毫米到五厘米选择的距离。
然而,将理解可以基于其它评估来直接或者间接控制对用户的提醒。例如,在另一实施例中,装置10可以被布置成基于在来自接近检测系统120的接近检测信号的强度与阈值之间的比较来确定输入物体100在防护范围内存在。因此,防护范围150可以由所选阈值隐式地限定,并且可以直接响应于检测到超过阈值而将输入物体100检测为在防护范围内。
电子设备10因此还可以包括能够显示UI项目的立体呈现,例如用户感知为三维(3D)图像的UI项目的立体呈现的立体显示器。为此,立体显示器可以在不同方向上引导来自图像的某些子像素的信息,从而观看者可以用每只眼睛看到不同画面。如果画面足够相似,则人脑将假设观看者在看单个物体并且将两个画面上的匹配点融合在一起以创建感知的单个物体。可以例如通过拍摄多个二维图像并且通过将图像的像素组合到用于在立体显示器上呈现的单个图像的子像素来获得3D图像的数据。在一个备选中,以彼此相距预先指定的小距离布置的两个相机拍摄用于3D呈现的二维图像。每个相机可以包括将图像处理应用于捕获的图像的图像链。立体显示系统也可以包括用户成像设备和眼睛位置跟踪功能。
根据期望的实现方式和所应用的立体显示技术,触摸屏显示器110可以被布置成提供立体显示特征,或者立体显示器的元件可以至少部分地从触摸屏显示器110分离(在图1中未具体示出)。在一个实施例中,立体显示器是自动立体显示器,并且虚拟UI项目是自动立体UI项目,该自动立体UI项目一般指无需用户的特定眼镜的、UI项目的立体呈现。可以应用各种自动立体显示器,例如基于视差屏障和/或柱状透镜的自动立体显示器或者应用全息和/或眼睛跟踪。
将理解装置10可以包括这里未详细讨论的各种其他元件。虽然将装置10和控制器130描绘为单个实体,但是不同特征可以在一 个或者多个物理或者逻辑实体中实现。可以存在例如用于承载结合图2或者图3描述的块中的一个或者多个块的其他具体功能模块。
图2示出了根据示例性实施例的用于控制输入模式的方法,该输入模式启用悬停和触觉输入以及对3D虚拟UI项目的显示。该方法可以例如作为控制算法而由控制器130应用。
该方法在块200中开始,其中检查与输入表面近邻的至少一个输入物体的存在。可以例如在启用触摸输入(键区锁未开启)时持续执行该检查。该过程可以根据所应用的接近检测系统来检查200、202是否至少一个物体在悬停区或者范围140内。这可以例如通过将来自接近检测系统120的接近检测信号与阈值进行比较来实现。
如果检测到至少一个物体与输入表面接近,则可以激活启用悬停和触摸输入的输入模式204(如果尚未活动)。该输入模式可以将第一功能与悬停输入关联并且将第二功能与触摸输入关联。两个不同功能可以与相同x、y位置相关联,例如通过触摸关联的x、y位置来发起的第一功能可以不同于第二功能,该第二功能通过在完全相同或者至少部分相同的x、y位置上面悬停但不进行触摸来发起。
即使与输入表面产生物理接触,仍然可以在检测到物体100进入悬停区140时进入块204。因此,控制器130可以例如检测到在物体100与输入表面之间的距离在悬停触发距离以下。然而,将理解一般地,可以例如默认地应用输入模式,而无需特别地激活输入模式。另外,将理解可以存在各种其他输入模式,并且可以基于当前使用情境、用户输入、应用等改变所应用的输入模式。
显示206虚拟3D UI项目以辅助用户。可以特别地生成3D UI项目以辅助用户来产生悬停输入,例如针对与3D虚拟UI项目关联的信息项目激活特定功能的手势。在一个示例中,3D UI项目可以是悬停输入可以虚拟地推动的3D按钮。
监视208、210防护范围,诸如图1中所示的范围150。这可以例如通过将来自接近检测系统120的接近检测信号与关联于防护范围的阈值进行比较来实现。在一个实施例中,防护范围监视208、 210基于监视在物体与输入表面112之间的距离。
响应于检测208、210防护范围中的至少一个物体,调节212至少一个关联3D虚拟UI项目,诸如调节在块206中显示的UI项目以提醒用户避免无意地触摸输入表面。
图2中所示的方法持续监视208防护范围,并因此在调节212UI项目之后返回至块208。如果没有在防护范围中检测到物体,则该过程可以返回至检查200是否(仍然)在悬停范围140中检测到物体。
图2的示例还通过块214指示,如果在块212中提醒用户并且随后在块210中检测到物体的移除,则可以删除提醒用户的虚拟UI项目。另外,在一个实施例中,响应于检测到202随后从悬停区140移除物体而移除所显示206的虚拟UI项目。此外,在图2中未示出,装置10可以例如基于监视由触敏检测器114检测到的用户手势和输入来持续检查用户输入。
将理解可以在简化的图2中所示的过程中进行各种修改和添加。例如,在图2的一个示例性变化中,可以基于一些其它触发,诸如推动按钮来显示虚拟3D UI而不检测悬停输入物体或者在检测到悬停输入物体之后显示虚拟3D UI。因此,无论是否在悬停区140中检测到物体都可以显示如下3D虚拟UI项目,该3D虚拟UI项目的外观被调节(312)以对用户进行提醒。因此,也可以应用图2的特征中的仅一些特征。例如,控制器130可以被布置用于执行用于控制块206至212中的功能的算法。
在一个实施例中,参照图3的示例,装置10被配置用于将输入物体的位置与虚拟UI项目160的(外边缘)的位置进行比较300。可以例如响应于发起对虚拟UI项目的显示206而进入该过程。控制器130可以被布置成接收关于物体100相对于输入表面112的x、y、z位置信息并且检测物体何时定位在悬停区中、基本上在针对虚拟UI项目160的外边缘限定的位置处。如果匹配存在,则检测302到输入物体虚拟地触摸虚拟UI项目。装置可以被配置用于调节304虚 拟UI项目的外观以对检测到的虚拟触摸做出反应。例如,虚拟UI项目可以被调节用于模拟后退按钮。
在一个实施例中,防护范围150和虚拟UI项目160类似地在离开输入表面112的z方向上延伸。响应于检测到物体100进入防护范围150,而检测到虚拟触摸,并且可以调节虚拟UI项目的外观。
外观10可以被配置用于在虚拟UI项目160的至少两个可用外观之间进行选择。每个外观可以与到输入表面的特定距离范围相关联。
然而,将理解存在大量选项用于调节(212)3D虚拟UI项目,这将广义地理解为指所显示的3D虚拟UI项目的虚拟外观的任何类型的改变,也包括控制另一虚拟UI项目的显示。
图4a至4h图示了3D虚拟UI项目和其响应于靠近的输入物体100而进行的调节的一些示例。如图4a中所示,显示虚拟UI项目400。响应于检测到物体100定位于虚拟UI项目400的外边缘402而检测到虚拟触摸,该外边缘402也可以与防护范围的外边缘基本上对应。
当用户将手指带到更邻近输入表面112时,虚拟UI项目可以被调节用于提醒用户。在图4b的示例中,移动虚拟UI项目的位置或者外边缘402被移动,由此产生用户推动虚拟UI项目的幻象。
图4c至4h图示了可以如何响应于检测到虚拟触摸来调节虚拟UI项目400的外观的一些其它示例。如图4c和4d中所示,可以响应于检测到输入物体100的虚拟触摸和朝向输入表面112的进一步移动来改变虚拟UI项目的格式。
在一个实施例中,可以根据所检测到的输入物体100(的参考点)相对于可视UI项目的位置来调节虚拟UI项目160、400的外观。例如,如图4e和4f中所示,虚拟UI项目可以被调节用于响应于检测到输入物体在虚拟UI项目的角落区域上方虚拟地触摸并且进一步靠近输入表面而指示改变的定向。
然而,将理解可以应用各种可视改变和可视效果组合用于响应 于在防护范围150中检测到物体和/或检测到虚拟触摸来调节(212)虚拟UI项目160的可视外观。例如,可以用各种方式来调节虚拟UI项目400的形式、尺寸、位置和/或透视图。作为这样的示例性可视改变的替代或者除了这样的示例性可视改变之外,还可以通过改变虚拟UI项目的透明度、颜色或者其它参数和/或闪烁虚拟UI项目来调节虚拟UI项目。例如,可以首先将虚拟UI项目160显示206为不透明,然后可以响应于在预定防护范围内检测到输入物体而至少部分透明地显示212该虚拟UI项目。又一示例是通过显示动画来调节虚拟UI项目。
在一个实施例中,装置10被配置用于通过(单独地或者以组合的方式)在悬停区140中的一个或者多个物体来检测手势。例如,响应于检测到200悬停输入物体或者激活204输入模式来激活手势感测功能。因此,可以监视接近感测场的改变。基于检测到的改变来识别手势。然后,可以执行与所识别的手势相关联的动作。例如,响应于检测到与手指在双击鼠标按钮时的移动相似的手势,选择GUI元素并且针对所选GUI元素执行进一步的动作,例如显示具有所选统一资源定位符(URL)的内容的新应用窗口。另一示例是装置10可以被配置用于检测物体的移动以形成圆圈而因此移向后续或者先前视图。当前与提醒有关的特征可以对于辅助用户执行手势以免无意地触摸特别有用。
广泛的功能范围可用于选择以与触敏检测系统和/或接近检测系统120检测的输入相关联。控制器130可以被配置用于根据装置10的当前操作状态、用户输入或者例如在装置10中执行的应用来调节这些关联。例如,关联可以是特定于应用、特定于菜单、特定于视图和/或特定于情境(可以基于从装置10的当前环境或者使用获得的信息来限定该情境)。在一个实施例中,接近检测系统120可以被布置用于检测两个或者更多物体的组合使用。根据一些实施例,可以在悬停区140中同时使用两个或者更多物体100,并且可以响应于检测到更多物体来触发特定功能。
在一个示例性实施例中,可以在防护范围中检测到(212)一个或者多个输入物体之后进入特定显示和/或输入模式。装置10的UI可以被布置用于响应于检测到悬停输入或者与输入表面近邻的物体的存在204来进入第一输入模式并且响应于检测到触摸输入来进入第二输入模式。装置10可以被布置用于响应于在预定防护范围内检测到输入物体来显示虚拟UI项目或者调节虚拟UI项目的外观212用于向用户通知或者提醒他/她输入模式在第一输入模式与第二输入模式之间的(即将到来的)改变。
例如,第一模式可以是悬停输入模式并且第二模式可以是触摸输入模式。当检测到输入物体靠近输入表面时,可以例如通过符号、文本、可听输出和/或触觉输出向用户通知输入模式要从悬停输入模式改变成触摸输入模式。
可以例如在触敏显示器110上向用户指示在块204至212中的至少一些块期间可用的软件功能或者动作。可以在一个功能在显示器110的关联区域中可用时和/或在已经检测到悬停输入时指示该功能。3D虚拟UI项目可以指示可由悬停动作使用的软件功能。
在一个示例性实施例中,上文公开的用户提醒特征仅应用于装置10显示的3D虚拟UI项目中的一些3D虚拟UI项目。上文举例说明的特征可以应用于不同应用和应用模式。
在一个实施例中,装置10被配置用于基于与物体100在悬停区140和/或提醒范围150中的移动关联的更多特性来控制用户接口动作。例如,装置10可以被配置用于基于物体100的移动速度控制动作。与虚拟UI项目160关联的各种动作可以与物体100在z方向和/或x、y方向上的移动关联。
图5是显示操作的示例,其中首先在第一GUI项目500,例如音乐文件上方显示虚拟UI项目160。如图所示,虚拟UI项目160可以是至少部分透明的。装置100可以被布置用于在选择虚拟UI项目之后监视与虚拟UI项目160关联的输入物体100的x、y位置。响应于检测到输入物体的移动(悬停于输入表面112上方或者触摸 输入表面112),也相对于输入物体的移动来改变虚拟UI项目160的显示位置。然后,可以发起与输入物体的新位置关联的进一步动作。例如,用户可以首先对音乐文件500执行选择动作并且将输入物体移动到与发送操作关联的“发送”UI项目502之上。在一个实施例中,虚拟UI项目160或者其一部分用作指示器元素并且还可以例如通过箭头进一步指示该能力。
可以改变虚拟UI项目160的位置,并且UI项目160的x、y位置可以按照从输入物体100(的参考点)的位置起的偏移量而不同。在一个示例性实施例中,装置10被配置用于例如在块204或者206中促使显示又一指示器元素。指示器元素可以指示输入物体当前聚焦于其上的当前点(该当前点因此可以不同于输入物体的实际x、y位置)。例如,在通过引用而结合于此的美国专利申请No.US2003/0146905中的与虚拟触笔有关的特征可以与当前多物体悬停输入模式结合应用。
图6示出了根据示例性实施例的电子设备600的结构的框图。电子设备可以包括装置10。虽然图示了电子设备600的一个实施例并且下文将出于示例的目的而描述该实施例,但是其它类型的电子设备,诸如但不限于便携数字助理(PDA)、寻呼机、移动计算机、台式计算机、膝上型计算机、平板计算机、媒体播放器、电视、游戏设备、相机、视频记录器、定位设备、电子书、可佩带设备、投影仪设备和其它类型的电子系统可以运用当前实施例。
另外,一个示例性实施例的装置无需构成整个电子设备,而在其它示例性实施例中可以是电子设备的一个部件或者一组部件。例如,装置可以具有用于通过执行上文所示功能(诸如图1的控制器130的功能)中的至少一些功能来进行控制的芯片集或者一些其它种类的硬件模块的形式。处理器602被配置用于执行指令并且进行与电子设备600相关联的操作。处理器602可以包括用于执行各种功能的装置,诸如数字信号处理器设备、微处理器设备和电路,这些功能例如包括结合图1至图5描述的功能中的一个或者多个功能。 处理器602可以通过使用从存储器取回的指令来控制对在电子设备600的各部件之间的输入和输出数据的接收和处理。处理器602可以在单个芯片、多个芯片或者多个电学部件上实现。可以用于处理器602的架构的一些示例包括专用或者嵌入式处理器和专用集成电路(ASIC)。
处理器602可以包括用于操作一个或者多个计算机程序的功能。计算机程序代码可以存储于存储器604中。至少一个存储器和计算机程序代码可以被配置为通过至少一个处理器使该装置执行至少一个实施例,该实施例例如包括对结合图1至图5描述的功能中的一个或者多个功能的控制。例如,处理器602可以被布置用于执行图1的控制器130的功能中的至少一些功能。通常,处理器602与操作系统一起进行操作以执行计算机代码并且产生和使用数据。
举例而言,存储器604可以包括诸如电可擦除可编程只读存储器(EEPROM)、闪速存储器等非易失性部分和诸如随机存取存储器(RAM)这样的易失性部分,包括用于暂时存储数据的高速缓存区。信息也可以驻留于可移除存储介质上并且在需要时被加载或安装到电子设备600上。
电子设备600可以包括一个天线(或者多个天线),所述一个天线(或者多个天线)可操作地与包括发射器和接收器的收发器单元606通信。电子设备600可以通过一个或者多个空中接口标准和通信协议进行操作。举例而言,电子设备600可以根据多个第一、第二、第三和/或第四代通信协议等中的任何通信协议进行操作。例如,电子设备600可以根据有线协议,诸如以太网和数字用户线(DSL)进行操作,可以根据第二代(2G)无线通信协议(诸如全球移动通信系统(GSM))、第三代(3G)无线通信协议(诸如第三代合作伙伴项目(3GPP)的3G协议、码分多址(CDMA)2000、宽带CDMA(WCDMA)和时分同步CDMA(TD-SCDMA))、第四代(4G)无线通信协议(诸如3GPP长期演进(LTE))、无线局域联网协议(诸如802.11)、短程无线协议(诸如蓝牙)等进行操 作。
电子设备600的用户接口可以包括输出设备608、诸如扬声器,一个或者多个输入设备610、诸如麦克风,键区或者一个或者多个按钮或者致动器和具有诸如适合于讨论的电子设备600的任何自动立体显示类型的、能够产生3D图像的立体显示设备612。
输入设备610可以包括被配置用于从用户的触摸接收输入并且向处理器602发送该信息的触摸感测设备。这种触摸感测设备可以被配置用于也识别触摸在触敏表面上的位置和强度。触摸感测设备可以基于包括但不限于电容感测、电阻感测、表面声波感测、压力感测、电感感测和光学感测的感测技术。另外,触摸感测设备可以基于单点感测或者多点感测。在一个实施例中,输入设备是定位于显示器612前面的触摸屏。
电子设备600还包括操作地耦合到处理器602的接近检测系统614,诸如上文举例说明的系统120、220。接近检测系统614被配置用于检测手指、触笔或者另一指示设备何时与计算机系统的某一部件近邻而不与之接触,该部件包括壳体或者I/O设备,诸如触摸屏。
电子设备600还可以包括图6中未图示的更多单元和元件,诸如更多接口设备、电池、媒体捕获元件(诸如相机、视频和/或音频模块)和用户识别模块。
在一些实施例中,装置10还可以在防护范围中检测到输入物体之后产生进一步输出,诸如听觉和/或触觉输出。因此,处理器602可以被布置用于控制电子设备600中的扬声器和/或触觉输出致动器,诸如振动马达以提供这样的进一步的提醒输出。
本发明的实施例可以由软件、硬件、应用逻辑或者软件、硬件和应用逻辑的组合实现。在一个示例性实施例中,在各种常规计算机可读介质中的任何一种上保持应用逻辑、软件或者指令集。在本文的上下文中,“计算机可读介质”可以是任何如下介质或装置,该介质或装置可以包含、存储、传达、传播或者传送用于由诸如计算机这样的指令执行系统、装置或者设备来使用或者与该指令执行系 统、装置或者设备结合使用的指令,在图6中描述并且描绘了计算机的一个示例。计算机可读介质可以包括可以是任何如下介质或装置的计算机可读存储介质,该介质或装置可以包含或者存储用于由诸如计算机这样的指令执行系统、装置或者设备使用或者与该指令执行系统、装置或者设备结合使用的指令。
如果期望,则可以按照不同顺序和/或相互并行地执行这里讨论的不同功能中的至少一些功能。另外,如果期望,则上文描述的功能中的一个或者多个功能可以是可选的或者被组合。
虽然在独立权利要求中阐述了本发明的各方面,但是本发明的其它方面包括来自所描述的实施例和/或从属权利要求的特征与独立权利要求的特征的其它组合,而不仅包括在权利要求中明确阐述的组合。
这里也注意,尽管上文描述本发明的示例性实施例,但是不应在限制性意义上看待这些描述。相反,存在可以在不脱离如在所附权利要求书中限定的本发明范围的前提下进行的若干改变和修改。

Claims (15)

1.一种装置,包括:
用于提供输入模式的部件,在所述输入模式中,第一功能与悬停输入相关联,其被配置为检测在输入表面上方的给定悬停区内的输入,并且第二功能与对所述输入表面的触摸输入相关联,
用于检测输入物体相对于所述输入表面的距离的部件,
用于响应于在所述悬停区内但是高于相对于所述输入表面的防护范围处检测到输入物体,而显示三维虚拟用户接口项目的部件,其中所述防护范围小于所述悬停区,以及
用于响应于在相对于所述输入表面的防护范围内检测到输入物体,而调节所述三维虚拟用户接口项目以提醒用户避免无意地触摸所述输入表面的部件。
2.根据权利要求1所述的装置,进一步包括:
接近检测系统,具有用于检测与输入表面近邻的输入物体的存在的至少一个接近检测器,
立体显示器,以及
控制器,可操作地连接到所述接近检测系统和所述立体显示器,所述控制器被配置用于:
提供输入模式,在所述输入模式中,第一功能与悬停输入相关联,并且第二功能与对所述输入表面的触摸输入相关联,
促使对三维虚拟用户接口项目的显示,以及
响应于在相对于所述输入表面的防护范围内检测到输入物体,而控制对所述三维虚拟用户接口项目的调节以提醒用户避免无意地触摸所述输入表面。
3.根据权利要求1或者2所述的装置,其中所述装置被配置用于检测所述输入物体虚拟地触摸所述三维虚拟用户接口项目,并且
所述装置被配置用于响应于对虚拟触摸的所述检测而调节所述三维虚拟用户接口项目的外观。
4.根据权利要求1或者2所述的装置,其中所述装置被配置用于确定所述输入物体与所述输入表面之间的距离,并且
所述装置被配置成基于所述输入物体与所述输入表面之间的距离而在所述三维虚拟用户接口项目的至少两个可用外观之间进行选择。
5.根据权利要求1或者2所述的装置,其中所述装置被配置用于响应于检测到所述输入物体的存在而将所述三维虚拟用户接口项目显示为不透明,并且
所述装置被配置用于响应于在所述防护范围内检测到所述输入物体而将所述三维虚拟用户接口项目显示为至少部分透明。
6.根据权利要求1或者2所述的装置,其中所述装置被配置用于响应于在所述防护范围内检测到所述输入物体而生成触觉和/或听觉输出以用于进一步提醒所述用户避免无意地触摸所述输入表面。
7.根据权利要求1或者2所述的装置,其中所述装置被配置用于响应于检测到所述悬停输入或者与所述输入表面近邻的所述输入物体的存在而进入第一输入模式并且响应于检测到所述触摸输入而进入第二输入模式,并且
所述装置被配置用于响应于在所述防护范围内检测到所述输入物体而调节所述三维虚拟用户接口项目的外观以用于向用户通知输入模式在所述第一输入模式与所述第二输入模式之间的改变。
8.根据权利要求1或者2所述的装置,其中所述装置包括用于显示所述三维虚拟用户接口项目的自动立体显示器。
9.根据权利要求1或者2所述的装置,其中所述装置是包括触摸屏的移动通信设备。
10.一种方法,包括:
提供输入模式,在所述输入模式中,第一功能与悬停输入相关联,其被配置为检测在输入表面上方的给定悬停区内的输入,并且第二功能与对所述输入表面的触摸输入相关联,
检测输入物体相对于所述输入表面的距离,
响应于在所述悬停区内但是高于相对于所述输入表面的防护范围处检测到输入物体,而显示三维虚拟用户接口项目,其中所述防护范围小于所述悬停区,以及
响应于在相对于所述输入表面的防护范围内检测到输入物体,而调节所述三维虚拟用户接口项目以提醒用户避免无意地触摸所述输入表面。
11.根据权利要求10所述的方法,其中检测所述输入物体虚拟地触摸所述三维虚拟用户接口项目,并且响应于对所述虚拟触摸的所述检测而调节所述三维虚拟用户接口项目的外观。
12.根据权利要求10或者11所述的方法,其中提供所述三维虚拟用户接口项目的至少两个可用外观,所述外观中的每个外观与到所述输入表面的特定距离范围相关联。
13.根据权利要求10或者11所述的方法,其中响应于检测到所述输入物体的存在而将所述三维虚拟用户接口项目显示为不透明,并且
响应于在所述防护范围内检测到所述输入物体而将所述用户接口项目显示为至少部分透明。
14.根据权利要求10或者11所述的方法,其中响应于在所述防护范围内检测到所述输入物体而生成触觉和/或听觉输出以用于进一步提醒所述用户避免无意地触摸所述输入表面。
15.一种用于电子设备的用户接口,所述电子设备包括用于检测在输入表面上方的给定悬停区内的输入物体的存在的接近检测系统和立体显示器,其中所述用户接口被配置用于:
提供输入模式,在所述输入模式中,悬停输入与第一功能相关联,并且触摸输入与第二功能相关联,
检测输入物体相对于所述输入表面的距离,
响应于在所述悬停区内但是高于相对于所述输入表面的防护范围处检测到输入物体,而显示三维虚拟用户接口项目,其中所述防护范围小于所述悬停区,以及
响应于所述输入物体定位在相对于所述输入表面的防护范围内,而调节所述三维虚拟用户接口项目的外观以提醒所述用户避免无意地触摸所述输入表面。
CN201180040218.4A 2010-06-24 2011-06-15 用于基于接近的输入的装置和方法 Active CN103080887B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/822,496 2010-06-24
US12/822,496 US8508347B2 (en) 2010-06-24 2010-06-24 Apparatus and method for proximity based input
PCT/FI2011/050563 WO2011161310A1 (en) 2010-06-24 2011-06-15 Apparatus and method for proximity based input

Publications (2)

Publication Number Publication Date
CN103080887A CN103080887A (zh) 2013-05-01
CN103080887B true CN103080887B (zh) 2017-05-03

Family

ID=45352004

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180040218.4A Active CN103080887B (zh) 2010-06-24 2011-06-15 用于基于接近的输入的装置和方法

Country Status (4)

Country Link
US (1) US8508347B2 (zh)
EP (1) EP2585900B1 (zh)
CN (1) CN103080887B (zh)
WO (1) WO2011161310A1 (zh)

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8810543B1 (en) 2010-05-14 2014-08-19 Cypress Semiconductor Corporation All points addressable touch sensing surface
JP5768347B2 (ja) * 2010-09-07 2015-08-26 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
JP5668385B2 (ja) * 2010-09-17 2015-02-12 ソニー株式会社 情報処理装置、プログラムおよび情報処理方法
US9043732B2 (en) * 2010-10-21 2015-05-26 Nokia Corporation Apparatus and method for user input for controlling displayed information
US10146426B2 (en) * 2010-11-09 2018-12-04 Nokia Technologies Oy Apparatus and method for user input for controlling displayed information
KR101932688B1 (ko) 2010-11-29 2018-12-28 삼성전자주식회사 휴대기기 및 이에 적용되는 ui 모드 제공 방법
TW201239693A (en) * 2011-03-17 2012-10-01 Chunghwa Picture Tubes Ltd Three dimensional touch display device and touch input method thereof
KR101738001B1 (ko) * 2011-03-25 2017-05-29 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
KR101748668B1 (ko) 2011-04-14 2017-06-19 엘지전자 주식회사 이동 단말기 및 그의 입체영상 제어방법
US9477348B2 (en) * 2011-04-15 2016-10-25 Hewlett-Packard Development Company, L.P. Focus-based touch and hover detection
US9176608B1 (en) 2011-06-27 2015-11-03 Amazon Technologies, Inc. Camera based sensor for motion detection
FR2980598B1 (fr) 2011-09-27 2014-05-09 Isorg Interface utilisateur sans contact a composants semiconducteurs organiques
FR2980597B1 (fr) * 2011-09-27 2014-05-09 Isorg Interface utilisateur sans contact
JP2013125247A (ja) * 2011-12-16 2013-06-24 Sony Corp ヘッドマウントディスプレイ及び情報表示装置
US9207852B1 (en) * 2011-12-20 2015-12-08 Amazon Technologies, Inc. Input mechanisms for electronic devices
US20130162624A1 (en) * 2011-12-22 2013-06-27 Research In Motion Limited Method and apparatus pertaining to modification of a three-dimensional presentation of a user-interaction opportunity
WO2013113360A1 (en) * 2012-01-30 2013-08-08 Telefonaktiebolaget L M Ericsson (Publ) An apparatus having a touch screen display
US20150220150A1 (en) * 2012-02-14 2015-08-06 Google Inc. Virtual touch user interface system and methods
DE102012203163A1 (de) * 2012-02-29 2013-08-29 Airbus Operations Gmbh Vorrichtung und Verfahren zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine
US8654076B2 (en) * 2012-03-15 2014-02-18 Nokia Corporation Touch screen hover input handling
FR2989483B1 (fr) 2012-04-11 2014-05-09 Commissariat Energie Atomique Dispositif d'interface utilisateur a electrodes transparentes
US8947385B2 (en) 2012-07-06 2015-02-03 Google Technology Holdings LLC Method and device for interactive stereoscopic display
US20140009461A1 (en) * 2012-07-06 2014-01-09 Motorola Mobility Llc Method and Device for Movement of Objects in a Stereoscopic Display
US20150070138A1 (en) * 2012-07-06 2015-03-12 Alan Haddy Detection of buried assets using current location and known buffer zones
KR102084041B1 (ko) * 2012-08-24 2020-03-04 삼성전자 주식회사 펜 기능 운용 방법 및 시스템
JP6012068B2 (ja) * 2012-08-28 2016-10-25 日本電気株式会社 電子機器、その制御方法及びプログラム
FR2995419B1 (fr) 2012-09-12 2015-12-11 Commissariat Energie Atomique Systeme d'interface utilisateur sans contact
US8482527B1 (en) * 2012-09-14 2013-07-09 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
FR2996933B1 (fr) * 2012-10-15 2016-01-01 Isorg Appareil portable a ecran d'affichage et dispositif d'interface utilisateur
US9772722B2 (en) * 2012-10-22 2017-09-26 Parade Technologies, Ltd. Position sensing methods and devices with dynamic gain for edge positioning
CN102981764B (zh) * 2012-11-19 2018-07-20 北京三星通信技术研究有限公司 触控操作的处理方法及设备
US20140181710A1 (en) * 2012-12-26 2014-06-26 Harman International Industries, Incorporated Proximity location system
US20140232659A1 (en) * 2013-02-18 2014-08-21 Nokia Corporation Methods, apparatuses, and computer program products for executing functions based on hover gestures or touch gestures
JP2014203323A (ja) 2013-04-08 2014-10-27 船井電機株式会社 空間入力装置
KR102056316B1 (ko) 2013-05-03 2020-01-22 삼성전자주식회사 터치 스크린 동작 방법 및 그 전자 장치
CN104166460B (zh) * 2013-05-16 2020-12-18 联想(北京)有限公司 一种电子设备及信息处理的方法
US10620775B2 (en) * 2013-05-17 2020-04-14 Ultrahaptics IP Two Limited Dynamic interactive objects
US9436288B2 (en) 2013-05-17 2016-09-06 Leap Motion, Inc. Cursor mode switching
US9423890B2 (en) * 2013-06-28 2016-08-23 Lenovo (Singapore) Pte. Ltd. Stylus lexicon sharing
US9170736B2 (en) * 2013-09-16 2015-10-27 Microsoft Corporation Hover controlled user interface element
JP2015060296A (ja) * 2013-09-17 2015-03-30 船井電機株式会社 空間座標特定装置
US9967546B2 (en) 2013-10-29 2018-05-08 Vefxi Corporation Method and apparatus for converting 2D-images and videos to 3D for consumer, commercial and professional applications
US20150116458A1 (en) 2013-10-30 2015-04-30 Barkatech Consulting, LLC Method and apparatus for generating enhanced 3d-effects for real-time and offline appplications
US9639261B2 (en) * 2013-12-04 2017-05-02 Sony Corporation Apparatus and method for controlling a suspended state
KR20150104302A (ko) * 2014-03-05 2015-09-15 삼성전자주식회사 전자 장치의 사용자 입력 검출 방법 및 그 전자 장치
WO2015159774A1 (ja) * 2014-04-14 2015-10-22 シャープ株式会社 入力装置、入力装置の制御方法
US10158847B2 (en) 2014-06-19 2018-12-18 Vefxi Corporation Real—time stereo 3D and autostereoscopic 3D video and image editing
FR3025052B1 (fr) 2014-08-19 2017-12-15 Isorg Dispositif de detection d'un rayonnement electromagnetique en materiaux organiques
KR102399589B1 (ko) * 2014-11-05 2022-05-18 삼성전자주식회사 디바이스에 오브젝트를 디스플레이 하는 방법, 그 디바이스 및 기록매체
US10185464B2 (en) 2015-05-28 2019-01-22 Microsoft Technology Licensing, Llc Pausing transient user interface elements based on hover information
CN105278763B (zh) * 2015-05-28 2019-05-17 维沃移动通信有限公司 手势识别防误触的方法及装置
DE102015213424A1 (de) * 2015-07-16 2017-01-19 Audi Ag Verfahren und Bediensystem zum Bedienen von mindestens einer Funktion in einem Fahrzeug
US11003345B2 (en) 2016-05-16 2021-05-11 Google Llc Control-article-based control of a user interface
US10591988B2 (en) * 2016-06-28 2020-03-17 Hiscene Information Technology Co., Ltd Method for displaying user interface of head-mounted display device
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
CN108227525B (zh) * 2017-12-04 2020-10-23 无锡小天鹅电器有限公司 家用电器的控制方法、装置和洗衣机
GB2571395B (en) 2018-02-23 2020-06-03 Cirrus Logic Int Semiconductor Ltd A method and system for an electronic device
KR102629413B1 (ko) * 2018-03-22 2024-01-26 삼성전자주식회사 전자 장치 및 전자 장치의 기능 실행 방법
EP3644167A1 (en) * 2018-10-24 2020-04-29 Vestel Elektronik Sanayi ve Ticaret A.S. Electronic devices and methods of operating electronic devices
DE102019200090A1 (de) * 2019-01-07 2020-07-09 Continental Automotive Gmbh Bedienvorrichtung zur Bedienung mindestens eines Gerätes und Verfahren zur Bedienung einer solchen Bedienvorrichtung
CN113924568A (zh) 2019-06-26 2022-01-11 谷歌有限责任公司 基于雷达的认证状态反馈
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
KR20210153695A (ko) 2019-07-26 2021-12-17 구글 엘엘씨 Imu 및 레이더를 통한 인증 관리
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
KR20220005081A (ko) 2019-07-26 2022-01-12 구글 엘엘씨 Imu 및 레이더를 기반으로 한 상태 감소
US11467672B2 (en) 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
CN112753005B (zh) * 2019-08-30 2024-03-01 谷歌有限责任公司 移动设备的输入方法
KR102479012B1 (ko) 2019-08-30 2022-12-20 구글 엘엘씨 일시정지된 레이더 제스처에 대한 시각적 표시자
KR102416386B1 (ko) 2019-08-30 2022-07-05 구글 엘엘씨 다중 입력 모드에 대한 입력 모드 통지
US20220308693A1 (en) * 2021-03-29 2022-09-29 Innolux Corporation Image system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101557430A (zh) * 2008-04-10 2009-10-14 Lg电子株式会社 移动终端及其屏幕控制方法
CN101632057A (zh) * 2007-01-03 2010-01-20 苹果公司 接近和多重触摸传感器检测及解调

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020140633A1 (en) * 2000-02-03 2002-10-03 Canesta, Inc. Method and system to present immersion virtual simulations using three-dimensional measurement
FI115254B (fi) 2001-12-20 2005-03-31 Nokia Corp Kosketusnäytön käyttäminen osoitinvälineellä
DE102004025517A1 (de) * 2004-05-21 2005-12-15 X3D Technologies Gmbh Alphanumerische Eingabeeinrichtung
WO2008062586A1 (fr) * 2006-11-22 2008-05-29 Sharp Kabushiki Kaisha Dispositif d'affichage, procédé d'affichage, programme d'affichage, et support d'enregistrement
US20080297487A1 (en) * 2007-01-03 2008-12-04 Apple Inc. Display integrated photodiode matrix
US8665225B2 (en) * 2007-01-07 2014-03-04 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture
WO2008132724A1 (en) 2007-04-26 2008-11-06 Mantisvision Ltd. A method and apparatus for three dimensional interaction with autosteroscopic displays
US8219936B2 (en) * 2007-08-30 2012-07-10 Lg Electronics Inc. User interface for a mobile device using a user's gesture in the proximity of an electronic device
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
US20090225043A1 (en) * 2008-03-05 2009-09-10 Plantronics, Inc. Touch Feedback With Hover
US8233206B2 (en) * 2008-03-18 2012-07-31 Zebra Imaging, Inc. User interaction with holographic images
US7924143B2 (en) * 2008-06-09 2011-04-12 Research In Motion Limited System and method for providing tactile feedback to a user of an electronic device
US20100020022A1 (en) * 2008-07-24 2010-01-28 Dell Products L.P. Visual Feedback System For Touch Input Devices
KR101602363B1 (ko) * 2008-09-11 2016-03-10 엘지전자 주식회사 3차원 사용자 인터페이스의 제어방법과 이를 이용한 이동 단말기
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
KR20100050103A (ko) * 2008-11-05 2010-05-13 엘지전자 주식회사 맵 상에서의 3차원 개체 제어방법과 이를 이용한 이동 단말기
KR101531193B1 (ko) * 2008-11-18 2015-06-25 엘지전자 주식회사 맵 제어방법과 이를 이용한 이동 단말기
US8321810B2 (en) * 2009-04-30 2012-11-27 Microsoft Corporation Configuring an adaptive input device with selected graphical images
US9285950B2 (en) * 2011-03-30 2016-03-15 Google Inc. Hover-over gesturing on mobile devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101632057A (zh) * 2007-01-03 2010-01-20 苹果公司 接近和多重触摸传感器检测及解调
CN101557430A (zh) * 2008-04-10 2009-10-14 Lg电子株式会社 移动终端及其屏幕控制方法

Also Published As

Publication number Publication date
US8508347B2 (en) 2013-08-13
EP2585900B1 (en) 2023-07-26
EP2585900A1 (en) 2013-05-01
CN103080887A (zh) 2013-05-01
EP2585900A4 (en) 2016-07-06
US20110316679A1 (en) 2011-12-29
WO2011161310A1 (en) 2011-12-29

Similar Documents

Publication Publication Date Title
CN103080887B (zh) 用于基于接近的输入的装置和方法
US11699271B2 (en) Beacons for localization and content delivery to wearable devices
US20210405761A1 (en) Augmented reality experiences with object manipulation
CN103339591B (zh) 用于用户输入以控制显示信息的装置和方法
CN104915136B (zh) 移动终端及其控制方法
KR101488121B1 (ko) 표시된 정보를 제어하기 위한 사용자 입력 장치 및 방법
KR102051418B1 (ko) 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치
CN104808784B (zh) 移动终端及其控制方法
US10776618B2 (en) Mobile terminal and control method therefor
US8780076B2 (en) Mobile terminal and method for controlling the same
CN115917498A (zh) 使用语音和文字字幕的增强现实体验
US20210409628A1 (en) Visual-inertial tracking using rolling shutter cameras
US20230066318A1 (en) Handcrafted augmented reality effort evidence
CN115735174A (zh) 使用保持社交距离的增强现实体验
CN108171182A (zh) 电子装置、人脸识别方法及相关产品
KR20150145550A (ko) 이동 단말기
CN110291495B (zh) 信息处理系统、信息处理方法及程序
US20230062366A1 (en) Handcrafted augmented reality experiences
CN117897680A (zh) 基于物理动作的增强现实通信交换
CN117940877A (zh) 增强现实道具交互
CN108228054A (zh) 电子装置、显示控制方法及相关产品

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1184257

Country of ref document: HK

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20160119

Address after: Espoo, Finland

Applicant after: Technology Co., Ltd. of Nokia

Address before: Espoo, Finland

Applicant before: Nokia Oyj

GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1184257

Country of ref document: HK