CN103347437A - 3d映射环境中的凝视检测 - Google Patents
3d映射环境中的凝视检测 Download PDFInfo
- Publication number
- CN103347437A CN103347437A CN2012800074841A CN201280007484A CN103347437A CN 103347437 A CN103347437 A CN 103347437A CN 2012800074841 A CN2012800074841 A CN 2012800074841A CN 201280007484 A CN201280007484 A CN 201280007484A CN 103347437 A CN103347437 A CN 103347437A
- Authority
- CN
- China
- Prior art keywords
- computer
- user
- display
- project
- mutual project
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种方法包括:接收计算机系统的用户(22)的至少一个身体部位的三维(3D)图;以及接收用户的二维(2D)图像,该图像包括用户的眼睛(34)。用户头部(32)的3D坐标从3D图和2D图像中提取出来,并且基于头部的3D坐标和眼睛的图像识别出由用户执行的凝视的方向。
Description
相关申请
本申请要求2011年2月9日提交的美国临时专利申请61/440877,2011年8月24日提交的美国临时专利申请61/526692,以及2011年9月25日提交的美国临时专利申请61/538867的优先权,在此通过引用将它们并入本文。
发明领域
本发明一般涉及人-机界面,并且具体地涉及组合多个用户交互形式的界面。
发明背景
目前可以利用许多不同类型的用户界面设备和方法。常用的触觉界面设备包括计算机键盘、鼠标和操纵杆。触摸屏检测显示区域中通过手指或其他物体而进行的触摸的存在和位置。红外远程控件得以广泛地使用,并且也已经开发了“可佩戴的”硬件设备,用于远程控制的目的。
基于用户的身体部位的三维(3D)感应的计算机界面也已经被提出。例如,PCT国际公开WO03/071410,其公开内容通过引用并入本文,描述了一种使用深度-感知传感器的手势识别系统。通常设置在房间中的接近用户的3D传感器提供位置信息,该位置信息用于识别目标身体部位所产生的手势。基于身体部位的形状和它的位置以及在一段间隔的朝向来识别该手势。将该手势进行分类以用于确定到相关的电子设备的输入。
通过引用而并入本专利申请中的文献,将被认为是本申请的一个完整部分,除非在这些并入的文献中定义的任何术语和本说明书中明确地或隐含地做出的定义相冲突,(此时)应仅考虑本说明书中的定义。
作为另一个例子,美国专利7,348,963,其公开内容通过引用并入本文,该专利描述了一种交互式视频显示系统,在该系统中显示屏显示可视图像,并且摄像头捕获关于位于显示屏前面的交互式区域中的对象的3D信息。计算机系统响应于对象的改变来指示显示屏改变可视图像。
三维人机界面系统不仅可以识别用户的手,而且还可以识别身体的其它部位,包括头部、躯干和肢体。例如,美国专利申请2010/0034457,其公开内容通过引用并入本文,其描述了一种用于根据深度图模拟人形的方法。对该深度图进行分割以便发现身体的轮廓。对该轮廓进行处理以便识别该对象的躯干以及一个或多个肢体。通过分析深度图中的至少一个所识别出的肢体的布置来产生输入以控制在计算机上运行的应用程序。
一些用户界面系统跟踪用户的凝视方向。例如,美国专利7,762,665,其公开内容通过引用并入本文,其描述了一种用于调节设备操作的方法,该方法包括:提供用于获得关于用户的注意状态的信息的注意用户界面;并且基于所获得的信息调节设备的操作,其中,被调节的操作由该设备来启动。优选地,关于用户的注意状态的信息是用户与由该注意用户界面感测到的设备进行的眼神交流。
发明内容
根据本发明的实施例,提供了一种方法,该方法包括:接收计算机系统的用户的至少一个身体部位的三维(3D)图;接收该用户的二维(2D)的图像,该图像包括该用户的眼睛,从3D图和2D图像中提取出该用户的头部的3D坐标;基于该头部的3D坐标和眼睛的图像识别由用户执行的凝视的方向。
根据本发明的实施例,还提供了一种方法,该方法包括:接收包括计算机系统的用户的眼睛的图像;基于该眼睛的图像识别由该用户执行的凝视的方向;基于凝视方向识别耦合到计算机系统的显示器上的区域,以及对呈现在该区域中的内容执行操作。
根据本发明的实施例,另外又提供了一种方法,该方法包括:通过计算机系统在耦合到计算机的显示器上呈现多个交互项目;从耦合到该计算机的传感设备上接收表示用户的凝视方向的输入;基于凝视方向识别在该显示器上的目标点;使该目标点与出现在该显示器上的第一交互项目相关联;并响应于该目标点,打开该显示器上的一个或多个第二交互项目。
根据本发明的实施例,还提供了一种方法,该方法包括:接收和分割计算机系统的用户的至少一个身体部位随时间的三维(3D)图的第一序列,以便提取该用户的第一点和第二点的3D坐标,该3D图指示了第二点相对于耦合到该计算机系统的显示器的运动;计算与第一点和第二点相交的线段;识别该线段与该显示器相交处的目标点,并且接合在显示器上呈现的接近该目标点的交互项目。
根据本发明的实施例,还提供了一种装置,该装置包括传感设备,该传感设备被配置为接收用户的至少一个身体部位的三维(3D)图和该用户的眼睛图像,并接收该用户的二维(2D)图像,该2D图像包括用户的眼睛;及计算机,该计算机耦合到该传感设备并被配置为从3D图和2D图像中提取该用户的头部的3D坐标,基于该头部的3D坐标和眼睛图像识别由该用户执行的凝视的方向。
根据本发明的实施例,另外还提供了一种装置,该装置包括传感设备,该传感设备被配置为接收包括用户眼睛的图像;及计算机,该计算机被配置为基于该眼睛图像识别由该用户执行的凝视的方向,基于凝视方向识别耦合到该计算机系统的显示器上的区域,以及对呈现在该区域中的内容执行操作。
根据本发明的实施例,还提供了一种装置,该装置包括显示器和计算机,该计算机耦合到该显示器并被配置为在该显示器上呈现多个交互项目;从耦合到该计算机的传感设备接收表示用户的凝视方向的输入;基于该凝视方向识别在该显示器上的目标点;使该目标点与出现在该显示器上的第一交互项目相关联;并响应于该目标点,打开该显示器上的一个或多个第二交互项目。
根据本发明的实施例,还提供了一种装置,该装置包括显示器和计算机,该计算机耦合到该显示器并被配置为接收和分割计算机系统的用户的至少一个身体部位随时间的三维(3D)图的第一序列,以便提取该用户的第一点和第二点的3D坐标,该3D图指示了第二点相对于耦合到该计算机系统的显示器的运动;计算与第一点和第二点相交的线段;识别该线段与该显示器相交处的目标点;以及接合在显示器上呈现的接近该目标点的交互项目。
根据本发明的实施例,另外还提供了一种计算机软件产品,该计算机软件产品包括其中存储有程序指令的非暂时的计算机可读介质,当该指令由计算机读出时,使该计算机接收该计算机的用户的至少一个身体部位的三维(3D)图;接收该用户的二维(2D)图像,该图像包括该用户的眼睛;从3D图和2D图像中提取该用户头部的3D坐标;并且基于该头部的3D坐标和该眼睛图像识别由该用户执行的凝视的方向。
根据本发明的实施例,还提供了一种计算机软件产品,该计算机软件产品包括其中存储有程序指令的非暂时的计算机可读介质,当该指令由计算机读出时,使该计算机接收包括该计算机系统的用户的眼睛的图像;基于该眼睛图像识别由该用户执行的凝视的方向;基于该凝视方向识别耦合到该计算机系统的显示器上的区域,以及对呈现在该区域中的内容执行操作。
根据本发明的实施例,还提供了一种计算机软件产品,该计算机软件产品包括其中存储有程序指令的非暂时的计算机可读介质,当该指令由计算机读出时,使得该计算机在耦合到该计算机的显示器上呈现多个交互项目;从耦合到该计算机的传感设备接收表示用户的凝视方向的输入;基于该凝视方向识别该显示器上的目标点;使该目标点与出现在该显示器上的第一交互项目相关联;并响应于该目标点,打开该显示器上的一个或多个第二交互项目。
根据本发明的实施例,另外还提供了一种计算机软件产品,该计算机软件产品包括其中存储有程序指令的非暂时的计算机可读介质,当该指令由计算机读出时,使该计算机接收和分割该计算机的用户的至少一个身体部位随时间的三维(3D)图的第一序列,以便提取该用户的第一点和第二点的3D坐标,该3D图指示了第二点相对于耦合到该计算机的显示器的运动;计算与第一点和第二点相交的线段;识别该线段与该显示器相交处的目标点;以及接合在显示器上呈现的接近该目标点的交互项目。
附图说明
在此参照附图仅以举例的方式对本公开进行描述。
图1是根据本发明的实施例的实现混合形式的用户界面的计算机系统的示意性图示说明;
图2是示意性地示出根据本发明的实施例的实现该混合形式的用户界面的计算机系统的功能组件的方框图;
图3是示意性地示出根据本发明的实施例的检测用户的凝视方向的方法的流程图;
图4是根据本发明的实施例的被配置为用于输入密码的数字键盘的示意图;
图5是示意性地示出根据本发明的实施例的与凝视操作的用户界面交互的方法的流程图;
图6A至6C是示出了根据本发明的实施例的使用凝视操作的用户界面执行的一系列操作的示意图;
图7是示意性地示出根据本发明的实施例的检测与凝视有关的指示手势的方法的流程图;
图8是根据本发明的实施例的用户执行指向-选择手势以选择第一给定的交互项目的示意性图示说明;
图9是根据本发明的实施例的用户执行指向-触摸手势以操作第二给定的交互项目的示意性图示说明;
图10是示出了根据本发明的实施例的可选的指向-选择手势(在此也称为触发手势)的示意性图示说明;
图11是根据本发明的实施例的用户使手指向显示器上呈现的给定的图标以便校准计算机系统的示意性图示说明;以及
图12A和12B是根据本发明的实施例的通过呈现较小或较大尺寸的图标来帮助用户选择给定的图标的计算机系统的示意性图示说明。
实施方式的详细描述
概述
当使用物理触觉输入设备,诸如按钮、滚轮或触摸屏时,用户通常通过触摸和/或操作该物理设备来参与和脱离对用户界面的控制。本发明的实施例描述了用于与在耦合到运行混合形式的用户界面的计算机的显示器上呈现的交互项目进行互动的指点设备,该混合形式的用户界面包括通过3D传感器对用户的一个或多个身体部位的位置变化或运动进行的三维(3D)感测,该身体部位通常是手或手指。此处所述的指示手势包括在下文中详细解释的指向-选择、指向-触摸和指向-保持手势。
指向-选择手势使用户能够选择在显示器上呈现的交互项目。例如,使用指向-选择手势,用户可以通过朝向与电影相关联的图标(在显示器上)执行指向-选择手势来开始观看电影。指向-触摸手势使用户能够操作在显示器上呈现的交互项目。例如,用户通过指向-触摸手势操作水平滚动框可以水平地滚动在显示器上呈现的交互项目(例如,电影)的列表。指向-保持手势使用户能够看到在显示器上呈现的交互项目的上下文信息。例如,响应于用户在表示电影的图标上执行指向-保持手势,计算机会呈现弹出窗口,该窗口包括诸如剧情简介、影评和剧组成员的信息。在一些实施例中,当用户执行上述指示手势时,该混合形式的用户界面也可传递视觉反馈。
当与传统的二维(2D)用户界面交互时,上述的物理设备通常向用户传递触觉反馈。然而,当与如本文所描述的混合形式的用户界面的3D用户界面交互时,该用户在不接合任何物理设备的情况下可以执行手势,从而不接收任何触觉反馈。本发明的实施例提供了用于与在显示器上呈现的项目进行交互并且接收非触觉反馈从而补偿了触觉反馈的缺乏的方法和系统。
系统描述
图1是根据本发明的实施例的由计算机26的用户22操作的混合形式的用户界面20的示意性图示说明。(虽然为了简明起见,只有单个用户和用户界面示于图中,但是实际上界面20可以同时与多个用户交互。本发明的可选实施例可以使用不同的用户界面和/或支持跨越不同设备的多个用户界面)。通过示例的方式,在图示的实施例中的用户界面20基于3D传感设备24,该传感设备捕获3D场景信息,该3D场景信息包括身体或至少身体的部位,例如手指30、手31、头部32、或眼睛34。设备24或单独的摄像头(图中未示出)也可以捕获场景的彩色视频图像。设备24捕获的信息由计算机26进行处理,该计算机相应地驱动显示屏28来呈现和操作屏幕上的交互项目36(在此也称为交互项目)。可选地,该用户界面可与任何类型的计算机设备结合起来使用,例如笔记本电脑、平板计算机、电视机等等。
尽管图1示出了塔结构的计算机26,但是其它结构的计算机也被认为在本发明的精神和范围之内。例如,计算机26可以被构造成台式计算机、便携式计算机(例如,笔记本电脑)或单体计算机。
计算机26处理由设备24产生的数据,以便重建用户22的3D图。术语“3D图”(或相应的“深度图”)是指表示给定对象的表面的一组3D坐标,在这种情况下,给定对象指的是用户的身体。在一个实施例中,设备24将斑点图案投影到对象上并捕获所投影的图案的图像。然后,基于成像图案中的斑点的横向位移,计算机26通过三角测量计算用户的身体表面上的点的3D坐标。通过示例的方式,基于设备24,参照基本水平的X轴40、基本垂直的Y轴42和深度Z轴44,对3D坐标进行测量。例如,用于这种使用投影图案的基于三角测量的3D映射的方法和设备描述于PCT国际公开WO2007/043036、WO2007/105205和WO2008/120217中,其所公开内容通过引用并入本文。可选地,如本领域中公知的,系统20可以使用3D映射的其它方法,使用单个或多个摄像头或其它类型的传感器。
在一些实施例中,设备24通常通过处理和分析包括从一只或两只眼睛34反射的光(通常为红外光和/或由红色-绿色-蓝色相加色模型产生的颜色)的图像来检测用户22的眼睛34的位置和方向,以便于找到该用户的凝视方向。在可选的实施例中,计算机26(通过其自身或与设备24进行组合)检测用户的眼睛34的位置和方向。所反射的光可以源自设备24的光投影源,或任何其它天然光源(例如,日光)或人造光源(例如,灯)。使用本领域已知的技术,例如检测瞳孔中心和角膜反射(PCCR),设备24可以处理并分析包括从眼睛34的组成部分(例如瞳孔38、虹膜39或角膜41)反射的光的图像,以便找到用户的凝视方向。另外,设备24可以将从角膜反射的光作为闪烁效果传递(给计算机26)。
由计算机26从3D图中提取的用户头部(例如,眼睛的边缘、鼻子或鼻孔)的位置和特征可以用于找到用户眼睛的粗略位置,从而简化了眼睛位置和凝视方向的精确测定,并且使得该凝视测量更可靠和稳健。此外,计算机26可以容易地将由3D图提供的头部32的部分(例如,眼睛34)的3D位置与经由眼睛部分的图像分析获得的凝视角信息结合起来以便识别用户在任何给定的时间都在观看的给定的屏幕上的对象36。如在本领域已知的一些眼部跟踪系统中,3D映射和凝视跟踪共同使用允许用户22自由地移动头部32,同时通过使用头上的传感器或发射器减轻主动地跟踪头部的需要。
通过跟踪眼睛34,本发明的实施例在用户移动头部32后,可以减少重新校准用户22的需要。在一些实施例中,计算机26可以使用头部32、眼睛34和瞳孔38的深度信息,以便跟踪头部的移动,从而能够基于用户22的单次校准实现可靠的凝视角计算。使用本领域中已知的技术,例如PCCR、瞳孔跟踪以及瞳孔形状,计算机26根据头部32的固定点可以计算眼睛34的凝视角,并且使用该头部的位置信息以便重新计算该凝视角并增强前述技术的准确性。除了减少重新校准,跟踪头部的其它优点包括:减少了光投影源的数量并减少了用于跟踪眼睛34的摄像头的数量。
计算机26通常包括通用计算机处理器,其在软件中被编程以实现以下描述的功能。例如,该软件可以通过网络以电子形式下载到处理器上,或者它也可以提供在例如光学、磁或电子存储介质的非暂时的有形的计算机可读介质上。另外或可选择地,计算机处理器的部分或全部功能可以在例如定制或半定制的集成电路或可编程的数字信号处理器(DSP)的专用硬件中实现。尽管在图1中通过示例的方式将计算机26示出为与传感设备24分离的单元,计算机的部分或全部处理功能可以通过该传感设备壳体内的或与该传感设备相关联的合适的专用电路来执行。
作为另一种替代方案,这些处理功能可以通过与显示器28(例如,在电视机中的)集成在一起的,或与任何其它合适类型的计算机设备诸如游戏控制台或媒体播放器集成在一起的合适的处理器来实施。设备24的感测功能同样可以结合到计算机或由传感器的输出控制的其它计算机装置中。
可以使用各种技术以重建用户22的身体的3D图。在一个实施例中,计算机26从由设备24产生的深度数据中提取对应于身体部位的3D连接分量。例如,在2010年8月11日提交的美国专利申请12/854187中描述了用于此目的的技术,其公开内容通过引用并入本文。计算机分析这些所提取的分量,以便重构用户的身体的“骨架”,如以上提及的美国专利申请公开2010/0034457,或于2010年8月11日提交的美国专利申请12/854188中描述的,其公开内容也通过引用并入本文。在可选的实施例中,也可以使用其它技术来识别用户身体的某些部位,并且不需要设备24全部或甚至部分地看到整个身体或待重构的骨架。
即使由于例如最小对象尺寸以及在距离设备24较大的距离处分辨率降低这些问题,使得身体部位(例如,指尖)可能不被深度图检测到,但是通过使用重构的骨架,计算机26可以假定身体部位例如手指30的尖端的位置。在一些实施例中,根据身体部位的早期检测或根据沿着几个(先前)接收到的深度图跟踪身体部位,计算机26可以基于人体部位的所预期的形状自动地完成身体部位。
在一些实施例中,作为这种骨架重构的结果,由计算机26生成的信息包括用户的头部,以及臂、躯干还可能有两腿、手和其他特征的位置和方向。在不同的帧(即,深度图)中的这些特征的变化或用户姿势的变化能够提供用户做出的手势和其它动作的指示。用户姿势、手势和其它动作可以提供用于用户与界面20交互的控制输入。这些身体动作可以与由设备24感测到的其它交互形式结合起来,这些身体动作包括如上所述的用户眼球运动和语音指令以及其他声音。因此,界面20使用户22能够执行各种远程控制功能并且能够与出现在显示器28上的应用程序、界面、视频程序、图像、游戏和其它多媒体内容进行交互。
图2是示意性地示出了根据本发明的实施例的用户界面20的功能组件的方框图。传感设备24包括照明子组件50,其将图案投影到目标场景上。如适当配置的视频摄像头的深度成像子组件52捕获场景中的图案的图像。通常,照明子组件50与成像子组件52在红外范围内操作,尽管也可使用其它光谱范围。可选择地,设备24中的彩色视频摄像头(未示出)捕获场景中的2D彩色图像,并且麦克风54也可捕获声音。
处理器56从子组件52接收图像并将每个图像中的图案与存储在存储器58中的参考图案进行对比。通过将图案投影在距设备24已知距离处的参考平面上,参考图案通常预先被捕获。处理器56计算部分图案在3D图的区域上的局部偏移,并且将这些偏移转化为深度坐标。例如,该过程的细节在PCT国际公开WO2010/004542中进行了描述,其公开内容通过引用并入本文。可选地,如前所述,通过本领域已知的其他方式,例如立体成像、类似声纳的设备(基于声音的/声学的)、可佩带工具、激光器或传播时间测量,设备24可被配置成生成3D图。
处理器56一般包含嵌入式微处理器,其被用软件(或固件)编程以实施下面所述的处理功能。例如,该软件可以通过网络以电子形式提供给处理器;可选地或另外,该软件可以被存储于非暂时的有形计算机可读介质中,例如存储于光的、磁的或电子存储介质中。处理器56也包括合适的输入和输出接口,并且该处理器可以包括用于实现其某些或所有功能的专用的和/或可编程的硬件逻辑电路。一些处理功能以及可以用于实施这些处理功能的电路的详细描述示于上述公开WO2010/004542中。
在一些实施例中,凝视传感器60通过捕获和处理用户22的二维图像来检测用户22的眼睛34的凝视方向。在其它的实施例中,计算机26通过处理设备24传送的一序列3D图来检测凝视方向。传感器60可以使用本领域中已知的眼睛跟踪的任何适当的方法,例如,在上述美国专利7,762,665或在美国专利7,809,160中所描述的方法,它们的公开内容通过引用并入本文,或是在这些专利中引用的参考文献中所描述的可选的方法。例如,传感器60可以捕获从用户的眼睛的眼底或角膜反射的光(通常是红外光)的图像。这种光通过照射子组件50或通过与传感器60相关的另一个投影元件(未示出)可以朝向眼睛投影。传感器60在用户界面20的整个目标区域可捕获其高清晰度图像并且随后在目标区域内可以定位来自眼睛的反射。可选地,除了捕获用于3D映射的图案图像,成像子组件52可以捕获来自用户眼睛的反射(环境光、来自监视器的反射)。
作为另一种替代方案,处理器56可驱动扫描控件62以引导凝视传感器60的视场朝着用户的面部或眼睛34的位置。如上所述,基于深度图或基于根据3D图重构的骨架,或使用本领域已知的基于图像的面部识别方法,可通过处理器60或通过计算机26来确定该位置。例如,扫描控件62可以包括机电框架、或扫描光学或光电元件或任何其它合适类型的本领域已知的扫描器,例如被配置成将场景反射到凝视传感器60的基于微机电系统(MEMS)的反射镜。
在一些实施例中,扫描控件62还可以包括光学或者电子变焦,其根据由3D图所提供的设备24到用户头部的距离调节传感器60的放大率。由扫描控件62所实施的上述技术使得仅具有中等分辨率的凝视传感器60能够以高精度捕获用户眼睛的图像,从而给出精确的凝视方向的信息。
在其它实施例中,计算机26可以使用扫描控件的角度(即,相对于Z轴44)来计算凝视角。在另外的实施例中,计算机26可以比较凝视传感器60捕获的景物和3D深度图中所识别的景物。在另一实施例中,计算机26可以将凝视传感器60捕获的景物与2D摄像头捕获的景物相比较,该2D摄像头具有包括整个目标场景的宽视场。此外或另外,扫描控件62可以包括被配置为核对眼睛移动角度的传感器(通常光学的或电的)。
处理器56处理由凝视传感器60捕获的图像以提取用户的凝视角度。通过将传感器60所做的角度测量与深度成像子组件52所提供的用户头部的3D位置结合起来,处理器能够准确地获取3D空间中用户的真实视线。3D映射和凝视方向感测的结合减少或免除了精确校正和比较多个反射信号以便提取真实的凝视方向的需要。由处理器56提取的视线信息使计算机26能够可靠地识别用户正注视的交互项目。
由于不需要检测闪烁点(例如,在PCCR方法中所使用的),两种形式的结合可以允许无需使用有源投影设备(即,照射子组件50)进行凝视检测。使用该组合可以解决本领域已知的其它凝视方法中已知的玻璃反射问题。使用从自然光反射、2D图像(即,检测瞳孔位置)、以及3D深度图(即,通过检测头部的特征识别头部的位置)获取的信息,计算机26可以计算凝视角和识别用户正注视的给定的交互项目。
如上所述,凝视传感器60和处理器56可以跟踪用户的一只或两只眼睛。如果能够以足够的精度跟踪两只眼睛34,处理器也可为每只眼睛提供单独的凝视角度测量。当双眼注视远处的对象时,双眼的凝视角度将是平行的,但是对于近处的物体,该凝视角度通常汇聚在接近目标对象的一点上。在提取用户在任何给定的时间其凝视角固定的点的3D坐标时,该点可以与深度信息一起使用。
如上所述,设备24可以产生同时在该设备视场中的多个用户的3D图。通过提供整个视场的单个高分辨率图像,或通过使扫描控件62对每个用户的头部位置进行扫描,凝视传感器60可以同样地找到这些用户中每个人的凝视方向。
处理器56经由例如通用串行总线(USB)连接的通信链路64,将3D图和凝视信息输出到计算机26的合适的界面66上。该计算机包括带有存储器70的中央处理单元(CPU)68以及用户界面72,其驱动显示器28并且也可以包括其它组件。如上所述,设备24可以选择性地仅输出原始图像,并且如上所述的3D图和凝视计算可以通过CPU68用软件执行。用于从3D图和凝视信息中提取较高级的信息的中间件可以在处理器56、CPU68或在这两者上运行。CPU68运行一个或多个应用程序,这些应用程序通常经由应用程序接口(API),基于由中间件提供的信息,驱动用户界面72。例如,这些应用可包括游戏、娱乐、网上冲浪和/或办公室应用。
尽管处理器56和CPU68由于它们之间的处理任务具有特定的划分而作为独立的功能单元被示于图2中,处理器和CPU的功能可以可选地由单个的处理单元来实施,或者这些功能可以被分成由三个或更多的处理单元实施。此外,尽管设备24被示出为包含特定布置中的元件的某种组合,其它设备配置可被用于本文中所述的目的,且被视为在本发明范围之内。
凝视检测
图3是示意性地示出根据本发明的实施例的检测用户22的凝视方向的方法的流程图。在初始步骤80中,计算机26从深度成像子组件52接收包括用户22的至少一个身体部位的3D图,并且在提取步骤82中,计算机将所接收的3D图分割以便提取出头部32的3D坐标。在接收步骤84中,计算机26从凝视传感器60接收用户的包括眼睛34的二维图像。如上所述,照射子组件50可以朝向用户22投射光,并且所接收的图像可以包括从眼底和/或从眼睛34的角膜上反射出的光。在识别步骤86中,计算机26分析所接收到的深度图和图像以便于识别用户22的凝视方向,并且该方法结束。
在一些实施例中,计算机26通过沿着X轴40、Y轴42和Z轴44从3D图中识别出头部的位置来提取头部32的3D坐标。在其它实施例中,计算机26通过沿着X轴40和Y轴42从2D图像中识别出头部的第一位置,并且通过沿着Z轴44从3D图中识别出头部的第二位置来提取头部32的3D坐标。
本发明的实施例可使用凝视检测以响应于凝视的方向来控制计算机系统例如计算机26的功能。在一些实施例中,计算机26可以识别在凝视方向的位置上的在显示器28上呈现的给定的交互项目,并且响应于凝视方向来改变给定的交互项目的状态。
在第一实施例中,改变给定的交互项目36的状态可以包括执行与该给定的交互项目相关联的操作。例如,交互项目36可以包括用户22可以选择在显示器28上呈现的特定内容(例如,电影或电视节目)的菜单选项。在第二实施例中,计算机26通过将从用户接收的输入引导到给定的交互项目,可以改变给定的交互项目的状态。例如,给定的交互项目可以包括文本框,并且如果用户正在凝视该文本框,计算机26可以向该文本框提供从键盘接收的字母数字输入。
在其它实施例中,计算机26可以识别在凝视方向的位置上在显示器28上呈现的给定的交互项目,并且响应于从用户接收的声音指令改变给定的交互项目的状态。例如,给定的交互项目可以包括与软件应用相关的图标,并且该用户可以凝视该图标并且说出“开始”以便于执行该应用。在另外的实施例中,用户界面20可被配置为响应于凝视方向来识别给定的交互项目,并且响应于由肢体(例如,手指30或手31)所执行的手势来操控给定的交互项目。例如,在选择了给定的交互项目之后,如果该计算机接收到指示该用户以挥动运动(即,沿着包括X轴40和Y轴42的平面)来移动手30的一序列3D图,计算机26可以相应地在挥动的方向上(即,从左到右)重新定位所选择的交互项目。
在另一实施例中,本发明的实施例可用于接收包括眼睛34的图像(2D图像或3D图);基于该图像识别凝视方向;基于凝视方向识别显示器上的在凝视方向的区域,并且在该区域上执行操作。例如,计算机26可以包括结合数字摄像头的台式计算机,显示器28可以包括用于所述台式计算机的显示器,并且该摄像头可以被配置成将摄像头的镜头聚焦在所识别出的区域中呈现的项目上。
此外或另外,计算机26可以识别耦合到该计算机的并且位于凝视方向上的设备,并且响应于凝视方向控制设备的功能。例如,如果用户凝视耦合到计算机的扬声器的顶部,计算机可以提高扬声器的音量级,并且如果用户凝视扬声器的底部,计算机可以降低音量级。
图4是根据本发明的实施例的在显示器28上呈现的被配置用于输入密码的数字键盘90的示意图。在此图和随后的图中用户22的存在和凝视用眼睛34表示,所述的眼睛具有视线92。传感设备24通过在该设备的视场94中找到用户头部的3D位置和眼睛34的凝视方向,可以确定视线。
在本说明书中,交互项目36可以通过使用不同的描述(例如,使用图标或滚动框代替交互项目)并附加字母到识别标号来进行区分。例如,在图4中,交互项目46包括数字输入键36A和开始按钮36B。当呈现输入键和开始按钮时,计算机26提示用户22输入密码。尽管数字键示于图4中,任何类型的屏幕上的图形元素可以用作用于该目的的“键”。当用户想要开始操作计算机26或操作在计算机上执行的特定的应用程序时,用户可以将他的视线从一个给定键36A引向适当序列中的下一个键,以便于输入密码。或者,当该用户的凝视停留在每个给定键36A(即,在包含密码的一系列键中)上时,该用户可以做出特定的手势或声音指令(如“输入”),以便于通知设备24记录该选择。
在一些实施例中,计算机26可以被配置成在具有或不具有用户做出的任何额外的输入(即,手势或声音)的情况下,选择一系列交互项目36(例如,当用户将他的视线从一个交互项目移动到下一个时)来指示已被选择的交互项目。同样地,计算机26可以被配置为不向用户提供指示该选择的任何视频或音频反馈。因此,即使用户在公共场合输入密码,旁观者将无法确定或复制密码。
输入密码后,该用户可以引导他的视线朝向开始按钮36B以便于继续与计算机进行交互。
除了密码输入,凝视检测可以用于以其他方式来增强安全性。例如,计算机26可以获悉用户特有的眼动模式和/或眼睛34的其他生物统计特征以作为额外的识别方法。作为另一个例子,设备24可被配置成不仅可以找到用户22的凝视角度,而且还可以找到位于视场94(例如,通过骨架重构从3D图中识别的)内的其他人的凝视角度。在这种情况下,当另一个人正注视显示器28时,设备24可以被配置为警告用户(甚至可提示计算机26在显示器上显示设备24所捕获的其他人的图像)。这种类型的功能可以帮助用户22保护自己免遭窃听和阻止窃听者继续看着显示器。
作为功率节省特征,设备24可以检测何时用户没有看着显示器28,并且当用户的视线离开显示器28的时间超过阈值时间期间时,计算机26可激活功率节省技术。例如,当用户没有看着显示器时,计算机26可以使显示器完全变暗或暗淡(即,降低亮度)。当该用户回过来看向显示器时,计算机可以停用功率节省技术。例如,在检测到用户22将他的视线返回到显示器上时,计算机26可以增加亮度,使亮度返回到全亮度。这种依赖凝视的屏幕控制在提高便携式设备的电池寿命方面以及在通常为了节省成本和环境友好性而降低功率消耗方面也是有用的。
凝视操作的用户界面
凝视跟踪可以被用于创建交互式用户界面,该用户界面可以检测出用户正在注视屏幕上的哪个交互项目(例如,文本框,或者应用程序如字处理程序),从而消除了对于鼠标和/或键盘的需要。例如,当用户键入文本时,文本会被自动定向到该用户正在注视的文本框。作为另一个例子,当用户在一个单词或句子处进行第一次按键时,“鼠标点击”型事件被发送到所注视的文本框中,这使得文本被输入到该文本框中。以这种方式,用户无需移动鼠标逐个字段(“名”、“姓”、“密码”等)进行切换就可填写Web表格。
此外,凝视跟踪与其他形式(例如3D映射/手势检测和/或语音检测)的组合,使用户能够充分控制屏幕上的对象,而无需使用鼠标或触摸屏。以这种方式,用户可以实施全范围的指向和选择功能,包括通过大量的信息项目和选择进行搜索。所组合的界面形式也可以被用于在某个交互项目的上下文中搜索和执行控制功能,例如在打开的文件内执行查找、剪切、复制和粘贴功能。
图5是示意性地示出了根据本发明的实施例的与凝视操作的用户界面交互的方法的流程图,并且图6A至6C是示出了根据本发明的实施例的使用凝视操作的用户界面执行的一系列操作的示意图,在初始化步骤100中,计算机系统例如计算机26在显示器28上呈现多个交互项目36。在图6A-6C所示的配置中,计算机26最初在显示器28的右下角处呈现开始按钮36B。由于用户22使其视线92朝向开始按钮36B,计算机26在接收步骤102中接收指示用户22的凝视方向的输入(例如,深度图)。一旦确定凝视方向,计算机26在识别步骤104中基于凝视方向(即,该用户正注视的显示器上的点)识别显示器28上的目标点120。
在比较步骤106中,如果第一交互项目36接近目标点,则在相关联步骤108中,计算机26将目标点与第一交互项目相关联。在图6A所示的例子中,第一交互项目包括开始按钮36B,并且目标点120位于开始按钮36处。返回到步骤106中,如果目标点没有接近任何交互项目,则该方法继续到步骤102。
在响应步骤110中,计算机26打开(即,呈现)一个或多个接近第一交互项目的第二交互项目36,并且该方法结束。计算机26可以响应于用户调整凝视方向使得目标点接近其中一个第二交互项目,来选择其中一个第二交互项目。
虽然在图6A至图6B中的交互式用户界面的配置示出了计算机26以同心图案呈现了位于第一交互项目径向外侧的第二交互项目36,其它配置也被认为在本发明的精神和范围之内。例如,计算机26可以将第一和第二交互项目呈现为嵌套的矩形图标。
在一些实施例中,计算机26可以响应于由肢体(例如,手指30或手31)所执行的手势打开一个或多个第二交互项目。例如,在将目标点与第一交互项目关联之后,如果计算机接收到指示用户正在以挥动动作(例如,沿包括X轴40和Y轴42的平面)移动手30的一序列3D图,计算机26可以响应地打开一个或多个第二交互项目。
在图6A所示的配置中,计算机26呈现了第二交互项目的菜单区域122,该第二交互项目包括计算机上可用的各种应用的选项卡36C(以同心图案进行布置)。在一些实施例中,计算机26响应于用户凝视目标点120而打开菜单区域122,从而没有必要求用户进行任何形式的身体手势或语音指令。
在图6B中,用户22将其视线92朝向了邮件选项卡36C,这导致计算机26自动打开用户的电子邮件(电子函件)收件箱,其含有收到的邮件项目的列表36D。当用户将其视线在列表36D上向上和向下扫描时,并将视线92停留在特定的列表项36D上时,计算机自动呈现由所述列表项所表示的邮件项目的内容的预览124。用户通过将其视线92向上或向下移动,可预览其它的列表项36D,或可通过将其视线92引导到返回按钮36E返回主菜单。所有这些动作可仅靠眼部运动来执行。
为了打开所选择的邮件项目,用户可通过另一形式将指令输入到计算机26。例如,用户可以说“打开”,或可在凝视与邮件项目对应的列表项36D的同时执行打开的手势。传感设备24检测用户所做的音频输入或三维运动,并将适当的指令输入计算机26中。结果,图6C所示的屏幕打开了,呈现所选择的邮件项目的全部内容126。该用户可通过将他的凝视移动到“返回收件箱”区域36F来从此点返回收件箱,或可使用返回按钮36E返回主菜单,如上面所提到的。
当选择给定的交互项目36时,计算机26可以将视觉反馈传递给指示该选择(即,在执行诸如呈现全部内容126的动作之前)的用户。视觉反馈的例子包括改变所选项目的尺寸和/或外观,或通过用边框包围所选择项目来突出显示所选择的项目。传递视觉反馈使得用户22将他的凝视集中在目标点的附近,从而优化用户体验。例如,当用户选择开始按钮36B时,计算机26可以经由开始按钮传递视觉反馈,从而引导用户将他的凝视保持在接近计算机呈现菜单区域122中的选项卡36C的位置。
与凝视相关的指示手势
如下文详述,当用户22执行指向-选择、指向-触摸和指向-上下文的手势时,用户22指向给定的交互项目36。在本发明的实施例中,计算机26通过限定用户的第一点和第二点之间的直线来识别用户正指向何处,并识别直线在何处(即,目标点120)与显示器28相交。
图7是示意性地示出了根据本发明的实施例的检测与凝视有关的指示手势的方法的流程图。图8是根据本发明的实施例,用户22执行指向-选择手势以选择在显示器28上呈现的第一给定的交互项目36的示意性图示说明,以及图9是根据本发明的实施例,用户22执行指向-触摸手势以操作在显示器28上呈现的第二给定的交互项目36的示意性图示说明。用户22使用指向-选择手势可选择的第一交互项目的例子包括图标36G,用户22使用指向-触摸手势可操作的第二交互项目的例子包括图标36G,垂直滚动框36H和水平滚动框36I。
指向-选择手势包括用户22将给定的手指30(通常为食指)指向第一给定交互项目36,将手指30(通常沿着z轴44)移向第一给定交互项目,停止或减慢手指,然后将手指拉回用户。指向-触摸手势包括用户22将手指指向第二给定交互项目36,将手指30(通常沿z轴44)移向第二给定交互项目,暂停手指,然后将手沿着包括X轴40和Y轴42的平面移动。
在第一接收步骤130中,诸如计算机26的计算机系统接收包括用户22的3D图的第一序列,并且在提取步骤132中,计算机分割所接收的3D图以提取用户的第一点和第二点的3D坐标。虽然图8和图9示出了包括眼睛34的第一点和包括手指30(食指)的指尖的第二点,不同的第一点和第二点被认为在本发明的精神和范围内。例如,第一点可包括眼睛34之间的一个点,或用户脸上的某个其它点,而第二点可以包括用户任意肢体上的任意点。对于用户22的不同姿势,计算机26可使用不同的计算来识别第一点和第二点。
在第一比较步骤134中,如果3D图的第一序列指示该用户正相对于(通常朝向)显示器28移动第二点,那么在第二接收步骤136中,计算机26接收并分割指示第二点减速的3D图的第二序列。在计算步骤138中,计算机26计算与第一点和第二点相交的线段160,以及在识别步骤140中,计算机将线段160延伸到显示器28,并识别线段160与显示器相交处的目标点120。
在一些实施例中,用户22可能没有看着目标点。例如,计算机26可以确定(即,使用上述的凝视检测实施例)用户正将他的凝视引向在显示器28的左侧呈现的第一给定交互项目,但是步骤140识别到该用户正指向位于显示器28右侧的第二给定交互项目36。在这种情况下,尽管该用户将他的凝视指向第一交互项目,计算机可以被配置成选择第二交互项目。
在第二比较步骤142中,如果计算机26在接近目标点120处呈现给定的交互项目36,则计算机与接近目标点的给定交互项目36相接合(engage),并在第三接收步骤144中接收和分割3D图的第三序列。在第三比较步骤146中,如果3D图的第三序列指示用户正从显示器(即,朝向用户22)移走第二点,那么在选择步骤148中,计算机26与在接近目标点120处呈现的给定的交互项目相接合(即,选择),然后该方法结束。在图8所示的例子中,用户22可以使用包括将手指30指向图标“A”和将手指拉回的指向-选择手势选择图标“A”。
在一些实施例中,接合给定的交互项目可以包括执行与给定的交互项目相关联的动作。例如,给定的交互项目可包括电影的给定图标36G,接合该给定图标36G包括执行应用程序来观看电影。
可选地,在指向图标“A”时,用户22可以发出诸如“选择”的语音指令。一旦从麦克风54接收到语音指令,计算机26就可以执行与呈现在接近目标点120处的给定的交互项目(例如,图标“A”)相关的操作。
在一些实施例中,尽管上文描述的凝视检测实施例指示用户当前没有看着给定的交互项目,但计算机26可使用指向-选择手势,选择给定的交互项目36。在第一例子中,如果计算机26检测到用户在指定的时间内并没有改变他的凝视方向,而且当所接收到的2D图像和3D图不指示凝视方向(例如,手31挡住眼睛34)时,计算机26识别出指向-选择手势,那么计算机26可“覆盖”凝视检测并响应于指向-选择手势。
在第二个例子中,如果手指运动姿势是“显著的”(即,至少具有第一指定的距离),并且如果目标点120距离在凝视方向上呈现的交互项目至少为第二指定距离,那么计算机26可以响应指向-选择手势。例如,如果用户正注视在显示器28的左侧呈现的第一交互项目36,并对在显示器右侧呈现的第二交互项目36执行指向-选择手势,那么计算机26可被配置为接合第二交互项目。
如果3D图的第三序列没有指示用户正将第二点从显示器28移走,那么在第四比较步骤150中,计算机26分析3D图的第三序列来确定用户22是否正沿包括X轴40和Y轴42的X-Y平面移动该第二点。如果3D图的第三序列指示该用户正沿X-Y平面移动该第二点,那么在重定位步骤152中,计算机26响应于第二点的运动重定位位于接近目标点120处的交互项目,然后该方法结束。在图9所示的例子中,用户22可以使用包括将手指30指向垂直滚动框和将手指上下移动的指向-触摸手势,移动垂直滚动框36H。
如果3D图的第三序列没有指示该用户正沿X-Y平面移动第二点,那么在第五比较步骤154中,计算机26分析3D图的第三序列以确定用户22是否正相对稳定地保持第二点持续至少特定的时间段(例如,两秒)。如果3D图的第三序列指示该用户正相对稳定地保持第二点持续特定的时间段,那么在呈现步骤156中,计算机26对位于接近目标点120处的交互项目执行保持操作。例如,保持操作可包括呈现位于接近目标点120处的交互项目的上下文信息。上下文信息的例子包括交互项目的属性或用户可用的选项。例如,计算机26可呈现消息“拉回手指来选择,或水平或竖直地移动手指来重定位项目。”保持操作的另一个例子可包括计算机26删除位于接近目标点120处的交互项目。
返回步骤154,如果3D图的第三序列没有指示用户相对稳定地保持第二点持续特定的时间段,那么该方法继续到步骤130。类似地,如果在步骤142中计算机26没有呈现接近目标点120处的给定的交互项目36,或者如果在步骤134中3D图的第一序列没有指示用户22正将第二点朝着显示器28移动,那么该方法也继续到步骤130。
在一些实施例中,计算机26可以响应于本文描述的手势控制耦合到计算机的设备的功能。例如,如果用户在指向耦合到计算机的扬声器时,朝上执行指向-触摸手势,计算机可以提高扬声器的音量级。类似地,如果用户在指向扬声器时朝下执行指向-触摸手势,那么计算机可以降低扬声器的音量级。
尽管图7的流程图中所描述的手势包括指向-选择手势和指向-触摸手势,那些经由线段160(即,与第一点和第二点相交的线段)识别目标点120的其它指示手势应被认为在本发明的精神和范围内。另外地或可选地,指向-选择手势和指向-触摸手势可以与上述的凝视检测实施例结合使用。
例如,计算机26可以被配置为一旦基于用户的凝视、指示用户28正将手指移向显示器28的3D图的第一序列、指示用户正将手指减速的3D图的第二序列、以及指示用户正将手指30从显示器移走的3D图的第三序列识别出目标位置120时,选择(即,指向-选择)给定的交互项目36。类似地,计算机26可以被配置为一旦基于用户的凝视、指示用户28正将手指30移向显示器28的3D图的第一序列、指示用户正将手指减速的3D图的第二序列、以及指示用户正沿包括X轴40和Y轴42的平面移动手指30的3D图的第三序列识别出目标位置120时,响应性地重定位(即指向-接触)给定的交互项目36。
图10是示出了根据本发明的实施例的可选的在此也称为触发手势的指向-选择手势的示意性图示说明。在将食指30指在给定的交互项目36之后,用户22可以通过抬高或合拢拇指170(如由箭头172所示)选择给定的交互项目,其中合拢拇指完成所述手势(即,而不是将手指移向交互项目)。可选地,一旦用户22将手指30指向给定的交互项目,以及发出声音指令来选择给定的交互项目(例如,用户说出单词“打开”),计算机26就可以选择给定的图标。
另外地或可选地,尽管图8至图9中所示的例子示出了位于头部32上的第一点,其它的第一点被认为在本发明的精神和范围内。在图10所示的例子中,第一点包括食指30的关节,并且线段160通过指尖和关节。
非触觉用户界面校准
在操作中,非触觉用户界面20通常由多于一个用户使用,而且每一用户可能不同地指向在显示器28上呈现的同一给定的交互项目36。在一些实施例中,使用非触觉用户界面的元素(即,图标30),计算机26可以为非触觉用户界面的每一用户计算并储存校准系数。
图11是根据本发明的实施例的用户22将手指30指向给定图标36G的示意性图示说明。如该图所示,基于用户手指30的位置,线段160指向图标“A”的正下面。因此,一识别出用户22,计算机26就可以在检测由用户执行的手势时应用适当的校准系数。
例如,如果非触觉用户界面20在特定的一段时间内不活动,那么计算机26可“锁住”非触觉用户界面,并呈现用户22可以指向以解锁用户界面的单个解锁图标36G。当用户指向解锁图标时,计算机26可以识别目标点120并为该用户计算校准系数(即,基于目标点与解锁图标的接近程度)。
另外地或可选地,可能会有这样的情况:当用户22执行手势时,目标点120位于两个或多个图标36G之间,且计算机不能识别用户指向哪个图标。在计算机26不能识别指向哪个图标36G的情况下,计算机能够识别接近目标点120的图标子集,以更大的尺寸呈现识别到的图标,并提示用户再指一次。
图12A是根据本发明的实施例的用户22定位手指30以指向其中一个图标36G的示意性图示说明。如该图所示,目标点120位于图标“A”、“B”、“E”和“F”之间。
图12B是根据本发明的实施例,用户22定位手指30以指向给定的图标36G的示意性图示说明,其中计算机26以更大的尺寸呈现图标。继续图12A所示的例子,计算机26以更大的尺寸呈现图标“A”、“B”、“E”和“F”,然后用户22定位手指30以指向图标“A”。
以类似的方式,如上所述,当用户经由从2D图像和/或3D图获得的凝视检测来选择给定的图标36G时,用户界面20可以校准用户22。首先,计算机26可“锁定”非触觉用户界面,并呈现用户22可以看着以便解锁用户界面的一个解锁图标36G。当用户凝视该解锁图标时,计算机26可以识别目标点120并为用户计算校准系数(即,基于目标点与解锁图标的接近程度)。
在第二个例子中,如果用户持续特定的一段时间凝视着给定的交互项目36G,那么计算机26可在交互项目36(例如,弹出对话框)中呈现给定的交互项目的上下文信息。如果用户凝视接近呈现上下文信息的交互项目,那么计算机26可以基于目标点与上下文信息的接近程度计算出校准系数。
中间件
如上所述,用于从3D图和凝视信息中提取更高层次信息的中间件可在处理器50和/或CPU68上运行,且CPU68可以基于由中间件通常通过API提供的信息执行驱动用户界面72的应用程序。
以下是计算机26可以用来从接收于设备24的3D图中提取信息的中间件原语的例子:
·InteractStart():识别与用户界面20交互的开始。
·InteractHover(Pos2D,Radius):识别显示器28上的当前目标点120(即,用户22的手指30指向的显示器上的点的坐标)。Pos2D参数指显示器28上的(二维)位置。
·InteractPointNew(Pos2D,Radius):当用户22执行指向-选择手势时识别目标点120。
·InteractPointUpdate(Pos2D,Radius):在执行指向-触摸手势时随用户22沿X-Y平面移动手指30更新目标点120。
·InteractEnd(Pos2D,Radius):识别用户22何时将手指30移出视场94。
使用上述的中间件的功能,当用户22执行指向-选择和指向-触摸手势时,计算机26可以识别以下“阶段”:
1.手指识别。在手指识别阶段,中间件识别并开始跟踪手指30。中间件跟踪手指,并识别手指朝向显示器运动的任何意图。这使得用户界面20能够从其它随意的手部运动中区分出指向手势。
2.手势识别。为了到达手势识别阶段,通常需要满足两个条件:(a)用户22将手指30移向显示器28,和(b)目标点120在显示器的边界内。在一些配置中,目标点120可以“位于”显示器28的外侧一点。例如,由于有效的指向-触摸手势可包括从“外侧”显示器28拖动给定的交互项目36(例如,退格键、alt-tab键等)。
一旦进入第二阶段,中间件就传达InteractStart()事件。一旦传达InteractStart()事件,中间件就不断地跟踪手指30并寻找在限定目标点(见下面的第3阶段)方向的变化。当手指移动时,中间件正传达InteractHover(Pos2D,Radius)事件,其使得用户界面20能够检测用户22目前正将手指30指向何处。
3.交互指向。当用户20停止手指30,或将手指30从显示器28移走时,就到达了交互指向阶段。根据第二点的位置,中间件通过连接(例如)眼睛30和指尖以创建线段160来计算目标点120,并将该线段延伸至到达显示器。然后中间件传达识别目标点120的事件InteractPointNew(Pos2D,Radius),从而使用户界面20能够选择预期的交互项目36。
4.交互结束。用户22将手指30从显示器28移走和移出视场94表示手势结束(例如,上述的指向-选择和指向-触摸手势),从而使用户脱离用户界面20。要重新接合用户界面20,用户22可以将手指30重定位在视场94内,从而进入上面描述的手指识别阶段。
在更高的抽象水平上,可以结合上面描述的中间件原语来定义类似于本领域中已知的现有的触摸屏原语的以下原语:
·激活:接合(即,“点击”)给定的交互项目36的指向-选择手势。激活原语可以用于激活应用程序、按压按钮或跟随超链接。
·平移:在X-Y平面上以任何方向移动给定的交互项目36的指向-触摸手势。在操作中,一些应用程序可被配置为对在X轴或Y轴上的移动做出反应。
·上下文:如上所述,指向-保持手势包括用户22将手指移向给定的交互项目36,和将手指相对稳定地保持一特定的时间段(即,与在微软WinDowsTM环境中将鼠标定位于项目上并按下鼠标右键相似)。响应于指向-保持手势,计算机26可以向用户传达指示下一步该怎么做(例如,拖动和/或停止给定的图标36G)的反馈,或关于给定的交互项目的信息(例如,上文所述的电影情节概述)。
在操作中,为了允许在更高的抽象水平上开发在计算机26上执行的反映用户体验(UX)语言原语的应用程序,中间件可以传达以下事件:
·Start(Pos2D,Radius):以类似于InteractStart()事件的方式开始与用户界面20的交互,但是在更高的抽象水平。
·Activate(Pos2D,Radius):激活下面描述的手势原语中的一个。
·Pan(Pos2D,radius):用户22发起指向-触摸手势。
·PanEnd(pos2D,Radius):用户22完成(即,脱离自)指向-触摸平移手势(例如,通过将手指30从显示器移走)。
·Context(Point2D,Radius):用户22发起指向-保持手势。在操作中,用户22可直接从指向-保持手势转换到指向-触摸手势。
·ContextEnd():一旦完成指向-保持手势(即,没有转换到指向-触摸手势),用户22就从用户界面20脱离。
交互式3D显示和游戏
由传感设备24提供的组合的3D映射和凝视方向信息,可以以各种方式使用以提高3D图获取和3D图像演示的质量和用户体验。例如,在交互式游戏中,用户移动穿过场景,在显示器28上的风景可以成为在视线92的方向的焦点。其它区域(如当用户的视点在附近项目上时的远处的风景,或反之亦然)的风景可能会被故意模糊,以模拟实际的深度空间和/或节省带宽。
作为另一个例子,在计算机26上运行的游戏应用程序可被编程为根据用户的凝视方向改变游戏的“故事情节”。例如,计算机可能会在给定的时刻在用户没在看着的显示器区域突然呈现项目(诸如“敌人”角色),使用户惊讶。以上参照图6A至图6C所述的凝视-引导的指向和选择方法可同样在游戏和其它“虚拟世界”中应用在选择交互项目36和“瞄准”它们(诸如将武器指向目标)上。
由设备24收集的深度和凝视信息可以用于增强3D显示(特别是自动立体显示)的能力和用户体验。通过向用户的左、右眼呈现不同的图像来操作该显示,但一般只可以从有限范围的位置观看到。通过跟踪用户的头部位置和凝视方向,设备24能够引导该显示器以改变它呈现的任何图像,使得可以在更大的位置范围观看它们以及展现在显示器上呈现的项目的不同角度视图。应用于在自动立体显示器(或其它3D显示器)上呈现的近场项目36的视差,可以根据用户头部离显示器的距离进行修改,以便增强真实感和减少一些用户在这样的环境中可能感到的视觉不适。
也可以驱动这类3D显示器以与用户的3D手势进行交互。例如,基于用户的已知位置以及用户的凝视方向,计算机26可以驱动该3D显示器来在用户可以“触摸”虚拟项目的位置的空间显示它们。然后用户可以在3D空间中的项目位置通过移动他的手(或其它身体部位)来操作虚拟项目和与虚拟项目进行交互。设备24感测用户的手势和向计算机26提供适当的输入,以使计算机可以响应于用户交互来移动或另外修改该项目。这种类型的交互模式也使得用户能够到达并与给定的屏幕上的对象进行交互,该对象位于由显示器创建的虚拟空间中的另一个对象的“后面”。
在另一个例子中,计算机26可在显示器28上呈现包括多个交互项目36(例如,游戏中的角色)的内容。在一些实施例中,计算机26可以识别显示器上的在用户的凝视方向上的区域(即,目标点12周围的区域),并将在识别出的区域内的内容呈现为“焦点对准”(即,清晰地呈现),以及将在识别出的区域以外的内容呈现为“焦点没有对准”(即,模糊地呈现)。在另一个实施例中,多个交互项目中的每个都具有一个相关的深度值,当用户朝向给定的交互项目凝视时,通过将其相关的深度值与给定的交互项目的深度值一致的交互项目呈现为“焦点对准”(即,清楚地呈现),和将其相关的深度值与给定的交互项目的深度值不一致的交互项目呈现为“焦点没有对准”(即,模糊地呈现),计算机可以模拟3D环境。
在进一步的例子中,在玩游戏时,用户22通过指向在显示器上呈现为交互式图标的武器可以选择武器。如果所选择的武器是枪,如上文所述,用户可以用指向-触摸手势“瞄准”枪,并使用指向-选择手势或触发手势“开”枪。可选地,如果所选择的武器是剑,那么用户可以通过使用指向-选择手势和指向-触摸手势的组合在三个维度(即,沿X-Y平面和Z轴)操纵剑。
上述应用仅仅是混合形式的用户界面如何能被用于提高系统能力和用户体验的几个实施例,但其它类似的应用都被认为在本发明的范围之内。作为另一个例子,根据用户将其凝视固定到屏幕上的对象,以及在呈现某个程序(诸如商业广告)时用户是否正看着显示器,传感设备24的能力可用于测定用户对诸如网站或视频节目的内容的兴趣。这些能力可类似地用于提取用户兴趣概况,例如,在2011年11月14日提交的美国专利申请第13/295106中所描述的,其通过引用并入本文。
应理解的是,上述实施例是通过举例的方式进行阐述,并且本发明不限于在上文已特别示出和描述的内容。更确切地,本发明的范围包括上文所描述的各种特征的组合和子组合,以及对于本领域的普通技术人员而言,在阅读前述的描述后做出的在现有技术中没有公开的变型和改进。
Claims (96)
1.一种方法,包括:
接收计算机系统的用户的至少一个身体部位的三维3D图;
接收所述用户的二维2D图像,所述图像包括所述用户的眼睛;
从所述3D图和所述2D图像中提取所述用户的头部的3D坐标;以及
基于所述头部的3D坐标和所述眼睛的图像识别由所述用户执行的凝视的方向。
2.根据权利要求1所述的方法,其中识别所述凝视的方向包括分析从所述眼睛的组成部分反射的光。
3.根据权利要求2所述的方法,其中所述组成部分从包括瞳孔、虹膜和角膜的列表中选择。
4.根据权利要求1所述的方法,其中提取所述头部的3D坐标包括分割所述3D图以便提取所述头部沿着水平轴、竖直轴和深度轴的位置。
5.根据权利要求1所述的方法,其中提取所述头部的3D坐标包括从所述2D图像中识别所述头部沿着水平轴和竖直轴的第一位置,以及分割所述3D图以便从所述3D图中识别所述头部沿着深度轴的第二位置。
6.根据权利要求1至5中任意一项所述的方法,还包括响应于所述凝视的方向来控制所述计算机系统的功能。
7.根据权利要求6所述的方法,其中控制所述计算机系统的功能包括识别在耦合到所述计算机系统的显示器上呈现的在所述凝视的方向上的交互项目,以及改变所述交互项目的状态。
8.根据权利要求7所述的方法,其中所述交互项目的状态响应于所述凝视而被改变。
9.根据权利要求7所述的方法,其中所述交互项目的状态响应于从所述用户接收的声音指令而被改变。
10.根据权利要求7所述的方法,其中改变所述状态包括将从所述用户接收的输入引导到所述交互项目。
11.根据权利要求7所述的方法,还包括接收指示所述用户在特定的方向上移动肢体的三维图的序列,以及响应性地在所述特定的方向上重新定位所述交互项目。
12.根据权利要求7所述的方法,还包括识别在所述显示器上的在所述凝视的方向上的目标点,以及基于所述目标点与所述交互项目的接近程度来计算校准系数。
13.根据权利要求6所述的方法,其中控制所述计算机系统的功能包括在接收到指示肢体朝向所述显示器运动的三维3D图的第一序列、接收到指示所述肢体朝向所述显示器减速运动的3D图的第二序列、及接收到指示所述肢体远离所述显示器运动的3D图的第三序列时,执行与在耦合到所述计算机系统的显示器上在所述凝视的方向上呈现的交互项目相关联的动作。
14.根据权利要求6所述的方法,其中控制所述计算机系统的功能包括在所述用户引导所述凝视远离所述显示器时,由所述计算机系统激活功率节省技术。
15.根据权利要求14所述的方法,其中激活功率节省技术包括减小耦合到所述计算机系统的显示器的亮度。
16.根据权利要求6所述的方法,其中控制所述计算机系统的功能包括在所述用户引导所述凝视朝向所述显示器时,由所述计算机系统停用功率节省技术。
17.根据权利要求16所述的方法,其中停用功率节省技术包括增加耦合到所述计算机系统的显示器的亮度。
18.根据权利要求6所述的方法,其中控制所述计算机系统的功能包括识别耦合到所述计算机系统的且在所述凝视的方向上的设备,以及改变所述设备的状态。
19.根据权利要求6所述的方法,其中控制所述计算机系统的功能包括在耦合到所述计算机系统的显示器上呈现内容;识别在耦合到所述计算机系统的显示器上的在所述凝视方向的区域;以及使所述区域外部的所述内容变模糊。
20.根据权利要求6所述的方法,其中控制所述计算机系统的功能包括:在耦合到所述计算机系统的显示器上呈现包括多个项目的内容,所述多个交互项目中的每一个都具有相关的深度值;识别所述交互项目中的在所述凝视的方向上的一个;识别与所述交互项目中的所述一个相关的深度值;以及使所述交互项目中其深度值与所识别出的深度值不一致的任何交互项目变模糊。
21.根据权利要求6所述的方法,还包括:接收和分割计算机系统的用户的至少一个身体部位随时间的三维3D图的第一序列,以便提取所述用户的第一点和第二点的3D坐标,所述3D图指示所述第二点相对于耦合到所述计算机系统的显示器的运动;计算与所述第一点和所述第二点相交的线段;识别所述线段与所述显示器相交处的目标点;以及在检测到特定的事件时,接合在所述显示器上呈现的接近所述目标点的第二交互项目,所述第二交互项目不同于在耦合到所述计算机系统的显示器上呈现的在所述凝视的方向的第一交互项目。
22.根据权利要求21所述的方法,其中所述特定的事件包括所述3D图和所述2D图像不指示所述凝视的方向。
23.根据权利要求21所述的方法,其中所述特定的事件包括所述第二点的运动具有至少第一指定距离且所述目标点距离所述第一交互项目至少第二指定距离。
24.根据权利要求1至5中任意一项所述的方法,还包括响应于所述凝视的方向来控制耦合到所述计算机系统并定位在所述凝视的方向上的设备的功能。
25.一种方法,包括:
接收包括计算机系统的用户的眼睛的图像;
基于所述眼睛的图像识别由所述用户执行的凝视的方向;
基于所述凝视的方向识别耦合到所述计算机系统的显示器上的区域;以及
对呈现在所述区域中的内容执行操作。
26.根据权利要求25所述的方法,其中所述眼睛的图像从包括二维图像和三维图的列表中选择。
27.根据权利要求25所述的方法,其中所述内容包括图像,以及执行所述操作包括使所述区域对好焦距。
28.根据权利要求25至27中任意一项所述的方法,还包括:识别在所述显示器上的在所述凝视的方向的目标点;识别位于接近所述目标点处的交互项目;以及基于所述目标点与所述交互项目的接近程度计算校准系数。
29.一种方法,包括:
通过计算机系统在耦合到所述计算机的显示器上呈现多个交互项目;
从耦合到所述计算机的传感设备接收表示用户的凝视方向的输入;
基于所述凝视方向识别在所述显示器上的目标点;
使所述目标点与出现在所述显示器上的第一交互项目相关联;以及
响应于所述目标点,打开所述显示器上的一个或多个第二交互项目。
30.根据权利要求29所述的方法,其中呈现所述多个交互项目包括在所述显示器上以同心图案布置所述多个项目,并且其中打开一个或多个第二交互项目包括在所述显示器上以所述同心图案从所述第一项目径向向外地呈现一个或多个第二交互项目。
31.根据权利要求29或30所述的方法,还包括响应于所述用户调整所述凝视的方向使得所述目标点接近所述第二交互项目中的一个,来选择所述第二交互项目中的所述一个。
32.一种方法,包括:
接收和分割计算机系统的用户的至少一个身体部位随时间的三维3D图的第一序列,以便提取所述用户的第一点和第二点的3D坐标,所述3D图指示所述第二点相对于耦合到所述计算机系统的显示器的运动;
计算与所述第一点和所述第二点相交的线段;
识别所述线段与所述显示器相交处的目标点;以及
接合在所述显示器上呈现的接近所述目标点的交互项目。
33.根据权利要求32所述的方法,其中所述第一点从包括所述用户的眼睛、所述用户的眼睛之间的点的列表中选择。
34.根据权利要求32所述的方法,其中所述第一点包括手指的关节。
35.根据权利要求32所述的方法,其中所述第二点包括所述用户的肢体。
36.根据权利要求32所述的方法,其中所述第二点包括手指的尖端。
37.根据权利要求32所述的方法,其中接合所述交互项目包括在从所述用户接收到声音指令时执行与所述交互项目相关联的操作。
38.根据权利要求32至37中任意一项所述的方法,其中相对于所述显示器的运动包括朝向所述显示器的运动。
39.根据权利要求38所述的方法,其中接合所述交互项目包括在接收到指示所述第二点朝向所述显示器减速运动的3D图的第二序列以及接收到指示所述第二点远离所述显示器运动的3D图的第三序列时,执行与所述交互项目相关联的动作。
40.根据权利要求38所述的方法,其中接合所述交互项目包括在接收到指示所述第二点朝向所述显示器减速运动的3D图的第二序列以及接收到指示所述第二点沿着包括竖直轴和水平轴的平面运动的3D图的第三序列时,响应性地在所述显示器上重新定位所述交互项目。
41.根据权利要求38所述的方法,其中接合所述交互项目包括在接收到指示所述第二点朝向所述显示器减速运动的3D图的第二序列以及接收到指示所述用户相对稳定地保持所述第二点一特定的时间段的3D图的第三序列时,响应性地对所述交互项目执行保持操作。
42.根据权利要求41所述的方法,其中所述保持操作包括呈现所述交互项目的上下文信息。
43.根据权利要求41所述的方法,其中所述保持操作包括从所述显示器上删除所述交互项目。
44.根据权利要求38所述的方法,其中所述第二点包括食指的尖端,并且其中接合所述交互项目包括在接收到指示所述第二点朝向所述显示器减速运动的3D图的第二序列以及接收到指示所述用户的拇指朝向所述食指合拢的3D图的第三序列时,选择所述交互项目。
45.根据权利要求32至37中任意一项所述的方法,还包括基于所述交互项目与所述目标点的接近程度计算校准系数。
46.根据权利要求32至37中任意一项所述的方法,还包括识别与耦合到所述计算机的设备相交的线段,并且响应于所述第二点的运动来控制所述设备的功能。
47.一种装置,包括:
传感设备,所述传感设备被配置为接收用户的至少一个身体部位的三维3D图和所述用户的眼睛的图像,并且接收所述用户的二维2D图像,所述2D图像包括所述用户的眼睛;以及
计算机,所述计算机耦合到所述传感设备,并被配置为从所述3D图和所述2D图像中提取所述用户的头部的3D坐标,并且基于所述头部的3D坐标和所述眼睛的图像来识别由所述用户执行的凝视的方向。
48.根据权利要求47所述的装置,其中所述计算机被配置为通过分析从所述眼睛的组成部分反射的光来识别所述凝视的方向。
49.根据权利要求48所述的装置,其中所述计算机被配置为从包括瞳孔、虹膜和角膜的列表中选择所述组成部分。
50.根据权利要求47所述的装置,其中所述计算机被配置为通过分割所述3D图以便提取所述头部沿着水平轴、竖直轴和深度轴的位置来提取所述头部的3D坐标。
51.根据权利要求47所述的装置,其中所述计算机被配置为通过从所述2D图像中识别所述头部沿着水平轴和竖直轴的第一位置,以及分割所述3D图以便从所述3D图中识别所述头部沿着深度轴的第二位置来提取所述头部的3D坐标。
52.根据权利要求47至51中任意一项所述的装置,其中所述计算机被配置为响应于所述凝视的方向来控制所述计算机系统的功能。
53.根据权利要求52所述的装置,其中所述计算机被配置为通过识别在耦合到所述计算机系统的显示器上在所述凝视的方向上呈现的交互项目来控制所述计算机系统的功能,并且改变所述交互项目的状态。
54.根据权利要求53所述的装置,其中所述计算机被配置为响应于所述凝视被改变来改变所述交互项目的状态。
55.根据权利要求53所述的装置,其中所述计算机被配置为响应于从所述用户接收的声音指令来改变所述交互项目的状态。
56.根据权利要求53所述的装置,其中所述计算机被配置为通过将从所述用户接收的输入引导到所述交互项目来改变所述状态。
57.根据权利要求53所述的装置,其中所述计算机被配置为接收指示所述用户在特定的方向移动肢体的三维图的序列,以及响应性地在所述特定的方向上重新定位所述交互项目。
58.根据权利要求53所述的装置,其中所述计算机被配置为识别所述显示器上的在所述凝视的方向的目标点,以及基于所述目标点与所述交互项目的接近程度来计算校准系数。
59.根据权利要求52所述的装置,其中所述计算机被配置为在接收到指示肢体朝向所述显示器运动的三维3D图的第一序列、接收到指示所述肢体朝向所述显示器减速运动的3D图的第二序列、以及接收到指示所述肢体远离所述显示器运动的3D图的第三序列时,通过执行与在耦合到所述计算机系统的显示器上在所述凝视的方向呈现的交互项目相关联的动作来控制所述计算机系统的功能。
60.根据权利要求52所述的装置,其中所述计算机被配置为在所述用户引导所述凝视远离所述显示器时,通过所述计算机系统激活功率节省技术来控制所述计算机系统的功能。
61.根据权利要求60所述的装置,其中所述计算机被配置为通过减小耦合到所述计算机系统的显示器的亮度来激活功率节省技术。
62.根据权利要求52所述的装置,其中所述计算机被配置为在所述用户引导所述凝视朝向所述显示器时,通过所述计算机系统停用功率节省技术来控制所述计算机系统的功能。
63.根据权利要求62所述的装置,其中所述计算机被配置为通过增加耦合到所述计算机系统的显示器的亮度来停用功率节省技术。
64.根据权利要求52所述的装置,其中所述计算机被配置为通过识别耦合到所述计算机系统的在所述凝视的方向的设备以及改变所述设备的状态来控制所述计算机系统的功能。
65.根据权利要求52所述的装置,其中所述计算机被配置为通过在耦合到所述计算机系统的显示器上呈现内容、识别在耦合到所述计算机系统的显示器上的在所述凝视的方向的区域、以及使所述区域外部的所述内容变模糊来控制所述计算机系统的功能。
66.根据权利要求52所述的装置,其中所述计算机被配置为通过在耦合到所述计算机系统的显示器上呈现包括多个项目的内容、所述多个交互项目中的每个都具有相关的深度值,识别所述交互项目在所述凝视的方向上的一个,识别与所述交互项目中的所述一个相关的深度值,以及使所述交互项目中其深度值与所识别出的深度值不一致的任何交互项目变模糊来控制所述计算机系统的功能。
67.根据权利要求52所述的装置,其中所述计算机被配置为:接收和分割计算机系统的用户的至少一个身体部位随时间的三维3D图的第一序列,以便提取所述用户的第一点和第二点的3D坐标,所述3D图指示所述第二点相对于耦合到所述计算机系统的显示器的运动;计算与所述第一点和所述第二点相交的线段;识别所述线段与所述显示器相交处的目标点;以及在检测到特定的事件时,接合呈现在所述显示器上的接近所述目标点处的第二交互项目,所述第二交互项目不同于在耦合到所述计算机系统的显示器上在所述凝视的方向呈现的第一交互项目。
68.根据权利要求67所述的装置,其中所述特定的事件包括所述3D图和所述2D图像不指示所述凝视的方向。
69.根据权利要求67所述的装置,其中所述特定的事件包括所述第二点的运动具有至少第一指定距离且所述目标点距离所述第一交互项目至少第二指定距离。
70.根据权利要求47至51中任意一项所述的装置,其中所述计算机被配置为响应于所述凝视方向来控制耦合到所述计算机系统的且定位在所述凝视的方向上的设备的功能。
71.一种装置,包括:
传感设备,所述传感设备被配置为接收包括用户眼睛的图像;以及
计算机,所述计算机被配置为基于所述眼睛图像来识别由所述用户执行的凝视的方向、基于所述凝视的方向来识别耦合到所述计算机系统的显示器上的区域,以及对呈现在所述区域中的内容执行操作。
72.根据权利要求71所述的装置,其中所述计算机被配置为从包括二维图像和三维图的列表中选择所述眼睛的图像。
73.根据权利要求71所述的装置,其中所述内容包括图像,并且其中所述计算机被配置为通过使所述区域对好焦距来执行所述操作。
74.根据权利要求71至73中任意一项所述的装置,其中所述计算机被配置为识别在所述显示器上的在所述凝视的方向的目标点;识别位于接近所述目标点处的交互项目;以及基于所述目标点与所述交互项目的接近程度来计算校准系数。
75.一种装置,包括:
显示器,以及
计算机,所述计算机耦合到所述显示器,并被配置为:在所述显示器上呈现多个交互项目;从耦合到所述计算机的传感设备接收表示用户的凝视方向的输入;基于所述凝视方向识别在所述显示器上的目标点;使所述目标点与出现在所述显示器上的第一交互项目相关联,并响应于所述目标点,打开所述显示器上的一个或多个第二交互项目。
76.根据权利要求75所述的装置,其中所述计算机被配置为通过在所述显示器上以同心图案布置所述多个项目来呈现所述多个交互项目,并且其中所述计算机被配置为通过在所述显示器上以所述同心图案从所述第一项目径向向外呈现一个或多个第二交互项目来打开一个或多个第二交互项目。
77.根据权利要求75或76所述的装置,其中所述计算机被配置为响应于所述用户调整所述凝视的方向使得所述目标点接近所述第二交互项目中的一个,来选择所述第二交互项目中的所述一个。
78.一种装置,包括:
显示器;以及
计算机,所述计算机耦合到所述显示器,并被配置为:接收和分割计算机系统的用户的至少一个身体部位随时间的三维3D图的第一序列,以便提取所述用户的第一点和第二点的3D坐标,所述3D图指示所述第二点相对于耦合到所述计算机系统的显示器的运动;计算与所述第一点和所述第二点相交的线段;识别所述线段与所述显示器相交处的目标点;以及接合在所述显示器上呈现的接近所述目标点的交互项目。
79.根据权利要求78所述的装置,其中所述计算机被配置为从包括所述用户眼睛、所述用户眼睛之间的点的列表中选择所述第一点。
80.根据权利要求78所述的装置,其中所述第一点包括手指的关节。
81.根据权利要求78所述的装置,其中所述第二点包括所述用户的肢体。
82.根据权利要求78所述的装置,其中所述第二点包括手指的尖端。
83.根据权利要求78所述的装置,其中所述计算机被配置为在从所述用户接收到声音指令时,通过执行与所述交互项目相关联的操作来接合所述交互项目。
84.根据权利要求78至83中任意一项所述的装置,其中相对于所述显示器的运动包括朝向所述显示器的运动。
85.根据权利要求84所述的装置,其中所述计算机被配置为在接收到指示所述第二点朝向所述显示器减速运动的3D图的第二序列,以及接收到指示所述第二点远离所述显示器运动的3D图的第三序列时,通过执行与所述交互项目相关联的动作来接合所述交互项目。
86.根据权利要求84所述的装置,其中所述计算机被配置为在接收到指示所述第二点朝向所述显示器减速运动的3D图的第二序列,以及接收到指示所述第二点沿着包括竖直轴和水平轴的平面运动的3D图的第三序列时,通过响应性地在所述显示器上重新定位所述交互项目来接合所述交互项目。
87.根据权利要求84所述的装置,其中所述计算机被配置为在接收到指示所述第二点朝向所述显示器减速运动的3D图的第二序列以及接收到指示所述用户相对稳定地保持所述第二点一特定的时间段的3D图的第三序列时,通过响应性地对所述交互项目执行保持操作来接合所述交互项目。
88.根据权利要求87所述的装置,其中所述计算机被配置为通过呈现所述交互项目的上下文信息来执行所述保持操作。
89.根据权利要求87所述的装置,其中所述计算机被配置为通过从所述显示器上删除所述交互项目来执行所述保持操作。
90.根据权利要求84所述的装置,其中所述第二点包括食指的尖端,并且其中所述计算机被配置为在接收到指示所述第二点朝向所述显示器减速运动的3D图的第二序列以及接收到指示所述用户的拇指朝向所述食指合拢的3D图的第三序列时,通过选择所述交互项目来接合所述交互项目。
91.根据权利要求78至83中任意一项所述的装置,其中所述计算机被配置为基于所述交互项目与所述目标点的接近程度来计算校准系数。
92.根据权利要求78至83中任意一项所述的装置,其中所述计算机被配置为识别与耦合到所述计算机的设备相交的线段,并且响应于所述第二点的运动来控制所述设备的功能。
93.一种包括其中存储有程序指令的非暂时的计算机可读介质的计算机软件产品,当所述指令由计算机读出时,使得所述计算机:接收所述计算机的用户的至少一个身体部位的三维3D图;接收所述用户的二维2D图像,所述图像包括所述用户的眼睛;从所述3D图和所述2D图像中提取所述用户头部的3D坐标;以及基于所述头部的3D坐标和所述眼睛的图像来识别由所述用户执行的凝视的方向。
94.一种包括其中存储有程序指令的非暂时的计算机可读介质的计算机软件产品,当所述指令由计算机读出时,使得所述计算机接收包括所述计算机系统的用户的眼睛的图像;基于所述眼睛的图像识别由所述用户执行的凝视的方向;基于所述凝视的方向识别在耦合到所述计算机系统的显示器上的区域;以及对呈现在所述区域中的内容执行操作。
95.一种包括其中存储有程序指令的非暂时的计算机可读介质的计算机软件产品,当所述指令由计算机读出时,使得所述计算机:在耦合到所述计算机的显示器上呈现多个交互项目;从耦合到所述计算机的传感设备接收表示用户的凝视方向的输入;基于所述凝视方向识别在所述显示器上的目标点;将所述目标点与出现在所述显示器上的第一交互项目相关联;以及响应于所述目标点,打开所述显示器上的一个或多个第二交互项目。
96.一种包括其中存储有程序指令的非暂时的计算机可读介质的计算机软件产品,当所述指令由计算机读出时,使得所述计算机:接收和分割所述计算机的用户的至少一个身体部位随时间的三维3D图的第一序列,以便提取所述用户的第一点和第二点的3D坐标,所述3D图指示所述第二点相对于耦合到所述计算机的显示器的运动;计算与所述第一点和所述第二点相交的线段;识别所述线段与所述显示器相交处的目标点;以及接合在所述显示器上呈现的接近所述目标点的第二交互项目。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610451134.4A CN106125921B (zh) | 2011-02-09 | 2012-02-09 | 3d映射环境中的凝视检测 |
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161440877P | 2011-02-09 | 2011-02-09 | |
US61/440,877 | 2011-02-09 | ||
US201161526692P | 2011-08-24 | 2011-08-24 | |
US61/526,692 | 2011-08-24 | ||
US201161538867P | 2011-09-25 | 2011-09-25 | |
US61/538,867 | 2011-09-25 | ||
PCT/IB2012/050577 WO2012107892A2 (en) | 2011-02-09 | 2012-02-09 | Gaze detection in a 3d mapping environment |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610451134.4A Division CN106125921B (zh) | 2011-02-09 | 2012-02-09 | 3d映射环境中的凝视检测 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103347437A true CN103347437A (zh) | 2013-10-09 |
CN103347437B CN103347437B (zh) | 2016-06-08 |
Family
ID=46639006
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280007484.1A Active CN103347437B (zh) | 2011-02-09 | 2012-02-09 | 3d映射环境中的凝视检测 |
CN201610451134.4A Active CN106125921B (zh) | 2011-02-09 | 2012-02-09 | 3d映射环境中的凝视检测 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610451134.4A Active CN106125921B (zh) | 2011-02-09 | 2012-02-09 | 3d映射环境中的凝视检测 |
Country Status (4)
Country | Link |
---|---|
US (5) | US9285874B2 (zh) |
EP (2) | EP2672880B1 (zh) |
CN (2) | CN103347437B (zh) |
WO (1) | WO2012107892A2 (zh) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104699249A (zh) * | 2015-03-27 | 2015-06-10 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN104731320A (zh) * | 2013-12-20 | 2015-06-24 | 卡西欧计算机株式会社 | 电子设备以及显示控制方法 |
CN104951048A (zh) * | 2014-03-24 | 2015-09-30 | 联想(北京)有限公司 | 信息处理方法及装置 |
CN105301778A (zh) * | 2015-12-08 | 2016-02-03 | 北京小鸟看看科技有限公司 | 三维操控装置、头戴式装置及三维操控方法 |
CN105765513A (zh) * | 2013-11-01 | 2016-07-13 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN105917292A (zh) * | 2014-01-14 | 2016-08-31 | 微软技术许可有限责任公司 | 利用多个光源和传感器的眼睛注视检测 |
CN106066699A (zh) * | 2016-06-23 | 2016-11-02 | 温州美渠传媒有限公司 | 一种智能型人机交换信息设备 |
CN106484098A (zh) * | 2015-08-31 | 2017-03-08 | 柯尼卡美能达美国研究所有限公司 | 用户界面的实时交互操作系统和方法 |
CN107003738A (zh) * | 2014-12-03 | 2017-08-01 | 微软技术许可有限责任公司 | 注视目标应用启动器 |
CN107003737A (zh) * | 2014-12-03 | 2017-08-01 | 微软技术许可有限责任公司 | 用于自然用户输入的指示器投影 |
CN107515474A (zh) * | 2017-09-22 | 2017-12-26 | 宁波维真显示科技股份有限公司 | 自动立体显示方法、装置及立体显示设备 |
EP3121686A4 (en) * | 2014-02-22 | 2018-04-25 | VTouch Co., Ltd. | Apparatus and method for remote control using camera-based virtual touch |
CN108459702A (zh) * | 2017-02-22 | 2018-08-28 | 天津锋时互动科技有限公司深圳分公司 | 基于手势识别与视觉反馈的人机交互方法与系统 |
CN109480767A (zh) * | 2018-12-13 | 2019-03-19 | 孙艳 | 一种医用眼科手术前用辅助检查装置 |
CN109863466A (zh) * | 2016-10-26 | 2019-06-07 | 哈曼贝克自动系统股份有限公司 | 组合式眼睛和手势跟踪 |
CN110147180A (zh) * | 2019-05-24 | 2019-08-20 | 深圳秋田微电子股份有限公司 | 触控显示装置、触控显示方法、显示器及终端 |
US10754490B2 (en) | 2013-10-14 | 2020-08-25 | Microsoft Technology Licensing, Llc | User interface for collaborative efforts |
US10819920B1 (en) | 2019-05-22 | 2020-10-27 | Dell Products L.P. | Augmented information handling system user presence detection |
CN113760083A (zh) * | 2020-06-01 | 2021-12-07 | 张也弛 | 操作者目光在终端设备屏幕上落点位置的确定方法及装置 |
US20220030128A1 (en) * | 2020-07-27 | 2022-01-27 | Avision Inc. | Office machine with intelligent sleep and wake function and control method thereof |
US11294054B2 (en) | 2019-10-11 | 2022-04-05 | Dell Products L.P. | Information handling system infrared proximity detection with ambient light management |
US11334146B2 (en) | 2020-01-31 | 2022-05-17 | Dell Products L.P. | Information handling system peripheral enhanced user presence detection |
US11435447B2 (en) | 2019-10-11 | 2022-09-06 | Dell Products L.P. | Information handling system proximity sensor with mechanically adjusted field of view |
US11435475B2 (en) | 2019-10-11 | 2022-09-06 | Dell Products L.P. | Information handling system infrared proximity detection with frequency domain modulation |
US11513813B2 (en) | 2020-01-31 | 2022-11-29 | Dell Products L.P. | Information handling system notification presentation based upon user presence detection |
US11662695B2 (en) | 2019-10-11 | 2023-05-30 | Dell Products L.P. | Information handling system infrared proximity detection with distance reduction detection |
US11663343B2 (en) | 2020-01-31 | 2023-05-30 | Dell Products L.P. | Information handling system adaptive user presence detection |
Families Citing this family (352)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2568506T3 (es) | 2004-06-18 | 2016-04-29 | Tobii Ab | Control ocular de aparato computador |
US8885177B2 (en) * | 2007-09-26 | 2014-11-11 | Elbit Systems Ltd. | Medical wide field of view optical tracking system |
US8933876B2 (en) | 2010-12-13 | 2015-01-13 | Apple Inc. | Three dimensional user interface session control |
US9035876B2 (en) | 2008-01-14 | 2015-05-19 | Apple Inc. | Three-dimensional user interface session control |
US9400390B2 (en) | 2014-01-24 | 2016-07-26 | Osterhout Group, Inc. | Peripheral lighting for head worn computing |
US9715112B2 (en) | 2014-01-21 | 2017-07-25 | Osterhout Group, Inc. | Suppression of stray light in head worn computing |
US9366867B2 (en) | 2014-07-08 | 2016-06-14 | Osterhout Group, Inc. | Optical systems for see-through displays |
US20150277120A1 (en) | 2014-01-21 | 2015-10-01 | Osterhout Group, Inc. | Optical configurations for head worn computing |
US9952664B2 (en) | 2014-01-21 | 2018-04-24 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9229233B2 (en) | 2014-02-11 | 2016-01-05 | Osterhout Group, Inc. | Micro Doppler presentations in head worn computing |
US9965681B2 (en) | 2008-12-16 | 2018-05-08 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US20150205111A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | Optical configurations for head worn computing |
US9298007B2 (en) | 2014-01-21 | 2016-03-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
CN102959616B (zh) | 2010-07-20 | 2015-06-10 | 苹果公司 | 自然交互的交互真实性增强 |
US9201501B2 (en) | 2010-07-20 | 2015-12-01 | Apple Inc. | Adaptive projector |
US8959013B2 (en) | 2010-09-27 | 2015-02-17 | Apple Inc. | Virtual keyboard for a non-tactile three dimensional user interface |
US8872762B2 (en) | 2010-12-08 | 2014-10-28 | Primesense Ltd. | Three dimensional user interface cursor control |
EP2672880B1 (en) | 2011-02-09 | 2019-05-22 | Apple Inc. | Gaze detection in a 3d mapping environment |
US8836777B2 (en) * | 2011-02-25 | 2014-09-16 | DigitalOptics Corporation Europe Limited | Automatic detection of vertical gaze using an embedded imaging device |
US8776132B2 (en) * | 2011-03-17 | 2014-07-08 | Ebay Inc. | Single digital wallet across multiple payment platforms |
US9857868B2 (en) | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
US20120257035A1 (en) * | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Systems and methods for providing feedback by tracking user gaze and gestures |
US8840466B2 (en) | 2011-04-25 | 2014-09-23 | Aquifi, Inc. | Method and system to create three-dimensional mapping in a two-dimensional game |
JP5757166B2 (ja) * | 2011-06-09 | 2015-07-29 | ソニー株式会社 | 音制御装置、プログラム及び制御方法 |
US9459758B2 (en) | 2011-07-05 | 2016-10-04 | Apple Inc. | Gesture-based interface with enhanced features |
US9377865B2 (en) | 2011-07-05 | 2016-06-28 | Apple Inc. | Zoom-based gesture user interface |
US8881051B2 (en) * | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
CN103858074B (zh) * | 2011-08-04 | 2018-10-19 | 视力移动技术有限公司 | 经由3d显示器与装置交互的系统和方法 |
US9030498B2 (en) | 2011-08-15 | 2015-05-12 | Apple Inc. | Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface |
US9122311B2 (en) | 2011-08-24 | 2015-09-01 | Apple Inc. | Visual feedback for tactile and non-tactile user interfaces |
US9218063B2 (en) | 2011-08-24 | 2015-12-22 | Apple Inc. | Sessionless pointing user interface |
US9377852B1 (en) * | 2013-08-29 | 2016-06-28 | Rockwell Collins, Inc. | Eye tracking as a method to improve the user interface |
US9098069B2 (en) | 2011-11-16 | 2015-08-04 | Google Technology Holdings LLC | Display device, corresponding systems, and methods for orienting output on a display |
US9628843B2 (en) * | 2011-11-21 | 2017-04-18 | Microsoft Technology Licensing, Llc | Methods for controlling electronic devices using gestures |
US20140317576A1 (en) * | 2011-12-06 | 2014-10-23 | Thomson Licensing | Method and system for responding to user's selection gesture of object displayed in three dimensions |
CN103988149A (zh) * | 2011-12-14 | 2014-08-13 | 英特尔公司 | 注视激活的内容传输系统 |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US8693731B2 (en) * | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US8854433B1 (en) | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
US9423994B2 (en) * | 2012-02-22 | 2016-08-23 | Citrix Systems, Inc. | Hierarchical display |
US9229534B2 (en) | 2012-02-28 | 2016-01-05 | Apple Inc. | Asymmetric mapping for tactile and non-tactile user interfaces |
US8988349B2 (en) | 2012-02-28 | 2015-03-24 | Google Technology Holdings LLC | Methods and apparatuses for operating a display in an electronic device |
US8947382B2 (en) * | 2012-02-28 | 2015-02-03 | Motorola Mobility Llc | Wearable display device, corresponding systems, and method for presenting output on the same |
CN104471511B (zh) | 2012-03-13 | 2018-04-20 | 视力移动技术有限公司 | 识别指点手势的装置、用户接口和方法 |
US9377863B2 (en) | 2012-03-26 | 2016-06-28 | Apple Inc. | Gaze-enhanced virtual touchscreen |
US20140002352A1 (en) * | 2012-05-09 | 2014-01-02 | Michal Jacob | Eye tracking based selective accentuation of portions of a display |
US10082863B2 (en) * | 2012-05-11 | 2018-09-25 | Umoove Services Ltd. | Gaze-based automatic scrolling |
TWI489326B (zh) * | 2012-06-05 | 2015-06-21 | Wistron Corp | 操作區的決定方法與系統 |
US9111135B2 (en) | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
US8934675B2 (en) | 2012-06-25 | 2015-01-13 | Aquifi, Inc. | Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints |
WO2014020604A1 (en) * | 2012-07-31 | 2014-02-06 | Inuitive Ltd. | Multiple sensors processing system for natural user interface applications |
JP6011165B2 (ja) * | 2012-08-31 | 2016-10-19 | オムロン株式会社 | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム |
US8836768B1 (en) | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
US9310895B2 (en) * | 2012-10-12 | 2016-04-12 | Microsoft Technology Licensing, Llc | Touchless input |
WO2014068582A1 (en) * | 2012-10-31 | 2014-05-08 | Nokia Corporation | A method, apparatus and computer program for enabling a user input command to be performed |
US10146316B2 (en) | 2012-10-31 | 2018-12-04 | Nokia Technologies Oy | Method and apparatus for disambiguating a plurality of targets |
US9684372B2 (en) * | 2012-11-07 | 2017-06-20 | Samsung Electronics Co., Ltd. | System and method for human computer interaction |
CN108845668B (zh) * | 2012-11-07 | 2022-06-03 | 北京三星通信技术研究有限公司 | 人机交互系统和方法 |
WO2014106219A1 (en) * | 2012-12-31 | 2014-07-03 | Burachas Giedrius Tomas | User centric interface for interaction with visual display that recognizes user intentions |
US9696867B2 (en) | 2013-01-15 | 2017-07-04 | Leap Motion, Inc. | Dynamic user interactions for display control and identifying dominant gestures |
JP6375591B2 (ja) * | 2013-01-15 | 2018-08-22 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム |
US10884577B2 (en) * | 2013-01-15 | 2021-01-05 | Poow Innovation Ltd. | Identification of dynamic icons based on eye movement |
US9459697B2 (en) * | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
WO2014115387A1 (ja) * | 2013-01-28 | 2014-07-31 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US9092665B2 (en) | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
US9129155B2 (en) | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
US20140232640A1 (en) * | 2013-02-05 | 2014-08-21 | Umoove Services Ltd. | Dynamic range resetting |
US9619020B2 (en) | 2013-03-01 | 2017-04-11 | Tobii Ab | Delay warp gaze interaction |
US9864498B2 (en) | 2013-03-13 | 2018-01-09 | Tobii Ab | Automatic scrolling based on gaze detection |
US9665171B1 (en) | 2013-03-04 | 2017-05-30 | Tobii Ab | Gaze and saccade based graphical manipulation |
US10082870B2 (en) | 2013-03-04 | 2018-09-25 | Tobii Ab | Gaze and saccade based graphical manipulation |
US10895908B2 (en) | 2013-03-04 | 2021-01-19 | Tobii Ab | Targeting saccade landing prediction using visual history |
US9898081B2 (en) | 2013-03-04 | 2018-02-20 | Tobii Ab | Gaze and saccade based graphical manipulation |
US11714487B2 (en) | 2013-03-04 | 2023-08-01 | Tobii Ab | Gaze and smooth pursuit based continuous foveal adjustment |
US20140280506A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Virtual reality enhanced through browser connections |
US20140267581A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Real time virtual reality leveraging web cams and ip cams and web cam and ip cam networks |
US20140280503A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | System and methods for effective virtual reality visitor interface |
US20140280502A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Crowd and cloud enabled virtual reality distributed location network |
US9838506B1 (en) | 2013-03-15 | 2017-12-05 | Sony Interactive Entertainment America Llc | Virtual reality universe representation changes viewing based upon client side parameters |
WO2014200589A2 (en) | 2013-03-15 | 2014-12-18 | Leap Motion, Inc. | Determining positional information for an object in space |
US20140280505A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Virtual reality interaction with 3d printing |
US11747895B2 (en) * | 2013-03-15 | 2023-09-05 | Intuitive Surgical Operations, Inc. | Robotic system providing user selectable actions associated with gaze tracking |
US20140280644A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Real time unified communications interaction of a predefined location in a virtual reality location |
US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
CN103197889B (zh) * | 2013-04-03 | 2017-02-08 | 锤子科技(北京)有限公司 | 一种亮度调整方法、装置及一种电子设备 |
US10620709B2 (en) | 2013-04-05 | 2020-04-14 | Ultrahaptics IP Two Limited | Customized gesture interpretation |
US20140354602A1 (en) * | 2013-04-12 | 2014-12-04 | Impression.Pi, Inc. | Interactive input system and method |
US9323338B2 (en) | 2013-04-12 | 2016-04-26 | Usens, Inc. | Interactive input system and method |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
KR101803311B1 (ko) * | 2013-05-10 | 2018-01-10 | 삼성전자주식회사 | 디스플레이 장치 및 이의 ui 제공 방법 |
KR20140133362A (ko) * | 2013-05-10 | 2014-11-19 | 삼성전자주식회사 | 디스플레이 장치 및 그 ui 화면 제공 방법 |
US10620775B2 (en) | 2013-05-17 | 2020-04-14 | Ultrahaptics IP Two Limited | Dynamic interactive objects |
US9436288B2 (en) | 2013-05-17 | 2016-09-06 | Leap Motion, Inc. | Cursor mode switching |
US9747696B2 (en) | 2013-05-17 | 2017-08-29 | Leap Motion, Inc. | Systems and methods for providing normalized parameters of motions of objects in three-dimensional space |
EP2811318B1 (de) * | 2013-06-05 | 2015-07-22 | Sick Ag | Optoelektronischer Sensor |
US10137363B2 (en) | 2013-06-20 | 2018-11-27 | Uday Parshionikar | Gesture based user interfaces, apparatuses and control systems |
US20140375541A1 (en) * | 2013-06-25 | 2014-12-25 | David Nister | Eye tracking via depth camera |
DE102013011531B4 (de) * | 2013-07-10 | 2018-04-26 | Audi Ag | Verfahren zum Betreiben eines Assistenzsystems eines Kraftwagens und Assistenzsystem für einen Kraftwagen |
WO2015016864A1 (en) * | 2013-07-31 | 2015-02-05 | Hewlett-Packard Development Company, L.P. | System with projector unit and computer |
US9798388B1 (en) | 2013-07-31 | 2017-10-24 | Aquifi, Inc. | Vibrotactile system to augment 3D input systems |
CN104349197B (zh) * | 2013-08-09 | 2019-07-26 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US20150051508A1 (en) | 2013-08-13 | 2015-02-19 | Sync-Think, Inc. | System and Method for Cognition and Oculomotor Impairment Diagnosis Using Binocular Coordination Analysis |
US10089786B2 (en) * | 2013-08-19 | 2018-10-02 | Qualcomm Incorporated | Automatic customization of graphical user interface for optical see-through head mounted display with user interaction tracking |
US10073518B2 (en) * | 2013-08-19 | 2018-09-11 | Qualcomm Incorporated | Automatic calibration of eye tracking for optical see-through head mounted display |
US10914951B2 (en) * | 2013-08-19 | 2021-02-09 | Qualcomm Incorporated | Visual, audible, and/or haptic feedback for optical see-through head mounted display with user interaction tracking |
WO2015027241A1 (en) | 2013-08-23 | 2015-02-26 | Tobii Technology Ab | Systems and methods for providing audio to a user based on gaze input |
US9143880B2 (en) | 2013-08-23 | 2015-09-22 | Tobii Ab | Systems and methods for providing audio to a user based on gaze input |
US9721383B1 (en) | 2013-08-29 | 2017-08-01 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US10108258B2 (en) * | 2013-09-06 | 2018-10-23 | Intel Corporation | Multiple viewpoint image capture of a display user |
CN106462178A (zh) * | 2013-09-11 | 2017-02-22 | 谷歌技术控股有限责任公司 | 用于检测存在和运动的电子设备和方法 |
WO2015048026A1 (en) * | 2013-09-24 | 2015-04-02 | Sony Computer Entertainment Inc. | Gaze tracking variations using dynamic lighting position |
US9781360B2 (en) | 2013-09-24 | 2017-10-03 | Sony Interactive Entertainment Inc. | Gaze tracking variations using selective illumination |
US9480397B2 (en) | 2013-09-24 | 2016-11-01 | Sony Interactive Entertainment Inc. | Gaze tracking variations using visible lights or dots |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
KR101503159B1 (ko) * | 2013-10-15 | 2015-03-16 | (주)이스트소프트 | 시선의 위치를 감지하여 터치스크린을 제어하는 방법 |
TWI532377B (zh) * | 2013-10-18 | 2016-05-01 | 原相科技股份有限公司 | 影像感測系統、影像感測方法以及眼球追蹤系統、眼球追蹤方法 |
US9876966B2 (en) | 2013-10-18 | 2018-01-23 | Pixart Imaging Inc. | System and method for determining image variation tendency and controlling image resolution |
US9727134B2 (en) * | 2013-10-29 | 2017-08-08 | Dell Products, Lp | System and method for display power management for dual screen display device |
US9524139B2 (en) * | 2013-10-29 | 2016-12-20 | Dell Products, Lp | System and method for positioning an application window based on usage context for dual screen display device |
CN104598009A (zh) * | 2013-10-30 | 2015-05-06 | 鸿富锦精密工业(武汉)有限公司 | 屏幕按键控制方法及系统 |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9958939B2 (en) * | 2013-10-31 | 2018-05-01 | Sync-Think, Inc. | System and method for dynamic content delivery based on gaze analytics |
US9672649B2 (en) * | 2013-11-04 | 2017-06-06 | At&T Intellectual Property I, Lp | System and method for enabling mirror video chat using a wearable display device |
WO2015062750A1 (de) * | 2013-11-04 | 2015-05-07 | Johnson Controls Gmbh | Infotainmentsystem für ein fahrzeug |
US10317995B2 (en) | 2013-11-18 | 2019-06-11 | Tobii Ab | Component determination and gaze provoked interaction |
US10558262B2 (en) | 2013-11-18 | 2020-02-11 | Tobii Ab | Component determination and gaze provoked interaction |
US9613202B2 (en) | 2013-12-10 | 2017-04-04 | Dell Products, Lp | System and method for motion gesture access to an application and limited resources of an information handling system |
US20150169048A1 (en) * | 2013-12-18 | 2015-06-18 | Lenovo (Singapore) Pte. Ltd. | Systems and methods to present information on device based on eye tracking |
US10180716B2 (en) | 2013-12-20 | 2019-01-15 | Lenovo (Singapore) Pte Ltd | Providing last known browsing location cue using movement-oriented biometric data |
US9633252B2 (en) | 2013-12-20 | 2017-04-25 | Lenovo (Singapore) Pte. Ltd. | Real-time detection of user intention based on kinematics analysis of movement-oriented biometric data |
US9244539B2 (en) * | 2014-01-07 | 2016-01-26 | Microsoft Technology Licensing, Llc | Target positioning with gaze tracking |
US9507417B2 (en) | 2014-01-07 | 2016-11-29 | Aquifi, Inc. | Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US9299194B2 (en) | 2014-02-14 | 2016-03-29 | Osterhout Group, Inc. | Secure sharing in head worn computing |
US20150277118A1 (en) | 2014-03-28 | 2015-10-01 | Osterhout Group, Inc. | Sensor dependent content position in head worn computing |
US20150228119A1 (en) | 2014-02-11 | 2015-08-13 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US9366868B2 (en) | 2014-09-26 | 2016-06-14 | Osterhout Group, Inc. | See-through computer display systems |
US11103122B2 (en) | 2014-07-15 | 2021-08-31 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US10254856B2 (en) | 2014-01-17 | 2019-04-09 | Osterhout Group, Inc. | External user interface for head worn computing |
US10684687B2 (en) | 2014-12-03 | 2020-06-16 | Mentor Acquisition One, Llc | See-through computer display systems |
US9448409B2 (en) | 2014-11-26 | 2016-09-20 | Osterhout Group, Inc. | See-through computer display systems |
US20160019715A1 (en) | 2014-07-15 | 2016-01-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9594246B2 (en) | 2014-01-21 | 2017-03-14 | Osterhout Group, Inc. | See-through computer display systems |
US9939934B2 (en) | 2014-01-17 | 2018-04-10 | Osterhout Group, Inc. | External user interface for head worn computing |
US10191279B2 (en) | 2014-03-17 | 2019-01-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9529195B2 (en) | 2014-01-21 | 2016-12-27 | Osterhout Group, Inc. | See-through computer display systems |
US10649220B2 (en) | 2014-06-09 | 2020-05-12 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9671613B2 (en) | 2014-09-26 | 2017-06-06 | Osterhout Group, Inc. | See-through computer display systems |
US9829707B2 (en) | 2014-08-12 | 2017-11-28 | Osterhout Group, Inc. | Measuring content brightness in head worn computing |
US9746686B2 (en) | 2014-05-19 | 2017-08-29 | Osterhout Group, Inc. | Content position calibration in head worn computing |
US11227294B2 (en) | 2014-04-03 | 2022-01-18 | Mentor Acquisition One, Llc | Sight information collection in head worn computing |
US9810906B2 (en) | 2014-06-17 | 2017-11-07 | Osterhout Group, Inc. | External user interface for head worn computing |
US9841599B2 (en) | 2014-06-05 | 2017-12-12 | Osterhout Group, Inc. | Optical configurations for head-worn see-through displays |
US9575321B2 (en) | 2014-06-09 | 2017-02-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9651784B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US9532715B2 (en) | 2014-01-21 | 2017-01-03 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9811159B2 (en) | 2014-01-21 | 2017-11-07 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9836122B2 (en) | 2014-01-21 | 2017-12-05 | Osterhout Group, Inc. | Eye glint imaging in see-through computer display systems |
US11487110B2 (en) | 2014-01-21 | 2022-11-01 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US11737666B2 (en) | 2014-01-21 | 2023-08-29 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US9494800B2 (en) | 2014-01-21 | 2016-11-15 | Osterhout Group, Inc. | See-through computer display systems |
US9753288B2 (en) | 2014-01-21 | 2017-09-05 | Osterhout Group, Inc. | See-through computer display systems |
US9746676B2 (en) | 2014-01-21 | 2017-08-29 | Osterhout Group, Inc. | See-through computer display systems |
US9811152B2 (en) | 2014-01-21 | 2017-11-07 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9310610B2 (en) | 2014-01-21 | 2016-04-12 | Osterhout Group, Inc. | See-through computer display systems |
US11669163B2 (en) | 2014-01-21 | 2023-06-06 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US9766463B2 (en) | 2014-01-21 | 2017-09-19 | Osterhout Group, Inc. | See-through computer display systems |
US11892644B2 (en) | 2014-01-21 | 2024-02-06 | Mentor Acquisition One, Llc | See-through computer display systems |
US20150205135A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | See-through computer display systems |
US12093453B2 (en) | 2014-01-21 | 2024-09-17 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US9201578B2 (en) * | 2014-01-23 | 2015-12-01 | Microsoft Technology Licensing, Llc | Gaze swipe selection |
US9846308B2 (en) | 2014-01-24 | 2017-12-19 | Osterhout Group, Inc. | Haptic systems for head-worn computers |
US9588343B2 (en) | 2014-01-25 | 2017-03-07 | Sony Interactive Entertainment America Llc | Menu navigation in a head-mounted display |
US9437159B2 (en) | 2014-01-25 | 2016-09-06 | Sony Interactive Entertainment America Llc | Environmental interrupt in a head-mounted display and utilization of non field of view real estate |
US9619105B1 (en) | 2014-01-30 | 2017-04-11 | Aquifi, Inc. | Systems and methods for gesture based interaction with viewpoint dependent user interfaces |
US9852545B2 (en) | 2014-02-11 | 2017-12-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US9401540B2 (en) | 2014-02-11 | 2016-07-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US9330302B2 (en) * | 2014-02-26 | 2016-05-03 | Microsoft Technology Licensing, Llc | Polarized gaze tracking |
US11221680B1 (en) * | 2014-03-01 | 2022-01-11 | sigmund lindsay clements | Hand gestures used to operate a control panel for a device |
DE102014114131A1 (de) * | 2014-03-10 | 2015-09-10 | Beijing Lenovo Software Ltd. | Verfahren zur Informationsverarbeitung und elektronisches Gerät |
KR102404559B1 (ko) * | 2014-03-19 | 2022-06-02 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 눈 시선 추적을 사용하는 의료 디바이스, 시스템, 및 방법 |
CN106659541B (zh) * | 2014-03-19 | 2019-08-16 | 直观外科手术操作公司 | 集成眼球凝视跟踪用于立体观看器的医疗装置、系统和方法 |
RU2014111792A (ru) * | 2014-03-27 | 2015-10-10 | ЭлЭсАй Корпорейшн | Процессор изображений, содержащий систему распознавания лиц на основании преобразования двухмерной решетки |
US9727778B2 (en) * | 2014-03-28 | 2017-08-08 | Wipro Limited | System and method for guided continuous body tracking for complex interaction |
US20160187651A1 (en) | 2014-03-28 | 2016-06-30 | Osterhout Group, Inc. | Safety for a vehicle operator with an hmd |
US9342147B2 (en) | 2014-04-10 | 2016-05-17 | Microsoft Technology Licensing, Llc | Non-visual feedback of visual change |
US20150302422A1 (en) * | 2014-04-16 | 2015-10-22 | 2020 Ip Llc | Systems and methods for multi-user behavioral research |
US10853589B2 (en) | 2014-04-25 | 2020-12-01 | Mentor Acquisition One, Llc | Language translation with head-worn computing |
US9672210B2 (en) | 2014-04-25 | 2017-06-06 | Osterhout Group, Inc. | Language translation with head-worn computing |
US9423842B2 (en) | 2014-09-18 | 2016-08-23 | Osterhout Group, Inc. | Thermal management for head-worn computer |
US9651787B2 (en) | 2014-04-25 | 2017-05-16 | Osterhout Group, Inc. | Speaker assembly for headworn computer |
US9727136B2 (en) | 2014-05-19 | 2017-08-08 | Microsoft Technology Licensing, Llc | Gaze detection calibration |
US9740338B2 (en) * | 2014-05-22 | 2017-08-22 | Ubi interactive inc. | System and methods for providing a three-dimensional touch screen |
US10318016B2 (en) * | 2014-06-03 | 2019-06-11 | Harman International Industries, Incorporated | Hands free device with directional interface |
US9696813B2 (en) * | 2015-05-27 | 2017-07-04 | Hsien-Hsiang Chiu | Gesture interface robot |
US10663740B2 (en) | 2014-06-09 | 2020-05-26 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9203951B1 (en) | 2014-07-03 | 2015-12-01 | International Business Machines Corporation | Mobile telephone adapted for use with one hand |
US20170160800A1 (en) * | 2014-07-09 | 2017-06-08 | Nokia Technologies Oy | Device control |
EP3170061A1 (en) | 2014-07-16 | 2017-05-24 | Sony Corporation | Apparatus for presenting a virtual object on a three-dimensional display and method for controlling the apparatus |
US9846522B2 (en) | 2014-07-23 | 2017-12-19 | Microsoft Technology Licensing, Llc | Alignable user interface |
US9645641B2 (en) * | 2014-08-01 | 2017-05-09 | Microsoft Technology Licensing, Llc | Reflection-based control activation |
WO2016021034A1 (ja) * | 2014-08-07 | 2016-02-11 | 株式会社Fove | 3次元上の注視点の位置特定アルゴリズム |
CN204480228U (zh) | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
US9619008B2 (en) * | 2014-08-15 | 2017-04-11 | Dell Products, Lp | System and method for dynamic thermal management in passively cooled device with a plurality of display surfaces |
US10168833B2 (en) * | 2014-09-03 | 2019-01-01 | Hewlett-Packard Development Company, L.P. | Presentation of a digital image of an object |
KR102244620B1 (ko) * | 2014-09-05 | 2021-04-26 | 삼성전자 주식회사 | 렌더링 수준 제어 방법 및 장치 |
DE102014219803A1 (de) * | 2014-09-30 | 2016-03-31 | Siemens Aktiengesellschaft | Vorrichtung und Verfahren zur Auswahl eines Gerätes |
CN105590015B (zh) * | 2014-10-24 | 2019-05-03 | 中国电信股份有限公司 | 信息图热点采集方法、处理方法和装置及热点系统 |
US9535497B2 (en) | 2014-11-20 | 2017-01-03 | Lenovo (Singapore) Pte. Ltd. | Presentation of data on an at least partially transparent display based on user focus |
US9684172B2 (en) | 2014-12-03 | 2017-06-20 | Osterhout Group, Inc. | Head worn computer display systems |
US10088971B2 (en) * | 2014-12-10 | 2018-10-02 | Microsoft Technology Licensing, Llc | Natural user interface camera calibration |
USD743963S1 (en) | 2014-12-22 | 2015-11-24 | Osterhout Group, Inc. | Air mouse |
USD751552S1 (en) | 2014-12-31 | 2016-03-15 | Osterhout Group, Inc. | Computer glasses |
USD753114S1 (en) | 2015-01-05 | 2016-04-05 | Osterhout Group, Inc. | Air mouse |
WO2016125083A1 (en) * | 2015-02-04 | 2016-08-11 | Spiritus Payments Private Limited | Method and system for secure pin entry on computing devices |
US9696795B2 (en) | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
US10878775B2 (en) | 2015-02-17 | 2020-12-29 | Mentor Acquisition One, Llc | See-through computer display systems |
US20160239985A1 (en) | 2015-02-17 | 2016-08-18 | Osterhout Group, Inc. | See-through computer display systems |
JP6677239B2 (ja) * | 2015-03-05 | 2020-04-08 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
NZ773845A (en) | 2015-03-16 | 2022-07-01 | Magic Leap Inc | Methods and systems for diagnosing and treating health ailments |
CN104834446B (zh) * | 2015-05-04 | 2018-10-26 | 惠州Tcl移动通信有限公司 | 一种基于眼球追踪技术的显示屏多屏控制方法及系统 |
CN104866824A (zh) * | 2015-05-17 | 2015-08-26 | 华南理工大学 | 一种基于Leap Motion的手语字母识别方法 |
JP2018516422A (ja) * | 2015-05-28 | 2018-06-21 | アイサイト モバイル テクノロジーズ エルティーディー. | スマートホームのためのジェスチャ制御システム及び方法 |
KR101754126B1 (ko) * | 2015-06-10 | 2017-07-19 | 주식회사 브이터치 | 사용자 기준 공간좌표계 상에서의 제스처 검출 방법 및 장치 |
JP6553418B2 (ja) * | 2015-06-12 | 2019-07-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 表示制御方法、表示制御装置及び制御プログラム |
US10043281B2 (en) | 2015-06-14 | 2018-08-07 | Sony Interactive Entertainment Inc. | Apparatus and method for estimating eye gaze location |
DE102015211521A1 (de) * | 2015-06-23 | 2016-12-29 | Robert Bosch Gmbh | Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung |
EP3363050B1 (en) | 2015-07-23 | 2020-07-08 | Artilux Inc. | High efficiency wide spectrum sensor |
EP3370259B1 (en) | 2015-08-04 | 2020-03-11 | Artilux Inc. | Germanium-silicon light sensing apparatus |
US10707260B2 (en) | 2015-08-04 | 2020-07-07 | Artilux, Inc. | Circuit for operating a multi-gate VIS/IR photodiode |
US10761599B2 (en) | 2015-08-04 | 2020-09-01 | Artilux, Inc. | Eye gesture tracking |
US10861888B2 (en) | 2015-08-04 | 2020-12-08 | Artilux, Inc. | Silicon germanium imager with photodiode in trench |
US20170045935A1 (en) * | 2015-08-13 | 2017-02-16 | International Business Machines Corporation | Displaying content based on viewing direction |
EP3341970B1 (en) | 2015-08-27 | 2020-10-07 | Artilux Inc. | Wide spectrum optical sensor |
JP6525150B2 (ja) * | 2015-08-31 | 2019-06-05 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | テレプレゼンス・ロボットに用いる制御シグナルを発生させるための方法、テレプレゼンス・システムおよびコンピュータ・プログラム |
US10186086B2 (en) | 2015-09-02 | 2019-01-22 | Microsoft Technology Licensing, Llc | Augmented reality control of computing device |
US11194398B2 (en) | 2015-09-26 | 2021-12-07 | Intel Corporation | Technologies for adaptive rendering using 3D sensors |
US10401953B2 (en) | 2015-10-26 | 2019-09-03 | Pillantas Inc. | Systems and methods for eye vergence control in real and augmented reality environments |
US10466780B1 (en) * | 2015-10-26 | 2019-11-05 | Pillantas | Systems and methods for eye tracking calibration, eye vergence gestures for interface control, and visual aids therefor |
US9709807B2 (en) * | 2015-11-03 | 2017-07-18 | Motorola Solutions, Inc. | Out of focus notifications |
US10739443B2 (en) | 2015-11-06 | 2020-08-11 | Artilux, Inc. | High-speed light sensing apparatus II |
US10886309B2 (en) | 2015-11-06 | 2021-01-05 | Artilux, Inc. | High-speed light sensing apparatus II |
US10741598B2 (en) | 2015-11-06 | 2020-08-11 | Atrilux, Inc. | High-speed light sensing apparatus II |
US10254389B2 (en) | 2015-11-06 | 2019-04-09 | Artilux Corporation | High-speed light sensing apparatus |
US10418407B2 (en) | 2015-11-06 | 2019-09-17 | Artilux, Inc. | High-speed light sensing apparatus III |
US10310618B2 (en) | 2015-12-31 | 2019-06-04 | Microsoft Technology Licensing, Llc | Gestures visual builder tool |
US9898256B2 (en) * | 2015-12-31 | 2018-02-20 | Microsoft Technology Licensing, Llc | Translation of gesture to gesture code description using depth camera |
US10591728B2 (en) | 2016-03-02 | 2020-03-17 | Mentor Acquisition One, Llc | Optical systems for head-worn computers |
US20180217671A1 (en) * | 2016-02-23 | 2018-08-02 | Sony Corporation | Remote control apparatus, remote control method, remote control system, and program |
US20180164895A1 (en) * | 2016-02-23 | 2018-06-14 | Sony Corporation | Remote control apparatus, remote control method, remote control system, and program |
US10667981B2 (en) | 2016-02-29 | 2020-06-02 | Mentor Acquisition One, Llc | Reading assistance system for visually impaired |
US10198233B2 (en) * | 2016-03-01 | 2019-02-05 | Microsoft Technology Licensing, Llc | Updating displays based on attention tracking data |
CN108604125B (zh) * | 2016-03-29 | 2021-08-27 | 谷歌有限责任公司 | 用于基于凝视跟踪生成虚拟标记的系统和方法 |
CN105844705B (zh) * | 2016-03-29 | 2018-11-09 | 联想(北京)有限公司 | 一种三维虚拟对象模型生成方法及电子设备 |
KR20230084603A (ko) | 2016-04-08 | 2023-06-13 | 매직 립, 인코포레이티드 | 가변 포커스 렌즈 엘리먼트들을 가진 증강 현실 시스템들 및 방법들 |
US9910284B1 (en) | 2016-09-08 | 2018-03-06 | Osterhout Group, Inc. | Optical systems for head-worn computers |
US10684478B2 (en) | 2016-05-09 | 2020-06-16 | Mentor Acquisition One, Llc | User interface systems for head-worn computers |
US10824253B2 (en) | 2016-05-09 | 2020-11-03 | Mentor Acquisition One, Llc | User interface systems for head-worn computers |
US10466491B2 (en) | 2016-06-01 | 2019-11-05 | Mentor Acquisition One, Llc | Modular systems for head-worn computers |
CN107438261B (zh) * | 2016-05-25 | 2021-09-07 | 中兴通讯股份有限公司 | 峰均比检测装置和方法、移动通信设备 |
KR20170141484A (ko) * | 2016-06-15 | 2017-12-26 | 엘지전자 주식회사 | 차량용 제어장치 및 그것의 제어방법 |
JP2017228080A (ja) * | 2016-06-22 | 2017-12-28 | ソニー株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
US10591988B2 (en) * | 2016-06-28 | 2020-03-17 | Hiscene Information Technology Co., Ltd | Method for displaying user interface of head-mounted display device |
US20190258318A1 (en) * | 2016-06-28 | 2019-08-22 | Huawei Technologies Co., Ltd. | Terminal for controlling electronic device and processing method thereof |
TWI610059B (zh) * | 2016-08-04 | 2018-01-01 | 緯創資通股份有限公司 | 三維量測方法及應用其之三維量測裝置 |
US10690936B2 (en) | 2016-08-29 | 2020-06-23 | Mentor Acquisition One, Llc | Adjustable nose bridge assembly for headworn computer |
US10209772B2 (en) | 2016-09-19 | 2019-02-19 | International Business Machines Corporation | Hands-free time series or chart-based data investigation |
USD840395S1 (en) | 2016-10-17 | 2019-02-12 | Osterhout Group, Inc. | Head-worn computer |
CN107958446B (zh) * | 2016-10-17 | 2023-04-07 | 索尼公司 | 信息处理设备和信息处理方法 |
JP2018073244A (ja) * | 2016-11-01 | 2018-05-10 | 富士通株式会社 | キャリブレーションプログラム、キャリブレーション装置、及びキャリブレーション方法 |
DE102016015119A1 (de) * | 2016-12-20 | 2018-06-21 | Drägerwerk AG & Co. KGaA | Vorrichtung, Verfahren und Computerprogramm zur Konfiguration eines medizinischen Gerätes, medizinisches Gerät, Verfahren und Computerprogramm für ein medizinisches Gerät |
USD864959S1 (en) | 2017-01-04 | 2019-10-29 | Mentor Acquisition One, Llc | Computer glasses |
JP6814053B2 (ja) * | 2017-01-19 | 2021-01-13 | 株式会社日立エルジーデータストレージ | 物体位置検出装置 |
IL268427B2 (en) | 2017-02-23 | 2024-03-01 | Magic Leap Inc | Variable focus virtual imagers based on polarization conversion |
US10650405B2 (en) | 2017-03-21 | 2020-05-12 | Kellogg Company | Media content tracking |
US10401954B2 (en) * | 2017-04-17 | 2019-09-03 | Intel Corporation | Sensory enhanced augmented reality and virtual reality device |
CN107368184B (zh) * | 2017-05-12 | 2020-04-14 | 阿里巴巴集团控股有限公司 | 一种虚拟现实场景中的密码输入方法和装置 |
CN109141461A (zh) * | 2017-06-13 | 2019-01-04 | 博世汽车部件(苏州)有限公司 | 汽车地图导航控制系统和方法 |
US10810773B2 (en) * | 2017-06-14 | 2020-10-20 | Dell Products, L.P. | Headset display control based upon a user's pupil state |
US11853469B2 (en) * | 2017-06-21 | 2023-12-26 | SMR Patents S.à.r.l. | Optimize power consumption of display and projection devices by tracing passenger's trajectory in car cabin |
DE102017113763B4 (de) * | 2017-06-21 | 2022-03-17 | SMR Patents S.à.r.l. | Verfahren zum Betreiben einer Anzeigevorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug |
US11409105B2 (en) | 2017-07-24 | 2022-08-09 | Mentor Acquisition One, Llc | See-through computer display systems |
US10422995B2 (en) | 2017-07-24 | 2019-09-24 | Mentor Acquisition One, Llc | See-through computer display systems with stray light management |
US10578869B2 (en) | 2017-07-24 | 2020-03-03 | Mentor Acquisition One, Llc | See-through computer display systems with adjustable zoom cameras |
US10496162B2 (en) * | 2017-07-26 | 2019-12-03 | Microsoft Technology Licensing, Llc | Controlling a computer using eyegaze and dwell |
US11073904B2 (en) * | 2017-07-26 | 2021-07-27 | Microsoft Technology Licensing, Llc | Intelligent user interface element selection using eye-gaze |
KR102048674B1 (ko) * | 2017-07-31 | 2019-11-26 | 코닉오토메이션 주식회사 | 조명램프형 멀티미디어 장치 |
US10969584B2 (en) | 2017-08-04 | 2021-04-06 | Mentor Acquisition One, Llc | Image expansion optic for head-worn computer |
US20190073040A1 (en) * | 2017-09-05 | 2019-03-07 | Future Mobility Corporation Limited | Gesture and motion based control of user interfaces |
US9940518B1 (en) | 2017-09-11 | 2018-04-10 | Tobii Ab | Reliability of gaze tracking data for left and right eye |
KR102518404B1 (ko) * | 2017-09-29 | 2023-04-06 | 삼성전자주식회사 | 전자 장치 및 그의 시선 정보를 이용한 컨텐트 실행 방법 |
WO2019067903A1 (en) * | 2017-09-29 | 2019-04-04 | Tobii Ab | HEAD POSTURE ESTIMATION FROM A LOCAL EYE REGION |
CN107864390A (zh) * | 2017-10-24 | 2018-03-30 | 深圳前海茂佳软件科技有限公司 | 电视机的控制方法、电视机和计算机存储介质 |
JP6463826B1 (ja) * | 2017-11-27 | 2019-02-06 | 株式会社ドワンゴ | 動画配信サーバ、動画配信方法及び動画配信プログラム |
CN107976183A (zh) * | 2017-12-18 | 2018-05-01 | 北京师范大学珠海分校 | 一种空间数据测量方法及装置 |
EP3502836B1 (en) * | 2017-12-21 | 2021-09-08 | Atos Information Technology GmbH | Method for operating an augmented interactive reality system |
KR102476757B1 (ko) | 2017-12-21 | 2022-12-09 | 삼성전자주식회사 | 반사를 검출하는 장치 및 방법 |
US20190253751A1 (en) * | 2018-02-13 | 2019-08-15 | Perfect Corp. | Systems and Methods for Providing Product Information During a Live Broadcast |
WO2019161503A1 (en) | 2018-02-22 | 2019-08-29 | Innodem Neurosciences | Eye tracking method and system |
US11105928B2 (en) | 2018-02-23 | 2021-08-31 | Artilux, Inc. | Light-sensing apparatus and light-sensing method thereof |
WO2019165220A1 (en) | 2018-02-23 | 2019-08-29 | Artilux, Inc. | Photo-detecting apparatus and photo-detecting method thereof |
CN108469893B (zh) * | 2018-03-09 | 2021-08-27 | 海尔优家智能科技(北京)有限公司 | 显示屏的控制方法、装置、设备及计算机可读存储介质 |
TWI758599B (zh) | 2018-04-08 | 2022-03-21 | 美商光程研創股份有限公司 | 光偵測裝置 |
US11126257B2 (en) | 2018-04-17 | 2021-09-21 | Toyota Research Institute, Inc. | System and method for detecting human gaze and gesture in unconstrained environments |
WO2019209265A1 (en) * | 2018-04-24 | 2019-10-31 | Hewlett-Packard Development Company, L.P. | Animated gazes on head mounted displays |
TWI795562B (zh) | 2018-05-07 | 2023-03-11 | 美商光程研創股份有限公司 | 雪崩式之光電晶體 |
US10969877B2 (en) | 2018-05-08 | 2021-04-06 | Artilux, Inc. | Display apparatus |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
US10895757B2 (en) | 2018-07-03 | 2021-01-19 | Verb Surgical Inc. | Systems and methods for three-dimensional visualization during robotic surgery |
WO2020018513A1 (en) | 2018-07-16 | 2020-01-23 | Arris Enterprises Llc | Gaze-responsive advertisement |
CN110865761B (zh) * | 2018-08-28 | 2023-07-28 | 财团法人工业技术研究院 | 指向判断系统以及指向判断方法 |
CN109145566A (zh) * | 2018-09-08 | 2019-01-04 | 太若科技(北京)有限公司 | 基于注视点信息解锁ar眼镜的方法、装置及ar眼镜 |
CN109389069B (zh) * | 2018-09-28 | 2021-01-05 | 北京市商汤科技开发有限公司 | 注视点判断方法和装置、电子设备和计算机存储介质 |
US20200125175A1 (en) * | 2018-10-17 | 2020-04-23 | WiSilica Inc. | System using location, video-processing, and voice as user interface for controlling devices |
US10782777B2 (en) | 2018-11-29 | 2020-09-22 | International Business Machines Corporation | Real-time alteration of standard video and immersive video for virtual reality |
USD914021S1 (en) | 2018-12-18 | 2021-03-23 | Intel Corporation | Touchpad display screen for computing device |
CN109828660B (zh) * | 2018-12-29 | 2022-05-17 | 深圳云天励飞技术有限公司 | 一种基于增强现实的控制应用操作的方法及装置 |
KR20200085970A (ko) * | 2019-01-07 | 2020-07-16 | 현대자동차주식회사 | 자동차 및 그 제어 방법 |
US11107265B2 (en) * | 2019-01-11 | 2021-08-31 | Microsoft Technology Licensing, Llc | Holographic palm raycasting for targeting virtual objects |
KR102225342B1 (ko) * | 2019-02-13 | 2021-03-09 | 주식회사 브이터치 | 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
WO2020183249A1 (en) * | 2019-03-08 | 2020-09-17 | Indian Institute Of Science | A system for man-machine interaction in vehicles |
JP2022534338A (ja) | 2019-03-27 | 2022-07-29 | インテル コーポレイション | スマート・ディスプレイ・パネル装置および関連する方法 |
US11256342B2 (en) * | 2019-04-03 | 2022-02-22 | Facebook Technologies, Llc | Multimodal kinematic template matching and regression modeling for ray pointing prediction in virtual reality |
CN117590582A (zh) * | 2019-04-11 | 2024-02-23 | 三星电子株式会社 | 头戴式显示设备及其操作方法 |
US11337767B2 (en) * | 2019-05-17 | 2022-05-24 | Verb Surgical Inc. | Interlock mechanisms to disengage and engage a teleoperation mode |
US11379016B2 (en) | 2019-05-23 | 2022-07-05 | Intel Corporation | Methods and apparatus to operate closed-lid portable computers |
EP3751812B1 (en) | 2019-06-10 | 2022-10-26 | Nokia Technologies Oy | Resource access |
US11216065B2 (en) * | 2019-09-26 | 2022-01-04 | Lenovo (Singapore) Pte. Ltd. | Input control display based on eye gaze |
US11543873B2 (en) | 2019-09-27 | 2023-01-03 | Intel Corporation | Wake-on-touch display screen devices and related methods |
US11614797B2 (en) | 2019-11-05 | 2023-03-28 | Micron Technology, Inc. | Rendering enhancement based in part on eye tracking |
US11733761B2 (en) | 2019-11-11 | 2023-08-22 | Intel Corporation | Methods and apparatus to manage power and performance of computing devices based on user presence |
US11809535B2 (en) | 2019-12-23 | 2023-11-07 | Intel Corporation | Systems and methods for multi-modal user device authentication |
US11360528B2 (en) | 2019-12-27 | 2022-06-14 | Intel Corporation | Apparatus and methods for thermal management of electronic user devices based on user activity |
CN115769174A (zh) * | 2020-04-03 | 2023-03-07 | 奇跃公司 | 用于最佳注视辨别的化身定制 |
EP4281843A1 (en) * | 2021-01-20 | 2023-11-29 | Apple Inc. | Methods for interacting with objects in an environment |
EP4288856A1 (en) | 2021-02-08 | 2023-12-13 | Sightful Computers Ltd | Extended reality for productivity |
JP2024509722A (ja) | 2021-02-08 | 2024-03-05 | サイトフル コンピューターズ リミテッド | エクステンデッドリアリティにおけるユーザ相互作用 |
JP2024507749A (ja) | 2021-02-08 | 2024-02-21 | サイトフル コンピューターズ リミテッド | エクステンデッドリアリティにおけるコンテンツ共有 |
WO2023009580A2 (en) | 2021-07-28 | 2023-02-02 | Multinarity Ltd | Using an extended reality appliance for productivity |
CN116263598A (zh) * | 2021-12-13 | 2023-06-16 | 追觅创新科技(苏州)有限公司 | 自移动设备的重定位方法、设备及存储介质 |
US20230221799A1 (en) * | 2022-01-10 | 2023-07-13 | Apple Inc. | Devices and methods for controlling electronic devices or systems with physical objects |
US20230334795A1 (en) | 2022-01-25 | 2023-10-19 | Multinarity Ltd | Dual mode presentation of user interface elements |
US11948263B1 (en) | 2023-03-14 | 2024-04-02 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
US20240029437A1 (en) * | 2022-07-21 | 2024-01-25 | Sony Interactive Entertainment LLC | Generating customized summaries of virtual actions and events |
US20240112427A1 (en) | 2022-09-30 | 2024-04-04 | Sightful Computers Ltd | Location-based virtual resource locator |
CN115601824B (zh) * | 2022-10-19 | 2023-05-26 | 华中科技大学 | 一种二维图像中人眼凝视方向的标注装置、系统和方法 |
CN116225209A (zh) * | 2022-11-03 | 2023-06-06 | 溥畅(杭州)智能科技有限公司 | 一种基于眼动追踪的人机交互方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1904806A (zh) * | 2006-07-28 | 2007-01-31 | 上海大学 | 手、眼关系引导的非接触式位置输入系统和方法 |
US20090183125A1 (en) * | 2008-01-14 | 2009-07-16 | Prime Sense Ltd. | Three-dimensional user interface |
JP2009258884A (ja) * | 2008-04-15 | 2009-11-05 | Toyota Central R&D Labs Inc | ユーザインタフェイス |
US20100295781A1 (en) * | 2009-05-22 | 2010-11-25 | Rachid Alameh | Electronic Device with Sensing Assembly and Method for Interpreting Consecutive Gestures |
CN101960409A (zh) * | 2007-12-31 | 2011-01-26 | 微软国际控股私有有限公司 | 3d指点系统 |
Family Cites Families (240)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4550250A (en) | 1983-11-14 | 1985-10-29 | Hei, Inc. | Cordless digital graphics input device |
US4789921A (en) | 1987-02-20 | 1988-12-06 | Minnesota Mining And Manufacturing Company | Cone shaped Fresnel reflector |
US4988981B1 (en) | 1987-03-17 | 1999-05-18 | Vpl Newco Inc | Computer data entry and manipulation apparatus and method |
US4836670A (en) * | 1987-08-19 | 1989-06-06 | Center For Innovative Technology | Eye movement detector |
US5588139A (en) | 1990-06-07 | 1996-12-24 | Vpl Research, Inc. | Method and system for generating objects for a multi-person virtual world using data flow networks |
US5973700A (en) | 1992-09-16 | 1999-10-26 | Eastman Kodak Company | Method and apparatus for optimizing the resolution of images which have an apparent depth |
US5495576A (en) | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US5434370A (en) | 1993-11-05 | 1995-07-18 | Microfield Graphics, Inc. | Marking system with pen-up/pen-down tracking |
WO1996009579A1 (en) | 1994-09-22 | 1996-03-28 | Izak Van Cruyningen | Popup menus with directional gestures |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US6535210B1 (en) | 1995-06-07 | 2003-03-18 | Geovector Corp. | Vision system computer modeling apparatus including interaction with real scenes with respect to perspective and spatial relationship as measured in real-time |
US5852672A (en) | 1995-07-10 | 1998-12-22 | The Regents Of The University Of California | Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects |
RU2109336C1 (ru) | 1995-07-14 | 1998-04-20 | Нурахмед Нурисламович Латыпов | Способ погружения пользователя в виртуальную реальность и устройство для его реализации |
EP0768511A1 (en) | 1995-10-16 | 1997-04-16 | European Community | Optical three-dimensional profilometry method based on processing speckle images in partially coherent light, and interferometer implementing such a method |
US5862256A (en) | 1996-06-14 | 1999-01-19 | International Business Machines Corporation | Distinguishing gestures from handwriting in a pen based computer by size discrimination |
US5864635A (en) | 1996-06-14 | 1999-01-26 | International Business Machines Corporation | Distinguishing gestures from handwriting in a pen based computer by stroke analysis |
US6084979A (en) | 1996-06-20 | 2000-07-04 | Carnegie Mellon University | Method for creating virtual reality |
US6002808A (en) | 1996-07-26 | 1999-12-14 | Mitsubishi Electric Information Technology Center America, Inc. | Hand gesture control system |
US6118888A (en) | 1997-02-28 | 2000-09-12 | Kabushiki Kaisha Toshiba | Multi-modal interface apparatus and method |
US5917937A (en) | 1997-04-15 | 1999-06-29 | Microsoft Corporation | Method for performing stereo matching to recover depths, colors and opacities of surface elements |
US6049327A (en) | 1997-04-23 | 2000-04-11 | Modern Cartoons, Ltd | System for data management based onhand gestures |
US6008813A (en) | 1997-08-01 | 1999-12-28 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | Real-time PC based volume rendering system |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
JP3361980B2 (ja) | 1997-12-12 | 2003-01-07 | 株式会社東芝 | 視線検出装置及びその方法 |
AU2211799A (en) | 1998-01-06 | 1999-07-26 | Video Mouse Group, The | Human motion following computer mouse and game controller |
US7844914B2 (en) | 2004-07-30 | 2010-11-30 | Apple Inc. | Activating virtual keys of a touch-screen virtual keyboard |
US6211848B1 (en) | 1998-05-15 | 2001-04-03 | Massachusetts Institute Of Technology | Dynamic holographic video with haptic interaction |
US6076928A (en) | 1998-06-15 | 2000-06-20 | Fateh; Sina | Ideal visual ergonomic system for computer users |
US6064354A (en) | 1998-07-01 | 2000-05-16 | Deluca; Michael Joseph | Stereoscopic user interface method and apparatus |
US6252988B1 (en) | 1998-07-09 | 2001-06-26 | Lucent Technologies Inc. | Method and apparatus for character recognition using stop words |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6501515B1 (en) | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
CN1145872C (zh) | 1999-01-13 | 2004-04-14 | 国际商业机器公司 | 手写汉字自动分割和识别方法以及使用该方法的系统 |
US6200139B1 (en) * | 1999-02-26 | 2001-03-13 | Intel Corporation | Operator training system |
US7003134B1 (en) | 1999-03-08 | 2006-02-21 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
US6614422B1 (en) | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
GB9913687D0 (en) | 1999-06-11 | 1999-08-11 | Canon Kk | Image processing apparatus |
US6512385B1 (en) | 1999-07-26 | 2003-01-28 | Paul Pfaff | Method for testing a device under test including the interference of two beams |
US6512838B1 (en) | 1999-09-22 | 2003-01-28 | Canesta, Inc. | Methods for enhancing performance and data acquired from three-dimensional image systems |
US7548874B2 (en) | 1999-10-21 | 2009-06-16 | International Business Machines Corporation | System and method for group advertisement optimization |
US6507353B1 (en) | 1999-12-10 | 2003-01-14 | Godot Huard | Influencing virtual actors in an interactive environment |
WO2001056007A1 (en) | 2000-01-28 | 2001-08-02 | Intersense, Inc. | Self-referenced tracking |
US6900779B1 (en) | 2000-01-28 | 2005-05-31 | Zheng Jason Geng | Method and apparatus for an interactive volumetric three dimensional display |
JP2001307134A (ja) | 2000-04-19 | 2001-11-02 | Sony Corp | 三次元モデル処理装置および三次元モデル処理方法、並びにプログラム提供媒体 |
US6483499B1 (en) | 2000-04-21 | 2002-11-19 | Hong Kong Productivity Council | 3D sculpturing input device |
US20070078552A1 (en) * | 2006-01-13 | 2007-04-05 | Outland Research, Llc | Gaze-based power conservation for portable media players |
US6456262B1 (en) | 2000-05-09 | 2002-09-24 | Intel Corporation | Microdisplay with eye gaze detection |
GB0012275D0 (en) | 2000-05-22 | 2000-07-12 | Secr Defence Brit | Three dimensional human computer interface |
US6803928B2 (en) | 2000-06-06 | 2004-10-12 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Extended virtual table: an optical extension for table-like projection systems |
US7042442B1 (en) | 2000-06-27 | 2006-05-09 | International Business Machines Corporation | Virtual invisible keyboard |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US6686921B1 (en) | 2000-08-01 | 2004-02-03 | International Business Machines Corporation | Method and apparatus for acquiring a set of consistent image maps to represent the color of the surface of an object |
JP3974359B2 (ja) | 2000-10-31 | 2007-09-12 | 株式会社東芝 | オンライン文字認識装置及び方法並びにコンピュータ読み取り可能な記憶媒体及びオンライン文字認識プログラム |
US6816615B2 (en) | 2000-11-10 | 2004-11-09 | Microsoft Corporation | Implicit page breaks for digitally represented handwriting |
JP3631151B2 (ja) | 2000-11-30 | 2005-03-23 | キヤノン株式会社 | 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体 |
US20020158873A1 (en) | 2001-01-26 | 2002-10-31 | Todd Williamson | Real-time virtual viewpoint in simulated reality environment |
US20040104935A1 (en) | 2001-01-26 | 2004-06-03 | Todd Williamson | Virtual reality immersion system |
US6831632B2 (en) | 2001-04-09 | 2004-12-14 | I. C. + Technologies Ltd. | Apparatus and methods for hand motion tracking and handwriting recognition |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US8300042B2 (en) | 2001-06-05 | 2012-10-30 | Microsoft Corporation | Interactive video display system using strobed light |
US20040135744A1 (en) | 2001-08-10 | 2004-07-15 | Oliver Bimber | Virtual showcases |
US6741251B2 (en) | 2001-08-16 | 2004-05-25 | Hewlett-Packard Development Company, L.P. | Method and apparatus for varying focus in a scene |
US6822570B2 (en) | 2001-12-20 | 2004-11-23 | Calypso Medical Technologies, Inc. | System for spatially adjustable excitation of leadless miniature marker |
JP4050055B2 (ja) | 2002-01-10 | 2008-02-20 | 株式会社リコー | 手書き文字一括変換装置、手書き文字一括変換方法およびプログラム |
US7197165B2 (en) | 2002-02-04 | 2007-03-27 | Canon Kabushiki Kaisha | Eye tracking using image data |
US9959463B2 (en) | 2002-02-15 | 2018-05-01 | Microsoft Technology Licensing, Llc | Gesture recognition system using depth perceptive sensors |
AU2003217587A1 (en) | 2002-02-15 | 2003-09-09 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US10242255B2 (en) | 2002-02-15 | 2019-03-26 | Microsoft Technology Licensing, Llc | Gesture recognition system using depth perceptive sensors |
US7821541B2 (en) | 2002-04-05 | 2010-10-26 | Bruno Delean | Remote control apparatus using gesture recognition |
US7203356B2 (en) | 2002-04-11 | 2007-04-10 | Canesta, Inc. | Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications |
US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US7348963B2 (en) | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US20050122308A1 (en) | 2002-05-28 | 2005-06-09 | Matthew Bell | Self-contained interactive video display system |
US7370883B2 (en) | 2002-06-03 | 2008-05-13 | Intelligent Mechatronic Systems, Inc. | Three dimensional occupant position sensor |
US20030234346A1 (en) | 2002-06-21 | 2003-12-25 | Chi-Lei Kao | Touch panel apparatus with optical detection for location |
US6857746B2 (en) | 2002-07-01 | 2005-02-22 | Io2 Technology, Llc | Method and system for free-space imaging display and interface |
US7646372B2 (en) | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US7151530B2 (en) | 2002-08-20 | 2006-12-19 | Canesta, Inc. | System and method for determining an input selected by a user through a virtual interface |
SE0202664L (sv) | 2002-09-09 | 2003-11-04 | Zenterio Ab | Grafiskt användargränssnitt för navigering och selektion från olika valbara alternativ presenterade på en bildskärm |
US7526120B2 (en) | 2002-09-11 | 2009-04-28 | Canesta, Inc. | System and method for providing intelligent airbag deployment |
CN100377043C (zh) | 2002-09-28 | 2008-03-26 | 皇家飞利浦电子股份有限公司 | 三维手写识别的方法及其系统 |
US7427996B2 (en) | 2002-10-16 | 2008-09-23 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
US6977654B2 (en) | 2002-10-30 | 2005-12-20 | Iviz, Inc. | Data visualization with animated speedometer dial charts |
US20040174770A1 (en) | 2002-11-27 | 2004-09-09 | Rees Frank L. | Gauss-Rees parametric ultrawideband system |
US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
JP2004199496A (ja) | 2002-12-19 | 2004-07-15 | Sony Corp | 情報処理装置および方法、並びにプログラム |
CN1512298A (zh) | 2002-12-26 | 2004-07-14 | �ʼҷ����ֵ��ӹɷ�����˾ | 三维手写识别的方法及其系统 |
US7298414B2 (en) | 2003-01-29 | 2007-11-20 | Hewlett-Packard Development Company, L.P. | Digital camera autofocus using eye focus measurement |
US7573480B2 (en) | 2003-05-01 | 2009-08-11 | Sony Corporation | System and method for capturing facial and body motion |
US7333113B2 (en) | 2003-03-13 | 2008-02-19 | Sony Corporation | Mobile motion capture cameras |
KR100518824B1 (ko) | 2003-03-17 | 2005-10-05 | 삼성전자주식회사 | 필기 모션 획 구분 인식 시스템 및 그 인식방법 |
KR100465241B1 (ko) | 2003-03-17 | 2005-01-13 | 삼성전자주식회사 | 가상 필기 평면을 이용한 모션 인식 시스템 및 그 인식방법 |
US7762665B2 (en) | 2003-03-21 | 2010-07-27 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7358972B2 (en) | 2003-05-01 | 2008-04-15 | Sony Corporation | System and method for capturing facial and body motion |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
JP4355341B2 (ja) | 2003-05-29 | 2009-10-28 | 本田技研工業株式会社 | 深度データを用いたビジュアルトラッキング |
US7515756B2 (en) | 2003-06-23 | 2009-04-07 | Shoestring Research, Llc. | Region segmentation and characterization systems and methods for augmented reality |
JP4723799B2 (ja) | 2003-07-08 | 2011-07-13 | 株式会社ソニー・コンピュータエンタテインメント | 制御システムおよび制御方法 |
JP3977303B2 (ja) | 2003-08-21 | 2007-09-19 | シャープ株式会社 | 位置検出システム、位置検出システムにおける発信装置および受信装置 |
US7874917B2 (en) * | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
US7317450B2 (en) | 2003-09-26 | 2008-01-08 | Khomo Malome T | Spatial chirographic sign reader |
US7590941B2 (en) | 2003-10-09 | 2009-09-15 | Hewlett-Packard Development Company, L.P. | Communication and collaboration system using rich media environments |
US7536032B2 (en) | 2003-10-24 | 2009-05-19 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
CN102034197A (zh) | 2003-10-24 | 2011-04-27 | 瑞克楚斯系统公司 | 管理交互式视频显示系统的方法和系统 |
US7302099B2 (en) | 2003-11-10 | 2007-11-27 | Microsoft Corporation | Stroke segmentation for template-based cursive handwriting recognition |
US7963652B2 (en) | 2003-11-14 | 2011-06-21 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
CA2545202C (en) | 2003-11-14 | 2014-01-14 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
EP1563799B2 (de) | 2004-02-11 | 2012-11-28 | BrainLAB AG | Verstellbare Markeranordnung |
GB2411532B (en) | 2004-02-11 | 2010-04-28 | British Broadcasting Corp | Position determination |
US7182465B2 (en) | 2004-02-25 | 2007-02-27 | The University Of North Carolina | Methods, systems, and computer program products for imperceptibly embedding structured light patterns in projected color images for display on planar and non-planar surfaces |
US20050215319A1 (en) | 2004-03-23 | 2005-09-29 | Harmonix Music Systems, Inc. | Method and apparatus for controlling a three-dimensional character in a three-dimensional gaming environment |
US7519223B2 (en) | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
WO2006029681A2 (en) | 2004-09-17 | 2006-03-23 | Accenture Global Services Gmbh | Personalized marketing architecture |
US7289227B2 (en) | 2004-10-01 | 2007-10-30 | Nomos Corporation | System and tracker for tracking an object, and related methods |
US8487879B2 (en) | 2004-10-29 | 2013-07-16 | Microsoft Corporation | Systems and methods for interacting with a computer through handwriting to a screen |
CA2613906A1 (en) | 2004-12-29 | 2006-07-06 | Bernard Trest | Dynamic information system |
KR20070095407A (ko) | 2005-01-26 | 2007-09-28 | 벤틀리 키네틱스 인코포레이티드 | 운동동작의 분석 및 지도를 위한 방법 및 시스템 |
EP1851750A4 (en) | 2005-02-08 | 2010-08-25 | Oblong Ind Inc | SYSTEM AND METHOD FOR CONTROL SYSTEM BASED ON GESTURES |
WO2007043036A1 (en) | 2005-10-11 | 2007-04-19 | Prime Sense Ltd. | Method and system for object reconstruction |
WO2006108017A2 (en) * | 2005-04-04 | 2006-10-12 | Lc Technologies, Inc. | Explicit raytracing for gimbal-based gazepoint trackers |
US7428542B1 (en) | 2005-05-31 | 2008-09-23 | Reactrix Systems, Inc. | Method and system for combining nodes into a mega-node |
US8213678B2 (en) | 2005-08-19 | 2012-07-03 | Koninklijke Philips Electronics N.V. | System and method of analyzing the movement of a user |
CN101238428B (zh) | 2005-08-22 | 2012-05-30 | 叶勤中 | 自由空间指点和手写 |
DE112006002954B4 (de) | 2005-10-31 | 2011-12-08 | National University Of Singapore | Virtuelles Schnittstellensystem |
TWI301590B (en) | 2005-12-30 | 2008-10-01 | Ibm | Handwriting input method, apparatus, system and computer recording medium with a program recorded thereon of capturing video data of real-time handwriting strokes for recognition |
CN101379461A (zh) | 2005-12-30 | 2009-03-04 | 苹果公司 | 具有多重触摸输入的便携式电子设备 |
JP4151982B2 (ja) | 2006-03-10 | 2008-09-17 | 任天堂株式会社 | 動き判別装置および動き判別プログラム |
CN101496033B (zh) | 2006-03-14 | 2012-03-21 | 普莱姆森斯有限公司 | 利用散斑图案的三维传感 |
WO2007107949A1 (en) | 2006-03-23 | 2007-09-27 | Koninklijke Philips Electronics N.V. | Hotspots for eye track control of image manipulation |
US20070230789A1 (en) | 2006-04-03 | 2007-10-04 | Inventec Appliances Corp. | Method of controlling an electronic device by handwriting |
JP5167248B2 (ja) | 2006-05-11 | 2013-03-21 | プライムセンス リミテッド | 深度マップによるヒューマノイド形状のモデル化 |
GB2438449C (en) | 2006-05-24 | 2018-05-30 | Sony Computer Entertainment Europe Ltd | Control of data processing |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8589824B2 (en) * | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
KR100776801B1 (ko) | 2006-07-19 | 2007-11-19 | 한국전자통신연구원 | 화상 처리 시스템에서의 제스처 인식 장치 및 방법 |
US7934156B2 (en) | 2006-09-06 | 2011-04-26 | Apple Inc. | Deletion gestures on a portable multifunction device |
JP5340952B2 (ja) | 2006-11-29 | 2013-11-13 | エフ・ポスザツト・ヒユー・エル・エル・シー | 三次元投影ディスプレイ |
US8005294B2 (en) | 2006-11-29 | 2011-08-23 | The Mitre Corporation | Cursive character handwriting recognition system and method |
FR2911211B1 (fr) | 2007-01-05 | 2009-06-12 | Total Immersion Sa | Procede et dispositifs pour inserer en temps reel des objets virtuels dans un flux d'images a partir de donnees issues de la scene reelle representee par ces images |
US7840031B2 (en) | 2007-01-12 | 2010-11-23 | International Business Machines Corporation | Tracking a range of body movement based on 3D captured image streams of a user |
US7971156B2 (en) | 2007-01-12 | 2011-06-28 | International Business Machines Corporation | Controlling resource access based on user gesturing in a 3D captured image stream of the user |
US20080231926A1 (en) * | 2007-03-19 | 2008-09-25 | Klug Michael A | Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input |
JP2008242929A (ja) | 2007-03-28 | 2008-10-09 | Oki Data Corp | 手書き入力システム |
TWI433052B (zh) | 2007-04-02 | 2014-04-01 | Primesense Ltd | 使用投影圖案之深度製圖 |
US8150142B2 (en) | 2007-04-02 | 2012-04-03 | Prime Sense Ltd. | Depth mapping using projected patterns |
US20080252596A1 (en) | 2007-04-10 | 2008-10-16 | Matthew Bell | Display Using a Three-Dimensional vision System |
US20080256494A1 (en) | 2007-04-16 | 2008-10-16 | Greenfield Mfg Co Inc | Touchless hand gesture device controller |
CN101689244B (zh) | 2007-05-04 | 2015-07-22 | 高通股份有限公司 | 用于紧凑设备的基于相机的用户输入 |
CN101303634B (zh) | 2007-05-09 | 2012-05-23 | 鸿富锦精密工业(深圳)有限公司 | 便携式电子设备 |
US8100769B2 (en) | 2007-05-09 | 2012-01-24 | Nintendo Co., Ltd. | System and method for using accelerometer outputs to control an object rotating on a display |
US8065624B2 (en) | 2007-06-28 | 2011-11-22 | Panasonic Corporation | Virtual keypad systems and methods |
US8726194B2 (en) | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
TW200907764A (en) | 2007-08-01 | 2009-02-16 | Unique Instr Co Ltd | Three-dimensional virtual input and simulation apparatus |
US7949157B2 (en) | 2007-08-10 | 2011-05-24 | Nitin Afzulpurkar | Interpreting sign language gestures |
KR101141087B1 (ko) | 2007-09-14 | 2012-07-12 | 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 | 제스처-기반 사용자 상호작용의 프로세싱 |
US8195499B2 (en) | 2007-09-26 | 2012-06-05 | International Business Machines Corporation | Identifying customer behavioral types from a continuous video stream for use in optimizing loss leader merchandizing |
US20090078473A1 (en) | 2007-09-26 | 2009-03-26 | Digital Pen Systems | Handwriting Capture For Determining Absolute Position Within A Form Layout Using Pen Position Triangulation |
TWI343544B (en) | 2007-09-26 | 2011-06-11 | Inventec Appliances Corp | A handwriting record device |
WO2009062153A1 (en) | 2007-11-09 | 2009-05-14 | Wms Gaming Inc. | Interaction with 3d space in a gaming system |
US8933876B2 (en) | 2010-12-13 | 2015-01-13 | Apple Inc. | Three dimensional user interface session control |
US20120204133A1 (en) | 2009-01-13 | 2012-08-09 | Primesense Ltd. | Gesture-Based User Interface |
US7889073B2 (en) | 2008-01-31 | 2011-02-15 | Sony Computer Entertainment America Llc | Laugh detector and system and method for tracking an emotional response to a media presentation |
WO2009108334A2 (en) | 2008-02-28 | 2009-09-03 | New York University | Method and apparatus for providing input to a processor, and a sensor pad |
US9772689B2 (en) | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
KR100947990B1 (ko) | 2008-05-15 | 2010-03-18 | 성균관대학교산학협력단 | 차영상 엔트로피를 이용한 시선 추적 장치 및 그 방법 |
US8165398B2 (en) | 2008-05-30 | 2012-04-24 | Sony Ericsson Mobile Communications Ab | Method and device for handwriting detection |
JP5317169B2 (ja) | 2008-06-13 | 2013-10-16 | 洋 川崎 | 画像処理装置、画像処理方法およびプログラム |
US8456517B2 (en) * | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
US9445193B2 (en) | 2008-07-31 | 2016-09-13 | Nokia Technologies Oy | Electronic device directional audio capture |
US20100103103A1 (en) | 2008-08-22 | 2010-04-29 | Palanker Daniel V | Method And Device for Input Of Information Using Visible Touch Sensors |
US7850306B2 (en) * | 2008-08-28 | 2010-12-14 | Nokia Corporation | Visual cognition aware display and visual data transmission architecture |
US20100053151A1 (en) | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
US20100071965A1 (en) | 2008-09-23 | 2010-03-25 | Panasonic Corporation | System and method for grab and drop gesture recognition |
US20100149096A1 (en) | 2008-12-17 | 2010-06-17 | Migos Charles J | Network management using interaction with display surface |
US20100162181A1 (en) | 2008-12-22 | 2010-06-24 | Palm, Inc. | Interpreting Gesture Input Including Introduction Or Removal Of A Point Of Contact While A Gesture Is In Progress |
US20120202569A1 (en) | 2009-01-13 | 2012-08-09 | Primesense Ltd. | Three-Dimensional User Interface for Game Applications |
JP2012515966A (ja) | 2009-01-26 | 2012-07-12 | ズッロ・テクノロジーズ・(2009)・リミテッド | 物体の挙動を監視するためのデバイスおよび方法 |
US20100199228A1 (en) | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Gesture Keyboarding |
US8624962B2 (en) | 2009-02-02 | 2014-01-07 | Ydreams—Informatica, S.A. Ydreams | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images |
US20110267374A1 (en) * | 2009-02-05 | 2011-11-03 | Kotaro Sakata | Information display apparatus and information display method |
US20100235786A1 (en) | 2009-03-13 | 2010-09-16 | Primesense Ltd. | Enhanced 3d interfacing for remote devices |
US8760391B2 (en) | 2009-05-22 | 2014-06-24 | Robert W. Hawkins | Input cueing emersion system and method |
JP4837762B2 (ja) * | 2009-06-18 | 2011-12-14 | 本田技研工業株式会社 | 車載機器操作装置 |
CN101943982B (zh) * | 2009-07-10 | 2012-12-12 | 北京大学 | 基于被跟踪的眼睛运动的图像操作 |
KR20110010906A (ko) | 2009-07-27 | 2011-02-08 | 삼성전자주식회사 | 사용자 인터랙션을 이용한 전자기기 제어 방법 및 장치 |
KR101596890B1 (ko) | 2009-07-29 | 2016-03-07 | 삼성전자주식회사 | 사용자의 시선 정보를 이용한 디지털 오브젝트 탐색 장치 및 방법 |
US8565479B2 (en) | 2009-08-13 | 2013-10-22 | Primesense Ltd. | Extraction of skeletons from 3D maps |
JP5490664B2 (ja) * | 2009-11-18 | 2014-05-14 | パナソニック株式会社 | 眼電位推定装置、眼電位算出方法、視線検出装置、ウェアラブルカメラ、ヘッドマウントディスプレイおよび電子めがね |
US8812990B2 (en) | 2009-12-11 | 2014-08-19 | Nokia Corporation | Method and apparatus for presenting a first person world view of content |
US8587532B2 (en) | 2009-12-18 | 2013-11-19 | Intel Corporation | Multi-feature interactive touch user interface |
US8232990B2 (en) | 2010-01-05 | 2012-07-31 | Apple Inc. | Working with 3D objects |
US20110164032A1 (en) | 2010-01-07 | 2011-07-07 | Prime Sense Ltd. | Three-Dimensional User Interface |
US9507418B2 (en) | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
US20110188116A1 (en) | 2010-02-02 | 2011-08-04 | Nikolay Ledentsov Ledentsov | Device for generation of three-demensional images |
US8659658B2 (en) | 2010-02-09 | 2014-02-25 | Microsoft Corporation | Physical interaction zone for gesture-based user interfaces |
AU2011220382A1 (en) | 2010-02-28 | 2012-10-18 | Microsoft Corporation | Local advertising content on an interactive head-mounted eyepiece |
US8787663B2 (en) | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
US8595645B2 (en) | 2010-03-11 | 2013-11-26 | Apple Inc. | Device, method, and graphical user interface for marquee scrolling within a display area |
US20110248914A1 (en) | 2010-04-11 | 2011-10-13 | Sherr Alan B | System and Method for Virtual Touch Typing |
US20110254765A1 (en) | 2010-04-18 | 2011-10-20 | Primesense Ltd. | Remote text input using handwriting |
KR101334107B1 (ko) | 2010-04-22 | 2013-12-16 | 주식회사 굿소프트웨어랩 | 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법 |
US9311724B2 (en) | 2010-04-23 | 2016-04-12 | Handscape Inc. | Method for user input from alternative touchpads of a handheld computerized device |
US8384683B2 (en) | 2010-04-23 | 2013-02-26 | Tong Luo | Method for user input from the back panel of a handheld computerized device |
US8594425B2 (en) | 2010-05-31 | 2013-11-26 | Primesense Ltd. | Analysis of three-dimensional scenes |
US20110292036A1 (en) | 2010-05-31 | 2011-12-01 | Primesense Ltd. | Depth sensor with application interface |
US20110310010A1 (en) | 2010-06-17 | 2011-12-22 | Primesense Ltd. | Gesture based user interface |
US8907929B2 (en) | 2010-06-29 | 2014-12-09 | Qualcomm Incorporated | Touchless sensing and gesture recognition using continuous wave ultrasound signals |
WO2012009789A2 (en) | 2010-07-19 | 2012-01-26 | Smart Technologies Ulc | Interactive input system having a 3d input space |
US9201501B2 (en) | 2010-07-20 | 2015-12-01 | Apple Inc. | Adaptive projector |
CN102959616B (zh) | 2010-07-20 | 2015-06-10 | 苹果公司 | 自然交互的交互真实性增强 |
US20120019703A1 (en) | 2010-07-22 | 2012-01-26 | Thorn Karl Ola | Camera system and method of displaying photos |
US9098931B2 (en) | 2010-08-11 | 2015-08-04 | Apple Inc. | Scanning projectors and image capture modules for 3D mapping |
WO2012024022A2 (en) | 2010-08-20 | 2012-02-23 | University Of Massachusetts | Hand and finger registration for control applications |
US8959013B2 (en) | 2010-09-27 | 2015-02-17 | Apple Inc. | Virtual keyboard for a non-tactile three dimensional user interface |
KR101156734B1 (ko) | 2010-11-05 | 2012-06-14 | 전자부품연구원 | 테이블 타입 인터렉티브 3차원 시스템 |
US8872762B2 (en) | 2010-12-08 | 2014-10-28 | Primesense Ltd. | Three dimensional user interface cursor control |
US20130154913A1 (en) | 2010-12-16 | 2013-06-20 | Siemens Corporation | Systems and methods for a gaze and gesture interface |
US20120169583A1 (en) | 2011-01-05 | 2012-07-05 | Primesense Ltd. | Scene profiles for non-tactile user interfaces |
KR101873405B1 (ko) | 2011-01-18 | 2018-07-02 | 엘지전자 주식회사 | 드로잉한 패턴을 이용한 사용자 인터페이스 제공방법 및 그 이동 단말기 |
EP2672880B1 (en) | 2011-02-09 | 2019-05-22 | Apple Inc. | Gaze detection in a 3d mapping environment |
US9329469B2 (en) | 2011-02-17 | 2016-05-03 | Microsoft Technology Licensing, Llc | Providing an interactive experience using a 3D depth camera and a 3D projector |
US8782566B2 (en) | 2011-02-22 | 2014-07-15 | Cisco Technology, Inc. | Using gestures to schedule and manage meetings |
US8881051B2 (en) | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
US9459758B2 (en) | 2011-07-05 | 2016-10-04 | Apple Inc. | Gesture-based interface with enhanced features |
US9377865B2 (en) | 2011-07-05 | 2016-06-28 | Apple Inc. | Zoom-based gesture user interface |
US9030498B2 (en) | 2011-08-15 | 2015-05-12 | Apple Inc. | Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface |
US9122311B2 (en) | 2011-08-24 | 2015-09-01 | Apple Inc. | Visual feedback for tactile and non-tactile user interfaces |
US9218063B2 (en) | 2011-08-24 | 2015-12-22 | Apple Inc. | Sessionless pointing user interface |
CN102306053B (zh) | 2011-08-29 | 2014-09-10 | Tcl集团股份有限公司 | 一种基于虚拟触摸屏的人机交互方法、装置及电子设备 |
US9395901B2 (en) | 2012-02-08 | 2016-07-19 | Blackberry Limited | Portable electronic device and method of controlling same |
US9229534B2 (en) | 2012-02-28 | 2016-01-05 | Apple Inc. | Asymmetric mapping for tactile and non-tactile user interfaces |
US9377863B2 (en) | 2012-03-26 | 2016-06-28 | Apple Inc. | Gaze-enhanced virtual touchscreen |
US9552673B2 (en) | 2012-10-17 | 2017-01-24 | Microsoft Technology Licensing, Llc | Grasping virtual objects in augmented reality |
-
2012
- 2012-02-09 EP EP12745037.7A patent/EP2672880B1/en active Active
- 2012-02-09 US US13/984,031 patent/US9285874B2/en active Active
- 2012-02-09 CN CN201280007484.1A patent/CN103347437B/zh active Active
- 2012-02-09 CN CN201610451134.4A patent/CN106125921B/zh active Active
- 2012-02-09 EP EP19167819.2A patent/EP3527121B1/en active Active
- 2012-02-09 WO PCT/IB2012/050577 patent/WO2012107892A2/en active Application Filing
-
2013
- 2013-08-07 US US13/960,822 patent/US9454225B2/en active Active
- 2013-08-07 US US13/960,823 patent/US9342146B2/en active Active
-
2016
- 2016-09-05 US US15/256,654 patent/US10031578B2/en active Active
-
2018
- 2018-06-20 US US16/012,802 patent/US11262840B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1904806A (zh) * | 2006-07-28 | 2007-01-31 | 上海大学 | 手、眼关系引导的非接触式位置输入系统和方法 |
CN101960409A (zh) * | 2007-12-31 | 2011-01-26 | 微软国际控股私有有限公司 | 3d指点系统 |
US20090183125A1 (en) * | 2008-01-14 | 2009-07-16 | Prime Sense Ltd. | Three-dimensional user interface |
JP2009258884A (ja) * | 2008-04-15 | 2009-11-05 | Toyota Central R&D Labs Inc | ユーザインタフェイス |
US20100295781A1 (en) * | 2009-05-22 | 2010-11-25 | Rachid Alameh | Electronic Device with Sensing Assembly and Method for Interpreting Consecutive Gestures |
Non-Patent Citations (1)
Title |
---|
KOTA IRIE,NAOHIRO WAKAMURA,KAZUNORI UMEDA: "Construction of an Intelligent Room Based on Gesture Recognition - Operation of Electric Appliances with Hand Gestures", 《PROCEEDINGS OF 2004 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS》, 31 December 2004 (2004-12-31) * |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10754490B2 (en) | 2013-10-14 | 2020-08-25 | Microsoft Technology Licensing, Llc | User interface for collaborative efforts |
CN105765513B (zh) * | 2013-11-01 | 2020-02-21 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN105765513A (zh) * | 2013-11-01 | 2016-07-13 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN104731320A (zh) * | 2013-12-20 | 2015-06-24 | 卡西欧计算机株式会社 | 电子设备以及显示控制方法 |
CN105917292A (zh) * | 2014-01-14 | 2016-08-31 | 微软技术许可有限责任公司 | 利用多个光源和传感器的眼睛注视检测 |
CN105917292B (zh) * | 2014-01-14 | 2019-05-14 | 微软技术许可有限责任公司 | 利用多个光源和传感器的眼睛注视检测 |
US10234954B2 (en) | 2014-02-22 | 2019-03-19 | Vtouch Co., Ltd | Apparatus and method for remote control using camera-based virtual touch |
US10642372B2 (en) | 2014-02-22 | 2020-05-05 | VTouch Co., Ltd. | Apparatus and method for remote control using camera-based virtual touch |
EP3121686A4 (en) * | 2014-02-22 | 2018-04-25 | VTouch Co., Ltd. | Apparatus and method for remote control using camera-based virtual touch |
CN104951048A (zh) * | 2014-03-24 | 2015-09-30 | 联想(北京)有限公司 | 信息处理方法及装置 |
CN107003738B (zh) * | 2014-12-03 | 2021-02-02 | 微软技术许可有限责任公司 | 注视目标应用启动器 |
CN107003737A (zh) * | 2014-12-03 | 2017-08-01 | 微软技术许可有限责任公司 | 用于自然用户输入的指示器投影 |
CN107003738A (zh) * | 2014-12-03 | 2017-08-01 | 微软技术许可有限责任公司 | 注视目标应用启动器 |
CN104699249A (zh) * | 2015-03-27 | 2015-06-10 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN104699249B (zh) * | 2015-03-27 | 2018-04-27 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN106484098B (zh) * | 2015-08-31 | 2019-09-03 | 柯尼卡美能达美国研究所有限公司 | 用户界面的实时交互操作系统和方法 |
CN106484098A (zh) * | 2015-08-31 | 2017-03-08 | 柯尼卡美能达美国研究所有限公司 | 用户界面的实时交互操作系统和方法 |
CN105301778A (zh) * | 2015-12-08 | 2016-02-03 | 北京小鸟看看科技有限公司 | 三维操控装置、头戴式装置及三维操控方法 |
CN106066699A (zh) * | 2016-06-23 | 2016-11-02 | 温州美渠传媒有限公司 | 一种智能型人机交换信息设备 |
CN109863466A (zh) * | 2016-10-26 | 2019-06-07 | 哈曼贝克自动系统股份有限公司 | 组合式眼睛和手势跟踪 |
CN109863466B (zh) * | 2016-10-26 | 2023-09-26 | 哈曼贝克自动系统股份有限公司 | 组合式眼睛和手势跟踪 |
CN108459702B (zh) * | 2017-02-22 | 2024-01-26 | 深圳巧牛科技有限公司 | 基于手势识别与视觉反馈的人机交互方法与系统 |
CN108459702A (zh) * | 2017-02-22 | 2018-08-28 | 天津锋时互动科技有限公司深圳分公司 | 基于手势识别与视觉反馈的人机交互方法与系统 |
CN107515474A (zh) * | 2017-09-22 | 2017-12-26 | 宁波维真显示科技股份有限公司 | 自动立体显示方法、装置及立体显示设备 |
CN109480767B (zh) * | 2018-12-13 | 2021-03-19 | 孙艳 | 一种医用眼科手术前用辅助检查装置 |
CN109480767A (zh) * | 2018-12-13 | 2019-03-19 | 孙艳 | 一种医用眼科手术前用辅助检查装置 |
US10819920B1 (en) | 2019-05-22 | 2020-10-27 | Dell Products L.P. | Augmented information handling system user presence detection |
CN110147180A (zh) * | 2019-05-24 | 2019-08-20 | 深圳秋田微电子股份有限公司 | 触控显示装置、触控显示方法、显示器及终端 |
US11294054B2 (en) | 2019-10-11 | 2022-04-05 | Dell Products L.P. | Information handling system infrared proximity detection with ambient light management |
US11435447B2 (en) | 2019-10-11 | 2022-09-06 | Dell Products L.P. | Information handling system proximity sensor with mechanically adjusted field of view |
US11435475B2 (en) | 2019-10-11 | 2022-09-06 | Dell Products L.P. | Information handling system infrared proximity detection with frequency domain modulation |
US11662695B2 (en) | 2019-10-11 | 2023-05-30 | Dell Products L.P. | Information handling system infrared proximity detection with distance reduction detection |
US11334146B2 (en) | 2020-01-31 | 2022-05-17 | Dell Products L.P. | Information handling system peripheral enhanced user presence detection |
US11513813B2 (en) | 2020-01-31 | 2022-11-29 | Dell Products L.P. | Information handling system notification presentation based upon user presence detection |
US11663343B2 (en) | 2020-01-31 | 2023-05-30 | Dell Products L.P. | Information handling system adaptive user presence detection |
CN113760083A (zh) * | 2020-06-01 | 2021-12-07 | 张也弛 | 操作者目光在终端设备屏幕上落点位置的确定方法及装置 |
US20220030128A1 (en) * | 2020-07-27 | 2022-01-27 | Avision Inc. | Office machine with intelligent sleep and wake function and control method thereof |
Also Published As
Publication number | Publication date |
---|---|
EP3527121A1 (en) | 2019-08-21 |
US9285874B2 (en) | 2016-03-15 |
US10031578B2 (en) | 2018-07-24 |
US20130321271A1 (en) | 2013-12-05 |
WO2012107892A3 (en) | 2012-11-01 |
EP2672880A2 (en) | 2013-12-18 |
US9342146B2 (en) | 2016-05-17 |
EP3527121B1 (en) | 2023-08-23 |
EP2672880B1 (en) | 2019-05-22 |
EP2672880A4 (en) | 2017-09-13 |
WO2012107892A2 (en) | 2012-08-16 |
CN106125921A (zh) | 2016-11-16 |
US11262840B2 (en) | 2022-03-01 |
US20160370860A1 (en) | 2016-12-22 |
US20140028548A1 (en) | 2014-01-30 |
CN103347437B (zh) | 2016-06-08 |
US20130321265A1 (en) | 2013-12-05 |
CN106125921B (zh) | 2019-01-15 |
US9454225B2 (en) | 2016-09-27 |
US20180314329A1 (en) | 2018-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103347437A (zh) | 3d映射环境中的凝视检测 | |
US11900527B2 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
JP7118007B2 (ja) | 視野周辺の視覚的背光 | |
EP3311250B1 (en) | System and method for spawning drawing surfaces | |
US10511778B2 (en) | Method and apparatus for push interaction | |
JP2024107299A (ja) | ウェアラブルシステムのためのトランスモード入力融合 | |
US20170364261A1 (en) | Holographic keyboard display | |
EP4193244A1 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
US20180114366A1 (en) | Text functions in augmented reality | |
CN107787472A (zh) | 用于虚拟现实中的凝视交互的悬停行为 | |
TW201214266A (en) | Three dimensional user interface effects on a display by using properties of motion | |
US11567625B2 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
US20230334808A1 (en) | Methods for displaying, selecting and moving objects and containers in an environment | |
Budhiraja | Interaction Techniques using Head Mounted Displays and Handheld Devices for Outdoor Augmented Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
ASS | Succession or assignment of patent right |
Owner name: APPLE COMPUTER, INC. Free format text: FORMER OWNER: PRIME SENSE LTD. Effective date: 20141023 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20141023 Address after: American California Applicant after: Apple Computer, Inc. Address before: Tel Aviv Applicant before: Prime Sense Ltd. |
|
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |