CN113272765A - Ar/vr环境中用户注意力的视觉指示器 - Google Patents
Ar/vr环境中用户注意力的视觉指示器 Download PDFInfo
- Publication number
- CN113272765A CN113272765A CN201980086851.3A CN201980086851A CN113272765A CN 113272765 A CN113272765 A CN 113272765A CN 201980086851 A CN201980086851 A CN 201980086851A CN 113272765 A CN113272765 A CN 113272765A
- Authority
- CN
- China
- Prior art keywords
- user
- gaze
- image
- visual cue
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 68
- 238000000034 method Methods 0.000 claims abstract description 43
- 210000001508 eye Anatomy 0.000 claims description 74
- 238000001514 detection method Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 8
- 230000010344 pupil dilation Effects 0.000 claims description 7
- 230000003190 augmentative effect Effects 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 16
- 230000009471 action Effects 0.000 description 14
- 239000013598 vector Substances 0.000 description 10
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 229920001621 AMOLED Polymers 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003362 replicative effect Effects 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 230000004308 accommodation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 208000029436 dilated pupil Diseases 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/157—Conference systems defining a virtual conference space and using avatars or agents
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
提供了一种在增强现实/虚拟现实(AR/VR)系统中向用户通知来自另一用户的注意力的方法。该方法包括在第一电子显示器上向AR/VR系统的第一用户显示第一图像,并且在检测到第一用户在AR/VR系统的第二用户或第一图像中的第二用户的化身处的凝视时,通过在第二电子显示器上向第二用户显示第二图像来向第二用户通知第一用户的凝视,第二图像具有第一用户的凝视的视觉提示。
Description
技术领域
本公开涉及视觉显示器和显示系统,且尤其涉及可佩戴显示器和用于可佩戴显示器的方法。
背景
可佩戴显示器可用于向用户呈现虚拟图像,或者用动态信息、数据或虚拟对象来增强真实世界的图像。虚拟现实(VR)或增强现实(AR)场景可以是三维的,以增强体验并使虚拟对象与用户观察到的真实对象相匹配。可以实时跟踪用户在空间中的眼睛定位(position)和凝视方向和/或定向(orientation),并且可以根据用户的头部定向和凝视方向来动态地调整显示的场景,以提供沉浸在模拟或增强的环境中的更好体验。
可佩戴显示器可用于模拟或增强用户之间的社交互动。例如,在虚拟会议应用中,由虚拟会议房间中的化身表示的用户可以通过互相交谈、向一群用户呈现信息等来彼此交互。社交聚会事件的AR/VR模拟的一个缺点是,用户可能会因AR/VR环境而感到孤立或迷失方向,从而使用户之间的社交联系不那么直接。
概述
本文公开的方法和系统可用于使用户能够吸引AR/VR环境中其他用户的注意力。AR/VR系统可以包括控制器和由不同的用户佩戴的多个可佩戴显示器。这些可佩戴显示器可以各自包括视觉显示模块、眼睛跟踪系统和音频系统,该视觉显示模块用于向用户显示VR图像和/或用AR图像和标志来增强观察到的外部世界,该眼睛跟踪系统用于实时地确定诸如用户的凝视方向、聚散度(vergence)、眼睛扩张(eye dilation)等的参数,该音频系统用于与其他用户的音频通信。控制器可以包括远程或分布式计算系统和通信网络,该通信网络将控制器连接到可穿戴显示器,使得可穿戴显示器与控制器通信地耦合。本文使用的术语AR/VR包括AR系统、VR系统及其任意组合,包括混合现实(MR)系统。AR/VR系统的示例将在下面进一步给出。
特定用户的可佩戴显示器可以显示表示系统的其他用户的图像。该方法使AR/VR系统的用户能够在该系统的另一个用户看着他们时注意到。屏幕上表示的用户可以位于很远的地方,并且对于佩戴特定可佩戴显示器的用户不可见,并且可以由化身来表示。在一些AR实施例中,用户可以通过他们的AR头戴式装置(headset)直接查看其他用户。
根据本发明的第一方面,提供了一种在增强现实/虚拟现实(AR/VR)系统的可穿戴显示器中的方法,该方法包括:使用可穿戴显示器向AR/VR系统的第二用户显示图像,该图像包括AR/VR系统的第一用户指向第二用户或第二用户的化身的凝视的视觉提示(visualcue),其中,第一用户指向第二用户或第二用户的化身的凝视已经被执行指令以处理第一用户的眼睛跟踪数据的处理器检测到。
根据本发明的实施例,当处理器执行指令以确定第一用户的眼睛已经看着第二用户或第二用户的化身达至少预定义的时间间隔时,显示包括视觉提示的图像。
根据本发明的实施例,当检测到第一用户在第二用户处的凝视方向时,显示包括视觉提示的图像,或者当检测到第一用户在第二用户处的凝视聚散度或第一用户的瞳孔扩张中的至少一个时,显示包括视觉提示的图像。
根据本发明的实施例,在第一用户的凝视之前,图像已经缺少视觉提示。
根据本发明的实施例,当一个或更多个处理器以规则的时间间隔确定了第一用户的凝视方向或凝视聚散度中的至少一个时,向第二用户显示包括视觉提示的图像。
根据本发明的实施例,当凝视已经被撤回达至少预定义的时间间隔时,修改图像以移除视觉提示。
根据本发明的第二方面,提供了一种其上存储有指令的非暂时性存储器,所述指令在被一个或更多个处理器执行时,使一个或更多个处理器使用AR/VR系统的可穿戴显示器向AR/VR系统的第二用户显示图像,该图像包括AR/VR系统的第一用户指向第二用户或第二用户的化身的凝视的视觉提示,其中,第一用户指向第二用户或第二用户的化身的凝视已经被执行指令以处理第一用户的眼睛跟踪数据的处理器检测到。
根据本发明的实施例,当执行指令的一个或更多个处理器确定了第一用户的眼睛已经看着第二用户或第二用户的化身达至少预定义的时间间隔时,显示包括视觉提示的图像。
根据本发明的实施例,当已经检测到第一用户在第二用户处的凝视方向时,显示包括视觉提示的图像,或者
其中,当已经检测到第一用户在第二用户处的凝视聚散度或第一用户的瞳孔扩张中的至少一个时,显示包括视觉提示的图像。
根据本发明的实施例,在第一用户的凝视之前,图像已经缺少视觉提示。
根据本发明的实施例,当凝视已经被撤回达至少预定义的时间间隔时,修改图像以移除视觉提示。
根据本发明的第三方面,还提供了一种AR/VR系统,包括:
第一可穿戴显示器,其包括眼睛跟踪系统和用于向第一用户显示第一图像的第一电子显示器;
第二可穿戴显示器,其包括用于向第二用户显示第二图像的第二电子显示器;和
控制器,其通信地耦合到第一可穿戴显示器和第二可穿戴显示器,并被配置为向第一可穿戴显示器提供用于显示第一图像的数据,该控制器包括注意力监视器,该注意力监视器被配置为从第一可穿戴显示器接收与第一用户的眼睛跟踪相关的数据,并识别第一用户指向第二用户或第一图像中的第二用户的化身的凝视,该控制器被配置为,在检测到凝视时,向第二可穿戴显示器提供用于向第二用户显示第二图像的数据,第二图像包括第一用户的凝视的视觉提示。
根据本发明的实施例,注意力监视器被配置为确定第一用户的眼睛看着第二用户或第一图像中的第二用户的化身达至少预定义的时间间隔,或者其中,注意力监视器被配置为确定第一用户的凝视方向,或者其中,注意力监视器被配置为确定第一用户的凝视聚散度,或者其中,注意力监视器被配置为以规则的时间间隔确定第一用户的凝视方向、凝视聚散度或瞳孔扩张中的至少一个。
根据本发明的实施例,注意力监视器被配置为随着时间的推移监视第一用户的凝视,并且当凝视已经被撤回达至少预定义的时间间隔时,修改第二图像以移除视觉提示。
附图简述
现在将结合附图描述示例性实施例,其中:
图1是根据本公开的AR/VR系统的框图;
图2是图1的AR/VR系统中的方法的流程图;
图3是示出图2的方法的一个实施例的图;
图4是用于图1的AR/VR系统的注意力监视器的示例性方法的流程图;
图5A是眼镜形状因子的近眼增强现实(AR)/虚拟现实(VR)可佩戴显示器实施例的等距视图;
图5B是图5A的AR/VR可佩戴显示器的侧视横截面图;
图6A是本公开的头戴式显示器头戴式装置的等距视图;
图6B是包括图6A的头戴式装置的虚拟现实系统的框图;
图7是眼睛凝视屏幕的示意图;
图8是根据实施例的图1的AR/VR系统的示例网络环境的框图;
图9是用于实现本公开的方法的计算机系统的框图。
详细描述
虽然结合各种实施例和示例描述了本教导,但是意图并不是本教导被限制到这样的实施例。相反,如本领域技术人员将理解的,本教导包括各种替代物和等同物。本文中叙述本公开的原理、方面和实施例以及其特定示例的所有陈述旨在包括其结构和功能等同物。另外,意图是这样的等同物包括当前已知的等同物以及将来开发的等同物两者,即,执行相同功能的所开发的任何要素,而不考虑结构。
如在本文所使用的,除非明确规定,否则术语“第一”、“第二”等并不意欲暗示顺序次序,而是更确切地意欲将一个要素与另一个要素区分开。类似地,除非明确规定,否则方法步骤的顺序次序并不暗示它们执行的顺序次序。术语“多个”在本文中用于表示“两个或更多个”,并且词语“包含(include)”与词语“包括(comprise)”的含义相同。
参考图1,AR/VR系统100允许两个或更多个用户(例如用户Ann(111)和Bob(112))的交互。系统100包括控制器152,控制器152经由网络与两个或更多个可佩戴显示器128(Ann的可佩戴显示器)和126(Bob的可佩戴显示器)连接。每个可穿戴显示器126、128包括电子显示器,即Ann的可穿戴显示器128包括电子显示器121,并且Bob的可穿戴显示器126包括电子显示器122。使用从控制器152接收的数据形成图像。
由Ann的可佩戴显示器128生成的图像可以包括由广角相机捕获的图像,或者可以包括完全由VR生成的图像。VR生成的图像可以表示多个用户,并且特别地,可以包括表示Bob的图像136。在本文,表示Bob的图像136被称为Bob的化身136。Bob的化身136可以是静止图像或动态图像、图标、图形表示、动画图像等。在AR实施例中,Ann可以通过AR头戴式装置直接看着Bob,该AR头戴式装置透射外部光使得能够直接观看外部世界,同时用计算机生成的图形和其他计算机生成的图像来增强真实视图。在这样的实施例中,Bob的真实世界视图可以用注意力提示(attention cue)(例如外部发光、标志等)来增强。这同样适用于其他用户和向彼此表示其他用户的图像(即其他用户的化身131、132和136)。在一些AR实施例中,可以有虚拟化身和真人被放置在同一场景中。此外,用户可以通过电话拨入,并通过放置表示拨入用户的化身而被放置在场景中。
图2是根据本公开的用于呈现视觉提示的方法的流程图。该方法包括在第一电子显示器上向AR/VR系统的第一用户显示(230)第一图像。在图1所示的例子中,第一用户111是Ann,第一电子显示器是她的电子显示器121,以及图像136表示Bob。
进一步参考图1,AR/VR系统100的第一可佩戴显示器128包括眼睛跟踪系统142,其收集关于第一用户的眼睛的数据,并将获得的数据提供给注意力监视器161(在图1中示出为161A和161B)。优选地,第二可佩戴显示器126也包括眼睛跟踪系统,从而也可以将Bob的凝视通知给Ann。
注意力监视器161是一个功能块,包括可佩戴显示器(例如Ann的可佩戴显示器128)内的一个或更多个本地部分161B以及控制器152内的中央部分161A。一些功能可以由用户位置处的本地部分161B或者由中央位置处的中央部分161A来实现。注意力监视器161可以用存储在计算机可读存储介质中并由硬件处理器执行的指令来实现。
注意力监视器161将由眼睛跟踪系统142获得的信息和与当前显示在电子显示器121上的图像相关的信息同步,以识别Ann是看着Bob(例如在AR应用中直接看着Bob,或者在VR应用中看着Bob的化身136)。在图1中,线170指示当Ann看着Bob的化身136时Ann的凝视的具体方向。
在这个例子中,Ann看着Bob的化身136。Ann可以将她的注意力转移到表示另一个用户的图像132。注意力监视器161可以基于用于形成提供给电子显示器121的图像的初始信息来区分图像136和132。注意力监视器161具有标识电子显示器121的哪个部分被特定用户的图像所占据的信息。对于AR应用,每个AR头戴式装置可以配备有位置传感器或位置指示器,使得AR/VR系统100能够实时地确定每个用户在3D空间中的位置。该信息与各种用户在3D空间中的凝视方向和/或聚散度一起,使AR/VR系统100能够为每个用户实时地确定哪个或哪些其他用户可能正在看着该特定用户。例如,如果Bob在真实世界位置A,而Ann碰巧在3D空间中看着相同的真实世界位置A,则AR/VR系统100可以确定Ann正看着Bob。
出于识别AR/VR系统100的一个用户指向另一个用户的凝视的持续时间的目的,注意力监视器161可以计算Ann凝视Bob或Bob的化身136的持续时间。凝视持续时间可被定义为在预定义的时间间隔期间,对特定图像(例如Bob的化身136)或特定人或AR应用中的3D空间位置的不间断、连续的凝视。凝视检测条件可以被配置为观看特定图像达至少预定义的时间间隔T1。当满足凝视检测条件时,检测到凝视的出现。
进一步参考图2,该方法还包括检测(235)凝视。检测235包括检测第一用户(在该实例中为Ann)朝向第二用户(Bob)或第一图像中的第二用户的化身(Bob的化身136)的凝视170,所述第一图像在第一电子显示器121上被显示给第一用户(Ann)。检测235可以包括通过眼睛跟踪单元(例如眼睛跟踪系统142)来跟踪第一用户的眼睛移动。检测可以包括凝视持续时间长于预定义的阈值时间量的条件。检测还可以考虑一些眼睛特征,例如第一用户的瞳孔扩张。扩张的瞳孔可以指示注意力高度集中。类似地,当注意力监视器161确定一个用户关注另一个用户时,通知该另一个用户。例如,当监视器161检测到从Ann朝向与Bob相关的图像136的凝视170时,控制器152通知Bob。
进一步参考图2,该方法还包括通知240。通知240可以包括在检测到第一用户的凝视时,在第二电子显示器122上向AR/VR系统150的第二用户显示第二图像。第二图像具有指示第一用户111指向第二用户112或第二用户的化身的凝视的视觉提示或标志。在图1所示的示例中,通知步骤240包括在Bob的电子显示器122上显示图像,该图像具有靠近表示第一用户111(Ann)的图像131的视觉提示180。
通知可以包括添加到在Bob的显示器122上显示给他的Ann的图像的任何视觉信息,例如标志、视觉提示、文本、符号和/或对Ann的化身131的一些修改,例如颜色、对比度、亮度、轮廓(outline)等。视觉提示可以表示由Bob的AR头戴式装置提供的人工图像或特征。在图1中,视觉提示是在Ann的化身131附近的感叹号180。视觉提示的其他非限制性示例包括Ann的化身131的振动、Ann的化身131的闪烁(shimmering)或发光等。视觉提示可以靠近凝视用户的图像、在图像上、或者是图像的改变,例如发光或移动。优选地,视觉提示是预先定义的并且容易被注意到,然而视觉提示可以合理地保持不明显(subtle)。视觉提示的目的是响应于所识别的第一用户在第二用户处或朝向第二用户的凝视,将第二用户的注意力吸引到第一用户。在一些实施例中,标志可以是显示器上的文本,或者甚至是语音通知。
从第二用户Bob 112的视角来看,该方法包括使用AR/VR系统100的可穿戴显示器126向Bob显示图像,其中该图像具有系统的第一用户Ann 111的凝视的视觉提示,该凝视指向第二用户或第二用户的化身。第一用户通过可穿戴显示器指向第二用户或者指向可穿戴显示器128的屏幕121上的第二用户的化身的凝视已经被执行指令以处理第一用户的眼睛跟踪数据的处理器检测到。当执行指令的处理器已经确定第一用户的眼睛已经看着第二用户或第二用户的化身至少预定义的时间间隔时,可以显示视觉提示。当已经检测到第一用户在第二用户处的凝视方向时,和/或当已经检测到第一用户在第二用户处的凝视聚散度时,可以显示视觉提示。凝视方向和/或凝视聚散度可以由处理器以规则的时间间隔确定。该方法可以包括当凝视已经被撤回时,修改图像以移除视觉提示。优选地,在检测到第一用户指向第二用户或第二用户的化身的凝视之前,显示给第二用户的图像已经缺少视觉提示。
该方法可用于向用户通知在该用户的显示器上表示的几个其他用户的同时注意力。参考图3,第二用户Bob 112在他的显示器122上具有五个图像,并且系统已经检测到三个人的密切注意力,这三个人的密切注意力如上所述根据他们的凝视来被识别。视觉提示180、181、182在Bob的显示器122上被提供。每个视觉提示可以被设置在特定用户或他们的图像旁边/附近,或者直接设置在图像或化身上(对于表示图像的微小修改的诸如发光或振动的提示)。可以为表示特定用户的图像提供视觉提示,或者提供比表示同一屏幕上的其他用户的图像更接近该图像的视觉提示,以便仅识别用户中的一个,并清楚表明该提示所指的是哪个特定用户。例如,系统可以被限制为提供比同时被表示在显示器上的任何其他用户头部更靠近特定用户头部的提示。
该方法可以实时执行。当用户的眼睛在屏幕的不同区域之间移动时,AR/VR系统100可以以规则的时间间隔接收更新的眼睛跟踪信息,并且显示系统可以基于更新的眼睛跟踪信息计算注视点(point of regard)(即凝视点),该注视点是用户正在看着的屏幕中的点。优选地,由凝视方向和凝视聚散度表示的注视点以预定义的规则的时间间隔被识别。如上所述,一旦检测到第一用户的凝视,就通知第二用户。然后,系统继续监视第一用户111的凝视。当第一用户111的注意力移动到别处时,指示先前被检测到的凝视的视觉提示可以消失。凝视撤回条件可以被配置为继续看着第二用户112达小于预定义的时间间隔T2。两个时间间隔T1(凝视阈值时间的检测)和T2(凝视的撤回)可以相等,T1=T2,然而不是必须相等。注意力监视器161还可以被配置为检测用户自然的眼睛和/或头部移动,以便将目光接触的持续时间限制为舒适的持续时间。换句话说,第一用户可能会短暂地看着地板,从一边到另一边转动他们的头,等等。注意力监视器161可以被配置为允许在“短暂的撤回时间”T3内的这种移动,而不移除注意力的视觉提示。当满足凝视撤回条件时,显示在第二显示器122上的图像改变,使得视觉提示180消失。
最终,第一用户111可以将他们的注意力返回到第二用户112。当满足凝视检测条件时,关于第一用户111的图像的视觉提示出现在第二显示器上。在本文,视觉提示指示注意力,而缺少提示指示缺乏注意力。因此,在再次检测到凝视之前,视觉提示直接不存在,持续至少预定义的时间间隔(例如T1/2)。
图4是注意力监视器161采用的用于检测第一用户111朝向第二用户112的凝视的存在或不存在的示例性方法400的流程图。最初(402)凝视状态为否。启动间隔计时器(404),并检测注视点(406)。如果注视点在第二人的图像内(408),则使观看计时器递增(410)。如果不在,并且如果间隔计时器小于T1(412),则过程返回到检测注视点(406)。如果否,则确定凝视状态(414)。在该示例中,凝视检测条件被配置为观看特定图像达时间间隔T1的至少预定部分X,并且凝视撤回条件被配置为观看特定图像达小于时间间隔T2的预定部分Y。如果没有凝视并且观看计时器小于X*T1(416),则该过程重启间隔计时器(404)。如果观看计时器大于X*T1(418),则凝视状态为是(420),并且通知第二用户凝视改变(422)。如果凝视持续并且观看计时器大于X*T1,则该过程也重启间隔计时器(404)。如果观看计时器小于X*T1,则凝视状态为否(424),并且通知第二用户凝视改变(418)。用户的凝视可以随着时间的推移被连续监测。
为了说明的目的,T1=T2,并且没有考虑第一用户111朝向第一电子显示器121上表示的其他用户的可能的凝视。当然,可以采用其他方法,特别是可以使用滑动时间窗口。
第一用户111和第二用户112可以是人,以便他们的凝视可以被眼睛跟踪设备捕获。然而,被通知得到第一用户的注意的第二用户112也可以是机器、计算机或机器人。
参考图5A和图5B,近眼AR/VR显示器500是可佩戴显示器126、128的实施例。如所示,近眼AR/VR显示器500的主体或框架502具有一副眼镜的形状因子。显示器504包括显示组件506(图5B),显示组件506向视窗(eyebox)510提供图像光508,视窗510即可以向用户的眼睛512呈现高质量图像的几何区域。显示组件506可以包括用于每只眼睛的单独的近眼AR/VR显示模块,或者用于两只眼睛的一个AR/VR显示模块。
显示组件506的电子显示器可以包括例如但不限于液晶显示器(LCD)、有机发光显示器(OLED)、无机发光显示器(ILED)、有源矩阵有机发光二极管(AMOLED)显示器、透明有机发光二极管(TOLED)显示器、投影仪或其组合。可以提供波导结构来将显示器产生的图像传送到用户的眼睛。在AR应用中,透明或半透明的波导结构可以在显示组件506上延伸。波导可以包括选择性反射器和衍射光栅。波导还可以包括光瞳复制波导部分。近眼AR/VR显示器500还可以包括眼睛跟踪系统514,用于实时确定用户眼睛512的凝视方向和/或聚散角(vergence angle)。根据视角和眼睛位置,所确定的凝视方向和凝视聚散角也可以用于视觉伪像的实时补偿。此外,所确定的聚散度和凝视角度可用于与用户的交互、突出显示对象、将对象带到前景、动态创建附加对象或指示物(pointer)等。此外,近眼相干AR/VR显示器500可以包括音频系统,例如小扬声器或耳机(headphone)和/或麦克风。可以使用显示组件上的立体声麦克风来识别房间中的人的位置和/或方向。在一些实施例中,面部识别可以用于确定场景中人的存在;为了此目的,可以采用同步定位与地图构建(simultaneouslocalization and mapping,SLAM)相机或联网(internet-connected,IoT)相机。
参考图6A,HMD 600是为了更大程度地沉浸到AR/VR环境内而包围用户的面部的AR/VR可佩戴显示系统的例子。HMD 600的功能是用计算机生成的图像来增强物理、真实世界环境的视图,和/或生成完全虚拟的3D图像。HMD 600包括前主体602和带604。前主体602被配置为以可靠和舒适的方式放置在用户的眼睛前面,以及带604可以被拉伸以将前主体602固定在用户的头上。显示系统680可以布置在前主体602中,用于向用户呈现AR/VR图像。前主体602的侧面606可以是不透明的或透明的。
在一些实施例中,前主体602包括定位器608、用于跟踪HMD 600的加速度的惯性测量单元(IMU)610以及用于跟踪HMD 600的位置的位置传感器612。IMU 610是基于从一个或更多个位置传感器612接收的测量信号来生成指示HMD 600的位置的数据的电子设备,位置传感器612响应于HMD 600的运动而生成一个或更多个测量信号。位置传感器612的示例包括:一个或更多个加速度计、一个或更多个陀螺仪、一个或更多个磁力计、检测运动的另一种合适类型的传感器、用于IMU 610的误差校正的一类传感器或者其某种组合。位置传感器612可以位于IMU 610的外部、IMU 610的内部或者这两种位置的某种组合。
定位器608由虚拟现实系统的外部成像设备跟踪,使得虚拟现实系统可以跟踪整个HMD 600的位置和定向。为了HMD 600的位置和定向的改进的跟踪准确度,可以将由IMU610和位置传感器612产生的信息与通过跟踪定位器608获得的位置和定向进行比较。当用户在3D空间中移动和转动时,准确的位置和定向对于向用户呈现适当的虚拟场景是重要的。
HMD 600还可以包括深度相机组件(DCA)611,其捕获描述围绕HMD 600的部分或全部的局部区域的深度信息的数据。为此,DCA 611可以包括激光雷达(LIDAR)或类似设备。可以将深度信息与来自IMU 610的信息进行比较,以便更准确地确定HMD 600在3D空间中的位置和定向。
HMD 600还可以包括眼睛跟踪系统614,用于实时地确定用户眼睛的定向和位置。眼睛跟踪系统614可以包括照射双眼的红外照明器阵列、用于分离红外光和可见光的热镜(hot mirror)、以及通过来自照明器的反射(亮斑(glint))获得双眼图像的眼睛跟踪相机。通过相对于眼睛瞳孔的位置比较亮斑的位置,可以确定眼睛的位置和定向。所获得的眼睛的位置和定向还允许HMD 600确定用户的凝视方向,并相应地调整由显示系统680生成的图像。在一个实施例中,确定聚散度,即用户的眼睛凝视的会聚角度(convergence angle)。根据视角和眼睛位置,所确定的凝视方向和凝视聚散角也可以用于视觉伪像的实时补偿。此外,所确定的聚散度和凝视角度可用于与用户的交互、突出显示对象、将对象带到前景、创建附加对象或指示物等。还可以提供音频系统,其包括例如内置在前主体602中的一组小扬声器和/或麦克风。
参考图6B,AR/VR系统650包括图6A的HMD 600、外部控制台690和输入/输出(I/O)接口615,外部控制台690存储各种AR/VR应用、设置和校准程序、3D视频等,输入/输出(I/O)接口615用于操作控制台690和/或与AR/VR环境交互。HMD 600可以用物理电缆“拴(tether)”到控制台690上,或者经由诸如Wi-Fi等的无线通信链路连接到控制台690。可以有多个HMD 600,每个HMD 600具有相关联的I/O接口615,其中每个HMD 600和I/O接口615与控制台690通信。在替代配置中,不同的和/或附加的部件可以被包括在AR/VR系统650中。另外,在一些实施例中,结合图6A和图6B所示的一个或更多个部件描述的功能可以以不同于结合图6A和图6B描述的方式的方式分布在部件中。例如,控制台615的一些或全部功能可以由HMD 600提供,反之亦然。HMD 600可以设置有能够实现这样的功能的处理模块。
如上面参考图6A所述,HMD 600可以包括用于跟踪眼睛位置和定向,确定凝视角度和会聚角度等的眼睛跟踪系统614(图6B)、用于确定HMD600在3D空间中的位置和定向的IMU610、用于捕获外部环境的DCA 611、用于独立确定HMD 600的位置的位置传感器612、以及用于向用户显示AR/VR内容的显示系统680。显示系统680包括(图6B)电子显示器625,例如但不限于液晶显示器(LCD)、有机发光显示器(OLED)、无机发光显示器(ILED)、有源矩阵有机发光二极管(AMOLED)显示器、透明有机发光二极管(TOLED)显示器、投影仪或其组合。显示系统680还包括光学块630,其功能是将电子显示器625产生的图像传送给用户的眼睛。光学块可以包括各种透镜(例如折射透镜、菲涅耳透镜、衍射透镜、有源或无源Pancharatnam-Berry相位(PBP)透镜、液体透镜、液晶透镜等)、光瞳复制波导、光栅结构、涂层等。显示系统680还可以包括变焦模块635,变焦模块635可以是光学块630的一部分。变焦模块635的功能是调节光学块630的焦点,以例如补偿视觉辐辏调节冲突(vergence-accommodationconflict)、校正特定用户的视觉缺陷、抵消光学块630的像差等。
I/O接口615是允许用户发送动作请求并从控制台690接收响应的设备。动作请求是执行特定动作的请求。例如,动作请求可以是开始或结束图像或视频数据的捕获的指令,或者是在应用内执行特定动作的指令。I/O接口615可以包括一个或更多个输入设备,例如键盘、鼠标、游戏控制器或用于接收动作请求并将动作请求传送到控制台690的任何其他合适的设备。由I/O接口615接收的动作请求被传送到控制台690,控制台690执行对应于动作请求的动作。在一些实施例中,I/O接口615包括IMU,其捕获指示相对于I/O接口615的初始位置的I/O接口615的估计位置的校准数据。在一些实施例中,I/O接口615可以根据从控制台690接收的指令来向用户提供触觉反馈。例如,当动作请求被接收到时,或者当控制台690向I/O接口615传送指令——所述指令使I/O接口615在控制台690执行动作时生成触觉反馈——时,触觉反馈可以被提供。
控制台690可以向HMD 600提供内容,以根据从IMU 610、DCA 611、眼睛跟踪系统614和I/O接口615中的一个或更多个接收的信息进行处理。在图6B所示的示例中,控制台690包括应用储存器655、跟踪模块660和VR引擎665。控制台690的一些实施例可以具有不同于结合图6B描述的模块或部件的模块或部件。类似地,下面进一步描述的功能可以以不同于结合图6A和图6B描述的方式分布在控制台690的部件当中。
应用储存器655可存储用于由控制台690执行的一个或更多个应用。应用是一组指令,该组指令当由处理器执行时生成用于显现给用户的内容。由应用生成的内容可以响应于经由HMD 600或I/O接口615的移动而从用户接收的输入。应用的例子包括:游戏应用、演示和会议应用、视频回放应用或其他合适的应用。
跟踪模块660可以使用一个或更多个校准参数来校准AR/VR系统650,并且可以调整一个或更多个校准参数以减少HMD 600或I/O接口615的位置确定中的误差。由跟踪模块660执行的校准还考虑了从HMD 600中的IMU 610和/或被包括在I/O接口615中的IMU(如果有的话)接收的信息。另外,如果HMD 600的跟踪丢失,则跟踪模块660可以重新校准AR/VR系统650的部分或全部。
跟踪模块660可以跟踪HMD 600或I/O接口615、IMU 610或其某种组合的移动。例如,跟踪模块660可以基于来自HMD 600的信息来确定HMD 600的参考点在局部区域的映射中的位置。跟踪模块660还可以分别使用指示来自IMU 610的HMD 600的位置的数据或者使用指示来自被包括在I/O接口615中的IMU的I/O接口615的位置的数据,来确定HMD 600的参考点或者I/O接口615的参考点的位置。另外,在一些实施例中,跟踪模块660可以使用来自IMU 610的指示HMD 600的位置的数据部分以及来自DCA 611的局部区域的表示来预测HMD600的未来定位。跟踪模块660向VR引擎665提供HMD 600或I/O接口615的估计的或预测的未来位置。
VR引擎665可基于从HMD 600接收的信息来生成围绕HMD 600的部分或全部的区域(“局部区域”)的3D映射。在一些实施例中,VR引擎665基于从DCA 611接收的与在计算深度时使用的技术相关的信息来确定用于局部区域的3D映射的深度信息。在各种实施例中,VR引擎665可以使用深度信息来更新局部区域的模型,并部分地基于已更新的模型来生成内容。
VR引擎665在AR/VR系统650内执行应用,并从跟踪模块660接收HMD 600的位置信息、加速度信息、速度信息、所预测的未来位置或其某种组合。基于接收到的信息,VR引擎665确定要提供给HMD 600用于呈现给用户的内容。例如,如果接收到的信息指示用户已经向左看,则VR引擎665为HMD 600生成反映(mirror)用户在虚拟环境中或在用附加内容增强局部区域的环境中的移动的内容。另外,VR引擎665响应于从I/O接口615接收的动作请求来执行在控制台690上执行的应用内的动作,并且向用户提供动作被执行的反馈。所提供的反馈可以是经由HMD 600的视觉或听觉反馈或者经由I/O接口615的触觉反馈。
在一些实施例中,基于从眼睛跟踪系统614接收的眼睛跟踪信息(例如,用户眼睛的定向),VR引擎665确定提供给HMD 600用于在电子显示器625上呈现给用户的内容的分辨率。VR引擎665可以向HMD 600提供内容,该内容在电子显示器625上在用户凝视的中央凹区(foveal region)中具有最大像素分辨率。VR引擎665可以在电子显示器625的其他区域中提供较低的像素分辨率,从而减少AR/VR系统650的功耗并节省控制台690的计算资源,而不会损害用户的视觉体验。在一些实施例中,VR引擎665可以进一步使用眼睛跟踪信息来调整对象在电子显示器625上的显示位置,以防止视觉辐辏调节冲突和/或抵消光学失真和像差。
图7示出了用户的眼睛302在由凝视向量306指示的方向上凝视屏幕304,该凝视向量306对应于图1的凝视向量170。图7进一步示出了屏幕上的中央凹区308。注意力监视器模块161(图1)确定表示眼睛正在看的方向的凝视向量。在一些实施例中,注意力监视器模块161基于与眼睛相关联的多个眼睛特征来确定凝视向量,该多个眼睛特征包括眼球中心(图7中的A)、角膜中心(C)、瞳孔(E)以及角膜中心和瞳孔中心之间的距离(h)。在一个实施例中,眼睛跟踪系统142估计这些眼睛特征,并将这些估计作为眼睛跟踪信息的一部分发送给注意力监视器模块161。在另一个实施例中,模块161从眼睛跟踪系统142接收眼睛的角度定向,并通过基于角度旋转对眼睛模型应用旋转来生成这些眼睛特征。在其他实施例中,注意力监视器模块161从眼睛跟踪系统142接收眼睛的中央凹轴,并使用中央凹轴的方向作为凝视向量306。在确定凝视向量306之后,模块161通过计算凝视向量306和屏幕304之间的交点来确定注视点314。在其他实施例中,注视点314通过其他方式来计算。
在另一个实施例中,为用户的两只眼睛分别确定两个凝视向量,并且可佩戴显示器128基于两个凝视向量的会聚来确定用户的聚焦深度。在该实施例中,可佩戴显示器128确定聚焦深度与场景中对象的深度值之间的深度差(在下文中称为深度差),以便确定第一用户是将她的眼睛集中在特定对象或用户上,还是仅仅让眼睛休息而不注意屏幕。
图8提供了AR/VR系统100的示例,在该示例中可以实现本公开的方法。AR/VR系统100包括网络855、包括控制器152的一个或更多个服务器850以及由设备820和821示出的多个用户设备(例如可佩戴显示器128或126)。服务器850向用户设备提供用于显示图像的数据、监视用户活动以及向用户通知其他用户对她的注意力。网络855提供服务器850与用户设备820和821之间的通信手段。网络855可以是互联网、诸如移动设备运营商网络之类的无线或有线网络、或者可以用于服务器与客户端之间的通信的任何其他网络。用户设备820和821可以是HMD,并且每个用户设备可以包括任何合适的计算设备,例如台式计算机或移动设备,例如移动电话、蜂窝电话、智能电话、个人数字助理、笔记本计算机、平板计算机、膝上型计算机、相机、摄像机或手持游戏控制台。
图9示出了示例计算机系统700。在特定实施例中,一个或更多个计算机系统700执行本文描述或示出的一个或更多个方法的一个或更多个步骤。在特定实施例中,一个或更多个计算机系统700提供本文描述或示出的功能。在特定实施例中,在一个或更多个计算机系统700上运行的软件执行本文描述或示出的一个或更多个方法的一个或更多个步骤,或者提供本文描述或示出的功能。特定实施例包括一个或更多个计算机系统700的一个或更多个部分。
本公开设想了任何合适数量的计算机系统700。本公开设想了采取任何合适的物理形式的计算机系统700。作为示例而不是作为限制,计算机系统700可以是嵌入式计算机系统、片上系统(SOC)、单板计算机系统(SBC)(例如,模块上计算机(COM)或模块上系统(SOM))、台式计算机系统、膝上型或笔记本计算机系统、交互式信息亭、大型机、计算机系统网状网、移动电话、个人数字助理(PDA)、服务器、平板计算机系统、或者这些中的两个或更多个的组合。在适当的情况下,计算机系统700可以包括一个或更多个计算机系统700;可以是整体式的或分布式的;跨越多个位置;跨越多台机器;跨越多个数据中心;或者驻留在云中,云可以包括在一个或更多个网络中的一个或更多个云部件。在适当的情况下,一个或更多个计算机系统700可以在没有实质性空间或时间限制的情况下执行本文描述或示出的一个或更多个方法的一个或更多个步骤。作为示例而不是作为限制,一个或更多个计算机系统700可以实时地或以批处理模式来执行本文描述或示出的一个或更多个方法的一个或更多个步骤。在适当的情况下,一个或更多个计算机系统700可以在不同的时间或在不同的位置处执行本文描述或示出的一个或更多个方法的一个或更多个步骤。
在特定实施例中,计算机系统700包括处理器702、非暂时性存储器704、存储装置706、输入/输出(I/O)接口708、通信接口710和总线712。尽管本公开描述并示出了具有在特定布置中的特定数量的特定部件的特定计算机系统,但是本公开设想了具有在任何合适布置中的任何合适数量的任何合适部件的任何合适的计算机系统。
在特定实施例中,处理器702包括用于执行指令(例如构成计算机程序的那些指令)的硬件。作为示例而不是作为限制,为了执行指令,处理器702可以从内部寄存器、内部高速缓存、非暂时性存储器704或存储装置706中检索(或取回)指令;将这些指令解码并执行它们;以及然后将一个或更多个结果写到内部寄存器、内部高速缓存、非暂时性存储器704或存储装置706。在特定实施例中,处理器702可以包括用于数据、指令或地址的一个或更多个内部高速缓存。尽管本公开描述并示出了特定的处理器,但是本公开设想了任何合适的处理器。
在特定实施例中,非暂时性存储器704包括主存储器,其用于存储供处理器702执行的指令或供处理器702操作的数据。作为示例而不是作为限制,计算机系统700可以将指令从存储装置706或另一个源(例如,另一个计算机系统700)加载到存储器704。处理器702然后可以将指令从存储器704加载到内部寄存器或内部高速缓存。为了执行指令,处理器702可以从内部寄存器或内部高速缓存中检索指令并将它们解码。在指令的执行期间或之后,处理器702可以将一个或更多个结果(其可以是中间结果或最终结果)写到内部寄存器或内部高速缓存。处理器702然后可以将这些结果中的一个或更多个写到非暂时性存储器704。
在特定实施例中,处理器702仅执行在一个或更多个内部寄存器或内部高速缓存中或在存储器704(而不是存储装置706或其他地方)中的指令,并且仅对在一个或更多个内部寄存器或内部高速缓存中或在存储器704(而不是存储装置706或其他地方)中的数据进行操作。一个或更多个存储器总线(其可以各自包括地址总线和数据总线)可以将处理器02耦合到存储器704。如下所述,总线712可以包括一个或更多个存储器总线。在特定实施例中,一个或更多个存储器管理单元(MMU)驻留在处理器702和存储器704之间,并且便于由处理器702请求的对存储器704的访问。尽管本公开描述并示出了特定的存储器,但是本公开设想了任何合适的存储器。
在特定实施例中,存储装置706包括用于数据或指令的大容量存储装置。在适当的情况下,存储装置706可以包括可移动或不可移动(即固定)介质。在适当的情况下,存储装置706可以在计算机系统700的内部或外部。在特定实施例中,存储装置706是非易失性固态存储器。在适当的情况下,存储装置706可以包括一个或更多个存储装置706。尽管本公开描述并示出了特定的存储装置,但是本公开设想了任何合适的存储装置。
在特定实施例中,I/O接口708包括为在计算机系统700和一个或更多个I/O设备之间的通信提供一个或更多个接口的硬件、软件或两者。在适当的情况下,计算机系统700可以包括这些I/O设备中的一个或更多个。这些I/O设备中的一个或更多个可以实现在人和计算机系统700之间的通信。作为示例而不是作为限制,I/O设备可以包括键盘、小键盘、麦克风、监视器、鼠标、打印机、扫描仪、扬声器、静态相机、触笔、平板计算机、触摸屏、跟踪球、摄像机、另一个合适的I/O设备、或这些设备中的两个或更多个的组合。I/O设备可以包括一个或更多个传感器。本公开设想了任何合适的I/O设备以及用于它们的任何合适的I/O接口708。在适当的情况下,I/O接口708可以包括使处理器702能够驱动这些I/O设备中的一个或更多个的一个或更多个设备或软件驱动器。在适当的情况下,I/O接口708可以包括一个或更多个I/O接口708。尽管本公开描述并示出了特定的I/O接口,但是本公开设想了任何合适的I/O接口。
在特定实施例中,通信接口710包括提供用于在计算机系统700和一个或更多个其他计算机系统700或一个或更多个网络之间的通信(例如,基于包(packet-based)的通信)的一个或更多个接口的硬件、软件或两者。作为示例而不是作为限制,通信接口710可以包括用于与以太网或其他基于有线的网络进行通信的网络接口控制器(NIC)或网络适配器,或用于与无线网络(例如Wi-Fi网络)进行通信的无线NIC(WNIC)或无线适配器。本公开设想了任何合适的网络和用于它的任何合适的通信接口710。尽管本公开描述并示出了特定的通信接口,但是本公开设想了任何合适的通信接口。
在特定实施例中,总线712包括将计算机系统700的部件耦合到彼此的硬件、软件或两者。尽管本公开描述并示出了特定总线,但是本公开设想了任何合适的总线或互连。
在本文,对计算机可读存储介质的引用包括一个或更多个具有结构的非暂时性、有形的计算机可读存储介质。作为示例而非限制,在适当的情况下,计算机可读存储介质可以包括基于半导体的或其他集成电路(IC)(例如,现场可编程门阵列(FPGA)或专用IC(ASIC))、硬盘、HDD、混合硬盘驱动器(HHD)、光盘、光盘驱动器(ODD)、磁光盘、磁光驱动器、软盘、软盘驱动器(FDD)、磁带、全息存储介质、固态驱动器(SSD)、RAM驱动器,安全数字卡、安全数字驱动器或另一种合适的计算机可读存储介质或这些中的两种或更多种的组合。在本文,对计算机可读存储介质的引用不包括根据35 U.S.C.§101没有资格获得专利保护的任何介质。在本文,鉴于暂时形式的信号传输根据35 U.S.C.§101是没有资格获得专利保护的,对计算机可读存储介质的引用不包括暂时形式的信号传输(例如传播电信号或电磁信号本身)。在适当的情况下,计算机可读非暂时性存储介质可以是易失性的、非易失性的或者易失性和非易失性的组合。
本公开设想了实现任何合适的存储的一个或更多个计算机可读存储介质。在特定实施例中,在适当的情况下,计算机可读存储介质实现处理器702的一个或更多个部分(例如,一个或更多个内部寄存器或高速缓存)、存储器704的一个或更多个部分、存储装置706的一个或更多个部分或这些的组合。在特定实施例中,计算机可读存储介质实现RAM或ROM。在特定实施例中,计算机可读存储介质实现易失性或持久性的存储器。在特定实施例中,一个或更多个计算机可读存储介质体现软件。在本文,在适当的情况下,对软件的引用可以包括一个或更多个应用、字节码(bytecode)、一个或更多个计算机程序、一个或更多个可执行文件、一个或更多个指令、逻辑、机器代码、一个或更多个脚本或源代码,反之亦然。在特定实施例中,软件包括一个或更多个应用编程接口(API)。本公开设想了以任何合适的编程语言或编程语言的组合编写或以其他方式表达的任何合适的软件。在特定实施例中,软件被表达为源代码或目标代码。
本公开在范围上不受本文描述的特定实施例限制。实际上,除了在本文描述的那些实施例和修改之外,其他各种实施例和修改根据前面的描述和附图对于本领域中的普通技术人员将明显。因此,这样的其他实施例和修改被规定为落在本公开的范围内。此外,尽管在本文在特定实现的上下文中在特定环境中为了特定的目的描述了本公开,但是本领域中的普通技术人员将认识到它的有用性不限于此,以及本公开可以有益地在任何数量的环境中为了任何数量的目的而实现。因此,应该考虑如本文描述的本公开的全部广度和精神来解释所阐述的权利要求。
Claims (15)
1.一种在AR/VR系统的可穿戴显示器中的方法,所述方法包括:
使用所述可穿戴显示器向所述AR/VR系统的第二用户显示图像,所述图像包括所述AR/VR系统的第一用户指向所述第二用户或所述第二用户的化身的凝视的视觉提示,
其中,所述第一用户指向所述第二用户或所述第二用户的化身的凝视已经被执行指令以处理所述第一用户的眼睛跟踪数据的处理器检测到。
2.根据权利要求1所述的方法,其中,当所述处理器执行指令以确定所述第一用户的眼睛已经看着所述第二用户或所述第二用户的化身达至少预定义的时间间隔时,显示包括所述视觉提示的所述图像。
3.根据权利要求1所述的方法,其中,当检测到所述第一用户在所述第二用户处的凝视方向时,显示包括所述视觉提示的所述图像,或者其中,当检测到所述第一用户在所述第二用户处的凝视聚散度或所述第一用户的瞳孔扩张中的至少一个时,显示包括所述视觉提示的所述图像。
4.根据权利要求1所述的方法,其中,在所述第一用户的所述凝视之前,所述图像已经缺少所述视觉提示。
5.根据权利要求1所述的方法,其中,当所述处理器以规则的时间间隔确定了所述第一用户的凝视方向或凝视聚散度中的至少一个时,向所述第二用户显示包括所述视觉提示的所述图像。
6.根据权利要求1所述的方法,还包括当所述凝视已经被撤回达至少预定义的时间间隔时,修改所述图像以移除所述视觉提示。
7.一种非暂时性存储器,其上存储有指令,所述指令在被一个或更多个处理器执行时,使所述一个或更多个处理器使用AR/VR系统的可穿戴显示器向所述AR/VR系统的第二用户显示图像,所述图像包括所述AR/VR系统的第一用户指向所述第二用户或所述第二用户的化身的凝视的视觉提示,
其中,所述第一用户指向所述第二用户或所述第二用户的化身的凝视已经被执行指令以处理所述第一用户的眼睛跟踪数据的处理器检测到。
8.根据权利要求7所述的非暂时性存储器,其中,当执行所述指令的所述一个或更多个处理器已经确定所述第一用户的眼睛已经看着所述第二用户或所述第二用户的化身达至少预定义的时间间隔时,显示包括所述视觉提示的所述图像。
9.根据权利要求7所述的非暂时性存储器,其中,当已经检测到所述第一用户在所述第二用户处的凝视方向时,显示包括所述视觉提示的所述图像,或者其中,当已经检测到所述第一用户在所述第二用户处的凝视聚散度或所述第一用户的瞳孔扩张中的至少一个时,显示包括所述视觉提示的所述图像。
10.根据权利要求7所述的非暂时性存储器,其中,在所述第一用户的所述凝视之前,所述图像已经缺少所述视觉提示。
11.根据权利要求7所述的非暂时性存储器,其中,当所述一个或更多个处理器以规则的时间间隔确定了所述第一用户的凝视方向或凝视聚散度中的至少一个时,向所述第二用户显示包括所述视觉提示的所述图像。
12.根据权利要求7所述的非暂时性存储器,其中,当所述凝视已经被撤回达至少预定义的时间间隔时,修改所述图像以移除所述视觉提示。
13.一种AR/VR系统,包括:
第一可穿戴显示器,其包括眼睛跟踪系统和用于向第一用户显示第一图像的第一电子显示器;
第二可穿戴显示器,其包括用于向第二用户显示第二图像的第二电子显示器;和
控制器,其通信地耦合到所述第一可穿戴显示器和所述第二可穿戴显示器,并且被配置为向所述第一可穿戴显示器提供用于显示所述第一图像的数据,所述控制器包括注意力监视器,所述注意力监视器被配置为从所述第一可穿戴显示器接收与所述第一用户的眼睛跟踪相关的数据,并且识别所述第一用户指向所述第二用户或所述第一图像中的所述第二用户的化身的凝视,所述控制器被配置为在检测到所述凝视时,向所述第二可穿戴显示器提供用于向所述第二用户显示所述第二图像的数据,所述第二图像包括所述第一用户的所述凝视的视觉提示。
14.根据权利要求13所述的AR/VR系统,其中,所述注意力监视器被配置为确定所述第一用户的眼睛看着所述第二用户或所述第一图像中的所述第二用户的化身达至少预定义的时间间隔,或者其中,所述注意力监视器被配置为确定所述第一用户的凝视方向,或者其中,所述注意力监视器被配置为确定所述第一用户的凝视聚散度,或者其中,所述注意力监视器被配置为以规则的时间间隔确定所述第一用户的凝视方向、凝视聚散度或瞳孔扩张中的至少一个。
15.根据权利要求13所述的AR/VR系统,其中,所述注意力监视器被配置为随着时间的推移监视所述第一用户的所述凝视,并且当所述凝视已经被撤回达至少预定义的时间间隔时,修改所述第二图像以移除所述视觉提示。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862785642P | 2018-12-27 | 2018-12-27 | |
US62/785,642 | 2018-12-27 | ||
US16/512,952 US11022794B2 (en) | 2018-12-27 | 2019-07-16 | Visual indicators of user attention in AR/VR environment |
US16/512,952 | 2019-07-16 | ||
PCT/US2019/067729 WO2020139738A1 (en) | 2018-12-27 | 2019-12-20 | Visual indicators of user attention in ar/vr environment |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113272765A true CN113272765A (zh) | 2021-08-17 |
Family
ID=71123864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980086851.3A Pending CN113272765A (zh) | 2018-12-27 | 2019-12-20 | Ar/vr环境中用户注意力的视觉指示器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11022794B2 (zh) |
JP (1) | JP2022515978A (zh) |
KR (1) | KR20210107784A (zh) |
CN (1) | CN113272765A (zh) |
WO (1) | WO2020139738A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11262588B2 (en) | 2020-03-10 | 2022-03-01 | Magic Leap, Inc. | Spectator view of virtual and physical objects |
CN112363615A (zh) * | 2020-10-27 | 2021-02-12 | 上海影创信息科技有限公司 | 多用户vr/ar交互系统、方法及计算机可读存储介质 |
WO2022212058A1 (en) * | 2021-04-01 | 2022-10-06 | Dathomir Laboratories Llc | Gaze and head pose interaction |
US11644895B1 (en) * | 2021-10-08 | 2023-05-09 | Synaptics Incorporated | Attention cues for head-mounted display (HMD) |
US20240061499A1 (en) * | 2022-08-22 | 2024-02-22 | Meta Platforms Technologies, Llc | Gaze adjusted avatars for immersive reality applications |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120257036A1 (en) * | 2011-04-07 | 2012-10-11 | Sony Mobile Communications Ab | Directional sound capturing |
US9451210B1 (en) * | 2015-12-10 | 2016-09-20 | Google Inc. | Directing communications using gaze interaction |
US20180101989A1 (en) * | 2016-10-06 | 2018-04-12 | Google Inc. | Headset removal in virtual, augmented, and mixed reality using an eye gaze database |
US10162651B1 (en) * | 2016-02-18 | 2018-12-25 | Board Of Trustees Of The University Of Alabama, For And On Behalf Of The University Of Alabama In Huntsville | Systems and methods for providing gaze-based notifications |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0730877A (ja) * | 1993-07-12 | 1995-01-31 | Oki Electric Ind Co Ltd | 多地点間マルチメディア通信会議システム |
US5500671A (en) * | 1994-10-25 | 1996-03-19 | At&T Corp. | Video conference system and method of providing parallax correction and a sense of presence |
US8875026B2 (en) | 2008-05-01 | 2014-10-28 | International Business Machines Corporation | Directed communication in a virtual environment |
JP5208810B2 (ja) | 2009-02-27 | 2013-06-12 | 株式会社東芝 | 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム |
US20130241805A1 (en) * | 2012-03-15 | 2013-09-19 | Google Inc. | Using Convergence Angle to Select Among Different UI Elements |
EP2967322A4 (en) | 2013-03-11 | 2017-02-08 | Magic Leap, Inc. | System and method for augmented and virtual reality |
US20160027218A1 (en) | 2014-07-25 | 2016-01-28 | Tom Salter | Multi-user gaze projection using head mounted display devices |
US9818225B2 (en) | 2014-09-30 | 2017-11-14 | Sony Interactive Entertainment Inc. | Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space |
US10466474B2 (en) * | 2016-08-04 | 2019-11-05 | International Business Machines Corporation | Facilitation of communication using shared visual cue |
US20180095636A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
US20180196506A1 (en) * | 2016-12-28 | 2018-07-12 | Colopl, Inc. | Information processing method and apparatus, information processing system, and program for executing the information processing method on computer |
US10325396B2 (en) | 2017-02-14 | 2019-06-18 | Linden Research, Inc. | Virtual reality presentation of eye movement and eye contact |
US10521013B2 (en) * | 2018-03-01 | 2019-12-31 | Samsung Electronics Co., Ltd. | High-speed staggered binocular eye tracking systems |
-
2019
- 2019-07-16 US US16/512,952 patent/US11022794B2/en active Active
- 2019-12-20 WO PCT/US2019/067729 patent/WO2020139738A1/en active Application Filing
- 2019-12-20 KR KR1020217023296A patent/KR20210107784A/ko active Search and Examination
- 2019-12-20 JP JP2021530089A patent/JP2022515978A/ja active Pending
- 2019-12-20 CN CN201980086851.3A patent/CN113272765A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120257036A1 (en) * | 2011-04-07 | 2012-10-11 | Sony Mobile Communications Ab | Directional sound capturing |
US9451210B1 (en) * | 2015-12-10 | 2016-09-20 | Google Inc. | Directing communications using gaze interaction |
US10162651B1 (en) * | 2016-02-18 | 2018-12-25 | Board Of Trustees Of The University Of Alabama, For And On Behalf Of The University Of Alabama In Huntsville | Systems and methods for providing gaze-based notifications |
US20180101989A1 (en) * | 2016-10-06 | 2018-04-12 | Google Inc. | Headset removal in virtual, augmented, and mixed reality using an eye gaze database |
Also Published As
Publication number | Publication date |
---|---|
WO2020139738A1 (en) | 2020-07-02 |
JP2022515978A (ja) | 2022-02-24 |
KR20210107784A (ko) | 2021-09-01 |
US11022794B2 (en) | 2021-06-01 |
US20200209624A1 (en) | 2020-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11022794B2 (en) | Visual indicators of user attention in AR/VR environment | |
EP3574407B1 (en) | No miss cache structure for real-time image transformations with data compression | |
US9984507B2 (en) | Eye tracking for mitigating vergence and accommodation conflicts | |
US10990171B2 (en) | Audio indicators of user attention in AR/VR environment | |
EP3574408B1 (en) | No miss cache structure for real-time image transformations | |
US9690099B2 (en) | Optimized focal area for augmented reality displays | |
US8958599B1 (en) | Input method and system based on ambient glints | |
US10120442B2 (en) | Eye tracking using a light field camera on a head-mounted display | |
KR102575470B1 (ko) | 이미지 디스플레이를 제어하기 위한 디스플레이 디바이스의 추적의 사용 | |
US11188148B2 (en) | User interaction in head-mounted display with eye tracking | |
EP3714318B1 (en) | Position tracking system for head-mounted displays that includes sensor integrated circuits | |
JP2023507867A (ja) | 人工現実コンテンツの可変焦点ディスプレイを有する人工現実システム | |
US11353955B1 (en) | Systems and methods for using scene understanding for calibrating eye tracking | |
JP2023536064A (ja) | 交互サンプリングを使用した眼追跡 | |
US20180158242A1 (en) | Information processing method and program for executing the information processing method on computer | |
EP4328715A1 (en) | Headset adjustment | |
US20240210678A1 (en) | Head-mounted display apparatus and operating method thereof | |
US20240104958A1 (en) | User Eye Model Match Detection | |
CN117480469A (zh) | 眼睛模型注册 | |
CN114594855A (zh) | 一种头显设备的多机交互方法、系统、终端设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: California, USA Applicant after: Yuan Platform Technology Co.,Ltd. Address before: California, USA Applicant before: Facebook Technologies, LLC |