CN112739438B - 娱乐环境中的显示系统 - Google Patents

娱乐环境中的显示系统 Download PDF

Info

Publication number
CN112739438B
CN112739438B CN201980063713.3A CN201980063713A CN112739438B CN 112739438 B CN112739438 B CN 112739438B CN 201980063713 A CN201980063713 A CN 201980063713A CN 112739438 B CN112739438 B CN 112739438B
Authority
CN
China
Prior art keywords
display
viewing
user
features
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980063713.3A
Other languages
English (en)
Other versions
CN112739438A (zh
Inventor
P·J·戈尔根
D·M·霍尔斯坦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal City Studios LLC
Original Assignee
Universal City Studios LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universal City Studios LLC filed Critical Universal City Studios LLC
Publication of CN112739438A publication Critical patent/CN112739438A/zh
Application granted granted Critical
Publication of CN112739438B publication Critical patent/CN112739438B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • A63G31/16Amusement arrangements creating illusions of travel
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B1/00Optical elements characterised by the material of which they are made; Optical coatings for optical elements
    • G02B1/10Optical coatings produced by application to, or surface treatment of, optical elements
    • G02B1/11Anti-reflection coatings
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/24Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type involving temporal multiplexing, e.g. using sequentially activated left and right shutters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/25Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using polarisation techniques
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/137Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells characterised by the electro-optical or magneto-optical effect, e.g. field-induced phase transition, orientation effect, guest-host interaction or dynamic scattering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Nonlinear Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

用于向用户提供增强现实(AR)及三维(3D)体验的AR及3D观看系统10包括可穿戴可视化装置16,可穿戴可视化装置16具有观看组件18,用户通过观看组件18能够观看真实世界环境。观看组件18包括配置成显示一个或多个AR特征的第一显示器30和使用户能够将一个或多个编码的二维(2D)图像感知为一个或多个译码的3D特征的3D观看部件140。AR及3D观看系统10还包括固定3D显示系统42,固定3D显示系统42具有配置成显示一个或多个编码的2D图像的第二显示器32。固定3D显示系统42设置于真实世界环境内。

Description

娱乐环境中的显示系统
背景技术
本文中所公开的主题涉及娱乐环境,并且更具体地涉及在游乐园景点中提供增强现实(AR)和三维(3D)体验。
游乐园和/或主题公园可以包括在向游乐园的顾客(例如,家庭和/或所有年龄段的人)提供乐趣的方面有用的各种娱乐景点、饭店以及乘坐设备。游乐园的区域可以具有具体地以某些观众为目标的不同主题。例如,某些区域可以包括在传统上引起儿童兴趣的主题,而其它区域可以包括在传统上引起更成熟的观众兴趣的主题。一般而言,具有与这样的游乐园相关联的主题的地点可以被称为景点或主题化景点。
主题化景点可以使用固定设备、建筑布局、道具、装饰等等来建立,其中的大部分一般可能涉及某一主题。在其中将在同一地点建立不同主题的情形下,与较早主题相关联的特征可以用与较新主题相关联的特征置换。取决于该地点的主题的复杂性,这可以被证明是非常困难且耗时的,因为装饰、家具、设备、道具等等可能被移除或置换。实际上,对于某些类型的景点,相对复杂的主题已变得越来越普遍地给顾客提供更拟真的体验。
现在认识到,理想的是,包括其中也许有可能改变景点主题的景点或在这样的景点中以相对于传统技术而灵活且高效的方式包括某些主题化特征。现在还认识到,可能为理想的是,针对这样的景点而增强顾客的拟真体验,并且为顾客提供更个人化或定制的体验。
本章节旨在向读者介绍可能与目前的技术的各种方面有关的各种技术方面,这些技术方面在下文中描述或要求保护。本讨论被认为在给读者提供背景信息以促进更好地理解本公开的各种方面上是有帮助的。因此,应当理解,这些陈述将从这个角度来阅读,而非作为对现有技术的承认来阅读。
发明内容
在下文中阐明本文中所公开的某些实施例的概要。应当理解的是,这些方面仅仅被提出来给读者提供这某些的实施例的简短概要,并且,这些方面不旨在限制本公开的范围。实际上,本公开可以包含可能未在下文中阐明的各种各样的方面。
在一个实施例中,用于向用户提供增强现实(AR)及三维(3D)体验的AR及3D观看系统包括可穿戴可视化装置,可穿戴可视化装置具有观看组件,用户通过观看组件能够观看真实世界环境。观看组件包括配置成显示一个或多个AR特征的第一显示器和使用户能够将一个或多个编码的二维(2D)图像感知为一个或多个译码的3D特征的3D观看部件。AR及3D观看系统还包括固定3D显示系统,固定3D显示系统具有配置成显示一个或多个编码的2D图像的第二显示器。固定3D显示系统设置于真实世界环境内。
在一个实施例中,用于向用户提供增强现实(AR)及三维(3D)体验的可穿戴可视化装置包括观看组件,用户通过观看组件能够观看真实世界环境。观看组件包括配置成显示一个或多个AR特征的第一显示器。观看组件还包括3D处理组件,3D处理组件具有用于第一显示器的第一眼睛部分的第一3D滤波层和用于第一显示器的第二眼睛部分的第二3D滤波层。第一3D滤波层和第二3D滤波层合作以使用户能够将显示于第二显示器上的一个或多个编码的二维(2D)图像感知为一个或多个译码的3D特征,其中,第二显示器从可穿戴可视化装置分离。
在一个实施例中,用于向用户提供AR及3D体验的增强现实(AR)及三维(3D)观看系统包括可穿戴可视化装置,可穿戴可视化装置具有观看组件,用户通过观看组件能够观看真实世界环境。观看组件包括配置成在第一焦平面内显示一个或多个AR特征的第一显示器。观看组件还包括3D观看部件,3D观看部件使用户能够在第二焦平面内将一个或多个编码的二维(2D)图像感知为一个或多个译码的3D特征。第一焦平面和第二焦平面彼此独立。增强现实(AR)及3D观看系统还包括3D显示系统,3D显示系统具有配置成显示一个或多个编码的2D图像的第二显示器。3D显示系统设置于真实世界环境内。
上文中所注意到的特征的各种细微改良可以关于本公开的各种方面而实施。同样地还可以将另外的特征并入于这些各种方面。这些细微改良和额外的特征可以个别地或以任何组合存在。
附图说明
当参考附图而阅读以下的详述时,本公开的这些及其它特征、方面以及优点将变得更好理解,在附图中,贯穿附图,相同的字符表示相同的部分,其中:
图1是根据本实施例的可以在增强现实(AR)及三维(3D)观看系统中使用的可穿戴可视化装置的实施例的说明;
图2是根据本实施例的图1的AR及3D观看系统内的可穿戴可视化装置的实施例的局部分解示意图;
图3是根据本实施例的图1的AR及3D观看系统内的可穿戴可视化装置的另一实施例的局部分解示意图;
图4是根据本实施例可以从乘客乘坐车辆使用的图1的AR及3D观看系统的3D显示系统和可穿戴可视化装置的说明;
图5是说明根据 本实施例的操作图1的 AR及3D 观看 系统的过程的实施例的流程图;以及
图6是说明根据本实施例的操作具有主动3D观看部件的图1的AR及3D观看系统的过程的实施例的流程图。
具体实施方式
将在下文中描述本公开的一个或多个具体实施例。为了提供对这些实施例的简明描述,可能未在说明书中描述实际实现方式的所有特征。应当意识到,在对任何这样的实际实现方式的开发中,如同在任何工程或设计项目中一样,必须作出许多特定于实现方式的决策以达到开发者的可能因实现方式而异的具体目标,诸如,对与系统相关的约束条件和与商业相关的约束条件的依从性。此外,应当意识到,这样的开发努力可能复杂并且耗时,但对于得益于本公开的普通技术人员而言,这样的开发努力将不过是设计、制作以及制造的常规任务。
本实施例涉及作为与游乐园或主题公园相关联的景点的一部分而提供增强现实(AR)及三维(3D)体验的系统。在将头部可穿戴技术集成于主题公园环境内的某些乘坐车辆上的情况下,对于用户而言,同时地穿戴传统的3D眼镜以感知在主题公园环境内显示或投影的3D内容变得困难或不真实。然而,由3D显示系统(包括投影仪或电子显示装置)提供的3D内容可以在有助于用户在主题公园环境内的体验的方面仍然有用。照此,本文中所公开的AR及3D观看系统的实施例在单个头戴式视图器内将反射AR技术与3D观看技术集成在一起,以允许用户感知由头戴式视图器呈现的近眼AR内容和由3D显示系统呈现的远眼3D内容两者。如本文中所利用的,AR包括用以显示增强或修改用户对周围环境的观看的虚拟特征的任何适合的技术。例如,AR特征可以通过将略微偏移的图像投影到位于用户前面的可穿戴显示器上(或投影到用户的眼睛中)而提供,以致于用户使两个偏移图像在光学上组合成AR特征。而且,对3D的引用包括用以提供使用户能够从对用户的每只眼睛呈现的二维(2D)、略微偏移的图像或2D编码的图像感知深度的体视3D效应的任何适合的体视技术。3D特征经由使用户的每只眼睛能够接收同一对象的两个不同图像(其在光学上组合成可辨别或译码的3D外观)的滤光涂层或元件从电子显示装置或投影仪屏幕来可视化。
例如,本实施例可以包括观看装置,诸如,可穿戴可视化装置(例如,电子护目镜、显示器、眼镜),用户可以通过观看装置观看固定可视化装置(例如,电子显示屏、投影仪屏幕),固定可视化装置一致地操作,以向用户提供AR及3D体验。可穿戴可视化装置包括其中的使用户能够感知呈现于可穿戴可视化装置的可穿戴显示器上的AR特征和呈现于固定可视化装置的单独的显示器上的3D特征两者的具有光学性质的部件,所述部件是3D显示系统的部分。3D显示系统可以包括投影仪,所述投影仪将编码的内容呈现到单独的显示器上以允许用户通过可穿戴可视化装置的3D观看部件将编码的内容在视觉上解码或处理为三维的。如本文中所讨论的,可穿戴可视化装置可以采用任何适合的3D技术来使用户能够感知3D特征,包括被动3D透镜、涂层或滤波器(例如,色差(anaglyph)、偏振(polarization)等等)或主动3D透镜、涂层或滤波器(例如,主动快门系统(active shuttering system))。3D显示系统和可穿戴可视化装置可以配置成独立地操作,或可以通过控制器(例如,主控制器、计算机图形生成系统、一个或多个处理器)可操作地耦合,所述控制器可以使由3D显示系统和可穿戴可视化装置显示的可视化内容同步和/或协调。
通过使3D特征能够在越过可穿戴可视化装置而设置的环境中被感知并且与AR特征组合,可穿戴可视化装置允许用户在多个独立的焦平面上感知内容。在一些情况下,目前公开的可穿戴可视化装置的多维内容提供比由传统的可穿戴可视化装置提供的单个焦平面更拟真的体验或主题。照此,提供多个焦平面一般向AR及3D观看系统的用户提供更真实的个人化的娱乐体验。此外,尽管在本文中参考在主题公园内采用可穿戴可视化装置而讨论,但所公开的技术可以适用于用于任何适合的应用的任何适合的AR装置。例如,包括可穿戴可视化装置的AR及3D观看系统可以用于向住宅处(例如,玩视频游戏)、位于工作场所处(例如,构造模型、观看拟真呈现)的用户等等提供3D及AR体验。
现在转到附图,图1描绘使用户14能够体验(例如,观看、与其交互)叠加到真实世界环境上的AR及3D图像或特征的AR及3D观看系统10的实施例。根据某些实施例,用户14可以购买或以其它方式被提供有具有观看组件18的可穿戴可视化装置16,在某些实施例中,可穿戴可视化装置16可以包括电子眼镜(例如,AR/虚拟现实眼镜、护目镜)。可穿戴可视化装置16可以包括在本实施例中说明为头带的可穿戴部分20,可穿戴部分20用以容纳观看组件18的至少一部分并且将观看组件18在用户14的眼睛前面固持就位。
可穿戴可视化装置16可以与AR及3D观看系统10的其它特征组合而使用,以便为用户14创建超现实环境24的感知。通过可穿戴可视化装置16,用户14可以观看真实世界图像26,真实世界图像26各自一般表示用户14即使在并非正穿戴可穿戴可视化装置16时也将实时地看到的物理或真实世界环境的特征。术语“实时”指示在处于由用户14进行的实际观察的时间内或基本上接近(例如,± 0.01秒、± 0.1秒、± 1秒)该时间的时帧中获得图像和/或向用户14提供图像。如本文中所讨论的,可穿戴可视化装置16的观看组件18部分地控制用户14的观看(例如,使用透射反射或半透明显示器),以致于超现实环境24包括与一个或多个AR图像28(例如,包括一个或多个AR特征、虚拟增强)电子地融合的物理环境的真实世界图像26。即,在本实施例中,超现实环境24包括实际物理环境,其中,AR图像28叠加到可穿戴可视化装置16的观看组件18上。在其它实施例中,AR图像28可以直接地投影到用户14的眼睛上。
如进一步说明的,可穿戴可视化装置16的观看组件18包括第一显示部分30和第二显示部分32,第一显示部分30和第二显示部分32各自分别对应于用户14的一只眼睛。在其它实施例中,可以在可穿戴可视化装置16内采用与用户14的双眼对应的统一显示器。通过非限制性示例的方式,相应的显示部分30、32可以各自包括AR图像28可以叠加到其上的完全地或部分地透明的透镜。在一个实施例中,显示部分30、32是显示表面,并且,可穿戴可视化装置16包括特征(例如,电路系统、光发射器),所述特征定位成与它们相应的周缘相邻,以将AR图像28叠加于其上。另外或备选地,显示部分30、32可以包括在对用户14显示真实世界图像26和AR图像28的方面有用的任何适合的透射反射、透明或半透明材料。在一个实施例中,相应的显示部分30、32可以各自包括在允许例如用户14观看AR图像28的方面有用的透明(例如,透视)LED显示器或透明(例如,透视)OLED显示器,AR图像28在相应显示部分30、32上显现为对实际及物理环境(例如,与游乐园相关联的景点或乘客乘坐车辆的内部)的叠加。
此外,通过可穿戴可视化装置16的观看组件18,用户14可以观看3D图像40(例如,包括一个或多个3D特征),3D图像40有助于用户14所体验的超现实环境24。3D图像40呈现于从可穿戴可视化装置16物理地分离或独立的位于物理环境内的3D显示系统42的3D显示器上。照此,用户14可以同时地使由可穿戴可视化装置16定义的第一焦平面内的AR图像28和由分离的3D显示器定义的第二焦平面内的3D图像40可视化。为了使用户14能够在视觉上同时地处理AR图像28和3D图像40,观看组件18包括可操作地耦合于观看组件18内的3D观看部件。如参考图2和图3而更详细地讨论的,3D观看部件包括针对用户14的每只眼睛而适于使用户14能够感知由3D显示系统42呈现的3D图像40的3D观看部件部分。即,第一3D观看部件部分可以与一个显示部分30、32相关联,并且,第二3D观看部件部分可以与另一个显示部分30、32相关联。如在下文中更详细地描述的,3D图像40以任何适合的被动或主动3D格式通过可穿戴可视化装置16向用户14提供,以致于观看组件18的3D观看部件包括一个或多个色差滤波器、偏振滤波器、液晶层等等。
相机44和相机46被包括在可穿戴可视化装置16的本实施例中,以采集分别与用户14的观看点对应的物理环境的实时视频数据(例如,实时视频)或环境光信号。在其它实施例中,单个相机可以被可穿戴可视化装置16采用。在一些实施例中,可穿戴可视化装置16还可以包括用以跟踪用户的眼睛移动的额外的相机,该相机可以对其中虚拟特征直接地被投影到用户14的眼睛中的实施例特别地有用。
在一些实施例中,可穿戴可视化装置16的通信特征50(例如,包括无线收发器)可以将经由相应的相机44、46来采集的实时数据(例如,视频数据、眼睛跟踪数据)传送到可穿戴可视化装置16的其它部件或传送到耦合到可穿戴可视化装置16的系统以便处理。可穿戴可视化装置16的其它特征可以传送基于经由可穿戴可视化装置16的传感器来获得的数据而获得和/或推导的取向数据、位置数据、观看点数据(例如,焦距、取向、姿势)、运动跟踪数据等等。这样的传感器可以包括取向传感器和位置传感器(例如,加速度计、磁力计、陀螺仪、全球定位系统[GPS]接收器)、运动跟踪传感器(例如,电磁运动跟踪传感器和固态运动跟踪传感器),惯性测量单元(IMU)以及其它。在某些实施例中,可穿戴可视化装置16的特征(例如,几何方面或标记)可以由监测系统58(例如,一个或多个相机)监测以确定可穿戴可视化装置16的位置、地点、取向等等并且转而确定用户14的位置、地点、取向等等。监测系统58可以通信地耦合到计算机图形生成系统60并且用于标识用户14(或多个用户)的位置、地点、取向等等。
如所描绘的,经由可穿戴可视化装置16的通信特征50,可穿戴可视化装置16沿着无线网络64通信地耦合到3D显示系统42、监测系统58、计算机图形生成系统60以及主控制器62。无线网络64可以包括无线局域网(WLAN)、无线广域网(WWAN)、近场通信(NFC)、网型网络等等。实际上,在具有网型网络的无线网络64的实施例中,本文中所讨论的各种可显示内容可以针对AR及3D观看系统10和/或用户14的当前状态或条件而条件反射地或自动地本地化。在本实施例中,无线网络64通信地耦合AR及3D观看系统10的每个部件,然而,在其它实施例中,AR及3D观看系统10的一个或多个部件可以通过有线连接而通信地耦合。因此,监测系统58、3D显示系统42、计算机图形生成系统60以及主控制器62各自包括相应的通信特征65、66、68、70,相应的通信特征65、66、68、70使3D显示系统42、监测系统58、计算机图形生成系统60以及主控制器62能够经由无线网络64来传递关于可穿戴可视化装置16的数据和/或控制信号。
现在查看通信地耦合到可穿戴可视化装置16的部件的更多细节,AR及3D观看系统10的计算机图形生成系统60负责生成将经由可穿戴可视化装置16来对用户14呈现的AR图像28。例如,本实施例的计算机图形生成系统是用以基于与用户14相关联的各种因素而生成AR图像28的定位于游乐园内的服务器或游戏控制器。照此,计算机图形生成系统60一般是具有基于经由无线网络64来接收的具体输入而渲染AR图像28的显著处理能力的系统。例如,在一些实施例中,计算机图形生成系统60处理从可穿戴可视化装置16和/或监测系统58接收的实时视频数据(例如,实时视频)、取向数据和位置数据、观看点数据或它们的任何组合。
具体地,计算机图形生成系统60可以使用该数据来生成参考系以将AR图像28配准到物理环境,例如,配准到可由用户通过可穿戴可视化装置16观看的真实世界图像26。在使用基于取向数据、位置数据、观看点数据、运动跟踪数据等等而生成的参考系时,计算机图形生成系统60于是可以按在时间上并且在空间上与用户14在并非正穿戴可穿戴可视化装置16的情况下将感知什么相应的方式渲染AR图像28的视图。计算机图形生成系统60可以不断地更新(例如,实时地)AR图像28的渲染,以反映相应的用户14的相应的取向、位置和/或运动的改变。
在某些实施例中,计算机图形生成系统60定位于乘客乘坐车辆内。计算机图形生成系统60可以跟踪与多个用户14(例如,乘客乘坐车辆的乘客)对应的数据,其中,每个用户14(或至少一些用户14)具有对应的可穿戴可视化装置16。在一些实施例中,计算机图形生成系统60生成AR图像28,以便在乘客乘坐车辆内经由每个可穿戴可视化装置16来显示。在AR图像28生成之后或在此期间,计算机图形生成系统60实时地向可穿戴可视化装置16提供AR图像28(例如,指示AR图像28的数据),以便在其观看组件18上显示。在其它实施例中,计算机图形生成系统60可以与可穿戴可视化装置16一起被包括、与主控制器62组合等等。
此外,AR及3D观看系统10的3D显示系统42负责显示3D图像40,以有助于用户14所体验的超现实环境24。在一些实施例中,从3D显示系统42的存储器检索3D图像40,然而,在其它实施例中,计算机图形生成系统60由可穿戴可视化装置16和3D显示系统42两者共享,以致于计算机图形生成系统60生成3D图像40并且将3D图像40(例如,指示3D图像40的数据)传送到3D显示系统42。另外,在一些实施例中,3D显示系统42包括其自身的用于生成3D图像40的计算机图形生成系统60。如在下文中更详细地讨论的,3D显示系统42包括单独的固定显示器,诸如,在其上对用户14呈现编码的二维(2D)图像的投影仪屏幕或电子显示装置。如本文中所注意到的,编码的2D图像包括可以经由任何适合的3D观看技术来从其感知深度的对象的任何适合的无景深描绘。例如,编码的2D图像可以包括一个或多个对象的无景深的、偏移的透视图,所述透视图在通过体视或译码装置或部件观看时对一个或多个对象赋予深度的幻觉。在不利用译码装置或部件来观看时,编码的2D图像一般可能模糊不清或难以辨别。因而,通过经由可穿戴可视化装置16的观看组件18来观看编码的2D图像,用户14在视觉上将编码的2D图像译码为三维的,从而展现3D图像40。将理解,尽管为了简洁起见,可以参考对用户14呈现或显示3D图像40而描述本实施例,但对用户14呈现的图像一般包括借以经由可穿戴可视化装置16来感知深度的这些2D描绘。实际上,如在本文中更详细地讨论的,3D图像40与作为对真实世界图像26的叠加的AR图像28组合而被感知,因而向用户14提供增强的观看体验。
AR及3D观看系统10的本实施例的主控制器62(例如,显示控制器(showcontroller))协调本文中所公开的AR及3D观看系统10的部件的操作。例如,主控制器62经由无线网络64来向计算机图形生成系统60、3D显示系统42以及可穿戴可视化装置16提供控制信号。一般而言,本实施例的主控制器62指导计算机图形生成系统60生成AR图像28并且向可穿戴可视化装置16提供AR图像28。在一些实施例中,主控制器62指导计算机图形生成系统60生成3D图像40并且向3D显示系统42提供3D图像40。此外,主控制器62指导可穿戴可视化装置16向用户14呈现AR图像28并且指导3D显示系统42向用户14呈现3D图像40,两者各自以受控制、情境化和/或个别化的方式进行。在下文中参考图2和图3而讨论AR及3D观看系统10的示例性实施例。
图2说明AR及3D观看系统10内的可穿戴可视化装置16的实施例的局部分解示意图。如所说明的,可穿戴可视化装置16包括观看组件18,以允许用户14同时地观看由可穿戴可视化装置16呈现的AR图像28和由3D显示系统42呈现的3D图像40。在正穿戴可穿戴可视化装置16时,观看组件18被固持在用户14的眼睛前面,其中,第一显示部分30位于用户14的第一只眼睛前面,并且,第二显示部分32位于用户14的第二只眼睛前面。显示部分30、32未在图2中单独地说明。
为了能够实现更好地理解观看组件18的部件,首先在本文中关于操作成将AR图像28投影到观看组件18上的可穿戴可视化装置16的部件的操作而提供细节。即,可穿戴可视化装置16包括用以促进经由观看组件18来进行的AR图像28的显示的某些电子部件。例如,在所说明的实施例中,可穿戴可视化装置16包括处理电路系统100,诸如,处理器102和存储器104。处理器102可操作地耦合到存储器104,以执行用于实施目前公开的技术(例如,呈现或渲染AR图像28(例如,虚拟特征或图像))的指令。在一些实施例中,这些指令按存储于有形非暂时性计算机可读介质(诸如,存储器104和/或其它存储设备)中的程序或代码译码。处理器102可以是通用处理器、芯片上系统(SoC)装置、专用集成电路(ASIC)或某另一个类似的处理器配置。
另外,可穿戴可视化装置16的通信特征50可操作地耦合到处理器102,以使可穿戴可视化装置16能够经由无线网络64来与计算机图形生成系统60、主控制器62和/或3D显示系统42通信。例如,本实施例的计算机图形生成系统60包括处理器110(例如,通用处理器或其它处理器)和存储器112,处理器110和存储器112两者可操作地耦合到通信特征68。由于计算机图形生成系统60一般包括比可穿戴可视化装置16更大的量的处理能力,因而计算机图形生成系统60能够生成AR图像28,以便不但经由可穿戴可视化装置16来显示,而且经由无线网络64来将AR图像28传送到可穿戴可视化装置16。在具有多个可穿戴可视化装置16的实施例中,计算机图形生成系统60可以为每个可穿戴可视化装置16提供AR图像28。
此外,可穿戴可视化装置16的处理器102可操作地耦合到显微投影仪120(例如,光源、OLED显示装置),显微投影仪120生成指示AR图像28的光122并且将光122投影到可穿戴可视化装置16的观看组件18上。将理解,在一些实施例中,可穿戴可视化装置16可以针对用户14的每只眼睛而包括一个显微投影仪。为了从显微投影仪120接收光122并且将光122改方向到用户14(用户14使来自显微投影仪120的AR图像28可视化)的眼睛中,可穿戴可视化装置16的观看组件18包括可穿戴显示器124(例如,第一显示器、近场显示器)。尽管说明为平坦或矩形部件,但将理解,观看组件18的其它部件和可穿戴显示器124可以包括用以将光122指引到用户14的眼睛中的任何适合的曲度。如在上文中参考显示部分30、32而介绍的,可穿戴显示器124是充分地透明以使从物理环境发射的环境光(包括表示下文中所讨论的3D图像40的光)能够到达用户14的眼睛的透射反射(例如,部分地半透明、部分地反射)部件。为了进一步增强观看组件18的反射性质,半反射涂层130或膜设置于本实施例的观看组件18内。更具体地,在本实施例中,半反射涂层130定位于可穿戴显示器124的面向用户的表面132与用户14之间。半反射涂层130可以是使用户14能够感知由显微投影仪120投影于可穿戴显示器124上的AR图像28的任何适合的材料。
关于可穿戴可视化装置16的3D观看能力,可穿戴可视化装置16包括3D观看部件140,以允许用户感知3D图像40。例如,在本实施例中,观看组件18的3D观看部件140包括将对用户14呈现的3D图像40在光学上解码的被动3D透镜142。在一些实施例中,被动3D透镜142是涂敷到可穿戴显示器124的涂层或与可穿戴显示器124相邻而被固持的柔性膜。另外,尽管说明为设置成与可穿戴显示器124的面向环境的表面144相邻,但将理解,3D观看部件140可以在观看组件18内定位成任何其它合适的布置。
一般而言,3D观看部件140包括用于观看组件18的第一显示部分30的第一滤波器和用于观看组件18的第二显示部分32的包括不同的光学性质或质量的第二滤波器。例如,在一些实施例中,3D观看部件140是包括用于第一显示部分30的第一色差透镜或滤波器(例如,蓝膜)和用于第二显示部分32的第二色差透镜或滤波器(例如,红膜)的滤光透镜组件或3D滤波层。在其它实施例中,3D观看部件140是包括具有用于第一显示部分30的第一偏振(例如,顺时针方向的、竖直的)的第一偏振透镜和具有用于第二显示部分32的第二、相反的偏振(例如,逆时针方向的、水平的)的第二偏振透镜的滤光透镜组件或3D滤波层。3D观看部件140因此利用波长滤波或偏振滤波来调节3D图像40以供用户14观看。照此,在正穿戴可穿戴可视化装置16时,3D观看部件140向用户14的一只眼睛提供3D图像40的第一透视图或部分,并且向用户14的另一只眼睛提供3D图像40的第二、偏移的透视图或部分。相对地偏移的图像向用户14提供深度的感知,用户14使3D图像40以基于偏移图像之间的偏移的大小而变化的指定的焦距可视化。
观看组件18还可以包括设置成与3D观看部件140的面向环境的表面152相邻的防眩光涂层150或滤波器。防眩光涂层150是减少从强光源通过观看组件18的光的透射的任何适合的半透光或挡光材料,所述从强光源通过观看组件18的光的透射否则将使AR图像28和3D图像40模糊。在其它实施例中,省略防眩光涂层150,和/或由用户14佩戴帽檐,以减少到观看组件18上的眩光。此外,将理解,只要观看组件18对来自本文中所讨论的3D显示系统42的光充分地透光以使用户14能够使3D图像40适当地可视化,并且对来自显微投影仪120的光122充分地反光以使用户14能够使AR图像28适当地可视化,那么观看组件18的涂层就可以相对于彼此而按任何适合的顺序设置。
在用户14正面向3D显示系统42时,3D显示系统42将指示3D图像40的光指引到观看组件18。为了对用户14呈现3D图像40,3D显示系统42包括从可穿戴可视化装置16分离的固定显示器160(例如,第二显示器、远程显示器)。在本实施例中,固定显示器160是投影仪屏幕161或墙壁或投影表面,3D显示系统42的投影仪162(例如,3D投影仪)将3D图像40叠加到投影仪屏幕161或墙壁或投影表面上。投影仪162包括可操作地耦合到处理器164并且通信地耦合到无线网络64的处理器164、存储器166、发光装置168以及通信特征66。发光装置168是响应于由处理器164提供的指令而将表示3D图像40的光170选择性地指引到固定显示器160上的透镜、光源和/或激光器的任何适合的系统。实际上,如本文中所讨论的,发光装置168可以包括能够针对多个用户14而显示个别化的3D内容的多路复用透镜或任何其它合适的多路复用部件。另外,处理器164从存储器166检索指示3D图像40的数据,并且指导发光装置168生成表示3D图像40的光170。在其它实施例中,发光装置168可以从计算机图形生成系统60、从设置于投影仪162内的输入/输出装置存储部件等等接收指示3D图像40的数据。
尽管在本文中参考在真实世界环境内静止的固定显示器160而讨论3D显示系统42,但将理解,在一些实施例中,固定显示器160和/或投影仪162可以是可移动的。例如,固定显示器160和/或投影仪162可以附接到乘客乘坐车辆、可沿着轨道移动或在其它情况下可由任何适合的致动器调整就位。在这样的实施例中,致动器可以从主控制器62接收用以协调固定显示器160和/或投影仪162的移动的控制信号。
如由主控制器62协调的那样,在AR及3D观看系统10的操作期间,AR图像28显示于与可穿戴显示器124相关联的第一焦平面180内,并且,3D图像40显示于与固定显示器160相关联的第二焦平面182内。即,主控制器62包括处理器184、存储器186以及通信特征70,以向可穿戴可视化装置16和3D显示系统42提供定时信号或控制信号。基于定时信号,可穿戴可视化装置16和3D显示系统42分别生成供用户14同时地可视化的AR图像28和3D图像40。由于固定显示器160定位于真实世界环境内,并且,可穿戴显示器124被用户14采用并且通过用户14的移动而移动,因而第一焦平面180和第二焦平面182彼此独立。即,在所说明的实施例中,一个焦平面180、182的定位不会对另一个焦平面180、182的定位造成影响,以致于焦平面180、182彼此不同。因此,用户14可以使内容在多个焦平面上可视化,以享受比通过使用传统的可穿戴可视化装置而提供的体验更真实的虚拟内容观看体验。
图3说明在AR及3D观看系统10内采用的可穿戴可视化装置16的另一实施例的局部分解示意图。通过观看组件18,可穿戴可视化装置16允许用户14以与图2的可穿戴可视化装置16的操作基本上类似的方式观看呈现于可穿戴显示器124上的AR图像28和由3D显示系统42呈现的3D图像40。然而,代替图2的可穿戴可视化装置16的被动3D透镜142,本实施例的3D观看部件140是主动快门系统200(例如,具有主动快门透镜)。一般而言,与被动3D系统相比,主动快门系统200提供额外的可定制层或控制柄,以便调整并且定制针对用户14而显示的3D图像40。即,如本文中所讨论的,本实施例的主动快门系统200可由可穿戴可视化装置16控制,以提供对用户14所观看的3D图像40更大程度的控制和定制。
更特别地,本实施例的主动快门系统200包括设置于观看组件18内的液晶层202(例如,多路复用涂层或能力)。如所说明的,液晶层202定位于可穿戴显示器124与半反射涂层130之间。在其它实施例中,液晶层202可以布置于观看组件18内的不会阻碍观看组件18的半反射涂层130、可穿戴显示器124和/或防眩光涂层150的操作的任何其它合适的位置中。例如,在一些实施例中,液晶层202定位于可穿戴显示器124与防眩光涂层150之间。
液晶层202是具有响应于由可穿戴可视化装置16的处理器102输出的控制信号(例如,电压源、电源)而调整的光学性质的可控元件。此外,本实施例的液晶层202在用于可穿戴可视化装置16的第一显示部分30的第一液晶层部分与用于可穿戴可视化装置16的第二显示部分32的第二液晶层部分之间划分。即,基于控制信号的应用,液晶层202的每个液晶层部分在不透光状态与半透明状态之间调整。照此,响应于接收向液晶层202的液晶层部分提供的控制信号,观看组件18能够用快门打开(例如,导致透明)一个显示部分30、32并且用快门关闭(例如,导致不透光)另一个显示部分30、32。照此,主动快门系统200的液晶层202是基于在其中光被发射的时间(而非基于光的波长或取向)来对可被用户14观看的光进行滤波的3D滤波层。
在其它实施例中,液晶层202可以在不由处理器102提供控制信号时不透光,并且响应于控制信号的应用或接收而变得透明。在一些实施例中,液晶层部分具有相反的状态取向,以致于将控制信号应用于液晶层202使第一液晶层变得不透光,而第二液晶层变得透明,并且,不应用控制信号使第二液晶层变得不透光,而第一液晶层部分变得半透明。在这些实施例中,依赖于单个控制信号来修改两个液晶层部分可以提供降低的对于主动快门系统200变得不同步的可能性。
在所说明的实施例中,可穿戴可视化装置16进一步包括在处理器102与液晶层202之间可操作地耦合的电源206。照此,处理器102提供控制信号,以控制电源206的操作,处理器102选择性地向液晶层202提供控制信号。在一些实施例中,电源206是向可穿戴可视化装置16的其它部件(诸如,显微投影仪120)提供能量的同一电源206。响应于由电源206提供的控制信号,选择性地调整液晶层202的液晶层部分的光学性质。在其它实施例中,处理器102不取决于电源206就直接地向液晶层202提供控制信号。
在AR及3D显示系统42的操作期间,主动快门系统200用快门液晶层202的液晶层部分,而3D显示系统42诸如经由任何适合的多路复用部件和/或过程来使呈现于固定显示器160上的3D图像40交替。即,由3D显示系统42呈现的3D图像40与主动快门系统200的快门协调而在相对地偏移的图像之间迅速地变化。照此,用户14的左眼和右眼各自从彼此偏移的3D显示系统42接收图像的相应的透视图。因此,用户14能够从3D图像40的不同透视图感知深度,从而将3D图像展现为三维的。在一些实施例中,3D显示系统42和主动快门系统200以60赫兹、100赫兹、120赫兹或允许用户14以实时、真实或生动的方式观看3D图像40的任何足够高的刷新率(例如,每秒缓冲更新次数(buffer updates per second))用快门或改变图像。如上文中所讨论的,3D图像40与呈现于可穿戴显示器124上的AR图像28组合而被观看。
为了经由主动快门系统200来对用户14显示3D图像40,AR及3D观看系统10包括具有作为固定显示器160的电子显示装置210(例如,电视机屏幕)的3D显示系统42的实施例。如在上文中参考图2的投影仪162而讨论的,本实施例的电子显示装置210包括可操作地耦合到存储器166和通信特征66的处理器164。类似于投影仪162,电子显示装置210还可以包括用以使多路复用的信号能够分成对多个用户14个别地呈现的多个信号的任何适合的多路复用器装置和/或多路分解器装置。通信特征66是使电子显示装置210能够通过无线网络64与计算机图形生成系统60、主控制器62以及可穿戴可视化装置16通信的任何适合的收发器或天线。电子显示装置210的固定显示器160基于存储于电子显示装置210的存储器166内的数据而显示3D图像40。然而,在其它实施例中,3D图像40由计算机图形生成系统60生成,并且作为实时数据流而通过无线网络64传送到电子显示装置210。因此,电子显示装置210的固定显示器160以使用户14通过可穿戴可视化装置16能够感知3D图像40的交替方式对用户14呈现3D图像40的偏移图像。
3D显示系统42的电子显示装置210还包括传送器220(例如,红外[IR]传送器),传送器220将快门信号(诸如,IR信号、同步信号或定时信号)传送到可穿戴可视化装置16的接收器222(例如,IR接收器)。基于来自传送器220的快门信号,可穿戴可视化装置16使针对可穿戴可视化装置16的每个显示部分30、32的液晶层202的液晶层部分的快门与3D图像40的偏移图像的切换协调或对准。因此,可穿戴可视化装置16和固定显示器160可以使用前馈和/或反馈来控制成彼此协调而以基本上相同的刷新率(例如,在5%内)操作。
如在本文中认识到的,以更高的刷新率进行的3D显示系统42的操作赋予与AR图像28组合而呈现的3D图像40的更真实的视图。此外,如在下文中更详细地讨论的,如果以足够高的刷新率操作,则将主动快门系统200用作3D观看部件140使AR及3D观看系统10能够针对通过可穿戴可视化装置16观看固定显示器160的每个用户14或用户14的每个群组而使呈现于固定显示器160上的内容个别化。一般而言,个别化的内容可以针对等于3D显示系统的刷新率除以60赫兹或另一合适的刷新率阈值的群组的数量而呈现,以致于每个群组以刷新率阈值或高于刷新率阈值而接收内容。
通过用于向多个用户14提供3D内容的AR及3D观看系统10的示例的方式,图4说明游乐园250内的各自正穿戴参考图3而描述的可穿戴可视化装置16中的一个的两个用户14。如上文中所讨论的,可穿戴可视化装置16中的每个包括上文中所讨论的可穿戴显示器124(例如,第一显示器、第三显示器)中的一个和3D观看部件140中的一个。照此,可穿戴可视化装置16的中的一个包括第一3D观看部件140,并且,可穿戴可视化装置16中的另一个包括第二3D观看部件140。用户14位于可沿着惊险乘坐设备256(诸如,过山车或黑暗乘坐设备)的乘坐路径254(例如,轨道)移动的乘客乘坐车辆252中。在所说明的实施例中,乘坐路径254在额外的游乐景点262(例如,摩天轮)、公园设施购物中心264(例如,游戏区域、酒店、饭店、纪念品商店)以及物理环境260的其它元件的视野内通过周围物理环境260提供。
3D显示系统42包括设置于物理环境260内并且可从乘坐路径254观看的第一电子显示装置270和第二电子显示装置272。通过包括多个电子显示装置270、272,AR及3D观看系统10使用户14能够贯穿惊险乘坐设备256的部分持续时间或整个持续时间而感知3D图像40。在本实施例中,3D显示系统42的电子显示装置270、272固定或不动,以致于乘客乘坐车辆252可沿着乘坐路径254移动经过电子显示装置270、272的固定显示器160(例如,第二显示器)。在其它实施例中,电子显示装置270、272可以是可移动的,而乘客乘坐车辆252静止。另外,将理解,在一些实施例中,除了电子显示装置270、272之外或作为其备选方案,可以采用投影仪屏幕161和投影仪162来对用户14呈现3D图像40。
电子显示装置270、272一般以与在上文中参考图3而讨论的电子显示装置210类似的方式操作,并且因而各自包括用于协调可穿戴可视化装置16的主动快门系统200的操作的传送器220。3D显示系统42的传送器220将控制信号传送到每个用户14的可穿戴可视化装置16,以使可穿戴可视化装置16能够以预确定且受控制的方式用快门观看组件18。照此,用户14可以各自在与相应的电子显示装置270、272的固定显示器160相关联的焦平面上从相应的电子显示装置270、272感知3D图像40。如本文中所使用的,焦平面指与可穿戴可视化装置16的光轴垂直并且与聚焦于焦平面内的对象相交的平面。换而言之,来自3D图像40的特定点的光线在被指引到用户14的视网膜上的对应点上之前会聚于聚焦点或经过聚焦点。另外,在一些实施例中,聚焦点是一般从可穿戴可视化装置16的聚焦点以焦距分离的焦点。
在正穿戴可穿戴可视化装置16中的一个时,每个用户14可以观看由可穿戴可视化装置16呈现的AR图像28。另外,在正穿戴可穿戴可视化装置16中的一个时,并且在正面向电子显示装置270、272中的一个或朝向其取向时,每个用户14可以观看由相应的电子显示装置270、272呈现的3D图像40。即,每个可穿戴可视化装置16的主动快门系统200在每个用户14的可穿戴可视化装置16的两个显示部分30、32之间用快门,以使每个用户14能够感知3D图像40。如上文中所讨论的,一个可穿戴可视化装置16的主动快门系统200利用一个液晶层202(例如,第一主动快门透镜),并且,另一个可穿戴可视化装置16的主动快门系统200包括另一液晶层202(例如,第二主动快门透镜)。
在一些实施例中,用户14可以被分配到各自被提供有个别化的3D图像40(例如,经由电子显示装置270、272的多路复用器装置和/或多路分解器装置)的不同群组。在一些实施例中,对于用户14的这些群组中的每个的主题基于诸如下者的一个或多个因素而选择:用户14被分配到的团队、与用户14相关联的票券、用户14的身高、用户14的年龄(例如,如从数据库检索的那样)、用户14所穿着的衣服的颜色(例如,如由物理环境260内的相机标识的那样)等等。如参考图4和图6而更详细地讨论的,可穿戴可视化装置16的主动快门系统200能够相继地对用户14的每个群组的可穿戴可视化装置16进行致动,而对于用户14的每个群组的3D图像40在电子显示装置270、272上被交替或多路复用,以对用户14的每个群组呈现不同的3D图像40。经由用户14的每个群组的可穿戴可视化装置16来显示的AR图像28同时地被调整,以对应于对每个用户14显示的3D图像40。照此,每个用户14可以在惊险乘坐设备256上体验不同或个别化的主题。
图5说明用以向游乐园顾客(例如,用户14)提供AR及3D增强的过程300的实施例的流程图。过程300可以在创建游乐园体验期间(诸如,惊险乘坐设备256)的AR及3D体验的方面有用。过程300可以表示存储于非暂时性计算机可读介质(例如,存储器104、112、166、186)中并且例如被可穿戴可视化装置16的处理器102、计算机图形生成系统60的处理器110、3D显示系统42的处理器164和/或主控制器62的处理器184执行的初始化的代码或指令。处理器102、110、164和/或184可以经由网络(诸如,无线网络64)来通信地耦合,以接收和发送下文中所描述的指令。
过程300从生成(框302)将经由与用户14相关联的可穿戴可视化装置16来显示的AR图像28开始。即,如上文中所讨论的,计算机图形生成系统60生成AR图像28,然而,在其它实施例中,AR图像28由可穿戴可视化装置16的处理器102或主控制器62的处理器184生成。在一些实施例中,由计算机图形生成系统60生成的AR图像28针对用户14而个别化或定制。例如,在一些实施例中,基于与用户相关联的群组、用户14沿着乘坐路径254的位置、用户14的取向或与用户14有关的任何其它合适的传感器数据,计算机图形生成系统60生成专门用于对用户14显示的AR图像28。在AR图像28生成期间或在此之后,计算机图形生成系统60经由无线网络64来将AR图像28传送到可穿戴可视化装置16。
过程300包括经由可穿戴可视化装置16来对用户14显示(框304)AR图像28。即,显微投影仪120生成指示AR图像28的光122并且将光122指引到可穿戴可视化装置16的可穿戴显示器124上。由于可穿戴可视化装置16的可穿戴显示器124是透射反射的,因而光122的至少一部分被反射到用户14的眼睛中,用户14使来自光122的AR图像28可视化。照此,AR图像28在与可穿戴可视化装置16的可穿戴显示器124相关联的第一焦平面180上提供可由用户14观看的特征的第一层。
过程300的所说明的实施例还包括接收(框306)指示将经由3D显示系统42的固定显示器160来对用户14的显示的3D图像40的数据。如上文中所讨论的,在其中3D显示系统42的固定显示器160由电子显示装置210提供的一些实施例中,电子显示装置210的处理器164从电子显示装置210的存储器166接收指示3D图像40的数据。在其中固定显示器160是投影仪屏幕161并且3D显示系统42包括投影仪162的一些实施例中,投影仪162从投影仪162的存储器166接收指示3D图像40的数据。在其它实施例中,计算机图形生成系统60生成指示3D图像40的数据并且直接地向3D显示系统42的投影仪162和/或电子显示装置210提供该数据。指示3D图像40的数据可以另外或备选地从投影仪162或电子显示装置210的输入/输出端口接收、从数据库检索等等。
过程300还包括经由可穿戴可视化装置16来显示(框308)3D图像40。3D显示系统42在与电子显示装置210或投影仪屏幕161相关联的固定显示器160上呈现3D图像40。将理解,在一些实施例中,框306和框308可以同时地实行,以致于3D图像40实时地由处理器164接收并且显示于3D显示系统42的固定显示器160上。AR图像28和3D图像40可以基于包括下者的一个或多个因素而显示:乘客乘坐车辆252在惊险乘坐设备256的循环期间的任何给定的时间点沿着乘坐路径254的位置或地点(例如,或在不存在乘坐路径时的其它地点)、由乘客乘坐车辆252在惊险乘坐设备256的循环期间、在预确定的一段时间之后或在已由用户14实行一个或多个动作之后行进的预确定的距离等等。
通过经由位于3D显示系统42的固定显示器160处的可穿戴可视化装置16的3D观看部件140来查看,用户14能够在与固定显示器160相关联的第二焦平面182上观看3D图像40。如本文中所认识到的,3D图像40与AR图像28组合而对用户14显示,以有助于用户14所体验的惊险乘坐设备256的主题。因此,除了由所显示的AR图像28提供的特征的第一层之外,3D图像40还提供可观看的特征的第二层。在一些实施例中,主控制器62协调可穿戴可视化装置16和3D显示系统42的操作(例如,经由前馈控制),以提供无缝多维体验。
在具有带有作为3D观看部件140的液晶层202的主动快门系统200的可穿戴可视化装置16的实施例中,过程300的本实施例的经由3D显示系统42来显示(框308)3D图像40的步骤包括如在虚线框310内表示的额外的步骤。即,在一些实施例中,过程300包括从3D显示系统42的传送器220接收(框312)协调信号。可穿戴可视化装置16的接收器222以任何适合的速率或频率从传送器220接收协调信号。在一些实施例中,接收器222不仅在可穿戴可视化装置16朝向传送器220取向时接收协调信号,而且在可穿戴可视化装置16并非朝向传送器220取向时接收协调信号。在一些实施例中,经由3D显示系统42来显示(框308)3D图像40的步骤还包括基于协调信号而协调(框314)可穿戴可视化装置16的液晶层202的快门。换而言之,可穿戴可视化装置16备选地针对观看组件18的每个显示部分30、32而用快门打开或关闭液晶层部分,而3D显示系统42呈现所显示的3D图像40的交替的透视图,以使用户14能够从所述透视图感知3D图像40。
在具有诸如在上文中参考图4而介绍的多个固定显示器160的一些实施例中,可穿戴可视化装置16可以生成具体的AR图像28,以与可在用户14正面向的固定显示器160上观看的3D图像40协调。照此,可穿戴可视化装置16的接收器222可以利用从可穿戴可视化装置16取向所朝向的3D显示系统42的固定显示器160接收的协调信号。在一些实施例中,主控制器62起到传送器220的作用,可以省略传送器220。在这样的实施例中,主控制器62向固定显示器160提供遵循主从控制算法(例如,不存在额外的定时部件)的定时或控制信号。因此,3D显示系统42的一个或多个固定显示器160可以显示3D图像40,以便用户14可以在第二焦平面182内感知3D图像40,同时,同时地在第一焦平面180内感知AR图像28。此外,在具有液晶层202的一些实施例中,液晶层202可以分成可以个别地并且选择性地被致动以对应于或映照显示于可穿戴显示器124上的AR图像28的各种像素部分。照此,液晶层202可以被控制成变得不透光,以阻挡环境光,并且提高对比度,以便更高效地观看AR图像28。
图6说明用以利用具有主动快门系统200的可穿戴可视化装置16来向多个用户14提供AR及3D体验的过程340的实施例的流程图。过程340可以在针对每个用户14而创建个别化的AR和3D体验的方面有用。类似于过程300,过程340可以表示存储于非暂时性计算机可读介质(例如,存储器104、112、166、186)中并且例如被可穿戴可视化装置16的处理器102、3D显示系统42的处理器164、计算机图形生成系统60的处理器110和/或主控制器62的处理器184执行的初始化的代码或指令。处理器102、110,164和/或184经由无线网络64或任何其它合适的通信部件来通信地耦合在一起,以接收和发送下文中所描述的指令。
如本文中所注意到的,过程340类似于过程300,但更具体地涉及向具有带有主动快门系统200的可穿戴可视化装置16的多个用户14提供个别化AR及3D体验。例如,过程340包括针对第一用户14并且针对第二用户14而生成(框342)相应的AR图像28。类似于过程300的框302,由计算机图形生成系统60针对每个用户14而基于与每个用户14相关联的某些因素来生成AR图像28。例如,AR图像28可以基于用户14所面向的方向、用户14在乘客乘坐车辆252内的位置、每个用户14被分配到的群组、乘客乘坐车辆252沿着乘坐路径254的位置等等而生成。类似于过程300的框304,过程340还包括通过与每个用户14相关联的相应的可穿戴可视化装置16显示(框344)AR图像28。以此方式,第一用户14可以观看针对第一用户14而定制的AR图像28的第一集合,而第二用户14可以观看针对第二用户14而定制的AR图像28的第二集合。
关于显示3D图像40,类似于过程300的框306,过程340包括接收(框346)指示将对每个用户14显示的3D图像40的数据。例如,电子显示装置270、272从电子显示装置270、272的相应的存储器166检索将显示的3D图像40。在其它实施例中,计算机图形生成系统60在原处针对每个用户14而基于由与每个用户14相关联的可穿戴可视化装置16收集的传感器数据来生成3D图像40,然后向电子显示装置270、272提供3D图像40。在一些实施例中,3D图像40作为多路复用的信号而向3D显示系统42提供,该信号通过3D显示系统40而多路分解,以便进行对用户14的个别化的显示。
此外,过程340包括从3D显示系统42接收(框348)协调信号。即,可穿戴可视化装置16的接收器222从电子显示装置270、272的传送器220接收协调信号。过程340的本实施例还包括协调(框350)可穿戴可视化装置16的相应的主动快门系统200的快门。即,可穿戴可视化装置16的主动快门系统200按特定顺序相继地被致动(例如,被打开、导致透明),以向每个用户14提供定制的3D图像40。例如,主动快门系统200可以被协调成相继地对下者中的一个进行致动:在第一时段期间对第一用户14(或用户的群组)的可穿戴可视化装置16的主动快门透镜的第一显示部分30进行致动、在第二时段期间对第二用户14的可穿戴可视化装置16的主动快门透镜的第一显示部分30进行致动、在第三时段期间对第一用户14的可穿戴可视化装置16的主动快门透镜的第二显示部分32进行致动以及在第四时段期间对第二用户14的可穿戴可视化装置16的主动快门透镜的第二显示部分32进行致动。可以迅速地重复进行该序列,以致于每只眼睛部分每秒被致动50次至100次之间。如本文中所注意到的,在一些实施例中,第一时段、第二时段、第三时段以及第四时段彼此偏移。同时地,过程340包括在电子显示装置270、272上显示(框352)将由用户14观看的相应的3D图像40。经由每个用户14的可穿戴可视化装置16来显示的AR图像28同时地被调整成对应于对每个用户14显示的3D图像40。
换而言之,对于具有主动快门系统200的可穿戴可视化装置16的实施例,两个或更多个时间重叠的3D呈现可以几乎同时地对用户14呈现,以甚至从单个固定显示器160提供对于第一用户14的个别化的3D图像40(例如,一个或多个译码的3D特征)和对于第二用户14的个别化的3D图像40(例如,一个或多个第二译码的3D特征)。尽管参考两个用户14而描述,但将理解,与参考过程340而讨论的那些概念类似的概念可以被利用来向任何适合的数量的用户14或其群组提供个别化3D和AR内容。因此,本文中所公开的AR及3D观看系统可以适应性地调整惊险乘坐设备256的主题或有助于用以经由多个焦平面来向用户14提供个别化并且拟真的内容的任何其它合适的环境。
虽然只有本公开的某些特征在本文中已被说明和描述,但本领域技术人员将想到许多修改和改变。因此,将理解到,所附权利要求旨在涵盖如落入本公开的真实精神内的所有这样的修改和改变。
本文中所提出并且要求保护的技术被引用并且应用于有实际性质的实质性对象和具体示例,所述实质性对象和具体示例可论证地改进本技术领域并且因此不是抽象的、无形的或纯理论的。而且,如果本说明书的末尾所附的任何权利要求包含指定为“用于[实行]……[功能]的部件”或“用于[实行]……[功能]的步骤”的一个或多个元素,则旨在这样的元素将根据35 U.S.C. 112(f)而解释。然而,对于包含以任何其它方式指定的元素的任何权利要求,旨在这样的元素将并非根据35 U.S.C. 112(f)而解释。

Claims (18)

1.一种用于向用户提供增强现实AR及三维3D体验的AR及3D观看系统,包括:
显示控制器;
可穿戴可视化装置,其通信地耦合到所述显示控制器并且包括观看组件,所述用户通过所述观看组件能够观看真实世界环境,其中,所述观看组件包括:
第一显示器,其配置成显示一个或多个AR特征;和
3D观看部件,其使所述用户能够将多个编码的二维2D图像感知为一个或多个译码的3D特征,其中,所述3D观看部件包括主动快门透镜,并且其中,所述观看组件配置成协调第一周期时间间隔期间的所述主动快门透镜的致动;
第二可穿戴可视化装置,其包括第二观看组件,所述第二观看组件包括:
第二显示器,其配置成显示一个或多个第二AR特征;和
第二3D观看部件,其使第二用户能够将多个第二编码的2D图像感知为一个或多个第二译码的3D特征,其中,所述第二3D观看部件包括第二主动快门透镜,并且其中,所述第二观看组件配置成协调第二周期时间间隔期间的所述第二主动快门透镜的致动,所述第二周期时间间隔偏移于所述第一周期时间间隔,并且其中,所述一个或多个译码的3D特征和所述一个或多个第二译码的3D特征彼此不同;以及
3D显示系统,其通信地耦合到所述显示控制器并且包括多个第三显示器,其中,所述多个第三显示器中的每个第三显示器配置成基于由所述显示控制器提供给所述3D显示系统的控制信号而显示所述多个编码的2D图像和所述多个第二编码的2D图像的相应部分,并且其中,所述3D显示系统设置于所述真实世界环境内。
2.根据权利要求1所述的AR及3D观看系统,其中,所述3D观看部件包括设置于所述第一显示器上的滤光涂层。
3.根据权利要求2所述的AR及3D观看系统,其中,所述滤光涂层包括用于所述第一显示器的第一部分的第一色差透镜滤波器和用于所述第一显示器的第二部分的第二色差透镜滤波器。
4.根据权利要求2所述的AR及3D观看系统,其中,所述滤光涂层包括用于所述第一显示器的第一部分的第一偏振透镜滤波器和用于所述第一显示器的第二部分的第二偏振透镜滤波器。
5.根据权利要求1所述的AR及3D观看系统,其中,所述主动快门透镜包括设置成与所述第一显示器相邻的液晶层,其中,所述液晶层的第一部分配置成响应于控制信号而变得不透光,并且其中,所述液晶层的第二部分配置成响应于所述控制信号而变得透明或保持透明。
6.根据权利要求1所述的AR及3D观看系统,其中,所述3D显示系统包括投影仪,所述投影仪配置成将所述多个编码的2D图像的所述相应部分传送到所述多个第三显示器中的至少一个第三显示器上,并且其中,所述至少一个第三显示器包括投影仪屏幕。
7.根据权利要求1所述的AR及3D观看系统,其中,所述3D显示系统的至少一个第三显示器包括电子显示装置,所述电子显示装置配置成生成并且显示所述多个编码的2D图像的所述相应部分。
8.根据权利要求1所述的AR及3D观看系统,其中,所述一个或多个译码的3D特征针对所述用户而个别化,并且其中,所述一个或多个第二译码的3D特征针对所述第二用户而个别化。
9.根据权利要求1所述的AR及3D观看系统,其中,所述主动快门透镜设置成与所述第一显示器相邻,其中,所述第二主动快门透镜设置成与所述第二显示器相邻,并且其中,所述3D显示系统包括传送器,所述传送器配置成传送使所述主动快门透镜和所述第二主动快门透镜能够与所述3D显示系统的刷新率同步的信号。
10.根据权利要求9所述的AR及3D观看系统,其中,所述显示控制器配置成通过以下步骤使得所述一个或多个译码的3D特征和所述一个或多个第二译码的3D特征彼此不同:
在第一时段期间对所述主动快门透镜的第一显示部分进行致动;
在第二时段期间对所述主动快门透镜的第二显示部分进行致动;
在第三时段期间对所述第二主动快门透镜的第一显示部分进行致动;以及
在第四时段期间对所述第二主动快门透镜的第二显示部分进行致动,其中,所述第一时段、所述第二时段、所述第三时段、以及所述第四时段彼此偏移。
11.根据权利要求1所述的AR及3D观看系统,其中,所述多个编码的2D图像的左眼部分相对于所述多个编码的2D图像的右眼部分是偏移的,从而使得所述用户感知所述一个或多个译码的3D特征。
12.根据权利要求1所述的AR及3D观看系统,其中,所述显示控制器包括处理器,所述处理器配置成指令计算机图形生成系统来指令所述多个第三显示器中的每个第三显示器基于所述用户的定向、所述用户的位置、所述用户的运动或者其组合来显示所述多个编码的2D图像的所述相应部分。
13.一种用于向用户提供增强现实AR和三维3D体验的AR和3D观看系统,包括:
可穿戴可视化装置,其包括观看组件,所述用户通过所述观看组件能够观看真实世界环境,其中,所述观看组件包括:
第一显示器,其配置成显示一个或多个AR特征;和
3D处理组件,其包括用于所述第一显示器的第一眼睛部分的第一3D滤波层和用于所述第一显示器的第二眼睛部分的第二3D滤波层,其中,所述第一3D滤波层和所述第二3D滤波层合作以使所述用户能够将多个编码的二维2D图像感知为一个或多个译码的3D特征,其中,所述3D处理组件包括主动快门透镜,并且其中,所述观看组件配置成协调第一周期时间间隔期间的所述主动快门透镜的致动;
第二可穿戴可视化装置,其包括第二观看组件,所述第二观看组件包括:
第二显示器,其配置成显示一个或多个第二AR特征;和
第二3D观看部件,其使第二用户能够将多个第二编码的2D图像感知为一个或多个第二译码的3D特征,其中,所述第二3D观看部件包括第二主动快门透镜,并且其中,所述第二观看组件配置成协调第二周期时间间隔期间的所述第二主动快门透镜的致动,所述第二周期时间间隔偏移于所述第一周期时间间隔,并且其中,所述一个或多个译码的3D特征和所述一个或多个第二译码的3D特征彼此不同;以及
3D显示系统,其从所述可穿戴可视化装置和所述第二可穿戴可视化装置分离,其中,所述3D显示系统包括多个第三显示器,其中所述多个第三显示器中的每个第三显示器配置成响应于从显示控制器接收控制信号而将所述多个编码的2D图像的相应部分呈现到所述可穿戴可视化装置并且将所述多个第二编码的2D图像的相应部分呈现到所述第二可穿戴可视化装置。
14.根据权利要求13所述的AR和3D观看系统,其中,由所述多个第三显示器中的每个第三显示器呈现的所述多个编码的2D图像的所述相应部分包括对象的相对地偏移的透视图,并且其中,所述3D处理组件使所述用户能够通过从所述对象的所述偏移透视图将所述对象感知为具有深度而将所述多个编码的2D图像的所述相应部分在光学上解码。
15.根据权利要求13所述的AR和3D观看系统,其中,所述第一3D滤波层包括具有第一光学效应的第一涂层,其中,所述第二3D滤波层包括具有与所述第一光学效应不同的第二光学效应的第二涂层。
16.根据权利要求13所述的AR和3D观看系统,其中,所述第一3D滤波层包括第一主动用快门透镜,并且其中,所述第二3D滤波层包括第二主动用快门透镜。
17.一种增强现实AR和三维3D观看系统,其用于向用户提供AR及3D体验,包括:
可穿戴可视化装置,其包括观看组件,所述用户通过所述观看组件能够观看真实世界环境,其中,所述观看组件包括:
第一显示器,其配置成在第一焦平面内显示一个或多个AR特征;和
3D观看部件,其使所述用户能够在至少一个第二焦平面内将多个编码的二维2D图像感知为一个或多个译码的3D图像,其中,所述第一焦平面和所述至少一个第二焦平面独立于彼此,其中,所述3D观看组件包括主动快门透镜,并且其中,所述观看组件配置成协调第一周期时间间隔期间的所述主动快门透镜的致动;
第二可穿戴可视化装置,其包括第二观看组件,所述第二观看组件包括:
第二显示器,其配置成在第三焦平面内显示一个或多个第二AR特征;和
第二3D观看部件,其使第二用户能够在至少一个第四焦平面内将多个第二编码的2D图像感知为一个或多个第二译码的3D特征,其中,所述第二3D观看部件包括第二主动快门透镜,并且其中,所述第二观看组件配置成协调第二周期时间间隔期间的所述第二主动快门透镜的致动,所述第二周期时间间隔偏移于所述第一周期时间间隔,并且其中,所述一个或多个译码的3D特征和所述一个或多个第二译码的3D特征彼此不同;以及
3D显示系统,其包括多个第三显示器,其中,所述多个第三显示器中的每个第三显示器配置成显示所述多个编码的2D图像和所述多个第二编码的2D图像的相应部分;
计算机图形生成系统,其包括处理器,所述处理器配置成:
生成所述一个或多个AR特征以及所述一个或多个第二AR特征,向所述可穿戴可视化装置提供所述一个或多个AR特征,并且,向所述第二可穿戴可视化装置提供所述一个或多个第二AR特征;以及
生成所述多个编码的2D图像以及所述多个第二编码的2D图像,并且向所述多个第三显示器中的每个第三显示器提供所述多个编码的2D图像和所述多个第二编码的2D图像的所述相应部分;以及
显示控制器,其配置成与所述可穿戴可视化装置、所述第二可穿戴可视化装置以及所述3D显示系统可操作地通信,从而协调所述一个或多个AR特征、所述一个或多个第二AR特征、所述多个编码的2D图像以及所述多个第二编码的2D图像的呈现。
18.根据权利要求17所述的增强现实AR和三维3D观看系统,其中,所述计算机图形生成系统的所述处理器配置成基于所述用户的取向、所述用户的位置、所述用户的运动或它们的组合而生成所述一个或多个AR特征和所述多个编码的2D图像。
CN201980063713.3A 2018-09-27 2019-09-18 娱乐环境中的显示系统 Active CN112739438B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862737275P 2018-09-27 2018-09-27
US62/737275 2018-09-27
US16/174,263 US10777012B2 (en) 2018-09-27 2018-10-29 Display systems in an entertainment environment
US16/174263 2018-10-29
PCT/US2019/051777 WO2020068520A1 (en) 2018-09-27 2019-09-18 Display systems in an entertainment environment

Publications (2)

Publication Number Publication Date
CN112739438A CN112739438A (zh) 2021-04-30
CN112739438B true CN112739438B (zh) 2023-05-23

Family

ID=69946387

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980063713.3A Active CN112739438B (zh) 2018-09-27 2019-09-18 娱乐环境中的显示系统

Country Status (9)

Country Link
US (1) US10777012B2 (zh)
EP (1) EP3856379B1 (zh)
JP (1) JP7331090B2 (zh)
KR (1) KR20210062690A (zh)
CN (1) CN112739438B (zh)
CA (1) CA3111588A1 (zh)
ES (1) ES2972485T3 (zh)
SG (1) SG11202102101YA (zh)
WO (1) WO2020068520A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11774770B2 (en) 2020-06-03 2023-10-03 Universal City Studios Llc Interface device with three-dimensional (3-D) viewing functionality
US11794121B1 (en) * 2020-12-09 2023-10-24 Falcon's Beyond Brands, Llc Theme or amusement park attraction using high frame rate active shutter technology
CN112904473A (zh) * 2021-01-28 2021-06-04 武汉华星光电技术有限公司 导光板、背光模组、头戴显示设备
USD1023209S1 (en) 2022-05-26 2024-04-16 Sally Industries, Inc. Indoor amusement ride

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110213664A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
KR20130028878A (ko) * 2011-09-12 2013-03-20 팔로 알토 리서치 센터 인코포레이티드 조합형 입체 카메라 및 입체 디스플레이 상호 작용
US20130083173A1 (en) * 2011-09-30 2013-04-04 Kevin A. Geisner Virtual spectator experience with a personal audio/visual apparatus
CN105324738A (zh) * 2013-06-07 2016-02-10 索尼电脑娱乐公司 在头戴式显示器中切换操作模式
US20160048203A1 (en) * 2014-08-18 2016-02-18 Universal City Studios Llc Systems and methods for generating augmented and virtual reality images
WO2017165301A1 (en) * 2016-03-21 2017-09-28 Washington University Virtual reality or augmented reality visualization of 3d medical images

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1138159B1 (en) 1998-12-07 2015-06-17 Universal City Studios LLC Image correction method to compensate for point of view image distortion
US20100079585A1 (en) 2008-09-29 2010-04-01 Disney Enterprises, Inc. Interactive theater with audience participation
US8427590B2 (en) 2009-05-29 2013-04-23 Soraa, Inc. Laser based display method and system
FR2955409B1 (fr) 2010-01-18 2015-07-03 Fittingbox Procede d'integration d'un objet virtuel dans des photographies ou video en temps reel
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
JP5499854B2 (ja) * 2010-04-08 2014-05-21 ソニー株式会社 頭部装着型ディスプレイにおける光学的位置調整方法
US8890941B2 (en) * 2010-04-29 2014-11-18 Virginia Venture Industries, Llc Methods and apparatuses for viewing three dimensional images
US9994228B2 (en) 2010-05-14 2018-06-12 Iarmourholdings, Inc. Systems and methods for controlling a vehicle or device in response to a measured human response to a provocative environment
US20120004919A1 (en) 2010-06-30 2012-01-05 Broadcom Corporation Three-dimensional glasses with bluetooth audio decode
WO2012054231A2 (en) 2010-10-04 2012-04-26 Gerard Dirk Smits System and method for 3-d projection and enhancements for interactivity
US20130083008A1 (en) 2011-09-30 2013-04-04 Kevin A. Geisner Enriched experience using personal a/v system
US10514542B2 (en) 2011-12-19 2019-12-24 Dolby Laboratories Licensing Corporation Head-mounted display
CN103472909B (zh) 2012-04-10 2017-04-12 微软技术许可有限责任公司 用于头戴式、增强现实显示器的逼真遮挡
JP5891125B2 (ja) * 2012-06-29 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
JP5483761B2 (ja) * 2012-06-29 2014-05-07 株式会社ソニー・コンピュータエンタテインメント 映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法
KR101209854B1 (ko) 2012-09-11 2012-12-11 신동호 시뮬레이터용 3차원 운동장치
US10371943B2 (en) 2013-03-14 2019-08-06 Valve Corporation Method and system to control the focus depth of projected images
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9986228B2 (en) 2016-03-24 2018-05-29 3Di Llc Trackable glasses system that provides multiple views of a shared display
US20160011422A1 (en) 2014-03-10 2016-01-14 Ion Virtual Technology Corporation Method and system for reducing motion blur when experiencing virtual or augmented reality environments
US20150358539A1 (en) 2014-06-06 2015-12-10 Jacob Catt Mobile Virtual Reality Camera, Method, And System
WO2016025962A1 (en) 2014-08-15 2016-02-18 The University Of Akron Device and method for three-dimensional video communication
CN105828021A (zh) 2015-01-05 2016-08-03 沈阳新松机器人自动化股份有限公司 基于增强现实技术的特种机器人图像采集控制方法及系统
US20160371884A1 (en) 2015-06-17 2016-12-22 Microsoft Technology Licensing, Llc Complementary augmented reality
US9918074B2 (en) 2015-06-18 2018-03-13 Disney Enterprises, Inc. Three dimensional (3D) stereo display systems for creating 3D effects for viewers wearing 3D glasses
CN205003369U (zh) 2015-09-10 2016-01-27 上海理鑫光学科技有限公司 三维增强现实系统
US11112266B2 (en) 2016-02-12 2021-09-07 Disney Enterprises, Inc. Method for motion-synchronized AR or VR entertainment experience
US20170323482A1 (en) * 2016-05-05 2017-11-09 Universal City Studios Llc Systems and methods for generating stereoscopic, augmented, and virtual reality images
CN106101689B (zh) 2016-06-13 2018-03-06 西安电子科技大学 利用手机单目摄像头对虚拟现实眼镜进行增强现实的方法
KR102568897B1 (ko) * 2016-08-16 2023-08-21 삼성전자주식회사 전자 장치 및 그 제어 방법
CN106371586B (zh) 2016-08-24 2018-10-26 同济大学 一种互动区域可调的增强现实实现方法
CN106331682B (zh) 2016-08-24 2018-05-11 同济大学 一种互动区域可调的增强现实云台系统
DE102016215860A1 (de) 2016-08-24 2018-03-01 Siemens Aktiengesellschaft Trackingloses projektionsbasiertes "Augmented Reality [AR]"-Verfahren und -System zur Montageunterstützung von Produktionsgütern, insbesondere zum Lokalisieren von Nutensteinen für die Bauteilmontage im Waggonbau
CN106371210B (zh) 2016-10-18 2018-05-25 上海蓝眸多媒体科技有限公司 一种基于透明成像玻璃的增强现实眼镜
CN106371211B (zh) 2016-10-18 2018-08-24 上海蓝眸多媒体科技有限公司 一种基于透明成像玻璃的增强现实眼镜
CN206584583U (zh) 2016-10-19 2017-10-24 华南理工大学 基于增强现实和生物反馈的驾驶培训系统
CN106693361A (zh) 2016-12-23 2017-05-24 武汉市马里欧网络有限公司 一种基于超声波手势识别的ar换装游戏投影方法及系统
CN206348604U (zh) 2016-12-26 2017-07-21 岭南师范学院 一种基于增强现实的3d全息投影系统
CN106483814A (zh) 2016-12-26 2017-03-08 岭南师范学院 一种基于增强现实的3d全息投影系统及其使用方法
US10931940B2 (en) * 2016-12-30 2021-02-23 Holonyne Corporation Virtual display engine
CN107016730A (zh) 2017-04-14 2017-08-04 陈柳华 一种虚拟现实与真实场景融合的装置
CN107027015A (zh) 2017-04-28 2017-08-08 广景视睿科技(深圳)有限公司 基于增强现实的3d动向投影系统以及用于该系统的投影方法
CN206788558U (zh) 2017-05-10 2017-12-22 大连新锐天地传媒有限公司 一种基于增强现实的全息投影装置
CN207059896U (zh) 2017-07-28 2018-03-02 合肥芯福传感器技术有限公司 用于车辆安全倒车的ar投影系统
CN107399276A (zh) 2017-07-28 2017-11-28 合肥芯福传感器技术有限公司 用于车辆安全倒车的ar投影系统及投影方法
CN107561710A (zh) 2017-09-29 2018-01-09 塔普翊海(上海)智能科技有限公司 一种基于三维激光全息投影技术的头戴显示系统
CN107561714A (zh) 2017-10-25 2018-01-09 上海驾馥电子科技有限公司 一种通过3d显示技术增强现实的抬头显示器

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110213664A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
KR20130028878A (ko) * 2011-09-12 2013-03-20 팔로 알토 리서치 센터 인코포레이티드 조합형 입체 카메라 및 입체 디스플레이 상호 작용
US20130083173A1 (en) * 2011-09-30 2013-04-04 Kevin A. Geisner Virtual spectator experience with a personal audio/visual apparatus
CN105324738A (zh) * 2013-06-07 2016-02-10 索尼电脑娱乐公司 在头戴式显示器中切换操作模式
US20160048203A1 (en) * 2014-08-18 2016-02-18 Universal City Studios Llc Systems and methods for generating augmented and virtual reality images
WO2017165301A1 (en) * 2016-03-21 2017-09-28 Washington University Virtual reality or augmented reality visualization of 3d medical images

Also Published As

Publication number Publication date
JP7331090B2 (ja) 2023-08-22
EP3856379A1 (en) 2021-08-04
CA3111588A1 (en) 2020-04-02
US20200105061A1 (en) 2020-04-02
KR20210062690A (ko) 2021-05-31
CN112739438A (zh) 2021-04-30
WO2020068520A1 (en) 2020-04-02
ES2972485T3 (es) 2024-06-13
US10777012B2 (en) 2020-09-15
JP2022502699A (ja) 2022-01-11
SG11202102101YA (en) 2021-04-29
EP3856379B1 (en) 2023-11-29

Similar Documents

Publication Publication Date Title
CN110352085B (zh) 用于游乐园环境中的分层虚拟特征的系统和方法
JP7079207B2 (ja) 立体視的な拡張現実画像および仮想現実画像を生成するためのシステムおよび方法
CN112739438B (zh) 娱乐环境中的显示系统
CN111526929B (zh) 用于游乐园环境中的文本覆盖的系统和方法
KR101926577B1 (ko) 확장형 3차원 입체영상 디스플레이 시스템
US20110141246A1 (en) System and Method for Producing Stereoscopic Images
JP2023529375A (ja) 3次元(3-d)視覚機能付きインタフェースデバイス
Peddie et al. Stereoscopic 3D in Computers

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40051493

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant