JP2022502699A - 娯楽環境内のディスプレイシステム - Google Patents

娯楽環境内のディスプレイシステム Download PDF

Info

Publication number
JP2022502699A
JP2022502699A JP2021516819A JP2021516819A JP2022502699A JP 2022502699 A JP2022502699 A JP 2022502699A JP 2021516819 A JP2021516819 A JP 2021516819A JP 2021516819 A JP2021516819 A JP 2021516819A JP 2022502699 A JP2022502699 A JP 2022502699A
Authority
JP
Japan
Prior art keywords
display
visual
user
image
visualization device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021516819A
Other languages
English (en)
Other versions
JP7331090B2 (ja
JPWO2020068520A5 (ja
Inventor
パトリック ジェイ ゲルゲン
ダニエル エム ホルスタイン
Original Assignee
ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー filed Critical ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
Publication of JP2022502699A publication Critical patent/JP2022502699A/ja
Publication of JPWO2020068520A5 publication Critical patent/JPWO2020068520A5/ja
Application granted granted Critical
Publication of JP7331090B2 publication Critical patent/JP7331090B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • A63G31/16Amusement arrangements creating illusions of travel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B1/00Optical elements characterised by the material of which they are made; Optical coatings for optical elements
    • G02B1/10Optical coatings produced by application to, or surface treatment of, optical elements
    • G02B1/11Anti-reflection coatings
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/24Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type involving temporal multiplexing, e.g. using sequentially activated left and right shutters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/25Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using polarisation techniques
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/137Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells characterised by the electro-optical or magneto-optical effect, e.g. field-induced phase transition, orientation effect, guest-host interaction or dynamic scattering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Nonlinear Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

拡張現実(AR)及び3次元(3−D)体験をユーザに提供するためのAR及び3−D視覚システム10は、視覚組立体18を有するウェアラブル可視化デバイス16を含み、ユーザは、視覚組立体を通して現実世界環境を視覚することができる。視覚組立体18は、1又は2以上のAR特徴を表示するように構成された第1のディスプレイ30と、ユーザが1又は2以上の符号化された2次元(2−D)画像を1又は2以上の解読された3−D特徴として知覚することを可能にする3−D視覚構成要素140と、を含む。AR及び3−D視覚システム10は更に、1又は2以上の符号化された2−D画像を表示するように構成された第2のディスプレイ32を有する固定3−Dディスプレイシステム42を含む。固定3−Dディスプレイシステム42は、現実世界環境内に配置される。【選択図】図1

Description

本明細書に開示される主題は、娯楽環境、より具体的には、遊園地のアトラクションにおける拡張現実(AR)及び3次元(3−D)体験を提供することに関する。
遊園地及び/又はテーマパークは、遊園地のゲスト(例えば、家族及び/又は全ての年齢の人々)に楽しみを提供するのに有用な様々な娯楽アトラクション、レストラン、及び乗り物を含むことができる。遊園地の領域は、特に特定の観客をターゲットにした様々なテーマを有することができる。例えば、特定の領域は、伝統的に子供にとって興味深いテーマを含むことができ、その一方、他の領域は、伝統的により成熟した観客にとって興味深いテーマを含むことができる。一般に、このような遊園地に関連するテーマを有する場所は、アトラクション又はテーマのあるアトラクションと呼ばれることがある。
テーマのあるアトラクションは、固定設備、建物のレイアウト、小道具、装飾などを使用して設置でき、これらのほとんどは、通常、特定のテーマに関連している場合がある。同じ場所に異なるテーマを設定することになる状況では、より古いテーマに関連する特徴は、より新しいテーマに関連する特徴に置き換えられる場合がある。その場所のテーマの複雑さに応じて、装飾、家具、設備、小道具などが取り除かれ、又は交換される場合があるので、極めて困難であり時間を要することが分かることがある。実際に、特定のタイプのアトラクションに関して、より没入型の体験をゲストに提供するために、比較的複雑なテーマがより一般的になってきている。
現在、アトラクションのテーマを変更可能にすることができるアトラクションを含むこと、又は従来の技法と比較して柔軟で効率的な方法でこのようなアトラクションにおいて特定のテーマの特徴を含めることが望ましいことが理解される。また、現在では、このようなアトラクションに対するゲストの没入型体験を高めること、及びよりパーソナライズされた又はカスタマイズされた体験をゲストに提供することが望ましいとすることができる点が、理解される。
このセクションでは、特許請求の範囲に記載された本発明に対する背景又は関連状況を提供することを目的としている。本明細書の説明は、探求される概念を含むことができるが、必ずしも以前に考案され或いは探求されたものとは限らない。従って、本明細書において特に指示されない限り、このセクションで説明されることは、本出願の特許請求の範囲に対する先行技術ではなく、このセクションに含まれることで先行技術とは認められない。
本明細書に開示される特定の実施形態の要約が以下に記載される。これらの態様は、単に読み手にこれらの特定の実施形態の簡潔な要約を提供するために提示されており、これらの態様は、本開示の範囲を限定することを意図するものではないことを理解されたい。実際に、本開示は、以下に記載されていない可能性のある様々な態様を包含することができる。
1つの実施形態では、拡張現実(AR)及び3次元(3−D)体験をユーザに提供するためのAR及び3−D視覚システムは、視覚組立体を有するウェアラブル可視化デバイスを含み、ユーザは、視覚組立体を通して現実世界環境を視覚することができる。視覚組立体は、1又は2以上のAR特徴を表示するように構成された第1のディスプレイと、ユーザが、1又は2以上の符号化された2次元(2−D)画像を1又は2以上の解読された3−D特徴として知覚することを可能にする3−D視覚構成要素とを含む。AR及び3−D視覚システムは更に、1又は2以上の符号化された2−D画像を表示するように構成された第2のディスプレイを有する固定3−Dディスプレイシステムを含む。固定3−Dディスプレイシステムは、現実世界環境内に配置される。
1つの実施形態では、拡張現実(AR)及び3次元(3−D)体験をユーザに提供するためのウェアラブル可視化デバイスは、視覚組立体を含み、ユーザは、この視覚組立体を通して現実世界環境を視覚することができる。視覚組立体は、1又は2以上のAR特徴を表示するように構成された第1のディスプレイを含む。視覚組立体はまた、第1のディスプレイの第1の眼部分用の第1の3−Dフィルタリング層と、第1のディスプレイの第2の眼部分用の第2の3−Dフィルタリング層とを有する3−D処理組立体を含む。第1の3−Dフィルタリング層及び第2の3−Dフィルタリング層は、協働して、ユーザが、第2のディスプレイ上に表示される1又は2以上の符号化された2次元(2−D)画像を1又は2以上の解読された3−D特徴として知覚することを可能にし、第2のディスプレイは、ウェアラブル可視化デバイスから分離されている。
1つの実施形態では、拡張現実(AR)及び3次元(3−D)体験をユーザに提供するためのAR及び3−D視覚システムは、視覚組立体を有するウェアラブル可視化デバイスを含み、ユーザは、視覚組立体を通して現実世界環境を視覚することができる。視覚組立体は、第1の焦点面内に1又は2以上のAR特徴を表示するように構成された第1のディスプレイを含む。視覚組立体は更に、ユーザが、第2の焦点面内で1又は2以上の符号化された2次元(2−D)画像を1又は2以上の解読された3−D特徴として知覚することを可能にする3−D視覚構成要素を含む。第1の焦点面及び第2の焦点面は互いに独立している。拡張現実(AR)及び3−D視覚システムは更に、1又は2以上の符号化された2−D画像を表示するように構成された第2のディスプレイを有する3−Dディスプレイシステムを含む。3−Dディスプレイシステムは、現実世界環境内に配置される。
本開示の様々な態様に関連して、上述した特徴の様々な改善を行うことができる。また、これらの様々な態様に更なる特徴を組み込むこともできる。これらの改善点及び更なる特徴は、個別に又は任意の組み合わせで存在することができる。
本開示のこれらの及び他の特徴、態様、利点は、添付図面を参照して以下の詳細な説明を読むことでより良く理解できることになり、これらの添付図面では、図面全体にわたって同様の符号が同様の要素を表す。
本実施形態による、拡張現実(AR)及び3次元(3−D)視覚システムにおいて使用できるウェアラブル可視化デバイスの1つの実施形態を示す図である。 本実施形態による、図1のAR及び3−D視覚システム内のウェアラブル可視化デバイスの1つの実施形態の部分分解概略図である。 本実施形態による、図1のAR及び3−D視覚システム内のウェアラブル可視化デバイスの別の実施形態の部分分解概略図である。 本実施形態による、搭乗者乗り物車両から使用できる図1のAR及び3−D視覚システムの3−Dディスプレイシステム及びウェアラブル可視化デバイスを示す図である。 本実施形態による、図1のAR及び3−D視覚システムを動作させる処理の1つの実施形態を示すフローチャートである。 本実施形態による、能動的3−D視覚構成要素を有する図1のAR及び3−D視覚システムを動作させる処理の1つの実施形態を示すフローチャートである。
本開示の1又は2以上の特定の実施形態について以下で説明する。これらの実施形態の簡潔な説明を行うために、本明細書では、実際の実施態様の全ての特徴については説明しないことにする。何れかの技術又は設計プロジェクトと同様に、このような何らかの実際の実施構成の開発において、システム及びビジネスに関連した制約への準拠など、実施構成毎に異なる可能性のある開発者の特定の目標を達成するために、多数の実施時固有の決定を行う必要がある点は理解されたい。更に、このような開発の取り組みは、複雑で時間を要する可能性があるが、本開示の利点を有する当業者にとっては、設計、製作、及び製造の日常的な業務である点を理解されたい。
本実施形態は、遊園地又はテーマパークに関連するアトラクションの一部として拡張現実(AR)及び3次元(3−D)体験を提供するシステムに関する。ヘッドウェアラブル技術がテーマパーク環境内の特定の乗り物車両に統合されることに伴って、ユーザが、従来型3−D眼鏡を同時に着用して、テーマパーク環境内に表示又は投影された3−Dコンテンツを知覚することが困難又は非現実的になっている。しかしながら、プロジェクタ又は電子ディスプレイデバイスなどの3−Dディスプレイシステムによって提供される3−Dコンテンツは、依然として、テーマパーク環境内でのユーザ体験に寄与するのに有用である場合がある。従って、本明細書に開示されるAR及び3−D視覚システムの実施形態は、反射式AR技術を単一のヘッドセットの3−D視覚技術と統合して、ユーザが、ヘッドセットによって提示されるニアアイ(near−eye)ARコンテンツ及び3−Dディスプレイシステムによって提示されるファーアイ(far−eye)3−Dコンテンツの両方を知覚することを可能にする。本明細書で利用されるARは、周囲環境のユーザの視覚を拡張又は変更する仮想特徴を表示するのに適した任意の技法を含む。例えば、AR特徴が、僅かにオフセットされた画像をユーザの前方のウェアラブルディスプレイに(又はユーザの眼に)投影することによって提供され、ユーザが、2つのオフセットされた画像を組み合わせてAR特徴にすることができるようになる。更に、3−Dへの言及は、ユーザが、ユーザの各眼に提示される2次元(2−D)画像、僅かにオフセットされた画像、又は2−D符号化画像から奥行きを知覚することを可能にする立体視3−D効果を提供するのに適した任意の立体視技術を含む。3−D特徴は、ユーザの各眼が同じ物体の2つの異なる画像を受け取ることを可能にする光フィルタコーティング又は光フィルタ素子を介して電子ディスプレイデバイス又はプロジェクタスクリーンから可視化され、これらの画像は、光学的に組み合わされて識別可能又は解読可能な3−D外観になる。
例えば、本実施形態は、ユーザが固定可視化デバイス(例えば、電子ディスプレイスクリーン、プロジェクタスクリーン)を見ることができるウェアラブル可視化デバイス(例えば、電子ゴーグル、ディスプレイ、眼鏡)などの視覚デバイスを含むことができ、これらのデバイスは、協働して動作して、ユーザにAR及び3−D体験を提供する。ウェアラブル可視化デバイスは、ユーザが、ウェアラブル可視化デバイスのウェアラブルディスプレイに提示されるAR特徴、及び3−Dディスプレイシステムの一部である固定可視化デバイスの別個のディスプレイに提示される3−D特徴の両方を知覚することを可能にする光学特性を有する構成要素をウェアラブル可視化デバイス内に含む。3−Dディスプレイシステムは、プロジェクタを含むことができ、このプロジェクタは、符号化されたコンテンツを別個のディスプレイに提示して、ユーザがウェアラブル可視化デバイスの3−D視覚構成要素を通して符号化されたコンテンツを3次元として視覚的に復号又は処理することを可能にする。本明細書で説明するウェアラブル可視化デバイスは、受動的3−Dレンズ、コーティング、又はフィルタ(例えば、アナグリフ、偏光など)又は能動的3−Dレンズ、コーティング、又はフィルタ(例えば、能動的シャッタリングシステム)を含み、ユーザが3−D特徴を知覚することを可能にするための任意の好適な3−D技術を採用することができる。3−Dディスプレイシステム及びウェアラブル可視化デバイスは、独立して動作するように構成すること、又は3−Dディスプレイシステム及びウェアラブル可視化デバイスによって表示される可視化情報を同期及び/又は協働することができるコントローラ(例えば、マスターコントローラ、コンピュータグラフィックス生成システム、1又は2以上のプロセッサ)を介して動作可能に結合することができる。
3−D特徴が、ウェアラブル可視化デバイスの向こう側に配置された環境で知覚されることを可能にすることによって、更にAR特徴と組み合わせて、ウェアラブル可視化デバイスは、ユーザが複数の独立した焦点面でコンテンツを知覚することを可能にする。場合によっては、本開示のウェアラブル可視化デバイスの多次元コンテンツは、従来型ウェアラブル可視化デバイスによって提供される単一の焦点面よりもより没入できる体験又はテーマを提供する。従って、複数の焦点面を提供することは、一般に、AR及び3−D視覚システムのユーザに、より現実的でパーソナライズされた娯楽体験を与える。更に、テーマパーク内でウェアラブル可視化デバイスを使用することに関して本明細書で説明するが、開示される技法は、任意の好適な用途に適した任意のARデバイスに適用することができる。例えば、ウェアラブル可視化デバイスを含むAR及び3−D視覚システムは、自宅(例えば、ビデオゲームのプレイ)、職場(例えば、モデルの構築、没入型プレゼンテーションの視覚)などにおいてユーザに3−D及びAR体験を提供するのに使用することができる。
ここで図面を参照すると、図1は、ユーザ14が、現実世界環境に重ね合わされたAR及び3−D画像又は特徴を体験する(例えば、それを視覚する、それと対話する)ことを可能にするAR及び3−D視覚システム10の1つの実施形態を示している。特定の実施形態により、ユーザ14は、特定の実施形態において電子眼鏡(例えば、AR/仮想現実眼鏡、ゴーグル)を含み得る視覚組立体18を有するウェアラブル可視化デバイス16を購入することができ、又はそれ以外の場合には、このウェアラブル可視化デバイスをユーザに提供することができる。ウェアラブル可視化デバイス16は、視覚組立体18の少なくとも一部分を収容し、ユーザ14の眼の前方の位置に視覚組立体18を保持するための、本実施形態においてヘッドバンドとして示されるウェアラブル部分20を含むことができる。
ウェアラブル可視化デバイス16は、AR及び3−D視覚システム10の他の機能と組み合わせて使用されて、ユーザ14が超現実的環境24を知覚することをもたらすことができる。ユーザ14は、ウェアラブル可視化デバイス16を通して現実世界画像26を視覚することができ、これらの画像は、各々、一般に、ウェアラブル可視化デバイスを着用していないときでさえ、ユーザ14がリアルタイムで見る物理的環境又は現実世界環境の特徴を表す。「リアルタイム」という用語は、画像が、ユーザによる実際の視覚時間内、又はその時間に実質的に近い時間枠(例えば、±0.01秒、±0.1秒、±1秒)内で得られ、及び/又はユーザ14に提供されることを示す。本明細書で説明する、ウェアラブル可視化デバイス16の視覚組立体18は、超現実的環境24が、1又は2以上のAR画像28(例えば、1又は2以上のAR特徴、仮想拡張を含む)と電子的にマージされた物理的環境の現実世界画像26を含むように、部分的にユーザ14の視覚を制御する(例えば、半透過型ディスプレイ又は半透明ディスプレイを使用して)。すなわち、超現実的環境24は、本実施形態においてウェアラブル可視化デバイス16の視覚組立体18上にAR画像28が重ね合わされた状態での実際の物理的環境を含む。他の実施形態では、AR画像28は、ユーザ14の眼に直接投影することができる。
更に図示されるように、ウェアラブル可視化デバイス16の視覚組立体18は、各々がそれぞれユーザ14の片方の眼に対応する第1の表示部30及び第2の表示部32を含む。他の実施形態では、ユーザ14の両眼に対応する統合ディスプレイが、ウェアラブル可視化デバイス16内で使用できる。それぞれの表示部30、32は、各々、非限定的な例として、完全に又は部分的に透明なレンズを含むことができ、AR画像は、このレンズ上に重ね合わせることができる。1つの実施形態では、表示部30、32は、表示面であり、ウェアラブル可視化デバイス16は、この表示面の上にAR画像28を重ね合わせるように表示面のそれぞれの周辺部に隣接して位置する特徴部(例えば、回路、発光体)を含む。追加的又は代替的に、表示部30、32は、現実世界画像26及びAR画像28をユーザ14に表示するのに有用な任意の好適な半透過性、透明、又は半透明の材料を含むことができる。1つの実施形態では、それぞれの表示部30、32は、各々、透明(例えば、シースルー)LEDディスプレイ又は透明(例えば、シースルー)OLEDディスプレイを含むことができ、このディスプレイは、例えば、ユーザ14が、実際の物理的環境(例えば、遊園地又は乗り物車両の内部に関連するアトラクション)へのオーバーレイとしてそれぞれの表示部に表示されるAR画像28を視覚することを可能にするのに有用である。
更に、ユーザ14は、ウェアラブル可視化デバイス16の視覚組立体18を通して、ユーザ14が体験する超現実的環境24に寄与する3−D画像40(例えば、1又は2以上の3−D特徴を含む)を視覚することができる。3−D画像40は、ウェアラブル可視化デバイス16から物理的に離れた又はそれから独立した、物理的環境内に位置する3−Dディスプレイシステム42の3−Dディスプレイ上に提示される。従って、ユーザ14は、ウェアラブル可視化デバイス16によって規定される第1の焦点面内のAR画像28と、別個の3−Dディスプレイによって規定される第2の焦点面内の3−D画像40とを同時に可視化することができる。ユーザ14がAR画像28及び3−D画像40を同時に視覚的に処理することを可能にするために、視覚組立体18は、視覚組立体18内で動作可能に結合された3−D視覚構成要素を含む。図2及び図3を参照してより詳細に説明するように、3−D視覚構成要素は、ユーザ14が、3−Dディスプレイシステム42によって提示された3−D画像40を知覚することを可能にするようにユーザ14の各眼に適合された3−D視覚構成要素部を含む。すなわち、第1の3−D視覚構成要素部は、1つの表示部30、32に関連することができ、第2の3−D視覚構成要素部は、もう一方の表示部30、32に関連することができる。以下でより詳細に説明するように、3−D画像40は、視覚組立体18の3−D視覚構成要素が、1又は複数のアナグリフフィルタ、偏光フィルタ、液晶層などを含むような、任意の好適な受動的又は能動的3−D形式でウェアラブル可視化デバイス16を介してユーザ14に提供される。
カメラ44及び46が、ウェアラブル可視化デバイス16の本実施形態に含まれ、それぞれユーザ14の視点に対応する物理的環境のリアルタイムビデオデータ(例えば、ライブビデオ)又は周囲光信号を取り込む。他の実施形態では、ウェアラブル可視化デバイス16は、単一のカメラを使用することができる。ウェアラブル可視化デバイス16はまた、幾つかの実施形態では、ユーザの眼の動きを追跡するための追加のカメラを含むこともでき、このことは、特に、仮想特徴がユーザ14の眼に直接投影される実施形態に有用とすることができる。
幾つかの実施形態では、ウェアラブル可視化デバイス16の通信特徴部50(例えば、無線トランシーバを含む)は、それぞれのカメラ44、46を介して取り込まれたリアルタイムデータ(例えば、ビデオデータ、アイトラッキングデータ)をウェアラブル可視化デバイス16の他の構成要素、又は処理のためにこのデバイスに結合されたシステムに送信することができる。ウェアラブル可視化デバイス16の他の特徴部は、ウェアラブル可視化デバイス16のセンサを介して得られたデータに基づいて得られ及び/又は導出された向きデータ、位置データ、視点データ(例えば、焦点距離、向き、ポーズ)、モーショントラッキングデータなどを送信することができる。このようなセンサは、方位センサ及び位置センサ(例えば、加速度計、磁力計、ジャイロスコープ、全地球測位システム[GPS]受信機)、モーショントラッキングセンサ(例えば、電磁及び固体モーショントラッキングセンサ)、慣性計測ユニット(IMU)、及びその他を含むことができる。特定の実施形態では、ウェアラブル可視化デバイス16の特徴部(例えば、幾何学的態様又はマーキング)は、ウェアラブル可視化デバイス16の位置、場所、及び向きなど、及びその結果ユーザ14のこれらのものを特定するように監視システム58(例えば、1又は2以上のカメラ)によって監視することができる。監視システム58は、コンピュータグラフィックス生成システム60に通信可能に結合されており、ユーザ14(又は複数のユーザ)の位置、場所、向きなどを識別するのに使用することができる。
図示のように、ウェアラブル可視化デバイス16の通信特徴部50を介して、ウェアラブル可視化デバイス16は、無線ネットワーク64に沿って、3−Dディスプレイシステム42、監視システム58、コンピュータグラフィックス生成システム60、及びマスターコントローラ62に通信可能に結合される。無線ネットワーク64は、無線ローカルエリアネットワーク(WLAN)、無線ワイドエリアネットワーク(WWAN)、近距離無線通信(NFC)、メッシュタイプネットワークなどを含むことができる。実際には、メッシュ型ネットワークを有する無線ネットワーク64の実施形態では、本明細書で説明する様々な表示可能コンテンツは、AR及び3−D視覚システム10及び/又はユーザ14の現在の状態又は状況に対して反射的又は自動的にローカライズすることができる。本実施形態では、無線ネットワーク64は、AR及び3−D視覚システム10の各構成要素を通信可能に結合するが、他の実施形態では、AR及び3−D視覚システム10の1又は複数の構成要素は、有線接続によって通信可能に結合することができる。従って、監視システム58、3−Dディスプレイシステム42、コンピュータグラフィックス生成システム60、及びマスターコントローラ62は、各々、それぞれの通信特徴部65、66、68、70を含み、これらの通信特徴部は、3−Dディスプレイシステム42、監視システム58、コンピュータグラフィックス生成システム60、及びマスターコントローラ62が、無線ネットワーク経由でウェアラブル可視化デバイス16に対してデータ及び/又は制御信号を転送することを可能にする。
ここで、ウェアラブル可視化デバイス16に通信可能に結合された構成要素をより詳細にみると、AR及び3−D視覚システム10のコンピュータグラフィックス生成システム60は、ウェアラブル可視化デバイス16を介してユーザ14に提示されるAR画像28を生成することに関与する。例えば、本実施形態のコンピュータグラフィックス生成システム60は、遊園地内に位置決めされて、ユーザ14に関連する様々な因子に基づいてAR画像28を生成するサーバ又はゲームコントローラである。従って、コンピュータグラフィックス生成システム60は、一般に、無線ネットワーク64を介して受け取った特定の入力に基づいてAR画像28をレンダリングするかなり高い処理能力を有するシステムである。例えば、幾つかの実施形態では、コンピュータグラフィックス生成システム60は、ウェアラブル可視化デバイス16及び/又は監視システム58から受け取ったリアルタイムビデオデータ(例えば、ライブビデオ)、向き及び位置データ、視点データ、又はこれらの任意の組み合わせを処理する。
具体的には、コンピュータグラフィックス生成システム60は、これらのデータを使用して、物理的環境に、例えば、ウェアラブル可視化デバイス16を通してユーザが視覚できる現実世界画像26にAR画像28を登録するための参照フレームを生成することができる。次に、コンピュータグラフィックス生成システム60は、向きデータ、位置データ、視点データ、モーショントラッキングデータなどに基づいて生成された参照フレームを使用して、ウェアラブル可視化デバイス16を着用していない場合にユーザ14が知覚するものと時間的且つ空間的に整合した方法でAR画像28の視覚をレンダリングすることができる。コンピュータグラフィックス生成システム60は、AR画像28のレンダリングを絶えず(例えば、リアルタイムで)更新して、それぞれのユーザ14のそれぞれの向き、位置、及び/又は動きの変化を反映することができる。
特定の実施形態では、コンピュータグラフィックス生成システム60は、搭乗者乗り物車両内に位置決めされる。コンピュータグラフィックス生成システム60は、複数のユーザ14(例えば、搭乗者乗り物車両の搭乗者)に対応するデータを追跡することができ、ここで、各ユーザ14(又は少なくとも一部のユーザ14)は、対応するウェアラブル可視化デバイス16を有する。幾つかの実施形態では、コンピュータグラフィックス生成システム60は、搭乗者乗り物車両内部の各ウェアラブル可視化デバイス16を介して表示されるAR画像28を生成する。AR画像28の生成後又はその生成中、コンピュータグラフィックス生成システム60は、ウェアラブル可視化デバイス16の視覚組立体18上に表示されるAR画像28(例えば、AR画像28を示すデータ)をリアルタイムでウェアラブル可視化デバイス16に提供する。他の実施形態では、コンピュータグラフィックス生成システム60は、マスターコントローラ62などと組み合わせてウェアラブル可視化デバイス16に含めることができる。
更に、AR及び3−D視覚システム10の3−Dディスプレイシステム42は、ユーザ14が体験する超現実的環境24に寄与するように3−D画像40を表示することに関与する。幾つかの実施形態では、3−D画像40は、3−Dディスプレイシステム42のメモリから取り出されるが、他の実施形態では、コンピュータグラフィックス生成システム60が、ウェアラブル可視化デバイス16及び3−Dディスプレイシステム42の両方によって共有されて、コンピュータグラフィックス生成システム60が、3−D画像40を生成して、この3−D画像40(例えば、3−D画像を示すデータ)を3−Dディスプレイシステム42に送信するようになる。追加的に、幾つかの実施形態では、3−Dディスプレイシステム42は、3−D画像40を生成するためのこのシステム自体のコンピュータグラフィックス生成システム60を含む。以下でより詳細に説明するように、3−Dディスプレイシステム42は、プロジェクタスクリーン又は電子ディスプレイデバイスなどの別個の固定ディスプレイを含み、符号化された2次元(2−D)画像が、このディスプレイ上でユーザ14に提示される。本明細書に示されているように、符号化された2−D画像は、任意の好適な3−D視覚技術により奥行きを知覚することができる物体の任意の好適な平面描写を含む。例えば、符号化された2−D画像は、1又は複数の物体の平坦なオフセットされた遠近法画像を含むことができ、この遠近法画像は、立体視デバイス又は解読デバイス又は解読構成要素を通して視覚された場合に、1又は複数の物体に奥行きの錯覚を与える。解読デバイス又は解読構成要素なしで視覚された場合には、符号化された2−D画像は、一般に、ぼやけている場合、又は識別できない場合がある。従って、ウェアラブル可視化デバイス16の視覚組立体18を通して、符号化された2−D画像を視覚することによって、ユーザ14は、符号化された2−D画像を3次元として視覚的に解読し、3−D画像40が明らかになる。本実施形態は、簡潔にするために3−D画像40をユーザ14に提示又は表示することに関して説明されることがあるが、ユーザ14に提示される画像は、一般に、奥行きがウェアラブル可視化デバイスを介して知覚されるこれらの2−D描写を含むことを理解されたい。実際には、本明細書でより詳細に説明するように、3−D画像40は、現実世界画像26へのオーバーレイとしてAR画像28と組み合わせて知覚され、従って、高められた視覚体験が、ユーザ14に提供される。
AR及び3−D視覚システム10の本実施形態のマスターコントローラ62(例えば、ショーコントローラ)は、本明細書に開示されるAR及び3−D視覚システム10の構成要素の動作を協働する。例えば、マスターコントローラ62は、無線ネットワーク64経由でコンピュータグラフィックス生成システム60、3−Dディスプレイシステム42、及びウェアラブル可視化デバイス16に制御信号を供給する。一般に、本実施形態のマスターコントローラ62は、コンピュータグラフィックス生成システム60に、AR画像28を生成してこの画像をウェアラブル可視化デバイス16に提供するように指示する。幾つかの実施形態では、マスターコントローラ62は、コンピュータグラフィックス生成システム60に、3−D画像40を生成してこの画像を3−Dディスプレイシステム42に提供するように指示する。更に、マスターコントローラ62は、ウェアラブル可視化デバイス16に、AR画像28をユーザ14に提示するように指示し、3−Dディスプレイシステム42に、3−D画像40をユーザ14に提示するように指示し、これら各々は、制御された方法、状況にあった方法、及び/又は個別化された方法で行われる。AR及び3−D視覚システム10の例示的な実施形態について図2及び図3を参照して以下に説明する。
図2は、AR及び3−D視覚システム10内のウェアラブル可視化デバイス16の1つの実施形態の部分分解概略図を示している。図示のように、ウェアラブル可視化デバイス16は、ユーザ14がウェアラブル可視化デバイス16によって提示されたAR画像28と、3−Dディスプレイシステム42によって提示された3−D画像40とを同時に視覚することを可能にするための視覚組立体18を含む。ウェアラブル可視化デバイス16が着用されたときに、視覚組立体18は、第1の表示部30がユーザ14の第1の眼の前にあり、第2の表示部32がユーザ14の第2の眼の前にある状態でユーザ14の眼の前に保持される。図2には、表示部30、32は個別に図示されていない。
視覚組立体18の構成要素をより良く理解できるようにするために、最初に、AR画像28を視覚組立体18に投影するように動作するウェアラブル可視化デバイス16の構成要素の動作に関する詳細が本明細書で提示される。すなわち、ウェアラブル可視化デバイス16は、視覚組立体18を介したAR画像28の表示を容易にするための特定の電子部品を含む。例えば、図示の実施形態では、ウェアラブル可視化デバイス16は、プロセッサ102及びメモリ104などの処理回路100を含む。プロセッサ102は、メモリ104に動作可能に結合されて、現在開示されている技法、例えば、AR画像28(例えば、仮想特徴又は画像)の提示又はレンダリングを行うための命令を実行する。幾つかの実施形態では、これらの命令は、メモリ104及び/又は他のストレージなどの有形の非一時的コンピュータ可読媒体に格納されたプログラム又はコードに符号化される。プロセッサ102は、汎用プロセッサ、システムオンチップ(SOC)デバイス、特定用途向け集積回路(ASIC)、又は他の幾つかの類似のプロセッサ構成とすることができる。
追加的に、ウェアラブル可視化デバイス16の通信特徴部50は、プロセッサ102に動作可能に結合されて、ウェアラブル可視化デバイス16が、無線ネットワークを介してコンピュータグラフィックス生成システム60、マスターコントローラ62、及び/又は3−Dディスプレイシステム42と通信することを可能にする。例えば、本実施形態のコンピュータグラフィックス生成システム60は、プロセッサ110(例えば、汎用プロセッサ又は他のプロセッサ)及びメモリ112を含み、これらは両方とも、通信特徴部68に動作可能に結合される。コンピュータグラフィックス生成システム60は、一般に、ウェアラブル可視化デバイス16よりも大量の処理能力を含むので、コンピュータグラフィックス生成システム60は、ウェアラブル可視化デバイス16を介して表示されるAR画像28を生成すること、並びに無線ネットワーク64経由でウェアラブル可視化デバイス16にAR画像28を送信することができる。複数のウェアラブル可視化デバイス16を含む実施形態では、コンピュータグラフィックス生成システム60は、各ウェアラブル可視化デバイス16にAR画像28を提供することができる。
更に、ウェアラブル可視化デバイス16のプロセッサ102は、AR画像28を示す光122を生成してこの光をウェアラブル可視化デバイス16の視覚組立体18に投影するマイクロプロジェクタ120(例えば、光源、OLEDディスプレイデバイス)に動作可能に結合される。幾つかの実施形態では、ウェアラブル可視化デバイス16は、ユーザ14の各眼に対して1つのマイクロプロジェクタを含むことができることを理解されたい。マイクロプロジェクタ120からの光122を受け取って、この光を、AR画像28を可視化するユーザ14の眼に向け直すために、ウェアラブル可視化デバイス16の視覚組立体18は、ウェアラブルディスプレイ124(例えば、第1のディスプレイ、近視野ディスプレイ)を含む。平坦な又は矩形の構成要素として示されているが、ウェアラブルディスプレイ124、及び視覚組立体18の他の構成要素は、光122をユーザ14の眼に向けるのに適した任意の曲率を含むことができることを理解されたい。表示部30、32に関して上記で紹介したように、ウェアラブルディスプレイ124は、以下に説明する3−D画像40を表す光を含む物理的環境から放射された周囲光がユーザ14の眼に到達することを可能にするのに十分に透明である半透過型(例えば、部分的に半透明な、部分的に反射する)構成要素である。視覚組立体18の反射特性を更に高めるために、半反射コーティング130又はフィルムが、本実施形態の視覚組立体18内部に配置される。より具体的には、半反射コーティング130は、本実施形態では、ウェアラブルディスプレイ124のユーザに面する表面132とユーザ14との間に配置される。半反射コーティング130は、ユーザ14が、マイクロプロジェクタ120によってウェアラブルディスプレイ124に投影されたAR画像28を知覚することを可能にする任意の好適な材料とすることができる。
ウェアラブル可視化デバイス16の3−D視覚機能に関して、ウェアラブル可視化デバイス16は、ユーザが3−D画像40を知覚することを可能にする3−D視覚構成要素140を含む。例えば、本実施形態では、視覚組立体18の3−D視覚構成要素140は、ユーザ14に提示された3−D画像40を光学的に復号する受動的3−Dレンズ142を含む。受動的3−Dレンズ142は、幾つかの実施形態では、ウェアラブルディスプレイ124に施されるコーティング、又はウェアラブルディスプレイ124に隣接して保持された可撓性フィルムである。追加的に、ウェアラブルディスプレイ124の環境に面する表面144に隣接して配置されるように示されているが、3−D視覚構成要素140は、視覚組立体18内部の他の任意の好適な構成で位置決めできることを理解されたい。
一般に、3−D視覚構成要素140は、視覚組立体18の第1の表示部30用の第1のフィルタと、異なる光学特性又は品質を含む、視覚組立体の第2の表示部32用の第2のフィルタとを含む。例えば、幾つかの実施形態では、3−D視覚構成要素140は、第1の表示部30用の第1のアナグリフレンズ又はフィルタ(例えば、青色フィルム)と、第2の表示部32用の第2のアナグリフレンズ又はフィルタ(例えば、赤色フィルム)とを含む光フィルタリングレンズ組立体又は3−Dフィルタリング層である。他の実施形態では、3−D視覚構成要素140は、第1の表示部30用の第1の偏光(例えば、時計回り、垂直)を有する第1の偏光レンズと、第2の表示部32用の第2の反対の偏光(例えば、反時計回り、水平)を有する第2の偏光レンズとを含む光フィルタリングレンズ組立体又は3−Dフィルタリング層である。従って、3−D視覚構成要素140は、波長フィルタリング又は偏光フィルタリングを利用して、ユーザ14による視覚のために3−D画像40を調整する。従って、ウェアラブル可視化デバイス16が着用されたときに、3−D視覚構成要素140は、3−D画像40の第1の遠近法画像又はその一部分をユーザ14の片方の眼に提供し、3−D画像40の第2のオフセットされた遠近法画像又はその一部分をユーザ14のもう一方の眼に提供する。相対的にオフセットされた画像は、オフセットされた画像間のオフセットの大きさに基づいて変化する指定焦点距離で3−D画像40を可視化するユーザ14に奥行きの知覚を提供する。
視覚組立体18はまた、3−D視覚構成要素140の環境に面する表面152に隣接して配置されたアンチグレアコーティング150又はフィルタを含むこともできる。アンチグレアコーティング150は、視覚組立体18を通る強烈な光源からの光の透過を低減する任意の好適な半不透明又は遮光材料であり、この光は、それ以外の場合に、AR画像28及び3−D画像40を不明瞭にすることになる。他の実施形態では、アンチグレアコーティング150が省略されて、及び/又はユーザ14が帽子の縁部を着用して、視覚組立体18へのグレアが低減される。更に、視覚組立体18のコーティングは、視覚組立体18が、ユーザ14が3−D画像40を適切に可視化することを可能にするのに十分に、本明細書に記載の3−Dディスプレイシステム42からの光に対して透明であり、ユーザ14がAR画像28を適切に可視化することを可能にするのに十分に、マイクロプロジェクタ120からの光122を反射するという条件で、互いに対して任意の適切な順序で配置できることを理解されたい。
ユーザ14が3−Dディスプレイシステム42に面しているときに、3−Dディスプレイシステム42は、3−D画像40を示す光を視覚組立体18に向ける。3−D画像40をユーザ14に提示するために、3−Dディスプレイシステム42は、ウェアラブル可視化デバイス16から離れた固定ディスプレイ160(例えば、第2のディスプレイ、リモートディスプレイ)を含む。本実施形態では、固定ディスプレイ160は、プロジェクタスクリーン161又は壁面又は投影面であり、その面上に、3−Dディスプレイシステム42のプロジェクタ162(例えば、3−Dプロジェクタ)が3−D画像40を重ね合わせる。プロジェクタ162は、プロセッサ164に動作可能に結合され、無線ネットワーク64に通信可能に結合されたプロセッサ164、メモリ166、発光デバイス168、及び通信特徴部66を含む。発光デバイス168は、プロセッサ164によって提供される命令に応答して、3−D画像40を表す光170を固定ディスプレイ160に選択的に向けるレンズ、光源、及び/又はレーザーからなる任意の適切なシステムである。実際には、本明細書で説明するように、発光デバイス168は、複数のユーザ14向けに個別化された3−Dコンテンツを表示することができる多重化レンズ又は任意の他の好適な多重化構成要素を含むことができる。追加的に、プロセッサ164は、3−D画像40を示すデータをメモリ166から取り出して、発光デバイス168に、3−D画像40を表す光170を生成するように指示する。他の実施形態では、発光デバイス168は、コンピュータグラフィックス生成システム60から、プロジェクタ162の入力/出力デバイス内部に配置された記憶構成要素などから、3−D画像40を示すデータを受け取ることができる。
3−Dディスプレイシステム42は、現実世界環境内で静止している固定ディスプレイ160に関して本明細書で説明されているが、固定ディスプレイ160及び/又はプロジェクタ162は、幾つかの実施形態では、移動可能であり得ることを理解されたい。例えば、固定ディスプレイ160及び/又はプロジェクタ162は、搭乗者乗り物車両に取り付けること、進路に沿って移動可能であること、又は任意の好適なアクチュエータによって位置を調整することができる。このような実施形態では、アクチュエータは、固定ディスプレイ160及び/又はプロジェクタ162の動きを協働するための制御信号をマスターコントローラ62から受け取ることができる。
マスターコントローラ62によって協働されたAR及び3−D視覚システム10の動作中、AR画像28は、ウェアラブルディスプレイ124に関連する第1の焦点面180内に表示され、3−D画像40は、固定ディスプレイ160に関連する第2の焦点面182内に表示される。すなわち、マスターコントローラ62は、プロセッサ184、メモリ186、及び通信特徴部70を含んで、タイミング信号又は制御信号をウェアラブル可視化デバイス16及び3−Dディスプレイシステム42に供給する。このタイミング信号に基づいて、ウェアラブル可視化デバイス16及び3−Dディスプレイシステム42は、それぞれ、ユーザ14が同時に可視化するAR画像28及び3−D画像40を生成する。固定ディスプレイ160は、現実世界環境内に位置決めされ、ウェアラブルディスプレイ124は、ユーザ14の動きによって使用されてその動きによって移動するので、第1の焦点面180及び第2の焦点面182は、互いに独立している。すなわち、一方の焦点面180、182の位置決めは、もう一方の焦点面180、182の位置決めに影響を与えないので、例示の実施形態では、焦点面180、182は互いに異なる。従って、ユーザ14は、複数の焦点面でコンテンツを可視化して、従来型ウェアラブル可視化デバイスを使用することによって提供される体験よりも現実的な仮想コンテンツ視覚体験を楽しむことができる。
図3は、AR及び3−D視覚システム10内部で使用されるウェアラブル可視化デバイス16の別の実施形態の部分分解概略図を示している。ウェアラブル可視化デバイス16は、視覚組立体18を通して、ユーザ14が、ウェアラブルディスプレイ124に提示されたAR画像28及び3−Dディスプレイシステム42によって提示された3−D画像40を、図2のウェアラブル可視化デバイス16の動作と実質的に同様の方法で視覚することを可能にする。しかしながら、図2のウェアラブル可視化デバイス16の受動的3−Dレンズ142の代わりに、本実施形態の3−D視覚構成要素140は、能動的シャッタリングシステム200(例えば、能動的シャッタリングレンズを有する)である。一般に、受動的3−Dシステムと比較して、能動的シャッタリングシステム200は、ユーザ14に表示される3−D画像40を調整及びカスタマイズするための、カスタマイズ可能な追加の層、又は制御ハンドルを提供する。すなわち、本発明の実施形態の能動的シャッタリングシステム200は、本明細書で説明するように、ユーザ14によって視覚される3−D画像40に対するより更なる制御及びカスタマイズを提供するように、ウェアラブル可視化デバイス16によって制御可能である。
より具体的には、本実施形態の能動的シャッタリングシステム200は、視覚組立体18内部に配置された液晶層202(例えば、多重化コーティング又は多重化機能)を含む。図示のように、液晶層202は、ウェアラブルディスプレイ124と半反射コーティング130との間に位置決めされる。他の実施形態では、液晶層202は、視覚組立体18の半反射コーティング130、ウェアラブルディスプレイ124、及び/又はアンチグレアコーティング150の動作を妨げない、視覚組立体18内部の任意の他の好適な位置に配置することができる。例えば、液晶層202は、幾つかの実施形態では、ウェアラブルディスプレイ124とアンチグレアコーティング150との間に位置決めされる。
液晶層202は、ウェアラブル可視化デバイス16のプロセッサ102によって出力された制御信号(例えば、電圧源、電源)に応答して調整される光学特性を有する制御可能素子である。更に、本実施形態の液晶層202は、ウェアラブル可視化デバイス16の第1表示部30用の第1の液晶層部分と、ウェアラブル可視化デバイス16の第2の表示部32用の第2液晶層部分との間に分割される。すなわち、制御信号の適用に基づいて、液晶層202の各液晶層部分は、不透明状態と半透明の半透明状態との間で調整される。従って、液晶層202の液晶層部分に供給される制御信号を受け取ることに応答して、視覚組立体18は、一方の表示部30、32をシャッタで開き(例えば、透明にする)、もう一方の表示部30、32をシャッタで閉じる(例えば、不透明にする)ことができる。従って、能動的シャッタリングシステム200液晶層202は、光の向き又は波長に基づくのではなく、光が放射される時間に基づいて、ユーザ14が視覚できる光をフィルタリングする3−Dフィルタリング層である。
他の実施形態では、液晶層202は、制御信号がプロセッサ102によって供給されない場合に不透明とすることができ、制御信号の適用又は受信に応答して透明になる。幾つかの実施形態では、液晶層部分は、液晶層202への制御信号の適用により、第1の液晶層が不透明になり、その一方、第2の液晶層が透明になり、制御信号を適用しない場合には、第2の液晶層が不透明になり、その一方、第1の液晶層部分が半透明になるように、反対の状態配向を有する。これらの実施形態では、両方の液晶層部分を変更するための単一の制御信号への依存は、能動的シャッタリングシステム200が同期しなくなる可能性の低下をもたらすことができる。
図示の実施形態では、ウェアラブル可視化デバイス16は更に、プロセッサ102と液晶層202との間に動作可能に結合された電源206を含む。従って、プロセッサ102は、制御信号を液晶層202に選択的に供給する電源206の動作を制御するための制御信号を供給する。幾つかの実施形態では、電源206は、マイクロプロジェクタ120などのウェアラブル可視化デバイス16の他の構成要素にエネルギーを供給するのと同じ電源206である。電源206によって供給される制御信号に応答して、液晶層202の液晶層部分の光学特性が選択的に調整される。他の実施形態では、プロセッサ102は、電源206に依存することなく、直接、制御信号を液晶層202に供給する。
AR及び3−Dディスプレイシステム42の動作中、能動的シャッタリングシステム200は、液晶層202の液晶層部分をシャッタリングし、その一方、3−Dディスプレイシステム42は、任意の好適な多重化構成要素及び/又はプロセスなどにより、固定ディスプレイ160に提示される3−D画像40を交互にする。すなわち、3−Dディスプレイシステム42によって提示される3−D画像40は、能動的シャッタリングシステム200のシャッタリングと協働して、相対的にオフセットされた画像間で急速に変化する。従って、ユーザ14の左眼及び右眼は、各々、互いにオフセットされた、3−Dディスプレイシステム42からの画像のそれぞれの遠近法画像を受け取る。従って、ユーザ14は、3−D画像40の異なる遠近法画像から奥行きを知覚することができ、3−D画像が3次元として明らかになる。幾つかの実施形態では、3−Dディスプレイシステム42及び能動的シャッタリングシステム200は、60ヘルツ、100ヘルツ、120ヘルツ、又は任意の十分に高いリフレッシュレート(例えば、1秒あたりのバッファ更新)で画像をシャッタリング又は変更し、それによって、ユーザ14は、リアルタイムで、現実的な方法で、又は本物そっくりの方法で3−D画像40を視覚することができるようになる。上述したように、3−D画像40は、ウェアラブルディスプレイ124上に提示されたAR画像28と組み合わせて視覚される。
能動的シャッタリングシステム200を介して3−D画像40をユーザ14に表示するために、AR及び3−D視覚システム10は、固定ディスプレイ160として電子ディスプレイデバイス210(例えば、テレビ画面)を有する3−Dディスプレイシステム42の実施形態を含む。本実施形態の電子ディスプレイデバイス210は、図2のプロジェクタ162を参照して上述したように、メモリ166及び通信特徴部66に動作可能に結合されたプロセッサ164を含む。プロジェクタ162と同様に、電子ディスプレイデバイス210はまた、多重化信号を、複数のユーザ14に別々に提示される複数の信号に分割することを可能にする任意の好適なマルチプレクサデバイス及び/又はデマルチプレクサデバイスを含むこともできる。通信特徴部66は、電子ディスプレイデバイス210が、無線ネットワーク64を介してコンピュータグラフィックス生成システム60、マスターコントローラ62、及びウェアラブル可視化デバイス16と通信することを可能にする任意の好適なトランシーバ又はアンテナである。電子ディスプレイデバイス210の固定ディスプレイ160は、電子ディスプレイデバイス210のメモリ166内に格納されたデータに基づいて3−D画像40を表示する。しかしながら、他の実施形態では、3−D画像40は、コンピュータグラフィックス生成システム60によって生成されて、リアルタイムデータストリームとして無線ネットワーク64を介して電子ディスプレイデバイス210に送信される。従って、電子ディスプレイデバイス210の固定ディスプレイ160は、ユーザ14がウェアラブル可視化デバイス16を通して3−D画像40を知覚することを可能にする交互の方法で3−D画像40のオフセットされた画像をユーザ14に提示する。
3−Dディスプレイシステム42の電子ディスプレイデバイス210はまた、IR信号、同期信号、又はタイミング信号などのシャッタリング信号をウェアラブル可視化デバイス16の受信機122(例えば、IR受信機)に送信する送信機220(例えば、赤外線[IR]送信機)を含む。送信機220からのシャッタリング信号に基づいて、ウェアラブル可視化デバイス16は、3−D画像のオフセットされた画像の切り替えにより、ウェアラブル可視化デバイス16の各表示部30、32に対して液晶層202の液晶層部分のシャッタリングを協働又は整列させる。従って、ウェアラブル可視化デバイス16及び固定ディスプレイ160は、フィードフォワード及び/又はフィードバックを使用して、実質的に同じリフレッシュレート(例えば、5%以内)で、互いに協働して動作するように制御することができる。
本明細書で認識されるように、より高いリフレッシュレートでの3−Dディスプレイシステム42の動作は、AR画像28と組み合わせて提示される3−D画像40のより現実的な視覚を与える。更に、十分に高いリフレッシュレートで動作する場合に、能動的シャッタリングシステム200を3−D視覚構成要素140として使用することにより、AR及び3−D視覚システム10は、以下でより詳細に説明するように、ウェアラブル可視化デバイス16を通して固定ディスプレイ160を視覚する各ユーザ14に対して、又はこれらのユーザ14の各グループに対して、固定ディスプレイ160に提示されるコンテンツを個別化することができるようになる。一般に、個別化されたコンテンツは、3−Dディスプレイシステムのリフレッシュレートを60ヘルツで除算した値、又は別の好適なリフレッシュレート閾値に等しい数のグループに対して提示されて、各グループが、リフレッシュレート閾値で又はそれを上回ってコンテンツを受け取るようになる。
複数のユーザ14に3−Dコンテンツを提供するためのAR及び3−D視覚システム10の例として、図4は、各々が、遊園地250内部で図3を参照して説明したウェアラブル可視化デバイス16のうちの1つを着用している2人のユーザ14を示している。上述したように、ウェアラブル可視化デバイス16の各々は、ウェアラブルディスプレイ124(例えば、第1のディスプレイ、第3のディスプレイ)のうちの1つと、上述した3−D視覚構成要素140のうちの1つとを含む。従って、ウェアラブル可視化デバイス16のうちの1つは、第1の3−D視覚構成要素140を含み、ウェアラブル可視化デバイス16のうちのもう一方は、第2の3−D視覚構成要素140を含む。ユーザ14は、ローラーコースタ又はダークライドなどのスリルライド256の乗り物経路254(例えば、進路)に沿って移動可能な搭乗者乗り物車両252内にいる。図示の実施形態では、周囲の物理的環境260を通る乗り物経路254は、追加の遊園地アトラクション262(例えば、観覧車)、公園施設のモール264(例えば、ゲームエリア、ホテル、レストラン、土産物店)、及び物理環境260の他の要素の視野内で提供される。
3−Dディスプレイシステム42は、物理的環境260内部に配置されて、乗り物経路254から視覚できる第1の電子ディスプレイデバイス270及び第2の電子ディスプレイデバイス272を含む。複数の電子ディスプレイデバイス270、272を含むことにより、AR及び3−D視覚システム10は、ユーザ14がスリルライド256の一部の継続時間又は全継続時間を通して3−D画像40を知覚することを可能にする。3−Dディスプレイシステム42の電子ディスプレイデバイス270、272は、本実施形態では、固定されているか又は不動であり、搭乗者乗り物車両252が、電子ディスプレイデバイス270、272の固定ディスプレイ160(例えば、第2のディスプレイ)を通過して乗り物経路254に沿って移動できるようになる。他の実施形態では、電子ディスプレイデバイス270、272は、搭乗者乗り物車両252が静止している間、移動可能とすることができる。追加的に、幾つかの実施形態では、プロジェクタスクリーン161及びプロジェクタ162は、電子ディスプレイデバイス270、272に加えて又はそれに代わる手段として、3−D画像をユーザ14提示するのに使用できることを理解されたい。
電子ディスプレイデバイス270、272は、一般に、図3を参照して上述した電子ディスプレイデバイス210と同様の方法で動作し、従って、各々は、ウェアラブル可視化デバイス16の能動的シャッタリングシステム200の動作を協働する送信機220を含む。3−Dディスプレイシステム42の送信機220は、制御信号を各ユーザ14のウェアラブル可視化デバイス16に送信して、ウェアラブル可視化デバイス16が、事前に定められ制御された方法で視覚組立体18をシャッタリングすることを可能にする。従って、ユーザ14は、各々、それぞれの電子ディスプレイデバイス270、272の固定ディスプレイ160に関連する焦点面でそれぞれの電子ディスプレイデバイス270、272からの3−D画像40を知覚することができる。本明細書で使用される焦点面は、ウェアラブル可視化デバイス16の光軸に垂直であり、焦点面内で焦点を合わせられた物体を横切る面を指す。言い換えると、3−D画像40の特定の点からの光線は、ユーザ14の網膜上の対応する点に向けられる前に、集束するか、又は焦点を通過する。更に、幾つかの実施形態では、この焦点は、焦点にある点(focal point)であり、一般に、焦点距離だけウェアラブル可視化デバイス16の焦点から離れている。
ウェアラブル可視化デバイス16のうちの1つを着用したときに、各ユーザ14は、ウェアラブル可視化デバイス16によって提示されたAR画像28を視覚することができる。追加的に、ウェアラブル可視化デバイス16のうちの1つを着用し、電子ディスプレイデバイス270、272のうちの1つに面するか又はその方に向くときに、各ユーザ14は、それぞれの電子ディスプレイデバイス270、272によって提示された3−D画像40を視覚することができる。すなわち、各ウェアラブル可視化デバイス16の能動的シャッタリングシステム200は、各ユーザ14のウェアラブル可視化デバイス16の2つの表示部30、32の間をシャッタリングして、各ユーザ14が3−D画像40を知覚することを可能にする。上述したように、1つのウェアラブル可視化デバイス16の能動的シャッタリングシステム200は、1つの液晶層202(例えば、第1の能動的シャッタリングレンズ)を利用し、もう一方のウェアラブル可視化デバイス16の能動的シャッタリングシステム200は、別の液晶層202(例えば、第2の能動的シャッタリングレンズ)を含む。
幾つかの実施形態では、ユーザ14は、個別化された3−D画像40が各々に提供される(例えば、電子ディスプレイデバイス270、272のマルチプレクサデバイス及び/又はデマルチプレクサデバイスを介して)異なるグループに割り当てることができる。幾つかの実施形態では、ユーザ14のこれらのグループの各々に関するテーマは、ユーザ14が割り当てられているチーム、ユーザ14に関連するチケット、ユーザ14の身長、ユーザ14の年齢(例えば、データベースから取り出されたもの)、ユーザ14が着用している衣類の色(例えば、物理的環境260内のカメラによって識別されたもの)などの1又は2以上の因子に基づいて選択される。図4及び図6を参照してより詳細に説明するように、ウェアラブル可視化デバイス16の能動的シャッタリングシステム200は、ユーザ14の各グループ向けの3−D画像40が、電子ディスプレイデバイス270、272上で交互になって又は多重化されて、ユーザ14の各グループに異なる3−D画像40を提示しながら、ユーザ14の各グループのウェアラブル可視化デバイス16を順次作動させることができる。ユーザ14の各グループのウェアラブル可視化デバイス16を介して表示されるAR画像28は、各ユーザ14に表示される3−D画像40に対応するように同時に調整される。従って、各ユーザ14は、スリルライド256上で異なる又は個別化されたテーマを体験することができる。
図5は、遊園地のゲスト(例えば、ユーザ14)にAR及び3−D拡張機能を提供するための処理300の1つの実施形態のフローチャートを示している。処理300は、スリルライド256などの遊園地体験中にAR及び3−D体験をもたらす有用とすることができる。処理300は、非一時的コンピュータ可読媒体(例えば、メモリ104、112、166、186)に格納され、例えば、ウェアラブル可視化デバイス16のプロセッサ102、コンピュータグラフィックス生成システム60のプロセッサ110、3−Dディスプレイシステム42のプロセッサ164、及び/又はマスターコントローラ62のプロセッサ184によって実行される開始コード又は開始命令を表すことができる。プロセッサ102、110、164、及び/又は184は、無線ネットワーク64などのネットワーク経由で通信可能に結合されて、以下に説明する命令を送受信することができる。
処理300は、ユーザ14に関連するウェアラブル可視化デバイス16を介して表示されるAR画像28を生成するステップ(ブロック302)から開始する。すなわち、上述したように、コンピュータグラフィックス生成システム60が、AR画像28を生成するが、他の実施形態では、AR画像28は、ウェアラブル可視化デバイス16のプロセッサ102又はマスターコントローラ62のプロセッサ184によって生成される。幾つかの実施形態では、コンピュータグラフィックス生成システム60によって生成されたAR画像28は、ユーザ14向けに個別化又はカスタマイズされる。例えば、幾つかの実施形態では、コンピュータグラフィックス生成システム60は、ユーザに関連するグループ、乗り物経路254に沿ったユーザ14の位置、ユーザ14の向き、又はユーザ14に関連する任意の他の好適なセンサデータに基づいて、特にユーザ14に表示されるようにAR画像28生成する。AR画像28の生成中又は生成後、コンピュータグラフィックス生成システム60は、無線ネットワーク64経由でAR画像28をウェアラブル可視化デバイス16に送信する。
処理300は、ウェアラブル可視化デバイス16を介してユーザ14にAR画像28を表示するステップ(ブロック304)を含む。すなわち、マイクロプロジェクタ120は、AR画像28を示す光122を生成してこの光をウェアラブル可視化デバイス16のウェアラブルディスプレイ124に向ける。ウェアラブル可視化デバイス16のウェアラブルディスプレイ124は半透過型であるため、光122の少なくとも一部分は、AR画像28を可視化するユーザ14の眼に反射される。従って、AR画像28は、ウェアラブル可視化デバイス16のウェアラブルディスプレイ124に関連する第1の焦点面180でユーザ14が視覚できる特徴の第1の層を提供する。
処理300の図示の実施形態はまた、3−Dディスプレイシステム42の固定ディスプレイ160を介してユーザ14に表示される3−D画像40を示すデータを受け取るステップ(ブロック306)を含む。上述したように、3−Dディスプレイシステム42の固定ディスプレイ160が電子ディスプレイデバイス210によって提供される場合の幾つかの実施形態では、電子ディスプレイデバイス210のプロセッサ164が、3−D画像40を示すデータを電子ディスプレイデバイス210のメモリ166から受け取る。固定ディスプレイ160がプロジェクタスクリーン161であり、3−Dディスプレイシステム42がプロジェクタ162を含む場合の幾つかの実施形態では、プロジェクタ162が、3−D画像40を示すデータをプロジェクタ162のメモリ166から受け取る。他の実施形態では、コンピュータグラフィックス生成システム60は、3−D画像40を示すデータを生成してこのデータをプロジェクタ162及び/又は3−Dディスプレイシステム42の電子ディスプレイデバイス210に直接提供する。追加的又は代替的に、3−D画像40を示すデータは、プロジェクタ162又は電子ディスプレイデバイス210の入力/出力ポートから受け取られること、又はデータベースから取り出されることなどが可能である。
処理300は更に、ウェアラブル可視化デバイス16を介して3−D画像40を表示するステップ(ブロック308)を含む。3−Dディスプレイシステム42は、電子ディスプレイデバイス210又はプロジェクタスクリーン161に関連する固定ディスプレイ160上に3−D画像40を提示する。幾つかの実施形態では、ブロック306及び308は、同時に実行されて、3−D画像40が、プロセッサ164によって受け取られて、リアルタイムで3−Dディスプレイシステム42の固定ディスプレイ160に表示できるようになることを理解されたい。AR画像28及び3−D画像40は、乗り物経路254に沿った搭乗者乗り物車両252の位置又は場所(例えば、又は、乗り物経路が存在しない場合の他の場所)を含む1又は複数の因子に基づいて、スリルライド256の循環中の任意の所与の時点で、スリルライド256の循環中に搭乗者乗り物車両252が移動した所定の距離で、所定時間経過後、又はユーザ14が1又は2以上の行為を行った後などに、表示することができる。
ユーザ14は、3−Dディスプレイシステム42の固定ディスプレイ160でウェアラブル可視化デバイス16の3−D視覚構成要素140を通して見ることによって、固定ディスプレイ160に関連する第2の焦点面182で3−D画像40を視覚することができる。本明細書で認識されるように、3−D画像40は、AR画像28と組み合わされて、ユーザ14が体験するスリルライド256のテーマに寄与するようにユーザ14に表示される。従って、3−D画像40は、表示されたAR画像によって提供される特徴の第1の層の向こうで視覚できる特徴の第2の層を提供する。幾つかの実施形態では、マスターコントローラ62は、ウェアラブル可視化デバイス16及び3−Dディスプレイシステム42の動作を協働して(例えば、フィードフォワード制御により)、連続的な多次元体験を提供する。
3−D視覚構成要素140として液晶層202を含む能動的シャッタリングシステム200を有するウェアラブル可視化デバイス16の実施形態では、処理300の本実施形態の、3−Dディスプレイシステム42を介して3−D画像40を表示するステップ(ブロック308)は、点線のボックス310内に表される追加のステップを含む。すなわち、幾つかの実施形態では、処理300は、3−Dディスプレイシステム42の送信機220から協働信号を受け取るステップ(ブロック312)を含む。ウェアラブル可視化デバイス16の受信機222は、任意の好適な速度又は周波数で送信機220からこの協働信号を受け取る。幾つかの実施形態では、受信機222は、ウェアラブル可視化デバイス16が、送信機220に向けられている場合と、それに向けられていない場合との両方で協働信号を受け取る。3−Dディスプレイシステム42を介して3−D画像40を表示するステップ(ブロック308)はまた、幾つかの実施形態では、協働信号に基づいてウェアラブル可視化デバイス16の液晶層202をシャッタリングするステップ(ブロック314)を含む。言い換えると、3−Dディスプレイシステム42が、ユーザ14が3−D画像40を知覚することを可能にするように表示される3−D画像40の交互の遠近法画像を提示しながら、ウェアラブル可視化デバイス16が、視覚組立体18の各表示部30、32の液晶層部分を交互にシャッタで開くか又はそれを閉じる。
図4を参照して上記で紹介したような複数の固定ディスプレイ160を有する幾つかの実施形態では、ウェアラブル可視化デバイス16は、ユーザ14が面している固定ディスプレイ160上で視覚できる3−D画像40と協働する特定のAR画像28を生成することができる。従って、ウェアラブル可視化デバイス16の受信機222は、ウェアラブル可視化デバイス16が向けられている3−Dディスプレイシステム42の固定ディスプレイ160から受け取られた協働信号を利用することができる。幾つかの実施形態では、マスターコントローラ62は、送信機220として機能し、マスターコントローラは省略できる。このような実施形態では、マスターコントローラ62は、マスタースレーブ制御アルゴリズムに従う(例えば、追加のタイミング構成要素なしで)タイミング信号又は制御信号を固定ディスプレイ160に供給する。従って、3−Dディスプレイシステム42の1又は複数の固定ディスプレイ160は、ユーザ14が、第2の焦点面182内で3−D画像40を知覚しながら、同時に、第1の焦点面180内でAR画像を知覚できるように、3−D画像40を表示することができる。更に、液晶層202を有する幾つかの実施形態では、この液晶層202は、ウェアラブルディスプレイ124に表示されるAR画像28に対応するように又はそれをミラーリングするように個別に且つ選択的に作動できる様々な画素部分に分割することができる。従って、液晶層202は、不透明になって周囲光を遮断し、コントラストを高めて、AR画像28がより効果的に視覚されるように制御することができる。
図6は、能動的シャッタリングシステム200を有するウェアラブル可視化デバイス16を利用して、複数のユーザ14にAR及び3−D体験を提供するための処理340の1つの実施形態のフローチャートを示している。処理340は、ユーザ14毎に個別化されたAR及び3−D体験をもたらすのに有用とすることができる。処理300と同様に、処理340は、非一時的コンピュータ可読媒体(例えば、メモリ104、112、166、186)に格納され、例えば、ウェアラブル可視化デバイス16のプロセッサ102、3−Dディスプレイシステム42のプロセッサ164、コンピュータグラフィックス生成システム60のプロセッサ110、及び/又はマスターコントローラ62のプロセッサ18によって実行される開始コード又は開始命令を表すことができる。プロセッサ102、110、164、及び/又は184は、無線ネットワーク64又は任意の他の好適な通信構成要素を介して互いに通信可能に結合されて、以下に説明する命令を送受信する。
本明細書に示されるように、処理340は、処理300と同様であるが、より具体的には、能動的シャッタリングシステム200を備えたウェアラブル可視化デバイス16を有する複数のユーザ14に個別化されたAR及び3−D体験を提供することを対象とする。例えば、処理340は、第1のユーザ14及び第2のユーザ14向けにそれぞれのAR画像28を生成するステップ(ブロック342)を含む。処理300のブロック302と同様に、各ユーザ14向けのAR画像28は、各ユーザ14に関連する特定の因子に基づいてコンピュータグラフィックス生成システム60によって生成される。例えば、AR画像28は、ユーザ14が面している方向、搭乗者乗り物車両252内部のユーザ14の位置、各ユーザ14が割り当てられているグループ、乗り物経路254に沿った搭乗者乗り物車両252の位置に基づいて生成することができる。処理300のブロック304と同様に、処理340は更に、各ユーザ14に関連するそれぞれのウェアラブル可視化デバイス16を介してAR画像28を表示するステップ(ブロック344)を含む。このようにして、第1のユーザ14は、第1のユーザ14向けにカスタマイズされたAR画像28の第1のセットを視覚することができ、第2のユーザ14は、第2のユーザ14向けにカスタマイズされたAR画像28の第2のセットを視覚することができる。
3−D画像40を表示するステップに関して、処理300のブロック306と同様に、処理340は、各ユーザ14に表示される3−D画像40を示すデータを受け取るステップ(ブロック346)を含む。例えば、電子ディスプレイデバイス270、272は、電子ディスプレイデバイス270、272のそれぞれのメモリ166から表示される3−D画像40を取り出す。他の実施形態では、コンピュータグラフィックス生成システム60は、各ユーザ14に関連するウェアラブル可視化デバイス16によって収集されたセンサデータに基づいて、各ユーザ14に対してその場で3−D画像40を生成し、次に、この3−D画像40を電子ディスプレイデバイス270、272に提供する。幾つかの実施形態では、3−D画像40は、ユーザ14に個別化されて表示されるように3−Dディスプレイシステム40によって逆多重化された多重化信号として3−Dディスプレイシステム42に提供される。
更に、処理340は、3−Dディスプレイシステム42からの協働信号を受け取るステップ(ブロック348)を含む。すなわち、ウェアラブル可視化デバイス16の受信機222は、電子ディスプレイデバイス270、272の送信機220から協働信号を受け取る。処理340の本実施形態はまた、ウェアラブル可視化デバイス16のそれぞれの能動的シャッタリングシステム200を協働するステップ(ブロック350)を含む。すなわち、ウェアラブル可視化デバイス16の能動的シャッタリングシステム200は、カスタマイズされた3−D画像40を各ユーザ14に提供するように特定の順序で順次作動する(例えば、開かれる、透明になる)。例えば、能動的シャッタリングシステム200は、第1の時間期間中の第1のユーザ14(又はユーザのグループ)のウェアラブル可視化デバイス16の能動的シャッタリングレンズの第1の表示部30、第2の時間期間中の第2のユーザ14のウェアラブル可視化デバイス16の能動的シャッタリングレンズの第1の表示部30、第3の時間期間中の第1のユーザ14のウェアラブル可視化デバイス16の能動的シャッタリングレンズの第2の表示部32、及び第4の時間期間中の第2のユーザ14のウェアラブル可視化デバイス16の能動的シャッタリングレンズの第2の表示部32のうちの1つを順次作動させるように協働することができる。このシーケンスは、各眼部分が毎秒50回から100回の間作動するように、高速で繰り返すことができる。本明細書に示されるように、幾つかの実施形態では、第1、第2、第3、及び第4の時間期間は、互いにオフセットされている。同時に、処理340は、ユーザ14によって視覚されることになるそれぞれの3−D画像40を電子ディスプレイデバイス270、272上に表示するステップ(ブロック352)を含む。各ユーザ14のウェアラブル可視化デバイス16を介して表示されるAR画像28は、各ユーザ14に表示される3−D画像40に対応するように同時に調整される。
言い換えると、能動的シャッタリングシステム200を有するウェアラブル可視化デバイス16の実施形態に関して、2又は3以上の時間重複した3−Dプレゼンテーションが、単一の固定ディスプレイ160からでさえ、ほぼ同時にユーザ14に提示されて、第1のユーザ14向けの個別化された3−D画像40(例えば、1又は2以上の解読された3−D特徴)と、第2のユーザ14向けの個別化された3−D画像40(例えば、1又は2以上の第2の解読された3−D特徴)とを提供することができる。2人のユーザ14に関して説明しているが、処理340に関して説明したものと同様の概念が、任意の好適な数のユーザ14又はユーザ14のグループに個別化された3−D及びARコンテンツを提供するのに利用できることを理解されたい。従って、本明細書に開示されるAR及び3−D視覚システムは、スリルライド256のテーマを適応的に調整して又は任意の他の好適な環境に寄与して、複数の焦点面を介してユーザ14に個別化された没入型コンテンツを提供することができる。
本明細書では、幾つかの実施形態のみを図示し説明したが、当業者には多くの修正及び変更が思い浮かぶであろう。従って、添付の特許請求の範囲は、本発明の実際の趣旨に該当するような全ての修正及び変更を含むものであると理解されたい。
本明細書に示して特許請求する技術は、本技術分野を確実に改善する、従って抽象的なもの、無形のもの又は純粋に理論的なものではない実際的性質の有形物及び具体例を参照し、これらに適用される。更に、本明細書の最後に添付する何れかの請求項が、「...[機能]を[実行]する手段」又は「...[機能]を[実行]するステップ」として指定されている1又は2以上の要素を含む場合、このような要素は米国特許法112条(f)に従って解釈すべきである。一方で、他の何れかの形で指定された要素を含むあらゆる請求項については、このような要素を米国特許法112条(f)に従って解釈すべきではない。
10 AR及び3−D視覚システム
14 ユーザ
16 ウェアラブル可視化デバイス
18 視覚組立体
26 現実世界画像
28 AR画像
40 3−D画像
42 3−Dディスプレイシステム
58 監視システム
60 コンピュータグラフィックス生成システム
62 マスターコントローラ

Claims (20)

  1. 拡張現実(AR)及び3次元(3−D)体験をユーザに提供するためのAR及び3−D視覚システムであって、
    前記ユーザがそれを通して現実世界環境を視覚することができる視覚組立体を含むウェアラブル可視化デバイスを備え、
    前記視覚組立体が、
    1又は2以上のAR特徴を表示するように構成された第1のディスプレイと、
    前記ユーザが、1又は2以上の符号化された2次元(2−D)画像を1又は2以上の解読された3−D特徴として知覚することを可能にする3−D視覚構成要素と、
    を含み、
    前記AR及び3−D視覚システムが更に、
    前記1又は2以上の符号化された2−D画像を表示するように構成された第2のディスプレイを含み、前記現実世界環境内に配置された固定3−Dディスプレイシステムを備える、
    ことを特徴とするAR及び3−D視覚システム。
  2. 前記3−D視覚構成要素は、前記第1のディスプレイ上に配置された光フィルタリングコーティングを備える、請求項1に記載のAR及び3−D視覚システム。
  3. 前記光フィルタリングコーティングは、前記第1のディスプレイの第1の部分用の第1のアナグリフレンズフィルタと、前記第1のディスプレイの第2の部分用の第2のアナグリフレンズフィルタとを備える、請求項2に記載のAR及び3−D視覚システム。
  4. 前記光フィルタリングコーティングは、前記第1のディスプレイの第1の部分用の第1の偏光レンズフィルタと、前記第1のディスプレイの第2の部分用の第2の偏光レンズフィルタとを備える、請求項2に記載のAR及び3−D視覚システム。
  5. 前記3−D視覚組立体は、能動的シャッタリングシステムを備える、請求項1に記載のAR及び3−D視覚システム。
  6. 前記能動的シャッタリングシステムは、前記第1のディスプレイに隣接して配置された液晶層を備え、前記液晶層の第1の部分は、制御信号に応答して不透明になるように構成され、前記液晶層の第2の部分は、前記制御信号に応答して透明になるか又は透明のままであるように構成される、請求項5に記載のAR及び3−D視覚システム。
  7. 前記固定3−Dディスプレイシステムは、前記1又は2以上の符号化された2−D画像を前記第2のディスプレイに送信するように構成されたプロジェクタを備え、前記第2のディスプレイは、プロジェクタスクリーンを備える、請求項1に記載のAR及び3−D視覚システム。
  8. 前記固定3−Dディスプレイシステムは、前記1又は2以上の符号化された2−D画像生成及び表示するように構成された電子ディスプレイデバイスを備える、請求項1に記載のAR及び3−D視覚システム。
  9. 第2の視覚組立体を含む第2のウェアラブル可視化デバイスを備え、前記第2の視覚組立体は、
    1又は2以上の第2のAR特徴を表示するように構成された第3のディスプレイと、
    前記固定3−Dディスプレイシステムが1又は2以上の第2の符号化された2−D画像を表示することに応答して、第2のユーザが、前記1又は2以上の第2の符号化された2−D画像を1又は2以上の第2の解読された3−D特徴として知覚することを可能にする第2の3−D視覚組立体と、
    を備える、請求項1に記載のAR及び3−D視覚システム。
  10. 前記1又は2以上の解読された3−D特徴は、前記ユーザ向けに個別化され、前記1又は2以上の第2の解読された3−D特徴は、前記第2のユーザ向けに個別化される、請求項9に記載のAR及び3−D視覚システム。
  11. 前記3−D視覚構成要素は、前記第1のディスプレイに隣接して配置された能動的シャッタリングレンズを備え、前記第2の3−D視覚構成要素は、前記第3のディスプレイに隣接して配置された第2の能動的シャッタリングレンズを備え、前記固定3−Dディスプレイシステムは、前記能動的シャッタリングレンズ及び前記第2の能動的シャッタリングレンズが、前記第2のディスプレイのリフレッシュレートと同期することを可能にする信号を送信するように構成された送信機を備える、請求項9に記載のAR及び3−D視覚システム。
  12. 前記視覚組立体は、
    第1の時間期間中に前記能動的シャッタリングレンズの第1の表示部を作動させ、第2の時間期間中に前記能動的シャッタリングレンズの第2の表示部を作動させるように構成され、
    前記第2の視覚組立体は、
    第3の時間期間中に前記第2の能動的シャッタリングレンズの第1の表示部を作動させ、第4の時間期間中に前記第2の能動的シャッタリングレンズの第2の表示部を作動させるように構成されており、
    前記第1、第2、第3、及び第4の時間期間は、互いにオフセットされ、前記1又は2以上の解読された3−D特徴及び前記1又は2以上の第2の解読された3−D特徴は互いに異なる、請求項11に記載のAR及び3−D視覚システム。
  13. 拡張現実(AR)及び3次元(3−D)体験をユーザに提供するためのウェアラブル可視化デバイスであって、
    前記ユーザが現実世界環境を視覚することができる視覚組立体を備え、
    前記視覚組立体が、
    1又は2以上のAR特徴を表示するように構成された第1のディスプレイと、
    前記第1のディスプレイの第1の眼部分用の第1の3−Dフィルタリング層及び前記第1のディスプレイの第2の眼部分用の第2の3−Dフィルタリング層を含む3−D処理組立体と、
    を含み、
    前記第1の3−Dフィルタリング層及び前記第2の3−Dフィルタリング層が協働して、前記ユーザが、第2のディスプレイ上に表示される1又は2以上の符号化された2次元(2−D)画像を1又は2以上の解読された3−D特徴として知覚することを可能にし、前記第2のディスプレイは、前記ウェアラブル可視化デバイスから分離されている、
    ことを特徴とする、ウェアラブル可視化デバイス。
  14. 前記1又は2以上の符号化された2−D画像は、物体の相対的にオフセットされた遠近法画像を含み、前記3−D処理組立体は、前記ユーザが、前記物体の前記オフセットされた遠近法画像からの奥行きを有するものとして前記物体を知覚することによって、前記1又は2以上の符号化された2−D画像を光学的に復号することを可能にする、請求項13に記載のウェアラブル可視化デバイス。
  15. 前記第1の3−Dフィルタリング層は、第1の光学的効果を有する第1のコーティングを備え、前記第2の3−Dフィルタリング層は、前記第1の光学的効果と異なる第2の光学的効果を有する第2のコーティングを備える、請求項13に記載のウェアラブル可視化デバイス。
  16. 前記第1の光学的効果は、波長フィルタリング又は偏光フィルタリングを含む、請求項15に記載のウェアラブル可視化デバイス。
  17. 前記第1の3−Dフィルタリング層は、第1の能動的シャッタリングレンズを備え、前記第2の3−Dフィルタリング層は、第2の能動的シャッタリングレンズを備える、請求項13に記載のウェアラブル可視化デバイス。
  18. 拡張現実(AR)及び3次元(3−D)体験をユーザに提供するためのAR及び3−D視覚システムであって、
    前記ユーザが、それを通して現実世界環境を視覚することができる視覚組立体を含むウェアラブル可視化デバイスを備え、
    前記視覚組立体が、
    第1の焦点面内に1又は2以上のAR特徴を表示するように構成された第1のディスプレイと、
    前記ユーザが、1又は2以上の符号化された2次元(2−D)画像を、前記第1の焦点面と互いに独立した第2の焦点面内で1又は2以上の解読された3−D特徴として知覚することを可能にする3−D視覚構成要素と、
    を含み、
    前記AR及び3−D視覚システムが更に、
    前記1又は2以上の符号化された2−D画像を表示するように構成された第2のディスプレイを含み、前記現実世界環境内に配置された3−Dディスプレイシステムを備える、ことを特徴とするAR及び3−D視覚システム。
  19. 前記ユーザの向き、前記ユーザの位置、前記ユーザの動き、又はこれらの組み合わせに基づいて、前記1又は2以上のAR特徴及び前記1又は2以上の符号化された2−D画像を生成するように構成されたプロセッサを備える、請求項18に記載のAR及び3−D視覚システム。
  20. 前記ウェアラブル可視化デバイス及び前記3−Dディスプレイシステムと動作可能に通信して、前記1又は2以上のAR特徴及び前記1又は2以上の符号化された2−D画像の提示を協働するように構成されたプロセッサを備える、請求項18に記載のAR及び3−D視覚システム。
JP2021516819A 2018-09-27 2019-09-18 娯楽環境内のディスプレイシステム Active JP7331090B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862737275P 2018-09-27 2018-09-27
US62/737,275 2018-09-27
US16/174,263 US10777012B2 (en) 2018-09-27 2018-10-29 Display systems in an entertainment environment
US16/174,263 2018-10-29
PCT/US2019/051777 WO2020068520A1 (en) 2018-09-27 2019-09-18 Display systems in an entertainment environment

Publications (3)

Publication Number Publication Date
JP2022502699A true JP2022502699A (ja) 2022-01-11
JPWO2020068520A5 JPWO2020068520A5 (ja) 2022-09-02
JP7331090B2 JP7331090B2 (ja) 2023-08-22

Family

ID=69946387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021516819A Active JP7331090B2 (ja) 2018-09-27 2019-09-18 娯楽環境内のディスプレイシステム

Country Status (8)

Country Link
US (1) US10777012B2 (ja)
EP (1) EP3856379B1 (ja)
JP (1) JP7331090B2 (ja)
KR (1) KR20210062690A (ja)
CN (1) CN112739438B (ja)
CA (1) CA3111588A1 (ja)
SG (1) SG11202102101YA (ja)
WO (1) WO2020068520A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11774770B2 (en) * 2020-06-03 2023-10-03 Universal City Studios Llc Interface device with three-dimensional (3-D) viewing functionality
US11794121B1 (en) * 2020-12-09 2023-10-24 Falcon's Beyond Brands, Llc Theme or amusement park attraction using high frame rate active shutter technology
CN112904473A (zh) * 2021-01-28 2021-06-04 武汉华星光电技术有限公司 导光板、背光模组、头戴显示设备
USD1023209S1 (en) 2022-05-26 2024-04-16 Sally Industries, Inc. Indoor amusement ride

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160011422A1 (en) * 2014-03-10 2016-01-14 Ion Virtual Technology Corporation Method and system for reducing motion blur when experiencing virtual or augmented reality environments
US20170280134A1 (en) * 2016-03-24 2017-09-28 3Di Llc Trackable glasses system that provides multiple views of a shared display
US20170323482A1 (en) * 2016-05-05 2017-11-09 Universal City Studios Llc Systems and methods for generating stereoscopic, augmented, and virtual reality images

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2154000A (en) 1998-12-07 2000-06-26 Universal City Studios, Inc. Image correction method to compensate for point of view image distortion
US20100079585A1 (en) 2008-09-29 2010-04-01 Disney Enterprises, Inc. Interactive theater with audience participation
US8427590B2 (en) 2009-05-29 2013-04-23 Soraa, Inc. Laser based display method and system
FR2955409B1 (fr) 2010-01-18 2015-07-03 Fittingbox Procede d'integration d'un objet virtuel dans des photographies ou video en temps reel
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
JP5499854B2 (ja) * 2010-04-08 2014-05-21 ソニー株式会社 頭部装着型ディスプレイにおける光学的位置調整方法
US8890941B2 (en) * 2010-04-29 2014-11-18 Virginia Venture Industries, Llc Methods and apparatuses for viewing three dimensional images
US9994228B2 (en) 2010-05-14 2018-06-12 Iarmourholdings, Inc. Systems and methods for controlling a vehicle or device in response to a measured human response to a provocative environment
US20120004919A1 (en) 2010-06-30 2012-01-05 Broadcom Corporation Three-dimensional glasses with bluetooth audio decode
US9946076B2 (en) 2010-10-04 2018-04-17 Gerard Dirk Smits System and method for 3-D projection and enhancements for interactivity
US20130063560A1 (en) * 2011-09-12 2013-03-14 Palo Alto Research Center Incorporated Combined stereo camera and stereo display interaction
US20130083008A1 (en) 2011-09-30 2013-04-04 Kevin A. Geisner Enriched experience using personal a/v system
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US10514542B2 (en) 2011-12-19 2019-12-24 Dolby Laboratories Licensing Corporation Head-mounted display
CN103472909B (zh) 2012-04-10 2017-04-12 微软技术许可有限责任公司 用于头戴式、增强现实显示器的逼真遮挡
JP5483761B2 (ja) * 2012-06-29 2014-05-07 株式会社ソニー・コンピュータエンタテインメント 映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法
JP5891125B2 (ja) * 2012-06-29 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
KR101209854B1 (ko) 2012-09-11 2012-12-11 신동호 시뮬레이터용 3차원 운동장치
US10371943B2 (en) 2013-03-14 2019-08-06 Valve Corporation Method and system to control the focus depth of projected images
US10019057B2 (en) * 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US20150358539A1 (en) 2014-06-06 2015-12-10 Jacob Catt Mobile Virtual Reality Camera, Method, And System
WO2016025962A1 (en) 2014-08-15 2016-02-18 The University Of Akron Device and method for three-dimensional video communication
US9690375B2 (en) 2014-08-18 2017-06-27 Universal City Studios Llc Systems and methods for generating augmented and virtual reality images
CN105828021A (zh) 2015-01-05 2016-08-03 沈阳新松机器人自动化股份有限公司 基于增强现实技术的特种机器人图像采集控制方法及系统
US20160371884A1 (en) 2015-06-17 2016-12-22 Microsoft Technology Licensing, Llc Complementary augmented reality
US9918074B2 (en) 2015-06-18 2018-03-13 Disney Enterprises, Inc. Three dimensional (3D) stereo display systems for creating 3D effects for viewers wearing 3D glasses
CN205003369U (zh) 2015-09-10 2016-01-27 上海理鑫光学科技有限公司 三维增强现实系统
US11112266B2 (en) 2016-02-12 2021-09-07 Disney Enterprises, Inc. Method for motion-synchronized AR or VR entertainment experience
AU2017236893A1 (en) * 2016-03-21 2018-09-06 Washington University Virtual reality or augmented reality visualization of 3D medical images
CN106101689B (zh) 2016-06-13 2018-03-06 西安电子科技大学 利用手机单目摄像头对虚拟现实眼镜进行增强现实的方法
KR102568897B1 (ko) * 2016-08-16 2023-08-21 삼성전자주식회사 전자 장치 및 그 제어 방법
CN106371586B (zh) 2016-08-24 2018-10-26 同济大学 一种互动区域可调的增强现实实现方法
CN106331682B (zh) 2016-08-24 2018-05-11 同济大学 一种互动区域可调的增强现实云台系统
DE102016215860A1 (de) 2016-08-24 2018-03-01 Siemens Aktiengesellschaft Trackingloses projektionsbasiertes "Augmented Reality [AR]"-Verfahren und -System zur Montageunterstützung von Produktionsgütern, insbesondere zum Lokalisieren von Nutensteinen für die Bauteilmontage im Waggonbau
CN106371211B (zh) 2016-10-18 2018-08-24 上海蓝眸多媒体科技有限公司 一种基于透明成像玻璃的增强现实眼镜
CN106371210B (zh) 2016-10-18 2018-05-25 上海蓝眸多媒体科技有限公司 一种基于透明成像玻璃的增强现实眼镜
CN206584583U (zh) 2016-10-19 2017-10-24 华南理工大学 基于增强现实和生物反馈的驾驶培训系统
CN106693361A (zh) 2016-12-23 2017-05-24 武汉市马里欧网络有限公司 一种基于超声波手势识别的ar换装游戏投影方法及系统
CN206348604U (zh) 2016-12-26 2017-07-21 岭南师范学院 一种基于增强现实的3d全息投影系统
CN106483814A (zh) 2016-12-26 2017-03-08 岭南师范学院 一种基于增强现实的3d全息投影系统及其使用方法
US10931940B2 (en) * 2016-12-30 2021-02-23 Holonyne Corporation Virtual display engine
CN107016730A (zh) 2017-04-14 2017-08-04 陈柳华 一种虚拟现实与真实场景融合的装置
CN107027015A (zh) 2017-04-28 2017-08-08 广景视睿科技(深圳)有限公司 基于增强现实的3d动向投影系统以及用于该系统的投影方法
CN206788558U (zh) 2017-05-10 2017-12-22 大连新锐天地传媒有限公司 一种基于增强现实的全息投影装置
CN107399276A (zh) 2017-07-28 2017-11-28 合肥芯福传感器技术有限公司 用于车辆安全倒车的ar投影系统及投影方法
CN207059896U (zh) 2017-07-28 2018-03-02 合肥芯福传感器技术有限公司 用于车辆安全倒车的ar投影系统
CN107561710A (zh) 2017-09-29 2018-01-09 塔普翊海(上海)智能科技有限公司 一种基于三维激光全息投影技术的头戴显示系统
CN107561714A (zh) 2017-10-25 2018-01-09 上海驾馥电子科技有限公司 一种通过3d显示技术增强现实的抬头显示器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160011422A1 (en) * 2014-03-10 2016-01-14 Ion Virtual Technology Corporation Method and system for reducing motion blur when experiencing virtual or augmented reality environments
US20170280134A1 (en) * 2016-03-24 2017-09-28 3Di Llc Trackable glasses system that provides multiple views of a shared display
US20170323482A1 (en) * 2016-05-05 2017-11-09 Universal City Studios Llc Systems and methods for generating stereoscopic, augmented, and virtual reality images

Also Published As

Publication number Publication date
EP3856379A1 (en) 2021-08-04
US10777012B2 (en) 2020-09-15
SG11202102101YA (en) 2021-04-29
JP7331090B2 (ja) 2023-08-22
US20200105061A1 (en) 2020-04-02
CN112739438A (zh) 2021-04-30
CA3111588A1 (en) 2020-04-02
EP3856379B1 (en) 2023-11-29
CN112739438B (zh) 2023-05-23
WO2020068520A1 (en) 2020-04-02
KR20210062690A (ko) 2021-05-31

Similar Documents

Publication Publication Date Title
US11670054B2 (en) Systems and methods for generating stereoscopic, augmented, and virtual reality images
CN110352085B (zh) 用于游乐园环境中的分层虚拟特征的系统和方法
US10606348B2 (en) Systems and methods for generating augmented and virtual reality images
CN111526929B (zh) 用于游乐园环境中的文本覆盖的系统和方法
JP7331090B2 (ja) 娯楽環境内のディスプレイシステム
KR20130097014A (ko) 확장형 3차원 입체영상 디스플레이 시스템
CA2784368A1 (en) A system and method for producing stereoscopic images
JP7497572B2 (ja) 遊園地環境における層状仮想特徴のためのシステム及び方法
JP2023529375A (ja) 3次元(3-d)視覚機能付きインタフェースデバイス

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230809

R150 Certificate of patent or registration of utility model

Ref document number: 7331090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150