JP7482881B2 - 娯楽用乗り物のための拡張現実システム - Google Patents

娯楽用乗り物のための拡張現実システム Download PDF

Info

Publication number
JP7482881B2
JP7482881B2 JP2021537849A JP2021537849A JP7482881B2 JP 7482881 B2 JP7482881 B2 JP 7482881B2 JP 2021537849 A JP2021537849 A JP 2021537849A JP 2021537849 A JP2021537849 A JP 2021537849A JP 7482881 B2 JP7482881 B2 JP 7482881B2
Authority
JP
Japan
Prior art keywords
guest
image
augmented reality
semi
transparent mirror
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021537849A
Other languages
English (en)
Other versions
JPWO2020139719A5 (ja
JP2022516853A (ja
Inventor
アキヴァ メイア クラウトハマー
Original Assignee
ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー filed Critical ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
Publication of JP2022516853A publication Critical patent/JP2022516853A/ja
Publication of JPWO2020139719A5 publication Critical patent/JPWO2020139719A5/ja
Application granted granted Critical
Publication of JP7482881B2 publication Critical patent/JP7482881B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J5/00Auxiliaries for producing special effects on stages, or in circuses or arenas
    • A63J5/02Arrangements for making stage effects; Auxiliary stage appliances
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/28Reflectors in projection beam
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示は、一般に拡張現実システムに関し、具体的には娯楽用乗り物のための拡張現実システムに関する。
いくつかの事例では、娯楽用乗り物(amusement ride)が、ゲストが見ることができる拡張現実ベースの(AR)イメージを表示することを含むことができる。例えば、娯楽用乗り物は、ゲストに隣接して配置されたディスプレイを含むことができる。ディスプレイは、ゲストが見るためにARイメージを出力することができる。乗り物によっては、ARイメージが3次元(3D)の場合もある。ゲストは、ゲストが正しく3D ARイメージを見て体験することを可能にする拡張現実ヘッドセット又はヘルメットを装着することができる。しかしながら、娯楽用乗り物のための従来のAR又は3D ARヘッドセット及びヘルメットは高価な場合がある。また、ARヘッドセットは、各ゲストによる使用後にクリーニングすることが必要な場合もある。従って、現在では、従来のARヘッドセットは娯楽用乗り物に関連する運用コスト及びその他の非効率性を高め、ゲストが体験する娯楽用乗り物の待ち行列時間を増やす恐れがあると認識されている。
本節は、以下で説明及び/又は特許請求する本技術の様々な態様に関連し得る技術の様々な態様を読者に紹介するためのものである。本考察は、読者に背景事情を示して本開示の様々な態様のより良い理解を促す上で役立つと考えられる。従って、これらの記載は、先行技術を認めるものとしてではなく、上記の観点から読むべきものであると理解されたい。
以下、開示する主題と同一範囲のいくつかの実施形態を要約する。これらの実施形態は、本開示の範囲を限定するものではなく、むしろいくつかの開示する実施形態の概要を示すものにすぎない。実際には、本開示は、以下に示す実施形態と類似し得る又は異なり得る様々な形態を含むことができる。
ある実施形態では、娯楽用乗り物のための拡張現実システムが、ゲストの位置を決定するゲスト追跡センサ(guest-tracking sensor)と、イメージ(imagery)を投影するプロジェクタと、イメージを拡張現実イメージとして反射する半透明ミラーと、プロセッサ及びメモリを含むコントローラとを含む。コントローラは、ゲスト追跡センサからゲストの位置を示すセンサ信号を受け取り、ゲストの位置に基づいてイメージデータ(image data)を生成し、イメージデータを示す制御信号をプロジェクタに出力する。プロジェクタは、イメージデータを示す制御信号に基づいてイメージを投影する。
ある実施形態では、娯楽用乗り物のための拡張現実イメージを生成する方法が、ゲストの位置のインジケーション(indication)を受け取るステップと、ゲストの位置のインジケーションを受け取ったことに応答して、ゲストの位置に基づくイメージデータを生成するステップとを含む。方法は、イメージデータに基づいて、半透明ミラー上にイメージを投影するステップと、イメージをゲストが見るために拡張現実イメージとしてゲストに向けて反射するステップとを含む。拡張現実イメージは、3Dアイウェアを通して見た時に3次元(3D)イメージのように見える。
ある実施形態では、娯楽用乗り物のための拡張現実システムが、ゲストの位置を決定するゲスト追跡センサと、イメージを投影する3次元(3D)プロジェクタと、イメージを拡張現実イメージとして反射する半透明ミラーと、3Dアイウェアと、プロセッサ及びメモリを含むコントローラとを含む。コントローラは、ゲスト追跡センサからゲストの位置を示すセンサ信号を受け取り、ゲストの位置に基づいてイメージデータを生成し、制御信号が、3Dプロジェクタに、イメージデータに基づいて半透明ミラー上にイメージを投影させるように、イメージデータを示す制御信号を3Dプロジェクタに出力する。
全体を通じて同じ部分を同じ符号によって示す添付図面を参照しながら以下の詳細な説明を読めば、本開示のこれらの及びその他の特徴、態様及び利点がより良く理解されるであろう。
本開示の態様による、拡張現実システムを有する娯楽用乗り物システムの実施形態の斜視図である。 拡張現実イメージを生成して表示する図1の拡張現実システムの実施形態の正面図である。 図1の拡張現実システムの実施形態のブロック図である。 本開示の態様による、図1の拡張現実システムを使用して拡張現実イメージを生成して表示するプロセスの実施形態のフローチャートである。
以下、1又は2以上の特定の実施形態について説明する。これらの実施形態を簡潔に説明するために、本明細書では実施の特徴を全て説明するわけではない。あらゆる工学又は設計プロジェクトにおいて見られるようなあらゆるこのような実施の開発では、実装によって異なり得るシステム関連及びビジネス関連の制約の順守などの開発者の個別の目的を達成するために、数多くの実施固有の決定を行わなければならないと理解されたい。さらに、このような開発努力は複雑かつ時間の掛かるものかもしれないが、本開示の恩恵を受ける当業者にとっては設計、製作及び製造という日常的な取り組みであると理解されたい。
本開示の様々な実施形態の要素を紹介する場合、「a」、「an」及び「the」といった冠詞は、これらの要素が1つ又は2つ以上存在することを意味するものとする。「含む(comprising)」、「含む(including)」及び「有する(having)」という用語は、包括的なものとして意図されており、列記する要素以外のさらなる要素が存在できることを意味する。また、本開示の「1つの実施形態」又は「ある実施形態」についての言及は、記載する特徴も含むさらなる実施形態の存在を排除するものとして解釈されるように意図するものではないと理解されたい。
拡張現実システムが、拡張現実ヘッドセットを使用せずに拡張現実効果を複製又はシミュレートするために、画面(又は投影画面)からのイメージを投影できるプロジェクタを含むことができる。イメージは、半透明ミラーによって拡張現実イメージとして反射することができる。ゲストは、3Dアイウェア(例えば、3Dメガネ)を使用して、拡張現実イメージを3Dイメージ又は3D環境として見ることができる。半透明ミラーは、ペッパーズゴースト効果(Pepper's ghost effect)を生み出すように、ゲストの顔及びプロジェクタに対して一定角度で配置することができる。ペッパーズゴースト効果は、観察者がミラー上の3Dイメージとミラーの反対側に位置する物体とを同時に見ることができるようにミラーを介してイメージを反射することを含む。ペッパーズゴースト効果は、3Dイメージを半透明ミラーの背後のいずれかの物体上に重なり合ったように見せることができる。さらに、ゲストの頭を追跡し、半透明ミラーに対するゲストの頭の位置と半透明ミラーの背後の物体とを使用して、半透明ミラー上に表示される3Dイメージを更新することができる。例えば、ゲストが頭を動かすと、3Dイメージは、3Dイメージの一部を互いに対して、及び半透明ミラーの背後の物体に対して正確に動かす視差効果を含むことができる(例えば、ゲストの近くに見える3Dイメージの部分は、ゲストから離れて見える3Dイメージの部分よりも大きく動くことができる)。このようにして、ゲストが拡張現実ヘッドセットの代わりに軽量3Dアイウェアしか装着していない時にも見ることができる拡張現実効果を生成することができる。
これらを踏まえて、拡張現実システムに関する本実施形態は、娯楽用乗り物又は娯楽システムにおいて利用することができる。例えば、図1は、拡張現実システム12を有する娯楽用乗り物システム10の実施形態の斜視図である。図示のように、娯楽用乗り物システム10は、拡張現実システム12、ビューイングエリア(viewing area)14、及びパフォーマンスエリア16を含む。ビューイングエリア14は、娯楽用乗り物システム10の(1又は複数の)ゲストが娯楽用乗り物システム10内に配置されている間に立ったり及び/又は座ったりするためのエリアを提供する。図示のように、ビューイングエリア14内にはゲスト18が立っている。パフォーマンスエリア16は、娯楽用乗り物システム10内のリアルな又は生きている(1又は複数の)物体20がパフォーマンスを行うためのエリアを提供する。図示の実施形態では、物体20が、パフォーマンスエリア16内に配置されたエンターテイナー(entertainer)を含む。パフォーマンスエリア16内の物体20(例えば、エンターテイナー)は、ゲスト18の視点から見ることができ、生きている物体(例えば、エンターテイナー)、無生物、機械(例えば、アニメキャラクタ、車両及びその他の移動システム)、及び/又はパフォーマンスにおいて使用できる他のいずれかの好適な物体を含むことができる。いくつかの実施形態では、パフォーマンスエリア16が存在しないこともでき、或いはパフォーマンスエリア16内に配置された物体20が存在しないこともできると理解されたい。さらに、本開示では娯楽用乗り物システム10を参照するが、開示する実施形態は、ゲストが移動できる乗り物又は車両だけでなく、ゲストが比較的固定された位置で立ったり又は座ったりすることができる劇場、ショー又は娯楽会場などのあらゆる好適な環境にも適用することができると理解されたい。
拡張現実システム12は、ゲスト18の視点から娯楽用乗り物10の特定の部分(例えば、物体20)と相互作用するように見える拡張現実イメージを含む特定の拡張現実効果を生成して娯楽用乗り物10内で提供することができる。図示のように、拡張現実システム12は、半透明ミラー22、プロジェクタ26、ゲスト追跡センサ32、及び3次元(3D)アイウェアアセンブリ34を含む。プロジェクタ26は、3Dアイウェアを通して見た時に3Dイメージ又は3D環境のように見えるイメージ36を投影することができる。例えば、プロジェクタ26は、一対の2Dイメージ(例えば、イメージ36)を特定のカラースキーム(例えば、それぞれ赤色及び青色)で投影する3Dプロジェクタとすることができる。これらの2Dイメージは、3Dアイウェア34を通して見た時に3D環境のように見えることができる。図示の実施形態では、プロジェクタ26からのイメージを反射するように角度を付けられた単一のプロジェクタが使用され、半透明ミラー22の下方に配置される。しかしながら、他の実施形態では、異なる配向の複数のプロジェクタを採用することもできる。
図示の実施形態では、プロジェクタ26が、概ね床面28と同じ垂直高さにある。しかしながら、いくつかの実施形態では、プロジェクタ26を床面28の下方、天井、障壁30上、又は他のいずれかの好適な位置に配置することもできる。さらに、プロジェクタ26は、ビューイングエリア14の床面28と概ね平行に配置することができ、及び/又は床面28よりも大幅に低い位置に(例えば、床面28よりも数メートル下方に)配置することができる。いくつかの実施形態では、プロジェクタ26が、LED(発光ダイオード)ディスプレイ、OLED(有機LED)ディスプレイ又はLCD(液晶ディスプレイ)などのいずれかの好適なタイプのディスプレイ又は画面を含むことができる。図示のように、プロジェクタ26は、ビューイングエリア14に対して障壁30の反対側に配置される。障壁30は、ゲスト18がビューイングエリア14内に配置されている間にゲスト18の視界からプロジェクタ26を隠すことができる。
プロジェクタ26は、半透明ミラー22上に拡張現実イメージ38を出現させることができる。例えば、半透明ミラー22は、イメージ36をゲスト18が見るために拡張現実イメージ38として反射することができる。従って、拡張現実イメージ38は、3Dアイウェア34を装着したゲスト18の視点から3D環境のように見える反射された一対の2Dイメージ(例えば、イメージ36)を含むことができる。また、半透明ミラー22は、ゲスト18が拡張現実イメージ38とパフォーマンスエリア16内の物体20とを同時に見ることができるように半透明とすることができる。半透明ミラー22は、(不透明な)拡張現実イメージ38の表示を可能にするがその他の場合は透明なままである、ガラス又は別の好適な材料で構成することができる。図示のように、拡張現実イメージ38は、風景39(例えば、木及び茂み)及び鳥40を含む。ゲスト18の視点からは、物体20が拡張現実イメージ38の一部であるように(又はこの逆であるように)見えることができ、また拡張現実イメージ38と相互作用する(例えば、風景39及び/又は鳥40と相互作用する)ように見えることができる。例えば、3Dアイウェア34を装着したゲスト18の視点からは、物体20が拡張現実イメージ38の3D環境の一部であるように見えることができる。いくつかの実施形態では、拡張現実イメージ38が、風景39及び鳥40に加えて又はこれらの代わりに、他のタイプのイメージ/物体(例えば、キャラクタ、天候、構造物、車両、標識)を含むこともできる。
このように、イメージ36は、拡張現実イメージ38として半透明ミラー22によって反射され、及び/又は半透明ミラー22上に投影される。ゲスト18は、娯楽用乗り物10内に位置して半透明ミラー22を見ている間、3Dアイウェア34を装着することができる。いくつかの実施形態では、3Dアイウェア34を、ゲスト18による装着及び取り外しを容易にする無線ヘッドセットとすることができる(例えば、3Dアイウェア34は、ゲスト18が3D環境を見ることを可能にする3Dメガネとすることができる)。ゲスト18は、ビューイングエリア14への入場前又は入場後に容易に3Dメガネを装着することができ、3Dアイウェア34を使用して物体20及び拡張現実イメージ38の3D環境を見ることができ、ビューイングエリア14からの退出時には容易に3Dメガネを取り外すことができる。ゲスト18は、ビューイングエリア14への入場時に3Dアイウェア34を提供され、ビューイングエリア14からの退出時に3Dアイウェア34を返却することができる。
プロジェクタ26及び半透明ミラー22は、ゲストの視点から拡張現実イメージ38が「リアル」に見えて半透明ミラー22が目に見えないように拡張現実イメージ38を提供することができる。いくつかの事例では、プロジェクタ26及び半透明ミラー22がペッパーズゴースト効果を生み出すことによってこれを行うことができる。すなわち、プロジェクタ26によって投影されたイメージ36が半透明ミラー22によって反射され、これがゲストの視点から拡張現実イメージ38として見える。半透明ミラー22の背後の物体20は、ゲストの視点からは拡張現実イメージ38の一部であるように見えることができる(例えば、拡張現実イメージ38の3D環境の一部であるように見えることができる)。
この効果(例えば、ペッパーズゴースト効果)を達成するために、半透明ミラー22は、プロジェクタ26に対して、半透明ミラー22がゲスト18が見るためにイメージ36を反射できる角度41で配置することができる。従って、角度41は、娯楽用乗り物システム10の特定の寸法(例えば、ゲスト18と半透明ミラー22との間の距離、半透明ミラー22及びプロジェクタ26の寸法、ビューイングエリア14及びパフォーマンスエリア16のサイズ、及びその他の要因)に応じて変化することができる。例えば、いくつかの実施形態では角度41を45度とすることができ、いくつかの実施形態では角度41を30度~60度の範囲とすることができる。いくつかの実施形態では、半透明ミラー22が床面から基本的に垂直に延びることができ、オーバーヘッドプロジェクタがイメージ36を提供することができる。
図1には、半透明ミラー22によって反射された拡張現実イメージ38を示しているが、いくつかの実施形態では、半透明ミラー22がプロジェクタ26を含んで、プロジェクタ26が半透明ミラー22上に直接拡張現実イメージ38を投影することもできる。すなわち、半透明ミラー22が「シースルー」型電子ディスプレイを含むことによって、ゲスト18がこれを通して物体20と拡張現実イメージ38とを同時に見ることを可能にすることができる。シースルーディスプレイは、ガラスなどのいずれかの好適な材料で形成することができ、LED、OLED又はLCDなどのいずれかの好適なディスプレイ技術を使用することができる。さらに、プロジェクタ26を含む半透明ミラー22は、3Dアイウェア34を通して見た時に拡張現実イメージ38を3D環境として提供することができる。
いくつかの実施形態では、プロジェクタ26を、半透明ミラー22によって反射される物理的物体に置き換えることができる。例えば、これらの物理的物体は、プロジェクタ26の同様の一般的位置に配置することができ、半透明ミラー22上で拡張現実イメージ38のように見えることができる。このような物理的物体は、アニメの顔及び/又は体を含むことができる。半透明ミラー22は、アニメの顔及び/又は体、並びにこれらの動きを反射することができる。また、パフォーマンスエリア16は、白地の物理的キャラクタを含むことができる。この白地の物理的キャラクタ上に、アニメの顔及び/又は体を重ね合わせることができる。従って、ゲスト18の視点から拡張現実イメージ38とパフォーマンスエリア16とを同時に見ると、物理的なアニメの顔及び/又は体がパフォーマンスエリア16内の実際の物体のように見えて、パフォーマンスエリア16内で動いているように見えることができる。
いくつかの実施形態では、パフォーマンスエリア16が、ゲスト18、及び/又はゲスト18に隣接する物体(例えば、ビューイングエリア14内の物体)を反射するミラーを含むことができる。ゲスト18は、ミラー上の反射されたイメージと半透明ミラー22上の拡張現実イメージ38とを同時に見ることができ、この結果、反射されたイメージ(例えば、ゲスト18、及びゲスト18に隣接する物体の反射されたイメージ)及び拡張現実イメージ38が、同じイメージ又はアニメーションの一部であるように見えるようになる。
ゲスト18と拡張現実システム12(例えば、ゲスト18が見る物体20及び拡張現実イメージ38)との間のさらなる相互作用を可能にするために、ゲスト追跡センサ32は、ゲストの視点から拡張現実イメージ38がリアルに見えて半透明ミラー22が見えないように(例えば、ペッパーズゴースト効果)ゲストの頭の位置に基づいて拡張現実イメージ38を修正又は維持することを容易にすることができる。具体的に言えば、例えば拡張現実イメージ38は、ゲスト18の位置に基づいて正しい視点を提供するように修正することができる。いくつかの実施形態では、ゲスト追跡センサ32が、ゲスト18の一般的位置、(例えば、視線を追跡するために使用される赤外光を介して)ゲスト18の目の位置、ゲスト18の顔の特徴の位置、及び/又はゲスト18の体の動きなどのゲスト18の他の部分の位置を決定することができる。図示のように、ゲスト追跡センサ32は、(例えば、破線44によって定められる)検出可能エリア42内のゲストの頭の位置を決定することができる。検出可能エリア42は、ビューイングエリア14の全部又は一部を含むことができる。いくつかの実施形態では、ゲスト追跡センサ32が、ゲスト18の位置を決定するために、ゲスト18を運ぶ車両の位置を決定することができる。図示のように、ゲスト追跡センサ32は、概ね半透明ミラー22の上方の梁46に取り付けられる。梁42は、娯楽用乗り物システム10の構造物の一部とすることができる。いくつかの実施形態では、ゲスト追跡センサ32を娯楽用乗り物システム10の他の部分(例えば、半透明ミラー22)に取り付けることもできる。
ゲスト追跡センサ32は、ゲストの頭又はゲスト18の別の部分の位置を決定するいずれかの好適なセンサを含むことができる。例えば、ゲスト追跡センサ32は、ゲストの頭、骨格的特徴、体の動き、目、顔の特徴、及び/又はゲスト18の他の部分を検出するカメラを含むことができる。いくつかの実施形態では、3Dアイウェア34が、ゲスト追跡センサ32によって検出可能なマーカーを含むことができる。例えば、マーカーは、クイックレスポンス(「QR」)コード、バーコード、又は別の検出可能なマーカー(例えば、赤外光を反射する逆反射マーク(retroreflective mark))を含むことができる。梁46上に配置された、又はゲスト18から離れて娯楽用乗り物システム10内の他の場所に配置されたゲスト追跡センサ32は、このマーカー(例えば、QRコード(登録商標)ゲストの頭の位置を決定することができる。さらに、本開示では全体を通じてゲストの頭の追跡について説明するが、このような追跡は、ゲストの頭及び/又は目に関する情報を示す及び/又は提供することができる様々な他の手段の一例である。
ゲスト追跡センサ32は、ゲストの頭の位置を示す信号を拡張現実システム12のコントローラに出力することができる。例えば、ゲスト18がビューイングエリア14内に配置されている間、ゲスト追跡センサ32は、ゲストの頭の位置を決定して、ゲストの頭の位置を示す信号をコントローラに出力することができる。その後、拡張現実システム12のコントローラは、拡張現実イメージ38を維持するために、ゲストの頭の位置に基づいて(例えば、プロジェクタ26によって投影されたイメージ36を調整することによって)半透明ミラー22上に表示される拡張現実イメージ38を調整することができる。ゲスト18がビューイングエリア14の周辺で及び/又は半透明ミラー22に対して動くと、コントローラは、変化したゲストの頭の位置に基づいて拡張現実イメージ38を更新する。ゲスト18が3Dアイウェア34を通して見ると、拡張現実イメージ38の3D環境は、ゲスト18が動いた時に物体20に対して動くように見えることができる。例えば、3D環境のいくつかの部分(例えば、植物、キャラクタ、天候)は、ゲスト18が動いた時に互いに対して及び物体20に対して動くように見えることができる。ゲスト18の視点からゲスト18の近くに存在するように見える拡張現実イメージ38の部分は、ゲスト18から離れたところに存在するように見える拡張現実イメージ38の部分よりも大きく動くように見えることができる(例えば、より大きな視差を有することができる)。従って、拡張現実イメージ38及び/又は物体20の視差効果をゲスト18の視点から生成することができる。この視差効果は、拡張現実イメージ38(例えば、風景39及び鳥40)の部分の互いに対する3D的な動き、及び拡張現実イメージ38の部分に対する物体20の3D的な動きを拡張現実システム12がシミュレートすることを可能にする。
いくつかの実施形態では、拡張現実システム12が、拡張現実効果(例えば、物体20、拡張現実イメージ38及び/又はゲスト18)、及び/又は娯楽用乗り物システム10の(1又は複数の)他の部分を撮影するさらなるカメラを含むことができる。また、拡張現実システム12は、拡張現実システム12がカメラの視点から拡張現実効果を正確に表現することを可能にするようにカメラの位置を追跡するセンサを含むことができる。例えば、本明細書で説明するコントローラは、カメラの位置に基づいて拡張現実イメージ38を提供及び/又は更新することができる。
いくつかの実施形態では、拡張現実システム12が、パフォーマンスエリア16内の物体20の位置を追跡する物体追跡センサを含むことができる。例えば、図示の実施形態では、物体追跡センサが(例えば、物体20によって表されるような)エンターテイナーの位置を決定することができる。物体追跡センサは、物体20の位置を示す信号を拡張現実システム12のコントローラに出力することができる。コントローラは、このセンサ信号に基づいて(例えば、物体20の位置に基づいて)、半透明ミラー22上に表示される拡張現実イメージ38を調整することができる。例えば、物体20がパフォーマンスエリア16内で第1の位置から第2の位置に動いた場合、コントローラは、物体追跡センサから第1及び第2の位置を示す信号を受け取ることができる。コントローラは、これらの物体20の位置(例えば、第1の位置及び第2の位置)に基づいて半透明ミラー22上の拡張現実イメージ38を調整することができる。コントローラは、物体20が拡張現実イメージ38内の異なる奥行きに見えるように、拡張現実イメージ38のいくつかの部分を閉塞させることができる。従って、物体追跡センサは、ゲスト18の視点から物体20が拡張現実イメージ38と相互作用することを可能にすることができる。物体追跡センサは、概ねパフォーマンスエリア16の上方に(例えば、ゲスト追跡センサ32に隣接して梁46上に)、又は娯楽用乗り物システム10内の別の位置に配置することができる。
いくつかの実施形態では、娯楽用乗り物システム10が、パフォーマンスエリア16内に複数の物体20(例えば、複数のエンターテイナー、複数の小道具、複数の動物、又はこれらの組み合わせ)を含むことができる。このような実施形態では、物体追跡センサが、パフォーマンスエリア16内の各物体20の位置を決定して追跡することができる。例えば、パフォーマンスエリア16内の各物体20は、物体追跡センサによって検出可能なマーカー(例えば、QRコード(登録商標)ができる。物体追跡センサは、これらのマーカーのそれぞれの位置に基づいて各物体20のそれぞれの位置を決定することができる。いくつかの実施形態では、拡張現実システム12が、各物体20のための個々の物体追跡センサ(例えば、複数の物体追跡センサ)を含むことができる。各物体追跡センサは、それぞれの物体20の位置を示す信号をコントローラに出力することができる。拡張現実システム12は、ゲスト18が見るための拡張現実イメージ38を、ゲスト18が拡張現実イメージ38及び複数の物体20を見ることができるように提供することができる。ゲスト18の視点からは、複数の物体20が拡張現実イメージ38と相互作用しているように見えることができる。例えば、3Dアイウェア34を通して拡張現実イメージ38を見ているゲスト18は、拡張現実イメージ38の3D環境と(例えば、風景39及び鳥40と)相互作用している物体20を見ることができる。
いくつかの実施形態では、娯楽用乗り物システム10が、ビューイングエリア14内に配置された複数のゲスト18を有することができる。複数のゲスト18は、単一の半透明ミラー22、又は独立した個々の半透明ミラー22を見ることができる。複数のゲスト18を有する実施形態では、拡張現実システム12が、複数のゲスト追跡センサ32(例えば、各それぞれのゲスト18のための個々のゲスト追跡センサ32)を含むことができる。さらに、娯楽用乗り物システム10は、複数の拡張現実システム12(例えば、各それぞれのゲスト18のための個々の拡張現実システム12)を含むことができる。各拡張現実システム12は、それぞれのゲスト18が見るために独立した拡張現実イメージ38を提供することができる。また、各ゲスト18は、個々の3Dアイウェア34を通して拡張現実イメージ38を見ることができる。
単一の半透明ミラー22及び複数のゲスト18を有するいくつかの実施形態では、拡張現実システム12が、コントローラを介してゲスト18の平均的位置(例えば、2人のゲスト18の平均的位置)を決定することができる。例えば、コントローラは、単一のゲスト追跡センサ32又は複数のゲスト追跡センサ32から、各信号がそれぞれのゲスト18のそれぞれの位置を示す信号を受け取ることができる。コントローラは、これらのゲスト18の位置の平均的位置を決定することができる。コントローラは、この平均的位置に基づいてプロジェクタ26にイメージ36を提供することができる。プロジェクタ26は、半透明ミラー22によって拡張現実イメージ38として反射されるようにイメージ36を投影することができる。複数のゲスト18は、物体20及び拡張現実イメージ38を見ることができ、複数のゲスト18のそれぞれの視点からは、物体20が拡張現実イメージ38と相互作用しているように見えることができる。
単一の半透明ミラー22及び複数のゲスト18を有するいくつかの実施形態では、拡張現実システム12が、各ゲスト18のための独立した個々の拡張現実イメージ38を生成することができる。各ゲスト18は、自分の視点のために生成されたそれぞれの拡張現実イメージ38のみを見ることができる。例えば、各それぞれの拡張現実イメージ38は、特定のゲスト18のために特別に提供される個々の時系列的な(time-sequenced)イメージを含むことができる。また、半透明ミラー22は、各拡張現実イメージ38を順に表示することができる。例えば、4人のゲスト18が半透明ミラー22を見ている実施形態では、拡張現実システム12が4組の拡張現実イメージ38を提供することができる。半透明ミラー22は、ゲスト18が見るために各拡張現実イメージ38のフレーム(例えば、4つのフレームの組)を表示することができる。3Dアイウェア34は、ゲスト18が自分のそれぞれの拡張現実イメージ38のみを見ることを可能にすることができる。例えば、3Dアイウェア34は、それぞれのゲスト18が自分のそれぞれの拡張現実イメージ38の各フレームを見ることを可能にし、他の拡張現実イメージ38を含むフレームについてはそれぞれのゲスト18の視界を遮ることができる(例えば、3Dアイウェア34は、ゲスト18が自分のそれぞれの拡張現実イメージ38のフレームのみを見ることを可能にして他のフレームを遮るシャッター機構を含むことができる)。4人のゲスト18の各それぞれのゲスト18は、半透明ミラー22によって提供されるフレームを4フレーム毎に見るようになる。さらに、半透明ミラー22は、各ゲスト18が見るフレーム及び拡張現実イメージ38が連続アニメーションのように見えるように、これらの拡張現実イメージ38のフレームを高フレームレート(例えば、毎秒240フレーム)で提供することができる。すなわち、ゲスト18は、この高フレームレートに起因して、毎回の4フレームのうちの3フレームについて自分の視界が遮られていることに気付かないことができる。従って、各ゲスト18は、娯楽用乗り物システム10内で独自の個別的な拡張現実イメージ38を体験することができる。
図2は、拡張現実システム12、及び図1の半透明ミラー22上の拡張現実イメージ38の実施形態の正面斜視図である。図2のビューは、ビューイングエリア14内に配置されたゲスト18の視点とすることができる。ゲスト18の視点からは、物体20が拡張現実イメージ38の一部であるように見えることができる。例えば、物体20は、拡張現実イメージ38の風景39の傍に配置されているように見えることができ、鳥40は、物体20の上方を飛んでいるように見えることができる。しかしながら、図1に関して上述したように、物体20は、実際には半透明ミラー22及び拡張現実イメージ38の背後のパフォーマンスエリア16内に位置することができる。さらに、図示の実施形態では拡張現実システム12が半透明ミラー22を含んでいるが、ゲスト18は、半透明ミラー22に気付かないことができる。例えば、ゲスト18は、半透明ミラー22上の拡張現実イメージ38のみを見て、半透明ミラー22の他の部分(例えば、縁部及び取り付け機構)を見ないことができる。娯楽用乗り物システム10は、半透明ミラー22の他の部分をゲスト18の視界から隠す照明効果及び/又は構造を含むことができる。
ゲスト18が3Dアイウェア34を使用して拡張現実イメージ38及び物体20を見ると、物体20は、拡張現実イメージ38の3D環境の一部であるように見えることができる。さらに、拡張現実システム12のコントローラは、3Dアイウェア34を装着したゲスト18の視点から物体20が拡張現実イメージ38(例えば、風景39及び鳥40)の3D環境を動き回っているように見えるように拡張現実イメージ38を調整することができる。例えば、ゲスト追跡センサ32が、半透明ミラー22及び/又は物体20に対するゲストの頭の位置を決定し、コントローラが、ゲストの頭の相対的位置に基づいて拡張現実イメージ38を更新することができる。また、物体追跡センサが物体20の位置を決定し、コントローラが、物体20の相対的位置に基づいて拡張現実イメージ38を更新することもできる。拡張現実システム12は、(例えば、大きな視差を有する)ゲスト18の近くに見える3D環境の部分の方が(小さな視差を有することができる)ゲスト18から離れて見える3D環境の部分に比べて大きく動くことを含む視差効果を提供することができる。拡張現実システム38のそれぞれの部分の動きの量(例えば、視差の量)は、ゲストの頭、物体20、半透明ミラー22及び/又は拡張現実イメージ38の部分(例えば、拡張現実イメージ38の3D環境)の相対的位置に依存することができる。ゲスト18がビューイングエリア14内を動き回ると、3Dアイウェア34を装着したゲスト18の視点からは、物体20が拡張現実イメージ38の3D環境と相互作用しているように見えることができる。従って、拡張現実システム12は、ゲスト18に相互作用的かつ娯楽的環境を提供するように拡張現実イメージ38の提供及び更新を行うことができる。
図3は、図1の拡張現実システム12の実施形態のブロック図である。図示のように、ゲスト追跡センサ32及びプロジェクタ26は、それぞれ拡張現実システム12のコントローラ60に通信可能に結合される。コントローラ60は、プロセッサ62、メモリ64、及びユーザインターフェイス66を含む。コントローラ60は、ゲスト追跡センサ32から受け取られた信号に基づいて、図1のプロジェクタ26に提供されるイメージ36を制御することができる。例えば、ゲスト追跡センサ32は、ゲストの頭の位置を決定して、ゲストの頭の位置を示すセンサ信号をコントローラ60に出力することができる。コントローラ60は、ゲストの頭の位置に基づいて、拡張現実イメージ38として反射すべきイメージ36を示すイメージデータをプロセッサ62を介して生成及び/又は更新することができる。イメージ36の更新は、ゲスト18の近くに見える拡張現実イメージ38の部分の方がゲスト18から離れて見える拡張現実イメージ38の部分よりも大きく動くことを含む上述した視差効果を含むことができる。コントローラ60は、イメージデータを示す制御信号をプロジェクタ26に出力することができる。プロジェクタ26は、コントローラ60から受け取られたイメージデータを示す制御信号に基づいて、イメージ36を投影及び/又は更新して半透明ミラー22上に拡張現実イメージ38を提供することができる。さらに、上述したように、イメージ36は、半透明ミラー22上に拡張現実イメージ38として投影されて3Dアイウェア34を通して見た時に3D環境であるように見える一対のイメージを含むことができる。ゲスト18は、頭を動かした時に拡張現実イメージ38の一部が互いに対して及び物体20に対して動くような視差効果を体験することができる。
コントローラ60は、プロジェクタ26が最初にいくつかの要因に基づいてイメージ36を提供し始めるようにすることができる。例えば、コントローラ60は、イメージ36を提供し始めるための命令を示すユーザインターフェイス66への入力を受け取ることができる。これに応答して、コントローラ60は、ゲスト追跡センサ32がゲストの頭の位置を追跡/決定し始めるようにするための制御信号をゲスト追跡センサ32に出力することができる。コントローラ60は、ゲストの頭の初期位置を示す初期センサ信号に基づいて、イメージデータを示す制御信号をプロジェクタ26に出力することができる。いくつかの実施形態では、拡張現実システム12が、ゲスト追跡センサ32を介してゲストの頭の存在及び位置を自動的に決定することができ、コントローラ60が、拡張現実イメージ38として反射すべきイメージ36をゲスト18が見るために提供することを、ユーザインターフェイス66への入力を伴わずに自動的にプロジェクタ26に行わせることができる。
ゲスト追跡センサ32は、継続的にゲストの頭の位置を検出して、ゲストの頭の位置を示すセンサ信号をコントローラ60に出力することができる。これに応答して、コントローラ60は、ゲストの頭の位置に基づいてイメージデータを更新し、最新のイメージデータを示す制御信号をプロジェクタ26に出力することができる。プロジェクタ26は、最新のイメージデータに基づいて、最新のイメージ36をゲスト18が見るために半透明ミラー22に提供することができる(例えば、プロジェクタ26は、半透明ミラー22によって反射されたイメージ36を拡張現実イメージ38として投影する)。最新の拡張現実イメージ38の一部は、コントローラ60によって提供された以前の拡張現実イメージ38に比べて動いたように見えることができる。従って、拡張現実システム12は、3Dアイウェア34を装着したゲスト18の視点から拡張現実イメージ38の一部が物体20に対して及び互いに対して動くような視差効果をコントローラ60を介して提供することができる。拡張現実システム12は、ユーザインターフェイス66へのユーザ入力、経過時間、ゲスト追跡センサ32がもはやゲストの頭の位置を検出しなくなったこと、及び/又はその他の要因に基づいて、拡張現実イメージ38の提供を停止することができる。
いくつかの実施形態では、コントローラ60が、拡張現実システム12の他の部分に通信可能に結合することができる。例えば、コントローラ60は、上述した物体追跡センサから物体20の位置を示す信号を受け取り、物体20の位置に基づいてイメージデータを生成/更新できるように、物体追跡センサに通信可能に結合することができる。また、コントローラ60は、半透明ミラー22に通信可能に結合することもできる。例えば、ゲスト18が見るためにイメージ36を表示する(例えば、拡張現実イメージ38を直接提供する)半透明ミラー22を有する(例えば、プロジェクタ26が半透明ミラー22に含まれている)実施形態では、コントローラ60が、イメージデータを示す信号を半透明ミラー22に出力することができる。これに応答して、半透明ミラー22は、ゲスト18が見るために拡張現実イメージ38を表示することができる。さらに、コントローラ60は、図1の3Dアイウェア34に通信可能に結合することもできる。
いくつかの実施形態では、娯楽用乗り物システム10及び/又は拡張現実システム12が、様々な機能を実行するためにさらなるコントローラ、プロセッサ、及び/又はメモリを含むことができる。例えば、複数の半透明ミラー22を有する実施形態では、各半透明ミラー22が、ゲスト追跡センサ32から信号を受け取り、それぞれの半透明ミラー22上の拡張現実イメージ38を制御し、及び/又はコントローラ60と通信するコントローラを含むことができる。いくつかの実施形態では、メモリ64及び娯楽用乗り物システム10の他のメモリが、プロセッサ62によって実行可能な命令及び/又はプロセッサ62によって処理すべきデータを記憶する1又は2以上の有形の非一時的コンピュータ可読媒体を含むことができる。例えば、メモリ64は、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、フラッシュメモリなどの書き換え可能な不揮発性メモリ、ハードドライブ、光学ディスク、及び/又はその他のタイプのメモリを含むことができる。また、プロセッサ62及び娯楽用乗り物システム10のその他のプロセッサは、1又は2以上の汎用マイクロプロセッサ、1又は2以上の特定用途向け集積回路(ASIC)、及び/又は1又は2以上のフィールドプログラマブルゲートアレイ(FPGA)を含むことができる。
ユーザインターフェイス66は、コントローラ60とユーザ(例えば、オペレータ)との間の通信を容易にすることができる。ユーザインターフェイス66は、娯楽用乗り物システム10に隣接して配置することができ、或いは遠隔的に制御される又は自律的に動作する娯楽用乗り物システムの場合には遠隔位置に配置することができる。例えば、ユーザインターフェイス66は、ボタン、キーボード、マウス、トラックパッド、及び/又はコントローラ60とのユーザインタラクションを可能にする同様のもののうちの1つ又は2つ以上を含むことができる。また、ユーザインターフェイス66は、例えばグラフィカルユーザインターフェイス(GUI)、アプリケーションインターフェイス、テキスト、静止画像、ビデオコンテンツ又はこれらの組み合わせを介して情報の視覚的表現を提供する電子ディスプレイを含むことができる。ユーザインターフェイス66は、ユーザ(例えば、娯楽用乗り物システム10及び/又は拡張現実システム12のオペレータ)から入力を受け取ることができる。例えば、ユーザインターフェイス66への入力は、娯楽用乗り物10内の拡張現実システム12が提供すべき所望の拡張現実効果を含むことができる。
ゲスト追跡センサ32及び/又はプロジェクタ26は、有線接続(例えば、イーサネット、ユニバーサルシリアルバス(USB)、CANバス又はISOバス)を介してコントローラ60に接続して通信可能に結合することができる。例えば、ゲスト追跡センサ32は、有線接続を介してコントローラ60に信号を出力し、プロジェクタ26は、有線接続を介してコントローラ60から信号を受け取ることができる。これに加えて又はこれに代えて、ゲスト追跡センサ32及び/又はプロジェクタ26は、無線接続を介してコントローラ60と通信することもできる。例えば、プロジェクタ26は、コントローラ60のコントローラトランシーバから信号を受け取るトランシーバを含むことができる。プロジェクタ32のトランシーバ及びコントローラトランシーバの各々は、標準プロトコル(例えば、Wi-Fi又はBluetooth)などのいずれかの好適な無線通信プロトコル、又は専用プロトコルを利用することができる。
図4は、図1の拡張現実システム12を使用して拡張現実イメージ38を生成して表示するプロセス80の実施形態のフロー図である。図示のように、拡張現実システム12は、最初にゲストの頭の位置のインジケーションを受け取る(ブロック82)。例えば、ゲスト追跡センサ32は、ゲストの頭の位置を決定して、ゲストの頭の位置を示すセンサ信号を図2のコントローラ60に出力することができる。コントローラ60は、このセンサ信号を受け取ることができる。
次に、拡張現実システム12は、ゲストの頭の位置に基づいて拡張現実イメージ38を生成することができる(ブロック84)。例えば、コントローラ60は、ゲスト追跡センサ32から受け取られたゲストの頭の位置を示すセンサ信号に基づくイメージデータを示す制御信号を出力することができる(例えば、拡張現実システム12は、コントローラ60を介して視差効果を提供することができる)。コントローラ60は、イメージ36が拡張現実イメージ38として反射された時にゲスト18の視点から物体20が拡張現実イメージ38と相互作用しているように見えるようにイメージデータを提供することができる。3Dアイウェア34を装着したゲスト18の視点からは、物体20が拡張現実イメージ38の3D環境の一部であるように見えることができる。いくつかの実施形態では、コントローラ60が、物体追跡センサから物体20の位置を示すセンサ信号を受け取ることができる。コントローラ60は、物体20の位置及びゲストの頭の位置の両方に基づいてイメージデータを提供することができる。ゲスト18及び物体20のそれぞれの位置が変化すると、コントローラ60は、反射された拡張現実イメージ38のゲスト18に近接して見える部分がゲスト18から離れて見える3D環境の部分よりも大きく動くことができる(例えば、大きな視差を有することができる)ようにイメージデータを調整することができる。従って、コントローラ60は、ゲスト18の視点から互いに対して動く物体20及び/又は拡張現実イメージ38の部分を含む視差効果を提供することができる。
さらに、拡張現実システム12は、ゲスト18が見るために半透明ミラー22上に拡張現実イメージ38を表示することができる(ブロック86)。例えば、プロジェクタ26は、ゲスト18が見るために拡張現実イメージ38としてミラー22によって反射できるイメージ36を投影することができる。ゲスト18は、物体20及び拡張現実イメージ38を同時に見ることにより、物体20及び拡張現実イメージ38が同じイメージの一部であるように見える(例えば、3Dアイウェア34を通して見た時に同じ3D環境の一部であるように見える)ようになる。
拡張現実システム12は、ゲスト18がビューイングエリア14内に配置されている間、及び/又はゲスト18が半透明ミラー22を見ている間にプロセス80を反復的に繰り返すことができる。例えば、拡張現実システム12は、ゲストが見るために最初の拡張現実イメージ38を提供した後に、ブロック82、84及び86をそれぞれ繰り返して、最新のゲスト18の位置に基づいて拡張現実イメージ38を更新することができる。いくつかの実施形態では、拡張現実システム12が、パフォーマンスエリア16内の最新の物体の位置に基づいて(例えば、物体検出センサによって検出された最新の物体の位置に基づいて)拡張現実イメージ38を更新することができる。プロセス80の反復毎に、3Dアイウェア34を装着したゲスト18の視点からは、物体20が拡張現実イメージ38と相互作用しているように見えることができる。
従って、図1の娯楽用乗り物システム10及び拡張現実システム12は、ゲスト18に娯楽的かつ相互作用的環境を提供する。例えば、拡張現実システム12は、拡張現実ヘッドセットを使用せずに拡張現実効果を複製又はシミュレートするために、3Dアイウェア34(例えば、3Dメガネ)を使用して見た時に3Dイメージ又は3D環境であるように見えることができるイメージ36を投影するプロジェクタ26を含むことができる。イメージ36は、半透明ミラー22によって拡張現実イメージ38として反射することができる。ゲスト18は、3Dアイウェア34を使用して、拡張現実イメージ38を3D環境として見ることができる。半透明ミラー22は、プロジェクタ26に対して、3Dイメージを半透明ミラー22の背後の物体20上に重なり合ったように見せることができるペッパーズゴースト効果を生み出す角度41で配置することができる。
さらに、ゲスト追跡センサ32によってゲストの頭を追跡し、半透明ミラー22及び物体20に対するゲストの頭の位置を使用して、半透明ミラー22上に表示される拡張現実イメージ38(例えば、3Dイメージ/環境)を更新することができる。例えば、3Dイメージは、ゲスト18が頭を動かした時に、3Dイメージの一部を互いに対して及び物体20に対して正確に動かす視差効果を含むことができる(例えば、ゲスト18の近くに出現する3Dイメージの部分は、ゲスト18から離れて出現する3Dイメージの部分よりも大きく動くことができる)。このようにして、ゲスト18が拡張現実ヘッドセットの代わりに軽量3Dメガネ(例えば、3Dアイウェア34)しか装着していない時にも見ることができる拡張現実効果を生成することができる。従って、娯楽用乗り物システム10及び拡張現実システム12は、3Dアイウェア34を装着したゲスト18の楽しみのために、生成されたイメージ(例えば、拡張現実イメージ38)及び実際の物体(例えば、物体20)を含む相互作用的3D環境を提供する。
本明細書では、本開示のいくつかの特徴のみを図示し説明したが、当業者には多くの修正及び変更が思い浮かぶであろう。従って、添付の特許請求の範囲は、本開示の正確な趣旨に従う全てのこのような修正及び変更を含むように意図されていると理解されたい。
本明細書に示して特許請求する技術は、本技術分野を確実に改善する、従って抽象的なもの、無形のもの又は純粋に理論的なものではない実際的性質の有形物及び具体例を参照し、これらに適用される。さらに、本明細書の最後に添付するいずれかの請求項が、「...[機能]を[実行]する手段」又は「...[機能]を[実行]するステップ」として指定されている1又は2以上の要素を含む場合、このような要素は米国特許法112条(f)に従って解釈すべきである。一方で、他のいずれかの形で指定された要素を含むあらゆる請求項については、このような要素を米国特許法112条(f)に従って解釈すべきではない。
10 娯楽用乗り物システム
12 拡張現実システム
14 ビューイングエリア
16 パフォーマンスエリア
18 ゲスト
20 物体
22 半透明ミラー
26 プロジェクタ
28 床面
30 障壁
32 ゲスト追跡センサ
34 3Dアイウェア
36 イメージ
38 拡張現実イメージ
39 風景
40 鳥
41 角度
42 検出可能エリア
44 破線
46 梁

Claims (20)

  1. 娯楽用乗り物のための拡張現実システムであって、
    ゲストの位置を決定するように構成されたゲスト追跡センサと、
    イメージを投影するように構成されたプロジェクタと、
    前記イメージを拡張現実イメージとして反射するように構成された半透明ミラーであって、前記ゲストは前記半透明ミラーの第1の側に配置される、半透明ミラーと、
    プロセッサ及びメモリを含むコントローラと、
    を含み、前記コントローラは、
    前記ゲスト追跡センサから前記ゲストの第1の位置を示す第1のセンサ信号を受け取り、
    前記ゲストの前記第1の位置に基づいてイメージデータを生成し、
    前記イメージデータを示す第1の制御信号を前記プロジェクタに出力する、
    ように構成され、前記プロジェクタは、前記イメージデータを示す前記第1の制御信号に基づいて前記イメージを投影するように構成され、
    前記コントローラは、
    前記ゲスト追跡センサから前記ゲストの第2の位置を示す第2のセンサ信号を受け取り、
    前記第2のセンサ信号を受け取ったことに応答して、前記イメージデータを更新されたイメージデータとして更新し、
    前記更新されたイメージデータを示す第2の制御信号を前記プロジェクタに出力する、
    ように構成され、前記プロジェクタは、前記第2の制御信号に基づいて更新されたイメージを投影するように構成され、前記更新されたイメージは、視差効果を介して前記拡張現実イメージを前記半透明ミラーの前記第1の側とは反対の第2の側に配置された物体に対して動ように見せる、
    拡張現実システム。
  2. 前記イメージは、3Dアイウェアを通して見たときに3次元(3D)イメージのように見えるように構成され、前記3Dアイウェアは、前記イメージを前記3Dイメージとして見ることを可能にする立体メガネを含む、請求項1に記載の拡張現実システム。
  3. 前記拡張現実イメージは、前記ゲストの視点から前記物体と相互作用するように構成される、請求項2に記載の拡張現実システム。
  4. 前記3Dアイウェアを含み、前記3Dアイウェアは、前記3Dアイウェアを装着している前記ゲストの視点から前記拡張現実イメージを前記3Dイメージのように見せるように構成される、請求項2に記載の拡張現実システム。
  5. 前記コントローラは、前記ゲストの位置に基づいて前記イメージを反復的に更新するように構成される、請求項1に記載の拡張現実システム。
  6. 前記コントローラは、ユーザ入力、時系列、又はこれらの組み合わせに基づいて前記イメージを生成するように構成される、請求項1に記載の拡張現実システム。
  7. 前記ゲスト追跡センサは、逆反射された赤外光を検出するように構成される、請求項1に記載の拡張現実システム。
  8. 前記半透明ミラーは、前記プロジェクタに対して30度~60度の角度で配置される、請求項1に記載の拡張現実システム。
  9. 前記プロジェクタは、前記半透明ミラーの上方又は下方に配置されて前記ゲストの視点から隠される、請求項1に記載の拡張現実システム。
  10. 前記コントローラは、前記拡張現実イメージの第1の部分を前記拡張現実イメージの第2の部分よりも大きく動かすことによって前記イメージデータを更新するように構成され、前記拡張現実イメージの前記第1の部分は、前記拡張現実イメージの前記第2の部分に対して前記ゲストに近いように見える、請求項1に記載の拡張現実システム。
  11. 前記ゲストの前記第1の位置及び前記ゲストの前記第2の位置は、前記ゲストの頭、目、1又は2以上の顔の特徴、前記ゲストの別の部分、又はこれらのいずれかの組み合わせの位置を含む、請求項1に記載の拡張現実システム。
  12. 前記コントローラは、
    前記半透明ミラーの前記第1の側における前記ゲストの不在を示す第3のセンサ信号を受け取り、
    前記プロジェクタへの前記イメージ又は前記更新されたイメージの提供を停止するための命令を示す第3の制御信号を出力する、
    ように構成され、前記プロジェクタは、前記第3の制御信号に基づいて前記イメージ又は前記更新されたイメージの投影を停止するように構成される、請求項1に記載の拡張現実システム。
  13. 娯楽用乗り物のための拡張現実イメージを生成するための方法であって、
    ゲストの第1の位置のインジケーションを受け取るステップと、
    前記ゲストの前記第1の位置のインジケーションを受け取ったことに応答して、前記ゲストの前記第1の位置に基づくイメージデータを生成するステップと、
    前記イメージデータに基づいて、半透明ミラー上にイメージを投影するステップであって、前記ゲストは前記半透明ミラーの第1の側に配置される、ステップと、
    前記ゲストによりられるために前記イメージを拡張現実イメージとして前記ゲストに向けて反射するステップであって、前記拡張現実イメージは、3Dアイウェアを通して見たときに3次元(3D)イメージのように見え、前記3Dアイウェアは、前記拡張現実イメージを前記3Dイメージとして見ることを可能にする立体メガネを含む、ステップと、
    前記ゲストの第2の位置のインジケーションを受け取るステップと、
    前記ゲストの前記第2の位置のインジケーションを受け取ったことに応答して、前記イメージデータを更新されたイメージデータとして更新するステップと、
    前記更新されたイメージデータに基づいて、前記半透明ミラー上に更新されたイメージを投影するステップと、
    前記ゲストによりられるために前記更新されたイメージを前記拡張現実イメージとして前記ゲストに向けて反射するステップであって、前記更新されたイメージは、視差効果を介して前記拡張現実イメージを前記半透明ミラーの前記第1の側とは反対の第2の側に配置された物体に対して動ように見せる、ステップと、
    を含む、方法。
  14. 前記イメージは、前記3Dアイウェアを通して見たときに前記3Dイメージのように見えるように構成された2又は3以上の2次元(2D)イメージを含む、請求項13に記載の方法。
  15. 前記半透明ミラーの前記第2の側に配置された前記物体の位置のインジケーションを受け取るステップを含む、請求項13に記載の方法。
  16. 前記物体の位置に基づいて前記イメージデータを調整するステップを含む、請求項15に記載の方法。
  17. 娯楽用乗り物のための拡張現実システムであって、
    ゲストの位置を決定するように構成されたゲスト追跡センサと、
    イメージを投影するように構成された3次元(3D)プロジェクタと、
    前記イメージを拡張現実イメージとして反射するように構成された半透明ミラーであって、前記ゲストは前記半透明ミラーの第1の側に配置される、半透明ミラーと、
    前記拡張現実イメージを3D環境として見ることを可能にするように構成された立体メガネを含む3Dアイウェアと、
    プロセッサ及びメモリを含むコントローラと、
    を含み、前記コントローラは、
    前記ゲスト追跡センサから前記ゲストの第1の位置を示す第1のセンサ信号を受け取り、
    前記ゲストの前記第1の位置に基づいてイメージデータを生成し、
    第1の制御信号が、前記3Dプロジェクタに、前記イメージデータに基づいて前記半透明ミラー上に前記イメージを投影させるように、前記イメージデータを示す前記第1の制御信号を前記3Dプロジェクタに出力し、
    前記ゲスト追跡センサから前記ゲストの第2の位置を示す第2のセンサ信号を受け取り、
    前記第2のセンサ信号を受け取ったことに応答して、前記イメージデータを更新されたイメージデータとして更新し、
    前記更新されたイメージデータを示す第2の制御信号を前記プロジェクタに出力する、
    ように構成され、前記プロジェクタは、前記第2の制御信号に基づいて更新されたイメージを投影するように構成され、前記更新されたイメージは、視差効果を介して前記拡張現実イメージを前記半透明ミラーの前記第1の側とは反対の第2の側に配置された物体に対して動ように見せる、
    拡張現実システム。
  18. 前記ゲスト追跡センサは、前記3Dアイウェア内に配置されたマーカーを含み、前記マーカーは、前記ゲストの位置を示す位置データを送信するように構成される、請求項17に記載の拡張現実システム。
  19. 前記マーカーは、クイックレスポンス(「QR」)コード、バーコード、又は赤外光を反射する逆反射マーカーを含む、請求項18に記載の拡張現実システム。
  20. 前記ゲスト追跡センサは、前記ゲストの位置を決定するように構成されたカメラを含む、請求項17に記載の拡張現実システム。
JP2021537849A 2018-12-28 2019-12-19 娯楽用乗り物のための拡張現実システム Active JP7482881B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/234,739 2018-12-28
US16/234,739 US10818090B2 (en) 2018-12-28 2018-12-28 Augmented reality system for an amusement ride
PCT/US2019/067659 WO2020139719A1 (en) 2018-12-28 2019-12-19 Augmented reality system for an amusement ride

Publications (3)

Publication Number Publication Date
JP2022516853A JP2022516853A (ja) 2022-03-03
JPWO2020139719A5 JPWO2020139719A5 (ja) 2022-12-26
JP7482881B2 true JP7482881B2 (ja) 2024-05-14

Family

ID=69182724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021537849A Active JP7482881B2 (ja) 2018-12-28 2019-12-19 娯楽用乗り物のための拡張現実システム

Country Status (8)

Country Link
US (1) US10818090B2 (ja)
EP (1) EP3903144A1 (ja)
JP (1) JP7482881B2 (ja)
KR (1) KR20210107786A (ja)
CN (1) CN113227884A (ja)
CA (1) CA3123846A1 (ja)
SG (1) SG11202106102RA (ja)
WO (1) WO2020139719A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201801762D0 (en) * 2018-02-02 2018-03-21 Interesting Audio Visual Ltd Apparatus and method
EP3968259A1 (en) * 2020-09-15 2022-03-16 Hyosung Tns Inc. Digital desk and image control method using same
US11590432B2 (en) * 2020-09-30 2023-02-28 Universal City Studios Llc Interactive display with special effects assembly
KR102233395B1 (ko) * 2020-10-12 2021-03-30 (주)투핸즈인터랙티브 라이다 센서를 이용한 증강현실 인터랙티브 스포츠 장치
US11899348B2 (en) * 2022-03-02 2024-02-13 Universal City Studios Llc Show effect system for attraction system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002532795A (ja) 1998-12-07 2002-10-02 ユニバーサル シティ スタジオズ インコーポレイテッド 視点画像ゆがみを補償するための画像補正方法
WO2006061959A1 (ja) 2004-12-09 2006-06-15 Pioneer Corporation 立体的二次元画像表示装置及び立体的二次元画像表示方法
WO2011045437A1 (en) 2009-10-16 2011-04-21 Realfiction Aps An interactive 3d display, a method for obtaining a perceived 3d object in the display and use of the interactive 3d display
US20120313839A1 (en) 2011-06-10 2012-12-13 Disney Enterprises, Inc. Advanced pepper's ghost projection system with a multiview and multiplanar display
US20150264339A1 (en) 2014-03-17 2015-09-17 Nicholas V. Riedel Stereoscopic display
JP2016203850A (ja) 2015-04-24 2016-12-08 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1373967A2 (en) 2000-06-06 2004-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. The extended virtual table: an optical extension for table-like projection systems
US20040135744A1 (en) 2001-08-10 2004-07-15 Oliver Bimber Virtual showcases
WO2003034705A2 (en) * 2001-10-19 2003-04-24 University Of North Carolina At Chapel Hill Methods and systems for dynamic virtual convergence and head mountable display
BRPI0520196A2 (pt) 2005-04-25 2009-04-22 Yappa Corp sistema de geraÇço e exibiÇço de imagem em 3d
CN102150072B (zh) * 2008-07-10 2013-08-21 实景成像有限公司 宽视角显示和用户接口
US20100253700A1 (en) 2009-04-02 2010-10-07 Philippe Bergeron Real-Time 3-D Interactions Between Real And Virtual Environments
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US20120139817A1 (en) * 2009-08-13 2012-06-07 Bae Systems Plc Head up display system
US8292733B2 (en) * 2009-08-31 2012-10-23 Disney Enterprises, Inc. Entertainment system providing dynamically augmented game surfaces for interactive fun and learning
US9164581B2 (en) 2010-10-22 2015-10-20 Hewlett-Packard Development Company, L.P. Augmented reality display system and method of display
US9529424B2 (en) * 2010-11-05 2016-12-27 Microsoft Technology Licensing, Llc Augmented reality with direct user interaction
US8576276B2 (en) 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
WO2011046505A2 (en) 2010-12-06 2011-04-21 Kjell Johansson 3d conference system
US8831780B2 (en) * 2012-07-05 2014-09-09 Stanislav Zelivinski System and method for creating virtual presence
WO2014056000A1 (en) 2012-10-01 2014-04-10 Coggins Guy Augmented reality biofeedback display
US8857994B2 (en) * 2012-10-30 2014-10-14 Disney Enterprises, Inc. Transparent display with dynamic mask
JP2015060296A (ja) * 2013-09-17 2015-03-30 船井電機株式会社 空間座標特定装置
US9998708B1 (en) * 2014-07-23 2018-06-12 Shared Space Studios LLC Network architecture for immersive audio-visual communications by temporary communication structures
US9819907B2 (en) * 2014-09-25 2017-11-14 Steve H. McNelley Communication stage and related systems
US10298877B2 (en) * 2014-09-25 2019-05-21 Steve H. McNelley Communication stage and display systems
CA2979228A1 (en) 2015-03-11 2016-09-15 Ventana 3D, Llc Holographic interactive retail system
US9916794B2 (en) 2015-08-05 2018-03-13 Disney Enterprises, Inc. Switched emissive transparent display with controllable per-pixel opacity
US9581962B1 (en) * 2015-11-20 2017-02-28 Arht Media Inc. Methods and systems for generating and using simulated 3D images
US10366642B2 (en) * 2016-12-01 2019-07-30 Disney Enterprises, Inc. Interactive multiplane display system with transparent transmissive layers
US9989777B1 (en) 2017-06-05 2018-06-05 Disney Enterprises, Inc. Accurate and balanced lighting in a pepper's ghost projection system for live cinematic performances
US20180374453A1 (en) * 2017-06-22 2018-12-27 Universal City Studios Llc Holographic display mimicking system and method
KR101860680B1 (ko) 2017-09-01 2018-06-29 한국과학기술원 3d 증강 프리젠테이션 구현 방법 및 장치
RU2664781C1 (ru) 2017-12-06 2018-08-22 Акционерное общество "Творческо-производственное объединение "Центральная киностудия детских и юношеских фильмов им. М. Горького" (АО "ТПО "Киностудия им. М. Горького") Устройство для формирования объёмного изображения в трёхмерном пространстве с реальными объектами
CN112074773B (zh) * 2018-01-14 2024-02-02 光场实验室公司 四维能量场封装组合件
US10310274B1 (en) * 2018-05-29 2019-06-04 Disney Enterprises, Inc. Stacked wave guide system providing depth and animation
US10663724B1 (en) * 2018-08-30 2020-05-26 Disney Enterprises, Inc. Panoramic, multiplane, and transparent collimated display system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002532795A (ja) 1998-12-07 2002-10-02 ユニバーサル シティ スタジオズ インコーポレイテッド 視点画像ゆがみを補償するための画像補正方法
WO2006061959A1 (ja) 2004-12-09 2006-06-15 Pioneer Corporation 立体的二次元画像表示装置及び立体的二次元画像表示方法
WO2011045437A1 (en) 2009-10-16 2011-04-21 Realfiction Aps An interactive 3d display, a method for obtaining a perceived 3d object in the display and use of the interactive 3d display
US20120313839A1 (en) 2011-06-10 2012-12-13 Disney Enterprises, Inc. Advanced pepper's ghost projection system with a multiview and multiplanar display
US20150264339A1 (en) 2014-03-17 2015-09-17 Nicholas V. Riedel Stereoscopic display
JP2016203850A (ja) 2015-04-24 2016-12-08 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム

Also Published As

Publication number Publication date
CN113227884A (zh) 2021-08-06
EP3903144A1 (en) 2021-11-03
CA3123846A1 (en) 2020-07-02
US20200211283A1 (en) 2020-07-02
WO2020139719A1 (en) 2020-07-02
US10818090B2 (en) 2020-10-27
SG11202106102RA (en) 2021-07-29
JP2022516853A (ja) 2022-03-03
KR20210107786A (ko) 2021-09-01

Similar Documents

Publication Publication Date Title
JP7482881B2 (ja) 娯楽用乗り物のための拡張現実システム
US11199706B2 (en) Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
JP7079207B2 (ja) 立体視的な拡張現実画像および仮想現実画像を生成するためのシステムおよび方法
KR20190123311A (ko) 증강 탑승 시스템 및 방법
US20120188279A1 (en) Multi-Sensor Proximity-Based Immersion System and Method
US20120200600A1 (en) Head and arm detection for virtual immersion systems and methods
JP7423639B2 (ja) 娯楽用乗り物用の拡張現実システム
US10777012B2 (en) Display systems in an entertainment environment
RU2772301C1 (ru) Система дополненной реальности для аттракциона для катания
JP7426413B2 (ja) ブレンドモード3次元ディスプレイシステムおよび方法
KR102124564B1 (ko) 증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 방법 및 장치
CN117716419A (zh) 图像显示系统及图像显示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240430

R150 Certificate of patent or registration of utility model

Ref document number: 7482881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150