JP7497572B2 - 遊園地環境における層状仮想特徴のためのシステム及び方法 - Google Patents

遊園地環境における層状仮想特徴のためのシステム及び方法 Download PDF

Info

Publication number
JP7497572B2
JP7497572B2 JP2019548441A JP2019548441A JP7497572B2 JP 7497572 B2 JP7497572 B2 JP 7497572B2 JP 2019548441 A JP2019548441 A JP 2019548441A JP 2019548441 A JP2019548441 A JP 2019548441A JP 7497572 B2 JP7497572 B2 JP 7497572B2
Authority
JP
Japan
Prior art keywords
display
virtual
visualization device
layer
virtual features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019548441A
Other languages
English (en)
Other versions
JP2020513956A (ja
Inventor
グレゴリー シェルマン ホール
デイヴィッド ジェラルド マジダリ
Original Assignee
ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/786,359 external-priority patent/US20180255285A1/en
Application filed by ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー filed Critical ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
Publication of JP2020513956A publication Critical patent/JP2020513956A/ja
Priority to JP2022147654A priority Critical patent/JP2022188084A/ja
Application granted granted Critical
Publication of JP7497572B2 publication Critical patent/JP7497572B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

〔関連出願との相互参照〕
本出願は、2017年3月6日に出願された「遊園地環境におけるデジタルオーバーレイのためのシステム及び方法(SYSTEMS AND METHODS FOR DIGITAL OVERLAY IN AN AMUSEMENT PARK ENVIRONMENT)」という名称の米国仮特許出願第62/467,817号に対する優先権及びその利益を主張するものであり、この文献はその全体が全ての目的で引用により本明細書に組み入れられる。
本明細書に開示する主題は、装着型可視化装置と固定可視化装置との併用を通じてユーザに拡張現実体験及び仮想現実体験を提供するシステム及び方法に関する。
遊園地及び/又はテーマパークは、遊園地の来園客(例えば、家族及び/又は全ての年齢の人々)に楽しみを与える上で有用な様々な娯楽アトラクション、レストラン及び乗り物を含むことができる。遊園地のエリアは、特定の観客に対して特異的に標的化された異なるテーマを有することができる。例えば、これらのエリアには、昔から子供たちにとって興味深いテーマを含むものもあれば、昔からさらに大人の観客にとって興味深いテーマを含むものもある。一般に、このような遊園地に関連するテーマを有する場所は、アトラクション又はテーマ別アトラクションと呼ぶことができる。
テーマ別アトラクションは、固定設備、建物のレイアウト、小道具及び装飾などを用いて構築することができ、一般にこれらのほとんどは特定のテーマに関連することができる。同じ場所に異なるテーマを構築すべき状況では、古いテーマに関連する特徴物を新しいテーマに関連する特徴物に置き替えることができる。その場所のテーマの複雑性によっては、装飾、備品、設備及び小道具などの除去又は置換を行う場合もあるので、このことが非常に困難で時間を要するものであると分かる。実際に、アトラクションのタイプによっては、来園客に没入的体験をもたらすために比較的複雑なテーマの方が一般的になってきている。
現在では、アトラクションテーマの変更が可能と考えられるアトラクションを含め、或いはこのようなアトラクションにおいて、いくつかのテーマ化された特徴物を従来の方法に比べて柔軟かつ効率的に含め又は除去することが望ましいと認識されている。また、現在では、このようなアトラクションに対する来園客の没入的体験を強化し、より個人化又はカスタム化された体験を来園客に提供することが望ましいとも認識されている。
以下、本明細書に開示するいくつかの実施形態の概要を示す。これらの態様は、読者にこれらのいくつかの実施形態の要約を示すものにすぎず、本開示の範囲を限定するものではないと理解されたい。実際には、本開示は様々な態様を含むことができ、以下ではこれらを示していないこともある。
1つの実施形態では、ユーザに拡張現実、仮想現実及び/又は複合現実体験を提供するシステムが、第1のディスプレイと第2のディスプレイとを含む。ユーザは、第1のディスプレイ及び第2のディスプレイを通じて現実環境を見る。システムは、第1のディスプレイを含む装着型可視化装置と、第2のディスプレイを含む固定可視化装置とを含む。第1のディスプレイは、第1の仮想特徴の層を表示するように構成され、第2のディスプレイは、第2の仮想特徴の層を表示するように構成される。システムは、第1の仮想特徴の層及び第2の仮想特徴の層を生成するように構成されたプロセッサを含む。プロセッサは、装着型可視化装置及び固定可視化装置と動作可能に通信して、第1の仮想特徴の層及び第2の仮想特徴の層の表示を協調させるように構成される。
1つの実施形態では、ユーザに拡張現実、仮想現実及び/又は複合現実体験を提供するシステムが、乗客用乗り物車両と、固定可視化装置と、プロセッサとを含む。乗客用乗り物車両は、乗車中に遊園地内の経路又は軌道を移動するように構成される。固定可視化装置は、乗客用乗り物車両に結合された透明ディスプレイを含む。固定可視化装置は、透明ディスプレイを通じて見える現実環境に仮想特徴を重ね合わせるように構成される。プロセッサは、仮想特徴を生成し、仮想特徴の表示を乗り物の乗り物効果と協調させるように構成される。
1つの実施形態では、ユーザに拡張現実、仮想現実及び/又は複合現実体験を提供する方法が、プロセッサを使用して第1の仮想特徴の層及び第2の仮想特徴の層を生成するステップを含む。この方法は、第1の表示時点において、プロセッサからの命令に応答して、第1のディスプレイ上に第1の仮想特徴の層を表示するステップも含む。第1のディスプレイは、装着型可視化装置内に配置される。この方法は、第2の表示時点において、プロセッサからの命令に応答して、第1のディスプレイ上に第2の仮想特徴の層を表示するステップをさらに含む。第2のディスプレイは、装着型可視化装置から物理的に独立した固定可視化装置内に配置される。
本開示の様々な態様に関連して、上述した特徴の様々な改善を行うこともできる。また、これらの様々な態様にさらなる特徴を組み込むこともできる。これらの改善及びさらなる特徴は、個別に又はあらゆる組み合わせで存在することができる。
全体を通じて同じ要素を同じ記号で示す添付図面を参照しながら以下の詳細な説明を読めば、本開示のこれらの及びその他の特徴、態様及び利点がより良く理解されるであろう。
本発明の実施形態による、拡張現実(AR)又は仮想現実(VR)システムにおいて使用できる装着型可視化装置及びコンピュータグラフィックス生成システムの実施形態を示す図である。 本発明の実施形態による図1の装着型可視化装置の実施形態の分解斜視図である。 本発明の実施形態による図1の装着型可視化装置の実施形態の分解斜視図である。 本発明の実施形態による、乗客用乗り物車両内で使用できる図1の拡張現実(AR)又は仮想現実(VR)システムの固定可視化装置及び装着型可視化装置を示す図である。 本発明の実施形態による、固定可視化装置を有する拡張現実(AR)又は仮想現実(VR)システムの実施形態を示す、図4の乗客用乗り物車両の斜視図である。 本発明の実施形態による、装着型可視化装置及び固定可視化装置を有する拡張現実(AR)又は仮想現実(VR)システムの実施形態を示す、図4の乗客用乗り物車両の斜視図である。 本発明の実施形態による、図4の拡張現実(AR)又は仮想現実(VR)システムの動作方法のフローチャートである。
以下、本開示の1又は2以上の特定の実施形態について説明する。これらの実施形態を簡潔に説明するために、本明細書では実施の特徴を全て説明していない場合もある。あらゆる工学又は設計プロジェクトにおいて見られるようなあらゆるこのような実施の開発においては、実施によって異なり得るシステム関連及びビジネス関連の制約の順守などの開発者の個別の目的を達成するために、数多くの実施固有の決定を行わなければならないと理解されたい。さらに、このような開発努力は複雑かつ時間の掛かるものとなり得るが、本開示の恩恵を受ける当業者にとっては設計、製作及び製造という日常的な取り組みであると理解されたい。
本実施形態は、遊園地又はテーマパークに関連するアトラクションの一部として、拡張現実(AR)体験、仮想現実(VR)体験、複合現実(例えば、ARとVRの組み合わせ)体験、又はこれらの組み合わせを提供するシステム及び方法に関する。本実施形態によれば、これらのアトラクションが必ずしも遊園地の分野に限定されないこともある。実際に、本開示の態様は、遊園地に関連するホテル、或いは遊園地及び/又はホテルとの間で来園客を輸送する車両などの、遊園地の境界を越えた場所におけるアトラクションの実装に関することもできる。
本実施形態は、例えばいくつかのハードウェア構成、ソフトウェア構成(例えば、アルゴリズム構造)、並びにAR体験、VR体験及び/又は複合現実体験を実装するために利用できるアトラクション機能の組み合わせを含む。このような体験は、遊園地の来園客に、カスタマイズ可能な、個人化された、相互作用的なものとすることができるアトラクションに満ちた体験を提供することができる。
例えば、本実施形態は、遊園地の来園客及び従業員がAR、VR及び/又は複合現実シーンを見ることができる装着型可視化装置(例えば、電子ゴーグル又はディスプレイ、眼鏡)及び固定可視化装置(例えば、透明発光ダイオード[LED]ディスプレイ、透明有機発光ダイオード[OLED]ディスプレイ)などの視覚装置を含むことができる。なお、本明細書に開示する固定可視化装置は、乗客用乗り物車両又は建物の壁などの構造に固定及び/又は結合することができると理解されたい。固定可視化装置は、装着型可視化装置から物理的に独立した異なるものとすることができる。いくつかの実装を利用して、例えば遊園地に関連する環境内の特徴を仮想的に除去又は追加することによって来園客の体験を強化したり、同じ乗り物において異なる体験が得られるように調整可能な仮想環境を提供したり、ある来園客が別の来園客と同じ視点を持てるようにしたりすることができる。
遊園地内のいくつかのアトラクションは、AR体験、VR体験又は複合現実体験にさらなる深み及び/又はリアリズムなどを追加するために視覚装置と協働するように特異的に設計できる乗客用乗り物車両を含むことができる。1つの実施形態では、固定可視化装置が、透明ディスプレイを含むことができる。1つの実施形態では、透明ディスプレイ(例えば、透明LED素子、透明OLEDディスプレイ)の一部又は全部に仮想イメージ及び/又は仮想ビデオを重ね合わせることによって、乗客用乗り物車両の客室の従来のパネル及び/又は窓(例えば、ガラス、アクリル)を、客室の外部の風景を増補できる透明ディスプレイに置き換えることができる。例えば、1つの実施形態では、乗客用乗り物車両がアニメフィギュアを通り過ぎて移動する際に透明ディスプレイを用いて結露を表示して、アニメフィギュア(例えば、ドラゴン)が乗客用乗り物車両に息を吹きかけているような錯覚を引き起こすことができる。
これに加えて、又はこれとは別に、装着型可視化装置を使用して乗客の環境認識を増補することもできる。例えば、装着型可視化装置は、アニメフィギュアが客室内に入り込んで来る(例えば、ドラゴンが客室内に手を伸ばしたり、炎を吐いたりする)ような錯覚を引き起こすことによって来園客の没入的体験を強化することができる。固定可視化装置及び装着型可視化装置は、単独で動作するように構成することも、或いはコントローラ(例えば、コンピュータグラフィックス生成システム、1又は2以上のプロセッサ)を通じて動作可能に結合することによって、固定可視化装置及び装着型可視化装置上に表示される可視化を同期及び/又は協調させることもできる。コントローラは、装着型可視化装置及び/又は固定可視化装置によって提供されるAR体験、VR体験及び/又は複合現実体験を、乗客用乗り物車両の軌道の周囲に配置された外部アニマトロニクス又はその他の乗り物要素と同期及び/又は協調させることもできる。
さらに、装着型可視化装置からいくつかのデータを収集して、計算パワー及び/又はその他のリソースを標的化広告のためにさらに効率的に利用したり、効果の誘発又はショーの調整のために珍しい仮想特徴(例えば、「隠れキャラ(Easter egg)」)を提供したりすることもできる。例えば、乗り物制御システムは、乗り物の移動を開始する前、又はその他の変化を開始する(例えば、固定可視化装置上の仮想イメージを変更する)前に、装着型可視化装置を装着している乗客が(例えば、固定可視化装置上の仮想イメージを見るために)特定の方向を見ていたかどうかを判定することができる。従業員の可視化データを収集することもできる。例えば、乗り物制御システムは、乗り物の移動を開始する前に、乗り物を操作する従業員が(例えば、乗り物に乗り込んでいる最中の来園客がいないことを確認するために)特定の方向を見ていたかどうかを判定することができる。可視化装置は、乗り物オペレータヘッドアップディスプレイ(HUD)として機能するように使用することもできる。
説明に役立つように、図1に、ユーザ12(例えば、来園客、遊園地従業員)による制御されたAR体験、VR体験及び/又は複合現実シーンの体験(例えば、視聴、相互作用)を可能にするように構成されたAR/VRシステム10の実施形態を示す。いくつかの実施形態によれば、ユーザ12は、いくつかの実施形態では電子眼鏡16(例えば、AR/VR眼鏡、ゴーグル)を含むことができる装着型可視化装置14を購入又は別様に入手することができる。以下でさらに詳細に説明するように、装着型可視化装置14は、電子眼鏡16の少なくとも一部を収容するように構成された、ヘッドバンドとして示す装着部分18を含むことができる。
装着型可視化装置14は、単独で又は他の特徴と組み合わせて使用して、ユーザ12のためのAR体験、VR体験、複合現実体験、コンピュータ利用現実体験、これらの組み合わせ、又は他の同様の非現実的環境を含むことができる非現実的環境20を生成することができる。具体的に言えば、ユーザ12は、乗り物(例えば、乗客用乗り物車両)の継続時間全体を通じて、又はゲーム中、遊園地の特定のエリアへの進入時、遊園地に関連するホテルまでの乗車中及びホテル滞在時などの別の所定の時点に装着型可視化装置14を装着することができる。
1つの実施形態では、装着型可視化装置14が、透明な表面(例えば、ガラス)にいくつかの仮想特徴を重ね合わせることができる装置、又は実質的にリアルタイムなビデオ上に仮想特徴を重ね合わせる装置、或いはこれらの組み合わせを含むことができる(例えば、装着型可視化装置14は、ユーザ12の可視化を透明なものと不透明なものとの間で切り替えることができる)。1つの実施形態では、装着型可視化装置14が、仮想特徴が現実世界の物体に重なり合うようにユーザ12の一方又は両方の眼に光を投影するように構成された、光投影機能などの機能を含むことができる。このような装着型可視化装置14は、網膜ディスプレイを含むと考えることができる。
従って、1つの実施形態では、ユーザ12が、実質的に透明な電子眼鏡16を通じて、物理的環境に仮想特徴が組み込まれていると感じるように電子眼鏡16(又は、ユーザ12の眼)の表面上に特定の仮想特徴が重なり合った状態で現実環境を見ることができる。1つの実施形態では、ユーザ12が、仮想特徴が重なり合った物理的環境のリアルタイムビデオを見ることができる。
1つの実施形態では、ユーザ12が、装着型可視化装置14を装着する際に、完全に非現実的環境20に包まれていると感じることができ、この非現実的環境20を、いくつかの仮想特徴を含む現実世界の物理的環境であると知覚することができる。具体的に言えば、1つの実施形態では、非現実的環境20を、1又は2以上の拡張現実イメージ又は仮想現実イメージ24と電子的に融合した物理的環境の現実世界のイメージ22を含むリアルタイムビデオとすることができるように(例えば、仮想的増強)、装着型可視化装置14が(例えば、不透明画面を使用して)ユーザ12の視点を完全に制御することができる。
一般に、現実世界のイメージ22とは、たとえ装着型可視化装置14を装着していない時であってもユーザ12に見えているであろうものを意味する。「リアルタイム」という用語は、実際の観察時間に実質的に近い時間枠内でイメージが取得及び/又は提供されることを示す。具体的に言えば、他の実施形態では、非現実的環境20が、透明な表面又はユーザ12の眼に拡張現実イメージ又は仮想現実イメージ24が重なり合った実際の物理的環境であるように、装着型可視化装置14が(例えば、透明画面を使用して)ユーザ12の視点を部分的にのみ制御することもできる。本開示のさらなる実施形態によれば、拡張現実イメージ又は仮想現実イメージ24は、その物体がもはや存在しないように又は削除されたように見えるように(例えば、現実世界の物体が仮想オブジェクト又は仮想環境表現によって完全に又は部分的に見えなくなるように)現実世界の物体に重なり合うように機能することができる。
1つの実施形態では、装着型可視化装置14の切り取られた部分に示すように、装着型可視化装置14が、非現実的環境20の特徴形成を支援するために、プロセッサ26などの処理回路25とメモリ28とを含むことができる。プロセッサ26は、例えば現実世界のイメージ22及び/又は1又は2以上の拡張現実イメージ又は仮想現実イメージ24(例えば、仮想特徴又は仮想イメージ)を生成する本開示の方法を実行するための命令を実行するようにメモリ28に動作可能に結合することができる。これらの命令は、メモリ28及び/又はその他の記憶装置などの有形の非一時的コンピュータ可読媒体に記憶されるプログラム又はコードに符号化することができる。プロセッサ26は、汎用プロセッサ、システムオンチップ(SoC)デバイス、特定用途向け集積回路(ASIC)、又は他の何らかの同様のプロセッサ構成とすることができる。メモリ28及びプロセッサ26は、共にAR/VRシステム10の全部又は一部を形成することができる。
1つの実施形態では、さらに示すように、装着型可視化装置14が、それぞれがユーザ12のそれぞれの眼に対応する(例えば、眼鏡レンズが現れるはずの装着型可視化装置14の前方のフレームに設けることができる)1対のディスプレイ30及び32を含むこともできる。1つの実施形態では、統一ディスプレイを使用することができる。非制限的な例として、それぞれのディスプレイ30及び32は、拡張現実イメージ又は仮想現実イメージ24を重ね合わせることができる透明レンズを含むことができる。1つの実施形態では、ディスプレイ30及び32を、拡張現実イメージ又は仮想現実イメージ24を重ね合わせるように構成されたそれぞれの周辺部に隣接して位置する特徴部(例えば、回路、発光体)を含むことができる表示面とすることができる。
これに加えて、又はこれとは別に、ディスプレイ30及び32は、現実世界のイメージ22及び拡張現実イメージ又は仮想現実イメージ24をユーザ12に表示する上で役立つ不透明な液晶ディスプレイ(LCD)、不透明な有機発光ダイオード(OLED)ディスプレイ又はその他の同様のディスプレイを含むこともできる。1つの実施形態では、それぞれのディスプレイ30及び32が、例えばそれぞれのディスプレイ30及び32上に実際の物理的環境(例えば、遊園地に関連するアトラクション、又は乗客用乗り物車両の内部)へのオーバーレイとして現れる拡張現実イメージ又は仮想現実イメージ24をユーザ12に見えるようにする上で役立つ透明な(例えば、シースルー型の)LEDディスプレイ又は透明な(例えば、シースルー型の)OLEDディスプレイを含むことができる。以下でさらに詳細に説明するように、このような構成は、他のディスプレイ上に出現する他の仮想イメージの層をユーザ12に見えるようにすることもできる。
装着型可視化装置14のカメラ34及び36は、それぞれユーザ12の視点に対応することができ、これらを使用して物理的環境のリアルタイムビデオデータ(例えば、ライブビデオ)又は周囲光信号を捕捉することができる。1つの実施形態では、単一のカメラを使用することができる。装着型可視化装置14は、とりわけ仮想特徴が直接ユーザ12の眼に投影される実施形態で役立つことができる、ユーザの眼の動きを追跡するさらなるカメラを含むこともできる。装着型可視化装置14の(例えば、無線送信機を含む)通信機能38は、それぞれのカメラ34及び36を通じて取り込まれたリアルタイムデータ(例えば、ビデオデータ、視線追跡データ)を処理のためにプロセッサ26及び/又はコンピュータグラフィックス生成システム40に送信することができる。
図示のように、装着型可視化装置14は、無線ネットワーク42(例えば、無線ローカルエリアネットワーク[WLAN]、無線ワイドエリアネットワーク[WWAN]、近距離通信[NFC])を介してコンピュータグラフィックス生成システム40(例えば、遊園地内のサーバ)に通信可能に結合することができる。しかしながら、他の実施形態では、それぞれのカメラ34及び36を通じて取り込まれたリアルタイムビデオデータを、プロセッサ26を介して装着型可視化装置14上で処理することもできる。さらに、プロセッサ26に接続された通信機能38(例えば、無線トランシーバ、入力/出力コネクタ)は、プロセッサ26及びメモリ28上に含まれるファームウェア及び/又はソフトウェアの更新、及び/又は特定の用途のための構成を可能にすることもできる。1つの実施形態では、無線ネットワーク42が、AR/VRシステム10の全部又は一部のコンポーネントを通信可能に結合することができる。
装着型可視化装置14の他の特徴は、装着型可視化装置14のセンサを介して取得されたデータに基づいて取得及び/又は導出された配向データ、位置データ、視点データ(例えば、焦点距離、配向、ポーズ)及び動き追跡データなどを送信することができる。このようなセンサは、配向センサ及び位置センサ(例えば、加速度計、磁力計、ジャイロスコープ、全地球測位システム[GPS]受信機)、動き追跡センサ(例えば、電磁動き追跡センサ及び固体動き追跡センサ)、及び慣性測定装置(IMU)などを含むことができる。
いくつかの実施形態では、モニタリングシステム41(例えば、1又は2以上のカメラ)が装着型可視化装置14の特徴(例えば、幾何学的特徴又はマーク)をモニタして、装着型可視化装置14の、さらにはユーザ12の位置、場所、配向などを決定することができる。モニタリングシステム41は、コンピュータグラフィックス生成システム40に通信可能に結合することができ、ユーザ12(又は、複数のユーザ)の位置、場所及び配向などを識別するために使用することができる。
コンピュータグラフィックス生成システム40は、プロセッサ44(例えば、汎用プロセッサ又はその他のプロセッサ)などの処理回路43及びメモリ46を含み、装着型可視化装置14及びモニタリングシステム41から受け取られたリアルタイムビデオデータ(例えば、ライブビデオ)、配向及び位置データ、視点データ又はこれらのいずれかの組み合わせを処理することができる。具体的に言えば、コンピュータグラフィックス生成システム40は、このデータを使用して、例えば生成された現実世界のイメージ22などの物理的環境に拡張現実イメージ又は仮想現実イメージ24を位置合わせするための基準系を生成することができる。具体的に言えば、その後にグラフィクス生成システム40は、配向データ、位置データ、視点データ及び動き追跡データなどに基づいて生成された基準系を使用して、拡張現実イメージ又は仮想現実イメージ24、及び1つの実施形態では現実世界のイメージ22のビューを、ユーザ12が装着型可視化装置14を装着していない場合に知覚すると思われるものに時間的及び空間的に整合するようにレンダリングすることができる。グラフィクス生成システム40は、現実世界のイメージのレンダリングを、それぞれのユーザ12のそれぞれの配向、位置及び/又は動きの変化を反映するように絶えず(例えば、リアルタイムで)更新することができる。いくつかの実施形態では、コンピュータグラフィックス生成システム40が、各ユーザ12(又は、少なくとも一部のユーザ12)が対応する装着型可視化装置14を有する複数のユーザ12(例えば、乗客用乗り物車両の乗客)に対応するこのようなデータを追跡することができる。
上述したように、装着型可視化装置14は複数のコンポーネントを含み、一般にユーザ12の頭部に装着されるように構成された電子眼鏡16を含むことができる。電子眼鏡16の構成及び実装は、異なるユーザ12の異なるサイズに良好に対応するように異なるサイズ及び形状を有するとともに、異なる実装に対応するように異なる内部コンポーネント(例えば、通信機能、トランスデューサ、ディスプレイ)を有することができる、様々な異なるものを使用することができる。
装着型可視化装置14の装着部分18は、電子眼鏡16にさらなる柔軟性及びサポートをもたらすために様々な形を取ることができ、その実施形態例を図2及び図3に示す。図2では、装着型可視化装置14が、装着部分18としてのヘッドバンドを含む。装着部分18のこのような実施形態は、ユーザ12の動きに対応すると同時にユーザ12に快適性(例えば、弾性材料、汗を逃がす材料、パッド)を与えるように構成された様々な材料を含むことができる。現在のところ、装着部分18及び電子眼鏡16は、装着型可視化装置14の処理回路25(図1)に対するリスクを伴わずに装着部分18を洗浄できるように、独立したものであることが望ましいと認識されている。しかしながら、いくつかの実装では、装着部分18が、処理回路25の1又は2以上の電子部品を含むこともできる。このような実施形態では、損傷を避けるために、装着部分18の電子部品を実質的に環境から離して密封することができる。
図2の装着部分18の実施形態は、電子眼鏡16を受け取って使用中に電子眼鏡16の位置をユーザ12(図1)の眼に対して維持するように構成されたレセプタクル領域60を含む。この点、1つの実施形態では、レセプタクル領域60が、電子眼鏡16のディスプレイ30、32(図1)の外周部周辺に固定できる中央部62と、電子眼鏡16のアーム66を(例えば、部分的に又は完全に)取り囲むように構成された側面部64とを含むことができる。
レセプタクル領域60の中央部62は、ユーザ12の快適性を可能にするパッドを含むことができ、ヘッドバンドは、ユーザ12の頭部に対する(例えば、電子眼鏡16の位置を維持するための)適切な圧縮力をもたらす。1つの実施形態では、中央部62が、安定性と快適性の適切な組み合わせをもたらす皮膚摩擦係数を有する1又は2以上の材料を含むことができる。例えば、一般に電子眼鏡16の鼻領域において使用されるジェル材料が適することができる。
図3の実施形態に示すように、装着部分18は、ヘッドバンドに加えて又はヘッドバンドの代わりに他の特徴を含むこともできる。図示のように、装着部分18は、ユーザ12の頭部を覆って着用されるキャップ70、及び図2に示すヘッドバンドと同様の特徴を含む。いくつかの実施形態では、図示のように、キャップ70が、ヘッドバンド部分74に重なる固定領域72を含むことができる。固定領域72は、キャップ70とヘッドバンド部分74とを固定できるように構成された、面ファスナ、留め金具、ボタン、磁気ストリップなどの閉鎖機構を含むことができる。このように、キャップ70をヘッドバンド部分74から分離できることにより、これらを別個に使用したり、別個に洗濯したりすることができる。1つの実施形態では、ヘッドバンド部分74をキャップ70から容易に取り外せないように、ヘッドバンド部分74をキャップ70に一体化する(例えば、キャップ70に縫い込む)こともできる。
図示のキャップ70の実施形態は、太陽及び天井照明などの強い照明源からユーザ12の眼、電子眼鏡16及びその関連するディスプレイ30、32(図1)を保護する役割を果たすバイザー76を含む。例えば、バイザー76は、ディスプレイ30、32が光の反射に基づいて動作する、及び/又は透明又は半透明である実施形態では特に有用となり得る。このような実施形態では、バイザー76が、物理的環境の背景に対する拡張現実イメージ又は仮想現実イメージ24(図1)の知覚される視覚コントラストを高めるのに役立つことができる。
図3に示す装着型可視化装置14の実施形態は、電子眼鏡16のディスプレイ30、32(図1)を覆って配置されるように構成されたディスプレイカバー78も含む。ディスプレイカバー78は、ディスプレイ30、32に陰をもたらして、ディスプレイ30、32を物理的酷使から保護し、拡張現実イメージ又は仮想現実イメージ24のコントラスト及び可視化の強化、並びに光フィルタリングなどのための、一定程度の不透明度をもたらすことができる。ディスプレイカバー78は、取り外し可能であって電子眼鏡16にディスプレイカバー78を取り付けように構成されたクリップ79などのいずれかの適切な固定機構を含むことができる。一時的接着剤及び/又は面ファスナなどの他の固定機構を使用することもできる。
次に、1又は2以上の透明ディスプレイ82で構成できる固定可視化装置80をさらに含むことができるAR/VRシステム10の実施形態を示す図4を参照する。なお、本明細書に開示する固定可視化装置80は、乗客用乗り物車両86又は建物の壁などの構造に固定及び/又は結合することができると理解されたい。固定可視化装置80は、装着型可視化装置14から物理的に独立した異なるものとすることができる。固定可視化装置80は、図1の装着型可視化装置14の代わりに、又は装着型可視化装置14と組み合わせて使用することができる。従って、透明ディスプレイ82を使用して、装着型可視化装置14によって生成されたAR体験、VR体験及び/又は複合現実体験に取って代わり、又はこれらの体験を強化することができる。1つの実施形態では、固定可視化装置80が、ユーザ12が知覚できる拡張現実特徴又は仮想現実特徴のさらなる層を追加することができる。
1つの実施形態では、透明ディスプレイ82を乗客用乗り物車両86の客室84に結合することができる。以上を考慮して、最初に図4に概略的に示すような、遊園地90内でAR/VRシステム10を使用できる設定の実施形態について説明することが有用となり得る。図示のように、遊園地90は、絶叫マシン(thrill ride)92、遊園地設備のモール94(例えば、ゲームエリア、ホテル、レストラン、土産物店)及びさらなる遊園地アトラクション96(例えば、観覧車、ダークライド)を含むことができる。いくつかの実施形態では、絶叫マシン92が、ジェットコースター又は他の同様の絶叫マシン92を含むことができ、従って周辺の物理的環境100(例えば、公園施設94、さらなる遊園地アトラクション96)の周囲に配置された閉ループ軌道システム98(例えば、何マイルもの軌道98)などの経路をさらに含むことができる。軌道98は、例えば乗客102(例えば、図1のユーザ12)が絶叫マシン92に乗っている時に乗客用乗り物車両86が移動できるインフラとして設けることができる。図示の実施形態には1人の乗客102しか示していないが、乗客用乗り物車両86は、1人、2人、3人、4人、5人又は6人以上の乗客102を収容するように構成することもできる。
従って、軌道98は、乗客用乗り物車両86の動きを定めることができる。しかしながら、1つの実施形態では、軌道98を、軌道98以外の電子システム、磁気システム又は他の同様のシステムインフラを介して乗客用乗り物車両86の動きを制御できる制御経路に置き換えることもできる。換言すれば、乗客用乗り物車両86の乗り物経路は、正確な経路に物理的に制約されないことにより、乗客102に動作経路、視界(view perspective)などの一定程度の制御を許可することもできる。
乗客用乗り物車両86が軌道98を移動する際には、乗客102に、絶叫マシン92の周囲又は付近のエリアの物理的環境100の移動ツアーを提供することができる。さらに、乗客用乗り物車両86は、人間又は動物を模倣するように、或いは本来は無機質なオブジェクトに生きているような特徴を与えるように構成できるロボット装置(例えば、アニマトロニックフィギュア97)を通過することもできる。アニマトロニックフィギュア97は、軌道98の一部の周囲に配置して、乗客用乗り物車両86が軌道98を移動する際に乗客102と相互作用する(例えば、乗客102を怖がらせる及び/又は驚かす)ように構成することができる。アニマトロニックフィギュア97は、空圧モータ、油圧モータ、電動モータ、又はアニマトロニックフィギュア97を作動させるいずれかのさらなる手段によって駆動することができる。乗客102が絶叫マシン92を非常に楽しい体験であると感じることができる一方で、乗客102の乗り物体験を強化することが有用となり得る。具体的には、物理的環境100、さらなる遊園地アトラクション96、及び/又は軌道98の周囲に配置されたアニマトロニックフィギュア97のみを物理的に眺めるのではなく、乗客102にさらなるAR体験、VR体験又は複合現実体験を提供することが有用となり得る。これらの体験の提供は、乗客用乗り物車両86が絶叫マシン92の軌道98に沿って移動している時に、装着型可視化装置14、固定可視化装置80、又はこれらの両方を使用して行うことができる。
図5に、乗客102が固定可視化装置80を使用できるAR/VRシステム10の実施形態を示す。上述したように、固定可視化装置80の透明ディスプレイ82は、透明LEDディスプレイ、透明OLEDディスプレイ、又は用途に適したいずれかのディスプレイとすることができる。透明ディスプレイ82は、作動していない時には実質的に及び/又は完全に透明とすることができる。従って、1つの実施形態では、側部パネル88などの客室84の一部に透明ディスプレイ82を組み込むことによって、従来の窓(例えば、ガラス窓、アクリル窓)のような錯覚を引き起こすことができる。これに加えて、又はこれとは別に、乗客用乗り物車両86のいずれかの部分(例えば、前方、後方、天井、床)に透明ディスプレイ82を結合することもできる。従って、乗客102は、透明ディスプレイ82を介して(例えば、従来の窓などを通して)物理的環境100を見ることができる。1つの実施形態では、透明ディスプレイ82を(例えば、連続的に又は特定の時点で定期的に)作動させて実質的に及び/又は完全に不透明にすることにより、客室84が(例えば、従来の窓を欠いた)1枚壁又はパネルによって完全に閉じ込められたような錯覚を引き起こすことができる。
1つの実施形態では、透明ディスプレイ82の表面にいくつかの仮想特徴を重ね合わせることができる。乗客102は、乗客102が透明ディスプレイ82を通して見た時に形成できる1又は2以上の視線110を通じて物理的環境100を見ることができる。透明ディスプレイ82を使用して、乗客102の視線110に拡張現実イメージ又は仮想現実イメージ112を重ね合わせることができる。こうすることで、乗客102は、仮想特徴が物理的環境100に溶け込んでいる(例えば、物理的に存在する)と感じることができる。例えば、乗客102が見ている物理的環境100が、透明ディスプレイ82の透明画面上に重なり合った拡張現実イメージ又は仮想現実イメージ112を含む実際の環境であるように、(例えば、透明画面を使用して)透明ディスプレイ82が乗客102の視線110を部分的にしか遮らないようにすることができる。1つの実施形態では、乗客102が、透明ディスプレイ上の重なり合った仮想特徴を有する物理的環境のリアルタイムビデオを見ることができる。
1つの実施形態では、固定可視化装置80を、乗客用乗り物車両86に結合できる処理回路116に動作可能に結合することができる。処理回路116は、プロセッサ118(例えば、汎用プロセッサ又は他のプロセッサ)と、通信機能119(例えば、無線トランシーバ)と、メモリ120とを含むことができる。プロセッサ118は、例えば、現実世界のイメージ121(例えば、物理的環境100のリアルタイムビデオ)及び/又は拡張現実イメージ又は仮想現実イメージ112を生成する本開示の方法を実行するための命令を実行するようにメモリ120に動作可能に結合することができる。これらの命令は、メモリ120及び/又はその他の記憶装置などの有形の非一時的コンピュータ可読媒体に記憶されるプログラム又はコードに符号化することができる。プロセッサ118は、汎用プロセッサ、システムオンチップ(SoC)デバイス、特定用途向け集積回路(ASIC)、又は他の何らかの同様のプロセッサ構成とすることができる。1つの実施形態では、乗客用乗り物車両86が絶叫マシン92の軌道98を移動する際に、乗客102が、透明ディスプレイ82を介して拡張現実イメージ又は仮想現実イメージ112及び周囲の物理的環境100を見ることができる。処理回路116は、通信機能119及び/又は無線ネットワーク42を介して、(例えば、遊園地内の)コンピュータグラフィックス生成システム40に通信可能に結合することができる。1つの実施形態では、処理回路116が、コンピュータグラフィックス生成システム40とは無関係に動作することができる。本明細書でさらに詳細に説明するように、固定可視化装置80は、装着型可視化装置14(図1)のプロセッサ26(図1)に動作可能に結合することができ、従って固定可視化装置80の拡張現実イメージ又は仮想現実イメージ112を装着型可視化装置14の拡張現実イメージ又は仮想現実イメージ24(図1)と同期及び/又は協調させることができる。
1つの実施形態では、乗客用乗り物車両86の外部に結合されたカメラ122からリアルタイムビデオデータ(例えば、ライブビデオデータ)を受け取ることができる。図示の実施形態には1つのカメラ122しか示していないが、乗客用乗り物車両86は、乗客用乗り物車両86を取り囲む物理的環境100の現実世界のイメージ121を取り込むために1台、2台、3台、4台、5台又は6台以上のカメラ122を支持することができる。処理回路116は、リアルタイムビデオデータを処理して、現実世界のイメージ121を生成して透明ディスプレイ82上に表示することができる。1つの実施形態では、現実世界のイメージ121を予め録画して処理回路116のメモリ120に保存しておくことができる。また、処理回路116は、乗客用乗り物車両86に結合できるカメラ122及び/又はさらなるセンサ124から受け取られた配向及び位置データ、視点データ又はこれらのいずれかの組み合わせを収集することができる。具体的に言えば、処理回路116は、このデータを使用して、生成された拡張現実イメージ又は仮想現実イメージ112を、乗客102が視線110を通じて見ることができる現実世界のイメージ121及び/又は物理的環境100に位置合わせし、同期させ、及び/又は協調させることができる基準系を生成することができる。
例えば、処理回路116は、カメラ122及び/又はセンサ124によって収集されたデータを使用して、物理的環境100の現実世界のイメージ121を透明ディスプレイ82上に生成することができる。具体的に言えば、処理回路116は、配向データ、位置データ、視点データ、動き追跡データなどに基づいて生成された基準系を使用して、拡張現実イメージ又は仮想現実イメージ112、及び1つの実施形態では現実世界のイメージ121のビューを、乗客102が従来の窓(例えば、ガラス窓)を通して周囲の環境を見ている場合に知覚すると思われるものに時間的及び空間的に整合するようにレンダリングすることができる。処理回路116は、拡張現実イメージ又は仮想現実イメージ112及び/又は現実世界のイメージ121のレンダリングを、乗客102のそれぞれの配向、位置及び/又は視線110の動きの変化を反映するように絶えず(例えば、リアルタイムで)更新することができる。
これに加えて、又はこれとは別に、処理回路116は、物理的環境100又は物理的環境100の現実世界のイメージ121を、乗客102の乗り物体験を強化するように増補する(例えば、物理的環境100を軌道98のテーマに一致するように変更する)こともできる。例えば、透明ディスプレイ82は、透明ディスプレイ82を通じた物理的環境100のビューを増補するために雨垂れ又は降雪をレンダリングすることができる。1つの実施形態では、透明ディスプレイ82が、物理的環境100のビューを架空の設定(例えば、ジャングル、宇宙など)の拡張現実イメージ又は仮想現実イメージ112で部分的に又は完全に覆うことができる。
処理回路116は、乗客102と相互作用できる乗り物効果又は要素(例えば、アニマトロニックフィギュア97)のタイミングを制御することができる。1つの実施形態では、コンピュータグラフィックス生成システム40、独立した乗り物制御システム126、又はこれらの両方の組み合わせによって乗り物効果のタイミングを制御することもできる。乗り物効果は、乗客用乗り物車両86が軌道98を移動する際に透明ディスプレイ82上に表示される拡張現実イメージ又は仮想現実イメージ112と同期及び/又は協調させることができる。乗り物効果を拡張現実イメージ又は仮想現実イメージ112と同期及び/又は協調させることによって、絶叫マシン92の没入的体験を乗客102のために強化することができる。
乗り物効果は、乗客用乗り物車両86が絶叫マシン92の軌道98を移動する際に乗客用乗り物車両86と相互作用するように構成することができる。例えば、1つの実施形態では、乗客用乗り物車両86の前の軌道98をアニマトロニックフィギュア97が一時的に遮断して、乗客用乗り物車両86がアニマトロニックフィギュア97に衝突するかもしれないという錯覚を引き起こすことができる。1つの実施形態では、アニマトロニックフィギュア97(例えば、ドラゴン)を、乗客用乗り物車両86に攻撃を加える(例えば、乗客用乗り物車両86の方向に炎を吐く)ような錯覚をもたらすように構成することができる。乗客102がアニマトロニックフィギュア97による相互作用を非常にスリルに富んだ体験であると感じることができる一方で、1つの実施形態では、アニマトロニックフィギュア97の動きと同期及び/又は協調させることができる拡張現実イメージ又は仮想現実イメージ112を通じて乗客の乗り物体験を強化することが有用となり得る。
例えば、1つの実施形態では、透明ディスプレイ82が、乗客102の視線110上にガラスのひび128又は損傷130(例えば、炎による変色又は焦げ)を重ね合わせることができる。これにより、乗客102が感じるアニマトロニックフィギュア97のリアリズムをさらに高めることができる。1つの実施形態では、透明ディスプレイ82が、視線110上に(例えば、動物の呼吸による)結露132を重ね合わせることにより、アニマトロニックフィギュア97が乗客用乗り物車両86の非常に近くに存在すると乗客102が感じるような錯覚を引き起こすことができる。これに加えて、又はこれとは別に、透明ディスプレイ82上にいずれかの望ましい拡張現実イメージ又は仮想現実イメージ112を生成することによって特殊効果のリアリズムを高めることもできる。例えば、拡張現実イメージ又は仮想現実イメージ112が飛び跳ねる虫、雹害及び/又はダストカバーを含むことによって絶叫マシン92のリアリズムを高めることができる。
図6に、乗客102が図1の装着型可視化装置14と図5の固定可視化装置80とを同時に使用しているAR/VRシステム10の実施形態を示す。上述したように、装着型可視化装置14を固定可視化装置80と併用して、乗客102の没入的なAR体験、VR体験及び/又は複合現実体験を強化することができる。例えば、1つの実施形態では、装着型可視化装置14を使用して拡張現実イメージ又は仮想現実イメージ24などの仮想特徴を乗客102の眼に重ね合わせることによって、客室84内の物理的環境100を強化することができる。従って、装着型可視化装置14は、乗客用乗り物車両86の客室84内に非現実的環境20を形成することができる。1つの実施形態では、透明ディスプレイ82が、拡張現実イメージ又は仮想現実イメージ112などの仮想特徴を乗客102の視線110に重ね合わせることによって、客室84の外部の物理的環境100を強化することができる。このようにして、乗客102は、装着型可視化装置14上の拡張現実イメージ又は仮想現実イメージ24と、固定可視化装置80の透明ディスプレイ82上の拡張現実イメージ又は仮想現実イメージ112とを同時に又は協調的に見ることができる。或いは、装着型可視化装置14は、乗客用乗り物車両86の客室84の外部に非現実的環境20を形成することもできる。このようにして、透明ディスプレイ82が前景において仮想特徴を重ね合わせ、装着型可視化装置14が背景において細部を増補することができる。
1つの実施形態では、透明ディスプレイ82が、乗客用乗り物車両86の外部に影響を与えるように思われるガラスのひび128、破損130及び/又は結露132などの表現手段を示すことができる。1つの実施形態では、装着型可視化装置14が、表現手段(例えば、湿気又は結露132など)が乗客用乗り物車両86の客室84に入り込んでくるような錯覚をさらに引き起こすことができる。これにより、AR体験、VR体験、複合現実体験、コンピュータ利用現実体験又はこれらの組み合わせの中に複数の仮想特徴の層を形成することができる。図示の実施形態には2つの層しか示していないが、AR/VRシステム10は、乗客102が相互作用できる1つ、2つ、3つ、4つ又は5つ以上の仮想特徴の層を生成するように構成することもできる。例えば、乗客用乗り物車両86の客室84に複数の透明ディスプレイ82を(例えば、互いに積み重なった)一連の層の形で結合して、各透明ディスプレイ82が仮想特徴の層を生成できるようにすることができる。
例えば、乗客102は、第1の仮想特徴(例えば、拡張現実イメージ又は仮想現実イメージ24)の層を生成できる装着型可視化装置14の電子眼鏡16(図1)を通じて見ることができる。さらに、乗客102は、第2の仮想特徴(例えば、拡張現実イメージ又は仮想現実イメージ112)の層を生成できる固定可視化装置80の透明ディスプレイ82を(例えば、装着型可視化装置14の電子眼鏡16を通じて)見ることができる。AR/VRシステム10は、第1の仮想特徴の層、第2の仮想特徴の層、さらなる仮想特徴の層又はこれらのいずれかの組み合わせを生成して、乗客102にAR体験、VR体験及び/又は複合現実体験をもたらすように構成することができる。
従って、1つの実施形態では、AR/VRシステム10が、固定可視化装置80によって生成された拡張現実イメージ又は仮想現実イメージ112を通じて、乗客102が知覚する周囲の物理的環境100(例えば、遊園地90)を変化させることができ、装着型可視化装置14を使用して客室84内に非現実的環境20を形成することができる。1つの実施形態では、装着型可視化装置14が、透明ディスプレイ82と組み合わせて、又は透明ディスプレイ82の代わりに、周囲の状況物理的環境100をさらに変化させることができる。
装着型可視化装置14及び固定可視化装置80の拡張現実イメージ又は仮想現実イメージ24及び/又は112は、装着型可視化装置14のプロセッサ26(図1)、コンピュータグラフィックス生成システム40のプロセッサ44(図1)、固定可視化装置80のプロセッサ118、(例えば、乗り物制御システム126内などの)さらなる外部プロセッサ、又はこれらのいずれかの組み合わせによってそれぞれ同期及び/又は協調させることができる。同期及び/又は協調では、AR/VRシステム10によって収集された配向データ、位置データ、視点データ、動き追跡データ又はさらなるデータに基づいて仮想特徴の基準系を調整することができる。
プロセッサ26、44、118、又はこれらのいずれかの組み合わせは、無線ネットワーク42を介して通信して、乗り物効果(例えば、アニマトロニックフィギュア97)に合わせて拡張現実イメージ又は仮想現実イメージ24及び/又は112をさらに同期及び/又は協調させることができる。1つの実施形態では、独立したコンピュータ同期システム(例えば、乗り物制御システム126)を使用して拡張現実イメージ又は仮想現実イメージ24及び/又は112と乗り物効果とを同期及び/又は協調させることもできる。
1つの実施形態では、固定可視化装置80の処理回路116が、装着型可視化装置14の処理回路25(図1)が必要とし得る処理能力の一部を解放することができる。固定可視化装置80の処理回路116は、装着型可視化装置14の処理回路25よりも少ない空間制約を有することができる。このため、固定可視化装置80の処理回路116は、より大きな及び/又はより強力なプロセッサ118を実装することができる。従って、透明ディスプレイ82は、絶叫マシン92中に必要とされる拡張現実イメージ又は仮想現実イメージ112の大部分を生成して表示できるのに対し、装着型可視化装置14は、細かな詳細を生成する(例えば、客室84内に非現実的環境20を形成する)ことしかできない。
また、固定可視化装置80は、いくつかの仮想特徴を装着型可視化装置14よりも効率的にレンダリングすることができる。例えば、絶叫マシン92の特殊効果の一部として、アニマトロニックフィギュア97が乗客用乗り物車両86の客室84の窓に特徴136を与える(例えば、穴を開ける)ような錯覚を引き起こすことが望ましい場合がある。1つの実施形態では、固定可視化装置80を使用して、客室84の窓(例えば、透明ディスプレイ82)に特徴136が与えられたような錯覚を引き起こすことができる。装着型可視化装置14を介してこのような特徴136が与えられるようにするには、装着型可視化装置14が現実世界のイメージ22の取り込み及び/又は電子眼鏡16上の特徴136の位置の更新を連続して行う必要があり、これにはかなりの処理能力が必要となり得る。例えば、乗客102の視点が変化した(例えば、乗客102が窓に対して向きを変えた又は移動した)時に特徴136を確実に静止したままにする(例えば、客室84窓に対して穴が動かないようにする)には、装着型可視化装置14が現実世界のイメージ22の取り込み及び/又は電子眼鏡16上の特徴136の位置の更新を連続して行うことが必要となり得る。このような場合には、固定可視化装置80を介して特徴136を与える方が効率的となり得る。
1つの実施形態では、代わりにAR/VRシステム10が透明ディスプレイ82上に特徴136を与えることができる。1つの実施形態では、AR/VRシステム10が、電子眼鏡16を使用して、特徴136に関連し得る詳細(例えば、窓の穴に由来するガラスの破片)の拡張現実イメージ又は仮想現実イメージ24を、この詳細が特徴136に対して適切な位置に見えるように乗客102の眼に重ね合わせることができる。従って、1つの実施形態では、装着型可視化装置14が細かい拡張現実イメージ又は仮想現実イメージ24(例えば、ガラス破片などの細部)しか生成できないのに対し、固定可視化装置80は、乗客用乗り物車両86に対して静止したままの特徴(例えば、穴などの特徴136)を含む拡張現実イメージ又は仮想現実イメージ112の大部分を生成することができる。動作中、乗客102は、実質的に透明な電子眼鏡16(図1)を介して、客室84の内部、及び透明ディスプレイ82によって生成された特徴136を見ることができる。従って、乗客用乗り物車両86の窓(例えば、透明ディスプレイ82)に対する特徴136の位置は、乗客102の向き及び/又は視点にかかわらず一定のままであることができる。これにより、装着型可視化装置14を使用して特徴136などの特徴を生成することに比べて、装着型可視化装置14が必要とする処理能力を実質的に低減することができる。従って、装着型可視化装置14と固定可視化装置80との組み合わせ、並びにAR/VRシステム10によるこれらの装置14、80の協調により、装着型可視化装置14を単独で使用して乗客102のためのAR体験、VR体験及び/又は複合現実体験をもたらすことに関する課題を克服するさらにダイナミックで効率的なシステムがもたらされる。
1つの実施形態では、乗客用乗り物車両86が絶叫マシン92を移動する際に、装着型可視化装置14によって生成された拡張現実イメージ又は仮想現実イメージ24と、固定可視化装置80によって生成された拡張現実イメージ又は仮想現実イメージ112とを同期及び/又は協調させることにより、乗客102が体験する仮想特徴を、装着型可視化装置14又は固定可視化装置80を単独で使用する場合よりも現実的であると感じられるようにすることができる。例えば、絶叫マシン92のテーマの一部としてアニメの特徴(例えば、爆発)を組み込むことができる。このアニメの特徴は、最初に透明ディスプレイ82が生成して、乗客102が見ている周囲の物理的環境100に重ね合わせることができる。次に、透明ディスプレイ82は、窓(例えば、透明ディスプレイ82)のひび128などの特徴の錯覚を引き起こし、その後に(例えば、ガラス破片を生成して)窓が砕け散るような錯覚を引き起こすことができる。次に、装着型可視化装置14が、乗客用乗り物車両86の客室84内に破片(例えば、ガラス破片)が浮かんでいるような錯覚を引き起こすことができる。従って、装着型可視化装置14及び固定可視化装置80は、乗客102に多層的な拡張現実体験又は仮想現実体験をもたらすことができる。
図7は、遊園地来園客(例えば、乗客102)にAR/VR強化をもたらすプロセス140の実施形態のフロー図である。プロセス140は、絶叫マシン92などの遊園地体験中にAR体験、VR体験及び/又は複合現実体験をもたらす上で有用となり得る。プロセス140は、非一時的コンピュータ可読媒体(例えば、メモリ28、46、120)に記憶された開始コード又は命令を表し、例えば装着型可視化装置14のプロセッサ26、コンピュータグラフィックス生成システム40のプロセッサ44、及び/又は固定可視化装置80のプロセッサ118によって実行することができる。プロセッサ26、44及び/又は118は、後述する命令の受信及び送信を行うように無線ネットワーク42などのネットワークを介して通信可能に結合することができる。
プロセス140は、ブロック142から開始して、拡張現実イメージ又は仮想現実イメージ24、112などのAR/VR強化(例えば、仮想特徴)を生成することができる。AR/VR強化は、装着型可視化装置14、固定可視化装置80、さらなる可視化装置、又はこれらのいずれかの組み合わせによって提供することができる。AR/VR強化は、装着型可視化装置14の処理回路25、コンピュータグラフィックス生成システム40、固定可視化装置80の処理回路116、又はこれらのいずれかの組み合わせによって生成することができる。
1つの実施形態では、装着型可視化装置14が、透明又は半透明表示表面(例えば、ディスプレイ30、32)を含み、乗客102の眼に拡張現実イメージ又は仮想現実イメージ24を投影することができる。これに加えて、又はこれとは別に、以下でさらに詳細に説明するように、固定可視化装置80も、乗客102の視線110上に拡張現実イメージ又は仮想現実イメージ112を表示する透明又は半透明表示表面(例えば、透明ディスプレイ82)を含むように構成することができる。例えば、拡張現実イメージ又は仮想現実イメージ112は、乗客102の視線110の一部を塞いで(例えば、乗客102は、依然として透明ディスプレイ82を介して物理的環境100の一部を見ることができる)、拡張現実イメージ又は仮想現実イメージ112が物理的環境100の一部であるような錯覚を引き起こすことができる。
次にブロック144を参照すると、プロセス140は、装着型可視化装置14が(例えば、ディスプレイ30、32を介して)物理的環境100に1又は2以上の拡張現実イメージ又は仮想現実イメージ24をかぶせ又は重ね合わせて、乗客102が見る第1の仮想特徴の層を生成できる1つ又は一連のステップを含むことができる。例えば、プロセッサ26、44、118は、乗客102が物理的環境100を見ることができる透明又は半透明表示表面(例えば、ディスプレイ30、32)に拡張現実イメージ又は仮想現実イメージ24をかぶせ又は重ね合わせることによって第1の仮想特徴の層を生成することができる。1つの実施形態では、乗客102が、ディスプレイ30、32の透明部分を通じて物理的環境100を見ることができると同時に、装着型可視化装置14が、ディスプレイ30、32の一部のみを拡張現実イメージ又は仮想現実イメージ24で塞ぐことができる。1つの実施形態では、プロセッサ26、44、118が、1又は2以上のビデオ統合及び/又は光学統合技術を使用して現実世界のイメージ22(例えば、設備94、物理的環境100)のビデオデータストリーム上に拡張現実イメージ又は仮想現実イメージを生成し及び/又は重ね合わせることができる。
次にブロック146を参照すると、プロセス140は、固定可視化装置80が(例えば、透明ディスプレイ82を介して)物理的環境100に1又は2以上の拡張現実イメージ又は仮想現実イメージ112をかぶせ又は重ね合わせて、乗客102が見る第2の仮想特徴の層を生成できる1つ又は一連のステップを含むことができる。例えば、プロセッサ26、44、118は、乗客102が物理的環境100を見ることができる透明又は半透明表示表面(例えば、透明ディスプレイ82)に拡張現実イメージ又は仮想現実イメージ112をかぶせ又は重ね合わせることによって第2の仮想特徴の層を生成することができる。1つの実施形態では、乗客102が、透明ディスプレイ82を通じて物理的環境100を見ることができると同時に、固定可視化装置80が、透明ディスプレイ82の一部のみを拡張現実イメージ又は仮想現実イメージ112で塞ぐことができる。1つの実施形態では、プロセッサ26、44、118が拡張現実イメージ又は仮想現実イメージ112を生成し、1又は2以上のビデオ統合及び/又は光学統合技術を使用して現実世界のイメージ121(例えば、設備94、物理的環境100)のビデオデータストリームに重ね合わせることができる。いずれの場合にも、装着型可視化装置14は、(例えば、拡張現実イメージ又は仮想現実イメージ24を介して)第1の仮想特徴の層を生成することができ、固定可視化装置80は、(例えば、拡張現実イメージ又は仮想現実イメージ112を介して)第2の仮想特徴の層を生成することができる。これに加えて、又はこれとは別に、AR/VRシステム10を、1つ、2つ、3つ、4つ又は5つ以上の仮想特徴の層を生成するように構成することもできる。
次にブロック148を参照すると、プロセス140は、第1の仮想特徴の層及び第2の仮想特徴の層の表示を協調させるステップを含むこともできる。プロセッサ26、44及び/又は118は、第1の仮想特徴の層と第2の仮想特徴の層とを同期及び/又は協調させて、絶叫マシン92の乗客102によって知覚される没入的体験及び仮想効果のリアリズムを強化することができる。1つの実施形態では、装着型可視化装置14又は乗客用乗り物車両86上に位置するカメラ以外のカメラからのイメージデータが、第1の仮想特徴の層と第2の仮想特徴の層との間の同期及び/又は協調を容易にする役割を果たすことができる。このような同期及び/又は協調は、いくつかの特殊効果(例えば、実際の、増補された又はシミュレートされた花火又は爆発)及び後述する他の効果のタイミング合わせのために、いくつかの固定特徴(例えば、いくつかのアトラクションの位置)の既知の位置に基づいて乗客102の位置を三角測量するために有用となり得る。
1つの実施形態では、プロセッサ26、44、118が、イメージデータ、位置データ及び/又は他の電子装置からの入力などのリアルタイム取り込みデータを受け取って分析することができる。例えば、イメージデータに関して言えば、プロセッサ26、44、118は、装着型可視化装置14及び/又は乗客用乗り物車両86のカメラ34、36、122を介して取り込まれたリアルタイムビデオデータ(例えば、ライブビデオ)を受け取ることができる。1つの実施形態では、このビデオを、電子眼鏡16又は透明ディスプレイ82上に表示できる現実世界のイメージ22及び121の生成にそれぞれ使用することができる。例えば、プロセッサ26、44、118は、物理的環境100(例えば、遊園地90の領域)のビデオデータストリームを生成して、装着型可視化装置14のディスプレイ30、320及び/又は固定可視化装置80の透明ディスプレイ82上に表示されるようにすることができる。
1つの実施形態では、プロセッサ26、44、118が、いずれか1つの要素又は要素の組み合わせに基づいて第1の仮想特徴の層及び第2の仮想特徴の層をレンダリングすることができる。このような要素は、絶叫マシン92のサイクル中の所与の時点における軌道98沿いの乗客用乗り物車両86の位置又は場所(例えば、又は軌道98が存在しない時には他の場所)、絶叫マシン92のサイクル中の所定の時間経過後、或いは乗客用乗り物車両86の乗客102が1又は2以上の動作を実行した後に乗客用乗り物車両86が進んだ所定の距離を含むことができる。
他の実施形態では、装着型可視化装置14、コンピュータグラフィックス生成システム40及び/又は固定可視化装置80が、カメラ34、36、122を介して取り込まれたビデオ又はイメージデータに対して1又は2以上の幾何学的又は測光認識アルゴリズムを実行して、乗客102及び/又は乗客用乗り物車両86の場所の地点を特定することができる。装着型可視化装置14、コンピュータグラフィックス生成システム40及び/又は固定可視化装置80は、このデータを使用して、第1の仮想特徴の層及び第2の仮想特徴の層を乗り物効果と同期及び/又は協調させるように、乗り物効果(例えば、アニマトロニックフィギュア97)に対する拡張現実イメージ又は仮想現実イメージ24、112のタイミングを制御することもできる。
いくつかの実施形態は、絶叫マシン92の文脈における装着型可視化装置14及び/又は固定可視化装置80の使用に関するが、AR/VRシステム10は、絶叫マシン92の外部、及び様々な環境のいずれかで使用することもできると理解されたい。例えば、透明ディスプレイ82を壁に結合させて部屋の窓を表現し、ユーザ12(例えば、乗客102)が部屋に座った時及び/又は部屋を往来した時に電子眼鏡16を装着して、本明細書に開示したように没入的体験を提供することもできる。
本明細書では、本開示のいくつかの特徴のみを図示し説明したが、当業者には多くの修正及び変更が思い浮かぶであろう。従って、添付の特許請求の範囲は、本開示の真の趣旨に従う全てのこのような修正及び変更を含むように意図されていると理解されたい。
本明細書に示して特許請求する技術は、本技術分野を確実に改善する、従って抽象的なもの、無形のもの又は純粋に理論的なものではない実際的性質の有形物及び具体例を参照し、これらに適用される。さらに、本明細書の最後に添付するいずれかの請求項が、「...[機能]を[実行]する手段」又は「...[機能]を[実行]するステップ」として指定されている1又は2以上の要素を含む場合、このような要素は米国特許法112条(f)に従って解釈すべきである。一方で、他のいずれかの形で指定された要素を含むあらゆる請求項については、このような要素を米国特許法112条(f)に従って解釈すべきではない。
10 AR/VRシステム
14 装着型可視化装置
80 固定可視化装置
82 透明ディスプレイ
84 客室
86 乗客用乗り物車両
90 遊園地
92 絶叫マシン
94 遊園地設備のモール
96 さらなる遊園地アトラクション
97 アニマトロニックフィギュア
98 軌道
100 物理的環境
102 乗客

Claims (19)

  1. 第1のディスプレイ及び第2のディスプレイを通じて現実環境を見るユーザに拡張現実及び/又は複合現実体験を提供するシステムであって、
    第1の仮想特徴の層を表示するように構成された前記第1のディスプレイを含む装着型可視化装置と、
    第2の仮想特徴の層を表示するように構成された前記第2のディスプレイを含む固定可視化装置と、
    前記第1の仮想特徴の層及び前記第2の仮想特徴の層を生成するように構成されたプロセッサと、
    を備え、前記プロセッサは、前記装着型可視化装置及び前記固定可視化装置と動作可能に通信して、前記第1の仮想特徴の層及び前記第2の仮想特徴の層の表示を、前記ユーザが前記第1のディスプレイ及び前記第2のディスプレイを介して見ている前記現実環境内に配置された物体と時間的及び空間的に協調させるように構成される、
    ことを特徴とするシステム。
  2. 前記第1のディスプレイは、透明又は半透明ディスプレイであり、前記ユーザが、前記装着型可視化装置を装着した時に、前記第1のディスプレイを通して前記第2のディスプレイを見られるようにするよう構成される、
    請求項1に記載のシステム。
  3. 前記第2のディスプレイは、透明発光ダイオードディスプレイ又は透明有機発光ダイオードディスプレイを含む、
    請求項1に記載のシステム。
  4. 前記第2のディスプレイは、乗客用乗り物車両に結合される、
    請求項1に記載のシステム。
  5. 前記プロセッサは、前記第1の仮想特徴の層及び前記第2の仮想特徴の層の前記表示を、遊園地のアトラクションに関連する要素と協調させるように構成される、
    請求項1に記載のシステム。
  6. 前記第1の仮想特徴の層は、乗客用乗り物車両の客室内の物体の仮想イメージを含み、前記第2の仮想特徴の層は、前記乗客用乗り物車両の窓上の特徴の仮想イメージを含む、
    請求項1に記載のシステム。
  7. 前記第1の仮想特徴の層は、乗客用乗り物車両の客室外の物体の仮想イメージを含む、
    請求項1に記載のシステム。
  8. 前記現実環境をモニタして、前記第1の仮想特徴の層及び前記第2の仮想特徴の層の前記表示の協調を容易にするように構成された1又は2以上のカメラ又はセンサを備える、
    請求項1に記載のシステム。
  9. ユーザに拡張現実及び/又は複合現実体験を提供するシステムであって、
    乗車中に遊園地内の経路を移動するように構成された乗客用乗り物車両と、
    前記乗客用乗り物車両に結合された透明ディスプレイを含み、該透明ディスプレイを通じて見える現実環境に仮想特徴を重ね合わせるように構成された固定可視化装置と、
    さらなる仮想特徴を表示するように構成された別の透明ディスプレイを含み、前記乗車中に前記乗客用乗り物車両内で前記ユーザによって装着されるように構成された装着型可視化装置と、
    前記仮想特徴及びさらなる仮想特徴を生成し、該仮想特徴及びさらなる仮想特徴の表示を前記乗り物の乗り物効果及び前記ユーザが前記透明ディスプレイ及び別の透明ディスプレイを介して見ている前記現実環境内に配置された物体と時間的及び空間的に協調させるように構成されたプロセッサと、
    を備えることを特徴とするシステム。
  10. 前記プロセッサは、前記さらなる仮想特徴の表示を前記仮想特徴の前記表示及び前記乗り物効果と協調させるように構成される、
    請求項9に記載のシステム。
  11. 前記透明ディスプレイは、透明発光ダイオードディスプレイ又は透明有機発光ダイオードディスプレイを含む、
    請求項9に記載のシステム。
  12. 前記プロセッサは、前記乗り物の乗り物サイクル中の所定の時点で前記仮想特徴を重ね合わせるように前記固定可視化装置に指示することによって、前記仮想特徴の前記表示を前記乗り物効果と協調させるように構成される、
    請求項9に記載のシステム。
  13. 前記仮想特徴は、ひび、結露、焦げ、雨垂れ、雪又はこれらの組み合わせを含む、
    請求項9に記載のシステム。
  14. 前記透明ディスプレイは、作動時に不透明になることにより、前記乗客用乗り物車両の客室が1枚壁によって取り囲まれたような錯覚を与えるように構成される、
    請求項9に記載のシステム。
  15. ユーザに拡張現実及び/又は複合現実体験を提供する方法であって、
    プロセッサを使用して、第1の仮想特徴の層及び第2の仮想特徴の層を生成するステップと、
    第1の表示時点において、前記プロセッサからの命令に応答して、装着型可視化装置内に配置された第1のディスプレイ上に前記第1の仮想特徴の層を表示するステップと、
    第2の表示時点において、前記プロセッサからの命令に応答して、前記装着型可視化装置から物理的に独立した固定可視化装置内に配置された第2のディスプレイ上に前記第2の仮想特徴の層を表示するステップであって、前記第1の表示時点及び前記第2の表示時点は前記第1の仮想特徴及び前記第2の仮想特徴の、前記ユーザが前記第1のディスプレイ及び前記第2のディスプレイを介して見ている現実環境内に配置された物体と時間的及び空間的に協調された表示を生じさせる、ステップと、
    を含むことを特徴とする方法。
  16. 前記第2のディスプレイは、乗客用乗り物車両に結合された透明ディスプレイを含む、
    請求項15に記載の方法。
  17. 前記第1の表示時点及び前記第2の表示時点は、前記第1の仮想特徴の層と前記第2の仮想特徴の層との協調表示をもたらす、
    請求項15に記載の方法。
  18. 前記第1の表示時点及び前記第2の表示時点は、前記第1の仮想特徴の層及び前記第2の仮想特徴の層と、遊園地内の乗り物の乗り物効果との協調表示をもたらす、
    請求項15に記載の方法。
  19. 前記プロセッサにおいて、1又は2以上のカメラ又はセンサから前記現実環境を示す信号を受け取るステップを含み、前記プロセッサは、前記受け取った信号を利用して前記第1の表示時点及び前記第2の表示時点を決定して、前記第1の仮想特徴の層及び前記第2の仮想特徴の層の表示と前記現実環境内の要素との協調を容易にする、
    請求項15に記載の方法。
JP2019548441A 2017-03-06 2018-03-05 遊園地環境における層状仮想特徴のためのシステム及び方法 Active JP7497572B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022147654A JP2022188084A (ja) 2017-03-06 2022-09-16 遊園地環境における層状仮想特徴のためのシステム及び方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762467817P 2017-03-06 2017-03-06
US62/467,817 2017-03-06
US15/786,359 2017-10-17
US15/786,359 US20180255285A1 (en) 2017-03-06 2017-10-17 Systems and methods for layered virtual features in an amusement park environment
PCT/US2018/020949 WO2018165039A1 (en) 2017-03-06 2018-03-05 Systems and methods for layered virtual features in an amusement park environment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022147654A Division JP2022188084A (ja) 2017-03-06 2022-09-16 遊園地環境における層状仮想特徴のためのシステム及び方法

Publications (2)

Publication Number Publication Date
JP2020513956A JP2020513956A (ja) 2020-05-21
JP7497572B2 true JP7497572B2 (ja) 2024-06-11

Family

ID=

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016028531A1 (en) 2014-08-18 2016-02-25 Universal City Studios Llc Systems and methods for generating augmented and virtual reality images
JP7108346B2 (ja) 2020-02-26 2022-07-28 ベースフード株式会社 パンおよびパンの製造方法
JP7275510B2 (ja) 2018-09-18 2023-05-18 日油株式会社 ソフトビスケット用油脂組成物及びソフトビスケット

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016028531A1 (en) 2014-08-18 2016-02-25 Universal City Studios Llc Systems and methods for generating augmented and virtual reality images
JP7275510B2 (ja) 2018-09-18 2023-05-18 日油株式会社 ソフトビスケット用油脂組成物及びソフトビスケット
JP7108346B2 (ja) 2020-02-26 2022-07-28 ベースフード株式会社 パンおよびパンの製造方法

Similar Documents

Publication Publication Date Title
CN110352085B (zh) 用于游乐园环境中的分层虚拟特征的系统和方法
JP7322034B2 (ja) 遊園地環境にテキストを重ね合わせるためのシステム及び方法
US11670054B2 (en) Systems and methods for generating stereoscopic, augmented, and virtual reality images
JP6995799B2 (ja) 拡張現実及び仮想現実画像を生成するためのシステム及び方法
CN112739438B (zh) 娱乐环境中的显示系统
JP7497572B2 (ja) 遊園地環境における層状仮想特徴のためのシステム及び方法