JP2022516930A - 結合された拡張環境のためのシステム及び方法 - Google Patents
結合された拡張環境のためのシステム及び方法 Download PDFInfo
- Publication number
- JP2022516930A JP2022516930A JP2021539122A JP2021539122A JP2022516930A JP 2022516930 A JP2022516930 A JP 2022516930A JP 2021539122 A JP2021539122 A JP 2021539122A JP 2021539122 A JP2021539122 A JP 2021539122A JP 2022516930 A JP2022516930 A JP 2022516930A
- Authority
- JP
- Japan
- Prior art keywords
- amusement park
- devices
- physical
- visitor
- thematic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000003993 interaction Effects 0.000 claims abstract description 68
- 230000010399 physical interaction Effects 0.000 claims description 53
- 230000000704 physical effect Effects 0.000 claims description 37
- 238000012544 monitoring process Methods 0.000 claims description 28
- 230000003190 augmentative effect Effects 0.000 claims description 8
- 239000011521 glass Substances 0.000 claims description 5
- 238000010586 diagram Methods 0.000 abstract description 3
- 238000004891 communication Methods 0.000 description 20
- 230000006854 communication Effects 0.000 description 20
- 230000000694 effects Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 12
- 230000007613 environmental effect Effects 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008846 dynamic interplay Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000002675 image-guided surgery Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 230000004580 weight loss Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
- A63G31/16—Amusement arrangements creating illusions of travel
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/142—Image acquisition using hand-held instruments; Constructional details of the instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
- H04W4/026—Services making use of location information using location based information parameters using orientation information, e.g. compass
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
Abstract
本明細書で提示されるシステム及び方法は、拡張体験システム(34)を含む遊園地システムを備える。拡張体験システム(34)は、遊園地(10)の複数の来園者(18)の、遊園地(10)の現実世界の環境の中に配置された、遊園地の1又は2以上の従業員(17)、1又は2以上の携帯デバイス(20)、1又は2以上のウェアラブルデバイス(22)、1又は2以上のテーマ別デバイス(24)、又は1又は2以上の物理的対象(26)との来園者相互作用を追跡するように構成される。また、拡張体験システム(34)は、遊園地(10)の現実世界の環境を、少なくとも部分的に来園者相互作用に関連するデータに基づいて拡張するように構成される。
【選択図】図2
【選択図】図2
Description
(関連出願の相互参照)
本出願は、2019年1月8日出願の米国特許仮出願第62/789,872号「結合された拡張環境のためのシステム及び方法」の優先権及び恩恵を主張するものであり、その開示内容全体は、全ての目的のために引用により本明細書に組み込まれる。
本出願は、2019年1月8日出願の米国特許仮出願第62/789,872号「結合された拡張環境のためのシステム及び方法」の優先権及び恩恵を主張するものであり、その開示内容全体は、全ての目的のために引用により本明細書に組み込まれる。
(技術分野)
本開示は、一般に、結合された拡張環境生成のためのシステム及び方法に関する。より具体的には、本開示の実施形態は、一般に、テーマパーク環境が、例えば、テーマパークの来園者から受け取った入力並びに他の環境要因に基づいて経時的に変わることを可能にするシステム及び方法に関する。
本開示は、一般に、結合された拡張環境生成のためのシステム及び方法に関する。より具体的には、本開示の実施形態は、一般に、テーマパーク環境が、例えば、テーマパークの来園者から受け取った入力並びに他の環境要因に基づいて経時的に変わることを可能にするシステム及び方法に関する。
本セクションは、読者に本発明の技法の様々な態様に関連すると考えられる当技術分野の様々な態様を紹介することを目的とし、当技術分野の様々な態様を以下で説明する。ここで論じる内容は、本開示の様々な態様をより深く理解しやすいように読者に背景情報を提供するのに役立つと思われる。従って、これらの記載事項は、従来技術を認めるものではなく、これに照らして読む必要があることを理解されたい。
遊園地及び/又はテーマパークは、遊園地の来園者(例えば、あらゆる年齢の家族及び/又は人々)に楽しみを提供するのに有用な様々な娯楽アトラクション、レストラン、土産物店、及び乗物を含むことができる。遊園地の各エリアは、特定の観客を明確に狙った様々なテーマを有することができる。例えば、特定のエリアは、伝統的に子供たちにとって興味深いテーマを含むことができ、一方、他のエリアは、伝統的により大人の観客にとって興味深いテーマを含むことができる。一般的に、このような遊園地に関連したテーマを有する場所は、アトラクション又はテーマ別アトラクションと呼ぶことができる。これらのテーマ別アトラクションは、固定設備、建物レイアウト、小道具、装飾などを使用して確立することができ、そのほとんどは、一般に、特定のテーマに関することができる。しかしながら、これらのテーマ別アトラクションは、多くの場合、例えば、時刻、来園者相互作用、又は他の環境要因に基づいて経時的に変化しない、本質的に動かない環境を含む。
現在、従来技術に対してテーマ別アトラクションの環境を柔軟かつ効率的に変えることを可能にし得るテーマ別アトラクションを含むことが望ましいことが認識されている。また、現在、このようなテーマ別アトラクションの来園者の没入体験を強化して、個人向けの又はカスタマイズされた体験を来園者に提供することが望ましいであろうことが認識されている。
当初請求された主題の範囲に見合った特定の実施形態を以下に要約する。これらの実施形態は、本開示の範囲を限定することを意図したものではなく、むしろこれらの実施形態は、特定の開示された実施形態の簡単な要約を提供することのみを意図したものである。実際に、本開示は、以下に示す実施形態と類似、又は異なることができる種々な形態を包含することができる。
特定の実施形態において、遊園地システムは、拡張体験システムを含む。拡張体験システムは、遊園地の現実世界の環境の中に配置された、遊園地の1又は2以上の従業員、1又は2以上の携帯デバイス、1又は2以上のウェアラブルデバイス、1又は2以上のテーマ別デバイス、又は1又は2以上の物理的対象との遊園地の複数の来園者の来園者相互作用を追跡するように構成される。また、拡張体験システムは、遊園地の現実世界の環境を、少なくとも部分的に来園者相互作用に関連するデータに基づいて拡張するように構成される。
さらに、特定の実施形態において、方法は、遊園地の拡張体験システムを介して、遊園地の現実世界の環境の中に配置された、遊園地の1又は2以上の従業員、1又は2以上の携帯デバイス、1又は2以上のウェアラブルデバイス、1又は2以上のテーマ別デバイス、又は1又は2以上の物理的対象との遊園地の複数の来園者の来園者相互作用を追跡するステップを含む。この方法は、また、遊園地の現実世界の環境を来園者相互作用に関連するデータに少なくとも部分的に基づいて拡張するステップを含む。
上述した特徴部の様々な改良は、本開示の様々な態様に対して行うことができる。また、さらなる特徴部は、これらの様々な態様に組み込むこともできる。上記の改良及びさらなる特徴部は、個別に又は何らかの組み合わせによって存在することができる。
本開示の上記及び他の特徴、態様、及び利点は、全図を通して同じ符号が同じ要素を示す図面を参照して以下の詳細な説明を読むことでよりよく理解することができる。
本開示の1又は2以上の特定の実施形態を以下で説明する。これらの実施形態の簡潔な説明を行うために、実際の実行例の全ての特徴を本明細書で説明することができるというわけではない。何らかの工業設計又は設計プロジェクトの場合と同様に、何らかの当該の実際の実行例の開発において、実行例間で変動する場合があるシステム関連及び事業関連の制約の遵守など、開発担当者らの特定の目標を達成するために数多くの実行固有の意思決定を行う必要があることを認識されたい。さらに、このような開発作業は、複雑かつ時間が掛かることがあり得るが、それでも、本開示の恩恵を有する当業者にとって設計、作製、及び製造の日常的な仕事になることを認識されたい。さらに、本発明で平行、垂直などの特定の用語を使用する範囲で、これらの用語では、例えば、製造上の不完全性及び関連した許容差に関連した偏差を考慮に入れるために、厳密な数学的な定義からの所定の偏差を許容することを理解されたい。
本開示の様々な実施形態の要素を説明する場合に、冠詞「a」、「an」、及び「the」は、要素の1又は2以上があることを意味することが意図されている。用語「~を備える」、「~を含む」、及び「~を有する」は、包括的であり、かつ、記載された要素以外のさらなる要素がある場合があることを意味することが意図されている。加えて、本開示の「1つの実施形態」又は「一実施形態」への言及は、記載された特徴部も組み込むさらなる実施形態の存在を除外すると解釈されることは意図されていないことを理解されたい。
本開示の実施形態は、来園者のより動的な相互作用による体験を可能にし、物理的かつ視覚的なテーマ別景観は。ゲームプレイ又は群集動特性などの外部変数の影響を受けることができる。例えば、本開示の実施形態は、テーマ別の体験の物理的環境が来園者相互作用、時刻、及び結合された体験の影響を受ける他の環境要因に基づいて動的に変化することを可能にする。群集動特性及び環境との相互作用に基づいてテーマ別環境の外観を決定することによって(例えば、リアルタイムのレンダリング後のプロジェクションマッピング、ビジュアル、及び、来園者相互作用によって影響される動的なアニメーションによる小道具などの他の効果を介して)、来園者は、その日の異なる期間中に同じエリアに戻った際に劇的に異なる景観に遭遇することができる。
例えば、特定の実施形態において、来園者は、早朝に破壊された都市に遭遇することがあり得る。その日の間に、来園者は、終日にわたって環境を再構築する結合された探求に従事することができる。従って、夕方に、来園者の集団行動の結果としてこのエリアを完全に見事に物理的に回復することができる。来園者の物理的環境との相互作用の方法は、携帯デバイスによる、ウェアラブルデバイス(例えば、腕時計、ブレスレット、お守り、リング、ヘッドバンド、メガネなど)による、他のテーマ別デバイスによる、遊園地の従業員との相互作用による、物理的環境内の物理的対象との指示相互作用による、又は物理的環境内の受動的追跡デバイスによる来園者の追跡によることができる。このような相互作用によって、来園者は、物理的景観の操作に自身の明確な貢献を行うことができる(例えば、来園者は、特定の色の物理的な山を生成することができる)。その効果は、携帯デバイスによってさらに明らかになり、ここでは来園者の過去及び現在の努力成果は、景観を通して拡張現実で視覚化することができる。来園者は、個々の体験から成る結束力のあるグループ体験を生成する。
本発明の実施形態は、拡張体験を遊園地又はテーマパークの一部として提供するシステム及び方法に関する。例えば、特定の実施形態において、遊園地の来園者は、携帯デバイス、ウェアラブルデバイス、又は拡張体験の生成を促進する他のテーマ別デバイスを使用することができ、拡張体験の生成は、遊園地の現実世界の環境内での拡張現実(AR)画像の生成、並びに遊園地の現実世界の環境の中に配置された物理的対象の物理的効果の生成を含むことができる。加えて、特定の実施形態において、遊園地の来園者は、遊園地内に配置された物理的対象と直接、相互作用して拡張体験を促進することができる。加えて、特定の実施形態において、来園者の遊園地従業員との相互作用は、拡張体験を促進するために追跡することができる(例えば、来園者の指示に従って、従業員が、自分自身の携帯デバイス、自分自身のウェアラブルデバイス、自分自身のテーマ別デバイス、及び/又は遊園地の現実世界の環境の中に配置された物理的対象と相互作用した状態で)。加えて、特定の実施形態において、来園者自身は、拡張体験を促進するために遊園地内に配置された受動的追跡デバイスによって追跡することができる。従って、本明細書で説明するシステム及び方法は、現実世界の環境が来園者相互作用、並びに他の環境要因(現在の時刻、現在の日付、現在の天気など)に基づいて日中に修正されるように、1日の間に様々な方法で来園者の遊園地との相互作用を追跡することができる。
特定の実施形態において、画像生成システムは、遊園地の現実世界の環境内で表示されるAR画像のリアルタイムビデオストリームをレンダリングすることができる。例えば、特定の実施形態において、画像生成システムは、少なくとも部分的にAR画像を携帯デバイス、ウェアラブルデバイス、他のテーマ別デバイス、及び/又は遊園地内に配置された物理的対象から受け取った来園者相互作用に基づいてレンダリングすることができ、来園者相互作用としては、携帯デバイス、ウェアラブルデバイス、他のテーマ別デバイス、及び/又は遊園地内に配置された物理的対象の来園者による操作(例えば、入力デバイスでの相互作用);携帯デバイス、ウェアラブルデバイス、他のテーマ別デバイス、及び/又は来園者自身の位置、方位、及び/又は動き;遊園地の現実世界の環境の中に配置された特定の物理的対象に対する携帯デバイス、ウェアラブルデバイス、他のテーマ別デバイス、及び/又は来園者自身の近接度;携帯デバイス及び/又はウェアラブルデバイスに来園者によって入力されたローカル設定;遊園地の(例えば、遊園地の所有者によって入力されたような)グローバル設定;携帯デバイス、ウェアラブルデバイス、及び/又は他のテーマ別デバイスを介して実行された以前の相互作用;他の環境要因(例えば、現在の時刻、現在の日付、現在の天気など)を挙げることができる。
特定の実施形態において、携帯デバイス、ウェアラブルデバイス、他のテーマ別デバイス、遊園地の現実世界の環境の中に配置された物理的対象、及び/又は来園者自身は、監視システムによって監視することができ、監視システムは、携帯デバイス、ウェアラブルデバイス、他のテーマ別デバイス、物理的対象、及び/又は来園者自身に関連するデータ(例えば、特定の物理的対象との来園者相互作用、特定の物理的対象の位置、方位、及び/又は、動き、特定の物理的対象との近接度など)を画像生成システムに伝達することができるので、画像生成システムは、少なくとも部分的に携帯デバイス、ウェアラブルデバイス、他のテーマ別デバイス、物理的対象、及び/又は来園者自身に関連するデータに基づいてAR画像を生成することができる。加えて、特定の実施形態において、監視システムは、物理的相互作用システムと通信するように構成することができ、物理的相互作用システムは、遊園地の現実世界の環境の中に配置された物理的対象の物理的効果(例えば、移動効果、効果音、触覚フィードバック効果、色効果、香り効果など)を、少なくとも部分的に携帯デバイス、ウェアラブルデバイス、他のテーマ別デバイス、物理的対象、及び/又は来園者自身に関連するデータに基づいて引き起こすように構成される。さらに、特定の実施形態において、遊園地の特定の従業員は、自分の行動を、少なくとも部分的に携帯デバイス、ウェアラブルデバイス、他のテーマ別デバイス、物理的対象、及び/又は来園者自身に関連するデータに基づいて修正することができる。
このように、画像生成システム、監視システム、及び物理的相互作用システムは、拡張体験を生成するために使用することができ、拡張体験の生成は、遊園地の現実世界の環境内のAR画像の生成、並びに遊園地の現実世界の環境の中に配置された物理的対象の物理的効果の生成を含むことができ、その結果、遊園地内の来園者の全体的な体験が強化される。しかしながら、本明細書で説明する技術は、遊園地アトラクション用途に限定されるものではなく、例えば、医療用途(例えば、画像誘導手術、非侵襲性撮像分析)、工業設計用途(例えば、工業モデル開発)、製造、建築、及びメンテナンス用途(例えば、製品製造、新築工事、自動車修理)、学校教育及び/又は職業訓練用途、エクササイズ用途(例えば、ボディビル及び減量モデル)、テレビ(TV)用途(例えば、気象及びニュース)などの様々な用途の何れかに拡張することができることを認識されたい。
以上を考慮して、図1に示すような遊園地10の実施形態を説明することは有用である。例示するように、遊園地10は、スリルライド12、遊園地施設14(例えば、レストラン、土産物店など)、追加の遊園地アトラクション16、及び遊園地従業員17(例えば、テーマ別キャラクタの役を務める)を含むことができる。本明細書でより詳細に説明するように、遊園地10の来園者18には遊園地10の現実世界の環境内での拡張体験を提供することができる。例えば、図1に示すように、特定の実施形態において、遊園地10の来園者18は、携帯デバイス20、ウェアラブルデバイス22、他のテーマ別デバイス24、及び/又は、遊園地10の現実世界の環境の中に配置された物理的対象26(例えば、動的なアニメーションによる小道具)と相互作用することができ、(次に、来園者18用の携帯デバイス20、ウェアラブルデバイス22、他のテーマ別デバイス24及び/又は物理的対象26と相互作用する)遊園地10の従業員17と相互作用することができ、又は、本明細書でより詳細に説明するように、例えば遊園地10の営業日中に経時的に変わる拡張体験を生成するために監視システムによって受動的に追跡されることができる。例えば、特定の実施形態において、AR画像30は、AR画像30を表示するように構成されたAR画像ディスプレイ及び/又は遊園地10の現実世界の環境においてAR画像30を投影するように構成されたAR画像プロジェクタなど、1又は2以上のAR画像生成器28を介して発生させることができる。加えて、特定の実施形態において、1又は2以上の物理的効果32は、遊園地10の現実世界の環境の中に配置された物理的対象26の1又は2以上のために発生させることができる。
特定の実施形態において、携帯デバイス20は、携帯電話(例えば、スマートフォン)、タブレットコンピュータ、又は、来園者18によって遊園地10の至る所に携行することができる何らかの他の適切なデバイスとすることができる。特定の実施形態において、ウェアラブルデバイス22は、腕時計のような電子デバイス、メガネ、保護めがね、ブレスレット、お守り、リング、ヘッドバンド、メガネ、帽子、ヘルメット、Tシャツ、ジャケット、コート、半ズボン、ズボン、靴、長靴、又は何らかの他の好都合に装着できるアイテムとすることができる。特定の実施形態において、テーマ別デバイス24は、モデルガン、剣、旗、棒状の道具などの、遊園地のテーマ関連物体とすることができる。本明細書でより詳細に説明するように、特定の実施形態において、ウェアラブルデバイス22及び/又はテーマ別デバイス24は、これらのデバイス内に配置された(例えば、衣料内などに縫い付けられた)回路(例えば、小型チップ)を含むことができ、又は、監視システムによって受動的に追跡することができる独特のパターン(例えば、画像など)を含むことができる。
図2は、本開示の実施形態による、図1に例示する遊園地10の拡張体験を提供する拡張体験システム34の概略図である。図2に示すように、特定の実施形態において、拡張体験システム34は、1又は2以上の携帯デバイス20、1又は2以上のウェアラブルデバイス22、1又は2以上の他のテーマ別デバイス24、及び/又は、遊園地10の来園者18が(及び/又は来園者18に代わり遊園地10の従業員17が)相互作用することができる1又は2以上の物理的対象26を含むことができる。携帯デバイス20、ウェアラブルデバイス22、他のテーマ別デバイス24、物理的対象26、及び/又は、1又は2以上のAR画像生成器28は、無線ネットワーク42(例えば、無線ローカルエリアネットワーク(WLAN)、無線広域ネットワーク(WWAN)、近距離無線通信(NFC)ネットワーク又は任意の他の適切な無線ネットワーク)を介して(例えば、遊園地10内の)画像生成システム36、監視システム38、及び/又は物理的相互作用システム40に通信可能に接続することができる。加えて、特定の実施形態において、物理的対象26及び/又はAR画像生成器28は、無線ネットワーク42を介して及び/又は直接的な物理接続部44を介して(例えば、通信ケーブルを使用して)画像生成システム36、監視システム38、及び/又は物理的相互作用システム40に通信可能に接続することができる。
本明細書でより詳細に説明するように、画像生成システム36、監視システム38、及び物理的相互作用システム40は、互いに協働して、携帯デバイス20、ウェアラブルデバイス22、他のテーマ別デバイス24、及び/又は、遊園地10の現実世界の環境の中に配置された物理的対象26との来園者相互作用を利用して(例えば、来園者18からの直接的な又は従業員17からの間接的な)、遊園地10の拡張体験を生成することができる。例えば、特定の実施形態において、画像生成システム36は、携帯デバイス20、ウェアラブルデバイス22、他のテーマ別デバイス24、及び/又は遊園地10の現実世界の環境の中に配置された物理的対象26との来園者相互作用を利用して(例えば、来園者18からの直接的な又は従業員17からの間接的な)、遊園地10の現実世界の環境に表示及び/又は投影することができるAR画像30を生成するように構成することができる。特定の実施形態において、画像生成システム36は、AR画像30と電子的に統合された現実世界の画像46を含むリアルタイムビデオストリームを生成することができる。「リアルタイム」という用語は、画像が、実際の観察結果の時間に実質的に近い時間枠で取得される及び/又は供給されることを示す。
加えて、特定の実施形態において、物理的相互作用システム40は、携帯デバイス20、ウェアラブルデバイス22、他のテーマ別デバイス24、及び/又は遊園地10の現実世界の環境の中に配置された物理的対象26との来園者相互作用を利用して(例えば、来園者18からの直接的な又は従業員17からの間接的な)、物理的対象26の物理的効果32を生成するように構成することができる。さらに、特定の実施形態において、監視システム38は、携帯デバイス20、ウェアラブルデバイス22、他のテーマ別デバイス24、及び/又は物理的対象26を監視して、携帯デバイス20、ウェアラブルデバイス22、他のテーマ別デバイス24、及び/又は物理的対象26との来園者相互作用を検出し、来園者相互作用を画像生成システム36及び/又は物理的相互作用システム40に送ってそれらのシステムが、それぞれ、AR画像30及び/又は物理的効果32を生成することを可能にするように構成することができる。さらに、特定の実施形態において、監視システム38は、来園者18を受動的に監視し、受動的に監視された来園者18に関連するデータを画像生成システム36及び/又は物理的相互作用システム40に送ってそれらのシステムが、それぞれ、AR画像30及び/又は物理的効果32を生成することを可能にするように構成することができる。
特定の実施形態において、携帯デバイス20は、携帯デバイス20の位置、方位、動きなどを追跡するために使用することができる1又は2以上の方位及び位置センサー48(例えば、加速度計、磁力計、ジャイロスコープ、全地球測位システム(GPS)受信機、電磁及び半導体の動き追跡センサーなどの動き追跡センサー)を含むことができる。同様に、特定の実施形態において、携帯デバイス20の特徴部50(例えば、幾何学的な態様又はマーキング)は、携帯デバイス20の位置、方位、動きなどを特定するために監視システム38(例えば、特定の実施形態においては1又は2以上のカメラ)によって監視することができる。さらに、特定の実施形態において、来園者18は、来園者18の位置、方位、動きなどを識別するために、並びに、特定の実施形態において、顔認識などの来園者18に関する独特の特徴部を検出するために、監視システム38(例えば、光検知測距(LiDAR)システムなどのカメラシステム)によって受動的に監視することができる。
加えて、特定の実施形態において、携帯デバイス20は、画像及びビデオ(例えば、現実世界の画像)を取り込み、取り込み画像及びビデオ(並びにAR画像30)を携帯デバイス20の1又は2以上のディスプレイ58を介して表示するように構成された1又は2以上のカメラ52を含むことができる。特定の実施形態において、拡張体験の生成を助けるために、携帯デバイス20は、プロセッサ54及びメモリー56などの処理回路を含むことができる。プロセッサ54は、メモリー56に動作可能に接続して、AR画像30と統合された現実世界の画像46を生成する本開示の技術を少なくとも部分的に遂行する命令を実行することができ、AR画像30と統合された現実世界の画像46は、特定の実施形態において、来園者18の拡張体験を強化するために携帯デバイス20の1又は2以上のディスプレイ58上に表示することができる。加えて、特定の実施形態において、プロセッサ54は、携帯デバイス20の1又は2以上の入力部60を介して受け取った来園者相互作用を処理する、メモリー56に記憶された命令を実行することができる。これらの命令は、メモリー56及び/又は他の記憶装置などの有形の非一時的コンピュータ可読媒体に記憶されたプログラム又はコードで符号化することができる。特定の実施形態において、プロセッサ54は、汎用プロセッサ、システムオンチップ(SoC)デバイス、特定用途向け集積回路(ASIC)、又は何らかの他の同様のプロセッサ構成とすることができる。
特定の実施形態において、携帯デバイス20の1又は2以上のディスプレイ58の各々は、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)ディスプレイ、又は、現実世界の画像46及びAR画像30を来園者18に表示する際に有用な他の同様のディスプレイを含むことができる。特定の実施形態において、1又は2以上のディスプレイ58の各々は、それぞれのディスプレイ58が遊園地10の実際の物理的な現実世界の環境を透視する能力を保ちながら、例えば、来園者18がディスプレイ58上に表示される現実世界の画像46及びAR画像30を見るのを可能にするのに有用な、不透明又は透明LCDディスプレイ、又は不透明又は透明OLEDディスプレイを含むことができる。
特定の実施形態において、携帯デバイス20の1又は2以上のカメラ52を使用して、遊園地10の現実世界の環境のリアルタイムビデオデータ(例えば、ライブビデオ)を取り込むことができる。特定の実施形態において、携帯デバイス20は、その後、1又は2以上のカメラ52によって取り込んだリアルタイムビデオデータを処理のために画像生成システム36に送ることができる(例えば、無線で携帯デバイス20に組み込まれた1又は2以上の通信インターフェース62を介して)。加えて、特定の実施形態において、携帯デバイス20は、少なくとも部分的に携帯デバイス20の方位及び位置センサー48によって取得したデータに基づいて取得及び/又は生成した方位データ、位置情報、動き追跡データなどを画像生成システム36及び/又は物理的相互作用システム40に1又は2以上の通信インターフェース62を介して送ることもできる。さらに、特定の実施形態において、携帯デバイス20は、1又は2以上の入力部60による携帯デバイス20との来園者相互作用に関連するデータを、画像生成システム36及び/又は物理的相互作用システム40に1又は2以上の通信インターフェース62を介して送ることもできる。
特定の実施形態において、ウェアラブルデバイス22は、ウェアラブルデバイス22の位置、方位、動きなどを追跡するために使用することができる1又は2以上の方位及び位置センサー64(例えば、加速度計、磁力計、ジャイロスコープ、全地球測位システム(GPS)受信機、電磁及び半導体の動き追跡センサーなどの動き追跡センサー)を含むことができる。他の実施形態において、ウェアラブルデバイス22は、受動的物体(すなわち、センサー、制御回路などを含まない)とすることができ、受動的物体の方位、位置、及び動きは、例えば、監視システム38によって追跡することができる。このような実施形態において、受動的特徴部(例えば、幾何学的な態様又はマーキング、無線周波数識別(RFID)タグなど)又はより能動的な特徴部(例えば、超広帯域(UWB)無線送信機などの無線送信機)などのウェアラブルデバイス22の特定の特徴部66は、ウェアラブルデバイス22の方位、位置、及び動きなどを特定するために、監視システム38によって監視することができる。
特定の実施形態において、拡張体験の生成を助けるために、ウェアラブルデバイス22は、プロセッサ68及びメモリー70などの処理回路を含むことができる。プロセッサ68は、ウェアラブルデバイス22の1又は2以上の入力部72を介して受け取った来園者相互作用を処理する命令を実行するためにメモリー70に動作可能に接続することができる。これらの命令は、メモリー70及び/又は他の記憶装置など、有形の非一時的コンピュータ可読媒体に記憶されたプログラム又はコードで符号化することができる。特定の実施形態において、プロセッサ68は、汎用プロセッサ、システムオンチップ(SoC)デバイス、特定用途向け集積回路(ASIC)、又は、何らかの他の同様のプロセッサ構成とすることができる。
特定の実施形態において、ウェアラブルデバイス22の1又は2以上のディスプレイ74の各々は、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)ディスプレイ、又は、現実世界の画像46及びAR画像30を来園者18に表示する際に有用な他の同様のディスプレイを含むことができる。特定の実施形態において、1又は2以上のディスプレイ74の各々は、それぞれのディスプレイ74を遊園地10の実際の物理的な現実世界の環境を透視する能力を保ちながら、例えば、来園者18がディスプレイ74上に表示される現実世界の画像46及びAR画像30を見るのを可能にするのに有用な、不透明又は透明LCD、又は不透明又は透明OLEDディスプレイを含むことができる。
特定の実施形態において、ウェアラブルデバイス22は、少なくとも部分的にウェアラブルデバイス22の方位及び位置センサー64によって取得したデータに基づいて取得及び/又は生成した方位データ、位置情報、動き追跡データなどを画像生成システム36及び/又は物理的相互作用システム40にウェアラブルデバイス22の1又は2以上の通信インターフェース76を介して送ることができる。さらに、特定の実施形態において、ウェアラブルデバイス22は、1又は2以上の入力部72によるウェアラブルデバイス22との来園者相互作用に関連するデータを、画像生成システム36及び/又は物理的相互作用システム40に1又は2以上の通信インターフェース76を介して送ることもできる。
特定の実施形態において、テーマ別デバイス24は、テーマ別デバイス24の位置、方位、動きなどを追跡するために使用することができる1又は2以上の方位及び位置センサー78(例えば、加速度計、磁力計、ジャイロスコープ、全地球測位システム(GPS)受信機、電磁及び半導体の動き追跡センサーなどの動き追跡センサー)を含むことができる。他の実施形態において、テーマ別デバイス24は、受動的物体(すなわち、センサー、制御回路などを含まない)とすることができ、受動的物体の方位、位置、及び動きを、例えば、監視システム38によって追跡することができる。このような実施形態において、受動的特徴部(例えば、幾何学的な態様又はマーキング、無線周波数識別(RFID)タグなど)又はより能動的な特徴部(例えば、超広帯域(UWB)無線送信機などの無線送信機)などのテーマ別デバイス24の特定の特徴部80は、テーマ別デバイス24の方位、位置、及び動きなどを特定するために、監視システム38によって監視することができる。特定の実施形態において、テーマ別デバイス24は、少なくとも部分的にテーマ別デバイス24の方位及び位置センサー78によって取得したデータに基づいて取得及び/又は生成した方位データ、位置情報、動き追跡データなどを画像生成システム36及び/又は物理的相互作用システム40にテーマ別デバイス24の1又は2以上の通信インターフェース82を介して送ることができる。
特定の実施形態において、本明細書でより詳細に説明するように、画像生成システム36は、プロセッサ84(例えば、汎用プロセッサ又は他のプロセッサ)及びメモリー86などの処理回路を含むことができ、携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は遊園地10の現実世界の環境の中に配置された物理的対象26との来園者相互作用のデータを処理することができ、データは、AR画像30を生成するために、携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は遊園地10の現実世界の環境の中に配置された物理的対象26から(例えば、来園者18からの直接的な又は従業員17からの間接的な)、又は、画像生成システム36の1又は2以上の通信インターフェース88を介して監視システム38から受け取って、AR画像30を生成することができ、AR画像30は、それぞれ、携帯デバイス20及びウェアラブルデバイス22のディスプレイ58、74を介して発生させることができ、及び/又は、AR画像生成器28を介して発生させることができる。さらに、特定の実施形態において、AR画像30(例えば、AR拡張)に加えて、画像生成システム36は、AR画像30の外観と一致することができる、携帯デバイス20、ウェアラブルデバイス22、及び/又はテーマ別デバイス24の内部構成要素を介して実行される1又は2以上の移動効果、効果音、触覚フィードバック効果、色効果、香り効果などを引き起こすこともできる。これらの機能を実行する命令は、メモリー86及び/又は他の記憶装置などの有形の非一時的コンピュータ可読媒体に記憶されたプログラム又はコードで符号化することができる。特定の実施形態において、プロセッサ84は、汎用プロセッサ、システムオンチップ(SoC)デバイス、特定用途向け集積回路(ASIC)、又は、何らかの他の同様のプロセッサ構成とすることができる。
特定の実施形態において、本明細書でより詳細に説明するように、画像生成システム36は、来園者18の完全なAR体験を生成するために、現実世界の画像46上に重ね合わされる1又は2以上のAR画像30を生成してレンダリングすることもできる。例えば、特定の実施形態において、画像生成システム36は、ビデオ統合及び/又は光学的統合技術を利用して、来園者18が遊園地10の現実世界の物理的環境をAR画像30(例えば、仮想拡張)と一緒に認識するように、AR画像30を現実世界の画像46上に重ね合わせることができる。具体的には、特定の実施形態において、画像生成システム36は、現実世界の画像46がAR画像30と重ね合わされた背景のように見えるように、現実世界の画像46と時間的に及び空間的に整合するAR画像30の眺め(view)をレンダリングすることができる。
特定の実施形態において、画像生成システム36は、1又は2以上のAR画像30を、少なくとも部分的に携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は、遊園地10の現実世界の環境の中に配置された物理的対象26との来園者相互作用(例えば、来園者18からの直接的な又は従業員17からの間接的な)に関連するデータに基づいて生成するように構成され、例えば、それぞれ、携帯デバイス20及びウェアラブルデバイス22の入力部60、72(又は、実際には、特定の実施形態において、物理的対象26の入力部)との相互作用;携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は来園者18自身の位置、方位、及び/又は動き;遊園地10の現実世界の環境の中に配置された物理的対象26に対する携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は来園者自身の近接度;携帯デバイス20及び/又はウェアラブルデバイス22に来園者によって入力されたローカル設定;遊園地10の(例えば、遊園地10の所有者によって入力されたような)グローバル設定;携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は、遊園地10の現実世界の環境の中に配置された物理的対象26を介して実行された以前の相互作用;他の環境要因(例えば、現在の時刻、現在の日付、現在の天気など)などである。本明細書でより詳細に説明するように、携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は遊園地10の現実世界の環境の中に配置された物理的対象26との来園者相互作用(例えば、来園者18からの直接的な又は、従業員17からの間接的な)に関連するデータは、携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は遊園地10の現実世界の環境の中に配置された物理的対象26から直接的に受け取ることができる(例えば、それぞれの通信インターフェースを介して)又は監視システム38から受け取ることができる。
特定の実施形態において、画像生成システム36が1又は2以上のAR画像30を生成すると、画像生成システム36は、AR画像生成器28がAR画像30(及び、特定の実施形態において、現実世界の画像46)をAR画像生成器28の1又は2以上のディスプレイ90上に表示することができるように又はAR画像30(及び、特定の実施形態において、現実世界の画像46)をAR画像生成器28の1又は2以上のプロジェクタ92を介して投影することができるように、生成されたAR画像30(及び、特定の実施形態において、現実世界の画像46)をAR画像生成器28に送ることができる。加えて、特定の実施形態において、画像生成システム36が1又は2以上のAR画像30を生成すると、画像生成システム36は、携帯デバイス2及び/又はウェアラブルデバイス22が、それぞれ、AR画像30(及び、特定の実施形態おいて、現実世界の画像46))を携帯デバイス20及び/又はウェアラブルデバイス22のディスプレイ58、74上に表示することができるように、生成されたAR画像30(及び、特定の実施形態において、現実世界の画像46)を携帯デバイス20及び/又はウェアラブルデバイス22に送ることができる。
特定の実施形態において、本明細書でより詳細に説明するように、画像生成システム36は、1又は2以上のAR画像30を少なくとも部分的に携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は来園者18自身の方位データ、位置データ、及び動き追跡データに基づいて生成してレンダリングすることができ、これらのデータは、監視システム38によって検出することができる。例えば、特定の実施形態において、監視システム38は、携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は来園者18自身の方位データ、位置データ、及び動き追跡データを検出するように構成された1又は2以上の追跡デバイス94(例えば、特定の実施形態において、光検知測距(LiDAR)システムなどの1又は2以上のカメラ)を含むことができる。その後、監視システム38は、携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は来園者18の方位データ、位置情報、及び動き追跡データを画像生成システム36に監視システム38の1又は2以上の通信インターフェース96を介して伝達することができ、さらに、画像生成システム36は、AR画像生成器28を介して発生されることになる、及び/又は、携帯デバイス20及び/又はウェアラブルデバイス22のディスプレイ58、74上に表示されることになるAR画像30を、少なくとも部分的に携帯デバイス20、ウェアラブルデバイス22、及び/又はテーマ別デバイス24の方位データ、位置データ、及び動き追跡データに基づいて生成することができる。さらに、特定の実施形態において、1又は2以上の追跡デバイス94は、来園者18の識別情報、来園者18の感情などを検出するために来園者18の顔認識を実行するように構成することができ、監視システム38は、来園者18の顔認識に関連するデータを画像生成システム36に監視システム38の1又は2以上の通信インターフェース96を介して通信することができ、画像生成システム36は、AR画像生成器28を介して発生されることになる、及び/又は、携帯デバイス20及び/又はウェアラブルデバイス22のディスプレイ58、74上に表示されることになるAR画像30を、少なくとも部分的に来園者18の顔認識に基づいて生成することができる。
さらに、特定の実施形態において、監視システム38は、プロセッサ98(例えば、汎用プロセッサ又は他のプロセッサ)及びメモリー100などの処理回路を含むことができ、例えば、データを画像生成システム36及び/又は物理的相互作用システム40に適切な形態に変換するために。携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は1又は2以上の追跡デバイス94によって検出された来園者18の方位データ、位置情報、及び動き追跡データ(及び/又は来園者18の顔認識に関連するデータ)を処理することができる。これらの機能を実行する命令は、メモリー100及び/又は他の記憶装置などの有形の非一時的コンピュータ可読媒体に記憶されたプログラム又はコードで符号化することができる。特定の実施形態において、プロセッサ98は、汎用プロセッサ、システムオンチップ(SoC)デバイス、特定用途向け集積回路(ASIC)、又は、何らかの他の同様のプロセッサ構成とすることができる。
同様に、特定の実施形態において、本明細書でより詳細に説明するように、画像生成システム36は、1又は2以上のAR画像30を、少なくとも部分的に監視システム38で検出することができる来園者18の方位データ、位置情報、及び動き追跡データ(及び/又は来園者18の顔認識)に基づいて生成してレンダリングすることができる。例えば、特定の実施形態において、監視システム38の1又は2以上の追跡デバイス94は、来園者18の方位データ、位置情報、及び動き追跡データを検出することができる(例えば、来園者18の体を検出すること、来園者18の手振りのパターンを検出することなどを含む)。その後、監視システム38は、来園者18の方位データ、位置情報、及び動き追跡データを画像生成システム36に監視システム38の1又は2以上の通信インターフェース96を介して伝達することができ、画像生成システム36は、AR画像生成器28を介して発生されることになる、及び/又は、携帯デバイス20及び/又はウェアラブルデバイス22のディスプレイ58、74上に表示されることになるAR画像30を少なくとも部分的に来園者18の方位データ、位置情報、及び動き追跡データに基づいて生成することができる。さらに、本明細書で説明するように、特定の実施形態において、1又は2以上の追跡デバイス94は、来園者18の識別情報、来園者18の感情などを検出するために来園者18の顔認識を実行するように構成することができ、監視システム38は、来園者18の顔認識に関連するデータを画像生成システム36に監視システム38の1又は2以上の通信インターフェース96を介して伝達することができ、画像生成システム36は、AR画像生成器28を介して発生されることになる、及び/又は、携帯デバイス20及び/又はウェアラブルデバイス22のディスプレイ58、74上に表示されることになるAR画像30を少なくとも部分的に来園者18の顔認識に基づいて生成することができる。さらに、特定の実施形態において、監視システム38の処理回路は、例えば、データを画像生成システム36及び/又は物理的相互作用システム40に適切な形態に変換するために、1又は2以上の追跡デバイス94によって検出されたデータを処理することができる。
さらに、特定の実施形態において、AR画像生成器28は、プロセッサ132及びメモリー134などの処理回路を含むことができる。プロセッサ132は、特定のAR画像生成器28の特定の動作状態を判定する及び/又は設定する命令を実行するためにメモリー134に動作可能に接続することができる。これらの命令は、メモリー134及び/又は他の記憶装置などの有形の非一時的コンピュータ可読媒体に記憶されたプログラム又はコードで符号化することができる。特定の実施形態において、プロセッサ132は、汎用プロセッサ、システムオンチップ(SoC)デバイス、特定用途向け集積回路(ASIC)、又は何らかの他の同様のプロセッサ構成とすることができる。特定の実施形態において、特定のAR画像生成器28のプロセッサ132は、画像生成システム36から受け取った(例えば、AR画像生成器28の1又は2以上の通信インターフェース136を介して)AR画像30が、発生されるようにするように構成することができ、例えば、AR画像30(及び、特定の実施形態において現実世界の画像46)をAR画像生成器28の1又は2以上のディスプレイ90上に表示するか、又は、AR画像30(及び、特定の実施形態において現実世界の画像46)をAR画像生成器28の1又は2以上のプロジェクタ92を介して投影する。
さらに、特定の実施形態において、本明細書でより詳細に説明するように、画像生成システム36は、1又は2以上のAR画像30を、少なくとも部分的に遊園地10の特定の物理的対象26に関連するデータに基づいて生成及びレンダリングすることができる。例えば、特定の実施形態において、物理的対象26は、プロセッサ102及びメモリー104などの処理回路を含むことができる。プロセッサ102は、特定の物理的対象26の特定の動作状態を判定する及び/又は設定する命令を実行するためにメモリー104に動作可能に接続することができる。これらの命令は、メモリー104及び/又は他の記憶装置などの有形の非一時的コンピュータ可読媒体に記憶されたプログラム又はコードで符号化することができる。特定の実施形態において、プロセッサ102は、汎用プロセッサ、システムオンチップ(SoC)デバイス、特定用途向け集積回路(ASIC)、又は何らかの他の同様のプロセッサ構成とすることができる。特定の実施形態において、特定の物理的対象26のプロセッサ102は、特定の物理的効果32が物理的対象26のためにアクティブになっているか否かを判定し、この判定を画像生成システム36に物理的対象26の1又は2以上の通信インターフェース106を介して伝達するように構成することができ、画像生成システム36は、AR画像生成器28によって発生させることになる、及び/又は、携帯デバイス20及び/又はウェアラブルデバイス22のディスプレイ58、74上に表示されることになるAR画像30を、少なくとも部分的にこの判定に基づいて生成することができる。
従って、物理的相互作用システム40は、遊園地10の特定の物理的対象26の物理的効果32(例えば、移動効果、効果音、触覚フィードバック効果、色効果、香り効果など)の発生を可能にする。具体的には、物理的相互作用システム40を使用して、遊園地10の特定の物理的対象26の物理的効果32を発生させることができる。特定の実施形態において、本明細書でより詳細に説明するように、物理的相互作用システム40は、プロセッサ108(例えば、汎用プロセッサ又は他のプロセッサ)及びメモリー110などの処理回路を含むことができ、特定の物理的対象26のために発生される物理的効果32の形式を判定するために携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、物理的対象26、画像生成システム36、及び監視システム38からのデータを処理することができる。特に、携帯デバイス20と、ウェアラブルデバイス22と、テーマ別デバイス24と、物理的対象26と、画像生成システム36と、監視システム38との間で伝えられるような上述の様々な形式のデータの全ては、遊園地10のそれらの構成要素及び物理的相互作用システム40の1又は2以上の通信インターフェース112に又はそこから伝えることもでき、物理的相互作用システム40は、特定の物理的対象26のために発生されるはずの特定の物理的効果32を少なくとも部分的にこのデータに基づいて決定することができ、物理的効果32を発生させる(すなわち、実行する)制御信号は、それらの物理的対象26に伝達することができることを認識されたい。これらの命令は、メモリー110及び/又は他の記憶装置などの有形の非一時的コンピュータ可読媒体に記憶されたプログラム又はコードで符号化することができる。特定の実施形態において、プロセッサ108は、汎用プロセッサ、システムオンチップ(SoC)デバイス、特定用途向け集積回路(ASIC)、又は、何らかの他の同様のプロセッサ構成とすることができる。
従って、特定の実施形態において、1又は2以上の物理的対象26のために実行されることになる物理的効果32は、物理的相互作用システム40によって決定することができ、物理的相互作用システム40は、物理的効果32を、例えば、物理的対象26に関連する物理作動機構114を介して実行させるために特定の物理的対象26に伝えることができる(例えば、通信インターフェース106、112を介して)。例えば、特定の実施形態において、物理的効果32は、電源によって生成されるような物理的対象26から発生する電気スパーク、点火装置によって生成されるような物理的対象26から発生する炎、又は物理的対象26の一部の移動などとすることができる。
従って、画像生成システム36、監視システム38、及び物理的相互作用システム40は、互いに協働して、遊園地10の来園者18の拡張体験を生成するように構成され、遊園地10の現実世界の環境は、例えば、遊園地10の現実世界の環境内のAR画像30の生成及び/又は遊園地10の現実世界の環境の中に配置された物理的対象26の物理的効果32の生成を介して拡張される。特に、それぞれ、画像生成システム36及び物理的相互作用システム40によって生成されるAR画像30及び物理的効果32は、所与の期間にわたって、例えば、遊園地10の単一の営業日の間に発生する、携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は、遊園地10の現実世界の環境の中に配置された物理的対象26との来園者相互作用(例えば、来園者18からの直接的な、又は、従業員17からの間接的は)の全てを考慮することで決定することができる。例えば、特定の実施形態において、画像生成システム36、監視システム38、及び物理的相互作用システム40は、本明細書で説明する拡張体験を生成する際に本明細書で説明する来園者相互作用の全てを考慮することができるように、遊園地10の全ての営業時間中に本明細書で説明する来園者相互作用を集合的に監視することができる。
画像生成システム36、監視システム38、及び物理的相互作用システム40が互いに協働して、本明細書で説明するような拡張体験を生成するやり方の実施例を示すために、図3は、遊園地10の営業日の始業時の遊園地10のテーマ別アトラクション116を示し、図4は、本開示の実施形態による、遊園地10の営業日の終業時の遊園地10のテーマ別アトラクション116を示す。図3に示すように、遊園地10の営業日の始業時に、AR画像生成器28は、破壊された構造体118(例えば、家屋又は他の形式の建物又は建築物)を示すAR画像30を生成することができ、様々な物理的対象26は、上昇した位置ではない様々なファクションフラグ120(すなわち、物理的対象26)を含むことができる。逆に、図4に示すように、遊園地10の営業日の終業時に、AR画像生成器28は、復元されている構造体118、及び異なる高さに上昇した様々なファクションフラグ120(すなわち、物理的相互作用システム40によって指示されたような、生成された物理的効果32として)を示すAR画像30を生成することができ、このファクションフラグの高さは、例えば、その日の遊園地10の営業中に対応するファクションに投票した来園者18の数に対応する。
従って、画像生成システム36、監視システム38、及び物理的相互作用システム40は、来園者18に結合された拡張体験を提供するように、例えば、遊園地10の営業日中に遊園地10の来園者18の集団行動を追跡することができる。具体的には、来園者18は、遊園地10において1日の営業中に特定のテーマ別アトラクション116と相互作用(例えば、直接的に又は従業員17によって間接的に)することによって、自分に最も重要な遊園地10のテーマ別アトラクション116に有意な貢献をしたと感じることができる。しかしながら、特定の来園者18が、例えば、営業日の丸1日を単一のテーマ別アトラクション116と相互作用しながら過ごすことによって特定のテーマ別アトラクション116を実質的に支配するのを防止するために、特定の実施形態において、画像生成システム36、監視システム38、及び物理的相互作用システム40は、相互作用「クールダウン」を特定のテーマ別アトラクション116との来園者相互作用に課すことができる。換言すると、例えば、来園者18が一度、特定のテーマ別アトラクション116と相互作用すると、この特定の来園者18は、所与の時間量(例えば、15分、30分、1時間など)の間に、この特定のテーマ別アトラクション116との別の相互作用を行ことができない。
図3及び図4に示すように、特定の実施形態において、構造体118は、復元中であると示すことができ(すなわち、画像生成システム36によって指示されたように、AR画像30がAR画像生成器28によって発生されることによって)、復元された構造体118の描画された特徴部は、例えば、携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は物理的対象26(例えば、ファクションフラグ120を含む)と相互作用することによって来園者18がそれぞれのファクションに投票した相対数に少なくとも部分的に基づくようになっている。例えば、特定の実施形態において、第1のファクションフラグ120Aは、第1のファクションに関連づけることができ、これは、概して相対的に「良い」ファクションと認識することができ(例えば、テーマ別アトラクション116のテーマに基づいて)、一方、第2のファクションフラグ120Bは、第2のファクションに関連づけることができ、これは、概して相対的に「悪い」ファクションと認識することができる(例えば、やはり、テーマ別アトラクション116のテーマに基づいて)。従って、1日の遊園地10の営業中に、来園者18は、自分が選択するファクションに投票するか又はその他の方法で自分のサポートを示すために(例えば、直接的に又は従業員17を介して間接的に)、携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は物理的対象26(例えば、ファクションフラグ120を含む)と相互作用することができる。携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は物理的対象26(例えば、ファクションフラグ120を含む)とのこれらの来園者相互作用(すなわち、来園者ファクション票)に基づいて、構造体118は、来園者ファクション票に従った方法で、AR画像生成器28によって発生されたAR画像30によってある程度復元されているように示すことができる(例えば、同様に画像生成システム36によって指示されたように)。さらに、特定の実施形態において、クレジット及び/又はポイントは、来園者が選んだファクションによって取得することができ、これらは来園者18が商品及び/又は遊園地10の中のサービスに使用することができる。
例えば、より多くの来園者18が第1のファクションに(すなわち、相対的に「良い」)投票した場合、構造体118は、相対的に明るい色及び相対的に鋭い幾何的特徴部で復元されるように示すことができる。逆に、より多くの来園者18が第2のファクション(すなわち、相対的に「悪い」)に投票した場合、構造体118は、相対的に暗い色及び相対的に侵食された幾何的特徴部で復元されるように示すことができる。加えて、より多くの票を受け取るファクションに対応する対応ファクションフラグ120は、より少しの票を受け取るファクションに対応するファクションフラグ120よりも高高度に上昇させることができる(例えば、物理的相互作用システム40によって指示されたような、生成された物理的効果32として)。例えば、図4に示すように、第1のファクションが遊園地10の営業中に(すなわち営業日中に)第2のファクションよりも多い来園者ファクション票を受け取ったので、第1のファクション(すなわち、相対的に「良い」)に対応するファクションフラグ120Aは、第2のファクションに対応するファクションフラグ120B(すなわち、相対的に「悪い」)よりも高高度に上昇される。加えて、図4に同様に示すように、第1のファクション(すなわち、相対的に「良(すなわち、相対的に「悪い」)い」)は、遊園地10の営業日中に第2のファクションよりも多い来園者ファクション票を受け取ったので、構造体118は、相対的に鋭い幾何的特徴部を有するようにAR画像生成器28によって発生されたAR画像30によって示される。
従って、携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は物理的対象26(例えば、ファクションフラグ120を含む)との様々な来園者相互作用は、遊園地10の営業中に(例えば、営業日中に)、画像生成システム36、監視システム38、及び物理的相互作用システム40によって集合的に追跡して、AR画像生成器28によって発生させることができるAR画像30(すなわち、画像生成システム36によって指示されたように)を決定すること、及び、物理的対象(例えば、物理的相互作用システム40指示されたような、ファクションフラグ120)によって発生させることができる物理的効果32を決定することができる。具体的には、図3及び図4に示すシナリオにおいて、携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は物理的対象26(例えば、ファクションフラグ120を含む)との様々な来園者相互作用は、遊園地10の営業中に(例えば、営業日中に)、画像生成システム36、監視システム38、及び物理的相互作用システム40によって集合的に追跡して、構造体118を、AR画像生成器28によって発生されたAR画像30を使用してどのように復元されるように示す必要があるか(すなわち、画像生成システム36によって指示されたように)を決定するために、及び、ファクションフラグ120(すなわち、物理的対象26としての)を上昇させることができる相対な高さ(すなわち、物理的相互作用システム40によって指示された物理的効果32としての)を決定することができる。
図5から図8は、本開示の実施形態による、来園者18が図3及び図4に示すシナリオに関して携帯デバイス20、ウェアラブルデバイス22、テーマ別デバイス24、及び/又は遊園地10の現実世界の環境の中に配置された物理的対象26(例えば、ファクションフラグ120を含む)と相互作用することができる様々な方法を示す。例えば、図5は、グラフィカルユーザーインターフェース122を示し、これは、携帯デバイス20のディスプレイ58上に表示することができ、携帯デバイス20を使用する来園者18(又は、来園者18が指示した場合は従業員17)が、来園者18が好むファクションを選択する(すなわち、投票する)ことを可能にする選択肢を含む。携帯デバイス20を使用して来園者18によって又は来園者18のために行われた選択は、本明細書で説明するように携帯デバイス20によって画像生成システム36及び/又は物理的相互作用システム40に伝達して、画像生成システム36及び/又は物理的相互作用システム40が、携帯デバイス20を介して来園者18によって又は来園者18のために行われた選択に少なくとも部分的に基づいて、それぞれ、AR画像30及び/又は物理的効果32を生成するのを助長することができることが理解されたい。
別の実施例として、図6は、ウェアラブルデバイス22を着用する来園者18が好むファクションに相当する物理的対象26(例えば、例示する実施形態においてファクションフラグ120)の比較的近くに(3フィート以内に、2フィート以内に、1フィート以内になど、特定の実施形態においてさらに近い所与の所定の距離内で)持ち込まれるウェアラブルデバイス22を示す。特定の実施形態において、ウェアラブルデバイス22を着用する来園者18が好む特定のファクションフラグ120に対するウェアラブルデバイス22の近接度は、監視システム38によって検出することができ(例えば、監視システム38の1又は2以上の追跡デバイス94を介して)、ファクションフラグ120とのウェアラブルデバイス22の検出された近接度は、本明細書で説明するように監視システム38によって画像生成システム36及び/又は物理的相互作用システム40に伝達して、画像生成システム36及び/又は物理的相互作用システム40が、ウェアラブルデバイス22が比較的近接した状態にあるファクションフラグ120に対応するファクションへの投票を示すファクションフラグ120とのウェアラブルデバイス22の検出された近接度に少なくとも部分的に基づいて、それぞれ、AR画像30及び/又は物理的効果32を生成するのを助長することができる。
しかしながら、他の実施形態において、ウェアラブルデバイス22を着用する来園者18が好む特定のファクションフラグ120に対するウェアラブルデバイス22の近接度は、いつウェアラブルデバイス22に近接する状態になるか又は実際にセンサー124に触れたときを検出するように構成される、例えば、ファクションフラグ120の一部(例えば、特定の実施形態において基部126)の上又はその中に配置されたセンサー124によって検出することができ、ファクションフラグ120とのウェアラブルデバイス22の検出された近接度は、本明細書で説明するようにファクションフラグ120によって画像生成システム36及び/又は物理的相互作用システム40に伝達して(例えば、ファクションフラグ120の1又は2以上の通信インターフェース106を介して)、画像生成システム36及び/又は物理的相互作用システム40が、ウェアラブルデバイス22が比較的近接した状態にあるファクションフラグ120に対応するファクションへの投票を示すファクションフラグ120とのウェアラブルデバイス22の検出された近接度に少なくとも部分的に基づいて、それぞれ、AR画像30及び/又は物理的効果32を生成するのを助長することができる。
さらに他の実施形態において、来園者18が好む特定のファクションフラグ120に対する来園者18の近接度は、監視システム38の1又は2以上の追跡デバイス94によって検出することができ、ファクションフラグ120とのウェアラブルデバイス22の検出された近接度は、本明細書で説明するように監視システム38によって画像生成システム36及び/又は物理的相互作用システム40に伝達して、画像生成システム36及び/又は物理的相互作用システム40が、来園者18が比較的近接した状態にあるファクションフラグ120に対応するファクションへの投票を示すファクションフラグ120との来園者18の検出された近接度に少なくとも部分的に基づいて、それぞれ、AR画像30及び/又は物理的効果32を生成するのを助長することができる。
さらに別の実施例として、図7は、来園者18が特定のファクションを好むことを示すために来園者18によって(又は、来園者18によって指示された場合は従業員17によって)操作されるテーマ別デバイス24を示す。例えば、特定の実施形態において、図7に示すように、テーマ別デバイス24は、魔法の杖の形とすることができ、来園者18(又は、来園者18によって指示された場合は従業員17)は、来園者18が好む特定のファクションに関連していることが知られている特定のパターン128でテーマ別デバイス24を(例えば、特定の呪文を与える魔法の杖として)動かすことができる。特定の実施形態において、テーマ別デバイス24の動きは(すなわち、パターン128に対応する)、監視システム38によって検出することができ(例えば、監視システム38の1又は2以上の追跡デバイス94を介して)、テーマ別デバイス24の検出された動きは、本明細書で説明するように監視システム38によって画像生成システム36及び/又は物理的相互作用システム40に伝達して、画像生成システム36及び/又は物理的相互作用システム40が、パターン128に対応するファクションへの投票を示すテーマ別デバイス24の検出された動きに少なくとも部分的に基づいて、それぞれ、AR画像30及び/又は物理的効果32を生成するのを助長することができる。しかしながら、他の実施形態において、テーマ別デバイス24の動き(すなわち、パターン128に対応する)は、テーマ別デバイス24の1又は2以上の方位及び位置センサー78によって検出することができ、テーマ別デバイス24の検出された動きは、本明細書で説明するように画像生成システム36及び/又は物理的相互作用システム40にテーマ別デバイス24によって伝達して(例えば、テーマ別デバイス24の1又は2以上の通信インターフェース82を介して)、画像生成システム36及び/又は物理的相互作用システム40が、パターン128に対応するファクションへの投票を示すテーマ別デバイス24の検出された動きに少なくとも部分的に基づいて、それぞれ、AR画像30及び/又は物理的効果32を生成するのを助長することができる。
さらに別の実施例として、図8は、物理的対象26、例えば、来園者18が好むファクションに対応する特定のファクションフラグ120と相互作用する来園者18(又は、来園者18によって指示された場合は従業員17)を示す。例えば、図8に示すように、特定の実施形態において、来園者18は、特定のファクションフラグ120に関連した特定のファクションへ投票するために特定のファクションフラグ120に関連した入力部130(例えば、ボタン、ノブ、スイッチなど)と相互作用する(例えば、押す、引く、回す、軽く打つなど)ことができる。物理的対象26(すなわち、図8に例示する実施形態内においてファクションフラグ120の入力部130)との直接的な相互作用は、本明細書で説明するように物理的対象26(すなわち、ファクションフラグ120)によって画像生成システム36及び/又は物理的相互作用システム40に伝達して、画像生成システム36及び/又は物理的相互作用システム40が、例えば、ファクションフラグ120の入力部130との直接相互作用を介して来園者18によって行われた選択に少なくとも部分的に基づいて、それぞれ、AR画像30及び/又は物理的効果32を生成することを助長することができることを認識されたい。
図9は、本開示の実施形態による、本明細書で説明する拡張体験システム34を作動させる方法138を示す。例えば、特定の実施形態において、方法138は、遊園地の拡張体験システムを介して、遊園地10の1又は2以上の従業員17、遊園地の現実世界の環境の中に配置された遊園地10、1又は2以上の携帯デバイス20、1又は2以上のウェアラブルデバイス22、1又は2以上のテーマ別デバイス24、又は1又は2以上の物理的対象との遊園地の複数の来園者18の来園者相互作用を追跡するステップを含む(ブロック140)。加えて、特定の実施形態において、方法138は、拡張体験システム34を介して、遊園地10の現実世界の環境を来園者相互作用に関連するデータに少なくとも部分的に基づいて拡張するステップを含む(ブロック142)。
本明細書では本発明の実施形態の特定の特徴のみを図示して説明したが、当業者であれば多くの修正例及び変更例を想定できるはずである。従って、特許請求の範囲は、本開示の真の精神に該当する全ての当該修正例及び変更例を包含することが意図されていると理解される。
本明細書に示して特許請求する技術は、本技術分野を確実に改善する、従って抽象的なもの、無形のもの又は純粋に理論的なものではない実際的性質の有形物及び具体例を参照し、これらに適用される。さらに、本明細書の最後に添付するいずれかの請求項が、「...[機能]を[実行]する手段」又は「...[機能]を[実行]するステップ」として指定されている1又は2以上の要素を含む場合、このような要素は米国特許法112条(f)に従って解釈すべきである。一方で、他のいずれかの形で指定された要素を含むあらゆる請求項については、このような要素を米国特許法112条(f)に従って解釈すべきではない。
20;携帯デバイス
22;ウェアラブルデバイス
24;テーマ別デバイス
26;物理的対象
28;AR画像生成器
30;AR画像
36;画像生成システム
38;監視システム
40;物理的相互作用システム
42;無線ネットワーク
46;現実世界の画像
22;ウェアラブルデバイス
24;テーマ別デバイス
26;物理的対象
28;AR画像生成器
30;AR画像
36;画像生成システム
38;監視システム
40;物理的相互作用システム
42;無線ネットワーク
46;現実世界の画像
Claims (23)
- 遊園地の現実世界の環境の中に配置された、前記遊園地の1又は2以上の従業員、1又は2以上の携帯デバイス、1又は2以上のウェアラブルデバイス、1又は2以上のテーマ別デバイス、又は1又は2以上の物理的対象との前記遊園地の複数の来園者の来園者相互作用を追跡し、
前記遊園地の前記現実世界の環境を前記来園者相互作用に関連するデータに少なくとも部分的に基づいて拡張する、
ように構成された拡張体験システムを備える、遊園地システム、 - 前記拡張体験システムは、前記遊園地の営業の全時間中に前記来園者相互作用を追跡するように構成される、請求項1に記載の遊園地システム。
- 前記来園者相互作用は、前記1又は2以上の携帯デバイス、前記1又は2以上のウェアラブルデバイス、又は前記1又は2以上の物理的対象の入力部との相互作用を含む、請求項1に記載の遊園地システム。
- 前記来園者相互作用は、前記複数の来園者、前記1又は2以上の携帯デバイス、前記1又は2以上のウェアラブルデバイス、又は前記1又は2以上のテーマ別デバイスの位置、方位、又は動きを含む、請求項1に記載の遊園地システム。
- 前記1又は2以上の携帯デバイス、前記1又は2以上のウェアラブルデバイス、又は前記1又は2以上のテーマ別デバイスの前記位置、方位、又は動きは、前記1又は2以上の携帯デバイス、前記1又は2以上のウェアラブルデバイス、又は前記1又は2以上のテーマ別デバイスの中に配置された方位及び位置センサーによって検出される、請求項4に記載の遊園地システム。
- 前記1又は2以上の携帯デバイス、前記1又は2以上のウェアラブルデバイス、又は前記1又は2以上のテーマ別デバイスの前記位置、方位、又は動きは、前記遊園地の前記現実世界の環境の中に配置された監視システムによって検出される、請求項4に記載の遊園地システム。
- 前記来園者相互作用は、前記1又は2以上の物理的対象に対する少なくとも前記複数の来園者、前記1又は2以上の携帯デバイス、前記1又は2以上のウェアラブルデバイス、又は前記1又は2以上のテーマ別デバイスの位置の近接度を含む、請求項1に記載の遊園地システム。
- 前記拡張体験システムは、
1又は2以上の拡張現実(AR)画像を少なくとも部分的に前記来園者相互作用に関連する前記データに基づいて生成し、
前記AR画像を前記遊園地の前記現実世界の環境の中に配置された1又は2以上のAR画像生成器に送る、
ように構成された画像生成システムを含む、請求項1に記載の遊園地システム。 - 前記画像生成システムは、少なくとも部分的に前記1又は2以上の携帯デバイス、前記1又は2以上のウェアラブルデバイス、又は前記1又は2以上のテーマ別デバイスに記憶されたローカル設定に基づいて前記1又は2以上のAR画像を生成するように構成される、請求項8に記載の遊園地システム。
- 前記画像生成システムは、少なくとも部分的に前記遊園地のグローバル設定に基づいて前記1又は2以上のAR画像を生成するように構成される、請求項8に記載の遊園地システム。
- 前記画像生成システムは、少なくとも部分的に前記遊園地の前記現実世界の環境の現在の時刻、現在の日付、又は現在の天気に基づいて前記1又は2以上のAR画像を生成するように構成される、請求項8に記載の遊園地システム。
- 前記拡張体験システムは、
少なくとも部分的に前記来園者相互作用に関連する前記データに基づいて前記1又は2以上の物理的対象に対して実行される1又は2以上の物理的効果を決定し、
前記決定された1又は2以上の物理的効果を実行する1又は2以上の制御信号を、前記1又は2以上の物理的対象に送る、
ように構成された物理的相互作用システムを含む、請求項1に記載の遊園地システム。 - 前記物理的相互作用システムは、少なくとも部分的に前記1又は2以上の携帯デバイス、前記1又は2以上のウェアラブルデバイス、又は前記1又は2以上のテーマ別デバイスに記憶されたローカル設定に基づいて前記1又は2以上の物理的効果を生成するように構成される、請求項12に記載の遊園地システム。
- 前記物理的相互作用システムは、少なくとも部分的に前記遊園地のグローバル設定に基づいて前記1又は2以上の物理的効果を決定するように構成される、請求項12に記載の遊園地システム。
- 前記物理的相互作用システムは、少なくとも部分的に前記遊園地の前記現実世界の環境の前記現在の時刻、前記現在の日付、又は前記現在の天気に基づいて前記1又は2以上の物理的効果を決定するように構成される、請求項12に記載の遊園地システム。
- 前記1又は2以上の携帯デバイスは、1又は2以上の携帯電話又はタブレットコンピュータを含む、請求項1に記載の遊園地システム。
- 前記1又は2以上のウェアラブルデバイスは、1又は2以上の腕時計のような電子機器、ブレスレット、お守り、リング、ヘッドバンド、メガネ、帽子、ヘルメット、Tシャツ、ジャケット、コート、半ズボン、ズボン、靴、長靴、又は他の装着できるアイテムを含む、請求項1に記載の遊園地システム。
- 前記1又は2以上のテーマ別デバイスは、モデルガン、剣、フラグ、又は棒状の道具を含む、請求項1に記載の遊園地システム。
- 前記拡張体験システムは、前記遊園地の現実世界の環境の中に配置された、1又は2以上の携帯デバイス、1又は2以上のウェアラブルデバイス、1又は2以上のテーマ別デバイス、又は1又は2以上の物理的対象を介した前記遊園地の1又は2以上の従業員からの来園者相互作用に関連する前記データに関連する入力を受け取るように構成される、請求項1に記載の遊園地システム。
- 遊園地の拡張体験システムを介して、前記遊園地の現実世界の環境の中に配置された、前記遊園地の1又は2以上の従業員、1又は2以上の携帯デバイス、1又は2以上のウェアラブルデバイス、1又は2以上のテーマ別デバイス、又は1又は2以上の物理的対象との前記遊園地の複数の来園者の来園者相互作用を追跡するステップと、
前記拡張体験システムを介して、前記遊園地の前記現実世界の環境を、少なくとも部分的に前記来園者相互作用に関連するデータに基づいて拡張するステップと、
を含む、方法。 - 前記遊園地の前記現実世界の環境を拡張するステップは、
画像生成システムを介して、1又は2以上の拡張現実(AR)画像を、少なくとも部分的に前記来園者相互作用に関連する前記データに基づいて生成するステップと、
前記画像生成システムを介して、前記AR画像を前記遊園地の前記現実世界の環境の中に配置された1又は2以上のAR画像生成器に送るステップと、
を含む、請求項20に記載の方法。 - 前記遊園地の前記現実世界の環境を拡張するステップは、
物理的相互作用システムを介して、少なくとも部分的に前記来園者相互作用に関連する前記データに基づいて前記1又は2以上の物理的対象に対して実行される1又は2以上の物理的効果を決定するステップと、
前記物理的相互作用システムを介して、1又は2以上の制御信号を前記1又は2以上の物理的対象に送り、前記決定された1又は2以上の物理的効果を実行するステップと、
を含む、請求項20に記載の方法。 - 前記拡張体験システムを介して、前記遊園地の営業の全時間中に前記来園者相互作用を追跡するステップを含む、請求項20に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962789872P | 2019-01-08 | 2019-01-08 | |
US62/789,872 | 2019-01-08 | ||
US16/293,351 | 2019-03-05 | ||
US16/293,351 US10780359B2 (en) | 2019-01-08 | 2019-03-05 | Systems and methods for a connected augmented environment |
PCT/US2020/012160 WO2020146202A1 (en) | 2019-01-08 | 2020-01-03 | Systems and methods for a connected augmented environment |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022516930A true JP2022516930A (ja) | 2022-03-03 |
Family
ID=71403453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021539122A Pending JP2022516930A (ja) | 2019-01-08 | 2020-01-03 | 結合された拡張環境のためのシステム及び方法 |
Country Status (8)
Country | Link |
---|---|
US (2) | US10780359B2 (ja) |
EP (1) | EP3908387A1 (ja) |
JP (1) | JP2022516930A (ja) |
KR (1) | KR20210113639A (ja) |
CN (1) | CN113272036A (ja) |
CA (1) | CA3124882A1 (ja) |
SG (1) | SG11202106457XA (ja) |
WO (1) | WO2020146202A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10360419B1 (en) | 2018-01-15 | 2019-07-23 | Universal City Studios Llc | Interactive systems and methods with tracking devices |
US11173410B2 (en) * | 2018-05-01 | 2021-11-16 | D-Box Technologies Inc. | Multi-platform vibro-kinetic system |
US10780359B2 (en) * | 2019-01-08 | 2020-09-22 | Universal City Studios Llc | Systems and methods for a connected augmented environment |
US11140102B1 (en) * | 2019-03-29 | 2021-10-05 | Verizon Media Inc. | Systems and methods for initiating communication between users based on machine learning techniques |
US11474602B2 (en) * | 2020-02-26 | 2022-10-18 | Disney Enterprises, Inc. | Gameplay system with play augmented by merchandise |
US11630505B2 (en) * | 2020-10-26 | 2023-04-18 | Universal City Studios Llc | Interactive energy effect attraction |
WO2023107542A1 (en) * | 2021-12-09 | 2023-06-15 | Universal City Studios Llc | Amusement content processing systems and methods |
US20230367988A1 (en) * | 2022-05-11 | 2023-11-16 | Universal City Studios Llc | Guest-specific artificial intelligence entity systems and methods |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9191450B2 (en) | 2007-09-20 | 2015-11-17 | Disney Enterprises, Inc. | Measuring user engagement during presentation of media content |
US9839856B2 (en) | 2008-03-11 | 2017-12-12 | Disney Enterprises, Inc. | Method and system for providing interactivity based on sensor measurements |
WO2014055924A1 (en) | 2012-10-04 | 2014-04-10 | Disney Enterprises, Inc. | Interactive objects for immersive environment |
US9741145B2 (en) | 2012-06-29 | 2017-08-22 | Disney Enterprises, Inc. | Augmented reality simulation continuum |
CA2929653C (en) | 2012-11-09 | 2022-12-06 | Whitewater West Industries Ltd. | Mobile application for an amusement park or waterpark |
US10134267B2 (en) | 2013-02-22 | 2018-11-20 | Universal City Studios Llc | System and method for tracking a passive wand and actuating an effect based on a detected wand path |
US9616350B2 (en) | 2014-05-21 | 2017-04-11 | Universal City Studios Llc | Enhanced interactivity in an amusement park environment using passive tracking elements |
US9155971B1 (en) | 2014-05-28 | 2015-10-13 | Disney Enterprises, Inc. | Selective illumination of physical scenery in amusement park rides |
US9504930B2 (en) | 2014-08-26 | 2016-11-29 | Universal City Studios Llc | Special effects techniques |
CA2984147C (en) * | 2015-05-14 | 2022-02-08 | Magic Leap, Inc. | Privacy-sensitive consumer cameras coupled to augmented reality systems |
CN205581781U (zh) * | 2016-03-13 | 2016-09-14 | 上海盟云移软网络科技股份有限公司 | 一种增强现实飞行体验系统 |
US10512845B2 (en) | 2016-09-20 | 2019-12-24 | Disney Enterprises, Inc. | Real-time manipulation of gameplay through synchronous signal consumption in non-interactive media |
CN106383587B (zh) * | 2016-10-26 | 2020-08-04 | 腾讯科技(深圳)有限公司 | 一种增强现实场景生成方法、装置及设备 |
US10004984B2 (en) | 2016-10-31 | 2018-06-26 | Disney Enterprises, Inc. | Interactive in-room show and game system |
US10484547B2 (en) | 2016-11-01 | 2019-11-19 | Disney Enterprises, Inc. | Systems and methods of distributing image effects for user experiences |
US20180255285A1 (en) * | 2017-03-06 | 2018-09-06 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
US10656704B2 (en) * | 2017-05-10 | 2020-05-19 | Universal City Studios Llc | Virtual reality mobile pod |
US10360419B1 (en) * | 2018-01-15 | 2019-07-23 | Universal City Studios Llc | Interactive systems and methods with tracking devices |
US10818152B2 (en) * | 2018-01-15 | 2020-10-27 | Universal City Studios Llc | Interactive systems and methods with feedback devices |
US10699084B2 (en) * | 2018-01-15 | 2020-06-30 | Universal City Studios Llc | Local interaction systems and methods |
US10780359B2 (en) * | 2019-01-08 | 2020-09-22 | Universal City Studios Llc | Systems and methods for a connected augmented environment |
-
2019
- 2019-03-05 US US16/293,351 patent/US10780359B2/en active Active
-
2020
- 2020-01-03 EP EP20702710.3A patent/EP3908387A1/en active Pending
- 2020-01-03 WO PCT/US2020/012160 patent/WO2020146202A1/en unknown
- 2020-01-03 JP JP2021539122A patent/JP2022516930A/ja active Pending
- 2020-01-03 CN CN202080008444.3A patent/CN113272036A/zh active Pending
- 2020-01-03 SG SG11202106457XA patent/SG11202106457XA/en unknown
- 2020-01-03 KR KR1020217024800A patent/KR20210113639A/ko unknown
- 2020-01-03 CA CA3124882A patent/CA3124882A1/en active Pending
- 2020-08-17 US US16/995,465 patent/US11173408B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20200376397A1 (en) | 2020-12-03 |
US20200215442A1 (en) | 2020-07-09 |
EP3908387A1 (en) | 2021-11-17 |
CN113272036A (zh) | 2021-08-17 |
US11173408B2 (en) | 2021-11-16 |
SG11202106457XA (en) | 2021-07-29 |
CA3124882A1 (en) | 2020-07-16 |
KR20210113639A (ko) | 2021-09-16 |
US10780359B2 (en) | 2020-09-22 |
WO2020146202A8 (en) | 2021-02-18 |
WO2020146202A1 (en) | 2020-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022516930A (ja) | 結合された拡張環境のためのシステム及び方法 | |
US11669152B2 (en) | Massive simultaneous remote digital presence world | |
CN105188516B (zh) | 用于增强和虚拟现实的系统与方法 | |
JP5934368B2 (ja) | 可搬装置、仮想現実システムおよび方法 | |
CN106484115A (zh) | 用于增强和虚拟现实的系统和方法 | |
CN105637529A (zh) | 图像捕获输入和投影输出 | |
JP2018192107A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
CN109314800A (zh) | 用于将用户注意力引导到基于位置的游戏进行伴随应用的方法和系统 | |
JP2023515988A (ja) | 拡張現実ゲスト認識システム及び方法 | |
US10692294B1 (en) | Systems and methods for mediated augmented physical interaction | |
JP2018192238A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240220 |