JP2023515988A - 拡張現実ゲスト認識システム及び方法 - Google Patents

拡張現実ゲスト認識システム及び方法 Download PDF

Info

Publication number
JP2023515988A
JP2023515988A JP2022551705A JP2022551705A JP2023515988A JP 2023515988 A JP2023515988 A JP 2023515988A JP 2022551705 A JP2022551705 A JP 2022551705A JP 2022551705 A JP2022551705 A JP 2022551705A JP 2023515988 A JP2023515988 A JP 2023515988A
Authority
JP
Japan
Prior art keywords
guest
augmented reality
guests
reality display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022551705A
Other languages
English (en)
Inventor
マーク ジェイムズ トレイナー
デイヴィッド ジョン-ルイス アルター
カイル パトリック ハンリー
ジェフリー ラマー ポーク
ブレット ジェイムズ コンロイ
ボニー ジーン スパイヴィー
Original Assignee
ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー filed Critical ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
Publication of JP2023515988A publication Critical patent/JP2023515988A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本明細書に提示されるシステム及び方法は、会場内の1以上のゲストを認識するように構成されたゲスト認識システムを含む会場システムと、ゲスト認識システムから認識された1以上のゲストに関連するデータを受信し、認識された1以上のゲストに関連する受信データに少なくとも部分的に基づいて、認識された1以上のゲストに関連するゲスト体験情報を生成し、拡張現実表示装置の拡張現実ディスプレイに表示するために、認識された1以上のゲストに関連するゲスト体験情報を拡張現実表示装置に送信するように構成された、ゲスト体験分析システムと、を備える。【選択図】 図3

Description

〔関連出願との相互参照〕
本出願は、2020年2月27日に出願された「拡張現実ゲスト認識システム及び方法(Augmented Reality Guest Recognition Systems and Methods)」と題する米国仮特許出願第62/982,528号に基づく優先権及びその利益を主張するものであり、この文献はその全体が全ての目的で引用により本明細書に組み入れられる。
本開示は、一般に、会場(例えば、遊園地又はテーマパーク)の従業員が会場のゲストの体験を強化することを容易にする拡張現実環境を作成するためのシステム及び方法に関する。より具体的には、本開示の実施形態は、一般に、会場のゲストの自動認識に基づく拡張現実環境のためのシステム及び方法に関する。
本節は、以下に説明及び/又は特許請求する本技術の様々な態様に関連し得る技術の様々な態様を読者に紹介することを意図している。本議論は、本開示の様々な態様のより良い理解を容易にするために、読者に背景情報を提供するのに役立つと考えられる。したがって、これらの記載は、この観点から読まれるべきであり、先行技術の容認としてではないことが理解されるべきである。
遊園地及び/又はテーマパークは、会場のゲスト(例えば、家族連れ及び/又はあらゆる年齢の人々)に楽しみを提供するのに役立つ様々な娯楽アトラクション、レストラン、土産物店、及び乗り物を含むことができる。会場のエリアは、特定の聴衆を特に対象とする異なるテーマを有することができる。例えば、あるエリアは、従来から子供が興味を持つテーマを含むことができ、他のエリアは、従来からもっと成熟した聴衆が興味を持つテーマを含むことができる。一般に、このような会場に関連するテーマを有する場所は、アトラクション又はテーマ型アトラクションと呼ばれることがある。これらのテーマ型アトラクションを、固定設備、建物のレイアウト、小道具、装飾等を用いて確立することができ、その殆どは、一般に、特定のテーマに関連するものであり得る。一般に、会場従業員は、ゲストの体験を強化することを支援することができる。このように、会場従業員は、ゲストの将来の体験を強化するために、ゲストの体験の以前及び現在の状態に関連する、より最新の情報を支援され得る。
従来の技術と比較して、テーマ型アトラクションの環境を柔軟かつ効率的に変化させることが可能であり得るテーマ型アトラクションを含むことが望ましいことが、現在認識されている。また、そのようなテーマ型アトラクションに対するゲストの没入体験を強化すること、及びゲストに対してより個人化された又はカスタマイズ化された体験を提供することが望ましい場合があることが、現在認識されている。
当初特許請求する主題の範囲に相応する特定の実施形態が以下に要約される。これらの実施形態は、特許請求する主題の範囲を制限することを意図しておらず、むしろ、これらの実施形態は、主題の可能な形態の簡単な要約を提供することのみを意図している。実際、主題は、以下に示す実施形態と類似していても異なっていてもよい様々な形態を包含することができる。
特定の実施形態では、システムは、会場内の1以上のゲストを認識するように構成されたゲスト認識システムを含む。本システムはまた、認識された1以上のゲストに関連するデータをゲスト認識システムから受信し、認識された1以上のゲストに関連する受信データに少なくとも部分的に基づいて、認識された1以上のゲストに関連するゲスト体験情報を生成し、拡張現実表示装置の拡張現実ディスプレイ上に表示するために、認識された1以上のゲストに関連するゲスト体験情報を拡張現実表示装置に送信する、よう構成されたゲスト体験分析システムを含む。
さらに、特定の実施形態では、方法は、ゲスト認識システムを介して、会場内の1以上のゲストを認識するステップを含む。本方法はまた、ゲスト体験分析システムを介して、認識された1以上のゲストに関連するゲスト体験情報を生成するステップを含む。本方法は、拡張現実表示装置の拡張現実ディスプレイ上に表示するために、ゲスト体験分析システムを介して、認識された1以上のゲストに関連するゲスト体験情報を、拡張現実表示装置に送信するステップをさらに含む。
さらに、特定の実施形態では、拡張現実表示装置は、会場の1以上のゲストの画像を通過するように構成された拡張現実ディスプレイを含む。拡張現実表示装置はまた、少なくとも1つのプロセッサによって実行されると、少なくとも1つのプロセッサに動作を実行させる命令を格納する1以上の非一時的コンピュータ可読媒体を含む。動作は、ゲスト体験分析システムから、1以上のゲストのうちの対象ゲストに関連するゲスト体験情報を受信するステップを含む。動作はまた、対象ゲストに関連するゲスト体験情報を、対象ゲストの通過画像付近の拡張現実ディスプレイ上に重畳するステップを含む。
上記の特徴の様々な改良が、本開示の様々な態様に関連して実施され得る。さらなる特徴もまた、これらの様々な態様に同様に組み込むことができる。これらの洗練された特徴及び追加の特徴は、個別に又は任意の組み合わせで存在することができる。
本開示のこれら及び他の特徴、態様、及び利点は、以下の詳細な説明を図面全体にわたって同様の文字が同様の部分を表す添付の図面を参照しながら読むと、よりよく理解されるであろう。
本開示の実施形態による、1以上のアトラクションを含む会場の特徴を示す図である。 本開示の実施形態による、図1に例示された会場の特徴のための拡張ゲスト体験を提供するための拡張現実ゲスト認識システムの概略図である。 本開示の実施形態による、図2の拡張現実ゲスト認識システムの例示的な部分を示す図である。 本開示の実施形態による、会場のゲストに関連する例示的なゲスト体験情報を示す、会場従業員の視点からの図3のゲスト認識センサ及び拡張現実表示エンドポイントを示す図である。 本開示の実施形態による、装着型拡張現実表示装置(例えば、拡張現実眼鏡、拡張現実ゴーグル、他の拡張現実ヘッドギア等)を示す図である。 本開示の実施形態による、拡張現実ゲスト認識システムの使用方法の流れ図である。
本開示の1以上の具体的な実施形態について、以下に説明する。これらの実施形態の簡潔な説明を提供するために、実際の実装のすべての特徴は、本明細書に記載されない場合がある。任意のエンジニアリング又は設計プロジェクトにおけるように、任意のそのような実際の実装の開発において、システム関連及びビジネス関連の制約への準拠等、開発者の特定の目標を達成するために、多数の実装固有の決定を行わなければならず、それは実装ごとに異なる場合があることを理解されたい。さらに、そのような開発努力は複雑で時間がかかるかもしれないが、それにもかかわらず、本開示の利益を有する通常の技術者にとって、設計、製作、及び製造の日常的な仕事であることを理解されたい。さらに、平行、垂直等の特定の用語が本明細書で使用される範囲において、これらの用語は、例えば、製造上の不完全性及び関連する公差に関連する逸脱を許容するために、厳密な数学的定義からの特定の逸脱を許容することを理解されたい。
本開示の様々な実施形態の要素を説明するとき、冠詞「a」、「an」、及び「the」は、その要素が1以上存在することを意味することを意図している。用語「備える(comprising)」、「含む(including)」、及び「有する(having)」は、包括的であることを意図しており、列挙された要素以外の追加の要素が存在し得ることを意味する。さらに、本開示の「一実施形態(one embodiment)」又は「ある実施形態(an embodiment)」への言及は、言及された特徴も組み込んだ追加の実施形態の存在を除外すると解釈することを意図していないことを理解されたい。
本開示の実施形態は、遊園地又はテーマパーク等の会場のゲストのためのより動的な双方向体験を可能にし、従業員がゲストの将来の体験を強化できるようにする目的で、会場内のゲストの以前及び現在の体験に関連する情報が、会場従業員に自動的に(例えば、人間の介入なく)提供される。より具体的には、本開示の実施形態は、ゲストが会場内での時間の間に(例えば、本明細書でより詳細に説明されるような、コンピュータベースの拡張現実ゲスト認識システムによって)自動的に認識されることを可能にし、従業員が会場内でのゲストの将来の体験を高めることを容易にするために、会場内でのゲストの体験に関連する情報が、会場従業員に自動的に(例えば、人間の介入なく)提示され得る。例えば、特定の実施形態では、会場のゲストは、顔認識技術、衣服認識技術、動作認識技術(例えば、特定のゲストの識別可能な歩行を検出する)、及び/又は本明細書でより詳細に説明するような他のゲスト認識技術を使用して自動的に認識されて、会場内のゲストの以前及び現在の体験を追跡することができ、かかる体験に関連する情報が、本明細書でもより詳細に説明するように、この自動ゲスト認識に少なくとも部分的に基づいて、自動的に(例えば、人間の介入なく)会場従業員に提供され得る。
上記のことを念頭に置いて、図1に示されるような遊園地又はテーマパーク等の会場10の実施形態を説明することは有用であろう。図示されるように、特定の実施形態では、会場10は、絶叫マシン12、会場施設14(例えば、レストラン、土産物店等)、追加の会場アトラクション16、及び会場従業員18(例えば、特定の実施形態において、テーマキャラクターとして演じる)を含むことができる。本明細書でより詳細に説明するように、会場10のゲスト20の体験を、会場10内のゲスト20の自動認識に少なくとも部分的に基づいて、自動的に(例えば、人間の介入なしに)決定することができ、拡張現実システムを介して会場従業員18に提示することができ、会場10内のゲスト20の以前の体験及び現在の体験に関連する情報に基づいて、会場従業員18によって強化することができる。例えば、特定の実施形態では、ゲスト認識システム22は、本明細書でより詳細に説明するように、例えば、顔認識技術、動作認識技術(例えば、特定のゲスト20の識別可能な歩行を検出する)、及び/又は他のゲスト認識技術を使用して、会場10内のゲスト20の以前及び現在の体験を追跡する目的で、ゲスト20を自動的に(例えば、人間の介入なしに)認識することができる。さらに、特定の実施形態では、ゲスト認識システム22によって実行されたゲスト認識に関連する情報を、ゲスト体験分析システム24によって分析し、会場10内のゲスト20の以前及び現在の体験に関連する情報を決定することができ、この情報は、本明細書においてより詳細に説明するように、会場従業員18が会場10内のゲスト20の将来の体験を強化することができるように、拡張現実システムにより会場従業員18に提供することができる。
例えば、特定の実施形態では、拡張現実システムは、拡張現実表示エンドポイント26を介して表示されるゲスト20に関連する拡張現実情報を表示するように構成された、1以上の拡張現実表示エンドポイント26を含むことができる。特定の実施形態では、1以上の拡張現実表示エンドポイント26は、例えば、会場10内の特定の位置に配置された比較的静止したキオスクであり得る。本明細書でより詳細に説明するように、特定の実施形態では、拡張現実表示エンドポイント26は、ゲスト20の画像を通過させる一方で、ゲスト体験分析システム24によって決定されるゲスト20の以前の体験及び現在の体験に関連する情報でディスプレイを拡張する透明ディスプレイを含むことができる。さらに、特定の実施形態では、ゲストの体験をさらに強化するために、拡張現実システムは、装着型拡張現実表示装置28を介して表示されるゲスト20に関連する拡張現実情報も表示するように構成された、1以上の装着型拡張現実表示装置28(例えば、拡張現実眼鏡、拡張現実ゴーグル、他の拡張現実ヘッドギア等)を含むことができる。

本明細書でより詳細に説明するように、特定の実施形態では、装着型拡張現実表示装置28は、ゲスト20の画像を通過させる一方で、ゲスト体験分析システム24によって決定されるゲスト20の以前の体験及び現在の体験に関連する情報でディスプレイを拡張する透明ディスプレイを含むことができる。例えば、本明細書でより詳細に説明するように、特定のゲスト20の以前及び現在の体験に関連する情報は、会場従業員18がその情報を特定のゲスト20に関連するものとして容易に認識できるように、特定のゲスト20の通過画像付近の透明ディスプレイに重畳することができ、それによって会場従業員18が特定のゲスト20の将来の体験を改善するのに役立つことを容易にすることができる。加えて、特定の実施形態では、本明細書に記載される拡張現実表示エンドポイント26及び/又は装着型拡張現実表示装置28を、拡張現実表示エンドポイント26及び/又は装着型拡張現実表示装置28を介して表示されるゲスト20に関連する情報を示す音声キュー及び/又は触覚フィードバックを提供するように構成することができる。
さらに、特定の実施形態では、ゲスト体験分析システム24によって決定されるゲスト20の以前の体験及び現在の体験に関連する情報を、1以上の装着型装置30、1以上の携帯型装置32、及び/又は他の1以上のテーマ装置34を介してユーザ(例えば、会場従業員18)に提示することができる。特定の実施形態では、装着型装置30は、腕時計のような電子装置、ブレスレット、お守り、指輪、ヘッドバンド、帽子、ヘルメット、Tシャツ、ジャケット、コート、ショーツ、パンツ、靴、ブーツ、又は任意の他の都合よく装着可能な物品であり得る。特定の実施形態では、携帯型装置32は、携帯電話(例えば、スマートフォン)、タブレットコンピュータ、又はゲスト20によって会場10の周りで持ち運ぶことができる任意の他の適切な装置であり得る。特定の実施形態では、テーマ装置34は、玩具の銃、剣、旗、杖等の会場テーマ関連オブジェクトであり得る。本明細書でより詳細に説明するように、特定の実施形態では、装着型装置30及び/又はテーマ装置34は、その中に配置(例えば、衣料材料内に縫い付けられる等)された回路(例えば、小型チップ)を含むか、又はゲスト認識システム22によって受動的に追跡されてゲスト20及び/又はゲスト20の体験を認識し得る固有のパターン(例えば、画像等)を含むことができる。
さらに、特定の実施形態では、会場10の現実世界環境内に配置された1以上の物理オブジェクト36を、本明細書に記載される装置26、28、30、32、34のうちの1以上から受信した制御信号に少なくとも部分的に基づいて、1以上の物理的効果38(例えば、火花の発生、火の発生、風の発生、動き等)を生成するように構成することができ、これは、ユーザ(例えば、会場従業員)に提示される拡張現実情報に基づいて、装置26、28、30、32、34を介して、ユーザ(例えば、会場従業員)によって発信させることができる。例えば、会場従業員18は、会場従業員18に提示された特定のゲスト20に関連する拡張現実情報に基づいて、装置26、28、30、32、34を介して、特定の物理的効果38が特定のゲスト20の体験を強化することができると決定することができ、会場従業員18は、特定の物理的効果38を生成するために特定の物理オブジェクト36に送信される制御信号を開始させることができる。
図2は、本開示の実施形態による、会場10のための強化されたゲスト体験を提供するための拡張現実ゲスト認識システム40の概略図である。図2に示されるように、特定の実施形態では、拡張現実ゲスト認識システム40は、例えば図1に示されるように、ゲスト20が会場10の様々な特徴を体験している間にゲスト20を認識し、ユーザ(例えば、会場従業員18)がゲスト20の将来の体験をさらに強化できるように、ゲスト20の以前及び現在の体験に関連する情報の拡張現実表示を提供するように協働するように構成されたゲスト認識システム22及びゲスト体験分析システム24を含むことができる。例えば、特定の実施形態では、1以上の拡張現実表示エンドポイント26及び/又は1以上の装着型拡張現実表示装置28を、ゲスト認識システム22によって追跡された情報に少なくとも部分的に基づいてゲスト体験分析システム24によって生成された、会場10内のゲスト20の以前の体験及び現在の体験に関連する情報の拡張現実表示を表示するように構成することができる。
さらに、特定の実施形態では、1以上の装着型装置30、1以上の携帯型装置32、及び/又は1以上のテーマ装置34を、ゲスト認識システム22によって追跡された情報に少なくとも部分的に基づいて、ゲスト体験分析システム24によって生成される会場10内のゲスト20の以前の及び現在の体験に関連する情報の拡張現実表示を提示するようにも構成することができる。

実際、特定の実施形態では、会場10のゲスト20は、1以上の装着型装置30、1以上の携帯型装置32、及び/又は1以上のテーマ装置34を介して、会場10内のゲスト20の以前の体験及び現在の体験に関連する情報の拡張現実表示の少なくとも一部分を見ることができ、本明細書でより詳細に説明するように、拡張現実表示エンドポイント26及び/又は装着型拡張現実表示装置28を介してユーザ(例えば、会場従業員18)から受信することができるものと同様の入力を、1以上の装着型装置30、1以上の携帯型装置32、及び/又は1以上のテーマ装置34を介して、提供することができる。さらに、特定の実施形態では、1以上の装着型装置30、1以上の携帯型装置32、及び/又は1以上のテーマ装置34からのデータを、本明細書でより詳細に説明するように、ゲスト体験分析システム24によって、特定のゲスト20の特定の体験を決定するために使用することができる。加えて、特定の実施形態では、拡張現実ゲスト認識システム40は、本明細書において(例えば、図1に関連して)より詳細に説明するように、1以上の物理的効果38を生成するように構成された1以上の物理オブジェクト36を含むこともできる。
特定の実施形態では、拡張現実表示エンドポイント26、装着型拡張現実表示装置28、装着型装置30、携帯型装置32、テーマ装置34、及び/又は物理オブジェクト36を、無線ネットワーク42(例えば、無線ローカルエリアネットワーク(WLAN)、無線ワイドエリアネットワーク(WWAN)、近距離無線通信(NFC)ネットワーク、又は任意の他の適切な無線ネットワーク)を介して、(例えば、会場10内)ゲスト認識システム22及び/又はゲスト体験分析システム24と通信可能に結合することができる。さらに、特定の実施形態では、拡張現実表示エンドポイント26及び/又は物理オブジェクト36を、直接的な物理接続44を介して(例えば、通信ケーブルを用いて)、ゲスト認識システム22及び/又はゲスト体験分析システム24に通信可能に結合することができる。
特定の実施形態では、本明細書でより詳細に説明するように、ゲスト体験分析システム24は、ゲスト認識システム22によって検出されたゲスト認識データに少なくとも部分的に基づいて、例えば、拡張現実表示エンドポイント26及び/又は装着型拡張現実表示装置28のディスプレイ48、50を介して、それぞれ拡張情報として表示するゲスト体験情報46(例えば、メタデータ)を生成することができる。例えば、特定の実施形態では、ゲスト認識システム22は、会場10内のゲスト20を認識するためにゲスト認識システム22によって使用され得るデータを収集するように構成された1以上のゲスト認識センサ52を含むことができる。例えば、特定の実施形態では、ゲスト認識センサ52は、実質的にリアルタイムで画像(及び/又は動画ストリーム)を収集するように構成されたカメラを含むことができ、ゲスト認識システム22は、顔認識アルゴリズム、衣服認識アルゴリズム、動作認識アルゴリズム(例えば、特定のゲスト20の識別可能な歩行を検出する)、及び他の種類の認識アルゴリズムを実行して、会場10内の特定のゲスト20(又は本明細書でより詳細に説明するように、ゲスト20のグループ)の同一性を検出することができる。このゲスト認識に少なくとも部分的に基づいて、会場10のゲスト20(又は本明細書でより詳細に説明するように、ゲスト20のグループ)の活動を、ゲスト認識システム22によって時間と共に追跡することができ、この追跡した活動に関連する情報を、会場10内のゲスト20の以前及び現在の体験に関連するゲスト体験情報46を分析及び生成するために、ゲスト認識システム22の1以上の通信インターフェース54を介して、ゲスト体験分析システム24に送信することができる。本明細書で使用される「リアルタイム」及び「実質的にリアルタイム」という用語は、画像(又は動画ストリームのフレーム)を、実際の観察時間に実質的に近い時間フレームで取得及び/又は提供することを示す(例えば、画像を1/10秒毎、1/15秒毎、1/20秒毎、1/30秒毎、1/60秒毎、又はさらに頻繁に取得及び/又は提供することができる)。
一般に、ゲスト体験情報46(例えば、メタデータ)は、会場10内のゲスト20(又はゲスト20のグループ)の活動を含む、ゲスト20(又はゲスト20のグループ)に関連する任意の情報を含むことができる。例えば、ゲスト体験情報46は、ゲスト20に関連する個人情報、例えば、名前、年齢、性別、身長、体重、出身地、話す言語、ゲスト20が資格を有する(例えば、権利を有する)、会場10の特定のテーマセクション又は特定の絶叫マシン12、会場施設14、及び/又は他の会場アトラクション16に関連する優先度の分類、ゲスト20が会場10の年間パス所有者かどうか、ゲスト20が会場10を訪れた回数、会場10の特定のテーマグループとの関連付け、等を含むことができる。理解されるように、この個人情報の少なくとも一部を、ゲスト認識システム22によって、ゲスト20(又はゲスト20のグループ)を認識するために使用することができる。
さらに、本明細書でより詳細に説明するように、ゲスト体験情報46は、会場10内でのゲスト20(又はゲスト20のグループ)の活動、例えば、ゲスト20(又はゲスト20のグループ)が、会場10の特定の絶叫マシン12、会場施設14、及び/又は会場の他の会場アトラクション16に乗った回数(及び累積時間)、又はその他の方法で訪れた回数、ゲスト20(又はゲスト20のグループ)が現在位置する会場10の特定のテーマセクションのコンテキストでゲスト(又はゲスト20のグループ)が現在行っていること、等を含むことができる。非限定的な一例として、特定のゲスト20(又はゲスト20のグループ)が現在借り物競走中であると決定される場合、そのような情報を、ゲスト20(又はゲスト20のグループ)が借り物競走に関連するヒントから利益を得ることができることを会場従業員18に示すことができる。本明細書でより詳細に説明するように、ゲスト体験情報46は、ゲスト20に関連する特定の装着型装置30、携帯型装置32、及び/又はテーマ装置34とのゲスト20の相互作用を含むこともできる。
特定の実施形態では、ゲスト認識システム22は、プロセッサ56(例えば、汎用プロセッサ、又は他のプロセッサ)及びメモリ58等の処理回路を含むことができ、1以上のゲスト認識センサ52によって収集されたデータを処理して、例えば、会場10内の特定のゲスト20(又は本明細書でより詳細に説明するように、ゲスト20のグループ)の同一性を検出し、特定されたゲスト20の活動を追跡し、ゲスト体験分析システム24による処理に適した形式にデータを変換することができる。さらに、特定の実施形態において、ゲスト認識システム22は、ゲスト20がゲスト認識システム22によってゲスト20のグループとして識別可能であるように、特定のゲスト20が他のゲスト20にある無視できない量の時間(例えば、10分/日以上、20分/日以上、30分/日以上、又はさらに長い)、比較的近接している(例えば、30フィート以内、25フィート以内、20フィート以内、15フィート以内、10フィート以内、5フィート以内、又はさらに近い)ときに、ゲスト体験分析システム24が個々のゲスト20自身の経験とは対照的に、又はそれに加えて、ゲスト20のグループの経験を分析できるように識別できるように構成することができる。ゲスト認識システム22が、単なる個々のゲスト20とは対照的に、ゲスト20のグループを識別する能力は、個々のゲスト20が、実際に、ゲスト認識システム22が信じているゲスト20であるという信頼度を改善し、それによって、ゲスト体験分析システム24によって最終的に分析されるゲスト体験情報46の質を改善する。これらの能力を実行するための命令(例えば、顔認識アルゴリズム、衣服認識アルゴリズム、動作認識アルゴリズム、及び他の種類のアルゴリズム)を、メモリ58及び/又は他のストレージ等の有形非一時的コンピュータ可読媒体に格納されるプログラム又はコードに符号化することができる。特定の実施形態では、プロセッサ56は、汎用プロセッサ、システムオンチップ(SoC)装置、特定用途向け集積回路(ASIC)、又は他の何らかの同様のプロセッサ構成であることができる。特定の実施形態では、プロセッサ56は、1以上のプロセッサを含むことができる。
特定の実施形態では、本明細書でより詳細に説明するように、ゲスト体験分析システム24は、プロセッサ60(例えば、汎用プロセッサ、又は他のプロセッサ)及びメモリ62等の処理回路を含むことができ、ゲスト認識システムによって実行されたゲスト認識に関連するデータを処理することができ、これは、ゲスト体験分析システム24の1以上の通信インターフェース64を介して、ゲスト認識システム22から受信され、個々のゲスト20(又はゲスト20のグループ)のためのゲスト体験情報46を生成することができ、これは、例えば、拡張現実表示エンドポイント26及び/又は装着型拡張現実表示装置28のディスプレイ48、50をそれぞれ介して、拡張情報として表示することができる。さらに、特定の実施形態では、ゲスト体験分析システム24によって生成されたゲスト体験情報46は、個々のゲスト20(又はゲスト20のグループ)のための他のゲスト体験情報46に少なくとも部分的に基づいて、個々のゲスト20(又はゲスト20のグループ)に対する推奨を含むことができる。例えば、特定のゲスト20が会場10内の会場アトラクション16の特定のサブセットを比較的多くの回数訪問した場合、ゲスト体験分析システム24は、会場10内の同様の会場アトラクション16を訪問する推奨を特定のゲスト20に提供すべきと判断することができる。特定の実施形態では、ゲスト体験分析システム24は、生成されたゲスト体験情報をデータベース、例えば、ゲスト体験分析システム24のメモリ62に格納することができる。
さらに、本明細書でより詳細に説明するように、特定の実施形態では、ゲスト体験情報46を、ゲスト20に関連する1以上の装着型装置30、1以上の携帯型装置32、及び/又は1以上のテーマ装置34から収集したゲスト活動データに少なくとも部分的に基づいて生成することができる。例えば、会場10内のゲスト20の特定の活動(例えば、ゲスト20に割り当てられた装着型装置30によって追跡された会場10内の特定の動作、ゲスト20によって携帯型装置32に直接入力された特定の情報、ゲスト20に割り当てられたテーマ装置34との特定の相互作用等)を、ゲスト20に関連付けられた1以上の装着型装置30、1以上の携帯型装置32、及び/又は1以上のテーマ装置34によって直接追跡することができ、ゲスト体験分析システム24がゲスト20のためのゲスト体験情報46を生成するのを支援するために、ゲスト体験分析システム24の1以上の通信インターフェース64に送信することができる。これらの能力を実行するための命令を、メモリ62及び/又は他のストレージ等の有形非一時的コンピュータ可読媒体に格納されたプログラム又はコードに符号化することができる。特定の実施形態では、プロセッサ60は、汎用プロセッサ、システムオンチップ(SoC)装置、特定用途向け集積回路(ASIC)、又は他の類似のプロセッサ構成であることができる。特定の実施形態では、プロセッサ60は、1以上のプロセッサを含むことができる。
特定の実施形態では、ゲスト体験分析システム24がゲスト体験情報46を生成すると、ゲスト体験分析システム24は、拡張現実表示エンドポイント26及び/又は装着型拡張現実表示装置28が、拡張現実表示エンドポイント26及び/又は装着型拡張現実表示装置28の1以上のディスプレイ48、50上に拡張情報としてゲスト体験情報46をそれぞれ表示することができるように、生成したゲスト体験情報を拡張現実表示エンドポイント26及び/又は装着型拡張現実表示装置28に送信することができる。さらに、特定の実施形態では、ゲスト体験分析システム24がゲスト体験情報46を生成すると、ゲスト体験分析システム24は、生成されたゲスト体験情報46を、1以上の装着型装置30、1以上の携帯型装置32、及び/又は1以上のテーマ装置34に送信することができ、そのような装置は1以上の装着型装置30、1以上の携帯型装置32、及び/又は1以上のテーマ装置34は、本明細書に記載される拡張現実表示エンドポイント26及び/又は装着型拡張現実表示装置28の機能と同様に、1以上の装着型装置30、1以上の携帯型装置32、及び/又は1以上のテーマ装置34のディスプレイ108、110、112上に拡張情報としてゲスト体験情報46をそれぞれ表示することができる。例えば、特定の実施形態では、会場10のゲスト20は、1以上の装着型装置30、1以上の携帯型装置32、及び/又は1以上のテーマ装置34を介して、会場10内でのゲスト20の以前の体験及び現在の体験に関連するゲスト体験情報46の拡張現実表示の少なくとも一部分を見ることができ、本明細書でより詳細に説明されるように、1以上の装着型装置30、1以上の携帯型装置32、及び/又は1以上のテーマ装置34を介して、拡張現実表示エンドポイント26及び/又は装着型拡張現実表示装置28を介してユーザ(例えば、会場従業員18)から受信され得るものと同様の入力を提供することができる。
特定の実施形態では、拡張現実表示エンドポイント26は、プロセッサ72及びメモリ74等の処理回路を含むことができる。プロセッサ72は、本明細書でより詳細に説明するように、ユーザ(例えば、会場従業員18)がゲスト20の体験を強化することを可能にするために、拡張現実表示エンドポイント26の1以上のディスプレイ48上に拡張情報としてゲスト体験情報46を表示する現在開示されている技術を少なくとも部分的に実行するための命令を実行するためのメモリ74に動作可能に結合され得る。これらの命令を、メモリ74及び/又は他のストレージ等の有形非一時的コンピュータ可読媒体に格納されたプログラム又はコードに符号化することができる。特定の実施形態では、プロセッサ72は、汎用プロセッサ、システムオンチップ(SoC)装置、特定用途向け集積回路(ASIC)、又は他の何らかの同様のプロセッサを含むことができる。特定の実施形態では、プロセッサ72は、複数のプロセッサを含むことができる。さらに、特定の実施形態では、拡張現実表示エンドポイント26は、拡張現実表示エンドポイント26の1以上の通信インターフェース76を介して、ゲスト体験分析システム24からゲスト体験情報46を受信することもできる。
特定の実施形態では、拡張現実表示エンドポイント26の1以上のディスプレイ48はそれぞれ、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)ディスプレイ、又は拡張情報としてゲスト体験情報46を表示するように構成された他の同様のディスプレイを含むことができる。特定の実施形態では、拡張現実表示エンドポイント26の1以上のディスプレイ48はそれぞれ、例えば、会場従業員18がディスプレイ48上に現れるゲスト体験情報46を見ることを可能にする一方で、それぞれのディスプレイ48を通して会場10の実際の物理的現実世界環境を見る(例えば、ゲスト体験情報が関連するゲスト20の通過画像に)能力を維持するように構成された不透明又はシースルーのLCD、又は不透明又はシースルーのOLEDディスプレイを含むことができる。例えば、本明細書でより詳細に説明するように、対象ゲスト20(又は対象ゲスト20のグループ)のためのゲスト体験情報46を、対象ゲスト20(又は対象ゲスト20のグループ)の通過画像付近(例えば、隣接する又は比較的近接した範囲)の拡張現実表示エンドポイント26のディスプレイ48上に重畳することができる。
さらに、特定の実施形態では、拡張現実表示エンドポイント26を、拡張現実表示エンドポイント26の1以上のディスプレイ48を介して表示されるゲスト20に関連するゲスト体験情報46を示す音声キュー及び/又は触覚フィードバックを提供するように構成することができる。特に、特定の実施形態では、拡張現実表示エンドポイント26は、拡張現実表示エンドポイント26の1以上のディスプレイ48を介して表示されるゲスト20に関連するゲスト体験情報46を示す音声キュー及び/又は触覚フィードバックを生成するように構成された、1以上の出力装置132を含むことができる。例えば、特定の実施形態では、拡張現実表示エンドポイント26の1以上の出力装置132は、音声キューを出力するように構成された音声スピーカー、及び/又は触覚フィードバックを出力するように構成された触覚装置を含むことができる。
本明細書でより詳細に説明するように、特定の実施形態では、拡張現実表示エンドポイント26の1以上のディスプレイ48に表示されるゲスト体験情報46は、対象ゲスト20(又は対象ゲスト20のグループ)のための他のゲスト体験情報46に少なくとも部分的に基づいて、対象ゲスト20のための推奨を含むことができる。実際、特定の実施形態では、ゲスト20(又はゲスト20のグループ)のための特定の推奨を決定すると、ゲスト体験分析システム24は、決定した推奨を拡張現実表示エンドポイント26に送信することができ、拡張現実表示エンドポイント26は、決定した推奨を拡張現実表示エンドポイント26のディスプレイ48上に表示することができ、さらに、例えば、会場従業員18の注意を引くために、ディスプレイ48上に警告(例えば、決定した推奨に近接して光を点滅及び/又は決定した推奨のテキストを点滅)を生成することができる。さらに、特定の実施形態では、ゲスト20(又はゲスト20のグループ)のための特定の推奨を決定すると、ゲスト体験分析システム24は、決定した推奨を拡張現実表示エンドポイント26に送信することができ、拡張現実表示エンドポイント26は、焦点(例えば、強調又は他の表示)を第1の対象ゲスト20(又はゲスト20のグループ)から、決定した推奨が関連する第2の対象ゲスト20(又はゲスト20のグループ)へ切り替えることができる。
さらに、特定の実施形態では、拡張現実表示エンドポイント26は、拡張現実表示エンドポイント26のユーザ(例えば、会場従業員18)から入力を受け取るように構成された1以上の入力装置78を含むことができ、これを、拡張現実表示エンドポイント26の1以上の通信インターフェース76を介してゲスト体験分析システム24に送信し返すことができる。特定の実施形態では、拡張現実表示エンドポイント26の1以上の入力装置78は、音声センサ(例えば、マイクロフォン)、カメラ(例えば、身振りを認識する目的で画像を取り込むため)、タッチスクリーン(例えば、1以上のディスプレイ48に組み込まれている)、ジョイスティック、トラックボール、ボタン、及び/又は拡張現実表示エンドポイント26のユーザ(例えば、会場従業員18)からの入力を受け取るために適した他の入力装置を含むことができる。例えば、特定の実施形態では、拡張現実表示エンドポイント26の1以上の入力装置78は、ユーザ(例えば、会場従業員18)によって生成された音声(例えば、音声命令)を取り込むように構成された1以上の音声センサを含むことができ、これを、拡張現実表示エンドポイント26の処理回路によって処理して、ゲスト体験分析システム24に送信され得る情報を生成することができる。さらに、特定の実施形態では、拡張現実表示エンドポイント26の1以上の入力装置78は、ユーザ(例えば、会場従業員18)の画像及び/又はユーザ(例えば、会場従業員18)の身体特徴を捕捉するための1以上のカメラを含むことができ、これを、拡張現実表示エンドポイント26の処理回路によって処理して、ユーザ(例えば、会場従業員18)の身振りを認識することができ、これを、ゲスト体験分析システム24に送信することができる情報に変換することができる。加えて、特定の実施形態では、拡張現実表示エンドポイント26の1以上の入力装置78は、ユーザ(例えば、会場従業員18)が、例えば、1以上のディスプレイ48を介して表示されるコンテキスト依存型メニューを介して、情報を入力するために相互作用し得る1以上のタッチパネル(例えば、拡張現実表示エンドポイント26の1以上のディスプレイ48に組み込まれる)を含むことができ、これを、ゲスト体験分析システム24に送信することができる。
特定の実施形態では、本明細書でより詳細に説明するように、拡張現実表示エンドポイント26の1以上の入力装置78は、対象ゲスト20(又はゲスト20のグループ)に関連する修正及び/又は追加のゲスト体験情報46を受信することができ、修正及び/又は追加のゲスト体験情報46を、ゲスト体験分析システム24による分析のためにゲスト体験分析システム24に送信し返すことができる。さらに、本明細書でより詳細に説明するように、特定の実施形態では、拡張現実表示エンドポイント26の1以上の入力装置78は、焦点(例えば、強調又は他の表示)を第1の対象ゲスト20(又はゲスト20のグループ)から第2の対象ゲスト20(又はゲスト20のグループ)に切り替える命令を受け取り、それぞれの拡張現実表示エンドポイント26の処理回路が命令に従って、それぞれの拡張現実表示エンドポイント26のディスプレイ48上に焦点を切り替えさせることができる。さらに、本明細書でより詳細に説明するように、特定の実施形態では、拡張現実表示エンドポイント26の1以上の入力装置78は、会場10内に配置された1以上の物理オブジェクト36を介して1以上の物理的効果38を実行する命令に関連する情報を受信することができ、命令をゲスト体験分析システム24に送信することができ、このシステムは続いて、1以上の物理的効果38を実行するために、1以上の物理オブジェクト36に送信する命令信号を生成することができる。さらに、本明細書でより詳細に説明するように、特定の実施形態では、拡張現実表示エンドポイント26の1以上の入力装置78は、1以上の動作を実行するための命令に関連する情報(例えば、物理的効果38、情報警告等)を、1人以上のゲスト20に関連する1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34のために生成することができ、命令をゲスト体験分析システム24に送信することができ、このシステムは続いて、1以上の動作を実行するために、1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34に送信される命令信号を生成することができる。
一般に、本明細書で説明する装着型拡張現実表示装置28の機能性は、本明細書で説明する拡張現実表示エンドポイント26の機能性と実質的に同様であり得る。例えば、特定の実施形態では、装着型拡張現実表示装置28は、プロセッサ80及びメモリ等の処理回路を含むことができる。プロセッサ80を、本明細書でより詳細に説明するように、ユーザ(例えば、会場従業員18)がゲスト20の体験を強化できるように、装着型拡張現実表示装置28の1以上のディスプレイ50上に拡張情報としてゲスト体験情報46を表示する本開示の技術を少なくとも部分的に実行するための命令を実行するために、メモリ82に動作可能に結合することができる。これらの命令を、メモリ82及び/又は他のストレージ等の有形非一時的コンピュータ可読媒体に格納されたプログラム又はコードに符号化することができる。特定の実施形態では、プロセッサ80は、汎用プロセッサ、システムオンチップ(SoC)装置、特定用途向け集積回路(ASIC)、又は他の何らかの同様のプロセッサ構成であることができる。特定の実施形態では、プロセッサ80は、複数のプロセッサを含むことができる。さらに、特定の実施形態では、装着型拡張現実表示装置28は、装着型拡張現実表示装置28の1以上の通信インターフェース84を介してゲスト体験分析システム24からゲスト体験情報46を受信することもできる。
特定の実施形態では、装着型拡張現実表示装置28の1以上のディスプレイ50はそれぞれ、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)ディスプレイ、又は拡張情報としてゲスト体験情報46を表示するように構成された他の同様のディスプレイを含むことができる。特定の実施形態では、装着型拡張現実表示装置28の1以上のディスプレイ50はそれぞれ、例えば、会場従業員18がディスプレイ50上に現れるゲスト体験情報46を見得るようにしながら、一方で、それぞれのディスプレイ50を通して会場10の実際の物理的な現実世界環境を見る能力(例えば、ゲスト体験情報が関連するゲスト20の通過画像への)を維持するように構成された不透明又はシースルーLCD、又は不透明又はシースルーOLEDディスプレイを含むことができる。例えば、本明細書でより詳細に説明するように、対象ゲスト20(又は対象ゲスト20のグループ)のためのゲスト体験情報46を、対象ゲスト20(又は対象ゲスト20のグループ)の通過画像付近(例えば、隣接又は比較的近い距離)の装着型拡張現実表示装置28のディスプレイ50上に重畳することができる。
さらに、特定の実施形態では、装着型拡張現実表示装置28を、装着型拡張現実表示装置28の1以上のディスプレイ50を介して表示されるゲスト20に関連するゲスト体験情報46を示す音声キュー及び/又は触覚フィードバックを提供するように構成することができる。特に、特定の実施形態では、装着型拡張現実表示装置28は、装着型拡張現実表示装置28の1以上のディスプレイ50を介して表示されるゲスト20に関連するゲスト体験情報46を示す音声キュー及び/又は触覚フィードバックを生成するように構成された、1以上の出力装置134を含むことができる。例えば、特定の実施形態では、装着型拡張現実表示装置28の1以上の出力装置134は、音声キューを出力するように構成された音声スピーカー、及び/又は触覚フィードバックを出力するように構成された触覚装置を含むことができる。
本明細書でより詳細に説明するように、特定の実施形態では、装着型拡張現実表示装置28の1以上のディスプレイ50に表示されるゲスト体験情報46は、対象ゲスト20(又は対象ゲスト20のグループ)のための他のゲスト体験情報46に少なくとも部分的に基づいて、対象ゲスト20(又はゲスト20のグループ)のための推奨を含むことができる。実際、特定の実施形態では、ゲスト20(又はゲスト20のグループ)のための特定の推奨を決定すると、ゲスト体験分析システム24は、決定した推奨を装着型拡張現実表示装置28に送信することができ、装着型拡張現実表示装置28は、決定した推奨を装着型拡張現実表示装置28のディスプレイ50上に表示することができ、さらに、例えば、会場従業員18の注意を引くためにディスプレイ50上で警告(例えば、決定した推奨に近接して点滅光及び/又は決定した推奨の点滅テキスト)を生成することができる。さらに、特定の実施形態では、ゲスト20(又はゲスト20のグループ)のための特定の推奨を決定すると、ゲスト体験分析システム24は、決定した推奨を装着型拡張現実表示装置28に送信することができ、装着型拡張現実表示装置28は、焦点(例えば、強調又は他の表示)を第1の対象ゲスト20(又はゲスト20のグループ)から、決定した推奨が関連する第2の対象ゲスト20(又はゲスト20のグループ)に対し切り替えることができる。
さらに、特定の実施形態では、装着型拡張現実表示装置28は、装着型拡張現実表示装置28のユーザ(例えば、会場従業員18)からの入力を受け取るように構成された1以上の入力装置86を含むことができ、これを、装着型拡張現実表示装置28の1以上の通信インターフェース84を介してゲスト体験分析システム24に送信し返すことができる。特定の実施形態では、装着型拡張現実表示装置28の1以上の入力装置86は、音声センサ(例えば、マイクロフォン)、カメラ(例えば、身振りを認識する目的で画像を捕捉する)、トラックボール、ボタン、及び/又は装着型拡張現実表示装置28のユーザ(例えば、会場従業員18)から入力を受け取るのに適した他の入力装置を含むことができる。例えば、特定の実施形態では、装着型拡張現実表示装置28の1以上の入力装置86は、ユーザ(例えば、会場従業員18)によって生成された音声(例えば、音声命令)を取り込むように構成された1以上の音声センサを含むことができ、これは、装着型拡張現実表示装置28の処理回路によって処理されて、ゲスト体験分析システム24に送信され得る情報を生成することができる。加えて、特定の実施形態では、装着型拡張現実表示装置28の1以上の入力装置86は、ユーザ(例えば、会場従業員18)の画像及び/又はユーザ(例えば、会場従業員18)の身体特徴を捕捉するための1以上のカメラを含むことができ、これは、装着型拡張現実表示装置28の処理回路によって処理されて、ユーザ(例えば、会場従業員18)の身振りを認識し、これを、ゲスト体験分析システム24に送信され得る情報に変換することができる。
特定の実施形態では、本明細書でより詳細に説明するように、装着型拡張現実表示装置28の1以上の入力装置86は、対象ゲスト20(又はゲスト20のグループ)に関連する修正及び/又は追加のゲスト体験情報46を受信することができ、修正及び/又は追加のゲスト体験情報46を、ゲスト体験分析システム24による分析のためにゲスト体験分析システム24に送信し返すことができる。さらに、本明細書でより詳細に説明するように、特定の実施形態では、装着型拡張現実表示装置28の1以上の入力装置86は、焦点(例えば、強調又は他の表示)を第1の対象ゲスト20(又はゲスト20のグループ)から第2の対象ゲスト20(又はゲスト20のグループ)に切り替える命令を受信し、それぞれの装着型拡張現実表示装置28の処理回路が命令に従って、それぞれの装着型拡張現実表示装置28のディスプレイ50上に焦点を切り替えさせることができる。加えて、本明細書でより詳細に説明するように、特定の実施形態では、装着型拡張現実表示装置28の1以上の入力装置86は、会場10内に配置された1以上の物理オブジェクト36を介して1以上の物理的効果38を実行する命令に関連する情報を受信することができ、命令をゲスト体験分析システム24に送信し、そのシステムは、1以上の物理的効果38を実行するために1以上の物理オブジェクト36に送信される命令信号を生成することができる。さらに、本明細書でより詳細に説明するように、特定の実施形態では、装着型拡張現実表示装置28の1以上の入力装置86は、1以上の動作を実行する命令に関連する情報(例えば、物理的効果38、情報警告等)を、1人以上のゲスト20に関連する1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34のために生成するための命令を受信することができ、命令をゲスト体験分析システム24に送信することができ、このシステムは続いて、1以上の動作を実行するために、1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34に送信される命令信号を生成することができる。
本明細書でより詳細に説明するように、特定の実施形態では、ゲスト体験分析システム24は、例えば、ゲスト20の体験をさらに強化するために、会場10の現実世界環境内に配置された物理オブジェクト36を介して物理的効果38を実行するために、拡張現実表示エンドポイント26及び/又は装着型拡張現実表示装置28から命令を受信することができる。特定の実施形態では、物理オブジェクト36は、プロセッサ88及びメモリ90等の処理回路を含むことができる。プロセッサ88は、物理オブジェクト36の1以上の通信インターフェース92を介してゲスト体験分析システム24から受信した命令に基づいて物理的効果38を実行するための命令を実行するために、メモリ90に動作可能に結合させることができる。これらの命令を、メモリ90及び/又は他のストレージ等の有形非一時的コンピュータ可読媒体に格納されたプログラム又はコードに符号化することができる。特定の実施形態では、プロセッサ88は、汎用プロセッサ、システムオンチップ(SoC)装置、特定用途向け集積回路(ASIC)、又は他の類似のプロセッサ構成であることができる。特定の実施形態では、プロセッサ88は、1以上のプロセッサを含むことができる。
特定の実施形態では、物理的効果38は、例えば、物理オブジェクト36に関連付けられる物理的作動機構94を介して実行することができる。例えば、特定の実施形態では、物理的効果38は、電力源によって生成された物理オブジェクト36から発せられる電気火花、点火システムによって生成された物理オブジェクト36から発せられる炎、風システムによって生成された物理オブジェクト36から発せられる風、物理オブジェクト36の一部分の動作等であることができる。さらに、本明細書でより詳細に説明するように、特定の実施形態では、同様の作用(例えば、物理的効果38、情報警告等)を、拡張現実表示エンドポイント26及び/又は装着型拡張現実表示装置28によってゲスト体験分析システム24に送信される命令に少なくとも部分的に基づいて、1以上のゲスト20に関連する1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34を介して実行することができ、それによって、1以上の動作を実行するために1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34に送信される命令信号を生成することができる。
特定の実施形態では、拡張現実表示エンドポイント26及び/又は装着型拡張現実表示装置28の特定の機能性を、本明細書に記載される1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34によって再現することができる。実際、特定の実施形態では、会場従業員18及び/又はゲスト20の両方が、本明細書に記載される1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34を介して、拡張現実表示エンドポイント26及び/又は装着型拡張現実表示装置28の機能の少なくとも一部分を体験することができる場合がある。例えば、特定の実施形態では、1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34は、プロセッサ96、98、100及びメモリ102、104、106等のそれぞれの処理回路を含むことができる。それぞれのプロセッサ96、98、100は、それぞれのメモリ102、104、106に動作可能に結合され、本明細書でより詳細に説明するように、ユーザ(例えば、会場従業員18)がゲスト20の体験を強化することを可能にするために、1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34の1以上のそれぞれのディスプレイ108、110、112上に、拡張情報としてゲスト体験情報46を表示する本開示の技術を少なくとも部分的に実行する命令を実行することができる。これらの命令を、メモリ102、104、106及び/又は他のストレージ等の有形非一時的コンピュータ可読媒体に格納されたプログラム又はコードに符号化することができる。特定の実施形態では、プロセッサ96、98、100は、汎用プロセッサ、システムオンチップ(SoC)装置、特定用途向け集積回路(ASIC)、又は他のいくつかの同様のプロセッサ構成であることができる。特定の実施形態では、プロセッサ96、98、100は、1以上のプロセッサを含むことができる。さらに、特定の実施形態では、1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34は、1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34の1以上のそれぞれの通信インターフェース114、116、118を介して、ゲスト体験分析システム24からゲスト体験情報46を受信することができる。
さらに、特定の実施形態では、1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34を、ゲスト認識システム22によって実行されるゲスト認識を支援するために使用することができる。例えば、上記のゲスト認識システム22によって実行されるゲスト20(又はゲスト20のグループ)の認識に加えて(又はその代替として)、ゲスト認識センサ52は、特定のゲスト20に関連する1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34の活動を追跡するように構成されたセンサを含むことができ、これを、ゲスト認識システム22によって会場10内のゲスト20の以前及び現在の体験を決定するために使用することができる。例えば、特定の実施形態では、1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34は、特定の装置30、32、34が関連付けられたゲスト20の活動を追跡するためにゲスト認識システム22(例えば、光検出及び測距(LiDAR)システム等のカメラシステム)によって受動的に監視され得る特徴120、122、124(例えば、幾何学的側面又はマーキング)のそれぞれの集合を含むことができる。加えて、特定の実施形態では、1以上の装着型装置30、携帯型装置32、及び/又はテーマ装置34は、特定の装置30、32、34に関連付けられたゲスト20が、ゲスト認識システム22及び/又はゲスト体験分析システム24に送信され得る情報を入力するために相互作用し得る入力デバイス126、128、130のそれぞれの組を含むことができる。
本明細書でより詳細に説明するように、特定の実施形態では、拡張現実ゲスト認識システム40のゲスト認識システム22は、会場10内のゲスト20(又はゲスト20のグループ)を認識するためにゲスト認識システム22によって使用され得るデータを収集するように構成された1以上のゲスト認識センサ52を含み、拡張現実ゲスト認識システム40のゲスト体験分析システム24は、ゲスト認識システム22によって実行されたゲスト認識に関連する情報を分析し、会場10内のゲスト20(又はゲスト20のグループ)の以前及び現在の体験に関連するゲスト体験情報46を決定するように構成され、このゲスト体験情報46を、ユーザ(例えば、会場従業員18)が、会場10内のゲスト20(又はゲスト20のグループ)の将来の体験を強化することができるように、1以上の拡張現実表示エンドポイント26及び/又は1以上の装着型拡張現実表示装置28に提供することができる。図3は、図2の拡張現実ゲスト認識システム40の例示的な部分を示している。具体的には、図3は、ゲスト認識センサ52及び拡張現実表示エンドポイント26に比較的近接している第1のゲスト20A、第2のゲスト20B、及び会場従業員18を図示している。図示された実施形態では、ゲスト認識センサ52及び拡張現実表示エンドポイント26は、単一の比較的静止した構造体に組み込まれている。しかし、他の実施形態では、ゲスト認識センサ52は、拡張現実表示エンドポイント26と一体化されない場合がある。
図4は、会場従業員18の視点からの、図3のゲスト認識センサ52及び拡張現実表示エンドポイント26を示し、第1のゲスト20A及び第2のゲスト20Bに関連する例示的なゲスト体験情報46を示している。図4に示されるように、第1のゲスト20Aは、例えば、拡張現実表示エンドポイント26のディスプレイ48によって焦点が当てられているとして、第1のゲスト20Aの通過画像の周りの発光136によって強調(又は、他の実施形態では、他の視覚的表示)されている現在の対象ゲストであり、第2のゲスト20Bの通過画像は、そのような視覚的表示を有さない。本明細書でより詳細に説明するように、特定の実施形態では、第1のゲスト20Aへの焦点を、会場従業員18から拡張現実表示エンドポイント26によって受信された命令に基づいて、第2のゲスト20Bに切り替えることができる。
本明細書で説明される装着型拡張現実表示装置28の機能性は、本明細書で説明される拡張現実表示エンドポイント26の機能性と実質的に同様であることができ、主な違いは、会場10のゲスト20に関連するゲスト体験情報46表示をゲスト20の視界から隠すことができ、それによってユーザ(たとえば、会場従業員18)へのゲスト体験情報46の配信の没入感が強化されることであることが理解されよう。例えば、図5は、装着型拡張現実表示装置28(例えば、拡張現実眼鏡、拡張現実ゴーグル、他の拡張現実ヘッドギア等)を示しており、これらは、本明細書で説明される拡張現実表示エンドポイント26の機能性と実質的に同様の機能性を含むことができる。
図6は、本明細書で説明する拡張現実ゲスト認識システム40の使用方法138の流れ図である。例えば、特定の実施形態では、方法138は、ゲスト認識システム22を介して、会場内の1以上のゲスト20を認識するステップを含むことができる(ブロック140)。特定の実施形態では、1以上のゲスト20を認識するステップは、ゲスト認識システム22を介して、顔認識アルゴリズム、衣服認識アルゴリズム、又は動作認識アルゴリズムを利用して、1以上のゲスト20の同一性を検出するステップ、会場10内の1以上のゲスト20の活動を検出するステップ、又はそれらのいくつかの組み合わせを含むことができる。さらに、特定の実施形態では、方法138は、ゲスト体験分析システム24を介して、認識された1以上のゲスト20に関連するゲスト体験情報46(例えば、推奨を含む)を生成するステップを含むことができる(ブロック142)。加えて、特定の実施形態では、方法138は、ゲスト体験分析システム24を介して、1以上の拡張現実表示エンドポイント26及び/又は1以上の装着型拡張現実表示装置28の拡張現実ディスプレイ上に表示するために、認識された1以上のゲスト20に関連するゲスト体験情報46(例えば、推奨を含む)を、拡張現実表示装置(1以上の拡張現実表示エンドポイント26及び/又は1以上の装着型拡張現実表示装置28)に送信するステップを含むことができる(ブロック144)。
特定の実施形態では、方法138はまた、ゲスト認識システム22を介して、1以上のゲスト20の個々のゲスト20が互いに近接したままである時間量に少なくとも部分的に基づいて、1以上のゲスト20のグループを識別するステップを含むことができる。このような実施形態では、方法138は、ゲスト体験分析システム24を介して、識別された1以上のゲスト20のグループに関連するゲストグループ体験情報46(例えば、推奨を含む)を生成するステップと、識別された1以上のゲスト20のグループに関連するゲストグループ体験情報46(例えば、推奨を含む)を、1以上の拡張現実表示エンドポイント26及び/又は1以上の装着型拡張現実表示装置28の拡張現実ディスプレイ(ディスプレイ48、50)上に表示するために、ゲスト体験分析システム24を介して、拡張現実表示装置(例えば、1以上の拡張現実表示エンドポイント26及び/又は1以上の装着型拡張現実表示装置28)に送信するステップと、を含むことができる。さらに、特定の実施形態では、方法138はまた、ゲスト体験分析システム24を介して、認識された1以上のゲスト20に関連する修正及び/又は追加のゲスト体験情報46(例えば、推奨を含む)を、1以上の拡張現実表示エンドポイント26及び/又は1以上の装着型拡張現実表示装置28から受信するステップを含むことができる。加えて、特定の実施形態では、方法138はまた、ゲスト体験分析システム24を介して、会場10内に配置された1以上の物理オブジェクト36を介して1以上の物理的効果38を実行するための命令を、拡張現実表示エンドポイント26又は装着型拡張現実表示装置28から受信ステップと、ゲスト体験分析システム24を介して、1以上の物理的効果38を実行するための制御信号を、1以上の物理オブジェクト36に送信するステップと、を含むことができる。
本明細書では、本開示のいくつかの特徴のみを図示して説明したが、当業者には多くの修正及び変更が思い浮かぶであろう。したがって、添付の特許請求の範囲は、本開示の真の精神の範囲内に入るような、すべてのそのような修正及び変更を含むように意図されている。
本明細書に示して特許請求する技術は、本技術分野を確実に改善する物質的な対象及び実用的な性質の具体例に参照及び適用され、したがって、抽象的、無形、又は純粋に理論的なものではない。さらに、本明細書の最後に添付するいずれかの請求項が、「...[機能]を[実行]する手段」又は「...[機能]を[実行]するステップ」として指定されている1又は2以上の要素を含む場合、このような要素は、米国特許法112条(f)に従って解釈すべきである。一方で、他のいずれかの形で指定された要素を含むいずれかの請求項については、このような要素は、米国特許法112条(f)に従って解釈すべきではない。
18 会場従業員
20A 第1のゲスト
20B 第2のゲスト
26 拡張現実表示エンドポイント
52 ゲスト認識センサ

Claims (22)

  1. システムであって、
    会場内の1以上のゲストを認識するように構成された、ゲスト認識システムと、
    前記ゲスト認識システムから前記認識された1以上のゲストに関連するデータを受信し、前記認識された1以上のゲストに関連する前記受信されたデータに少なくとも部分的に基づいて、前記認識された1以上のゲストに関連するゲスト体験情報を生成し、拡張現実表示装置の拡張現実ディスプレイ上に表示するために、前記認識された1以上のゲストに関連する前記ゲスト体験情報を前記拡張現実表示装置に送信するように構成された、ゲスト体験分析システムと、
    を備える、システム。
  2. 前記ゲスト認識システムは、前記1以上のゲストの同一性を検出するため、前記会場内の前記1以上のゲストの活動を検出するため、又はそれらの組み合わせを検出するため、顔認識アルゴリズム、衣服認識アルゴリズム、又は動作認識アルゴリズムを利用するように構成される、請求項1に記載のシステム。
  3. 前記ゲスト認識システムは、前記1以上のゲストの個々のゲストが互いに近接している時間量に少なくとも部分的に基づいて、前記1以上のゲストの1以上のグループを識別するように構成される、請求項1に記載のシステム。
  4. 前記ゲスト体験分析システムは、前記ゲスト認識システムから前記識別された1以上のグループに関連するデータを受信し、前記識別された1以上のグループに関連する前記データに少なくとも部分的に基づいて、前記識別された1以上のグループに関連するゲストグループ体験情報を生成し、前記拡張現実表示装置の前記拡張現実ディスプレイ上に表示するために、前記ゲストグループ体験情報を前記拡張現実表示装置に送信する、ように構成される、請求項3に記載のシステム。
  5. 前記ゲスト体験分析システムは、前記認識された1以上のゲストに関連する前記ゲスト体験情報に少なくとも部分的に基づいて、前記認識された1以上のゲストのための1以上の推奨を生成し、前記拡張現実表示装置の前記拡張現実ディスプレイ上に表示するために、前記認識された1以上のゲストのための前記1以上の推奨を前記拡張現実表示装置に送信する、よう構成される、請求項1に記載のシステム。
  6. 前記ゲスト体験分析システムは、前記拡張現実表示装置から、前記認識された1以上のゲストに関連する修正又は追加のゲスト体験情報を受信するように構成される、請求項1に記載のシステム。
  7. 前記ゲスト体験分析システムは、前記会場内に配置された1以上の物理オブジェクトを介して1以上の物理的効果を実行するために、前記拡張現実表示装置から命令を受信し、前記1以上の物理的効果を実行するために、前記1以上の物理オブジェクトに制御信号を送信する、ように構成される、請求項1に記載のシステム。
  8. 方法であって、
    ゲスト認識システムを介して、会場内の1以上のゲストを認識するステップと、
    ゲスト体験分析システムを介して、前記認識された1以上のゲストに関連するゲスト体験情報を生成するステップと、
    拡張現実表示装置の拡張現実ディスプレイ上に表示するために、前記ゲスト体験分析システムを介して、前記認識された1以上のゲストに関連する前記ゲスト体験情報を前記拡張現実表示装置に送信するステップと、
    を含む、方法。
  9. 前記1以上のゲストの同一性を検出するため、前記会場内の前記1以上のゲストの活動を検出するため、又はそれらの組み合わせを検出するため、前記ゲスト認識システムを介して、顔認識アルゴリズム、衣服認識アルゴリズム、又は動作認識アルゴリズムを利用するステップを含む、請求項8に記載の方法。
  10. 前記1以上のゲストの個々のゲストが互いに近接している時間量に少なくとも部分的に基づいて、前記ゲスト認識システムを介して、前記1以上のゲストの1以上のグループを識別するステップを含む、請求項8に記載の方法。
  11. 前記ゲスト体験分析システムを介して、前記識別された1以上のグループに関連するゲストグループ体験情報を生成するステップと、
    前記拡張現実表示装置の前記拡張現実ディスプレイ上に表示するために、前記ゲスト体験分析システムを介して、前記識別された1以上のグループに関連する前記ゲストグループ体験情報を前記拡張現実表示装置に送信するステップと、
    を含む、請求項10に記載の方法。
  12. 前記認識された1以上のゲストに関連する前記ゲスト体験情報に少なくとも部分的に基づいて、前記ゲスト体験分析システムを介して、前記認識された1以上のゲストのための1以上の推奨を生成するステップと、
    前記拡張現実表示装置の前記拡張現実ディスプレイ上に表示するために、前記ゲスト体験分析システムを介して、前記認識された1以上のゲストのための前記1以上の推奨を前記拡張現実表示装置に送信するステップと、
    を含む、請求項8に記載の方法。
  13. 前記認識された1以上のゲストに関連する修正又は追加のゲスト体験情報を、前記ゲスト体験分析システムを介して、前記拡張現実表示装置から受信するステップを含む、請求項8に記載の方法。
  14. 前記会場内に配置された1以上の物理オブジェクトを介して1以上の物理的効果を実行するために、前記ゲスト体験分析システムを介して、前記拡張現実表示装置から命令を受信するステップと、
    前記1以上の物理的効果を実行するために、前記ゲスト体験分析システムを介して、前記1以上の物理オブジェクトに制御信号を送信するステップと、
    を含む、請求項8に記載の方法。
  15. 拡張現実表示装置であって、
    会場の1以上のゲストの画像を通過させるように構成された拡張現実ディスプレイと、
    少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに動作を実行させる命令を格納する、1以上の非一時的コンピュータ可読媒体と、
    を備え、
    前記命令は、
    ゲスト体験分析システムから、前記1以上のゲストのうちの対象ゲストに関連するゲスト体験情報を受信するステップと、
    前記対象ゲストに関連する前記ゲスト体験情報を、前記対象ゲストの通過画像付近の前記拡張現実ディスプレイ上に重畳するステップと、
    を含む、
    拡張現実表示装置。
  16. 前記動作は、
    前記ゲスト体験分析システムから、前記1以上のゲストのうちの対象グループに関連するゲストグループ体験情報を受信するステップと、
    前記1以上のゲストのうちの前記対象グループに関連する前記ゲストグループ体験情報を、前記1以上のゲストのうちの前記対象グループの通過画像付近の前記拡張現実ディスプレイ上に重畳するステップと、
    を含む、請求項15に記載の拡張現実表示装置。
  17. 前記動作は、前記ゲスト体験分析システムから、前記1以上のゲストのうちの前記対象ゲストのための1以上の推奨を受信するステップと、
    前記1以上のゲストのうちの前記対象ゲストのための前記1以上の推奨のうちの少なくとも1つの推奨を、前記対象ゲストの通過画像付近の前記拡張現実ディスプレイ上に重畳するステップと、
    を含む、請求項15に記載の拡張現実表示装置。
  18. 前記対象ゲストに関連する修正又は追加のゲスト体験情報を受信するように構成された入力装置を備え、前記動作は、前記修正又は追加のゲスト体験情報を前記ゲスト体験分析システムに送信するステップを含む、請求項15に記載の拡張現実表示装置。
  19. 前記会場内に配置された1以上の物理オブジェクトを介して1以上の物理的効果を実行するための命令を受信するように構成された入力装置を備え、前記動作は、前記命令を前記ゲスト体験分析システムに送信するステップを含む、請求項15に記載の拡張現実表示装置。
  20. 前記1以上のゲストのうちの前記対象ゲストから、前記1以上のゲストのうちの別の対象ゲストに焦点を切り替えるための命令を受信するように構成された入力装置を備える、請求項15に記載の拡張現実表示装置。
  21. 前記拡張現実表示装置は、前記会場内に配置された静止した拡張現実表示エンドポイントを備える、請求項15に記載の拡張現実表示装置。
  22. 前記拡張現実表示装置は、拡張現実眼鏡、拡張現実ゴーグル、又は他の拡張現実ヘッドギアを備える、請求項15に記載の拡張現実表示装置。
JP2022551705A 2020-02-27 2021-02-25 拡張現実ゲスト認識システム及び方法 Pending JP2023515988A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202062982528P 2020-02-27 2020-02-27
US62/982,528 2020-02-27
US17/180,551 US20210271881A1 (en) 2020-02-27 2021-02-19 Augmented reality guest recognition systems and methods
US17/180,551 2021-02-19
PCT/US2021/019594 WO2021173789A1 (en) 2020-02-27 2021-02-25 Augmented reality guest recognition systems and methods

Publications (1)

Publication Number Publication Date
JP2023515988A true JP2023515988A (ja) 2023-04-17

Family

ID=77462852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022551705A Pending JP2023515988A (ja) 2020-02-27 2021-02-25 拡張現実ゲスト認識システム及び方法

Country Status (7)

Country Link
US (1) US20210271881A1 (ja)
EP (1) EP4111402A1 (ja)
JP (1) JP2023515988A (ja)
KR (1) KR20220145893A (ja)
CN (1) CN115136174A (ja)
CA (1) CA3166372A1 (ja)
WO (1) WO2021173789A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105988776B (zh) * 2015-01-27 2019-11-26 阿里巴巴集团控股有限公司 信息卡处理方法及装置
US20230364522A1 (en) * 2022-05-11 2023-11-16 Universal City Studios Llc Ride vehicle artificial intelligence entity systems and methods
WO2023220310A1 (en) * 2022-05-11 2023-11-16 Universal City Studios Llc Guest-specific artificial intelligence entity systems and methods

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8303406B2 (en) * 2008-11-24 2012-11-06 Disney Enterprises, Inc. System and method for providing an augmented reality experience
US20130018661A1 (en) * 2011-07-11 2013-01-17 Disney Enterprises, Inc. Guest experience management system and method
US20130083003A1 (en) * 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system
US20130147686A1 (en) * 2011-12-12 2013-06-13 John Clavin Connecting Head Mounted Displays To External Displays And Other Communication Networks
JP5915457B2 (ja) * 2012-08-23 2016-05-11 ソニー株式会社 制御システムおよびプログラム
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
WO2018082692A1 (en) * 2016-11-07 2018-05-11 Changchun Ruixinboguan Technology Development Co., Ltd. Systems and methods for interaction with application
US10943188B2 (en) * 2016-11-09 2021-03-09 Universal City Studios Llc Virtual queuing techniques
US20180255285A1 (en) * 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
US20180284453A1 (en) * 2017-04-03 2018-10-04 Walmart Apollo, Llc Customer interaction system
US10846963B2 (en) * 2017-06-02 2020-11-24 Hospitality Engagement Corporation Method and systems for event entry with facial recognition
US10699485B2 (en) * 2018-01-04 2020-06-30 Universal City Studios Llc Systems and methods for textual overlay in an amusement park environment

Also Published As

Publication number Publication date
WO2021173789A1 (en) 2021-09-02
CA3166372A1 (en) 2021-09-02
US20210271881A1 (en) 2021-09-02
CN115136174A (zh) 2022-09-30
EP4111402A1 (en) 2023-01-04
KR20220145893A (ko) 2022-10-31

Similar Documents

Publication Publication Date Title
JP7109408B2 (ja) 広範囲同時遠隔ディジタル提示世界
US10269180B2 (en) Information processing apparatus and information processing method, display apparatus and display method, and information processing system
JP6574937B2 (ja) 通信システム、制御方法、および記憶媒体
JP2023515988A (ja) 拡張現実ゲスト認識システム及び方法
CN110506249B (zh) 信息处理设备、信息处理方法和记录介质
CN111726536A (zh) 视频生成方法、装置、存储介质及计算机设备
CN109844854A (zh) 单词流注释
CN109923462A (zh) 感测眼镜
WO2018142756A1 (ja) 情報処理装置及び情報処理方法
US20120229509A1 (en) System and method for user interaction
KR20160000741A (ko) 글래스 타입 단말기 및 이의 제어방법
US10409324B2 (en) Glass-type terminal and method of controlling the same
JP2022516930A (ja) 結合された拡張環境のためのシステム及び方法
WO2012119371A1 (zh) 一种用户交互系统和方法
US11402964B1 (en) Integrating artificial reality and other computing devices
CN107437063A (zh) 用于感测环境的装置和方法、非暂态计算机可读介质
JP2018163461A (ja) 情報処理装置、および情報処理方法、並びにプログラム
KR20240072170A (ko) 원격 디바이스들과의 사용자 상호작용들
CN109074679A (zh) 具有增强现实强化的基于场景的实时广告
Lo et al. Augmediated reality system based on 3D camera selfgesture sensing
JP2023531849A (ja) オーディオ認識を行う拡張現実デバイスおよびその制御方法
JP2019046250A (ja) 仮想空間を提供するためにコンピュータで実行されるプログラム、方法、および当該プログラムを実行するための情報処理装置
CN114296627A (zh) 内容显示方法、装置、设备及存储介质
AlKassim et al. Sixth sense technology: Comparisons and future predictions
KR20210116838A (ko) 제스처에 기초하여, 음성 입력을 처리하는 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240902