JP2021182745A - 複合現実システムのための位置特定の決定 - Google Patents

複合現実システムのための位置特定の決定 Download PDF

Info

Publication number
JP2021182745A
JP2021182745A JP2021116964A JP2021116964A JP2021182745A JP 2021182745 A JP2021182745 A JP 2021182745A JP 2021116964 A JP2021116964 A JP 2021116964A JP 2021116964 A JP2021116964 A JP 2021116964A JP 2021182745 A JP2021182745 A JP 2021182745A
Authority
JP
Japan
Prior art keywords
augmented reality
display device
keyframe
reality display
map area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021116964A
Other languages
English (en)
Other versions
JP7169405B2 (ja
Inventor
ザーロン ラインハート ベンジャミン
Zaaron Reinhardt Benjamin
フォア コー サミュエル
Phoa Kho Samuel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2021182745A publication Critical patent/JP2021182745A/ja
Priority to JP2022172932A priority Critical patent/JP7425848B2/ja
Application granted granted Critical
Publication of JP7169405B2 publication Critical patent/JP7169405B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/026Services making use of location information using location based information parameters using orientation information, e.g. compass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Library & Information Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Image Analysis (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Navigation (AREA)

Abstract

【課題】好適な複合現実システムのための位置特定の決定を提供すること。【解決手段】拡張現実システムを使用して、共有ユーザ体験を有効にするために、共有参照点が、仮想オブジェクトの一貫した設置(位置および配向)を有するように提供されなければならない。さらに、ユーザの位置および配向(姿勢)も、同一共有参照点に対して決定可能ではなければならない。しかしながら、高度に敏感かつ高価な全地球測位システム(GPS)デバイスがなければ、姿勢情報は、合理的レベルの正確度まで決定することが困難であり得る。したがって、提供されるものは、場所ベースコンテンツ入手および共有を実施するために使用され得る、拡張現実システムのための姿勢情報を決定する代替アプローチである。さらに、提供されるものは、既存のGPSデバイスからの情報を使用する、拡張現実システムのための姿勢情報を決定する代替アプローチである。【選択図】図6

Description

(関連出願の相互参照)
本願は、米国仮特許出願第62/449,512号、出願日2017年1月23日、発明の名称 “LOCALIZATION DETERMINATION FOR MIXED REALITY SYSTEMS”に対して優先権を主張するものであり、その開示は、全体的に本願に参照により明示的に援用される。本願は、米国特許出願第14/690,401号,出願日2015年4月18日に関連しており、これは、米国仮特許出願第61/981,701号、発明の名称 “SYSTEMS AND METHOD FOR AUGMENTED AND VIRTUAL REALITY”、出願日2014年4月18日、米国仮特許出願第62/012,273号、発明の名称 “METHODS AND SYSTEMS FOR CREATING VIRTUAL AND AUGMENTED REALITY”、出願日2014年6月14日からの優先権を主張するものである。14/690,401出願はまた、米国特許出願第14/331,218号、発明の名称 “PLANAR WAVEGUIDE APPARATUS WITH DIFFRACTION ELEMENT(S) AND SYSTEM EMPLOYING SAME”、出願日2014年7月14日に関連している。上記特許出願の内容は、全体的に参照により本願に明示的に援用される。
本開示は、概して、1人以上のユーザのための双方向仮想または拡張現実環境の情報持続性かつ場所ベースコンテンツ共有のための位置特定の決定のためのシステムおよび方法に関する。
拡張現実(AR)環境は、部分的に、環境を記述するデータを使用して、コンピュータによって生成される。本データは、ユーザが感知および相互作用し得る、種々のオブジェクト(仮想および物理的の両方)を記述し得る。これらのオブジェクトの実施例は、ユーザが見るためにレンダリングおよび表示される、オブジェクトと、ユーザが聞くために再生される、オーディオと、ユーザが感じるための触覚的(または触知)フィードバックとを含む。ユーザは、種々の視覚的、聴覚的、および触覚的方法を通して、これらのAR環境を感知し、それと相互作用し得る。
仮想現実(VR)またはARシステムは、多くの用途に有用であり得、いくつか挙げると、科学的可視化、医療訓練、軍事訓練、工学設計およびプロトタイピング、遠隔操作およびテレプレゼンス、およびパーソナルエンターテインメントの分野に及ぶ。ARは、VRと対照的に、物理的世界の実オブジェクトに関連して1つ以上の仮想オブジェクトを備え、例えば、仮想オブジェクトは、物理的世界の実オブジェクトに関連して位置付けられる。これは、ARデバイスを用いたユーザの体験および享受を向上させ、ユーザが実オブジェクトおよび仮想オブジェクトを同時に体験することを可能にする、種々の用途に関する門戸を開放する。
しかしながら、ARシステムを提供する際、有意な課題が存在する。1つの予備的課題は、コストをデバイスに追加し、全体的サイズおよび電力要件を増加させる、場所ビーコンおよび/またはGPSデバイス等のその問題に対処することを具体的に対象とする、付加的デバイスまたはハードウェアを要求せずに、十分な正確度のレベルまでユーザおよびデバイスの場所を決定する方法である。
したがって、1人以上のユーザのための双方向AR環境の場所ベースコンテンツ共有を提供するための位置特定の決定のための改良されたシステムおよび方法の必要がある。
本開示の実施形態は、1人以上のユーザのための双方向仮想または拡張現実環境の場所ベースコンテンツ共有のための位置特定の決定のための改良されたデバイス、システム、および方法を対象とする。
本明細書に説明される実施形態は、典型的には、頭部装着型ディスプレイ等のユーザ装着型コンポーネントを伴う、拡張現実システムを提供する。実施形態は、同一エリア内の他のユーザもまた相互作用可能である、1つ以上の仮想オブジェクトと相互作用する等の場所ベースコンテンツ共有を有効にするために、ユーザの場所を決定するためのプロセスおよびシステムを提供する。
いくつかの実施形態では、場所決定シーケンスが、1つ以上の条件に基づいて開始される。例えば、場所決定シーケンスは、ブートアップに応じて、デバイスがそれが位置するエリアを把握していないことの決定に応じて、デバイスがその位置および配向を把握していないことの決定に応じて、任意のアプリケーションの開始に応じて、ユーザによる開始に応じて、または任意のそれらの組み合わせに応じて、開始され得る。
いくつかの実施形態では、メタデータをユーザ場所において収集するステップと、その収集されたメタデータと以前に収集されたメタデータを比較するステップとを含む、エリア位置特定プロセスが、実施される。収集されたメタデータは、任意の通信ネットワーク、例えば、WiFi、Bluetooth(登録商標)、ZigBee等に対応してもよい。さらに、収集されたメタデータは、ブロードキャストテレビおよびラジオ等の一方向通信ネットワークに対応してもよい。収集されたメタデータは、ローカルで、遠隔で、またはいくつかのそれらの組み合わせにおいて、以前に収集されたメタデータと比較されてもよい。加えて、収集されたメタデータは、スコア、加重、または信頼度閾値を使用して処理されてもよく、ローカルおよび遠隔決定間の矛盾は、さらに処理/評価され、矛盾結果を解決してもよい。
いくつかの実施形態では、エリア位置特定プロセスは、全地球測位システム(GPS)を含む、デバイスからのメタデータを集めるステップを含む。メタデータは、デバイスに関する情報、メタデータが集められた方法、およびデバイス自体からのGPSデータを含んでもよい。GPSデータは、転送媒体/方法(例えば、WiFiネットワークの信号強度)に関するGPSデータおよび信号情報に基づいて、拡張現実ディスプレイデバイスが位置し得る、位置の範囲を決定するために、ヒューリスティックを使用して処理されてもよい。さらに、いくつかの実施形態では、ヒューリスティック処理は、WiFiネットワーク等の他のネットワークに拡張されてもよく、WiFiホットスポットの場所は、所与の範囲内で既知であって、信号強度等の他のデータを使用して、位置情報をヒューリスティックに決定する。しかしながら、いくつかの実施形態では、メタデータは、任意の全地球測位システムからの情報を含まない。
いくつかの実施形態では、粗粒度(coarse)位置特定プロセスが、実施される。粗粒度位置特定プロセスは、キーフレーム分析を介して動作し、ユーザデバイスにおいて捕捉されたキーフレームに最良マッチングする、キーフレームを決定する。例えば、各マップエリアは、既知の位置および配向(姿勢)において得られたある数の以前に捕捉されたキーフレームと関連付けられてもよい。したがって、ユーザデバイスにおいて得られたキーフレームは、以前に捕捉されたキーフレームと比較され、以前に捕捉されたキーフレームのそれぞれとユーザデバイスにおいて得られたキーフレームの類似性を決定することができる。最後に、最も類似するキーフレーム(例えば、最良類似性スコアを伴うキーフレーム)が、微粒度(fine)位置特定プロセスの間、さらなる処理のために選択されることができる。いくつかの実施形態では、最も類似するキーフレームはまた、最近傍キーフレームである。しかしながら、いくつかの実施形態では、最近傍キーフレームは、最近傍キーフレームがユーザデバイスにおいて捕捉されたキーフレームの視野と十分に重複しないビューを捕捉するため、最も類似するキーフレームではない場合がある。
いくつかの実施形態では、微粒度位置特定プロセスが、実施される。いくつかの実施形態では、微粒度位置特定プロセスは、前のステップにおいて識別された最も類似するキーフレームを使用して、ユーザデバイスの姿勢を決定する。第1に、ユーザデバイスの相対的姿勢が、任意の既知のコンピュータビジョン技法を通して、最も類似するキーフレームに対して決定された。第2に、エリア原点に対する拡張現実デバイスの位置が、決定される。これは、1つは原点からキーフレームへの変換、1つはキーフレームから拡張現実デバイスへの変換といった2つの変換を連結させることによって遂行されることができる。したがって、拡張現実デバイスの姿勢が、マップエリア原点に対して決定されることができる。さらに、微粒度位置特定プロセスは、2つのステッププロセスとしてここでは議論されるが、いくつかの実施形態では、プロセスは、単一ステップに組み合わせられる、または複数のステップに分離されてもよい。
いくつかの実施形態では、上記に説明されるプロセスの実行は、場所ベースコンテンツアクティビティをトリガするために使用されることができる。例えば、コンテンツ入手が、トリガされることができ、エリア位置特定プロセスでは、例えば、エリア位置特定プロセスが、ユーザがショッピングモールに対応するエリア内に存在することを決定すると、ショッピングモールと関連付けられたアプリケーションの転送がトリガされることができ、粗粒度位置特定プロセスでは、例えば、識別された最良マッチングキーフレームが映画館チケット販売窓口から所定の距離内で捕捉されると、映画館と関連付けられたアプリケーションの転送がトリガされることができ、または微粒度位置特定プロセスでは、例えば、1つ以上の近傍の店舗に関する仮想メニューアプリケーションおよび注文システムの転送がトリガされることができる。さらに、コンテンツ共有が、場所決定シーケンスの間、トリガされることができる。本プロセスは、コンテンツ入手に類似するが、コンテンツは、エリア内のユーザから伝送される。例えば、コンテンツ共有は、識別されたマップエリアのレベルにおいてトリガされてもよく、例えば、大道芸人が、仮想オブジェクトを公共でのパフォーマンスに組み込む場合、コンテンツ共有が、最良マッチングキーフレームに対する近接度に基づいてトリガされてもよく、例えば、映画館は、映画館への入場待ちの顧客に関連映画に関する仮想クイズゲームのための仮想オブジェクトを伝送する、または識別された場所に基づいて、例えば、映画館は、映画館自体内に存在することが識別された顧客には、スペシャルコンテンツをストリーミングし、コンテンツはさらに、保持されている具体的映画チケットに対応してもよい。
いくつかの実施形態では、場所ベースコンテンツアクティビティは、ローカル通信ネットワークを経由したデバイス間のコンテンツの一方向または双方向交換を備える。例えば、コンテンツの一方向交換は、1つのデバイスから1つまたは多くのデバイスに、プレゼン資料等のコンテンツをストリーミングすることを含み得、コンテンツの双方向交換は、2人以上の人々がコンテンツを交換し、プレゼン資料の作成参加を促進することを含み得る。
本開示の付加的および他の目的、特徴、および利点は、詳細な説明、図、および請求項に説明される。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
拡張現実ディスプレイデバイスの位置および配向情報を決定するための方法であって、
前記拡張現実ディスプレイデバイスの現在の場所と関連付けられたマップエリアを識別することと、
前記マップエリアと関連付けられたマッチングキーフレームを識別することと、
共有マップエリア原点に対する前記拡張現実ディスプレイデバイスに関する姿勢を決定することと
を含む、方法。
(項目2)
前記現在の場所と関連付けられたマップエリアを識別することは、
メタデータを受信することであって、前記メタデータは、前記拡張現実ディスプレイデバイスの現在の場所において収集される、ことと、
前記メタデータを分析し、前記マップエリアを決定することであって、前記メタデータは、1つ以上の通信ネットワークに関する情報に対応する、ことと
を含む、項目1に記載の方法。
(項目3)
前記マップエリアと関連付けられたマッチングキーフレームを識別することは、
第1の複数のキーフレームを受信することと、
前記第1の複数のキーフレームのキーフレームを捕捉することと、
前記捕捉されたキーフレームと前記マップエリアと関連付けられた第2の複数のキーフレームを比較することであって、前記第2の複数のキーフレームは、既知の姿勢を有する以前に捕捉されたキーフレームを備え、前記既知の姿勢は、少なくとも、前記個別のキーフレームに関する位置および配向を表す情報を備える、ことと、
前記捕捉されたキーフレームを前記第2の複数のキーフレームに対して分析することによって、前記第2の複数のキーフレームのうちの少なくともいくつかに関する類似性スコアを決定することと、
少なくとも前記類似性スコアに基づいて、前記第2の複数のキーフレームのキーフレームを前記マッチングキーフレームとして選択することと
を含む、項目1に記載の方法。
(項目4)
前記共有マップエリア原点に対する前記拡張現実ディスプレイデバイスに関する姿勢を決定することは、
キーフレーム分析を実施することによって、前記捕捉されたキーフレームおよび前記マッチングキーフレームを使用して、前記マッチングキーフレームに対する姿勢を決定することと、
少なくとも前記マッチングキーフレームに対する前記姿勢を使用して、前記マッチングキーフレームに対する姿勢を前記共有マップエリア原点に対する姿勢に変換することと
を含む、項目3に記載の方法。
(項目5)
前記マップエリアと関連付けられたマッチングキーフレームを識別することはさらに、
前記捕捉されたキーフレームの特徴を決定することを含み、
前記捕捉されたキーフレームと前記マップエリアと関連付けられた第2の複数のキーフレームを比較することは、前記捕捉されたキーフレームの特徴と前記第2の複数のキーフレームの特徴を比較することを含み、
前記第2の複数のキーフレームのうちの少なくともいくつかに関する類似性スコアを決定することは、前記第2の複数のキーフレームの特徴に対して前記捕捉されたキーフレームの特徴を分析することを含む、
項目3に記載の方法。
(項目6)
前記マップエリアを識別すること、前記マッチングキーフレームを識別すること、または前記姿勢を決定することのうちの少なくとも1つに応答して、場所ベースコンテンツを伝送することをさらに含み、場所ベースコンテンツは、前記マップエリア、前記マッチングキーフレーム、または前記姿勢のうちの少なくとも1つと関連付けられた1つ以上のオブジェクトまたは1つ以上のアプリケーションに関するデータに対応する、項目1に記載の方法。
(項目7)
前記マップエリアを識別すること、前記マッチングキーフレームを識別すること、または前記姿勢を決定することのうちの少なくとも1つに応答して、コンテンツ共有を実施するためのユーザデータを伝送することをさらに含み、コンテンツ共有は、ローカル通信ネットワークを経由したデバイス間のコンテンツの一方向または双方向交換を備える、項目1に記載の方法。
(項目8)
前記マップエリアを識別することに応答して、マップエリアデータを伝送することをさらに含む、項目1に記載の方法。
(項目9)
拡張現実ディスプレイデバイスの位置および配向情報を決定するための方法であって、
前記拡張現実ディスプレイデバイスの現在の場所と関連付けられたマップエリアを識別することであって、前記マップエリアは、1つ以上のデバイスから受信された場所情報を使用して、少なくともヒューリスティック処理を実施することによって識別される、ことと、
前記マップエリアと関連付けられたマッチングキーフレームを識別することと、
共有マップエリア原点に対する前記拡張現実ディスプレイデバイスに関する姿勢を決定することと
を含む、方法。
(項目10)
前記場所情報を使用して、ヒューリスティック処理を実施することは、
前記1つ以上のデバイスの位置に対応する場所データを識別することであって、前記場所データは、前記1つ以上のデバイスと関連付けられた全地球測位システムによって生成され、前記場所データは、個別のピアツーピア通信プロトコルを使用して、前記拡張現実ディスプレイデバイスと前記1つ以上のデバイスの個別のデバイスとの間で無線で伝送される、ことと、
前記1つ以上のデバイスのうちの少なくとも1つからの場所データに対する正確度のレベルを決定することと、
前記拡張現実ディスプレイデバイスと前記1つ以上のデバイスのうちの少なくとも1つとの間の最小距離および最大距離を推定することと、
前記1つ以上のデバイスのうちの少なくとも1つに関する前記正確度のレベル、前記最小距離、および前記最大距離を使用して、前記拡張現実ディスプレイデバイスが位置する少なくとも1つの推定された領域を決定することと
を含む、項目9に記載の方法。
(項目11)
前記最小距離は、前記個別のピアツーピア通信プロトコルの少なくとも1つのピアツーピア通信プロトコルに関して事前に決定される、項目10に記載の方法。
(項目12)
前記最大距離は、前記個別のピアツーピア通信プロトコルの少なくとも1つのピアツーピア通信プロトコルに関して事前に決定される、項目10に記載の方法。
(項目13)
前記最小距離は、少なくとも、前記個別のピアツーピア通信プロトコルの少なくとも1つのピアツーピア通信プロトコルに関する信号強度情報に基づいて決定される、項目10に記載の方法。
(項目14)
前記最大距離は、少なくとも、前記個別のピアツーピア通信プロトコルの少なくとも1つのピアツーピア通信プロトコルに関する信号強度情報に基づいて決定される、項目10に記載の方法。
(項目15)
前記少なくとも1つの推定された領域は、単一マップエリアに対応する、項目10に記載の方法。
(項目16)
複数の推定された領域は、推定された領域の重複を決定するように処理される、項目10に記載の方法。
(項目17)
前記推定された領域の重複は、単一マップエリアに対応しない、項目16に記載の方法。
(項目18)
前記現在の場所と関連付けられたマップエリアを識別することはさらに、
メタデータを受信することであって、前記メタデータは、前記拡張現実ディスプレイデバイスの現在の場所において収集される、ことと、
前記メタデータを分析し、マッチングマップエリアを決定することであって、前記メタデータは、1つ以上の通信ネットワークに関する情報に対応する、ことと
を含む、項目17に記載の方法。
(項目19)
前記マップエリアと関連付けられたマッチングキーフレームを識別することは、
第1の複数のキーフレームを受信することと、
前記第1の複数のキーフレームのキーフレームを捕捉することと、
前記捕捉されたキーフレームと前記マップエリアと関連付けられた第2の複数のキーフレームを比較することであって、前記第2の複数のキーフレームは、既知の姿勢を有する以前に捕捉されたキーフレームを備え、姿勢は、少なくとも、前記個別のキーフレームに関する位置および配向を表す情報を備える、ことと、
前記捕捉されたキーフレームを前記第2の複数のキーフレームに対して分析することによって、前記第2の複数のキーフレームのうちの少なくともいくつかに関する類似性スコアを決定することと、
少なくとも前記類似性スコアに基づいて、前記第2の複数のキーフレームのキーフレームを前記マッチングキーフレームとして選択することと
を含む、項目10に記載の方法。
(項目20)
前記共有マップエリア原点に対する前記拡張現実ディスプレイデバイスに関する姿勢を決定することは、
キーフレーム分析を実施することによって、前記捕捉されたキーフレームおよび前記マッチングキーフレームを使用して、前記マッチングキーフレームに対する姿勢を決定することと、
少なくとも前記マッチングキーフレームに対応する姿勢を使用して、前記マッチングキーフレームに対する姿勢を前記共有マップエリア原点に対する姿勢に変換することと
を含む、項目19に記載の方法。
(項目21)
前記マップエリアと関連付けられたマッチングキーフレームを識別することはさらに、
前記捕捉されたキーフレームの特徴を決定することを含み、
前記捕捉されたキーフレームと前記マップエリアと関連付けられた第2の複数のキーフレームを比較することは、前記捕捉されたキーフレームの特徴と前記第2の複数のキーフレームの特徴を比較することを含み、
前記第2の複数のキーフレームのうちの少なくともいくつかに関する類似性スコアを決定することは、前記第2の複数のキーフレームの特徴に対して前記捕捉されたキーフレームの特徴を分析することを含む、
項目19に記載の方法。
(項目22)
前記プロセスはさらに、前記マップエリアを識別すること、前記マッチングキーフレームを識別すること、または前記姿勢を決定することに応答して、場所ベースコンテンツを伝送することをさらに含み、場所ベースコンテンツは、前記マップエリア、前記マッチングキーフレーム、または前記姿勢と関連付けられた1つ以上のオブジェクトまたは1つ以上のアプリケーションに関するデータに対応する、項目9に記載の方法。
(項目23)
前記プロセスはさらに、前記マップエリアを識別すること、前記マッチングキーフレームを識別すること、または前記姿勢を決定することに応答して、コンテンツ共有を実施するために提供するためのユーザデータを伝送することを含み、コンテンツ共有は、ローカル通信ネットワークを経由したデバイス間のコンテンツの一方向または双方向交換を備える、項目9に記載の方法。
(項目24)
前記プロセスはさらに、前記マップエリアを決定することに応答して、マップエリアデータを伝送することを含む、項目9に記載の方法。
図面は、本開示の種々の実施形態の設計および可用性を図示する。図は、正確な縮尺で描かれておらず、類似構造または機能の要素は、図全体を通して同様の参照番号によって表されることに留意されたい。本開示の種々の実施形態の上記に列挙される利点および他の利点および目的を取得する方法をより深く理解するために、上記に簡単に説明された本開示の詳細な説明は、付随の図面に図示される、その具体的実施形態を参照することによって与えられるであろう。これらの図面は、本開示の典型的実施形態のみを描写し、したがって、その範囲の限定と見なされないことを理解されたい、本開示は、付随の図面の使用を通して、付加的具体性および詳細とともに記載および説明されるであろう。
図1は、場所決定が拡張現実ディスプレイデバイスのために実施される、例示的環境を図示する。
図2A−Bは、いくつかの実施形態による、例示的拡張現実コンテンツサーバおよび拡張現実システムを図示する。 図2A−Bは、いくつかの実施形態による、例示的拡張現実コンテンツサーバおよび拡張現実システムを図示する。
図3は、いくつかの実施形態による、位置特定プロセスを実施するための例示的プロセスフローを図示する。
図4A−Cは、いくつかの実施形態による、図3に図示される、「エリア位置特定を実施する」ステップのための例示的プロセスフローを図示する。 図4A−Cは、いくつかの実施形態による、図3に図示される、「エリア位置特定を実施する」ステップのための例示的プロセスフローを図示する。 図4A−Cは、いくつかの実施形態による、図3に図示される、「エリア位置特定を実施する」ステップのための例示的プロセスフローを図示する。
図5は、いくつかの実施形態による、図3に図示される、「粗粒度位置特定を実施する」ステップのための例示的プロセスフローを図示する。
図6は、いくつかの実施形態による、図3に図示される「微粒度位置特定を実施する」ステップのための例示的プロセスフローを図示する。
図7A−Jは、いくつかの実施形態による、未決定場所におけるユーザのための位置特定プロセスの例証的実施例を提供する。 図7A−Jは、いくつかの実施形態による、未決定場所におけるユーザのための位置特定プロセスの例証的実施例を提供する。 図7A−Jは、いくつかの実施形態による、未決定場所におけるユーザのための位置特定プロセスの例証的実施例を提供する。 図7A−Jは、いくつかの実施形態による、未決定場所におけるユーザのための位置特定プロセスの例証的実施例を提供する。 図7A−Jは、いくつかの実施形態による、未決定場所におけるユーザのための位置特定プロセスの例証的実施例を提供する。 図7A−Jは、いくつかの実施形態による、未決定場所におけるユーザのための位置特定プロセスの例証的実施例を提供する。 図7A−Jは、いくつかの実施形態による、未決定場所におけるユーザのための位置特定プロセスの例証的実施例を提供する。 図7A−Jは、いくつかの実施形態による、未決定場所におけるユーザのための位置特定プロセスの例証的実施例を提供する。 図7A−Jは、いくつかの実施形態による、未決定場所におけるユーザのための位置特定プロセスの例証的実施例を提供する。 図7A−Jは、いくつかの実施形態による、未決定場所におけるユーザのための位置特定プロセスの例証的実施例を提供する。
図8A−Dは、いくつかの実施形態による、未決定場所におけるユーザのためのエリア位置特定プロセスの例証的実施例を提供する。 図8A−Dは、いくつかの実施形態による、未決定場所におけるユーザのためのエリア位置特定プロセスの例証的実施例を提供する。 図8A−Dは、いくつかの実施形態による、未決定場所におけるユーザのためのエリア位置特定プロセスの例証的実施例を提供する。 図8A−Dは、いくつかの実施形態による、未決定場所におけるユーザのためのエリア位置特定プロセスの例証的実施例を提供する。
図9は、本開示が実装され得る、例示的コンピューティングシステムのアーキテクチャを示す。
本開示の実施形態は、1人以上のユーザのための双方向仮想現実(VR)または拡張現実(AR)環境の場所ベースコンテンツ共有のための位置特定の決定のための改良されたデバイス、システム、および方法を対象とする。
本明細書に図示される実施形態は、同一エリア内の他のユーザもまた相互作用可能である、1つ以上の仮想オブジェクトとの相互作用等の場所ベースコンテンツ共有を提供するために、ユーザの場所を決定するためのプロセスおよびシステムを提供する。
図1は、場所決定がARディスプレイデバイスのために実施される、例示的環境を図示する。本明細書に開示される例示的環境は、共有されるか、ストリーミングされるか、またはローカルで生成されるかにかかわらず、仮想オブジェクトおよび他の仮想的に表示されるコンテンツ等のコンテンツを共有するために、ユーザ場所を決定するためのシステムを含む。
拡張現実ディスプレイデバイス101は、拡張現実ビュー102をユーザに提示する。概して、ARは、実世界のいくつかの部分のビューを備え、1つ以上の仮想オブジェクトが、例えば、仮想オブジェクトがユーザと実世界との間に設置されるように、1つ以上の表示される仮想オブジェクトをユーザの眼の中に反射させる、一対のAR眼鏡上に仮想オブジェクトを投影させることによって、そのビューにわたってオーバーレイされる。さらに、種々のデバイスおよび技法が、仮想オブジェクトを実世界に対して具体的場所内に現れさせるために使用されることができる。例えば、描写される拡張現実ディスプレイ101は、サーフボード上で波に乗るグレムリンを拡張現実ディスプレイデバイスビュー102内に表示するために使用され得る。そのようなディスプレイは、立体視のための眼鏡の左および右側上のカメラ、移動および配向の検出のための加速度計、磁力計、およびジャイロスコープ等の種々のセンサを拡張現実ディスプレイデバイス101上に設置することによって促進され得る。例示的拡張現実ディスプレイデバイスに関するさらなる詳細は、2014年11月27日に出願された米国特許出願第14/555,585号(参照することによってその全体として本明細書に組み込まれる)に説明される。
拡張現実ディスプレイデバイスビュー102はまた、表示される冗長な初期化プロセス103を含み、これは、メタデータを集めるステップと、マップエリアを識別するステップと、最近傍キーフレームを識別するステップと、配向を識別するステップとを含む。本プロセスは、下記により詳細に議論されるであろう。しかしながら、本プロセスは、必ずしも、ユーザに示される必要はない、または代替として、そのいくつかの部分/概要情報が、ユーザに示されてもよい。
拡張現実システム110は、位置特定プロセスのためのモジュールおよびデータベース要素を提供する。これらのモジュールおよびデータベース要素は、図9および本明細書の対応する段落に開示されるもの等のコンピューティングシステム上に実装されてもよい。モジュールおよびデータベース要素自体は、ソフトウェア、ハードウェア、またはいくつかのそれらの組み合わせを備えてもよい。そのようなシステムは、有線または無線のいずれかで拡張現実ディスプレイデバイス101に接続する専用コンピューティングモジュールにおいて、拡張現実ディスプレイデバイス101自体の一部として、拡張現実ディスプレイデバイス101に接続し、有線を介してまたは無線でのいずれかで接続される別のシステムまたはコンピューティングデバイスの一部として、または、任意のそれらの組み合わせで提供されてもよい。
拡張現実システム110は、初期化モジュール111を使用して、位置特定プロセスを開始する。例えば、初期化モジュール111は、拡張現実ディスプレイデバイス101が拡張現実ディスプレイデバイス101が位置するエリア領域/場所を把握しているかどうか、拡張現実ディスプレイデバイス101が最近傍キーフレームであるキーフレームを把握しているかどうか、および拡張現実ディスプレイデバイス101がエリア領域原点に対するその配向を把握しているかどうかに関する決定を行うために使用されてもよい。その結果、初期化モジュール111は、位置特定をプロセスの正しい段階でトリガし得、例えば、エリアが、未知であるとき、エリア位置特定をトリガする、またはエリアが既知であるが、配向および最近傍キーフレームが未知である場合、粗粒度位置特定をトリガする。しかしながら、大部分の状況下では、拡張現実ディスプレイデバイス101は、エリア位置特定モジュール(例えば、エリア位置特定インターフェースモジュール113)を用いて、位置特定プロセスを開始するであろう。
位置特定インターフェースモジュール112は、エリア位置特定インターフェースモジュール113と、粗粒度位置特定インターフェースモジュール114と、微粒度位置特定インターフェースモジュール115とを含む。各モジュールは、特定のエリアに関する原点に対する現在の場所および配向を決定するために、位置特定プロセスの異なる部分をハンドリングする。
エリア位置特定インターフェースモジュール113は、拡張現実システム110によってサポートされる任意のネットワークを使用して、範囲内の無線ネットワークデバイス等の関連エリアメタデータを集める。無線ネットワークは、Bluetooth(登録商標)等の短距離ネットワークと、WiFi等のより長距離のネットワークとを含んでもよい。さらに、WiMAX、ZigBee、またはセルラーネットワーク等の他の無線ネットワーキング規格も、使用されてもよい。さらに、一方向ネットワークはまた、エリアと関連付けられたデジタルまたはアナログテレビ信号、無線信号、または任意の他の信号等の関連メタデータを提供してもよい。メタデータが集められている間またはその後、適切な記憶場所、例えば、一時的メモリまたはローカルキャッシュ/データベース130内にローカルで記憶されてもよい。メタデータは、マップエリアデータセット131内およびエリアメタデータ部分132の中に編成されてもよい。加えて、マップエリアデータ131は、一時的または作業マップエリアを備えてもよい。例えば、マップエリアデータ131は、まだ未識別/未定義であるマップエリアに対応してもよい。最後に、メタデータは、識別されたメタデータに最良マッチングするマップエリアの決定のために、拡張現実コンテンツサーバ150に伝送されてもよい。いくつかの実施形態では、識別されたマップエリアに対応するマップエリアデータは、拡張現実システム110に伝送され、粗粒度位置特定および微粒度位置特定を実施してもよい。いくつかの実施形態では、粗粒度位置特定プロセスは、拡張現実コンテンツサーバ150またはその関連付けられたデバイスで実行されてもよい。しかしながら、本例証は、粗粒度位置特定および微粒度位置特定を拡張現実システム110において実施することを提供する。取り込まれると、マップエリアデータ131は、少なくとも、エリア領域/場所定義(エリア境界およびトポロジデータ等)と、そのエリアと関連付けられたキーフレームのセットとを含む。
粗粒度位置特定インターフェースモジュール114は、エリア領域/場所情報を受信してもよく、ローカルキャッシュ/データベース130内のエリア領域/場所133等にそれを適切に記憶してもよい。粗粒度位置特定インターフェースモジュール114はまた、キーフレーム情報を受信してもよく、これもまた、適切に記憶されてもよい。例えば、粗粒度位置特定インターフェースモジュール114は、キーフレーム134を受信し、キーフレーム134をローカルキャッシュ/データベース130内に記憶してもよい。粗粒度位置特定インターフェースモジュール114は、キーフレーム134の特徴134aを決定し、特徴134aをローカルキャッシュ/データベース130内に記憶してもよい。特徴の実施例は、縁、角、ブロブ、隆起、および同等物を含む。粗粒度位置特定インターフェースモジュール114は、次いで、キーフレーム(例えば、キーフレーム134のキーフレーム)を捕捉し、捕捉されたキーフレームと拡張現実コンテンツサーバ150から受信されたキーフレームのセット(例えば、キーフレーム164)および/またはその特徴(例えば、特徴164a)を比較し、最近傍および/または最良マッチングキーフレームを識別してもよい。いくつかの実施形態では、粗粒度位置特定インターフェースモジュール114は、キーフレーム134内の特徴134aと拡張現実コンテンツサーバ150のサーバデータベース160からのキーフレーム164の特徴164aを比較してもよい。しかしながら、最良マッチングキーフレームは、常時、最近傍キーフレームではない場合がある。例えば、最近傍キーフレームが、拡張現実ディスプレイデバイス101の視野外にあるビューを表示するように据え付けられる場合、次いで、その拡張現実ディスプレイデバイス101を使用して捕捉されたキーフレームは、捕捉された最近傍キーフレームがビューから隠蔽されるため、捕捉されたキーフレームが最近傍キーフレームに類似することを見出さないであろう。いくつかの実施形態では、キーフレームは、360度または類似カメラ、またはユーザによって可視である視野を上回る視野を捕捉するためのカメラのいくつかの組み合わせを用いて捕捉されてもよい。最近傍または最良マッチングキーフレームを識別するプロセスのさらなる詳細は、下記に議論されるであろう。キーフレーム処理に関するさらなる詳細は、「CREATING A TOPOLOGICAL MAP FOR LOCALIZATION IN AUGMENTED OR VIRTUAL REALITY SYSTEMS」と題され、2015年5月7日に出願された米国特許出願第14/705,983号(参照することによってその全体として本明細書に組み込まれる)に説明される。
いったん最近傍または最良マッチングキーフレーム(以降、マッチングキーフレーム)が決定されると、微粒度位置特定インターフェースモジュール115は、マッチングキーフレームとその拡張現実ディスプレイデバイス101を使用して捕捉されたキーフレームを比較することができる。本比較に基づいて、拡張現実システム110は、拡張現実ディスプレイデバイス101の姿勢(位置および配向)を決定することができる。姿勢を決定するステップは、概して、2つのステップにおいて実施される。第1に、相対的姿勢が、キーフレームに対して決定される。第2に、マップエリア原点に対する拡張現実ディスプレイデバイス101の位置が、決定される。これは、1つはマップエリア原点からキーフレームへの変換、1つはキーフレームから拡張現実ディスプレイデバイス101への変換といった2つの変換を連結することによって遂行されることができる。したがって、拡張現実ディスプレイデバイス101の姿勢が、マップエリア原点に対して決定されることができる。したがって、拡張現実ディスプレイデバイス101のマップエリア原点を決定するために、キーフレームに対する相対的位置が、マップエリア原点に対する相対的位置に変換されることができ、これは、複数の拡張現実ディスプレイデバイスユーザが、共有マップエリア原点および物理的空間に対して同一場所内で同一仮想オブジェクトと相互作用し得るため、所与のエリア内の共有ユーザ体験を有効にする。
ローカルキャッシュ/データベース130は、不揮発性記憶装置、例えば、ソリッドステートドライブ、ハードディスクドライブ、または任意の他の持続的再書込可能メディアまたは媒体のみを備えてもよい。しかしながら、ローカルキャッシュ/データベース130はまた、揮発性記憶装置、例えば、ランダムアクセスメモリ(RAM)のみを備えてもよい、または代替としては、揮発性および不揮発性記憶装置のいくつかの組み合わせを備えてもよい。さらに、ローカルキャッシュ/データベース130は、作業または現在の領域のためのマップエリアデータ131を保持するために使用される揮発性メモリ、および、頻繁にアクセスされる必要がない現在のまたは作業マップエリアのためのマップエリアデータを記憶するための、またはホームオフィス、企業の会議室、または他の場所等の以前にアクセスまたはマークされたマップエリアに関するマップエリアデータを記憶するための不揮発性部分等の異なる領域に分割されてもよい。
拡張現実コンテンツサーバ150は、少なくとも、位置特定モジュール151と、サーバデータベース160とを有する。位置特定モジュール151は、主として、位置特定インターフェースモジュール112を鏡映する。しかしながら、位置特定モジュール151は、図2Aに関してより詳細に議論されるであろう。
サーバデータベース160は、本質的に、ローカルキャッシュ/データベース130と同一であって、マップエリアデータ131のものを鏡映するマップエリアデータ161と、エリアメタデータ132に対応するエリアメタデータ162と、エリア領域/場所133に対応するエリア領域/場所163と、キーフレーム134に対応するキーフレーム164と、特徴134aに対応する特徴164aとを伴う。しかしながら、サーバデータベース160は、拡張現実コンテンツサーバ150を通して以外、拡張現実システム110によって容易にアクセス不可能である、複数のソースからのデータを集約し得る。例えば、サーバデータベース160は、他のユーザから、他のシステムから、さらには、拡張現実システムではないソース、例えば、マッピングシステムから収集されたメタデータと、携帯電話タワー、WiFihotスポット、およびブロードキャストメディアアンテナ等の異なる無線ネットワーキングデバイスの物理的場所を表すデータ等の他のデータとを含んでもよい。
図2A−Bは、いくつかの実施形態による、例示的拡張現実コンテンツサーバおよび拡張現実システムを図示する。図2Aは、サーバ側インフラストラクチャのさらなる詳細図を伴う実施形態を提供する一方、図2Bは、拡張現実デバイスのさらなる詳細図の実施形態を提供する。
図2Aは、例示的拡張現実コンテンツサーバ150およびサーバデータベース160を図示する。図1に図示される要素に加え、拡張現実コンテンツサーバ150およびサーバデータベース160は、位置特定およびコンテンツサービスのためのデータおよびモジュールを図示するように修正されている。
同一参照番号を伴うアイテムは、それらがそこで異なるように説明される程度を除き、図1に関して説明されるものと同一である。具体的には、拡張現実コンテンツサーバ150、位置特定モジュール151、サーバデータベース160、マップエリアデータ161、エリアメタデータ162、エリア領域/場所163、キーフレーム164、および特徴164aは、図1に関して上記に説明されている。しかしながら、1つの差異が、位置特定モジュール151内に見出され得、これは、ここでは、エリア位置特定モジュール152、粗粒度位置特定モジュール153、および微粒度位置特定モジュール154が存在している。
エリア位置特定モジュール152は、マッチングまたは最良マッチングマップエリアまたは領域を選択するために使用されてもよい。エリア位置特定モジュール152は、単独で、または座標情報と組み合わせてであるかどうかにかかわらず、ユーザデバイス(例えば、拡張現実ディスプレイデバイス101)から収集されたメタデータを使用して、エリア場所を決定してもよい。そのような技法は、少なくとも図3−7Jに関して議論されるであろう。しかしながら、簡潔に述べると、本技法は、拡張現実デバイスにおいて感知され得る、無線ネットワークに関する情報を集めること等によって、拡張現実デバイス(例えば、拡張現実ディスプレイデバイス101)においてアクセス可能または識別可能な関連メタデータを集めるステップと、拡張現実デバイスによって受信された/集められたメタデータと複数のマップエリアデータセット(例えば、マップエリアデータ161)のエリアメタデータ162を比較するステップとを含む。例えば、エリア位置特定モジュール152は、受信されたメタデータのセットと、それぞれがマップエリアデータ161等のエリアメタデータのセットを含むかまたはそれに対応する、複数のマップエリアデータのセットとを比較し、受信された/収集されたエリアメタデータにマッチングする、またはその最良マッチングである、1つ以上のマップエリアを識別してもよい。
粗粒度位置特定モジュール153は、いったん特定のマップエリアが識別されると、最良マッチングキーフレームを識別するために使用されることができる。一般的に、マップエリアは、エリア領域/場所を備える。例えば、ユーザの自宅は、1つのエリアを構成し得、そのエリアの境界は、その敷地境界(例えば、一区画の土地)と同一であって、エリア領域/場所はまた、他の関連オブジェクトまたは物理的特徴とともに、自宅の種々の壁、ドア、窓を表す、エリアワイヤフレーム165と関連付けられてもよい。本場所内では、いくつかのユーザデバイスが、拡張現実コンテンツサーバ150に対する以前に提供されたキーフレームを有し得、これは、キーフレーム164として以前に記憶されている。キーフレーム164自体は、既知の位置および配向において捕捉された画像、通常、立体画像に対応する。キーフレーム164と関連付けられた特徴164aも、決定および記憶されてもよい。特徴の実施例は、縁、角、ブロブ、隆起、および同等物を含む。キーフレーム164は、拡張現実ディスプレイデバイス101において得られた画像に最良マッチングする、識別されたエリア領域と関連付けられたキーフレーム164のキーフレームを識別することによって、粗粒度位置特定を実施するためのプロセスの一部として使用されてもよい。粗粒度位置特定は、キーフレーム134を捕捉するステップと、キーフレーム134内の特徴134aを決定するステップと、キーフレーム134内の特徴134aとキーフレーム164内の特徴164aを比較するステップとを含んでもよい。いくつかの実施形態では、最良マッチングキーフレームを決定するために必要な処理は、キーフレーム164がデバイス上にすでに存在する(ローカルキャッシュ/データベース130内に記憶されるマップエリアデータ131と関連付けられたキーフレーム等)とき、またはキーフレーム164が拡張現実システム110に送信される場合、拡張現実システム110上で実施され得る。しかしながら、いくつかの実施形態では、拡張現実コンテンツサーバが、キーフレーム164の処理を実施してもよい。
微粒度位置特定モジュール154は、マップエリア原点に対する拡張現実システム110の位置および配向を決定するためのプロセスの一部として使用されてもよい。概して、これは、2つのステップにおいて完了されてもよい。第1に、拡張現実システム110の相対的位置および配向が、マッチングキーフレームに対して決定されてもよい。第2に、拡張現実システム110の位置および配向が、マッチングキーフレームに対する相対的位置および配向をマップエリア原点に対する位置および配向に変換することによって決定されてもよい。さらに、待ち時間も、待ち時間が長すぎる場合、ユーザがもはや同一または十分に類似する姿勢にない場合があり得るため、ユーザデバイスの姿勢を決定するとき、問題となり得る。しかしながら、拡張現実システム110の処理能力は、待ち時間が、拡張現実コンテンツサーバ150における処理時間と組み合わせて、拡張現実システム110における処理時間未満であるようなものであり得る。したがって、いくつかの実施形態では、微粒度位置特定は、拡張現実コンテンツサーバ150において実行されてもよい。加えて、実行は、拡張現実コンテンツサーバ150における待ち時間および処理時間が拡張現実システム110における処理時間未満であることを示す決定または他のデータに基づいてもよい。
位置特定モジュール151の動作の間の種々の時間においておよびその後、拡張現実コンテンツサーバ150は、付加的コンテンツサービスを開始するために集められた情報を利用してもよい。そのようなアクションは、コンテンツストリーミングおよびコンテンツ共有を促進するために行われ得る。
例えば、エリア位置特定モジュール152は、アプリケーションおよびデータ170からのアプリケーションおよび関連付けられたデータの関連伝送をトリガするために使用されてもよい。例えば、エリア位置特定モジュール152は、識別されたエリア領域/場所がローカルフィットネスセンターを含むことを決定してもよい。その結果、フィットネスセンターに関するアプリケーションまたはフィットネスアクティビティと関連付けられたアプリケーションが、ユーザが、転送の完了に応じて、またはユーザの位置および配向の決定の完了直後、またはいくつかのそれらの組み合わせのいずれかにおいて、アプリケーションの使用を開始し得るように、ユーザデバイス(例えば、拡張現実ディスプレイデバイス101)に伝送されてもよい。1つのユースケースでは、ユーザは、アプリケーションを使用し、1つ以上の運動機械に関する予約を設定し、仮想トレーナとのトレーニングセッションを開始することが可能であり得る。そのようなアクティビティを促進するために、コンテンツストリーミングモジュール156が、サーバデータベース160からのアプリケーションの選択およびデータのストリーミングを管理するために使用されてもよく、例えば、ユーザデバイスのためのシステム/構成データ172および特定のユーザと関連付けられたユーザデータ171(例えば、GOLD’S GYMにおける現在のメンバーとしてのステータスおよびアプリケーション選好)が、ユーザの位置および配向が決定される前に、データの自動伝送をトリガするために使用されてもよい。
別の実施例では、エリア位置特定モジュール152は、コンテンツ共有のためのアプリケーションおよび関連付けられたデータの関連伝送をトリガするために使用されてもよい。例えば、仮想グループサイクリングクラスを促進するためのアプリケーションが、伝送されてもよい。アプリケーションを使用して、ユーザは、グループクラスに参加してもよく、各ユーザには、実オブジェクト(例えば、他の参加者)が、仮想オブジェクトを用いて拡張され、仮想オブジェクトが、遅延を被ることを回避するために、直接またはローカルネットワーク(例えば、設備WiFiネットワーク)内からのいずれかにおいて伝送される、個々のユーザからのデータによって提供される、またはそれが取り込まれるように、クラス内の他のユーザと関連付けられた仮想オブジェクトが表示される。例えば、個々の参加者は、その物理的衣類に、拡張現実デバイス(例えば、拡張現実ディスプレイデバイス101)を使用する者によってのみ視認可能な仮想オブジェクトとして仮想的に適用される、チームのための仮想ロゴおよび番号を選択する、または割り当てられ得る。そのようなアクティビティを促進するために、コンテンツ共有モジュール155は、アプリケーションおよびデータ170から提供するための適切なアプリケーションおよびデータを決定してもよい。さらに、マップエリアデータ161のためのユーザリストおよびデータ168は、エリア内に存在する個々のユーザを識別し得る一方、そのエリアに関する仮想/物理的オブジェクトデータ166は、実世界オブジェクトに対するオブジェクトおよびその場所を識別し得る。さらに、いくつかの実施形態では、マップエリアは、アプリケーションリストおよび関連付けられたデータ167と関連付けられてもよい。
エリアワイヤフレーム165は、物理的オブジェクト(例えば、壁、窓、手すり、階段等)の仮想表現を提供してもよい。ワイヤフレームデータは、特に、表示するための仮想オブジェクトを決定するために有用であり得る。例えば、プレゼンを行っている会議室内のユーザは、通常、プレゼンが同一部屋内のユーザによってのみ視認可能であろうことを予期するであろう。ワイヤフレーム情報を使用して、コンテンツ共有モジュール155は、ユーザが同一会議室内に存在するかどうかを決定し、少なくとも同一部屋に存在しないユーザによるプレゼンの仮想部分へのアクセスを制限またはブロックすることができる。
図2Bは、例示的拡張現実システム110およびローカルキャッシュ/データベース130を図示する。図1に図示される要素に加え、拡張現実システム110およびローカルキャッシュ/データベース130は、拡張現実システム110を動作させるための付加的データおよびモジュールを含むように修正されている。
同一参照番号を伴うアイテムは、それらがそこで異なるように説明される程度を除き、図1および2Aに関して説明されるものと同一である。具体的には、初期化モジュール111、位置特定インターフェースモジュール112、エリア位置特定インターフェースモジュール113、粗粒度位置特定モジュール114、および微粒度位置特定インターフェースモジュール115は、前述の通りである。
コンテンツ共有インターフェースモジュール121は、拡張現実システム110からのコンテンツ共有のための拡張現実ディスプレイデバイス101側機能性を提供する。例えば、コンテンツ共有インターフェースモジュール121は、ユーザまたはユーザの拡張現実ディスプレイデバイス101によって生成された仮想オブジェクトを他のユーザと共有するために使用されることができる。例えば、ユーザの拡張現実ディスプレイデバイス101は、ユーザデータ141内等、その中に、プレゼンを記憶していてもよく、これは、ユーザの拡張現実ディスプレイデバイス101が、直接またはローカルネットワークを経由して、他のユーザに提供してもよい。動作時、これは、第1に、ユーザリストおよびデータ138および/またはユーザリストおよびデータ168を使用して、指定されたエリア内に存在するユーザを決定し、第2に、共有コンテンツが、直接ユーザに、またはローカルネットワークを介して、但し、外部サーバを通して共有コンテンツを伝送せずに、伝送され得るように、コンテンツを共有するユーザとコンテンツを受信するユーザとの間の接続を設定することによって実施されてもよい。さらに、いくつかの実施形態では、共有されるコンテンツの一部または全部は、拡張現実コンテンツサーバ150を使用して、促進または伝送および処理されてもよい。しかしながら、ローカルで操作される、または時間に敏感なコンテンツは、概して、直接またはローカルネットワークを経由してのいずれかにおけるコンテンツプロバイダからコンテンツ受信機への伝送によって、ローカルで共有され、拡張現実コンテンツサーバ150によって生じる任意の遅延を回避するであろう。
コンテンツストリーミングインターフェースモジュール122は、コンテンツ共有インターフェースモジュール121に類似するが、コンテンツストリーミングインターフェースモジュール122は、拡張現実システム110から生じないコンテンツに対処するために提供される。他の場所から生じるコンテンツは、拡張現実システム110から生じるコンテンツのものと異なる問題を提示する。具体的には、拡張現実ディスプレイデバイス101によって提供されるコンテンツは、概して、共有視認の間等、拡張現実コンテンツサーバ150に伝送され、次いで、コンテンツ所有者にローカルのデバイスに再伝送される必要がある場合、不自然な遅延に悩まされるであろう。しかしながら、他の場所から生じるコンテンツは、最初に、特定の拡張現実システム110に伝送され、次いで、その拡張現実システム110によって他のユーザデバイスに再伝送される場合、不自然な遅延に悩まされるであろう。したがって、コンテンツストリーミングインターフェースモジュール122を使用して2つ以上のデバイスにストリーミングされるコンテンツに関して、拡張現実コンテンツサーバ150が、全てのユーザがそのようなコンテンツを同時に受信するように、コンテンツを個別のデバイスに送信するために使用され得る、または拡張現実コンテンツサーバ150またはコンテンツストリーミングインターフェースモジュール122が、例えば、タイムスタンプおよび調節可能遅延を使用することによって、個別のデバイスにおける再生を同期させるために使用され得る。
ローカルキャッシュ/データベース130は、主として、サーバデータベース160のものの鏡映である。しかしながら、ローカルキャッシュ/データベース130は、拡張現実システム110のためのデータ管理を提供し、したがって、サーバデータベース160内に存在しないいくつかのデータを含んでもよい。例えば、ローカルキャッシュ/データベース130は、継続中の追跡のために維持される一時的データと、サーバデータベース160の一部、例えば、使用中または頻繁に使用されるマップエリアデータのローカルコピー、お気に入り/ブックマークされた場所と関連付けられたデータ、または以前にアクセスされたマップエリアに関するマップエリアデータ131を鏡映する、他のデータとを含んでもよい。しかしながら、ローカルキャッシュ/データベース130内のデータの大部分は、サーバデータベース160に関するデータまたはデータのそのサブセットに対応する。例えば、エリアメタデータ132は、エリアメタデータ162に対応し、エリア領域/場所133は、エリア領域/場所163に対応し、キーフレーム134は、キーフレーム164に対応し、特徴134aは、特徴164aに対応し、エリアワイヤフレーム135は、エリアワイヤフレーム165に対応し、仮想/物理的オブジェクトデータ136は、仮想/物理的オブジェクトデータ166に対応し、アプリケーションリストおよびデータ137は、アプリケーションリストおよびデータ167に対応し、ユーザリストおよびデータ138は、ユーザリストおよびデータ168に対応し、アプリケーションおよびデータ140は、アプリケーションおよびデータ170に対応し、ユーザデータ141は、ユーザデータ171に対応し、システム/構成データ142は、システム/構成データ172に対応する。
最後に、拡張現実システム110は、拡張現実ディスプレイデバイス101とインターフェースを取るためのディスプレイデバイスコントローラ123と、センサおよびそれが収集するデータを監視および管理するためのデバイスセンサモジュール124と、ユーザが拡張現実ディスプレイデバイス101とインターフェースをとり、それを制御することを提供するためのユーザインターフェースモジュール125とを含んでもよい。
図3は、いくつかの実施形態による、位置特定プロセスを実施するための例示的プロセスフローを図示する。概して、プロセスは、マップエリアの識別、最近傍参照点の識別を実施し、その参照点を使用して、位置および配向を決定することによって動作する。さらに、プロセスにおける各位相の間、特定のステップが、必要に応じて、コンテンツを入手し、コンテンツ共有を実施するために行われてもよい。
プロセスは、302から開始し、そこで、場所決定シーケンスが、開始される。開始は、任意の数のものによってトリガされ得る。例えば、場所決定シーケンスは、ブートアップに応じて、拡張現実ディスプレイデバイス101がそれが位置するマップエリアを把握していないことの決定に応じて、拡張現実ディスプレイデバイス101がその位置または配向を把握していないことの決定に応じて、アプリケーションの開始に応じて、ユーザによる開始に応じて、または任意のそれらの組み合わせに応じて、トリガされてもよい。
304では、エリア位置特定が、拡張現実ディスプレイデバイス101が存在するマップエリアを決定するために実施される。本プロセスは、図4A−Cに関してさらに議論されるであろう。しかしながら、簡単に述べると、エリア位置特定は、拡張現実ディスプレイデバイス101場所において識別可能な関連メタデータを集めることによって実施され、これは、順に、以前に記憶されたメタデータ(例えば、サーバデータベース160に)と比較され、収集されたデータに最良マッチングするエリアを識別する。
306では、粗粒度位置特定が、いったんマップエリアが識別されると、実施されることができる。要するに、粗粒度位置特定は、最初に、拡張現実ディスプレイデバイス101においてキーフレームを捕捉し、微粒度位置特定を実施する際に使用されるための捕捉されたキーフレームに最良マッチングする、マップエリアと関連付けられたキーフレーム(キーフレームのセット)を識別することによって実施される。粗粒度位置特定プロセスは、図5に関してさらに説明される。
いったん最良マッチングキーフレームが識別されると、微粒度位置特定が、308において実施されてもよい。微粒度位置特定は、多くの技法を使用して、実施されることができ、例えば、一貫し、かつ共有可能な仮想オブジェクト位置付け、例えば、ユーザ毎に同一場所に位置付けられ、複数の拡張現実セッションを横断して持続する、仮想オブジェクトを提供するために、最良マッチングキーフレームに対してユーザの相対的位置を決定し、次いで、最良マッチングキーフレームに対するユーザの相対的位置を共有マップエリア原点に対する相対的位置に変換する。本プロセスは、図6に関してさらに説明される。
並行場所ベースコンテンツ入手が、310において実施されることができる。本プロセスは、任意の数の段階においてトリガされてもよい。例えば、エリア位置特定プロセスは、エリア位置特定プロセスが、ユーザがモールのマップエリアに対応するエリア内に存在することを決定すると、ショッピングモールと関連付けられたアプリケーションの転送をトリガしてもよい、粗粒度位置特定プロセスは、識別された最良マッチングキーフレームが映画館チケット販売窓口から所与の距離内にあるとき、映画館と関連付けられたアプリケーションの転送をトリガしてもよい、または微粒度位置特定プロセスは、1つ以上の近傍の店舗に関する仮想メニューアプリケーションおよび注文システムの自動転送をトリガするために使用されてもよい。
並行場所ベースコンテンツ共有が、312において実施されることができる。本プロセスは、コンテンツ入手のものに類似するが、コンテンツは、エリア内のユーザから伝送される。例えば、コンテンツ共有は、識別されたマップエリアのレベルでトリガされてもよく、例えば、大道芸人が、仮想オブジェクトを公共でのパフォーマンスに組み込む場合、コンテンツ共有が、最良マッチングキーフレームに対する近接度に基づいてトリガされてもよく、例えば、映画館は、映画館への入場待ちの顧客に関連映画に関する仮想クイズゲームのための仮想オブジェクトを伝送する、または識別された場所に基づいて、例えば、映画館は、映画館自体内に存在することが識別された顧客には、スペシャルコンテンツをストリーミングし、コンテンツはさらに、保持されている具体的映画チケットに対応してもよい。
図4A−Cは、いくつかの実施形態による、図3に図示される、エリア位置特定ステップ304を実施するための例示的プロセスフローを図示する。図4A−Cはそれぞれ、拡張現実システム、拡張現実コンテンツサーバ、またはいくつかのそれらの組み合わせにおいて処理を実施することによって、マップエリアを決定するための3つの可能性として考えられるプロセスフローの1つの可能性として考えられるフローを図示する。さらに、別個に図示されるが、各フローの側面は、必要に応じて、他のプロセスフローのいずれかにおいて実施されてもよい。
図4Aは、メタデータを集め、そのメタデータを処理するために、拡張現実コンテンツサーバに伝送することによって実行される、エリア位置特定プロセスの例証を提供する。
プロセスは、402Aから開始し、そこで、メタデータが、拡張現実システムの物理的場所において集められる。メタデータは、任意の関連識別可能データ、例えば、任意の識別可能WiFiネットワーク情報、Bluetooth(登録商標)デバイス、無線ステーション、ブロードキャストテレビ、セルラータワー、または無線プロトコルを介して伝送される任意の他の情報を含んでもよい。いくつかの実施形態では、温度、太陽、月の位置、クイックレスポンスコード(QRコード(登録商標)、路上標識情報、または画像処理を介して読出可能な任意の他のデータ等の付加的メタデータが、集められてもよい。
いったん関連メタデータが、集められると、404Aにおいて、拡張現実コンテンツサーバにおけるデータサービスまたはエリア位置特定モジュールに伝送されることができる。本情報は、次いで、処理するために、関連付けられたデータベースまたは一時的メモリ内に記憶されることができる。
収集されたメタデータは、406Aにおいて、対応するマップエリア場所を決定するために使用される。これは、拡張現実コンテンツサーバに記憶される対応するメタデータ(例えば、エリアメタデータ162)を用いて、マップエリアを識別し、それらのマップエリアを絞り込み、受信されたメタデータに最良マッチングする、マップエリアを識別するために、データをマッチングさせる任意の技法を使用して実施されることができる。例えば、1セットのメタデータは、10のWiFiネットワークに対応する情報を含み得、最初の通過の際、マップエリアは、メタデータ内で識別された10のWiFiネットワークのうちの少なくとも1つと関連付けられたマップエリアのみを含むように絞り込まれ、その後、さらなる処理が続き、他のまたは付加的データを使用して、最良マッチングマップエリアを決定してもよい。さらに、いくつかの実施形態では、スコアが、少なくともいくつかのマッチングメタデータを含む潜在的マップエリアのセットのマップエリア毎に、生成されてもよく、最高スコアを伴うエリアは、最良マッチングマップエリアとして選択されることができる。
一実施形態では、メタデータは、406Aにおいて、ヒューリスティック方法および場所情報を使用して処理されてもよい。例えば、GPSデータが、セルラーデバイスから収集され、ピアツーピアWiFi(APIPAまたはBONJOUR等)、ブロードキャストユニバーサルデータグラムプロトコル、Bluetooth(登録商標)、または任意の他の無線デバイス間方法を介して、拡張現実システムに伝送され得る。GPSデータまたはそれと関連付けられたデータが、分析され、GPSデータが有する正確度のレベル(例えば、0.1メートル以内または1.0メートル以内まで正確)を決定することができる。GPSデータは、次いで、セルラーデバイスと拡張現実システムとの間の距離、例えば、セルラーデバイスの1〜5メートル以内を表すデータと組み合わせられることができる。本タイプの処理を使用して、拡張現実ディスプレイデバイスの場所が、ある領域内(例えば、内側境界と外側境界との間)で見出されることができる。例えば、セルラーデバイスは、拡張現実システムから最大で5メートルにあって、GPSデータの正確度のレベルが、1メートル以内であると仮定すると、拡張現実ディスプレイデバイスは、セルラーデバイスを囲繞する6メートル領域以内にあると把握される。本6メートル領域は、拡張現実ディスプレイデバイスが具体的マップエリア内にあることを識別するために十分に正確であり得るが、種々の要因、例えば、マップエリアサイズおよびGPS座標の場所がマップエリア境界から十分に離れていることに依存するであろう。付加的GPS情報が、拡張現実ディスプレイデバイスが位置し得る付加的領域を生成するために使用されることができる場合、そして拡張現実システムが、全ての領域が重複する領域のエリア内にある場合、拡張現実デバイスが位置する範囲を絞り込むことに役立てるために、他のセルラーデバイスからの付加的GPS情報も、使用されることができる。さらに、他のデバイスも、GPS座標と関連付けられ得る。例えば、WiFiホットスポットが、具体的エリアおよび座標にマッピングされ得、例えば、STARBUCKSにおけるホットスポットは、その特定のSTARBUCKSをマップデータを使用して決定された座標のいくつかのセットに格納する、構造内に位置すると想定され得る。加えて、あるデバイスに関するGPS情報は、最初は迅速に捕捉されるが特に正確ではない場所データ、例えば、1メートル以内までの正確な粗粒度位置情報を備え得る。しかしながら、GPSデータは、セルラーデバイスによって、より正確な場所情報、例えば、0.1メートル以内までの正確な微粒度位置情報を用いて更新されてもよい。したがって、セルラーデバイスに関するGPS位置情報は、最初は、対応するマップエリアを識別するために十分に正確ではない場合があるが、経時的に正確になり得る。さらに、GPS情報は、そのデバイスと拡張現実システムとの間のデータのピアツーピア伝送のためのシステム/コンポーネントを含む、任意のGPS対応デバイスによって提供されてもよい。いくつかの実施形態では、ヒューリスティック方法が、潜在的マップエリアを絞り込む、またはそうでなければ類似データを伴うマップエリア間で選択するために、データを前処理する等のため、上記に説明されるメタデータマッチング技法と組み合わせられ得る。
いくつかの実施形態では、拡張現実ディスプレイデバイス間の距離が、通信プロトコル等に基づいて、事前に決定されてもよい。例えば、異なる最大距離が、Bluetooth(登録商標)通信プロトコルの異なるバージョンと関連付けられ得、それらのプロトコルもまた、デフォルト最小距離(例えば、ゼロメートル)と関連付けられ得る。いくつかの実施形態では、最小および最大距離が、信号強度情報に基づいて決定され得る。例えば、WiFi通信プロトコルは、一般に、伝送のための異なる信号強度および環境内の物質による吸収率に関する異なる特性と関連付けられる。したがって、拡張現実システムにおいて収集された情報を使用して、算出が、実施され、伝送側デバイスからの距離を推定することができる。そのような情報は、常時、環境特性にかかわらず、同一方法で適用される、デフォルトまたは単純モデルを使用して分析され得る。しかしながら、いくつかの実施形態では、計算は、壁の放射率、周囲空気温度、湿度、および同等物のようなものを考慮し得る。このように、拡張現実システムは、少なくとも信号強度に基づいて、伝送側デバイスからの拡張現実システムの最小距離および最大距離を推定することができる。
いったん最良マッチングマップエリアが識別されると、拡張現実コンテンツサーバは、408Aにおいて、エリアメタデータ132、エリア領域/場所133、キーフレーム134、エリアワイヤフレーム135、仮想/物理的オブジェクトデータ136、およびユーザリストおよびデータ138に対応する任意のデータを含む、新しい/更新されたマップエリアデータをユーザ拡張現実システムに伝送することができる。さらに、種々の閾値または条件が、任意の所与のマップエリアに関するメタデータが、特定のメタデータの単一発生の結果としてだけではなく、可能性として、最小時間量にわたって、および/または最小数のユーザまたはデバイスからのいくつかの数の発生の結果として更新されるように、マップエリアメタデータを更新する際に使用されるために実装されることができる。
最後に、406Aおよび/または408Aにおけるプロセスは、コンテンツ入手310およびコンテンツ共有312に関して上記に議論されるように、識別されたマップエリアに関する並行場所ベースコンテンツプロセス410Aの開始をトリガしてもよい。
図4Bは、メタデータを集め、処理のためにそのメタデータを拡張現実コンテンツサーバに伝送しながら、同一メタデータを拡張現実システムにおいて処理することによって実行される、エリア位置特定プロセスの例証を提供する。
プロセスは、402Bから開始し、そこで、メタデータが、402Aに関して上記に議論されるように、拡張現実システムの物理的場所において集められる。しかしながら、図4Aに図示されるプロセスと対照的に、本例証は、403Bにおいて、収集されたメタデータが、拡張現実システム110に記憶されるマップエリア、例えば、エリアメタデータ132におけるローカルキャッシュ/データベース130内に記憶されるマップエリアに対応する、メタデータを含むかどうかに関する決定を含む。メタデータが、ローカルで記憶されるメタデータに対応する場合、プロセスは、405Bにおけるマップエリアのローカル決定、404Bおよび406Bにおけるマップエリアの遠隔決定に進む。そうでなければ、プロセスは、例えば、拡張現実コンテンツサーバ150におけるマップエリアの遠隔決定のみに進む。
404Bにおいて、メタデータ情報をデータサービスに伝送するステップは、本質的に、404Aに関して上記に議論されるものと同一である。同様に、406Bにおいて、対応するマップエリア場所を決定するステップは、本質的に、406Aに議論されるものと同等である。最後に、405Bにおいて、ローカルデータベース/キャッシュを使用して、対応するマップエリア場所を決定するステップもまた、本質的に、406Aと同一であるが、405Bは、拡張現実コンテンツサーバ150に記憶されるデータセットの代わりに、ローカルデータセットを使用して動作する。
407Bでは、プロセスは、マップエリアの矛盾が存在するかどうか、例えば、拡張現実ディスプレイデバイスにおいて識別されたマップエリアが、遠隔サーバにおいて識別されたマップエリアと同一ではないかどうかを決定する。これは、拡張現実ディスプレイデバイスである、拡張現実システム110、または遠隔デバイスである、拡張現実コンテンツサーバ150において実施され得る。これは、例えば、マップエリアIDを比較する、マップエリア領域/境界を比較する、マップエリア原点を比較する、一部または全部のマップエリアデータを比較する、または任意のそれらの組み合わせの任意の数の技法を使用して、実施されることができる。さらに、403Bにおいて、対応する記憶されたマップエリアが拡張現実ディスプレイデバイスに存在しないことが決定された場合、プロセスは、407Bにおける決定をスキップし、直接、408Bに進んでもよく、そこで、拡張現実ディスプレイデバイスは、408Aに関して説明されるように、新しいまたは更新されたマップエリアデータを受信する。
407Bにおける決定が、マップエリア矛盾を含む場合、プロセスは、409Bに進み、そこで、矛盾が解決される。これは、本質的に、406Aに関して上記に説明されるプロセスの限定形態であって、拡張現実ディスプレイデバイスにおいて識別されたマップエリアおよび遠隔システムにおいて識別されたマップエリアの両方が、評価され、より良好なマッチングを決定する。これは、ローカルまたは遠隔デバイスのいずれかにおいて実施されることができる。しかしながら、本例証は、遠隔デバイスが、マップデータの完全セットを含む一方、拡張現実ディスプレイデバイスが、遠隔デバイス上のものと同程度に最新ではない場合がある、マップデータの限定セットを含むため、これが遠隔デバイスで生じるであろうことを想定する。それにもかかわらず、プロセスは、拡張現実デバイスが、信頼性のある決定を実施可能である適切なデータを含む、または提供されることを前提として、拡張現実ディスプレイデバイスにおいて実施される場合もある。
最後に、プロセスは、410Bにおいて、410Aに関して上記に議論されるものに類似する並行場所ベースコンテンツプロセスを開始してもよい。
図4Cは、最初に、メタデータが記憶されたマップエリアに対応するとき、集められたメタデータを拡張現実システムにおいて処理し、続いて、識別されたマップエリアが、信頼度の所与の閾値レベルを下回るとき、メタデータを拡張現実コンテンツサーバにおいて処理することによって実行される、エリア位置特定プロセスの例証を提供する。
図4Bにおける例証と同様に、本図は、図4Aおよび4Bのものに対応する、いくつかのステップを含む。具体的には、402Cは、402Aに対応し、404Cは、404Aに対応し、406Cは、406Aに対応し、408Cは、408Aに対応し、410Cは、410Aに対応する。さらに、403Cは、403Bに類似するが、拡張現実ディスプレイデバイスが、拡張現実ディスプレイデバイスにおいて集められたメタデータのうちの少なくともいくつかにマッチングするメタデータと関連付けられた1つ以上のマップエリアを含むとき、最良マッチングするマップエリアに関するローカル決定のみが行われるということを除く。スコアが、次いで、計算され、マッチングが信頼度の十分なレベルを有すると見なされるかどうかを決定する。記憶されたマッチングメタデータが存在しないとき、または信頼度レベルが規定された閾値を下回るとき、プロセスは、404Cに進む。
403Cにおいて決定されるように、拡張現実ディスプレイデバイスにマッチングメタデータが存在するとき、プロセスは、405Cに継続し、405Bに議論されるように、ローカルデータベース/キャッシュ130を使用して、対応するマップエリアを決定する。続いて、信頼度レベルが、407Cにおいて、マップエリアに関して計算される。信頼度レベルは、任意の適切な技法、例えば、対応するマップエリアにマッチングするマップエリアと関連付けられたメタデータの量を決定する、対応するマッチングを有していないメタデータの量を算出する、異なるタイプのデータに関する加重を実装する、または任意のそれらの組み合わせを使用して、計算されてもよい。
最後に、409Cにおいて、計算された信頼度レベルが、所与の閾値を上回ると決定される場合、プロセスは、410Cに進んでもよく、そうでなければ、プロセスは、404C、406C、および408Cに進み、拡張現実コンテンツサーバにおいて、最良マッチングマップエリアを決定する。
前述は、加重および信頼度閾値を別個に図示しているが、加重および信頼度閾値および任意の他の技法が、最良マッチングマップエリアを決定するために使用されてもよい。さらに、開示される技法は、最良マッチングマップエリアがマッチングマップエリアとして使用されるために十分な類似性を有するかどうかに関する決定等、最小信頼度閾値を施行するために使用されてもよい。例えば、マップエリアが、任意のマッチングメタデータを含まないことが見出される場合、またはメタデータの一部のみが、見出されるが、そのメタデータが、複数のマップエリアにマッチングする場合、その場所は、任意の特定のマップエリアをマッチングマップエリアとして識別するために、不十分な情報を有すると見出され得る。
図5は、いくつかの実施形態による、図3に図示される、「粗粒度位置特定を実施する」ステップのための例示的プロセスフローを図示する。本プロセスは、概して、キーフレームをローカルデバイス(例えば、拡張現実ディスプレイデバイス)において捕捉するステップと、そのキーフレームと以前に捕捉されたキーフレームのセットを比較し、最近傍または最良マッチングキーフレームを決定するステップとを含む。図示されるように、プロセスは、拡張現実コンテンツサーバ上で実行される。しかしながら、ここにおけるような制限は、存在せず、ローカルデバイス(拡張現実システム110)もまた、キーフレームを処理するために使用されてもよい。2つの間の唯一の差異は、キーフレームをローカルデバイスにおいて処理することが、付加的キーフレームが利用可能である、またはキーフレームデータが最新ではないとき等、ローカルデバイスへの1つ以上のキーフレームの転送を余儀なくさせ得ることである。
プロセスは、502から開始し、そこで、キーフレームが、ローカルデバイスにおいて捕捉される。例えば、キーフレームは、拡張現実ディスプレイデバイスに取り付けられる、またはその中に統合され、デバイスセンサモジュール124を使用して制御される、装置を使用して、捕捉されてもよい。装置は、単一カメラ、立体視のための二重カメラ、360度カメラ、またはいくつかのそれらの組み合わせを含み得る。さらに、装置は、拡張現実ディスプレイデバイスに取り付けられる、またはその中に統合されるため、捕捉された画像は、ユーザのものに対して既知の/固定位置を有する。
504では、以前に識別されたマップエリアと関連付けられた1つ以上のキーフレームが、識別される。キーフレームは、マップエリアデータ131および161に図示されるようなマップエリアデータセットの一部として記憶されてもよく、これは、それぞれ、キーフレーム134および164と、それぞれ、特徴134aおよび164aとを含む。しかしながら、本開示は、そのように限定されない。キーフレームおよび特徴は、個々のキーフレームおよび関連付けられた特徴が、1つ以上の識別子を用いて、例えば、任意のデータに基づいて生成されたマップエリアID、一意の識別キーに基づいて、それらのキーフレームと関連付けられた位置/場所情報に基づいて、または任意のそれらの組み合わせで識別される、キーフレーム/特徴データベース等を介して、任意の様式で記憶されてもよい。キーフレーム134および164内の特徴134aおよび164aは、それぞれ、決定されてもよい。
506では、ローカルデバイスにおいて捕捉されたキーフレームは、504において識別された1つ以上のキーフレームと比較され、キーフレーム毎に、類似性スコアを生成する。本プロセスは、任意の適切な技法を使用して実施されてもよい。いくつかの実施形態では、キーフレーム134内の特徴134aは、キーフレーム164の特徴164aと比較される。これらの実施形態では、キーフレーム134に関する類似性スコアは、特徴134aおよび特徴164aに基づく。
最後に、508では、最良類似性スコアを伴うキーフレームが、選択され、これは、コンテンツ入手310およびコンテンツ共有312に関して上記に議論されるように、識別されたキーフレームのための並行場所ベースコンテンツプロセス510をトリガするために使用され得る。
図6は、いくつかの実施形態による、図3に図示される、「微粒度位置特定を実施する」ステップのための例示的プロセスフローを図示する。
602では、捕捉されたキーフレームが、最良マッチングキーフレームと比較される。本プロセスは、最良マッチングキーフレームに対するデバイス姿勢を決定するために、任意の適切な技法を使用して実施されてもよい。
最後に、604では、ローカルデバイスの姿勢が、マップエリア原点に対する最良マッチングキーフレームの位置およびそのキーフレームに対するローカルデバイスの相対的位置を使用して、決定されることができる。マップエリア原点に対する拡張現実デバイスの位置は、キーフレームに対する相対的姿勢およびマップエリア原点に対するキーフレーム姿勢を使用して決定されてもよい。これは、1つはマップエリア原点からキーフレームへの変換、1つはキーフレームからローカルデバイスへの変換といった2つの変換を連結することによって遂行されることができる。したがって、ローカルデバイスの姿勢が、マップエリア原点に対して決定されることができる。したがって、ローカルデバイス(例えば、拡張現実ディスプレイデバイス101)のマップエリア原点を決定するために、キーフレームに対する相対的位置が、マップエリア原点に対する相対的位置に変換されることができる。
いったんマップエリア原点に対するローカルデバイスの位置が決定されると、既知の位置に依存する、場所ベースサービスが、開始されることができる。例えば、610では、場所ベースコンテンツ入手が、ローカルデバイス位置および配向に基づいて実施されることができ、例えば、拡張現実コンテンツサーバ150から、ビュー内の1つ以上のレストランに関する予約スケジュールデータおよび予約アプリケーションをプルする。場所ベースサービスの別の実施例では、612において、場所ベースコンテンツ共有が、エリア内の別のユーザがコンテンツを共有する、例えば、仮想オブジェクトを議論またはプレゼンの一部として含む、会議に参加することの決定に基づいて開始されてもよい。
図7A−Jは、いくつかの実施形態による、未決定場所におけるユーザのための位置特定プロセスの例証的実施例を提供する。いくつかの実施形態では、拡張現実ディスプレイデバイスは、以前に拡張現実ディスプレイデバイスのビュー内またはアクセス可能領域内にあった潜在的に関連するデータの読出を促進する、またはディスプレイ仮想オブジェクトを表示するために、現在の場所が最後の既知の場所であると想定し得る。拡張現実システムを同様に使用する、他のユーザとの共有体験を有効にするために、場所および具体的位置付け情報の確認または決定のいずれかが行われなければならない。それにもかかわらず、本実施例は、デフォルト位置/場所情報を想定しない場合もある。
図7Aは、拡張現実システム110によって決定されていない/識別されていないユーザ場所702における、ユーザによって装着される拡張現実ディスプレイデバイス701(例えば、拡張現実ディスプレイデバイス101)を図示する。場所は、任意の数の理由、例えば、拡張現実ディスプレイデバイス701が、ブートアップ/リブートされたばかりである、センサデータが、破損している、無線信号が喪失されている場合がある等に起因して、決定されていない/識別されていない場合がある。したがって、拡張現実ディスプレイデバイス701が位置特定を実施する必要性をトリガする。
図7Bは、ユーザ場所702に対する2つの異なる通信プロトコルの相対的範囲を図示する。2つのうちの短い方である第1の範囲は、Bluetooth(登録商標)信号範囲720である。2つのうちの長い方である第2の範囲は、WiFi信号範囲710である。
図7Cは、拡張現実ディスプレイデバイス701によって識別可能である場合とそうではない場合がある、種々のWiFiネットワークの追加を図示する。図示されるように、WiFi信号範囲710(ここでは、710c−d、710f−m、710o−r、および710t)内のWiFi信号は、拡張現実ディスプレイデバイス701によって検出され得る一方、710a−b、710e、710nおよび710sは、拡張現実ディスプレイデバイス701から遠すぎて検出されることができない。したがって、拡張現実ディスプレイデバイス701は、正しいマップエリア場所を決定する際に使用するためのこれらのWiFiネットワークに対応するメタデータを収集してもよい。
図7Dは、ユーザ場所702に対して近接して位置する、種々のBluetooth(登録商標)ネットワークの追加を図示する。先に議論されたWiFiネットワーク化と同様に、メタデータは、検出範囲720内のネットワーク/デバイスに関して集められてもよい。ここでは、これは、720h、720l、および720mを含むが、720a−g、720i−k、および720n−sは、検出不可能である。
図7Eは、マップエリアのセットのオーバーレイを図示する。マップエリア705(X0、Y0)−705(X3、Y3)は、X軸704およびY軸703上のその位置によってここで識別された正方形領域のセットとして図示される。これらのマップエリアは、収集されたメタデータと、個別のマップエリア、例えば、1つ以上の識別されたWiFiネットワークおよびBluetooth(登録商標)デバイスと関連付けられることが既知であるマップエリアと関連付けられた場所内に以前に記憶されたメタデータをマッチングさせることによって識別されてもよい。しかしながら、領域は、任意の形状を有してもよく、前述のような任意の方法において識別されてもよく、単に、例証を容易にするために、このように示されている。さらに、マップエリアに対する拡張現実ディスプレイデバイス701の場所は、プロセスのこの部分の間、拡張現実システム(例えば、拡張現実システム110)または拡張現実コンテンツサーバ(例えば、拡張現実コンテンツサーバ150)によって、把握されない可能性もあるが、しかしながら、連続性の目的のために、ユーザ場所およびマップエリアは、その実際の位置に示される。
図7Fは、マップエリアに最良マッチングする、マップエリアの決定を図示する。これは、上記に議論されるように実施されることができ、拡張現実システムにおいて収集されたメタデータは、既知の場所において収集された以前に記憶されたメタデータと比較され、最良マッチングマップエリアを識別してもよい。例えば、収集されたメタデータとの最良マッチングメタデータを含む、マップエリアは、デバイスが位置するマップエリアとして選択されることができる。ここでは、マップエリア705(X2、Y1)が、最良マッチングマップエリアとして識別されている。
図7Gは、最良マッチングマップエリア内からの既知の場所において得られたキーフレームのセットを図示する。キーフレーム706a−eは、ここに図示されるように、マップエリア705(X2、Y1)を横断してランダムに分散されてもよい。しかしながら、ユーザが捕捉のための所望の場所またはその近傍に存在するときはいつも、または設定プロセスを通して、キーフレームの捕捉をトリガする等、他の技法も、キーフレームを収集するために使用されてもよい。キーフレーム自体は、前述のように処理され、最良マッチングまたは最近傍キーフレームを決定する。
図7Hは、捕捉されたキーフレームに対する最良マッチングキーフレームの選択を図示する。具体的には、キーフレーム706aは、ユーザデバイスにおいて捕捉されたキーフレームに最も類似すると決定される。続いて、拡張現実ディスプレイデバイス701の相対的位置が、キーフレームに対して決定されてもよく、最後に、拡張現実ディスプレイデバイス701の相対的位置は、図7Iに図示されるマップエリア原点707に対して変換されることができる。
最後に、図7Jは、拡張現実ディスプレイデバイス701の場所の決定に応答してマップエリア原点707に対して表示される、例示的仮想オブジェクト708を図示する。本仮想オブジェクト708は、全てのユーザに対して同一位置および配向に表示され、したがって、共有体験を促進するであろう。したがって、1人のユーザが、仮想標識に向かって指差し得、別のユーザが、その方向を自然に見て、ユーザが仮想標識を指差していることを確認可能であり得る、または代替として、ユーザが、すでに標識を見ており、ユーザが指差している対象を理解し得る。
図8A−Dは、いくつかの実施形態による、未決定場所における、ユーザのためのエリア位置特定プロセスの例証的実施例を提供する。例証は、図7A−Jに図示されるプロセスの代替として、またはそれと組み合わせて、別個に実施され得る、アプローチを提供する。具体的には、図8A−Dは、拡張現実ディスプレイデバイスが位置する、マップエリアを決定する場所ベースヒューリスティック方法を図示する。
図8Aは、X軸804およびY軸803上のその位置によってここで識別された正方形領域のセットとして図示される、マップエリア805(X0、Y0)−805(X3、Y3)を含む。これらは、本質的に、マップエリア705(X0、Y0)−705(X3、Y3)およびX軸704およびY軸703に関する前の例証と同等である。同様に、拡張現実ディスプレイデバイス801は、拡張現実ディスプレイデバイス701と同等であって、ユーザ場所802は、ユーザ場所702と同等である。
図8Bは、既知の境界内で生じる無線信号の追加を図示する。具体的には、カフェ810は、既知の境界を伴う既知の場所を表し、そこから、信号が生じる。少なくとも信号と関連付けられたメタデータに基づいて、カフェ810の境界からの最小および最大距離が、識別される。最小距離は、丸角811を伴う長方形要素として図示される一方、最大距離は、丸角812を伴う長方形要素として図示される。そのような信号は、WiFiホットスポット、WiMAXアクセスポイント、または任意の他の適切な無線通信プロトコルを含み得る。
811と812との間の空間によって表される領域は、拡張現実ディスプレイデバイス801が位置し得る、可能性として考えられる場所を表す。図示されるように、これは、6つのマップエリア−(X1、Y0)、(X2、Y0)、(X3、Y0)、(X1、Y1)、(X2、Y1)、および(X3、Y1)を含むが、6つのうちのいずれも、付加的情報を伴わずに、マッチングマップエリアとして確実に識別されることができない。いくつかの実施形態では、収集されたメタデータが6つのマップエリアのうちの正しいエリアを決定するために使用される、上記に議論される処理されたメタデータマッチングに基づいて、付加的情報が、収集され得る。
図8Cは、デバイス820の結果として生成された新しい場所データの追加を図示する。デバイス820は、GPSマッピングデバイス、セルラーデバイス、GPSまたは補助GPSを伴うセルラーデバイス、またはGPSデータを拡張現実システム(例えば、拡張現実システム110)と交換し得る、無線通信プロトコルを伴う任意の他のデバイスを含み得る。デバイス820と関連付けられるのは、最小距離821および最大距離822であって、両方とも、拡張現実システムが位置し得る、円形境界として図示される。それ自体では、デバイス820との通信の結果として収集された情報は、拡張現実ディスプレイデバイス801が、821および822によって境界されるエリアによって示されるように、4つのマップエリア−(X2、Y1)、(X3、Y1)、(X2、Y2)、および(X3、Y2)のうちの1つに位置することを示唆するであろう。しかしながら、本情報は、拡張現実システムが、811および812によって境界されるエリアが821および822によって境界されるエリアと重複する、重複850の領域に位置するはずであることを示す、すでに収集された他の情報と組み合わせられることができる。本情報に基づいて、拡張現実システムがマップエリア(X2、Y1)またはマップエリア(X3、Y1)のいずれかに位置することが決定されることができる。いくつかの実施形態では、本情報は、上記に議論されるメタデータマッチングプロセスを介して、付加的メタデータと組み合わせられ、2つのマップエリアのうちの正しいマップエリアを決定し得る。
図8Dは、測定された点からの最小および最大距離を識別するために使用され得る情報を提供する、別のデバイスを図示する。ここでは、デバイス830は、識別されており、その測定された場所からの最小距離831およびその測定された場所からの最大距離832を決定するために使用される場所情報を提供されている。したがって、本付加的情報を重複850の領域の決定に追加することによって、重複850の領域は、全ての境界が包含するエリアに絞り込まれることができ、これは、拡張現実システムがマップエリア(X2、Y1)内に位置することを示す。
さらに、図8A−Dに図示される実施例は、場所ベースヒューリスティックデータ処理を利用したが、図7A−Jのメタデータマッチングプロセスに図示されるような付加的データも、正しいマップエリアを決定することを補助するために使用されてもよい。例えば、場所ベースヒューリスティック情報は、不完全であり得る、または場所データの1つ以上のセット(例えば、拡張現実システムが位置する領域)が収集された後、収集されたメタデータが、拡張現実システムが位置する正しいマップエリアを決定するために不十分であり得る。さらに、収集された任意のデータは、正しいマップエリアを決定するために十分な情報の任意の組み合わせが受信されるとすぐにプロセスが完了され得、粗粒度および微粒度位置特定プロセスが完了され得るように、受信されるにつれてデータを分析することを含め、任意の順序で分析されてもよい。
(システムアーキテクチャ)
図9は、本開示が実装され得る、例示的コンピューティングシステムのアーキテクチャを示す。
例えば、拡張現実コンテンツサーバ150は、図9に図示されるコンピュータシステム900の1つ以上の類似システムを含む、または備え、任意の数の拡張現実システムからのサービス要求にともにリンクされてもよい。さらに、拡張現実システム110はまた、コンピュータシステム900のようなコンピュータシステムに対応してもよい。加えて、拡張現実コンテンツサーバ150および拡張現実システム110のモジュールは、コンピュータシステム900の一部として、ハードウェア、ソフトウェア、またはいくつかのそれらの組み合わせのいずれかとして実装されてもよい。
コンピュータシステム900は、情報を通信するためのバス906または他の通信機構を含み、これは、プロセッサ907、システムメモリ908(例えば、RAM)、静的記憶デバイス909(例えば、ROM)、ディスクドライブ910(例えば、磁気または光学)、データインターフェース933(例えば、データベース接続)、通信インターフェース914(例えば、モデムまたはEthernet(登録商標)カード)、ディスプレイ911(例えば、CRTまたはLCD)、入力デバイス912(例えば、キーボードおよびカーソル制御)等のサブシステムおよびデバイスを相互接続する。
本開示の一実施形態によると、コンピュータシステム900は、プロセッサ907がシステムメモリ908内に含有される1つ以上の命令の1つ以上のシーケンスを実行することによって、具体的動作を実施する。そのような命令は、システムメモリ908の中に、静的記憶デバイス909またはディスクドライブ910等の別のコンピュータ可読/使用可能媒体から読み取られてもよい。代替実施形態では、有線回路が、ソフトウェア命令の代わりに、またはそれと組み合わせて使用され、本開示を実装してもよい。したがって、本開示の実施形態は、ハードウェア回路および/またはソフトウェアの任意の具体的組み合わせに限定されない。一実施形態では、用語「論理」は、本開示の全部または一部を実装するために使用される、ソフトウェアまたはハードウェアの任意の組み合わせを意味するものとする。
用語「コンピュータ可読媒体」または「コンピュータ使用可能媒体」は、本明細書で使用されるように、実行のために命令をプロセッサ907に提供することに関わる、任意の媒体を指す。そのような媒体は、限定ではないが、不揮発性メディアおよび揮発性メディアを含む、多くの形態をとってもよい。不揮発性メディアは、例えば、ディスクドライブ910等の光学または磁気ディスクを含む。揮発性メディアは、システムメモリ908等の動的メモリを含む。
一般的形態のコンピュータ可読媒体は、例えば、フロッピー(登録商標)ディスク、フレキシブルディスク、ハードディスク、磁気テープ、任意の他の磁気媒体、CD−ROM、任意の他の光学媒体、パンチカード、紙テープ、孔のパターンを伴う任意の他の物理的媒体、RAM、PROM、EPROM、FLASH−EPROM(例えば、NANDフラッシュ、NORフラッシュ)、任意の他のメモリチップまたはカートリッジ、または任意の他の媒体を含み、そこから、コンピュータが、読み取られることができる。
いくつかの実施形態では、本開示を実践するための命令のシーケンスの実行は、単一コンピュータシステム900によって実施される。いくつかの実施形態では、通信リンク915(例えば、LAN、PTSN、または無線ネットワーク)によって結合される、2つ以上のコンピュータシステム900は、相互に協調して本開示を実践するために要求される、命令のシーケンスを実施してもよい。
コンピュータシステム900は、通信リンク915および通信インターフェース914を通して、プログラム、すなわち、アプリケーションコードを含む、メッセージ、データ、および命令を伝送および受信してもよい。受信されたプログラムコードは、受信されるにつれて、プロセッサ907によって実行される、および/または後の実行のために、ディスクドライブ910または他の不揮発性記憶装置内に記憶されてもよい。記憶媒体931内のデータベース932は、データインターフェース933を介して、システム900によってアクセス可能なデータを記憶するために使用されてもよい。
請求される発明に加え、非限定的実施例として、本発明のさらなる実施形態または側面が、本明細書に説明される。
1.非一過性コンピュータ可読媒体内に具現化される、コンピュータプログラム製品であって、コンピュータ可読媒体は、その上に記憶される命令のシーケンスを有し、これは、プロセッサによって実行されると、プロセッサに、拡張現実ディスプレイデバイスの位置および配向情報を決定するためのプロセスを実行させ、プロセスは、拡張現実ディスプレイデバイスの現在の場所と関連付けられたマップエリアを識別することと、マップエリアと関連付けられたマッチングキーフレームを識別することと、共有マップエリア原点に対する拡張現実ディスプレイデバイスに関する姿勢を決定することとを含む、コンピュータプログラム製品。
2.現在の場所と関連付けられたマップエリアを識別することは、メタデータを受信することであって、メタデータは、拡張現実ディスプレイデバイスの現在の場所において収集される、ことと、メタデータを分析し、マップエリアを決定することであって、メタデータは、1つ以上の通信ネットワークに関する情報に対応する、こととを含む、実施形態1に記載のコンピュータプログラム製品。
3.マップエリアと関連付けられたマッチングキーフレームを識別することは、第1の複数のキーフレームを受信することと、第1の複数のキーフレームのキーフレームを捕捉することと、捕捉されたキーフレームとマップエリアと関連付けられた第2の複数のキーフレームを比較することであって、第2の複数のキーフレームは、既知の姿勢を有する、以前に捕捉されたキーフレームを備え、既知の姿勢は、少なくとも、個別のキーフレームに関する位置および配向を表す情報を備える、ことと、捕捉されたキーフレームを第2の複数のキーフレームに対して分析することによって、第2の複数のキーフレームのうちの少なくともいくつかに関する類似性スコアを決定することと、少なくとも類似性スコアに基づいて、第2の複数のキーフレームのキーフレームをマッチングキーフレームとして選択することとを含む、実施形態1に記載のコンピュータプログラム製品。
4.共有マップエリア原点に対する拡張現実ディスプレイデバイスに関する姿勢を決定することは、キーフレーム分析を実施することによって、捕捉されたキーフレームおよびマッチングキーフレームを使用して、マッチングキーフレームに対する姿勢を決定することと、少なくともマッチングキーフレームに対する姿勢を使用して、マッチングキーフレームに対する姿勢を共有マップエリア原点に対する姿勢に変換することとを含む、実施形態3に記載のコンピュータプログラム製品。
5.マップエリアと関連付けられたマッチングキーフレームを識別することはさらに、捕捉されたキーフレームの特徴を決定することを含み、捕捉されたキーフレームとマップエリアと関連付けられた第2の複数のキーフレームを比較することは、捕捉されたキーフレームの特徴と第2の複数のキーフレームの特徴を比較することを含み、第2の複数のキーフレームのうちの少なくともいくつかに関する類似性スコアを決定することは、第2の複数のキーフレームの特徴に対して捕捉されたキーフレームの特徴を分析することを含む、実施形態3に記載の方法。
6.プロセスはさらに、マップエリアを識別すること、マッチングキーフレームを識別すること、または姿勢を決定することのうちの少なくとも1つに応答して、場所ベースコンテンツを伝送することを含み、場所ベースコンテンツは、マップエリア、マッチングキーフレーム、または姿勢のうちの少なくとも1つと関連付けられた1つ以上のオブジェクトまたは1つ以上のアプリケーションに関するデータに対応する、実施形態1に記載のコンピュータプログラム製品。
7.プロセスはさらに、マップエリアを識別すること、マッチングキーフレームを識別すること、または姿勢を決定することのうちの少なくとも1つに応答して、コンテンツ共有を実施するためのユーザデータを伝送することを含み、コンテンツ共有は、ローカル通信ネットワークを経由したデバイス間のコンテンツの一方向または双方向交換を備える、実施形態1に記載のコンピュータプログラム製品。
8.プロセスはさらに、マップエリアを識別することに応答して、マップエリアデータを伝送することを含む、実施形態1に記載のコンピュータプログラム製品。
9.拡張現実ディスプレイデバイスの位置および配向情報を決定するためのシステムであって、データおよび命令を記憶するためのメモリと、拡張現実ディスプレイデバイスの現在の場所と関連付けられたマップエリアを識別することと、マップエリアと関連付けられたマッチングキーフレームを識別することと、共有マップエリア原点に対する拡張現実ディスプレイデバイスに関する姿勢を決定することとを含む、アクションを有効にするための命令を実行する、プロセッサとを備える、システム。
10.現在の場所と関連付けられたマップエリアを識別することは、メタデータを受信することであって、メタデータは、拡張現実ディスプレイデバイスの現在の場所において収集される、ことと、メタデータを分析し、マップエリアを決定することであって、メタデータは、1つ以上の通信ネットワークに関する情報に対応する、こととを含む、実施形態9に記載のシステム。
11.マップエリアと関連付けられたマッチングキーフレームを識別することは、第1の複数のキーフレームを受信することと、第1の複数のキーフレームのキーフレームを捕捉することと、捕捉されたキーフレームとマップエリアと関連付けられた第2の複数のキーフレームを比較することであって、第2の複数のキーフレームは、既知の姿勢を有する、以前に捕捉されたキーフレームを備え、既知の姿勢は、少なくとも、個別のキーフレームに関する位置および配向を表す情報を備える、ことと、捕捉されたキーフレームを第2の複数のキーフレームに対して分析することによって、第2の複数のキーフレームのうちの少なくともいくつかに関する類似性スコアを決定することと、少なくとも類似性スコアに基づいて、第2の複数のキーフレームのキーフレームをマッチングキーフレームとして選択することとを含む、実施形態9に記載のシステム。
12.共有マップエリア原点に対する拡張現実ディスプレイデバイスに関する姿勢を決定することは、キーフレーム分析を実施することによって、捕捉されたキーフレームおよびマッチングキーフレームを使用して、マッチングキーフレームに対する姿勢を決定することと、少なくともマッチングキーフレームに対する姿勢を使用して、マッチングキーフレームに対する姿勢を共有マップエリア原点に対する姿勢に変換することとを含む、実施形態11に記載のシステム。
13.マップエリアと関連付けられたマッチングキーフレームを識別することはさらに、捕捉されたキーフレームの特徴を決定することを含み、捕捉されたキーフレームとマップエリアと関連付けられた第2の複数のキーフレームを比較することは、捕捉されたキーフレームの特徴と第2の複数のキーフレームの特徴を比較することを含み、第2の複数のキーフレームのうちの少なくともいくつかに関する類似性スコアを決定することは、第2の複数のキーフレームの特徴に対して捕捉されたキーフレームの特徴を分析することを含む、実施形態11に記載の方法。
14.アクションはさらに、マップエリアを識別すること、マッチングキーフレームを識別すること、または姿勢を決定することのうちの少なくとも1つに応答して、場所ベースコンテンツを伝送することを含み、場所ベースコンテンツは、マップエリア、マッチングキーフレーム、または姿勢のうちの少なくとも1つと関連付けられた1つ以上のオブジェクトまたは1つ以上のアプリケーションに関するデータに対応する、実施形態9に記載のシステム。
15.アクションはさらに、マップエリアを識別すること、マッチングキーフレームを識別すること、または姿勢を決定することのうちの少なくとも1つに応答して、コンテンツ共有を実施するためのユーザデータを伝送することを含み、コンテンツ共有は、ローカル通信ネットワークを経由したデバイス間のコンテンツの一方向または双方向交換を備える、実施形態9に記載のシステム。
16.アクションはさらに、マップエリアを識別することに応答して、マップエリアデータを伝送することを含む、実施形態9に記載のシステム。
17.非一過性コンピュータ可読媒体内に具現化されるコンピュータプログラム製品であって、コンピュータ可読媒体は、その上に記憶される命令のシーケンスを有し、これは、プロセッサによって実行されると、プロセッサに、拡張現実ディスプレイデバイスの位置および配向情報を決定するためのプロセスを実行させ、プロセスは、拡張現実ディスプレイデバイスの現在の場所と関連付けられたマップエリアを識別することであって、マップエリアは、1つ以上のデバイスから受信された場所情報を使用して、少なくともヒューリスティック処理を実施することによって、識別される、ことと、マップエリアと関連付けられたマッチングキーフレームを識別することと、共有マップエリア原点に対する拡張現実ディスプレイデバイスに関する姿勢を決定することとを含む、コンピュータプログラム製品。
18.場所情報を使用して、ヒューリスティック処理を実施することは、1つ以上のデバイスの位置に対応する場所データを識別することであって、場所データは、1つ以上のデバイスと関連付けられた全地球測位システムによって生成され、場所データは、個別のピアツーピア通信プロトコルを使用して、拡張現実ディスプレイデバイスと1つ以上のデバイスの個別のデバイスとの間で無線で伝送される、ことと、1つ以上のデバイスのうちの少なくとも1つからの場所データに対する正確度のレベルを決定することと、拡張現実ディスプレイデバイスと1つ以上のデバイスのうちの少なくとも1つとの間の最小距離および最大距離を推定することと、1つ以上のデバイスのうちの少なくとも1つに関する正確度のレベル、最小距離、および最大距離を使用して、拡張現実ディスプレイデバイスが位置する、少なくとも1つの推定された領域を決定することとを含む、実施形態17に記載のコンピュータプログラム製品。
19.最小距離は、個別のピアツーピア通信プロトコルの少なくとも1つのピアツーピア通信プロトコルに関して事前に決定される、実施形態18に記載のコンピュータプログラム製品。
20.最大距離は、個別のピアツーピア通信プロトコルの少なくとも1つのピアツーピア通信プロトコルに関して事前に決定される、実施形態18に記載のコンピュータプログラム製品。
21.最小距離は、少なくとも、個別のピアツーピア通信プロトコルの少なくとも1つのピアツーピア通信プロトコルに関する信号強度情報に基づいて決定される、実施形態18に記載のコンピュータプログラム製品。
22.最大距離は、少なくとも、個別のピアツーピア通信プロトコルの少なくとも1つのピアツーピア通信プロトコルに関する信号強度情報に基づいて決定される、実施形態18に記載のコンピュータプログラム製品。
23.少なくとも1つの推定された領域は、単一マップエリアに対応する、実施形態18に記載のコンピュータプログラム製品。
24.複数の推定された領域は、推定された領域の重複を決定するように処理される、実施形態18に記載のコンピュータプログラム製品。
25.推定された領域の重複は、単一マップエリアに対応しない、実施形態24に記載のコンピュータプログラム製品。
26.現在の場所と関連付けられたマップエリアを識別することはさらに、メタデータを受信することであって、メタデータは、拡張現実ディスプレイデバイスの現在の場所において収集される、ことと、メタデータを分析し、マップエリアを決定することであって、メタデータは、1つ以上の通信ネットワークに関する情報に対応する、こととを含む、実施形態18に記載のコンピュータプログラム製品。
27.マップエリアと関連付けられたマッチングキーフレームを識別することは、第1の複数のキーフレームを受信することと、第1の複数のキーフレームのキーフレームを捕捉することと、捕捉されたキーフレームとマップエリアと関連付けられた第2の複数のキーフレームを比較することであって、第2の複数のキーフレームは、既知の姿勢を有する、以前に捕捉されたキーフレームを備え、姿勢は、少なくとも、個別のキーフレームに関する位置および配向を表す情報を備える、ことと、捕捉されたキーフレームを第2の複数のキーフレームに対して分析することによって、第2の複数のキーフレームのうちの少なくともいくつかに関する類似性スコアを決定することと、少なくとも類似性スコアに基づいて、第2の複数のキーフレームのキーフレームをマッチングキーフレームとして選択することとを含む、実施形態17に記載のコンピュータプログラム製品。
28.共有マップエリア原点に対する拡張現実ディスプレイデバイスに関する姿勢を決定することは、キーフレーム分析を実施することによって、捕捉されたキーフレームおよびマッチングキーフレームを使用して、マッチングキーフレームに対する姿勢を決定することと、少なくともマッチングキーフレームに対応する姿勢を使用して、マッチングキーフレームに対する姿勢を共有マップエリア原点に対する姿勢に変換することとを含む、実施形態27に記載のコンピュータプログラム製品。
29.マップエリアと関連付けられたマッチングキーフレームを識別することはさらに、捕捉されたキーフレームの特徴を決定することを含み、捕捉されたキーフレームとマップエリアと関連付けられた第2の複数のキーフレームを比較することは、捕捉されたキーフレームの特徴と第2の複数のキーフレームの特徴を比較することを含み、第2の複数のキーフレームのうちの少なくともいくつかに関する類似性スコアを決定することは、第2の複数のキーフレームの特徴に対して捕捉されたキーフレームの特徴を分析することを含む、実施形態27に記載の方法。
30.プロセスはさらに、マップエリアを識別すること、マッチングキーフレームを識別すること、または姿勢を決定することのうちの少なくとも1つに応答して、場所ベースコンテンツを伝送することを含み、場所ベースコンテンツは、マップエリア、マッチングキーフレーム、または姿勢のうちの少なくとも1つと関連付けられた1つ以上のオブジェクトまたは1つ以上のアプリケーションに関するデータに対応する、実施形態17に記載のコンピュータプログラム製品。
31.プロセスはさらに、マップエリアを識別すること、マッチングキーフレームを識別すること、または姿勢を決定することのうちの少なくとも1つに応答して、コンテンツ共有を実施するためのユーザデータを伝送することを含み、コンテンツ共有は、ローカル通信ネットワークを経由したデバイス間のコンテンツの一方向または双方向交換を備える、実施形態17に記載のコンピュータプログラム製品。
32.プロセスはさらに、マップエリアを決定することに応答して、マップエリアデータを伝送することを含む、実施形態17に記載のコンピュータプログラム製品。
33.拡張現実ディスプレイデバイスの位置および配向情報を決定するためのシステムであって、データおよび命令を記憶するためのメモリと、拡張現実ディスプレイデバイスの現在の場所と関連付けられたマップエリアを識別することであって、マップエリアは、1つ以上のデバイスから受信された場所情報を使用して、少なくともヒューリスティック処理を実施することによって、識別される、ことと、マップエリアと関連付けられたマッチングキーフレームを識別することと、共有マップエリア原点に対する拡張現実ディスプレイデバイスに関する姿勢を決定することとを含む、アクションを有効にするための命令を実行する、プロセッサとを備える、システム。
34.場所情報を使用して、ヒューリスティック処理を実施することは、1つ以上のデバイスの位置に対応する場所データを識別することであって、場所データは、1つ以上のデバイスと関連付けられた全地球測位システムによって生成され、場所データは、個別のピアツーピア通信プロトコルを使用して、拡張現実ディスプレイデバイスと1つ以上のデバイスの個別のデバイスとの間で無線で伝送される、ことと、1つ以上のデバイスのうちの少なくとも1つからの場所データに対する正確度のレベルを決定することと、拡張現実ディスプレイデバイスと1つ以上のデバイスのうちの少なくとも1つとの間の最小距離および最大距離を推定することと、1つ以上のデバイスのうちの少なくとも1つに関する正確度のレベル、最小距離、および最大距離を使用して、拡張現実ディスプレイデバイスが位置する、少なくとも1つの推定された領域を決定することとを含む、実施形態33に記載のシステム。
35.最小距離は、個別のピアツーピア通信プロトコルの少なくとも1つのピアツーピア通信プロトコルに関して事前に決定される、実施形態34に記載のシステム。
36.最大距離は、個別のピアツーピア通信プロトコルの少なくとも1つのピアツーピア通信プロトコルに関して事前に決定される、実施形態34に記載のシステム。
37.最小距離は、少なくとも、個別のピアツーピア通信プロトコルの少なくとも1つのピアツーピア通信プロトコルに関する信号強度情報に基づいて決定される、実施形態34に記載のシステム。
38.最大距離は、少なくとも、個別のピアツーピア通信プロトコルの少なくとも1つのピアツーピア通信プロトコルに関する信号強度情報に基づいて決定される、実施形態34に記載のシステム。
39.少なくとも1つの推定された領域は、単一マップエリアに対応する、実施形態34に記載のシステム。
40.複数の推定された領域は、推定された領域の重複を決定するように処理される、実施形態34に記載のシステム。
41.推定された領域の重複は、単一マップエリアに対応しない、実施形態40に記載のシステム。
42.現在の場所と関連付けられたマップエリアを識別することはさらに、メタデータを受信することであって、メタデータは、拡張現実ディスプレイデバイスの現在の場所において収集される、ことと、メタデータを分析し、マップエリアを決定することであって、メタデータは、1つ以上の通信ネットワークに関する情報に対応する、こととを含む、実施形態41に記載のシステム。
43.マップエリアと関連付けられたマッチングキーフレームを識別することは、第1の複数のキーフレームを受信することと、第1の複数のキーフレームのキーフレームを捕捉することと、捕捉されたキーフレームとマップエリアと関連付けられた第2の複数のキーフレームを比較することであって、第2の複数のキーフレームは、既知の姿勢を有する、以前に捕捉されたキーフレームを備え、姿勢は、少なくとも、個別のキーフレームに関する位置および配向を表す情報を備える、ことと、捕捉されたキーフレームを第2の複数のキーフレームに対して分析することによって、第2の複数のキーフレームのうちの少なくともいくつかに関する類似性スコアを決定することと、少なくとも類似性スコアに基づいて、第2の複数のキーフレームのキーフレームをマッチングキーフレームとして選択することとを含む、実施形態34に記載のシステム。
44.共有マップエリア原点に対する拡張現実ディスプレイデバイスに関する姿勢を決定することは、キーフレーム分析を実施することによって、捕捉されたキーフレームおよびマッチングキーフレームを使用して、マッチングキーフレームに対する姿勢を決定することと、少なくともマッチングキーフレームに対応する姿勢を使用して、マッチングキーフレームに対する姿勢を共有マップエリア原点に対する姿勢に変換することとを含む、実施形態43に記載のシステム。
45.マップエリアと関連付けられたマッチングキーフレームを識別することはさらに、捕捉されたキーフレームの特徴を決定することを含み、捕捉されたキーフレームとマップエリアと関連付けられた第2の複数のキーフレームを比較することは、捕捉されたキーフレームの特徴と第2の複数のキーフレームの特徴を比較することを含み、第2の複数のキーフレームのうちの少なくともいくつかに関する類似性スコアを決定することは、第2の複数のキーフレームの特徴に対して捕捉されたキーフレームの特徴を分析することを含む、実施形態43に記載の方法。
46.アクションはさらに、マップエリアを識別すること、マッチングキーフレームを識別すること、または姿勢を決定することのうちの少なくとも1つに応答して、場所ベースコンテンツを伝送することを含み、場所ベースコンテンツは、マップエリア、マッチングキーフレーム、または姿勢のうちの少なくとも1つと関連付けられた1つ以上のオブジェクトまたは1つ以上のアプリケーションに関するデータに対応する、実施形態33に記載のシステム。
47.アクションはさらに、マップエリアを識別すること、マッチングキーフレームを識別すること、または姿勢を決定することのうちの少なくとも1つに応答して、コンテンツ共有を実施するためのユーザデータを伝送することを含み、コンテンツ共有は、ローカル通信ネットワークを経由したデバイス間のコンテンツの一方向または双方向交換を備える、実施形態33に記載のシステム。
48.アクションはさらに、マップエリアを決定することに応答して、マップエリアデータを伝送することを含む、実施形態33に記載のシステム。
前述の明細書では、本開示は、その具体的実施形態を参照して説明された。しかしながら、種々の修正および変更が、本開示のより広義の精神および範囲から逸脱することなく、そこに行われてもよいことが明白であろう。例えば、前述のプロセスフローは、プロセスアクションの特定の順序を参照して説明される。しかしながら、説明されるプロセスアクションの多くの順序は、本開示の範囲または動作に影響を及ぼすことなく、変更されてもよい。明細書および図面は、故に、限定的意味ではなく、例証と見なされるべきである。

Claims (18)

  1. 拡張現実ディスプレイデバイスの位置および配向情報を決定するための方法であって、
    前記拡張現実ディスプレイデバイスが、前記拡張現実ディスプレイデバイスの現在の場所と関連付けられたマップエリアを識別することと、
    前記拡張現実ディスプレイデバイスが、前記マップエリアと関連付けられた前記現在の場所が前記拡張現実ディスプレイデバイスに対する決定されたかまたは識別されたエリアであるかに少なくとも部分的に基づいて前記拡張現実ディスプレイデバイスを位置特定するための複数の位置特定モジュールの実行順序を決定することと、
    前記マップエリアと関連付けられた前記現在の場所が、決定されていないかまたは識別されていないエリアを含むことを決定したことに応答して、前記拡張現実ディスプレイデバイスが、前記拡張現実ディスプレイデバイスに関する前記決定されていないかまたは識別されていないエリアを認識するために使用されるマッチングキーフレームを決定することであって、前記マッチングキーフレームを決定することは、
    前記拡張現実ディスプレイデバイスによって捕捉されたキーフレームと前記マップエリアと関連付けられた複数の既知のキーフレームを比較する第1の位置特定モジュールの第1の実行をトリガすること、および、
    前記複数の既知のキーフレームの各々に関して決定されたそれぞれの類似性スコアに少なくとも部分的に基づいて、前記マッチングキーフレームとして前記複数の既知のキーフレームから既知のキーフレームを選択すること
    を含む、ことと、
    前記マッチングキーフレームが決定された後に、前記拡張現実ディスプレイデバイスが、少なくとも、第1のマッチングキーフレームを決定する第2の位置特定モジュールの第2の実行をトリガすることによって、前記拡張現実ディスプレイデバイスに関する姿勢を決定することであって、前記第2の実行は、
    前記拡張現実ディスプレイデバイスによって捕捉された前記キーフレーム内の1つ以上の特徴を決定すること、
    前記キーフレーム内の前記1つ以上の特徴と前記複数の既知のキーフレームのうちの少なくとも1つのキーフレーム内の1つ以上の対応する特徴を比較すること、および、
    前記1つ以上の特徴を比較することの結果に少なくとも部分的に基づいて、前記複数の既知のキーフレームから第1のキーフレームを決定すること
    を含む、ことと
    を含む、方法。
  2. 前記現在の場所と関連付けられた前記マップエリアを識別することは、
    メタデータを受信することであって、前記メタデータは、前記拡張現実ディスプレイデバイスの前記現在の場所において収集される、ことと、
    前記メタデータを分析し、前記マップエリアを決定することであって、前記メタデータは、1つ以上の通信ネットワークに関する情報に対応する、ことと
    を含む、請求項1に記載の方法。
  3. 前記共有マップエリア原点に対する前記拡張現実ディスプレイデバイスに関する姿勢を決定することは、
    キーフレーム分析を実施することによって、前記受信されたキーフレームおよび前記マッチングキーフレームを使用して、前記マッチングキーフレームに対する姿勢を決定することと、
    少なくとも前記マッチングキーフレームに対する前記姿勢を使用して、前記マッチングキーフレームに対する前記姿勢を前記共有マップエリア原点に対する姿勢に変換することと
    を含む、請求項1に記載の方法。
  4. 使用して前記マッチングキーフレームに対する前記姿勢を前記共有マップエリア原点に対する姿勢に変換することは、前記マッチングキーフレームに対する前記姿勢に対して第1および第2の変換を実施することを含み、前記第1の変換は、前記共有マップエリア原点から前記マッチングキーフレームへの変換であり、前記第2の変換は、前記マッチングキーフレームから前記受信されたキーフレームへの変換である、請求項3に記載の方法。
  5. 前記マップエリアと関連付けられた前記マッチングキーフレームを識別することはさらに、
    前記受信されたキーフレームの特徴を決定することを含み、
    前記受信されたキーフレームと前記マップエリアと関連付けられた前記複数の既知のキーフレームを比較することは、前記受信されたキーフレームの特徴と前記複数の既知のキーフレームの特徴を比較することを含み、
    前記複数の既知のキーフレームのうちの少なくともいくつかに関する類似性スコアを決定することは、前記複数の既知のキーフレームの特徴に対して前記受信されたキーフレームの特徴を分析することを含む、請求項1に記載の方法。
  6. 前記マップエリアを識別すること、前記マッチングキーフレームを識別すること、または前記姿勢を決定することのうちの少なくとも1つに応答して、前記拡張現実ディスプレイデバイスが、場所ベースコンテンツを伝送することをさらに含み、場所ベースコンテンツは、前記マップエリア、前記マッチングキーフレーム、または前記姿勢のうちの少なくとも1つと関連付けられた1つ以上のオブジェクトまたは1つ以上のアプリケーションに関するデータに対応する、請求項1に記載の方法。
  7. 前記マップエリアを識別すること、前記マッチングキーフレームを識別すること、または前記姿勢を決定することのうちの少なくとも1つに応答して、前記拡張現実ディスプレイデバイスが、コンテンツ共有を実施するためのユーザデータを伝送することをさらに含み、コンテンツ共有は、ローカル通信ネットワークを経由したデバイス間のコンテンツの一方向または双方向交換を備える、請求項1に記載の方法。
  8. 前記マップエリアを識別することに応答して、前記拡張現実ディスプレイデバイスが、マップエリアデータを伝送することと、
    前記拡張現実ディスプレイデバイスが、前記複数の既知のキーフレームを更新することと
    をさらに含む、請求項1に記載の方法。
  9. 前記第1のマッチングキーフレームが決定された後に、前記拡張現実ディスプレイデバイスが、少なくともさらに第3の位置特定モジュールの第3の実行をトリガすることによって前記拡張現実ディスプレイデバイスに関する前記姿勢を決定することをさらに含み、前記第3の実行は、
    前記第1のマッチングキーフレームに対する相対的姿勢を決定することと、
    少なくとも前記原点から前記キーフレームへの第1の変換および前記キーフレームから前記拡張現実ディスプレイデバイスへの変換を連結させることによって、前記マップエリアの原点に対する前記拡張現実ディスプレイデバイスの第1の位置を決定することと、
    前記第1の変換および前記第2の変換に少なくとも部分的に基づいて、前記第1のマッチングキーフレームに対する前記相対的位置を前記原点に対する第1の相対的位置に変換することと、
    前記第1の相対的位置に少なくとも部分的に基づいて、前記原点に対する前記拡張現実ディスプレイデバイスに関する前記姿勢を決定することと
    を含む、請求項1に記載の方法。
  10. 前記第1のマッチングフレームは、前記マッチングフレームと異なる、請求項9に記載の方法。
  11. 前記拡張現実ディスプレイデバイスにおける前記受信されたキーフレームは、前記拡張現実ディスプレイデバイスに結合された撮像デバイスから受信され、前記撮像デバイスは、前記拡張現実ディスプレイデバイスのユーザに対する既知の位置を有する、請求項1に記載の方法。
  12. 前記第1の位置特定モジュールの前記第1の実行は、
    第1の既知の場所および第1の既知の境界に対応する第1の無線信号を受信することと、
    前記第1の無線信号と関連付けられた第1のメタデータに少なくとも部分的に基づいて、第1の対の距離を識別することと、
    前記第1の対の距離に少なくとも部分的に基づいて前記拡張現実ディスプレイデバイスが位置するマップ内の第1のサブセットのマップエリアを決定することと
    を含み、前記マップエリアと関連付けられた前記複数の既知のキーフレームは、マップエリアデータセットの一部として記憶される、請求項1に記載の方法。
  13. 前記拡張現実ディスプレイデバイスが、第2の既知の場所および第2の既知の境界に対応する第2の無線信号を受信することと、
    前記拡張現実ディスプレイデバイスが、前記第2の無線信号と関連付けられた第2のメタデータに少なくとも部分的に基づいて、第2の対の距離を識別することと、
    前記拡張現実ディスプレイデバイスが、前記第2の対の距離に少なくとも部分的に基づいて前記拡張現実ディスプレイデバイスが位置する前記第1のサブセットから第2のサブセットを決定することと
    をさらに含む、請求項12に記載の方法。
  14. 前記拡張現実ディスプレイデバイスが、前記第1のサブセットおよび前記第2のサブセット間の重複の決定を低減することと、
    前記拡張現実ディスプレイデバイスが、前記重複に少なくとも部分的に基づいて前記拡張現実ディスプレイデバイスの前記位置および前記配向を決定することと
    をさらに含む、請求項13に記載の方法。
  15. 拡張現実ディスプレイデバイスの位置および配向情報を決定するための方法であって、
    前記拡張現実ディスプレイデバイスが、前記拡張現実ディスプレイデバイスの現在の場所と関連付けられたマップエリアを識別することと、
    前記拡張現実ディスプレイデバイスが、前記マップエリアと関連付けられた前記現在の場所が前記拡張現実ディスプレイデバイスに対する決定されたかまたは識別されたエリアであるかに少なくとも部分的に基づいて前記拡張現実ディスプレイデバイスを位置特定するための複数の位置特定モジュールの実行順序を決定することと、
    前記マップエリアと関連付けられた前記現在の場所が、決定されていないかまたは識別されていないエリアを含むことを決定したことに応答して、前記拡張現実ディスプレイデバイスが、前記拡張現実ディスプレイデバイスに関する前記決定されていないかまたは識別されていないエリアを認識するために使用されるマッチングキーフレームを決定することであって、前記マッチングキーフレームを決定することは、
    前記拡張現実ディスプレイデバイスから受信された第1の複数のキーフレームの第1のキーフレームと前記マップエリアと関連付けられた第2の複数の既知のキーフレームを比較する第1の位置特定モジュールの第1の実行をトリガすること、
    前記第1のキーフレームを比較することの第1の結果に少なくとも部分的に基づいて前記第2の複数の既知のキーフレームのうちの少なくともいくつかに関する第1の類似性スコアを決定すること、および、
    少なくとも前記第1の類似性スコアに基づいて、第1のマッチングキーフレームとして前記第2の複数の既知のキーフレームから既知のキーフレームを選択すること
    を含む、ことと、
    前記拡張現実ディスプレイデバイスが、前記マップエリアと関連付けられた第2のマッチングキーフレームを、
    前記第1の複数のキーフレームの第2のキーフレームと前記マップエリアと関連付けられた前記第2の複数の既知のキーフレームを比較すること、
    前記第2のキーフレームを比較することに少なくとも部分的に基づいて前記第2の複数の既知のキーフレームのうちの少なくとも一部に関する第2の類似性スコアを決定すること、および、
    少なくとも前記第2の類似性スコアに基づいて、前記第2のマッチングキーフレームとして前記第2の複数の既知のキーフレームの別個の既知のキーフレームを選択すること
    によって、識別することと、
    前記拡張現実ディスプレイデバイスが、前記第2のマッチングキーフレームを少なくとも使用して前記共有マップエリア原点に対する前記拡張現実ディスプレイデバイスに関する第1の姿勢をリファインすることと
    を含む、方法。
  16. 前記現在の場所と関連付けられた前記マップエリアを識別することは、
    メタデータを受信することであって、前記メタデータは、前記拡張現実ディスプレイデバイスの前記現在の場所において収集される、ことと、
    前記メタデータを分析することの分析結果に少なくとも部分的に基づいて前記マップエリアを決定することであって、前記メタデータは、1つ以上の通信ネットワークに関する情報に対応する、ことと
    を含む、請求項1に記載の方法。
  17. 前記拡張現実ディスプレイデバイスが、共有マップエリア原点に対する前記拡張現実ディスプレイデバイスに関する前記姿勢を決定することをさらに含み、
    前記姿勢を決定することはさらに、
    少なくともキーフレーム分析を実施することによって、前記第1のキーフレームおよび前記第1のマッチングキーフレームを使用して、前記第1のマッチングキーフレームに対する相対的姿勢を決定することと、
    少なくとも前記第1のマッチングキーフレームに対する前記相対的姿勢を使用して、前記第1のマッチングキーフレームに対する前記相対的姿勢を共有マップエリア原点に対する第1の姿勢に変換することと
    を含む、請求項1に記載の方法。
  18. 前記相対的姿勢を前記共有マップエリア原点に対する前記第1の姿勢に変換することは、前記相対的姿勢に対して第1の変換および第2の変換を実施することを含み、前記第1の変換は、前記共有マップエリア原点から前記第1のマッチングキーフレームへの変換であり、前記第2の変換は、前記第1のマッチングキーフレームから前記第1のキーフレームへの変換である、請求項17に記載の方法。
JP2021116964A 2017-01-23 2021-07-15 複合現実システムのための位置特定の決定 Active JP7169405B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022172932A JP7425848B2 (ja) 2017-01-23 2022-10-28 複合現実システムのための位置特定の決定

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762449512P 2017-01-23 2017-01-23
US62/449,512 2017-01-23
JP2019539183A JP6918122B2 (ja) 2017-01-23 2018-01-23 複合現実システムのための位置特定の決定

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019539183A Division JP6918122B2 (ja) 2017-01-23 2018-01-23 複合現実システムのための位置特定の決定

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022172932A Division JP7425848B2 (ja) 2017-01-23 2022-10-28 複合現実システムのための位置特定の決定

Publications (2)

Publication Number Publication Date
JP2021182745A true JP2021182745A (ja) 2021-11-25
JP7169405B2 JP7169405B2 (ja) 2022-11-10

Family

ID=62907370

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019539183A Active JP6918122B2 (ja) 2017-01-23 2018-01-23 複合現実システムのための位置特定の決定
JP2021116964A Active JP7169405B2 (ja) 2017-01-23 2021-07-15 複合現実システムのための位置特定の決定
JP2022172932A Active JP7425848B2 (ja) 2017-01-23 2022-10-28 複合現実システムのための位置特定の決定

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019539183A Active JP6918122B2 (ja) 2017-01-23 2018-01-23 複合現実システムのための位置特定の決定

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022172932A Active JP7425848B2 (ja) 2017-01-23 2022-10-28 複合現実システムのための位置特定の決定

Country Status (9)

Country Link
US (3) US10812936B2 (ja)
EP (2) EP3989173A1 (ja)
JP (3) JP6918122B2 (ja)
KR (2) KR102627363B1 (ja)
CN (1) CN110199321B (ja)
AU (3) AU2018210015B2 (ja)
CA (1) CA3047013A1 (ja)
IL (3) IL284404B2 (ja)
WO (1) WO2018136946A1 (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
JP7136558B2 (ja) 2015-03-05 2022-09-13 マジック リープ, インコーポレイテッド 拡張現実のためのシステムおよび方法
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
CN108604383A (zh) 2015-12-04 2018-09-28 奇跃公司 重新定位系统和方法
US20170337744A1 (en) * 2016-05-23 2017-11-23 tagSpace Pty Ltd Media tags - location-anchored digital media for augmented reality and virtual reality environments
WO2018026737A1 (en) 2016-08-02 2018-02-08 Magic Leap, Inc. Fixed-distance virtual and augmented reality systems and methods
US10850838B2 (en) 2016-09-30 2020-12-01 Sony Interactive Entertainment Inc. UAV battery form factor and insertion/ejection methodologies
US11125561B2 (en) 2016-09-30 2021-09-21 Sony Interactive Entertainment Inc. Steering assist
US10679511B2 (en) 2016-09-30 2020-06-09 Sony Interactive Entertainment Inc. Collision detection and avoidance
US10410320B2 (en) 2016-09-30 2019-09-10 Sony Interactive Entertainment Inc. Course profiling and sharing
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
CN110431599B (zh) 2017-03-17 2022-04-12 奇跃公司 具有虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法
IL290142B2 (en) 2017-03-17 2023-10-01 Magic Leap Inc A mixed reality system with the assembly of multi-source virtual content and a method for creating virtual content using it
WO2018170482A1 (en) 2017-03-17 2018-09-20 Magic Leap, Inc. Mixed reality system with color virtual content warping and method of generating virtual content using same
GB201705767D0 (en) * 2017-04-10 2017-05-24 Blue Vision Labs Uk Ltd Co-localisation
US11077365B2 (en) 2018-06-27 2021-08-03 Niantic, Inc. Low latency datagram-responsive computer network protocol
CN112470464B (zh) 2018-07-23 2023-11-28 奇跃公司 场顺序显示器中的场内子码时序
WO2020023383A1 (en) 2018-07-23 2020-01-30 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
US11914614B2 (en) * 2018-08-02 2024-02-27 Resight Ltd. System and method for generating a collection of approximately coordinated region maps
US11227435B2 (en) 2018-08-13 2022-01-18 Magic Leap, Inc. Cross reality system
CN112805750B (zh) 2018-08-13 2024-09-27 奇跃公司 跨现实系统
US11232635B2 (en) 2018-10-05 2022-01-25 Magic Leap, Inc. Rendering location specific virtual content in any location
CN111179162B (zh) * 2018-11-12 2023-10-24 北京魔门塔科技有限公司 一种特殊环境下的定位初始化方法及车载终端
US10902685B2 (en) * 2018-12-13 2021-01-26 John T. Daly Augmented reality remote authoring and social media platform and system
KR102577903B1 (ko) 2019-02-25 2023-09-14 나이앤틱, 인크. 증강 현실 모바일 에지 컴퓨팅
US11263615B2 (en) 2019-03-01 2022-03-01 Visa International Service Association System, method, and computer program product for authentication by augmented reality for fraud prevention
JP2020173656A (ja) * 2019-04-11 2020-10-22 ソニー株式会社 情報処理装置、情報処理方法、及び記録媒体
US11334746B2 (en) * 2019-05-01 2022-05-17 EMC IP Holding Company LLC Facial recognition for multi-stream video using high probability group
KR102659324B1 (ko) * 2019-09-25 2024-04-22 누들 테크놀로지 인코포레이티드 무선 라디오들을 이용하여 신호들을 캡처하는 것에 의한 현실 증강
US11521356B2 (en) * 2019-10-10 2022-12-06 Meta Platforms Technologies, Llc Systems and methods for a shared interactive environment
EP4046139A4 (en) 2019-10-15 2023-11-22 Magic Leap, Inc. EXTENDED REALITY SYSTEM WITH LOCATION SERVICE
EP4046401A4 (en) 2019-10-15 2023-11-01 Magic Leap, Inc. CROSS-REALLY SYSTEM WITH WIRELESS FINGERPRINTS
JP2022551734A (ja) 2019-10-15 2022-12-13 マジック リープ, インコーポレイテッド 複数のデバイスタイプをサポートするクロスリアリティシステム
WO2021087065A1 (en) 2019-10-31 2021-05-06 Magic Leap, Inc. Cross reality system with quality information about persistent coordinate frames
US11386627B2 (en) 2019-11-12 2022-07-12 Magic Leap, Inc. Cross reality system with localization service and shared location-based content
KR20210061869A (ko) * 2019-11-20 2021-05-28 주식회사 알체라 증강현실 콘텐츠 제작 방법 및 장치
CN114762008A (zh) 2019-12-09 2022-07-15 奇跃公司 简化的虚拟内容编程的交叉现实系统
US11816757B1 (en) * 2019-12-11 2023-11-14 Meta Platforms Technologies, Llc Device-side capture of data representative of an artificial reality environment
US20230019181A1 (en) * 2019-12-20 2023-01-19 Interdigital Ce Patent Holdings Device and method for device localization
TWI756998B (zh) * 2019-12-20 2022-03-01 美商尼安蒂克公司 用於資料傳輸路徑選擇之資料階層協定
JP2023514205A (ja) 2020-02-13 2023-04-05 マジック リープ, インコーポレイテッド 正確な共有マップを伴うクロスリアリティシステム
WO2021163295A1 (en) 2020-02-13 2021-08-19 Magic Leap, Inc. Cross reality system with prioritization of geolocation information for localization
EP4104001A4 (en) 2020-02-13 2024-03-13 Magic Leap, Inc. CROSS-REALLY SYSTEM WITH MAP PROCESSING USING MULTIPLE RESOLUTION FRAME DESCRIPTORS
EP4111425A4 (en) * 2020-02-26 2024-03-13 Magic Leap, Inc. MIXED REALITY SYSTEM WITH QUICK LOCATION
CN115803788A (zh) 2020-04-29 2023-03-14 奇跃公司 用于大规模环境的交叉现实系统
CN112292655A (zh) * 2020-05-15 2021-01-29 北京小米移动软件有限公司 物联网设备定位的方法及设备
US11212640B1 (en) * 2020-06-24 2021-12-28 Charles Isgar Data gathering zone system
US11616699B2 (en) * 2020-07-27 2023-03-28 Charter Communications Operating, Llc Obtaining location metadata for network devices using augmented reality
CN112115224B (zh) * 2020-09-24 2024-03-08 北京百度网讯科技有限公司 地图数据的辅助质检方法、装置、电子设备及存储介质
US20220207120A1 (en) * 2020-12-30 2022-06-30 Inka Entworks, Inc Apparatus and method for embedding plurality of forensic marks
US20240344841A1 (en) * 2021-07-13 2024-10-17 Lg Electronics Inc. Route guiding device and route guiding system based on augmented reality and mixed reality
US11989343B2 (en) * 2022-01-05 2024-05-21 Nokia Technologies Oy Pose validity for XR based services
US20230359421A1 (en) * 2022-05-06 2023-11-09 Emed Labs, Llc Systems and methods for ensuring and verifying remote health or diagnostic test quality

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160021511A1 (en) * 2014-07-16 2016-01-21 Yahoo! Inc. System and method for detection of indoor tracking units
JP2016528476A (ja) * 2013-04-30 2016-09-15 クアルコム,インコーポレイテッド Slamマップからのワイドエリア位置推定

Family Cites Families (247)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4462165A (en) 1983-01-31 1984-07-31 The Boeing Company Three axis orientation sensor for an aircraft or the like
US5047952A (en) 1988-10-14 1991-09-10 The Board Of Trustee Of The Leland Stanford Junior University Communication system for deaf, deaf-blind, or non-vocal individuals using instrumented glove
US6701296B1 (en) 1988-10-14 2004-03-02 James F. Kramer Strain-sensing goniometers, systems, and recognition algorithms
CA2358682A1 (en) 1992-08-14 1994-03-03 British Telecommunications Public Limited Company Position location system
US5913820A (en) 1992-08-14 1999-06-22 British Telecommunications Public Limited Company Position location system
US5583974A (en) 1993-05-10 1996-12-10 Apple Computer, Inc. Computer graphics system having high performance multiple layer Z-buffer
TW275590B (en) 1994-12-09 1996-05-11 Sega Enterprises Kk Head mounted display and system for use therefor
US5930741A (en) 1995-02-28 1999-07-27 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
US5592401A (en) 1995-02-28 1997-01-07 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
US5684498A (en) 1995-06-26 1997-11-04 Cae Electronics Ltd. Field sequential color head mounted display with suppressed color break-up
CA2238693C (en) 1995-11-27 2009-02-24 Cae Electronics Ltd. Method and apparatus for displaying a virtual environment on a video display
US5784115A (en) 1996-12-31 1998-07-21 Xerox Corporation System and method for motion compensated de-interlacing of video frames
US6163155A (en) 1999-01-28 2000-12-19 Dresser Industries, Inc. Electromagnetic wave resistivity tool having a tilted antenna for determining the horizontal and vertical resistivities and relative dip angle in anisotropic earth formations
US6407736B1 (en) 1999-06-18 2002-06-18 Interval Research Corporation Deferred scanline conversion architecture
GB9917591D0 (en) 1999-07-28 1999-09-29 Marconi Electronic Syst Ltd Head tracker system
JP2001208529A (ja) 2000-01-26 2001-08-03 Mixed Reality Systems Laboratory Inc 計測装置及びその制御方法並びに記憶媒体
US6757068B2 (en) 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
EP1297691A2 (en) 2000-03-07 2003-04-02 Sarnoff Corporation Camera pose estimation
US6891533B1 (en) 2000-04-11 2005-05-10 Hewlett-Packard Development Company, L.P. Compositing separately-generated three-dimensional images
US6738044B2 (en) 2000-08-07 2004-05-18 The Regents Of The University Of California Wireless, relative-motion computer input device
US20020180727A1 (en) 2000-11-22 2002-12-05 Guckenberger Ronald James Shadow buffer control module method and software construct for adjusting per pixel raster images attributes to screen space and projector features for digital warp, intensity transforms, color matching, soft-edge blending, and filtering for multiple projectors and laser projectors
US6691074B1 (en) 2001-02-08 2004-02-10 Netmore Ltd. System for three dimensional positioning and tracking
US6861982B2 (en) 2001-08-16 2005-03-01 Itt Manufacturing Enterprises, Inc. System for determining position of an emitter
US7113618B2 (en) 2001-09-18 2006-09-26 Intel Corporation Portable virtual reality
JP2003337963A (ja) 2002-05-17 2003-11-28 Seiko Epson Corp 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
US9153074B2 (en) 2011-07-18 2015-10-06 Dylan T X Zhou Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
JP3984907B2 (ja) 2002-11-29 2007-10-03 キヤノン株式会社 画像観察システム
US20070155589A1 (en) 2002-12-04 2007-07-05 Philip Feldman Method and Apparatus for Operatively Controlling a Virtual Reality Scenario with an Isometric Exercise System
JP2004213350A (ja) 2002-12-27 2004-07-29 Seiko Epson Corp 力覚提示装置及び画像補正方法
US20050107870A1 (en) 2003-04-08 2005-05-19 Xingwu Wang Medical device with multiple coating layers
US7643025B2 (en) 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US7443154B1 (en) 2003-10-04 2008-10-28 Seektech, Inc. Multi-sensor mapping omnidirectional sonde and line locator
CA2450837A1 (en) 2003-11-25 2005-05-25 University Of New Brunswick Induction magnetometer
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US20160098095A1 (en) 2004-01-30 2016-04-07 Electronic Scripting Products, Inc. Deriving Input from Six Degrees of Freedom Interfaces
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
JP4508820B2 (ja) 2004-10-19 2010-07-21 株式会社ワコム 3次元情報検出システム及び3次元情報入力装置
WO2006056622A1 (es) 2004-11-19 2006-06-01 Daem Interactive, Sl Dispositivo personal con funciones de adquirir imágenes, para aplicación de recursos de realidad aumentada y método
US7598942B2 (en) 2005-02-08 2009-10-06 Oblong Industries, Inc. System and method for gesture based control system
EP1875732B1 (en) 2005-04-26 2016-12-28 Imax Corporation Electronic projection systems and methods
US8308563B2 (en) 2005-08-30 2012-11-13 Nintendo Co., Ltd. Game system and storage medium having game program stored thereon
US8157651B2 (en) 2005-09-12 2012-04-17 Nintendo Co., Ltd. Information processing program
JP4437228B2 (ja) 2005-11-07 2010-03-24 大学共同利用機関法人情報・システム研究機構 焦点ぼけ構造を用いたイメージング装置及びイメージング方法
KR100722229B1 (ko) 2005-12-02 2007-05-29 한국전자통신연구원 사용자 중심형 인터페이스를 위한 가상현실 상호작용 인체모델 즉석 생성/제어 장치 및 방법
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US9910497B2 (en) 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
JP4151982B2 (ja) 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
JP4684147B2 (ja) 2006-03-28 2011-05-18 任天堂株式会社 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム
JP4196302B2 (ja) 2006-06-19 2008-12-17 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4804256B2 (ja) 2006-07-27 2011-11-02 キヤノン株式会社 情報処理方法
US8194088B1 (en) 2006-08-03 2012-06-05 Apple Inc. Selective composite rendering
US7921120B2 (en) 2006-11-30 2011-04-05 D&S Consultants Method and system for image recognition using a similarity inverse matrix
CN101093586A (zh) 2007-07-12 2007-12-26 上海交通大学 面向复杂场景实时交互操作的并行碰撞检测方法
US8165352B1 (en) 2007-08-06 2012-04-24 University Of South Florida Reconstruction of biometric image templates using match scores
IL195389A (en) 2008-11-19 2013-12-31 Elbit Systems Ltd Magnetic Field Mapping System and Method
US10095815B2 (en) 2008-11-19 2018-10-09 Elbit Systems Ltd. System and a method for mapping a magnetic field
US20090115406A1 (en) 2007-11-01 2009-05-07 General Electric Company System and method for minimizing mutual inductance coupling between coils in an electromagnetic tracking system
US9013505B1 (en) * 2007-11-27 2015-04-21 Sprint Communications Company L.P. Mobile system representing virtual objects on live camera image
KR20090055803A (ko) 2007-11-29 2009-06-03 광주과학기술원 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
US7795596B2 (en) 2008-01-03 2010-09-14 Alcatel-Lucent Usa Inc. Cloaking device detection system
WO2009091563A1 (en) 2008-01-18 2009-07-23 Thomson Licensing Depth-image-based rendering
US20090184825A1 (en) 2008-01-23 2009-07-23 General Electric Company RFID Transponder Used for Instrument Identification in an Electromagnetic Tracking System
WO2009093956A1 (en) 2008-01-23 2009-07-30 Swiftfoot Graphics Ab Method, apparatus, and computer program product for improved graphics performance
US8926511B2 (en) 2008-02-29 2015-01-06 Biosense Webster, Inc. Location system with virtual touch screen
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8446426B2 (en) 2008-04-28 2013-05-21 Apple Inc. Technique for visually compositing a group of graphical objects
KR20090120159A (ko) 2008-05-19 2009-11-24 삼성전자주식회사 영상합성장치 및 영상합성방법
US8929877B2 (en) * 2008-09-12 2015-01-06 Digimarc Corporation Methods and systems for content processing
JP5415054B2 (ja) 2008-10-28 2014-02-12 セイコーエプソン株式会社 駆動方法および電気光学装置
WO2010055737A1 (ja) 2008-11-14 2010-05-20 株式会社ソニー・コンピュータエンタテインメント 操作デバイス
US8188745B2 (en) 2008-12-05 2012-05-29 Metrotech Corporation Inc. Precise location and orientation of a concealed dipole transmitter
US9465129B1 (en) 2009-03-06 2016-10-11 See Scan, Inc. Image-based mapping locating system
US8860723B2 (en) 2009-03-09 2014-10-14 Donya Labs Ab Bounded simplification of geometrical computer data
JP5177078B2 (ja) 2009-05-26 2013-04-03 富士通モバイルコミュニケーションズ株式会社 情報処理装置
DE102009049073A1 (de) * 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US8775424B2 (en) 2010-01-26 2014-07-08 Xerox Corporation System for creative image navigation and exploration
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US8581905B2 (en) 2010-04-08 2013-11-12 Disney Enterprises, Inc. Interactive three dimensional displays on handheld devices
WO2011144793A1 (en) * 2010-05-18 2011-11-24 Teknologian Tutkimuskeskus Vtt Mobile device, server arrangement and method for augmented reality applications
TWI399688B (zh) 2010-06-08 2013-06-21 Waltop Int Corp 整合電磁式及電容感應輸入裝置
JP2012043308A (ja) 2010-08-20 2012-03-01 Canon Inc 位置姿勢決定方法、位置姿勢決定装置、物体モデル生成方法、物体モデル生成装置、およびプログラム
WO2012046392A1 (ja) 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
US20120086630A1 (en) 2010-10-12 2012-04-12 Sony Computer Entertainment Inc. Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system
US9122053B2 (en) 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
FR2966251B1 (fr) 2010-10-19 2014-04-25 Astrium Sas Systeme d'orientation et de positionnement d'un recepteur electromagnetique
US8660369B2 (en) * 2010-10-25 2014-02-25 Disney Enterprises, Inc. Systems and methods using mobile devices for augmented reality
US8745061B2 (en) 2010-11-09 2014-06-03 Tibco Software Inc. Suffix array candidate selection and index data structure
CN103415860B (zh) 2011-01-27 2019-07-12 苹果公司 确定第一和第二图像间的对应关系的方法以及确定摄像机姿态的方法
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
JP5724544B2 (ja) 2011-03-31 2015-05-27 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US9206007B2 (en) 2011-05-31 2015-12-08 Twist-Ease Inc. Bag dispenser
US20120306850A1 (en) 2011-06-02 2012-12-06 Microsoft Corporation Distributed asynchronous localization and mapping for augmented reality
US20120327116A1 (en) 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
US8933913B2 (en) 2011-06-28 2015-01-13 Microsoft Corporation Electromagnetic 3D stylus
US20150100380A1 (en) * 2011-07-20 2015-04-09 Raymond P. Jones, JR. Systems and methods for providing financial controls for aggregated weather-based work
US20150040074A1 (en) 2011-08-18 2015-02-05 Layar B.V. Methods and systems for enabling creation of augmented reality content
WO2013023706A1 (en) * 2011-08-18 2013-02-21 Layar B.V. Computer-vision based augmented reality system
US8749396B2 (en) 2011-08-25 2014-06-10 Satorius Stedim Biotech Gmbh Assembling method, monitoring method, communication method, augmented reality system and computer program product
EP2751742A1 (en) 2011-08-31 2014-07-09 metaio GmbH Method of matching image features with reference features
WO2013040274A2 (en) 2011-09-13 2013-03-21 Sadar 3D, Inc. Synthetic aperture radar apparatus and methods
US8821286B2 (en) 2011-09-29 2014-09-02 Wms Gaming, Inc. Wagering game system having motion sensing controllers
US9286711B2 (en) 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
RU2621633C2 (ru) 2011-10-28 2017-06-06 Мэджик Лип, Инк. Система и способ для дополненной и виртуальной реальности
CN107664847B (zh) 2011-11-23 2021-04-06 奇跃公司 三维虚拟和增强现实显示系统
WO2013126784A2 (en) * 2012-02-23 2013-08-29 Huston Charles D System and method for creating an environment and for sharing a location based experience in an environment
US8989775B2 (en) * 2012-02-29 2015-03-24 RetailNext, Inc. Method and system for WiFi-based identification of person tracks
US9075824B2 (en) 2012-04-27 2015-07-07 Xerox Corporation Retrieval system and method leveraging category-level labels
US9098229B2 (en) 2012-05-04 2015-08-04 Aaron Hallquist Single image pose estimation of image capture devices
US9116666B2 (en) 2012-06-01 2015-08-25 Microsoft Technology Licensing, Llc Gesture based region identification for holograms
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9582072B2 (en) 2013-09-17 2017-02-28 Medibotics Llc Motion recognition clothing [TM] with flexible electromagnetic, light, or sonic energy pathways
US9384737B2 (en) 2012-06-29 2016-07-05 Microsoft Technology Licensing, Llc Method and device for adjusting sound levels of sources based on sound source priority
EP2704055A1 (en) 2012-08-31 2014-03-05 Layar B.V. Determining space to display content in augmented reality
JP2014049934A (ja) 2012-08-31 2014-03-17 Sony Corp ヘッドマウントディスプレイ
US9134954B2 (en) 2012-09-10 2015-09-15 Qualcomm Incorporated GPU memory buffer pre-fetch and pre-back signaling to avoid page-fault
EP2711670B1 (en) 2012-09-21 2019-01-30 NavVis GmbH Visual localisation
GB201217372D0 (en) 2012-09-28 2012-11-14 Ucl Business Plc A system and method for annotating images by propagating information
US9177404B2 (en) * 2012-10-31 2015-11-03 Qualcomm Incorporated Systems and methods of merging multiple maps for computer vision based tracking
US9256788B2 (en) 2012-11-02 2016-02-09 Qualcomm Incorporated Method for initializing and solving the local geometry or surface normals of surfels using images in a parallelizable architecture
US9188694B2 (en) 2012-11-16 2015-11-17 Halliburton Energy Services, Inc. Optical interferometric sensors for measuring electromagnetic fields
US9160727B1 (en) * 2012-11-30 2015-10-13 Microstrategy Incorporated Providing credential information
US9026847B2 (en) 2012-12-21 2015-05-05 Advanced Micro Devices, Inc. Hardware based redundant multi-threading inside a GPU for improved reliability
US20140176591A1 (en) 2012-12-26 2014-06-26 Georg Klein Low-latency fusing of color image data
WO2014105385A1 (en) 2012-12-27 2014-07-03 The Regents Of The University Of California Anamorphic stretch image compression
US9788714B2 (en) 2014-07-08 2017-10-17 Iarmourholdings, Inc. Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
EP2967322A4 (en) 2013-03-11 2017-02-08 Magic Leap, Inc. System and method for augmented and virtual reality
US9898866B2 (en) 2013-03-13 2018-02-20 The University Of North Carolina At Chapel Hill Low latency stabilization for head-worn displays
NZ751593A (en) 2013-03-15 2020-01-31 Magic Leap Inc Display system and method
US9436887B2 (en) 2013-03-15 2016-09-06 OrCam Technologies, Ltd. Apparatus and method for automatic action selection based on image context
US9269003B2 (en) 2013-04-30 2016-02-23 Qualcomm Incorporated Diminished and mediated reality effects from reconstruction
US9367960B2 (en) 2013-05-22 2016-06-14 Microsoft Technology Licensing, Llc Body-locked placement of augmented reality objects
US10254855B2 (en) 2013-06-04 2019-04-09 Wen-Chieh Geoffrey Lee High resolution and high sensitivity three-dimensional (3D) cursor maneuvering device
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US9129430B2 (en) 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
US9443355B2 (en) 2013-06-28 2016-09-13 Microsoft Technology Licensing, Llc Reprojection OLED display for augmented reality experiences
US9712473B2 (en) * 2013-07-11 2017-07-18 Facebook, Inc. Methods, systems, and user interfaces for community-based location ratings
WO2015006784A2 (en) 2013-07-12 2015-01-15 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US10295338B2 (en) 2013-07-12 2019-05-21 Magic Leap, Inc. Method and system for generating map data from an image
US9514571B2 (en) 2013-07-25 2016-12-06 Microsoft Technology Licensing, Llc Late stage reprojection
JP6192010B2 (ja) 2013-09-05 2017-09-06 国立大学法人 東京大学 重み設定装置および方法
US9729864B2 (en) 2013-09-30 2017-08-08 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
WO2015048749A1 (en) * 2013-09-30 2015-04-02 Interdigital Patent Holdings, Inc. Methods, apparatus, systems, devices, and computer program products for providing an augmented reality display and/or user interface
US20150098616A1 (en) 2013-10-03 2015-04-09 Qualcomm Incorporated Object recognition and map generation with environment references
JP6353214B2 (ja) 2013-11-11 2018-07-04 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
KR102378457B1 (ko) 2013-11-27 2022-03-23 매직 립, 인코포레이티드 가상 및 증강 현실 시스템들 및 방법들
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
US11402629B2 (en) 2013-11-27 2022-08-02 Magic Leap, Inc. Separated pupil optical systems for virtual and augmented reality and methods for displaying images using same
US9354778B2 (en) 2013-12-06 2016-05-31 Digimarc Corporation Smartphone-based methods and systems
KR102174595B1 (ko) 2013-12-19 2020-11-06 아비질론 포트리스 코퍼레이션 비제약형 매체에 있어서 얼굴을 식별하는 시스템 및 방법
US9360935B2 (en) 2013-12-20 2016-06-07 Hong Kong Applied Science And Technology Research Institute Co. Ltd. Integrated bi-sensing optical structure for head mounted display
EP2887311B1 (en) 2013-12-20 2016-09-14 Thomson Licensing Method and apparatus for performing depth estimation
US20150193982A1 (en) * 2014-01-03 2015-07-09 Google Inc. Augmented reality overlays using position and orientation to facilitate interactions between electronic devices
US20160147063A1 (en) 2014-11-26 2016-05-26 Osterhout Group, Inc. See-through computer display systems
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US9405122B2 (en) 2014-01-29 2016-08-02 Ricoh Co., Ltd Depth-disparity calibration of a binocular optical augmented reality system
WO2015134475A2 (en) * 2014-03-04 2015-09-11 Google Inc. Map personalization based on social clues
US20160203624A1 (en) * 2014-03-05 2016-07-14 Google Inc. System and Method for Providing Combined Multi-Dimensional Map Views
WO2015134958A1 (en) 2014-03-07 2015-09-11 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
CN105005457B (zh) * 2014-04-25 2019-04-09 腾讯科技(深圳)有限公司 地理位置展示方法及装置
CN106164982B (zh) 2014-04-25 2019-05-03 谷歌技术控股有限责任公司 基于影像的电子设备定位
US9652893B2 (en) 2014-04-29 2017-05-16 Microsoft Technology Licensing, Llc Stabilization plane determination based on gaze location
US9727341B2 (en) 2014-05-09 2017-08-08 Samsung Electronics Co., Ltd. Control flow in a thread-based environment without branching
KR101888566B1 (ko) 2014-06-03 2018-08-16 애플 인크. 실제 물체와 관련된 디지털 정보를 제시하기 위한 방법 및 시스템
US20150358539A1 (en) 2014-06-06 2015-12-10 Jacob Catt Mobile Virtual Reality Camera, Method, And System
US20150379772A1 (en) 2014-06-30 2015-12-31 Samsung Display Co., Ltd. Tracking accelerator for virtual and augmented reality displays
WO2016002409A1 (ja) 2014-07-01 2016-01-07 シャープ株式会社 フィールドシーケンシャル画像表示装置および画像表示方法
US10056054B2 (en) 2014-07-03 2018-08-21 Federico Fraccaroli Method, system, and apparatus for optimising the augmentation of radio emissions
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
US10162177B2 (en) 2014-07-11 2018-12-25 Sixense Entertainment, Inc. Method and apparatus for self-relative body tracking for virtual reality systems using magnetic tracking
US9719871B2 (en) 2014-08-09 2017-08-01 Google Inc. Detecting a state of a wearable device
CN107111894B (zh) 2014-09-08 2022-04-29 西姆克斯有限责任公司 用于专业和教育训练的增强或虚拟现实模拟器
US20170280133A1 (en) 2014-09-09 2017-09-28 Nokia Technologies Oy Stereo image recording and playback
US10430382B2 (en) 2014-10-14 2019-10-01 Microsoft Technology Licensing, Llc Data visualization architecture
US9478029B2 (en) * 2014-10-23 2016-10-25 Qualcomm Incorporated Selection strategy for exchanging map information in collaborative multi-user SLAM systems
US10650574B2 (en) * 2014-10-31 2020-05-12 Fyusion, Inc. Generating stereoscopic pairs of images from a single lens camera
US11049476B2 (en) 2014-11-04 2021-06-29 The University Of North Carolina At Chapel Hill Minimal-latency tracking and display for matching real and virtual worlds in head-worn displays
US20160131904A1 (en) 2014-11-07 2016-05-12 Osterhout Group, Inc. Power management for head worn computing
US9818170B2 (en) 2014-12-10 2017-11-14 Qualcomm Incorporated Processing unaligned block transfer operations
WO2016100717A1 (en) 2014-12-17 2016-06-23 Google Inc. Generating numeric embeddings of images
US9696549B2 (en) 2014-12-22 2017-07-04 International Business Machines Corporation Selectively pairing an application presented in virtual space with a physical display
US9846968B2 (en) 2015-01-20 2017-12-19 Microsoft Technology Licensing, Llc Holographic bird's eye view camera
JP7136558B2 (ja) 2015-03-05 2022-09-13 マジック リープ, インコーポレイテッド 拡張現実のためのシステムおよび方法
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
EP4332612A3 (en) 2015-03-07 2024-09-04 Verity AG Distributed localization systems and methods and self-localizing apparatus
US9874932B2 (en) 2015-04-09 2018-01-23 Microsoft Technology Licensing, Llc Avoidance of color breakup in late-stage re-projection
US9814430B1 (en) 2015-04-17 2017-11-14 Bertec Corporation System and method for measuring eye movement and/or eye position and postural sway of a subject
CN113050280B (zh) 2015-05-04 2024-01-19 奇跃公司 用于虚拟和增强现实的分离光瞳光学系统以及用于使用其显示图像的方法
CN104866829B (zh) 2015-05-25 2019-02-19 苏州大学 一种基于特征学习的跨年龄人脸验证方法
US10721280B1 (en) 2015-05-29 2020-07-21 Sprint Communications Company L.P. Extended mixed multimedia reality platform
US20160378863A1 (en) 2015-06-24 2016-12-29 Google Inc. Selecting representative video frames for videos
US10062010B2 (en) 2015-06-26 2018-08-28 Intel Corporation System for building a map and subsequent localization
US10192361B2 (en) 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
US10750161B2 (en) * 2015-07-15 2020-08-18 Fyusion, Inc. Multi-view interactive digital media representation lock screen
US9875427B2 (en) 2015-07-28 2018-01-23 GM Global Technology Operations LLC Method for object localization and pose estimation for an object of interest
WO2017044965A1 (en) 2015-09-10 2017-03-16 Duke University Systems and methods for arbitrary viewpoint robotic manipulation and robotic surgical assistance
GB201518112D0 (en) 2015-10-13 2015-11-25 Bae Systems Plc Improvements in and relating to displays
US10338677B2 (en) 2015-10-28 2019-07-02 Microsoft Technology Licensing, Llc Adjusting image frames based on tracking motion of eyes
US10026212B2 (en) 2015-11-20 2018-07-17 Google Llc Electronic display stabilization using pixel velocities
US20170161853A1 (en) * 2015-12-03 2017-06-08 James Carroll Gossweiler Mapping system that identifies site-specific real estate due diligence professionals and related service providers
CN108604383A (zh) 2015-12-04 2018-09-28 奇跃公司 重新定位系统和方法
US10241569B2 (en) 2015-12-08 2019-03-26 Facebook Technologies, Llc Focus adjustment method for a virtual reality headset
FR3046261B1 (fr) 2015-12-24 2018-08-31 Starbreeze Paris Element mobile hybride, procede et dispositif pour interfacer une pluralite d'elements mobiles hybrides avec un systeme informatique, et ensemble pour systeme de realite virtuelle ou augmentee
US10130429B1 (en) 2016-01-06 2018-11-20 Ethicon Llc Methods, systems, and devices for controlling movement of a robotic surgical system
IL301449B2 (en) 2016-02-05 2024-06-01 Magic Leap Inc Systems and methods for augmented reality
EP3420413A1 (en) 2016-02-22 2019-01-02 Real View Imaging Ltd. A method and system for displaying holographic images within a real object
US10334076B2 (en) 2016-02-22 2019-06-25 Google Llc Device pairing in augmented/virtual reality environment
CN108139815B (zh) 2016-02-22 2020-11-10 谷歌有限责任公司 用于虚拟现实内容的显示的场景和对象的分立时间扭曲
US9639935B1 (en) 2016-05-25 2017-05-02 Gopro, Inc. Apparatus and methods for camera alignment model calibration
US10453272B2 (en) 2016-05-29 2019-10-22 Google Llc Time-warping adjustment based on depth information in a virtual/augmented reality system
US10366536B2 (en) 2016-06-28 2019-07-30 Microsoft Technology Licensing, Llc Infinite far-field depth perception for near-field objects in virtual environments
WO2018026737A1 (en) 2016-08-02 2018-02-08 Magic Leap, Inc. Fixed-distance virtual and augmented reality systems and methods
US11017712B2 (en) 2016-08-12 2021-05-25 Intel Corporation Optimized display image rendering
CA2976464A1 (en) * 2016-08-16 2018-02-16 Sergi Berna Sague Method and system for wireless location and movement mapping, tracking and analytics
EP4235391A3 (en) 2016-08-22 2023-10-25 Magic Leap, Inc. Virtual, augmented, and mixed reality systems and methods
US10318115B2 (en) * 2016-10-14 2019-06-11 OneMarket Network LLC System and method for presenting optimized map labels
US10942252B2 (en) 2016-12-26 2021-03-09 Htc Corporation Tracking system and tracking method
US10330936B2 (en) 2017-01-19 2019-06-25 Facebook Technologies, Llc Focal surface display
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
CN110431599B (zh) 2017-03-17 2022-04-12 奇跃公司 具有虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法
IL290142B2 (en) 2017-03-17 2023-10-01 Magic Leap Inc A mixed reality system with the assembly of multi-source virtual content and a method for creating virtual content using it
WO2018170482A1 (en) 2017-03-17 2018-09-20 Magic Leap, Inc. Mixed reality system with color virtual content warping and method of generating virtual content using same
US10991280B2 (en) 2017-05-01 2021-04-27 Pure Depth Limited Head tracking based field sequential saccadic break up reduction
US10620710B2 (en) 2017-06-15 2020-04-14 Microsoft Technology Licensing, Llc Displacement oriented interaction in computer-mediated reality
GB201709752D0 (en) 2017-06-19 2017-08-02 Advanced Risc Mach Ltd Graphics processing systems
US10859834B2 (en) 2017-07-03 2020-12-08 Holovisions Space-efficient optical structures for wide field-of-view augmented reality (AR) eyewear
US10403032B2 (en) 2017-08-22 2019-09-03 Qualcomm Incorporated Rendering an image from computer graphics using two rendering computing devices
US10445922B2 (en) 2017-08-31 2019-10-15 Intel Corporation Last-level projection method and apparatus for virtual and augmented reality
US10529086B2 (en) 2017-11-22 2020-01-07 Futurewei Technologies, Inc. Three-dimensional (3D) reconstructions of dynamic scenes using a reconfigurable hybrid imaging system
US10481689B1 (en) 2018-01-10 2019-11-19 Electronic Arts Inc. Motion capture glove
US10861215B2 (en) 2018-04-30 2020-12-08 Qualcomm Incorporated Asynchronous time and space warp with determination of region of interest
WO2020023383A1 (en) 2018-07-23 2020-01-30 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
US11176901B1 (en) 2019-08-13 2021-11-16 Facebook Technologies, Llc. Pan-warping and modifying sub-frames with an up-sampled frame rate
US10843067B1 (en) 2019-10-04 2020-11-24 Varjo Technologies Oy Input device, system, and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016528476A (ja) * 2013-04-30 2016-09-15 クアルコム,インコーポレイテッド Slamマップからのワイドエリア位置推定
US20160021511A1 (en) * 2014-07-16 2016-01-21 Yahoo! Inc. System and method for detection of indoor tracking units

Also Published As

Publication number Publication date
AU2021204725B2 (en) 2022-08-04
KR102627363B1 (ko) 2024-01-18
IL284404A (en) 2021-07-29
US20200367018A1 (en) 2020-11-19
KR102247675B1 (ko) 2021-04-30
IL267946A (en) 2019-09-26
JP2023017849A (ja) 2023-02-07
WO2018136946A1 (en) 2018-07-26
JP7169405B2 (ja) 2022-11-10
KR20210049208A (ko) 2021-05-04
US11711668B2 (en) 2023-07-25
JP2020509633A (ja) 2020-03-26
EP3989173A1 (en) 2022-04-27
IL267946B (en) 2021-07-29
US20180213359A1 (en) 2018-07-26
IL297825A (en) 2023-01-01
JP7425848B2 (ja) 2024-01-31
IL284404B (en) 2022-12-01
AU2018210015B2 (en) 2021-04-08
US10812936B2 (en) 2020-10-20
AU2022259806A1 (en) 2022-12-01
IL284404B2 (en) 2023-04-01
IL297825B1 (en) 2024-08-01
EP3571669B1 (en) 2021-09-15
EP3571669A4 (en) 2020-02-12
KR20190108119A (ko) 2019-09-23
EP3571669A1 (en) 2019-11-27
JP6918122B2 (ja) 2021-08-11
CA3047013A1 (en) 2018-07-26
US20220053287A1 (en) 2022-02-17
CN110199321A (zh) 2019-09-03
AU2018210015A1 (en) 2019-06-27
US11206507B2 (en) 2021-12-21
AU2021204725A1 (en) 2021-08-12
CN110199321B (zh) 2024-02-23

Similar Documents

Publication Publication Date Title
JP6918122B2 (ja) 複合現実システムのための位置特定の決定
US20170201708A1 (en) Information processing apparatus, information processing method, and program
KR101545138B1 (ko) 증강 현실을 이용한 광고 제공 방법과 그를 위한 시스템, 장치 및 단말기
JP2006351024A (ja) 視野一致型情報呈示システム及びそれに用いられる携帯情報端末
US11721078B2 (en) Information processing system, information processing terminal device, server device, information processing method and program thereof
JP2017108356A (ja) 画像管理システム、画像管理方法、プログラム
US20230319426A1 (en) Traveling in time and space continuum
JP2010211677A (ja) 情報表示システムおよび方法
JP2006344226A (ja) 視野一致型情報呈示システム及びそれに用いられる携帯情報端末
US20240077938A1 (en) Information processing method, information processing device, and program
JP7192749B2 (ja) サーバ、情報処理システム、プログラム及び制御方法
US20230368399A1 (en) Display terminal, communication system, and non-transitory recording medium
US20230366973A1 (en) Map generation system and method
JP2024073077A (ja) 情報処理装置および情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221028

R150 Certificate of patent or registration of utility model

Ref document number: 7169405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150