JP7546116B2 - 拡張現実のためのシステムおよび方法 - Google Patents

拡張現実のためのシステムおよび方法 Download PDF

Info

Publication number
JP7546116B2
JP7546116B2 JP2023115823A JP2023115823A JP7546116B2 JP 7546116 B2 JP7546116 B2 JP 7546116B2 JP 2023115823 A JP2023115823 A JP 2023115823A JP 2023115823 A JP2023115823 A JP 2023115823A JP 7546116 B2 JP7546116 B2 JP 7546116B2
Authority
JP
Japan
Prior art keywords
component
head
pose
coordinate frame
relative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023115823A
Other languages
English (en)
Other versions
JP2023126474A (ja
Inventor
グレコ ポール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2023126474A publication Critical patent/JP2023126474A/ja
Application granted granted Critical
Publication of JP7546116B2 publication Critical patent/JP7546116B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0308Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

(関連出願)
本出願は、2018年2月6日に出願された米国仮特許出願第62/627155号の優先権およびその利益を主張し、その内容は、その全体が参照によって本明細書に援用される。
(発明の分野)
本開示は、拡張現実システムの脈絡において1または複数の物体の位置および向きをローカル化(localize)するためのシステムおよび方法に関する。
(背景)
現代の計算およびディスプレイ技術は、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進してきた。「仮想現実」または「拡張現実」体験において、デジタル方式で再現された画像またはその一部は、それらが現実であるように見えるかまたは現実として知覚され得るかの態様で、ユーザへ提示される。仮想現実、換言すれば「VR」シナリオは、典型的に、他の実際の現実世界の視覚的入力に対する透過性のない、デジタルまたは仮想画像情報の提示を伴う。拡張現実、換言すれば「AR」シナリオは、典型的に、ユーザの周りの実際の世界の視覚化への拡張として、デジタルまたは仮想画像情報の提示を伴う。
例えば、図1を参照すると、拡張現実シーン(4)が描写されており、この拡張シーンでは、AR技術のユーザは、人々、木、背景の建物、およびコンクリートのプラットフォーム(1120)を特徴とする現実世界の公園のような情景(6)を見ている。これらのアイテムに加えて、AR技術のユーザはまた、現実世界のプラットフォーム(1120)上に建っているロボットの像(1110)、および飛んでいることによりマルハナバチの擬人化であるように見えるアニメのようなアバターキャラクター(2)を、これらの要素(2、1110)は現実世界には存在していないにもかかわらず、彼が「見ている」と知覚する。結論から言うと、人間の視覚的知覚系は非常に複雑であり、他の仮想画像要素または現実世界の画像要素の中での仮想画像要素の快適で自然感のある豊かな提示を促進するVRまたはAR技術を生産することは難題である。
例えば、頭部着用型ARディスプレイ(または、ヘルメット装備型のディスプレイ、またはスマートグラス)は、典型的に、少なくとも緩くユーザの頭部に結合され、従って、ユーザの頭部が動くときに動く。ユーザの頭部の運動がディスプレイシステムによって検出される場合、表示されているデータは、頭部の姿勢の変化を考慮に入れるために更新され得る。
例として、頭部着用型ディスプレイを着用しているユーザが、ディスプレイ上で3次元(3D)物体の仮想表現を眺め、3D物体が出現する区域の周りを歩く場合、その3D物体は、各々の視点に対して再レンダリングされ得、ユーザに、彼または彼女が現実の空間を占める物体の周りを歩いているという知覚を与える。頭部着用型ディスプレイが、仮想空間(例えば、豊かな仮想世界)内で複数の物体を提示するために用いられる場合、頭部の姿勢(すなわち、ユーザの頭部の場所および向き)の測定は、ユーザの動的に変化する頭部の場所および向きに適合するようにシーンを再レンダリングするために用いられ得、仮想空間への増加した没入感を提供し得る。
ARシステムでは、頭部の姿勢の検出または計算は、ユーザへ意味をなす態様で現実世界における空間を占めるように仮想物体が出現するように、ディスプレイシステムが仮想物体をレンダリングすることを促進し得る。加えて、ユーザの頭部またはARシステムとの関係における、手持ち型デバイス(「トーテム」とも称され得る)、触覚型デバイス、または他の現実の物理的物体のような、現実の物体の位置および/または向きの検出はまた、ユーザがARシステムの特定の側面と効果的に相互作用することを可能とするために、ディスプレイ情報をユーザに提示することにおいてディスプレイシステムを促進し得る。現実世界でユーザの頭部が動き回るにつれて、仮想物体は、頭部の姿勢の関数として再レンダリングされ得、それによって、仮想物体が現実世界に対して安定したままで出現する。AR用途のために少なくとも、物理的物体への空間的関係における仮想物体の設置(例えば、2次元または3次元における物理的物体の空間的に近くに出現するように提示される)は、些細でない問題であり得る。例えば、頭部の動きは、周囲の環境の眺めにおける仮想物体の設置を有意に複雑にし得る。そのようなことは、眺めが周囲の環境の画像として捕捉され、それからエンドユーザに投影または表示されるかどうか、または、エンドユーザが周囲の環境の眺めを直接的に知覚するかどうかということに当てはまる。例えば、頭部の動きは、エンドユーザの視野が変化することを引き起こし得、これは、種々の仮想物体がエンドユーザの視野内で表示される場所の更新を要求し得る。
さらに、頭部の動きは、多種の範囲および速さ内で発生し得る。頭部の動きの速さはまた、頭部の異なる動きの間だけでなく、頭部の単一の動きの範囲内またはその範囲にわたっても変わり得る。例えば、頭部の動きの速さは、初めに開始するポイントから(例えば線形的にまたはそうでなく)増加し得、かつ終了するポイントが到達されるにつれて減少し得、頭部の動きの開始するポイントおよび終了するポイントの間のどこかで最大の速さを取得する。速い頭部の動きは、エンドユーザに均一かつ/または滑らかな運動として出現する画像をレンダリングするための特定のディスプレイまたは投影技術の能力を上回りさえし得る。
頭部追跡の正確性およびレイテンシ(すなわち、ユーザが、彼または彼女の頭部を動かすときと、画像が更新されかつユーザへ表示されるときとの間の経過時間)は、VRおよびARシステムについての難題であった。特に、ユーザの視界の実質的な部分を仮想要素で満たすディスプレイシステムについては、頭部追跡の正確性が高いこと、および、頭部の運動の第1の検出から、ディスプレイによってユーザの視覚系へ送達される光の更新までの全体のシステムレイテンシが、非常に低いことが重大である。レイテンシが高い場合、システムは、ユーザの前庭系と視覚的感覚系との間の不適合を創出し得、かつ乗り物酔いまたはシミュレータ症へ導き得るユーザ知覚シナリオを生成し得る。システムレイテンシが高い場合、仮想物体の見かけの場所は、速い頭部の運動の間、不安定に出現することになる。
頭部着用型ディスプレイシステムに加えて、他のディスプレイシステムは、正確かつ低レイテンシの頭部の姿勢の検出からの利益を受け得る。これらは、頭部被追跡ディスプレイシステムを含み、このシステムでは、ディスプレイはユーザの身体に着用されないが、例えば壁または他の表面上に装備される。頭部被追跡ディスプレイは、シーン上への窓のように振る舞い、ユーザが彼の頭部を「窓」に対して動かすにつれて、ユーザの変化する視点に適合するようにシーンが再レンダリングされる。他のシステムは、頭部着用型ディスプレイが現実世界上へ光を投影する頭部着用型投影システムを含む。
加えて、本物のような拡張現実体験を提供するために、ARシステムは、ユーザと相互作用するように設計され得る。例えば、複数のユーザが、仮想のボールおよび/または他の仮想物体で球技を行い得る。1人のユーザが仮想のボールを「キャッチ」し得、かつボールを別のユーザへ投げ返し得る。別の実施形態では、第1のユーザは、仮想のボールを打つために、トーテム(例えば、ARシステムへ通信可能に結合された現実のバット)が提供され得る。他の実施形態では、ユーザが多くの選択肢のうちの1つを選択することを可能とするために、仮想ユーザインタフェースがARユーザへ提示され得る。ユーザはトーテム、触覚型デバイス、ウェアラブル構成要素を用い得るか、または、単純に、システムと相互作用するための仮想スクリーンに触れ得る。
ユーザの頭部の姿勢および向きを検出すること、および空間内の現実物体の物理的な場所を検出することは、ARシステムが、効果的かつ愉快な態様で仮想コンテンツを表示することを可能とする。しかし、これらの性能は、ARシステムにとっての要であるが、達成することが難しい。つまり、ARシステムは、現実物体(例えば、ユーザの頭部、トーテム、触覚型デバイス、ウェアラブル構成要素、ユーザの手部等)の物理的な場所を認識しなければならず、かつ、現実物体の物理的な座標を、ユーザへ表示される1または複数の仮想物体に対応する仮想座標に相関させなければならない。このことは、高速で1または複数の物体の位置および向きを追跡する大いに正確なセンサおよびセンサ認識システムを要求する。現在の手法は、満足な速さまたは精密な標準でローカル化を遂行しない。
従って、ARデバイスおよびVRデバイスの脈絡におけるより良いローカル化システムに対するニーズが存在する。
本発明は、例えば、以下を提供する。
(項目1)
複数の感知構成要素を操作するユーザをローカル化する方法であって、前記方法は、
制御および処理モジュールによって第1の姿勢データを送信することと、
第1の構成要素において前記第1の姿勢データを受信することと、
前記第1の姿勢データを、前記制御および処理モジュールに基づく座標フレームにおける第1の構成要素の相対的な姿勢に変換することと、
前記変換された第1の構成要素の相対的な姿勢で、前記第1の構成要素と通信するディスプレイユニットを更新することと
を備える、方法。
(項目2)
第2の構成要素において前記第1の姿勢データを受信することと、
前記第1の姿勢データを、前記制御および処理モジュールに基づく座標フレームにおける第2の構成要素の相対的な姿勢に変換することと、
前記第2の構成要素の相対的な姿勢を前記第1の構成要素と共有することと、
前記変換された第2の構成要素の相対的な姿勢に基づいて、前記第1の構成要素の姿勢を更新することと
をさらに備える、項目1に記載の方法。
(項目3)
前記第1の構成要素は、頭部装備型ウェアラブル構成要素である、項目1または2に記載の方法。
(項目4)
前記第2の構成要素は、手持ち型構成要素である、項目3に記載の方法。
(項目5)
前記第1の構成要素は、手持ち型ウェアラブル構成要素である、項目1または2に記載の方法。
(項目6)
前記第2の構成要素は、頭部装備型構成要素である、項目5に記載の方法。
(項目7)
前記第1の姿勢データを送信することは、電磁場信号を送信することを備える、項目1に記載の方法。
(項目8)
前記電磁場信号は、可視スペクトル内にある、項目7に記載の方法。
(項目9)
前記電磁場信号は、赤外線スペクトル内にある、項目7に記載の方法。
(項目10)
前記第1の姿勢データを受信することは、赤外線マーカーの視覚的捕捉を備える、項目1に記載の方法。
(項目11)
前記第1の姿勢データを受信することは、フィデューシャルマーカーの視覚的捕捉を備える、項目2に記載の方法。
(項目12)
複数の感知構成要素を操作するユーザをローカル化する方法であって、前記方法は、
頭部装備型構成要素において位置の情報を示す環境的特性を受信することと、
前記受信された環境的特性に基づく前記頭部装備型構成要素の環境座標フレームにおける頭部装備型構成要素の姿勢を決定することと、
少なくとも1つの手持ち型構成要素において前記少なくとも1つの手持ち型構成要素の前記頭部装備型構成要素に対する相対的な位置の側面を受信することと、
頭部装備型構成要素座標フレームにおける前記少なくとも1つの手持ち型構成要素の相対的な手持ち型構成要素の姿勢を決定することと、
前記環境座標フレームにおける前記決定された頭部装備型構成要素の姿勢を、前記少なくとも1つの手持ち型構成要素と共有すること、および、前記頭部装備型構成要素座標フレームにおける前記相対的な手持ち型構成要素の姿勢を、前記頭部装備型構成要素と共有することを実行することと、
前記頭部装備型座標フレームにおける前記少なくとも1つの手持ち型構成要素の前記相対的な姿勢を更新することと
を備える、方法。
(項目13)
前記少なくとも1つの手持ち型構成要素の前記相対的な位置を更新する前に、前記環境座標フレームにおける制御および処理モジュールから前記頭部装備型構成要素へ、相対的な位置の側面を送信することをさらに備える、項目12に記載の方法。
(項目14)
前記少なくとも1つの手持ち型コントローラの前記相対的な位置を更新する前に、前記環境座標フレームにおける前記頭部装備型構成要素の姿勢を更新することをさらに備える、項目13に記載の方法。
(項目15)
前記頭部装備型座標フレームにおける前記少なくとも1つの手持ち型構成要素の前記相対的な位置を、前記環境的座標フレームにおける手持ち型構成要素の姿勢に変換することをさらに備える、項目12に記載の方法。
(項目16)
前記環境座標フレームにおける制御および処理モジュールから前記少なくとも1つの手持ち型構成要素へ、相対的な位置の側面を送信することをさらに備える、項目12に記載の方法。
(項目17)
前記環境座標フレームにおける手持ち型構成要素の姿勢を決定することをさらに備える、項目16に記載の方法。
(項目18)
前記頭部装備型構成要素と共有された前記相対的な手持ち型構成要素の姿勢を、前記環境座標フレームにおける前記手持ち型構成要素の姿勢で更新することをさらに備える、項目17に記載の方法。
(項目19)
環境的特性を受信することは、画像ベースの特徴抽出およびローカル化を備える、項目12に記載の方法。
(図面の簡単な説明)
図面は、本発明の種々の実施形態の設計および有用性を図示する。図は正確な縮尺で描かれておらず、かつ、同様の構造または機能の要素は図全体にわたって類似の参照番号により表されることを留意されるべきである。本発明の種々の実施形態の、上記で記載された利点および目的、ならびに他の利点および目的を取得する方法をより良く認識するために、上記で簡単に説明された本発明のより詳細な説明が、付随する図面において図示される本発明の特有の実施形態の参照によって与えられる。これらの図面は、本発明の典型的な実施形態のみを描写しており、かつ、従ってその範囲の限定としてみなされるべきではないことを理解した上で、付随する図面の使用を通して、追加の具体性および詳細と共に、本発明を記載および説明する。
図1は、1つの実施形態による、ARシステムのユーザへ表示されるARシーンの平面図を図示する。
図2A-図2Dは、ウェアラブルARデバイスの種々の実施形態を図示する。 図2A-図2Dは、ウェアラブルARデバイスの種々の実施形態を図示する。 図2A-図2Dは、ウェアラブルARデバイスの種々の実施形態を図示する。 図2A-図2Dは、ウェアラブルARデバイスの種々の実施形態を図示する。
図3は、本発明の実施形態によるシステムの1または複数のクラウドサーバと相互作用するウェアラブルARデバイスの例示的な実施形態を図示する。
図4は、本発明の実施形態による1または複数の手持ち型コントローラデバイスと相互作用するウェアラブルARデバイスの例示的な実施形態を図示する。
図5は、本発明の実施形態による、物理的な環境におけるローカル化プロトコルをユーザが操作する例を図示する。
図6A-図6Cは、本発明の実施形態による、1または複数のサポートモジュールで、物理的な環境におけるローカル化プロトコルをユーザが操作する例を図示する。 図6A-図6Cは、本発明の実施形態による、1または複数のサポートモジュールで、物理的な環境におけるローカル化プロトコルをユーザが操作する例を図示する。 図6A-図6Cは、本発明の実施形態による、1または複数のサポートモジュールで、物理的な環境におけるローカル化プロトコルをユーザが操作する例を図示する。
図7A-図7Cは、本発明の実施形態によるサポートモジュールの例を図示する。 図7A-図7Cは、本発明の実施形態によるサポートモジュールの例を図示する。 図7A-図7Cは、本発明の実施形態によるサポートモジュールの例を図示する。
図8A-図8Bは、本発明の実施形態を利用する構成の例を図示する。 図8A-図8Bは、本発明の実施形態を利用する構成の例を図示する。
図9A-図9Iは、本発明の実施形態によるウェアラブルARシステムおよびサポートモジュールのための結合手段の例を図示する。 図9A-図9Iは、本発明の実施形態によるウェアラブルARシステムおよびサポートモジュールのための結合手段の例を図示する。 図9A-図9Iは、本発明の実施形態によるウェアラブルARシステムおよびサポートモジュールのための結合手段の例を図示する。 図9A-図9Iは、本発明の実施形態によるウェアラブルARシステムおよびサポートモジュールのための結合手段の例を図示する。 図9A-図9Iは、本発明の実施形態によるウェアラブルARシステムおよびサポートモジュールのための結合手段の例を図示する。 図9A-図9Iは、本発明の実施形態によるウェアラブルARシステムおよびサポートモジュールのための結合手段の例を図示する。 図9A-図9Iは、本発明の実施形態によるウェアラブルARシステムおよびサポートモジュールのための結合手段の例を図示する。 図9A-図9Iは、本発明の実施形態によるウェアラブルARシステムおよびサポートモジュールのための結合手段の例を図示する。 図9A-図9Iは、本発明の実施形態によるウェアラブルARシステムおよびサポートモジュールのための結合手段の例を図示する。
図10-図11は、本発明の実施形態によるローカル化ツールの、エコシステムを利用するための構成を図示する。 図10-図11は、本発明の実施形態によるローカル化ツールの、エコシステムを利用するための構成を図示する。
図12A-図12Cは、本発明の実施形態による、環境特有のサポートモジュールの例を図示する。 図12A-図12Cは、本発明の実施形態による、環境特有のサポートモジュールの例を図示する。 図12A-図12Cは、本発明の実施形態による、環境特有のサポートモジュールの例を図示する。
図13は、本発明の実施形態による、環境特有のサポートモジュールを備えるローカル化ツールのエコシステムを利用するための例示的構成を図示する。
(詳細な説明)
図2A-図2Dを参照すると、いくつかの概略的な構成部品の選択肢が図示されている。図2A-図2Dの議論に従う詳細な説明の部分では、人間のVRおよび/またはARについての高品質で快適に知覚されるディスプレイシステムを提供する目標に取り組むために、種々のシステム、サブシステムおよび構成要素が提示される。
図2Aに示されるように、ARシステムのユーザ(60)は、ユーザの目の前方に位置付けられるディスプレイシステム(62)に結合されたフレーム(64)構造を特徴とする頭部装備型構成要素(58)を着用して描写されている。スピーカ(66)は、描写されている構成においてフレーム(64)に結合され、かつ、ユーザの外耳道に隣接して位置付けられる(1つの実施形態では、ステレオサウンド制御/成形可能なサウンド制御を提供するために、示されていない別のスピーカがユーザの他の外耳道に隣接して位置付けられる)。ディスプレイ(62)は、有線のリードまたは無線の接続による等で、ローカル処理およびデータモジュール(70)に作用可能に結合される(68)。ローカル処理およびデータモジュール(70)は、フレーム(64)に固定的に取り付けられるか、図2Bの実施形態に示されるようにヘルメットまたは帽子(80)に固定的に取り付けられるか、ヘッドホンの中に埋め込まれるか、図2Cの実施形態に示されるようにバックパック式の構成でユーザ(60)の胴体(82)に取り外し可能に取り付けられるか、または、図2Dの実施形態に示されるようにベルト結合式の構成でユーザ(60)の臀部(84)に取り外し可能に取り付けられる等の各種の構成で装備され得る。
ローカル処理およびデータモジュール(70)は、電力効率プロセッサまたはコントローラと、フラッシュメモリ等のデジタルメモリとを備え得、その両方とも、データの処理、キャッシング、ストレージを支援するために利用され得る。そのデータは、a)フレーム(64)に作用可能に結合され得るセンサ(画像捕捉デバイス(カメラ等)、赤外線IRエミッタおよび受信器、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、ラジオデバイス、および/もしくは、ジャイロスコープ等)から捕捉され、かつ/または、b)場合によりそのような処理または検索の後にディスプレイ(62)に渡すことのために、リモート処理モジュール(72)および/もしくはリモートデータリポジトリ(74)を用いて獲得および/もしくは処理される。ローカル処理およびデータモジュール(70)は、有線または無線の通信リンクを介して等で、リモート処理モジュール(72)およびリモートデータリポジトリ(74)に作用可能に結合され得(76、78)、それによって、これらのリモートモジュール(72、74)は、相互に作用可能に結合され、かつ、ローカル処理およびデータモジュール(70)へのリソースとして利用可能である。
1つの実施形態では、リモート処理モジュール(72)は、データおよび/または画像情報を分析および処理するように構成された、1または複数の比較的強力なプロセッサまたはコントローラを備え得る。1つの実施形態では、リモートデータリポジトリ(74)は、比較的大規模なデジタルデータストレージ設備を備え得、これは「クラウド」リソース構成において、インターネットまたは他のネットワーキング構成を通して利用可能であり得る。1つの実施形態では、全てのデータがストアされ、かつ、全ての計算がローカル処理およびデータモジュールにおいて遂行されて、任意のリモートモジュールからの完全に自律的な使用を可能とする。
ここで図3を参照すると、概略図は、クラウド計算アセット(46)とローカル処理アセットとの間の連携を図示する。ローカル処理アセットは、例えば、図3に示されるように、ユーザの頭(120)に結合される頭部装備型構成部品(58)、ならびに、ユーザのベルト(308)に結合されるローカル処理およびデータモジュール(70)(従って、構成要素70は、「ベルトパック」70とも称され得る)の中に常駐し得る。1つの実施形態では、1または複数のサーバシステム(110)等のクラウド(46)アセットは、有線または無線のネットワーキング(無線は移動性のために好ましく、有線は所望され得る特定の高帯域幅または高データ量転送のために好ましい)を介して等で、上記で説明されたようにユーザの頭部(120)およびベルト(308)に結合されるローカルな計算アセット(プロセッサおよびメモリ構成等)のうちの一方または両方へ、直接的に(40、42)作用可能に結合される(115)。ユーザにローカルなこれらの計算アセットは、図8への参照において下記で議論される有線の結合(68)等の有線および/または無線の接続構成(44)を介して、相互にも作用可能に結合され得る。1つの実施形態では、ユーザの頭部(120)に装備される低慣性かつ小型のサブシステムを維持するために、ユーザとクラウド(46)との間の主たる転送は、ベルト(308)に装備されたサブシステムとクラウドとの間のリンクを介し得、頭部装備型(120)サブシステムは、主として、例えば個人用計算周辺機器接続の用途において現在使用されるような、超広帯域幅(「UWB」)接続等の無線の接続を用いて、ベルトベースの(308)サブシステムへデータテザリングされる。
効率的なローカルな処理とリモート処理との連携、ならびに、図2Aに示されるユーザインタフェースまたはユーザディスプレイシステム(62)、またはその変更物等の、ユーザのための適当なディスプレイデバイスによって、ユーザの現在の実際の場所または仮想場所に適切な1世界の側面が、ユーザへ転送または「渡され」得、かつ効率的な手法で更新され得る。つまり、世界のマップは、部分的にユーザのARシステム上に常駐し得かつ部分的にクラウドリソース内に常駐し得るストレージ場所で、継続的に更新され得る。
マップ(「渡すことが可能な世界のモデル」とも称される)は、ラスタイメージと、3Dおよび2Dポイントと、パラメータの情報と、現実世界についての他の情報とを備える大きなデータベースであり得る。ますます多くのARユーザが、彼らの現実環境についての情報を(例えばカメラ、センサ、IMU等を通して)継続的に捕捉するにつれて、マップはますます正確かつ完璧になり得る。
クラウド計算リソース上に常駐し得かつそこから配布され得る1世界のモデルが存在する上記で説明されたような構成では、そのような世界は、リアルタイムのビデオデータ類を渡し回ろうとするよりも好ましい比較的低い帯域幅の形式で、1または複数のユーザに「渡すことが可能」であり得る。像の近くに立っている人の拡張体験(すなわち、図1で示されているような)は、クラウドベースの世界のモデルによって情報を与えられ得、そのモデルのサブセットは、眺めを仕上げるために彼らおよび彼らのローカルディスプレイデバイスへ受け継がれ得る。机上に据え置かれているパーソナルコンピュータのように単純であり得るリモートディスプレイデバイスに向かって座っている人は、クラウドから情報の同一の区分を効率的にダウンロードし得、それを彼らのディスプレイ上でレンダリングし得る。実際、公園内の像の近くに実際に居る1人は、リモートに位置する友人を連れてその公園内を散歩し得、ここで、その友人は仮想現実および拡張現実を通して参加する。システムは、道がどこにあるか、木がどこにあるか、像がどこにあるかを知っている必要があるが、その情報はクラウド上にあり、参加する友人は、シナリオの側面をクラウドからダウンロードし得、それから、実際に公園内にいる人に対してローカルな拡張現実に沿って歩行を開始する。
特徴または別様に3Dポイントは、環境から検出および捕捉または別様に抽出され得、かつ、その画像またはポイントを捕捉するカメラの姿勢(すなわち、世界に対するベクトル情報および/または原点位置情報)が決定され得、そのようにして、これらのポイントまたは画像は、この姿勢情報で「タグ付け」または関連付けをされ得る。それから、第2のカメラ(物理的に第2のカメラ、または同一のカメラであるが第2の瞬間のカメラいずれか)によって捕捉されるポイントが、第2のカメラの姿勢を決定するために利用され得る。つまり、第1のカメラからのタグ付けされた画像との比較に基づいて、第2のカメラを配向し得かつ/またはローカル化し得る。それから、この知識は、テクスチャを抽出し、マップを作製し、かつ現実世界の仮想コピーを創出するために利用され得る(例えば、2つのカメラが存在し、それらの周りで位置合わせされるか、または、共通して位置合わせされたデータを比較するために用いられ得る2つの瞬間が存在する)。
そのため、ベースレベルにおいて、1つの実施形態では、人が着用するシステムは、3Dポイントおよびポイントを生産した2D画像の両方を捕捉するために利用され得、かつ、これらのポイントおよび画像は、クラウドストレージおよび処理リソースへ送り出され得る。それらはまた、埋め込まれた姿勢情報でローカルにキャッシュされ得る(すなわち、タグ付けされた画像をキャッシュする)。そのため、クラウドは、3Dポイントと共に、タグ付けされた2D画像(すなわち、3D姿勢でタグ付けされた)を準備のできた状態で(すなわち、利用可能なキャッシュ内に)有し得る。ユーザが何か動的なものを観測している場合、彼はまた、運動に適切な追加の情報をクラウドまで送り得る(例えば、別の人の顔を見ている場合、ユーザは顔のテクスチャマップを採取し、かつ、周辺世界が別様に基本的に静的であっても最適化された周波数でそれを押し上げ得る)。
「渡すことが可能な世界のモデル」を創出するために用いられ得るポイントを捕捉するためには、世界に対するユーザの場所、姿勢および向きを正確に知ることが役に立つ。より詳しくは、ユーザの頭部の姿勢および(ユーザが、手持ち型構成要素を掴んでいる、身振りをしている等の場合)手部の姿勢を知ることが重要であり得るため、ユーザの位置は、粒度へローカル化されなければならない。1または複数の実施形態では、GPSおよび他のローカル化情報が、そのような処理への入力として利用され得る。ユーザの頭、トーテム、手部の身振り、触覚型デバイス等の大いに正確なローカル化は、適当な仮想コンテンツをユーザへ表示することにおいて非常に重要である。
図4を参照すると、ARシステムが、作用可能に結合された手持ち型コントローラ(606)を特徴として示される。1または複数の実施形態では、手持ち型コントローラは、「トーテム」と称され得、ゲーミング等の種々のユーザシナリオにおいて利用される。他の実施形態では、手持ち型コントローラは触覚デバイスであり得る。手持ち型コントローラ(606)は、下記で説明されるように、カメラ、IMUおよび他のデバイスを備え得る種々の相互接続された構成要素に動力を供給するために、バッテリまたは他の電源を備え得る。ローカル処理およびデータモジュール(70)は、本明細書で説明されるように、クラウドリソース(630)に作用可能に結合され得、かつ頭部装備型ウェアラブル構成要素(58)に作用可能に結合され得る。
種々の実施形態では、種々の構成要素の計算、知覚力、および知覚性能を、例えば、構成要素が空間内で相互に対してどこに設置されかつ/もしくは向けられるか、どのローカルな環境のタイプ(例えば、部屋の幾何学形状、部屋内の物体の位置および/または向き等)をユーザが対処しているか、かつ/または、どの物体および特性が(例えば、SLAM分析を用いて)マップ化され得るか等の、ローカルな空間内でのユーザの動作に関係する種々の問題の強化された理解を有するように統合することが望まれ得る。
図5を参照すると、部屋(200)の上面図が示され、ここでユーザ(60)は、概して、机(206)、コーヒーテーブル(204)、および利用されるときに部屋内へ弧を描いて開くように構成されたドア(202)の方を見て立っている。上記で説明されたように、種々の実施形態では、ウェアラブル計算システムは、頭部装備型構成要素(58)、ローカル処理およびデータモジュール(70)、および手持ち型構成要素(606)等の作用可能に結合された構成要素を備えている。また、上記で説明されたように、そのような構成要素の各々は、種々のセンサおよびプロセッサ、ならびに、カメラ、IMUおよびプロセッサ構成要素等の、それら自身の関連した性能を備え得る。それらの性能は、特に、位置および/または向きにおいて、そのような構成要素が相互に対して、かつ/または、それらの周りの環境の側面に対してどこにあるかを決定するために、1または複数のプロセッサによって利用される姿勢決定アルゴリズムへ、データを提供するように構成され得る(上記で説明されたような、いわゆる「姿勢」決定)。
再び図5を参照すると、1つの実施形態では、手持ち型構成要素(606)ならびにローカル処理およびデータモジュール(70)の、頭部装備型構成要素(58)への相対的な近接は、相互に対してそのような構成要素の測位および/または向きを決定する点において有利であり得るが、人およびそのような構成要素の周りの環境に関する情報を収集するために最適化されないことがある。例えば、いくつかの位置および向きでは、ユーザ自身の身体は、手持ち型構成要素(606)を遮り得または別様に妨げ得、かつ頭部装備型構成要素(58)と効率的に通信することを阻み得る。ユーザでない他の環境的要因は、遂行にも有害な影響を与え、例えば、機能的なドアとしてのその可動性質に起因して、構成要素(58、70、および/または606)に対する位置および/または向きを変化させ得る図5のドア(202)は、描写された構成において操作者(60)からほとんど部屋全体にわたる。そのような構造の距離および角運動は、手持ち型構成要素(606)または頭部装備型構成要素(58)のいずれかによって、簡単には検出可能でないことがある。
図6Aを参照すると、種々の実施形態では、上記で説明されたようなBluetooth(登録商標)または他の無線の接続モダリティを介して等で、操作者(60)に結合される他の構成要素(58、70、および/または606)の処理およびストレージリソースへ無線で相互接続され得る、追加の手持ち型構成要素モジュール(606)等の1または複数の機器搭載構成要素を、計器装備がドア(202)の方へ向けられているそのようなドアの近くの位置等の、対象であると信頼される場所および向きに配置することが望まれ得る。つまり、追加の手持ち型構成要素モジュール(606)はある位置に配置され得、ここで、ユーザの手部の中に実際には保持されないが、むしろ、部屋または他の物体に対して位置付けられかつ向けられる(すなわち、机、床、または他の物体上の配置によるか、別の物体に結合される装備によって保持されるか、別の物体へ取り外し可能にかつ/または固定的に取り付けられるか等)。そのような構成では、追加の手持ち型構成要素モジュール(606)は、「支持」または「捕捉および処理」モジュール(606)と呼ばれ得る。1つの実施形態では、図6Aに示されるような捕捉および処理モジュール(606)は、一時的な位置/向き構成で床またはいくつかの他の構造上に配置され得るか、または、図6Bの実施形態に示されるように、構造へ固定的に取り付けられ得る。図6Bの実施形態では、追加の捕捉および処理モジュール(606)は壁に結合され、再び近くのドア(202)に適切なデータの収集で支援するために選択された位置および向きで、かつ、再び追加の捕捉および処理モジュール(606)は、上記で説明されたもの等のBluetooth(登録商標)または他の無線の接続構成を介して等で、本システムの他の構成要素(58、70、606)に作用可能に結合される。
そのような実施形態では、操作者(60)へ物理的に結合される各々の構成要素(58、70、606)は、追加の捕捉および処理モジュール(606)内に常駐する追加のデータ捕捉および処理性能からの利益を受けるように構成され得る。ここでは、追加の捕捉および処理モジュール(606)は、手持ち型構成要素として利用される構成部品の追加のバージョンとして示される。図6Cは、複数の追加の捕捉および処理モジュール(606)が、それらの周りの世界を処理および分析することにおいて支援するように、操作者の環境の周りに位置付けられ得かつ向けられ得ることを図示する。複数の捕捉および処理モジュールは、異なる測定のために個々に最適化され得ることが認識される。例えば、ドアに近接する捕捉および処理モジュール(606)は、ドア(202)が開閉するときにのみ、ユーザ(60)によって活用されるシステムのためにローカル化データを更新するように構成され得る。離れたところからの頭部装備型構成要素(58)または手持ち型構成要素(606)上のセンサからのレイキャストまたはコーンキャストは、半開きのドアと閉められたドアとの間の差異を見分けることが可能でないことがあるのに対し、ドアの開閉の角方向に向けられた飛行時間センサを有するドアに近接するセンサは、ドア(202)(およびひいては部屋(200))の更新された検出可能な特徴の位置を素早くかつより精密に決定し得る。
同様にして、部屋(200)の隅にある捕捉および処理モジュール(606)は、ユーザ(60)が、それに近接しており、かつ、隅の捕捉および処理モジュール(606)の方へ少なくとも部分的に頭部の姿勢を方向付けることを検出したときに、ローカル化データをアクティブ化および提供し得る。そのような実施形態の利益は、ユーザが、壁または隅等の空間の物理的境界に接近するにつれて、頭部装備型構成要素(50)または手持ち型構成要素(606)上のセンサがローカル化のために検出および抽出するためのより少数の特徴が存在し、かつ、捕捉および処理モジュール(606)は、ローカル化のための「灯台」効果を提供し得ることである。
図7Aおよび図7Bは、ハンドル(210)と、デスクトップスタンド(212)と、上述されたような、カメラ(124)、IRエミッタおよび/または受信器、IMU(102)、WiFi通信デバイス(114)、Bluetooth(登録商標)通信デバイス(115)、ならびに、適当に他のセンサに結合される埋め込み型および/またはモバイル型のプロセッサ(128)等を含むが、それらに限定されない構成部品とを備え得る、携帯用の追加の捕捉および処理モジュール(606)の実施形態を図示する。図7Cは、示されているような4つ等の複数の単色カメラデバイス(125)と、カラーカメラ(127)と、デプスカメラ(129)とを備えるカメラモジュール(124)の1つの実施形態のクローズアップ図を図示する。デプスカメラ(129)は、そのようなデプスカメラ(129)の捕捉インタフェースに対して空間内の画像要素を配置することにおいて支援するために、飛行時間データを利用するように構成される。
図9Aを参照すると、図5および図7A-図7Cで特徴とされるもの等の構成は、種々の構成要素の相対的な姿勢を決定することにおいて利用され得る。ユーザは、操作者へも結合される手持ち型コントローラ(606)へ、操作者の手部(214)を介して等で作用可能に結合される頭部装備型ウェアラブル構成要素(58)を着用状態にあり得る。頭部装備型ウェアラブル構成要素(58)は、頭部装備型ウェアラブル構成要素(58)の周りの部屋およびその要素等の環境に対する、場所および/もしくは向き等の頭部装備型ウェアラブル構成要素の姿勢の特定の側面、ならびに/または、部屋もしくはそこの物体(216)の形状等のそのような環境に関する特定の特性を決定するために、そこに結合されるセンサを利用するように構成され得る。
手持ち型コントローラ(606)は、手持ち型コントローラ(606)の周りの環境に対する、場所および/もしくは向き等の手持ち型コントローラ(606)の姿勢の特定の側面、ならびに/または、そのような環境に関する特定の特性(部屋(218)の形状等)を決定するために、そこに結合されるセンサを利用するように構成され得る。
手持ち型コントローラおよび頭部装備型ウェアラブル構成要素は、それらの作用可能な結合を介して(上記で説明されたようなBluetooth(登録商標)接続を介して等)、決定された姿勢情報を共有するように構成され得、それによって、相対的な位置付けおよび/または配向が、手持ち型コントローラと頭部装備型ウェアラブル構成要素との間で決定され得る(220)。そのような動作は、手持ち型コントローラと頭部装備型ウェアラブル構成要素との間の相対的な位置付けおよび/または配向に関する適時のリフレッシュ情報を維持するために、頻繁に更新され得る(222)。いずれかの構成要素のローカル化は、いずれかの座標フレームの関数として提供され得る。つまり、手持ち型構成要素は、「手持ち型構成要素フレームワーク」または「座標フレーム」におけるその位置および向きを決定するためにそのセンサを作動させ得、かつ、それから頭部装備型構成要素と結合して、それに同一のフレームワークにおけるその位置および向きを提供するために頭部装備型構成要素の相対的な位置を決定する。その反対も当てはまり、頭部装備型構成要素は、その位置および向きを決定し得、かつそれから頭部着用型構成要素に対するコントローラの位置および向きを決定し得、かつ、引き続いて頭部装備型構成要素フレームワークまたは頭部装備型座標フレームにおける手持ち型構成要素のためのローカル化を提供し得る。ユークリッド距離行列、4元数配向、または3次元回転行列等の、2つの間の行列変換は、構成要素間のそのような座標フレーム変換を促進するために使用され得る。
いくつかの実施形態では、任意の1つの構成要素が、複数の他の構成要素に対してそれ自身をローカル化し得る。例えば、手持ち型コントローラ(606)は、頭部装備型構成要素(58)ならびに捕捉および処理モジュール(606)に対するその位置を検出し得る。相対的な感知の手段は、さらに主観的であり得る。手部構成要素(606)は、頭部装備型構成要素(58)上のIR信号を検出するために、IRアレイ追跡を利用し得、かつ、捕捉および処理モジュール(606)を検出するために、可視光トラッキング(特徴の検出および抽出またはフィデューシャル検出等)を用い得る。そのような点において、構成要素の1つのペアリングの間のような平行移動測定または回転測定は、最適化されたローカル化データセットを任意の所与の時間においてユーザに提供するために、構成要素の他のペアリングの間のような画像捕捉特徴検出を置換し得るかまたは補い得る。
前の例を参照すると、ユーザが多くの検出可能な特徴を欠いている空の壁に接近する場合、システムが計算をなすために利用するための少数の感知される特徴を有することになるので、画像ベースの追跡を使用することは、正確性が減少し、レイテンシが増加することになる。しかし、制御および処理モジュール(606)が、IR信号、飛行時間パルスまたは電磁気的伝送等の追加の検出可能なデータを提供する場合、その制御および処理モジュールに対するユーザの回転および平行移動は、画像ベースの追跡センサによって、検出可能な特徴の欠如の不足を補償するために、任意のローカル化ロジックを少なくとも補い得る。
図8Bを参照すると、図6A-図6Cおよび図7A-図7Cを参照して上記で説明されたもの等の構成は、種々の構成要素の相対的または絶対的な姿勢を決定することにおいて利用され得る。図8Bに示されるように、ユーザは、複数の手持ち型コントローラ(606)および/または固定的装備型(8)コントローラ(224)に作用可能に結合された頭部装備型ウェアラブル構成要素(58)を着用状態にあり得、それら複数の手持ち型コントローラ(606)および/または固定的装備型(8)コントローラ(224)のうちの1つは、手持ち型結合を介して等で、操作者の身体へ物理的に結合され得る。頭部装備型ウェアラブル構成要素(58)は、頭部装備型ウェアラブル構成要素(58)の周りの環境(部屋等)に対する頭部装備型ウェアラブル構成要素の姿勢の特定の側面(場所および向き等)、ならびに/または、そのような環境に関する特定の特性(部屋の形状等)を決定するために、そこに結合されたセンサを利用するように構成され得る(226)。複数の手持ち型コントローラ(606)は、他の物体上に載置されるか、または他の物体へ固定的に装備されるように構成され得、そのうちの1つは、図6A-図6Cおよび図7A-図7Cにおける場合等で操作者へ物理的に結合され得、それら複数の手持ち型コントローラ(606)は、そのようなコントローラの周りの環境(部屋等)に対するそのようなコントローラの姿勢の特定の側面(場所および向き等)、ならびに/または、そのような環境に関する特定の特性(部屋の形状等)を決定するために、複数の手持ち型コントローラ(606)に結合されたセンサを利用するように構成され得る(228)。複数の手持ち型コントローラ(606)は、他の物体へ固定的に装備され得るか、他の物体上に載置され得るか、または操作者に結合され得、それら複数の手持ち型コントローラ(606)および頭部装備型ウェアラブル構成要素(58)は、それらの作用可能な結合を介して(Bluetooth(登録商標)接続を介して等)、決定された姿勢情報を共有するように構成され得、それによって、相対的な位置付けおよび/または配向は、複数の手持ち型コントローラ(606)のうちの1または複数と、頭部装備型ウェアラブル構成要素(58)との間で決定され得る(230)。
構成要素の各々の中での行列変換は、単純に構成要素の中での相対的な位置でない場合には、絶対的な位置を提供するために最適化され得る。例えば、固定的装備型構成要素の位置および向きが物理的環境において既知である場合には、手持ち型構成要素(606)または頭部装備型構成要素(58)は、それらの固定的装備型構成要素に対するそれらのそれぞれの姿勢を決定し得、かつ、ひいては絶対的な姿勢と参照され得る「現実世界座標フレーム」または「環境座標フレーム」位置および向きを決定し得る。
上記で議論されたように、他の中間座標フレームが存在し得るかまたは有用であり得ることが認識される。例えば、(手持ち型構成要素に結合された慣性測定ユニット、加速度計、またはカメラ等から)位置のデータの受信のみをする手持ち型コントローラは、「手持ち型座標フレーム」におけるその姿勢を決定し得、かつ、同様にして「頭部装備型座標フレーム」および姿勢情報のためにそのセンサが検出および抽出する。いくつかの実施形態において、開示されるセンサおよび感知構成要素を用いて位置を決定するためのローカル化システムおよびプロトコルは、中間座標フレームにおいて動作することのみを必要とし得、かつ、絶対的または完全な環境座標フレーム情報を必要としないことがある。
そのような動作は、複数の手持ち型コントローラおよび/または固定的装備型コントローラと、頭部装備型ウェアラブル構成要素との間の、相対的な位置付けおよび/または配向に関する適時の情報を維持するために、頻繁に更新され得る(232)。
図9Aを参照すると、赤外線送信器等の送信要素、または、小さな複数の鏡、ガラスの球体、もしくは他の反射性要素等の反射器を表し得る小さなフィデューシャル(246)は、フィデューシャル(246)のうちの1または複数の間の既知または予め決定された寸法でのシステムのモジュールの間の位置および/または向きの速い決定を支援するために利用され得る。例えば、図9Bを参照すると、複数のフィデューシャル(246)が結合された頭部装備型構成要素(58)の1つの実施形態では、フィデューシャル(246)の間の比較的長い既知の長さは、グローバル座標系に対して、または、カメラもしくは他のデバイスでフィデューシャルを追跡するように構成された別の構成要素に対して、空間内のそのような頭部装備型構成要素(58)の相対的な位置および/もしくは向きを決定ならびに追跡することに利用され得る。図9Cは、そのような構築の位置付けおよび/または配向に関する追加の情報を提供するための、追加のフィデューシャル(246)を有する別の頭部装備型構成要素(58)の構成を図示する。
図9Dは、ローカル処理およびデータモジュール(70)の構成を図示し、これにもまた、相対的な姿勢の決定を支援するための複数のフィデューシャル(246)が結合されている。図9Eは、ローカル処理およびデータモジュール(70)の構成の別の実施形態を図示し、これには、相対的な姿勢の決定を支援するためのより多くの複数のフィデューシャル(246)が結合されている。
図9Fは、手持ち型コントローラモジュール(606)の構成を図示し、これにもまた、相対的な姿勢の決定を支援するための複数のフィデューシャル(246)が結合されている。図29Gは、手持ち型コントローラ(606)の構成の別の実施形態を図示し、これには、相対的な姿勢の決定を支援するための多くの複数のフィデューシャル(246)が結合されている。
図9Hは、手持ち型コントローラモジュール(606)の構成を図示し、これには、相対的な姿勢の決定を支援するためのマルチフィデューシャルアレイ(248)が結合されている。サブ部分の既知の位置を有するそのようなフィデューシャルアレイは、それらの幾何学形状が、例えば、モバイル型計算システムのウェアラブル構成要素ほど多くの幾何学形状の制約がなく、追加の手持ち型コントローラモジュール(606)がコーヒーテーブル類に配置される等で、与えられ得るときに、姿勢の決定において有用であり得る。図9Iは、操作者(60)に既に結合された1つの手持ち型コントローラ(606)に加えて、手持ち型コントローラモジュール(606)等の複数の追加のコントローラも、相互に相対的な構成要素の速い姿勢の決定を支援するためのフィデューシャル(246)が供給され得る構成を図示する。
図10を参照すると、図9Aを参照して説明されたものなどの実施形態では、ユーザ(60)は、手持ち型コントローラ(606)に作用可能に結合された頭部装備型ウェアラブル構成要素(58)を着用状態にあり得る(214)。頭部装備型ウェアラブル構成要素(58)は、頭部装備型ウェアラブル構成要素の周りの環境(部屋等)に対する、頭部装備型ウェアラブル構成要素の姿勢の特定の側面(場所および向き等)、ならびに/または、そのような環境に関する特定の特性(部屋の形状等)を決定するために、頭部装備型ウェアラブル構成要素に結合されたセンサを利用するように構成され得る(216)。操作者の手部に物理的に結合された手持ち型コントローラ等の手持ち型コントローラ(606)、および頭部装備型ウェアラブル構成要素は、頭部装備型ウェアラブル構成要素の姿勢に対する手持ち型コントローラの姿勢の特定の側面(場所および向き等)を決定するために、それらに結合された送信器/受信器ペアリング(単ラップ構成での赤外線スペクトルビーコンおよびセンサ等)、または、トランシーバ/反射器ペアリング(2ラップ構成での赤外線スペクトル送信器/受信器デバイスおよび反射器等)を介して等で、フィデューシャルを利用するように構成され得る(234)。手持ち型コントローラ(606)および頭部装備型ウェアラブル構成要素(58)は、それらの作用可能な結合を介して(Bluetooth(登録商標)接続を介して等)、決定された姿勢情報を共有するように構成され得、それによって、相対的な位置付けおよび/または配向が、手持ち型コントローラと頭部装備型ウェアラブル構成要素との間で決定され得る(236)。そのような動作は、手持ち型コントローラと頭部装備型ウェアラブル構成要素との間の相対的な位置付けおよび/または配向に関するリフレッシュ情報を維持するために、頻繁に更新され得る(238)。
図11を参照すると、図9Iに図示されたもの等の実施形態では、ユーザか、または壁(8)等の周辺の部屋の他の物体かに物理的に結合され得る複数の手持ち式コントローラ(606)に作用可能に結合された頭部装備型ウェアラブル構成要素(58)を、ユーザ(60)が着用状態にあり得る(224)。頭部装備型ウェアラブル構成要素(58)は、頭部装備型ウェアラブル構成要素(58)の周りの環境(部屋等)に対する頭部装備型ウェアラブル構成要素の姿勢の特定の側面(場所および向き等)、ならびに/または、そのような環境に関する特定の特性(部屋の形状等)を決定するために、頭部装備型ウェアラブル構成要素(58)に結合されたセンサを利用するように構成され得る(226)。複数の手持ち型コントローラ(606)、および頭部装備型ウェアラブル構成要素(58)は、頭部装備型ウェアラブル構成要素(58)の姿勢に対する手持ち型コントローラ(606)の姿勢の特定の側面(場所および向き等)を決定するために、複数の手持ち型コントローラ(606)に結合された送信器/受信器ペアリング(単ラップ構成での赤外線スペクトルビーコンおよびセンサ等)またはトランシーバ/反射器ペアリングリング(2ラップ構成での赤外線スペクトル送信器/受信器デバイスおよび反射器等)等のフィデューシャル構成を利用するように構成され得る(240)。複数の手持ち型コントローラ(606)および頭部装備型ウェアラブル構成要素(58)は、それらの作用可能な結合を介して(Bluetooth(登録商標)接続を介して等)、決定された姿勢情報を共有するように構成され得、それによって、相対的な位置付けおよび/または配向が、複数の手持ち型コントローラ(606)と頭部装備型ウェアラブル構成要素(58)との間で決定され得る(242)。そのような動作は、複数の手持ち型コントローラおよび/または固定的装備型コントローラと、頭部装備型ウェアラブル構成要素との間の相対的な位置付けおよび/または配向に関するリフレッシュ情報を維持するために、頻繁に更新され得る(244)。
図12Aを参照すると、別の実施形態は、手持ち型コントローラ(606)の周期的な動き(248)が、手持ち型コントローラ(606)の異なる場所/向きからの追加の姿勢決定データのために、手持ち型コントローラ(606)に含有される計器装備をさらに活用するように利用され得る。つまり、操作者(60)が特にドアの周辺の区域の動きに興味がある場合には、異なる観点、ベクトル、および/また向きからそのようなローカルな環境に関する追加の情報を捕捉するためのコントローラを備えるセンサを利用することにおいてコントローラを支援するために、操作者(60)は手持ち型コントローラ(60)を周りで振り(waive)得る。
そのような手持ち型の周期的な運動は、操作者が標的となる構造の間近にいることを要求し、かつ、これは所望されなかったり実用的でなかったりことがある。図12Bの実施形態は、主題のドア(202)から比較的離れたユーザ(60)を特徴とするが、2つの手持ち型コントローラ(606)は、対象のエリアに、1つは近くの壁に、かつ1つはドア(202)自体に装備される。図12Cは、周期的な運動(248)および図24Bにおけるような追加の感知デバイス(606)の両方を特徴とする実施形態を図示する。
図13は、図11のものと同様の構成を図示し、この構成では、対象の物体または体積に関する情報のさらなる捕捉、ならびに、手持ち型コントローラ(606)と、1または複数の固定的装備型コントローラ(606)および頭部装備型ウェアラブル構成要素(58)等の他のデバイスとに対するその位置付けおよび/または配向を促進するために、ユーザ(60)が、周期的な運動または動きを介して等で、対象の物体または体積の周り(ドアまたは他の物体の周り等)で1または複数の手持ち型コントローラを動かすことが追加される。そのような動作は、複数の手持ち型コントローラおよび/または固定的装備型コントローラと、頭部装備型ウェアラブル構成要素との間での相対的な位置付けおよび/または配向に関するリフレッシュ情報を維持するために、頻繁に更新され得る(270)。
本発明の種々の例示的な実施形態が、本明細書において説明される。非限定的な意味でこれらの例に参照がなされる。それらは、より広範に適用可能な本発明の側面を示すために提供される。
本発明は、主題のデバイスを用いて遂行され得る方法を含む。方法は、そのような適切なデバイスを提供するアクトを備え得る。そのような提供は、エンドユーザによって遂行され得る。つまり、「提供する」アクトは、単に、エンドユーザが、取得、アクセス、接近、位置付け、設定、作動、起動、または別様に動作して主題の方法において必須のデバイスを提供することを要求するに過ぎない。本明細書に記載される方法は、論理的に可能である記載された事象の任意の順序で、かつ事象の記載された順序で実行され得る。
本発明の例示的な側面が、材料選択および製造に関する詳細と共に上述された。本発明の他の詳細については、これらは、上記で参照された特許および刊行物と関連して理解され得、かつ当業者によって一般的に公知または理解され得る。共通してまたは論理的に使用されるような追加のアクトの観点から、本発明の方法ベースの側面について同一のことが当てはまり得る。
また、説明される本発明の変更物の任意の随意的な特徴が、独立して、または本明細書で説明される特徴のうちの任意の1つまたは複数との組み合わせにおいて、述べられ請求され得ることが企図される。単数形の項目への参照は、複数形の同一の項目が存在する可能性を含む。より詳しくは、本明細書およびそれに関連付けられる請求項において用いられる場合、単数形「a」、「an」、「said」、および「the」は、そうでないと具体的に陳述されない限りは、複数形の指示物を含む。つまり、冠詞の使用は、上記の説明および本開示に関連付けられる請求項において、主題の項目のうちの「少なくとも1つ」を可能にする。そのような請求項は、任意の随意的な要素を排除するように起草され得ることにさらに留意されたい。そのようにして、この陳述は、請求項の要素の記載と関連して、「solely」、「only」の類の排除的用語の使用、または「否定的な」限定の使用のための先行する記載の根拠としての機能を果たすことが意図される。
そのような排除的用語を使用することなく、本開示に関連付けられる請求項中の用語「comprising」は、所与の数の要素がそのような請求項で列挙されるか、または特徴の追加がそのような請求項で述べられる要素の性質の変換としてみなされ得るかに関わらず、任意の追加の要素の包含を可能にする。本明細書において具体的に定義されたようなことを除いて、本明細書で用いられる全ての技術的かつ科学的な用語は、請求項の有効性を維持しながら、可能な限り広く共通して理解される意味として与えられるべきである。

Claims (15)

  1. 方法であって、前記方法は、
    頭部装備型構成要素において位置の情報を示す環境的特性を受信することと、
    前記受信された環境的特性に基づく前記頭部装備型構成要素の環境座標フレームにおける頭部装備型構成要素の姿勢を決定することと、
    前記頭部装備型構成要素において、少なくとも1つの手持ち型構成要素の前記頭部装備型構成要素に対する相対的な位置の側面を受信することと、
    頭部装備型構成要素座標フレームにおける前記少なくとも1つの手持ち型構成要素の相対的な手持ち型構成要素の姿勢を決定することと、
    前記少なくとも1つの手持ち型構成要素において、前記頭部装備型構成要素に対する前記相対的な位置の側面を受信することと、
    前記相対的な位置の側面を、前記頭部装備型構成要素座標フレームにおける相対的な手持ち型構成要素の姿勢に変換することと、
    前記環境座標フレームにおける前記頭部装備型構成要素の姿勢を、前記少なくとも1つの手持ち型構成要素と共有すること、および、前記頭部装備型構成要素座標フレームにおける前記相対的な手持ち型構成要素の姿勢を、前記頭部装備型構成要素と共有することを実行することと、
    前記相対的な手持ち型構成要素の姿勢に基づいて、前記環境座標フレームにおける前記頭部装備型構成要素の姿勢を更新することと、
    前記環境座標フレームにおける前記頭部装備型構成要素の姿勢に基づいて、前記頭部装備型構成要素座標フレームにおける前記相対的な手持ち型構成要素の姿勢を更新することと
    を含む、方法。
  2. 前記相対的な手持ち型構成要素の姿勢を更新する前に、前記環境座標フレームにおける制御および処理モジュールから前記頭部装備型構成要素へ、前記相対的な位置の側面を送信することをさらに含む、請求項1に記載の方法。
  3. 前記環境座標フレームにおける前記頭部装備型構成要素の姿勢を更新することは、前記頭部装備型構成要素座標フレームにおける前記相対的な手持ち型構成要素の姿勢を更新する前に実施される、請求項1に記載の方法。
  4. 前記頭部装備型構成要素座標フレームにおける前記相対的な手持ち型構成要素の姿勢を、前記環境座標フレームにおける手持ち型構成要素の姿勢に変換することをさらに含む、請求項1に記載の方法。
  5. 前記環境座標フレームにおける制御および処理モジュールから前記少なくとも1つの手持ち型構成要素へ、前記相対的な位置の側面を送信することをさらに含む、請求項1に記載の方法。
  6. 前記環境座標フレームにおける手持ち型構成要素の姿勢を決定することをさらに含む、請求項5に記載の方法。
  7. 前記頭部装備型構成要素と共有された前記相対的な手持ち型構成要素の姿勢を、前記環境座標フレームにおける前記手持ち型構成要素の姿勢で更新することをさらに含む、請求項6に記載の方法。
  8. 環境的特性を受信することは、画像ベースの特徴抽出およびローカル化を備える、請求項1に記載の方法。
  9. 前記環境座標フレームにおける前記頭部装備型構成要素の姿勢は、無線接続を介して前記少なくとも1つの手持ち型構成要素と共有される、請求項1に記載の方法。
  10. 前記頭部装備型構成要素座標フレームにおける前記相対的な手持ち型構成要素の姿勢は、無線接続を介して前記頭部装備型構成要素と共有される、請求項1に記載の方法。
  11. 前記少なくとも1つの手持ち型構成要素は、手持ち型コントローラを含む、請求項1に記載の方法。
  12. 前記位置の情報を示す環境的特性は、前記頭部装備型構成要素に結合されたセンサを利用することによって前記頭部装備型構成要素において受信される、請求項1に記載の方法。
  13. 複数のフィデューシャルが、前記少なくとも1つの手持ち型構成要素に結合される、請求項1に記載の方法。
  14. 前記複数のフィデューシャルは、前記頭部装備型構成要素座標フレームにおける前記少なくとも1つの手持ち型構成要素の前記相対的な手持ち型構成要素の姿勢を決定するために利用される、請求項13に記載の方法。
  15. 赤外線スペクトルビーコンが、前記頭部装備型構成要素座標フレームにおける前記少なくとも1つの手持ち型構成要素の前記相対的な手持ち型構成要素の姿勢を決定するために利用される、請求項1に記載の方法。
JP2023115823A 2018-02-06 2023-07-14 拡張現実のためのシステムおよび方法 Active JP7546116B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862627155P 2018-02-06 2018-02-06
US62/627,155 2018-02-06
JP2020537488A JP7316282B2 (ja) 2018-02-06 2019-02-05 拡張現実のためのシステムおよび方法
PCT/US2019/016721 WO2019156992A2 (en) 2018-02-06 2019-02-05 Systems and methods for augmented reality

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020537488A Division JP7316282B2 (ja) 2018-02-06 2019-02-05 拡張現実のためのシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2023126474A JP2023126474A (ja) 2023-09-07
JP7546116B2 true JP7546116B2 (ja) 2024-09-05

Family

ID=67549617

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020537488A Active JP7316282B2 (ja) 2018-02-06 2019-02-05 拡張現実のためのシステムおよび方法
JP2023115823A Active JP7546116B2 (ja) 2018-02-06 2023-07-14 拡張現実のためのシステムおよび方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020537488A Active JP7316282B2 (ja) 2018-02-06 2019-02-05 拡張現実のためのシステムおよび方法

Country Status (9)

Country Link
US (2) US11222457B2 (ja)
EP (1) EP3750033A4 (ja)
JP (2) JP7316282B2 (ja)
KR (2) KR102689931B1 (ja)
CN (1) CN111712780A (ja)
AU (1) AU2019217515A1 (ja)
CA (1) CA3087738A1 (ja)
IL (2) IL276254B2 (ja)
WO (1) WO2019156992A2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL276254B2 (en) 2018-02-06 2024-09-01 Magic Leap Inc Systems and methods for augmented reality
CN110221690B (zh) * 2019-05-13 2022-01-04 Oppo广东移动通信有限公司 基于ar场景的手势交互方法及装置、存储介质、通信终端
JP7463796B2 (ja) * 2020-03-25 2024-04-09 ヤマハ株式会社 デバイスシステム、音質制御方法および音質制御プログラム
RU201742U1 (ru) * 2020-07-22 2020-12-30 Общество с ограниченной ответственностью "МИКСАР ДЕВЕЛОПМЕНТ" Очки дополненной реальности, ориентированные на применение в условиях опасного производства
CN114694167A (zh) * 2020-12-28 2022-07-01 Oppo广东移动通信有限公司 姿态识别方法、装置、设备、系统、以及存储介质
US11768374B1 (en) 2022-06-24 2023-09-26 Rockwell Collins, Inc. Vehicle including head wearable display device and imperceptible reference fiducials and method therefor
JP7466733B1 (ja) 2023-03-27 2024-04-12 株式会社複合現実製作所 画像表示装置および画像表示システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015118442A (ja) 2013-12-17 2015-06-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20160259404A1 (en) 2015-03-05 2016-09-08 Magic Leap, Inc. Systems and methods for augmented reality
JP2016532178A (ja) 2013-06-08 2016-10-13 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイにおいて、透過モードと非透過モードとの間を移行するシステム及び方法
WO2017037962A1 (ja) 2015-08-28 2017-03-09 株式会社タカラトミー 頭部装着型ディスプレイを備えた情報処理装置
US20170307891A1 (en) 2016-04-26 2017-10-26 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7145478B2 (en) * 2002-12-17 2006-12-05 Evolution Robotics, Inc. Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system
US8542219B2 (en) * 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
JP5631535B2 (ja) * 2005-02-08 2014-11-26 オブロング・インダストリーズ・インコーポレーテッド ジェスチャベースの制御システムのためのシステムおよび方法
CA3207408A1 (en) 2011-10-28 2013-06-13 Magic Leap, Inc. System and method for augmented and virtual reality
JP6250547B2 (ja) 2011-11-23 2017-12-20 マジック リープ, インコーポレイテッドMagic Leap,Inc. 3次元仮想現実および拡張現実表示システム
US20140168261A1 (en) 2012-12-13 2014-06-19 Jeffrey N. Margolis Direct interaction system mixed reality environments
KR20230173231A (ko) 2013-03-11 2023-12-26 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
KR102560629B1 (ko) 2013-03-15 2023-07-26 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
CN107329259B (zh) 2013-11-27 2019-10-11 奇跃公司 虚拟和增强现实系统与方法
US9524580B2 (en) * 2014-01-06 2016-12-20 Oculus Vr, Llc Calibration of virtual reality systems
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
JP6355978B2 (ja) * 2014-06-09 2018-07-11 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
JP6290020B2 (ja) * 2014-07-11 2018-03-07 Kddi株式会社 画像処理装置、画像処理方法、およびプログラム
US10180734B2 (en) * 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
JP6918781B2 (ja) 2015-08-21 2021-08-11 マジック リープ, インコーポレイテッドMagic Leap,Inc. 眼ポーズ測定を用いた眼瞼形状推定
US10317989B2 (en) * 2016-03-13 2019-06-11 Logitech Europe S.A. Transition between virtual and augmented reality
JP2017187952A (ja) * 2016-04-06 2017-10-12 株式会社コロプラ 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム
US10198874B2 (en) * 2016-05-13 2019-02-05 Google Llc Methods and apparatus to align components in virtual reality environments
US10365712B2 (en) * 2016-05-17 2019-07-30 Google Llc Object tracking in a head mounted reference frame in an augmented and/or virtual reality environment
US10078377B2 (en) * 2016-06-09 2018-09-18 Microsoft Technology Licensing, Llc Six DOF mixed reality input by fusing inertial handheld controller with hand tracking
US10126553B2 (en) * 2016-06-16 2018-11-13 Microsoft Technology Licensing, Llc Control device with holographic element
US10452133B2 (en) * 2016-12-12 2019-10-22 Microsoft Technology Licensing, Llc Interacting with an environment using a parent device and at least one companion device
US10600203B2 (en) * 2017-06-06 2020-03-24 CapSen Robotics, Inc. Three-dimensional scanner with detector pose identification
GB2565836B (en) * 2017-08-25 2021-04-14 Sony Interactive Entertainment Inc Data processing for position detection using markers in captured images
IL276254B2 (en) 2018-02-06 2024-09-01 Magic Leap Inc Systems and methods for augmented reality

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016532178A (ja) 2013-06-08 2016-10-13 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイにおいて、透過モードと非透過モードとの間を移行するシステム及び方法
JP2015118442A (ja) 2013-12-17 2015-06-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20160259404A1 (en) 2015-03-05 2016-09-08 Magic Leap, Inc. Systems and methods for augmented reality
CN107533233A (zh) 2015-03-05 2018-01-02 奇跃公司 用于增强现实的系统和方法
JP2018511122A (ja) 2015-03-05 2018-04-19 マジック リープ, インコーポレイテッドMagic Leap,Inc. 拡張現実のためのシステムおよび方法
WO2017037962A1 (ja) 2015-08-28 2017-03-09 株式会社タカラトミー 頭部装着型ディスプレイを備えた情報処理装置
US20170307891A1 (en) 2016-04-26 2017-10-26 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
JP2019522832A (ja) 2016-04-26 2019-08-15 マジック リープ, インコーポレイテッドMagic Leap,Inc. 拡張現実システムを用いた電磁追跡

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
山添大丈,ヘッドマウントカメラ画像と固定カメラ画像を用いた頭部位置・姿勢推定,電子情報通信学会論文誌,J89-D(1),(社)電子情報通信学会,2006年01月01日,14-26
木村亮太,拡張現実を用いた福祉車両の操縦支援システム,ロボティクスメカトロニクス講演会 2017 講演論文集,(社)日本機械学会,2017年05月09日,2A1-J08(1-4),学術文献等DB

Also Published As

Publication number Publication date
US11620785B2 (en) 2023-04-04
IL276254A (en) 2020-09-30
EP3750033A4 (en) 2021-10-13
JP2021512388A (ja) 2021-05-13
CN111712780A (zh) 2020-09-25
US20210019930A1 (en) 2021-01-21
KR102689931B1 (ko) 2024-07-29
AU2019217515A1 (en) 2020-06-25
WO2019156992A2 (en) 2019-08-15
CA3087738A1 (en) 2019-08-15
JP7316282B2 (ja) 2023-07-27
WO2019156992A3 (en) 2020-04-30
US11222457B2 (en) 2022-01-11
IL276254B1 (en) 2024-05-01
US20220157006A1 (en) 2022-05-19
IL276254B2 (en) 2024-09-01
EP3750033A2 (en) 2020-12-16
KR20200116459A (ko) 2020-10-12
IL312231A (en) 2024-06-01
KR20240121342A (ko) 2024-08-08
JP2023126474A (ja) 2023-09-07

Similar Documents

Publication Publication Date Title
JP7546116B2 (ja) 拡張現実のためのシステムおよび方法
JP7297028B2 (ja) 拡張現実のためのシステムおよび方法
US11619988B2 (en) Systems and methods for augmented reality
US10678324B2 (en) Systems and methods for augmented reality
JP6813501B2 (ja) 拡張現実システムに結合されるプライバシーセンシティブ消費者カメラ
US8933931B2 (en) Distributed asynchronous localization and mapping for augmented reality
US20150070274A1 (en) Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
CN108139815A (zh) 用于虚拟现实内容的显示的场景和对象的分立时间扭曲
JP2021060627A (ja) 情報処理装置、情報処理方法、およびプログラム
US11256090B2 (en) Systems and methods for augmented reality
KR102721084B1 (ko) 증강 현실을 위한 시스템들 및 방법들

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230714

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20240613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20240627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240826

R150 Certificate of patent or registration of utility model

Ref document number: 7546116

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150