JP2022529245A - 電磁追跡のためのセンサ融合 - Google Patents
電磁追跡のためのセンサ融合 Download PDFInfo
- Publication number
- JP2022529245A JP2022529245A JP2021560020A JP2021560020A JP2022529245A JP 2022529245 A JP2022529245 A JP 2022529245A JP 2021560020 A JP2021560020 A JP 2021560020A JP 2021560020 A JP2021560020 A JP 2021560020A JP 2022529245 A JP2022529245 A JP 2022529245A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- input device
- user input
- wearable system
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims description 46
- 238000005259 measurement Methods 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims description 85
- 239000011159 matrix material Substances 0.000 claims description 38
- 238000004422 calculation algorithm Methods 0.000 claims description 14
- 238000006073 displacement reaction Methods 0.000 claims description 12
- 230000009471 action Effects 0.000 claims description 11
- 230000003287 optical effect Effects 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 10
- 230000033001 locomotion Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 2
- 230000003190 augmentative effect Effects 0.000 abstract description 20
- 230000003993 interaction Effects 0.000 abstract description 6
- 230000036544 posture Effects 0.000 description 56
- 210000003128 head Anatomy 0.000 description 38
- 238000012545 processing Methods 0.000 description 27
- 230000008569 process Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000004886 head movement Effects 0.000 description 11
- 230000006399 behavior Effects 0.000 description 8
- 238000013507 mapping Methods 0.000 description 7
- 230000004438 eyesight Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000004907 flux Effects 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000012888 cubic function Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000005672 electromagnetic field Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 206010069747 Burkholderia mallei infection Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 201000003152 motion sickness Diseases 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001144 postural effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B7/00—Measuring arrangements characterised by the use of electric or magnetic techniques
- G01B7/004—Measuring arrangements characterised by the use of electric or magnetic techniques for measuring coordinates of points
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/06—Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/10—Position of receiver fixed by co-ordinating a plurality of position lines defined by path-difference measurements, e.g. omega or decca systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Abstract
頭部搭載型拡張現実(AR)デバイスは、装着者の頭部の姿勢またはハンドヘルドユーザ入力デバイスの姿勢を追跡し、3次元AR環境内の装着者相互作用を有効にすることができる。ユーザ入力デバイス内の姿勢センサ(例えば、慣性測定ユニット)は、ユーザ入力デバイスの姿勢(例えば、位置または配向)に関するデータを提供することができる。電磁(EM)追跡システムもまた、姿勢データを提供することができる。例えば、ハンドヘルドユーザ入力デバイスは、EM場を生成する、EMエミッタを含むことができ、頭部搭載型ARデバイスは、EM場を感知する、EMセンサを含むことができる。
Description
(優先権の主張)
本願は、参照することによって本明細書に組み込まれる、2019年4月15日に出願された、米国仮出願第62/834,081号の優先権の利点を請求する。
本願は、参照することによって本明細書に組み込まれる、2019年4月15日に出願された、米国仮出願第62/834,081号の優先権の利点を請求する。
本開示は、概して、オブジェクトの位置または配向を決定するためのシステムおよび方法に関し、より具体的には、電磁追跡技法と他のセンサ入力を融合させる。
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える、またはそのように知覚され得る様式で、ユーザに提示される。仮想現実、すなわち、「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴う。拡張現実、すなわち、「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。
頭部搭載型拡張現実(AR)デバイスは、装着者の環境内のオブジェクトの3次元仮想表現を提供することが可能であるように、装着者の頭部(または他の身体部分)の姿勢を追跡することができる。電磁(EM)追跡システムの実施形態は、頭部姿勢または身体ジェスチャを追跡するために使用されることができる。例えば、ハンドヘルドユーザ入力デバイスは、EMエミッタを含むことができ、頭部搭載型ARデバイスは、EMセンサを含むことができる。いくつかの実装では、EMエミッタは、EMセンサによって感知され得るEM場を生成する。センサからのEM情報は、センサの場所および/または配向、それによって、ARデバイスの基準フレーム内の装着者の頭部姿勢を決定するように分析されることができる。姿勢は、ARデバイスの基準フレーム内の3つの空間座標と、3つの角座標とを含む、6自由度(6DOF)姿勢であり得る。ARデバイスの基準フレームは、装着者の実世界環境内の固定されたオブジェクトを表す、グローバル(または世界)座標系であり得る。
ARデバイスは、例えば、加速度計、ジャイロスコープ、磁力計、光学センサ、またはカメラ等の姿勢情報を提供する、他のセンサを含むことができる。実施例として、加速度計データは、2回積分され、推定される位置を提供することができる。しかしながら、センサ信号における誤差は、実際の位置に対して推定される位置をドリフトさせ得る。また、センサから推測される位置または配向は、ARデバイスの基準フレーム(例えば、世界座標系)ではなく、センサと関連付けられる基準フレーム内のものであり得る。
電磁追跡システムおよび別のセンサモダリティ(例えば、加速度計、ジャイロスコープ、磁力計)からの出力を融合させ、姿勢誤差を低減させる、または姿勢をARデバイスの基準フレームに変換するための技法の実施例が、本明細書に説明される。カルマンフィルタまたは他のタイプのデータ融合技法が、出力を融合させるために使用されることができる。
センサ融合技法は、ARまたはVR用途に限定されず、他の実装でも、異なるモダリティのセンサ(例えば、加速度計およびEM追跡デバイス)が使用される、任意のオブジェクトの姿勢決定に適用されることができる。例えば、センサ融合技法は、手術室内の医療デバイスおよび計器を追跡するために適用されることができる。
本明細書に説明される主題の1つ以上の実装の詳細が、付随の図面および以下の説明に記載される。他の特徴、側面、および利点は、説明、図面、および請求項から明白となるであろう。本概要または以下の詳細な説明のいずれも、本発明の主題の範囲を定義または限定することを主張するものではない。
図面全体を通して、参照番号は、参照される要素間の対応を示すために再使用され得る。図面は、本明細書に説明される例示的実施形態を図示するために提供され、本開示の範囲を限定することを意図されない。
(AR、VR、および位置特定システムの概要)
図1では、拡張現実場面(4)が、描写されており、AR技術のユーザには、人々、木々、背景における建物、およびコンクリートプラットフォーム(1120)を特徴とする、実世界公園状設定(6)が見える。これらのアイテムに加え、AR技術のユーザはまた、実世界プラットフォーム(1120)上に立っているロボット像(1110)と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ(2)とが「見える」と知覚するが、これらの要素(2、1110)は、実世界には存在しない。結論から述べると、ヒトの視知覚系は、非常に複雑であって、他の仮想または実世界画像要素の中で仮想画像要素の快適で、自然な感覚で、かつ豊かな提示を促進する、VRまたはAR技術を生産することは、困難である。
図1では、拡張現実場面(4)が、描写されており、AR技術のユーザには、人々、木々、背景における建物、およびコンクリートプラットフォーム(1120)を特徴とする、実世界公園状設定(6)が見える。これらのアイテムに加え、AR技術のユーザはまた、実世界プラットフォーム(1120)上に立っているロボット像(1110)と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ(2)とが「見える」と知覚するが、これらの要素(2、1110)は、実世界には存在しない。結論から述べると、ヒトの視知覚系は、非常に複雑であって、他の仮想または実世界画像要素の中で仮想画像要素の快適で、自然な感覚で、かつ豊かな提示を促進する、VRまたはAR技術を生産することは、困難である。
例えば、頭部装着型ARディスプレイ(またはヘルメット搭載型ディスプレイまたはスマートグラス)は、典型的には、ユーザの頭部に少なくとも緩く結合され、したがって、ユーザの頭部が移動すると、移動し得る。ユーザの頭部の運動が、ディスプレイシステムによって検出される場合、表示されているデータは、頭部姿勢の変化を考慮するように更新されることができる。
実施例として、頭部装着型ディスプレイを装着するユーザが、ディスプレイ上の3次元(3D)オブジェクトの仮想表現を視認し、3Dオブジェクトが現れる面積の周囲を歩き回る場合、その3Dオブジェクトは、視点毎に再レンダリングされ、彼らが、実空間を占有するオブジェクトの周囲を歩き回っているような知覚をユーザに与えることができる。頭部装着型ディスプレイが、仮想空間内に複数のオブジェクト(例えば、豊かな仮想世界)を提示するために使用される場合、頭部の姿勢の測定(例えば、ユーザの頭部の場所および配向)が、ユーザの動的に変化する頭部場所および配向に合致するように場面を再レンダリングし、仮想空間内への没入感の増加を提供するために使用されることができる。
ARシステムでは、頭部の姿勢の検出または計算は、ユーザにとって意味をなす様式において、ディスプレイシステムが実世界内の空間を占有するように現れるように、仮想オブジェクトをレンダリングすることを促進することができる。加えて、ユーザの頭部またはARシステムと連動したハンドヘルドデバイス(「トーテム」とも称され得る)、触知デバイス、または他の実際の物理的オブジェクト等の実オブジェクトの位置および/または配向の検出もまた、ディスプレイシステムが、表示情報をユーザに提示し、ユーザが、ARシステムのある側面と効率的に相互作用することを可能にすることを促進し得る。ユーザの頭部が、実世界内で動き回るにつれて、仮想オブジェクトは、仮想オブジェクトが実世界に対して安定したまま現れるように、頭部の姿勢の関数として再レンダリングされ得る。少なくともAR用途に関して、物理的オブジェクトと空間的に連動した仮想オブジェクトの設置(例えば、2または3次元において物理的オブジェクトに空間的に近接して現れるように提示される)は、些細な問題ではあり得ない。例えば、頭部の移動が、周囲環境のビュー内の仮想オブジェクトの設置を有意に複雑にし得る。これは、ビューが周囲環境の画像として捕捉され、次いで、エンドユーザに投影または表示されるかどうか、またはエンドユーザが周囲環境のビューを直接知覚するかどうかに当てはまる。例えば、頭部の移動は、エンドユーザの視野を変化させる可能性が高く、これは、種々の仮想オブジェクトがエンドユーザの視野に表示される場所に対する更新を要求する可能性が高いであろう。加えて、頭部移動は、多種多様な範囲および速度で生じ得る。頭部移動速度は、異なる頭部移動間においてだけではなく、単一頭部移動の範囲内またはそれを横断しても変動し得る。例えば、頭部移動速度は、最初に、始点から増加し得(例えば、線形または非線形に)、終点に到達するにつれて、減少し得、頭部の移動の始点と終点との間のある場所で最大速度を得る。高速頭部移動は、特定の表示または投影技術の能力さえ超え、均一および/または平滑運動としてエンドユーザに現れる画像をレンダリングし得る。
頭部追跡正確度および待ち時間(例えば、ユーザがその頭部を移動させた時間から、画像が更新され、ユーザに表示された時間までの経過時間)は、VRおよびARシステムにとって課題となっている。特に、ユーザの視野の実質的部分を仮想要素で充填する、ディスプレイシステムに関して、頭部追跡の正確度が高く、頭部運動の最初の検出からディスプレイによってユーザの視覚系に送達される光の更新までの全体的システム待ち時間が非常に短い場合、有利である。待ち時間が長い場合、システムは、ユーザの前庭と視感覚系との間に不整合をもたらし、乗り物酔いまたは3D酔いにつながり得る、ユーザ知覚シナリオを生成させ得る。システム待ち時間が長い場合、仮想オブジェクトの見掛け場所は、高速頭部運動の間、不安定に現れ得る。
頭部装着型ディスプレイシステムに加え、他のディスプレイシステムもまた、正確かつ短い待ち時間の頭部の姿勢検出から恩恵を受け得る。これらとして、ディスプレイが、ユーザの身体上に装着されないが、例えば、壁または他の表面上に搭載される、頭部追跡型ディスプレイシステムが挙げられる。頭部追跡型ディスプレイは、場面上で窓のように作用し得、ユーザがその頭部を「窓」に対して移動させるにつれて、場面は、ユーザの変化する視点に合致するように、再レンダリングされる。他のシステムとして、頭部装着型ディスプレイが光を実世界上に投影する、頭部装着型投影システムが挙げられる。
加えて、現実的拡張現実体験を提供するために、ARシステムは、ユーザと相互作用するように設計されてもよい。例えば、複数のユーザが、仮想ボールおよび/または他の仮想オブジェクトを用いて、ボールゲームをプレーしてもよい。1人のユーザが、仮想ボールを「キャッチ」し、ボールを別のユーザに投げ返してもよい。いくつかの実施形態では、第1のユーザは、仮想ボールを打つためのトーテム(例えば、ARシステムに通信可能に結合される実際のバット)を提供されてもよい。いくつかの実施形態では、仮想ユーザインターフェースは、ユーザが多くのオプションのうちの1つを選択することを可能にするために、ARユーザに提示されてもよい。ユーザは、トーテム、触知デバイス、ウェアラブルコンポーネントを使用し、または単に、仮想画面をタッチし、システムと相互作用してもよい。
ユーザの頭部の姿勢および配向を検出することと、空間内の実オブジェクトの物理的場所を検出することは、ARシステムが、仮想コンテンツを効果的かつ享受可能な様式で表示することを可能にする。しかしながら、これらの能力は、ARシステムにとって重要であるが、達成することが困難である。換言すると、ARシステムは、実オブジェクト(例えば、ユーザの頭部、トーテム、触知デバイス、ウェアラブルコンポーネント、ユーザの手等)の物理的場所を認識し、実オブジェクトの物理的座標をユーザに表示されている1つ以上の仮想オブジェクトに対応する仮想座標に相関させなければならない。これは、概して、1つ以上のオブジェクトの位置および配向を高速レートで追跡する非常に正確なセンサおよびセンサ認識システムを要求する。現在のアプローチは、満足のゆく速度または精度規格において位置特定を行わない。
したがって、ARおよびVRデバイスのコンテキストにおいて、より優れた位置特定システムの必要がある。
(例示的ARおよびVRシステムおよびコンポーネント)
(例示的ARおよびVRシステムおよびコンポーネント)
図2A-2Dを参照すると、いくつかの一般的コンポーネントオプションが、図示される。図2A-2Dの議論に従う、詳細な説明の部分では、種々のシステム、サブシステム、およびコンポーネントが、ヒトVRおよび/またはARのための高品質かつ快適に知覚されるディスプレイシステムを提供する目的に対処するために提示される。
図2Aに示されるように、ARシステムユーザ(60)は、ユーザの眼の正面に位置付けられるディスプレイシステム(62)に結合されるフレーム(64)構造を特徴とする、頭部搭載型コンポーネント(58)を装着するように描写される。スピーカ(66)が、描写される構成においてフレーム(64)に結合され、ユーザの外耳道に隣接して位置付けられる(一実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供する)。ディスプレイ(62)は、有線導線または無線コネクティビティ等によって、ローカル処理およびデータモジュール(70)に動作可能に結合(68)され、これは、フレーム(64)に固定して取り付けられる、図2Bの実施形態に示されるように、ヘルメットまたは帽子(80)に固定して取り付けられる、ヘッドホンに内蔵される、図2Cの実施形態に示されるように、リュック式構成においてユーザ(60)の胴体(82)に除去可能に取り付けられる、または図2Dの実施形態に示されるように、ベルト結合式構成においてユーザ(60)の腰部(84)に除去可能に取り付けられる等、種々の構成において搭載されてもよい。
ローカル処理およびデータモジュール(70)は、電力効率の良いプロセッサまたはコントローラおよびフラッシュメモリ等のデジタルメモリを含んでもよく、その両方とも、a)画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット(加速度計およびジャイロスコープまたは磁力計を含み得る)、加速度計、コンパス、ジャイロスコープ、または磁力計、またはGPSユニット、無線デバイス等、フレーム(64)に動作可能に結合され得る、センサから捕捉されるデータ、および/またはb)可能性として、処理または読出後にディスプレイ(62)への通過のために、遠隔処理モジュール(72)および/または遠隔データリポジトリ(74)を使用して、入手および/または処理され得る、データの処理、キャッシュ、および記憶を補助するために利用されてもよい。ローカル処理およびデータモジュール(70)は、有線または無線通信リンク等を介して、遠隔モジュール(72、74)が、相互に動作可能に結合され、ローカル処理およびデータモジュール(70)へのリソースとして利用可能であるように、これらの遠隔処理モジュール(72)および遠隔データリポジトリ(74)に動作可能に結合(76、78)されてもよい。
一実施形態では、遠隔処理モジュール(72)は、データおよび/または画像情報を分析および処理するように構成される、1つ以上の比較的に高性能なプロセッサまたはコントローラを備えてもよい。一実施形態では、遠隔データリポジトリ(74)は、比較的に大規模なデジタルデータ記憶設備を含んでもよく、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。一実施形態では、全てのデータが、記憶されてもよく、全ての算出が、ローカル処理およびデータモジュールにおいて実施され、任意の遠隔モジュールからの完全に自律的な使用を可能にしてもよい。
ここで図3を参照すると、概略図は、例えば、ユーザの頭部(120)に結合される頭部搭載型コンポーネント(58)およびユーザのベルト(308)に結合されるローカル処理およびデータモジュール(70)内に常駐し得る、クラウドコンピューティングアセット(46)とローカル処理アセットとの間の協調を図示する(したがって、コンポーネント70はまた、図3に示されるように、「ベルトパック」70とも称され得る)。一実施形態では、1つ以上のサーバシステム(110)等のクラウド(46)アセットは、有線または無線ネットワーキング等を介して(無線は、モバイル式のために好ましく、有線は、所望され得る、ある高帯域幅または高データ量転送のために好ましい)、直接、上記に記載されるように、ユーザの頭部(120)およびベルト(308)に結合されるプロセッサおよびメモリ構成等のローカルコンピューティングアセットの一方または両方(40、42)に動作可能に結合(115)される。ユーザにローカルのこれらのコンピューティングアセットは同様に、図8を参照して以下に議論される有線結合(68)等、有線および/または無線コネクティビティ構成(44)を介して、相互に動作可能に結合されてもよい。一実施形態では、ユーザの頭部(120)に搭載される低慣性および小型サブシステムを維持するために、ユーザとクラウド(46)との間の一次転送は、ベルト(308)に搭載されるサブシステムとクラウドとの間のリンクを介してもよく、頭部搭載型サブシステム(120)は、主に、例えば、パーソナルコンピューティング周辺コネクティビティ用途において現在採用されるような超広帯域(「UWB」)コネクティビティ等の無線コネクティビティを使用して、ベルトベースのサブシステム(308)にデータテザリングされる。
効率的ローカルおよび遠隔処理協調および図2Aに示されるユーザインターフェースまたはユーザディスプレイシステム(62)またはその変形例等のユーザのための適切なディスプレイデバイスを用いることで、ユーザの現在の実際または仮想場所に関する1つの世界の側面は、ユーザに転送または「パス」され、効率的方式で更新され得る。換言すると、世界のマップが、ユーザのARシステム上に部分的に常駐し、かつクラウドリソース内に部分的に常駐し得る記憶場所において、持続的に更新され得る。マップ(「パス可能世界モデル」とも称される)は、ラスタ画像、3Dおよび2D点、パラメータ情報、および実世界についての他の情報を含む、大型データベースであってもよい。ますます多くのARユーザが、その実環境についての情報を持続的に捕捉するにつれて(例えば、カメラ、センサ、IMU等を通して)、マップは、ますます正確かつ完全となる。
上記に記載されるような構成を用いることで、クラウドコンピューティングリソース上に常駐し、そこから配信され得る、1つの世界モデルが存在し、そのような世界は、リアルタイムビデオデータまたは同等物の回送を試みるために好ましい比較的に低帯域幅形態において、1人以上のユーザに「パス可能」となり得る。像の近くに立っている人(例えば、図1に示されるように)の拡張体験は、クラウドベースの世界モデルによって情報提供されてもよく、そのサブセットは、彼らおよび彼らのローカルディスプレイデバイスにパスされ、ビューを完成させてもよい。机上にあるパーソナルコンピュータと同程度に単純であり得る、遠隔ディスプレイデバイスに向かって着座している人が、その情報の同一セクションをクラウドから効率的にダウンロードし、それをそのディスプレイ上にレンダリングさせることができる。実際、実際に像の近くに居る公園内に存在する1人の人物は、遠隔に位置する友人と公園内を散歩してもよく、友人は、仮想および拡張現実を通して参加する。システムは、通りの場所、木々の場所、像の場所を把握する必要があるであろうが、クラウド上のその情報を用いることで、参加する友人は、クラウドから、シナリオの側面をダウンロードし、次いで、実際に公園内に居る人物に対してローカルな拡張現実に沿って歩行を開始することができる。
3次元(3D)点が、環境から捕捉されてもよく、それらの画像または点を捕捉するカメラの姿勢(例えば、世界に対するベクトルおよび/または原位置情報)が、これらの点または画像が、本姿勢情報と「タグ付けされる」、または関連付けられ得るように、決定されてもよい。次いで、第2のカメラによって捕捉された点が、第2のカメラの姿勢を決定するために利用されてもよい。換言すると、第1のカメラからのタグ付けされた画像との比較に基づいて、第2のカメラを配向および/または位置特定することができる。次いで、本知識は、テクスチャを抽出する、マップを作成する、および実世界の仮想コピーを作成するために利用されてもよい(その時点で、位置合わせされる2つのカメラが周囲に存在するため)。
したがって、基礎レベルでは、一実施形態では、人物装着型システムは、3D点およびその点を生産した2D画像の両方を捕捉するために利用されることができ、これらの点および画像は、クラウド記憶および処理リソースに送信されてもよい。それらはまた、内蔵姿勢情報とともにローカルでキャッシュされてもよい(すなわち、タグ付けされた画像をキャッシュする)。したがって、クラウドは、すぐ使える状態の(すなわち、利用可能なキャッシュ内において)タグ付けされた2D画像(例えば、3D姿勢とタグ付けされた)を3D点とともに有し得る。ユーザが、動的なものを観察している場合、また、クラウドに、運動に関する付加的情報を送信してもよい(例えば、別の人物の顔を見ている場合、ユーザは、顔のテクスチャマップを撮影し、周囲世界がその他の点では基本的に静的であっても、それを最適化された周波数でプッシュすることができる)。オブジェクト認識装置およびパス可能世界モデルに関するさらなる情報は、「System and method for augmented and virtual reality」と題された米国特許公開第2014/0306866号(参照することによって本明細書にその全体として組み込まれる)とともに、Magic Leap, Inc.(Plantation, Florida)によって開発されたもの等の拡張および仮想現実システムに関連する、以下の付加的開示、すなわち、米国特許公開第2015/0178939号、米国特許公開第2015/0205126号、米国特許公開第2014/0267420号、米国特許公開第2015/0302652号、米国特許公開第2013/0117377号、および米国特許公開第2013/0128230号(それぞれ、参照することによってその全体として本明細書に組み込まれる)に見出され得る。
GPSおよび他の位置特定情報が、そのような処理のための入力として利用されてもよい。ユーザの頭部、トーテム、手のジェスチャ、触知デバイス等の高度に正確な位置特定は、適切な仮想コンテンツをユーザに表示するために有利であり得る。
頭部搭載型デバイス(58)は、デバイスの装着者の眼の正面に位置付け可能なディスプレイを含んでもよい。ディスプレイは、ライトフィールドディスプレイを含んでもよい。ディスプレイは、複数の深度平面において画像を装着者に提示するように構成されてもよい。ディスプレイは、回折要素を伴う平面導波管を含んでもよい。本明細書に開示される実施形態のいずれかと併用可能なディスプレイ、頭部搭載型デバイス、および他のARコンポーネントの実施例は、米国特許公開第2015/0016777号に説明される。米国特許公開第2015/0016777号は、参照することによってその全体として本明細書に組み込まれる。
電磁位置特定の実施例
電磁位置特定の実施例
高精度位置特定を達成するための1つのアプローチは、ユーザのARヘッドセット、ベルトパック、および/または他の補助デバイス(例えば、トーテム、触知デバイス、ゲーム器具等)上に方略的に設置される、EMセンサと結合される電磁場(EM)の使用を伴い得る。EM追跡システムは、典型的には、少なくとも、EM場エミッタ(時として、概して、伝送機またはエミッタと称されることもある)と、少なくとも1つのEM場センサ(時として、概して、受信機またはセンサと称されることもある)とを含む。EMエミッタは、ARヘッドセットの装着者の環境内の既知の空間(および/または時間的)分布を有する、EM場を生成する。EM場センサは、センサの場所において生成されたEM場を測定する。これらの測定および生成されたEM場の分布の知識に基づいて、エミッタに対する電磁場センサの姿勢(例えば、位置および/または配向)が、決定され得る。故に、センサが取り付けられるオブジェクトの姿勢が、決定され得る。
EM追跡は、AR、VR、医学、スポーツ、製造、およびゲームにおける用途を含む、複数の分野内のオブジェクトの位置特定および追跡のための有望なアプローチであり得る。光学結像技法を使用するいくつかの他の方法と比べたEM位置特定の可能性として考えられる利点は、EM追跡が、(例えば、第1のオブジェクトが第2のオブジェクトの正面にあり、結像システムのビューから第2のオブジェクトを少なくとも部分的に遮断する)オクルージョンの存在下でオブジェクトを位置特定し得ることである。EM追跡はまた、良好な動的応答時間ももたらすことができ、時として、カメラ方法を伴って実装される、複雑な画像処理およびコンピュータビジョン技法の実施を要求しない場合がある。カメラベースの追跡システムは、それらの高い算出作業負荷のために専用アルゴリズムおよびハードウェアを要求し得、また、高速運動力学およびオクルージョンに対するロバスト性が欠け得る。ARおよびVR用途では、プロセッサ(例えば、ローカル処理およびデータモジュール70)が、多くの算出上集約的なタスク(例えば、図1を参照して説明されるように、仮想コンテンツをユーザにレンダリングすること)を実施するとともに、リアルタイムでこれらのタスクの多くを実施する。したがって、プロセッサによって実施されるタスクの算出複雑性を削減することは、ARおよびVR用途において有利であり得、EM追跡システムの使用もまた、プロセッサからタスクをオフロードすることに有利であり得る。
ここで図4を参照すると、EM追跡システムの例示的系統図(例えば、Johnson & Johnson Corporationの子会社であるBiosense、Polhemus, Inc.(Colchester, Vermont)等の組織によって開発されたもの、Sixense Entertainment, Inc.(Los Gatos, California)、および他の追跡装置製造企業によって製造されたもの等)が、図示される。1つ以上の実施形態では、EM追跡システムは、既知の磁場を放出するように構成される、EMエミッタ402(時として、EM場エミッタまたは単にエミッタと称され得る)を含む。図4に示されるように、EMエミッタは、電力供給源(例えば、電流、バッテリ等)に結合され、電力をエミッタ402に提供してもよい。
1つ以上の実施形態では、EMエミッタ402は、磁場を生成する、いくつかのコイル(例えば、相互に垂直に位置付けられ、場をX、Y、およびZ方向に生産する、少なくとも3つのコイル)を備える。本磁場は、座標空間(例えば、X-Y-Zデカルト座標空間)を確立するために使用される。これは、システムが、既知の磁場と関連してセンサの位置(例えば、(X,Y,Z)位置)をマップすることを可能にし、センサの位置および/または配向を決定することに役立つ。1つ以上の実施形態では、EMセンサ404a、404b等が、1つ以上の実オブジェクトに取り付けられてもよい。EMセンサ404(時として、EM場センサまたは単にセンサと称され得る)は、電流が放出されるEM場を通して誘発され得る、より小さいコイルを含んでもよい。概して、「センサ」コンポーネント(404)は、エミッタ(402)によって放出される磁場から流入する磁束を捕捉するように位置付けられる/配向される立方体または他の容器等の小型構造内にともに結合される、3つの異なるように配向される(例えば、相互に対して直交して配向される等)コイルのセット等の小型コイルまたはループを含んでもよく、これらのコイルを通して誘発される電流を比較することによって、かつ相互に対するコイルの相対的位置および配向を把握することによって、エミッタに対するセンサの相対的位置および配向が、計算され得る。
EM追跡センサに動作可能に結合される、コイルおよび慣性測定ユニット(「IMU」)コンポーネントの挙動に関する1つ以上のパラメータが、EMエミッタが結合される座標系に対するセンサ(およびそれが取り付けられるオブジェクト)の位置および/または配向を検出するために、測定されてもよい。1つ以上の実施形態では、複数のセンサが、EMエミッタと連動して使用され、座標空間内のセンサのそれぞれの位置および配向を検出してもよい。EM追跡システムは、3つの方向(すなわち、X、Y、およびZ方向)において、さらに、2つまたは3つの配向角度(例えば、ヨー、ピッチ、およびロール)において、位置を提供してもよい。例えば、EM追跡システムは、3つの空間座標(例えば、X、Y、およびZ)と、3つの配向角度(例えば、ヨー、ピッチ、およびロール)とを含む、6自由度(6DOF)姿勢を決定してもよい。1つ以上の実施形態では、IMUの測定は、コイルの測定と比較され、センサの位置および配向を決定してもよい。1つ以上の実施形態では、EMデータおよびIMUデータは両方とも、カメラ、深度センサ、および他のセンサ等の種々の他のデータ源とともに、位置および配向を決定するために組み合わせられてもよい。本情報は、コントローラ406に伝送されてもよい(例えば、無線通信、Bluetooth(登録商標)等)。1つ以上の実施形態では、姿勢(または位置および配向)は、従来のシステムにおいて比較的に高リフレッシュレートで報告されてもよい。従来、EMエミッタは、テーブル、手術台、壁、または天井等の比較的に安定した大型オブジェクトに結合され、1つ以上のセンサは、医療デバイス、ハンドヘルドゲームコンポーネント、または同等物等のより小型のオブジェクトに結合される。代替として、図6を参照して以下に説明されるように、EM追跡システムの種々の特徴が、採用され、より安定したグローバル座標系に対する空間内を移動する2つのオブジェクト間の位置および/または配向における変化またはデルタが追跡され得る、構成を生産してもよい。換言すると、構成は、図6に示されており、EM追跡システムの変形例が、利用され、頭部搭載型コンポーネントとハンドヘルドコンポーネントとの間の位置および配向デルタを追跡し得る一方、(例えば、ユーザにローカルの室内環境の)グローバル座標系に対する頭部の姿勢は、システムの頭部搭載型コンポーネントに結合され得る外向き捕捉カメラを使用して、同時位置特定およびマッピング(「SLAM」)技法等によって別様に決定される。
コントローラ406は、EM場発生器402を制御してもよく、また、データを種々のEMセンサ404から捕捉してもよい。システムの種々のコンポーネントは、任意の電気機械的または無線/Bluetooth(登録商標)手段を通して相互に結合されてもよいことを理解されたい。コントローラ406はまた、既知の磁場および磁場に関連する座標空間に関するデータを含んでもよい。本情報は、次いで、既知のEM場に対応する座標空間に関連してセンサの位置および配向を検出するために使用される。
EM追跡システムの1つの利点は、最小限の待ち時間および高分解能を伴って非常に正確な追跡結果を生産することができることである。加えて、EM追跡システムは、必ずしも、光学追跡装置に依拠せず、ユーザの視線内にないセンサ/オブジェクトは、容易に追跡され得る。
EM場の強度は、コイル伝送機(例えば、EMエミッタ402)からの距離(「r」)の三次関数として低下することを理解されたい。したがって、アルゴリズムは、EMエミッタからの距離に基づいて、使用されてもよい。コントローラ406は、そのようなアルゴリズムを用いて、EMエミッタからの可変距離におけるセンサ/オブジェクトの位置および配向(例えば、6DOF姿勢)を決定するように構成されてもよい。センサがEMエミッタから離れて移動するにつれて、EM場の強度の急減を前提として、正確度、効率、および短待ち時間の観点から、最良結果が、より近い距離において達成され得る。典型的EM追跡システムでは、EMエミッタは、電流(例えば、差込式電力供給源)によって電力供給され、EMエミッタから半径20フィート以内に位置するセンサを有する。センサとエミッタとの間の半径が短いほど、AR用途を含む、多くの用途においてより望ましくあり得る。
ここで図5を参照すると、典型的電磁追跡システムの機能を説明する例示的フロー図が、簡単に説明される。502では、既知のEM場が、放出される。1つ以上の実施形態では、磁場エミッタは、磁場を生成してもよく、各コイルは、電場を一方向(例えば、X、Y、またはZ)に生成させ得る。磁場は、恣意的波形を伴って生成されてもよい。1つ以上の実施形態では、軸のそれぞれに沿った磁場成分は、他の方向に沿った他の磁場成分と若干異なる周波数で発振してもよい。504では、EM場に対応する座標空間が、決定され得る。例えば、図4の制御406は、EM場に基づいて、エミッタの周囲の座標空間を自動的に決定してもよい。506では、センサ(既知のオブジェクトに取り付けられ得る)におけるコイルの挙動が、検出され得る。例えば、コイルにおいて誘発される電流が、計算されてもよい。いくつかの実施形態では、コイルの回転または任意の他の定量化可能挙動が、追跡および測定されてもよい。508では、本挙動は、センサおよび/または既知のオブジェクトの位置または配向を検出するために使用されてもよい。例えば、コントローラ406は、センサにおけるコイルの挙動を種々の位置または配向に相関させる、マッピングテーブルを参考にしてもよい。これらの計算に基づいて、座標空間内の位置が、センサの配向とともに、決定されてもよい。図5のフローチャート内のブロックの順序は、限定的ではなくて例証的であることを意図している。例えば、ブロック506は、いくつかの実施形態では、ブロック504が実施される前に実施されることができる。
ARシステムのコンテキストでは、EM追跡システムの1つ以上のコンポーネントは、モバイルコンポーネントの正確な追跡を促進するために、修正される必要があり得る。上記に記載されるように、ユーザの頭部の姿勢および配向の追跡は、多くのAR用途において望ましくあり得る。ユーザの頭部の姿勢および配向の正確な決定は、ARシステムが、正しい仮想コンテンツをユーザに表示することを可能にする。例えば、仮想場面は、実際の建物の背後に隠れているモンスタを含み得る。建物と関連したユーザの頭部の姿勢および配向に応じて、仮想モンスタのビューは、現実的AR体験が提供されるように修正される必要があり得る。または、トーテム、触知デバイス、または仮想コンテンツと相互作用するある他の手段の位置および/または配向は、ARユーザがARシステムと相互作用することを可能にする際に重要であり得る。例えば、多くのゲーム用途では、ARシステムは、仮想コンテンツと関連した実オブジェクトの位置および配向を検出しなければならない。または、仮想インターフェースを表示するとき、トーテム、ユーザの手、触知デバイス、またはARシステムとの相互作用のために構成される任意の他の実オブジェクトの位置が、システムがコマンド等を理解するために、表示される仮想インターフェースと関連して把握され得る。光学追跡および他の方法を含む、従来の位置特定方法は、典型的には、長待ち時間および低分解能問題に悩まされ、仮想コンテンツのレンダリングを多くの拡張現実用途において困難にする。
1つ以上の実施形態では、図4および5に関連して議論される、EM追跡システムは、放出されるEM場に関連して1つ以上のオブジェクトの位置および配向を検出するようにARシステムに適合されてもよい。典型的EMシステムは、大型かつ嵩張るEMエミッタ(例えば、図4における402)を有する傾向にあって、これは、頭部搭載型ARデバイスにとって問題となる。しかしながら、より小型の電磁エミッタ(例えば、ミリメートル範囲内)が、ARシステムのコンテキストにおいて既知のEM場を放出するために使用されてもよい。
ここで図6を参照すると、EM追跡システム600は、ハンドヘルドコントローラ606の一部として組み込まれるEMエミッタ602とともに、示されるように、ARシステムとともに組み込まれてもよい。コントローラ606は、ARヘッドセット(またはベルトパック70)に対して独立して移動可能であることができる。例えば、ユーザは、コントローラ606をその手の中に保持することができる、またはコントローラは、ユーザの手または腕に搭載され得る(例えば、指輪またはブレスレットとして、またはユーザによって装着される手袋の一部として)。1つ以上の実施形態では、ハンドヘルドコントローラは、ゲームシナリオにおいて使用されるため、または豊かなユーザ体験をAR環境内で提供するため、またはユーザがARシステムと相互作用することを可能にするためのトーテムであってもよい(例えば、多自由度コントローラ)。いくつかの実施形態では、ハンドヘルドコントローラは、触知デバイスであってもよい。いくつかの実施形態では、EMエミッタは、単に、ベルトパック70の一部として組み込まれてもよい。コントローラ606は、EMエミッタ602に電力供給する、バッテリ610または他の電力供給源を含んでもよい。EMエミッタ602はまた、他のコンポーネントに対するEMエミッタ602の位置および/または配向の決定を補助するように構成される、IMUコンポーネント650を含む、またはそれに結合されてもよいことを理解されたい。これは、エミッタ602およびセンサ(604)の両方がモバイル式である場合、特に有利であり得る。IMU650は、いくつかの実施形態では、加速度計と、ジャイロスコープとを備えてもよい。図6の実施形態に示されるように、ベルトパックではなく、ハンドヘルドコントローラ内にEMエミッタ602を設置することは、EMエミッタがベルトパックにおいてリソースを競合するのではなく、むしろ、コントローラ606においてその独自のバッテリ源を使用することを確実にすることに役立つ。いくつかの実施形態では、EMエミッタ602は、ARヘッドセット58上に配置されることができ、センサ604は、コントローラ606またはベルトパック70上に配置されることができる。
1つ以上の実施形態では、EMセンサ604は、1つ以上のIMUまたは付加的磁束捕捉コイル(608)等、他の感知デバイスとともに、ユーザのヘッドセット上の1つ以上の場所に設置されてもよい。例えば、図6に示されるように、センサ(604、608)は、ヘッドセット(58)の片側または両側に設置されてもよい。これらのセンサは、非常に小型(故に、ある場合には、低感度であり得る)に加工されるため、複数のセンサを有することは、効率および精度を改良し得る。1つ以上の実施形態では、1つ以上のセンサはまた、ベルトパック70またはユーザの身体の任意の他の部分上に、またはコントローラ606内に設置されてもよい。センサ(604、608)は、無線でまたはBluetooth(登録商標)を通してセンサ(およびそれが取り付けられるARヘッドセット)の姿勢および配向を決定する、コンピューティング装置と通信してもよい。いくつかの実施形態では、コンピューティング装置は、ベルトパック70に常駐してもよい。いくつかの実施形態では、コンピューティング装置は、ヘッドセット自体またはさらにコントローラ606に常駐してもよい。コンピューティング装置は、ひいては、マッピングデータベース(例えば、パス可能世界モデル、座標空間等)を含み、姿勢を検出し、実オブジェクトおよび仮想オブジェクトの座標を決定してもよく、さらに、1つ以上の実施形態では、クラウドリソースおよびパス可能世界モデルに接続してもよい。
上記に説明されるように、従来のEMエミッタは、ARデバイスにおいて使用するために嵩張りすぎ得る。したがって、EMエミッタは、従来のシステムと比較してより小型のコイルを使用して、コンパクトに加工されてもよい。しかしながら、EM場の強度がエミッタからの距離の三次関数として減少することを前提として、EMセンサ604とEMエミッタ602との間の半径が短いほど(例えば、約3~3.5フィート)、図4に詳述されるもの等の従来のシステムと比較して、電力消費を低減させ得る。
本側面は、1つ以上の実施形態では、コントローラ606およびEMエミッタ602のいずれかに電力供給し得る、バッテリ610の寿命を延長させるために利用されてもよい。いくつかの実施形態では、本側面は、EMエミッタ602において磁場を生成するコイルのサイズを縮小させるために利用されてもよい。しかしながら、同一の強度の磁場を得るために、電力は、増加される必要があり得る。これは、コントローラ606においてコンパクトにフィットし得る、コンパクトなEMエミッタユニット602を可能にする。
いくつかの他の変更が、ARデバイスのためにEM追跡システム600を使用するときに行われてもよい。本姿勢報告率は、非常に良好であるが、ARシステムは、さらにより効率的な姿勢報告率を要求し得る。この目的を達成するために、IMUベースの姿勢追跡が、(加えて、または代替として)センサ内で使用されてもよい。有利なこととして、IMUは、姿勢検出プロセスの効率を増加させるために、可能な限り安定したままであり得る。IMUは、最大50~100ミリ秒、安定したままであるように加工されてもよい。いくつかの実施形態は、姿勢更新が10~20Hzのレートで報告されることを可能にし得る、外部姿勢推定器モジュールを利用してもよいことを理解されたい(例えば、IMUは、経時的にドリフトし得る)。IMUを合理的比率に安定して保つことによって、姿勢更新レートは、10~20Hzまで著しく低下され得る(従来のシステムにおけるより高い周波数と比較して)。
EM追跡システム600が、例えば、10%デューティサイクルにおいて起動され得る場合(例えば、100ミリ秒毎にのみグラウンドトゥルースのためにピングする)、これは、ARシステムにおける電力を節約する別の方法となるであろう。これは、EM追跡システムが、100ミリ秒毎に10ミリ秒にわたってウェイクアップし、姿勢推定値を生成することを意味するであろう。これは、直接、電力消費節約につながり、ひいては、ARデバイスのサイズ、バッテリ寿命、およびコストに影響を及ぼし得る。
1つ以上の実施形態では、デューティサイクルの本低減は、1つのみではなく、2つのハンドヘルドコントローラ(図示せず)を提供することによって方略的に利用されてもよい。例えば、ユーザは、2つのトーテム等を要求する、ゲームをプレーしてもよい。または、マルチユーザゲームでは、2人のユーザが、その独自のトーテム/ハンドヘルドコントローラを有し、ゲームをプレーしてもよい。1つではなく、2つのコントローラ(例えば、手毎の対称コントローラ)が、使用されるとき、コントローラは、オフセットデューティサイクルで動作してもよい。同一概念はまた、例えば、マルチプレーヤゲームをプレーしている2人の異なるユーザによって利用されるコントローラにも適用されてもよい。
ここで図7を参照すると、ARデバイスのコンテキストにおける電磁追跡システム600を説明する例示的フロー図が、説明される。702では、EMエミッタを含有する、ポータブル(例えば、ハンドヘルド)コントローラが、磁場を放出する。704では、EMセンサ(ヘッドセット、ベルトパック等上に設置される)が、磁場を検出する。706では、ヘッドセット/ベルトの姿勢(例えば、位置または配向)は、センサにおけるコイル/IMUの挙動に基づいて決定される。姿勢は、6DOF姿勢を含み得る、または6つ全てよりも少ない自由度(例えば、1つ以上の空間座標または1つ以上の配向角度)を有し得る。708では、姿勢情報が、コンピューティング装置(例えば、ベルトパックまたはヘッドセットにおける)に伝達される。710では、随意に、マッピングデータベース(例えば、パス可能世界モデル)は、実世界座標(例えば、ヘッドセット/ベルトの姿勢に関して決定される)と仮想世界座標を相関させるために参考にされてもよい。712では、仮想コンテンツは、ARヘッドセットにおいてユーザに送達され、ユーザに表示されてもよい(例えば、本明細書に説明されるライトフィールドディスプレイを介して)。上記に説明されるフロー図は、例証目的にすぎず、限定として読み取られるべきではないことを理解されたい。
有利なこととして、図6に概略されるものに類似するEM追跡システムの使用は、低遅延姿勢追跡を可能にする(例えば、頭部位置または配向、トーテム、ベルトパック、および他のコントローラの位置および配向)。これは、ARシステムが、光学追跡技法と比較して、より高い正確度およびより短い待ち時間を伴って、仮想コンテンツを投影することを可能にする(少なくとも部分的に、決定された姿勢に基づいて)。
図8を参照すると、多くの感知コンポーネントを特徴とする、拡張現実システム構成が、図示される。頭部搭載型ウェアラブルコンポーネント(58)は、ここでは、制御および急速解除モジュール(86)もまた特徴とする、物理的マルチコア導線を使用して、ベルトパック等のローカル処理およびデータモジュール(70)に動作可能に結合(68)されて示される。制御および急速解除モジュール(86)は、関連付けられるシステムの動作のためのボタン、例えば、オン/オフボタンおよび上/下音量制御を含むことができる。モジュール(86)の対向端が、図8に示されるように、ローカル処理およびデータモジュール(70)とディスプレイ(62)との間に延設される電気導線に接続されてもよい。
ローカル処理およびデータモジュール(70)は、ここでは、低電力Bluetooth(登録商標)等の無線接続によって、ハンドヘルドコンポーネント/コントローラ(606)に動作可能に結合(100)される。コンポーネント(606)はまた、低電力Bluetooth(登録商標)等の無線接続等によって、直接、頭部搭載型ウェアラブルコンポーネント(58)に動作可能に結合(94)されてもよい。概して、IMUデータが、種々のコンポーネントの座標姿勢検出に通過される場合、数百または数千サイクル/秒またはより高い範囲内等、高周波数接続が、望ましい。センサ(604)および伝送機(602)ペアリング等によるEM位置特定感知のためには、数十サイクル/秒が、適正であり得る。また、壁(8)等のユーザの周囲の実世界内の固定オブジェクトを表す、グローバル(または、世界とも称される)座標系(10)も示される。
クラウドリソース(46)はまた、それぞれ、ローカル処理およびデータモジュール(70)に、頭部搭載型ウェアラブルコンポーネント(58)に、壁(8)またはグローバル座標系(10)に対して固定される他のアイテムに結合され得るリソースに動作可能に結合(42、40、88、90)されてもよい。壁(8)に結合される、またはグローバル座標系(10)に対して既知の位置および/または配向を有する、リソースは、無線送受信機(114)、EMエミッタ(602)および/または受信機(604)、赤外線LEDビーコン等の所与のタイプの放射線を放出または反射させるように構成されるビーコンまたは反射体(112)、セルラーネットワーク送受信機(110)、RADARエミッタまたは検出器(108)、LIDARエミッタまたは検出器(106)、GPS送受信機(118)、既知の検出可能パターン(122)を有するポスタまたはマーカ、およびカメラ(124)を含んでもよい。
頭部搭載型ウェアラブルコンポーネント(58)は、赤外線カメラ(124)のための赤外線エミッタ(130)等のカメラ(124)検出器を補助するように構成される光エミッタ(130)に加え、図示されるような類似コンポーネントを特徴とする。頭部搭載型ウェアラブルコンポーネント(58)はまた、1つ以上の歪曲ゲージ(116)を特徴とし、これは、頭部搭載型ウェアラブルコンポーネント(58)のフレームまたは機械的プラットフォームに固定して結合され、EM受信機センサ(604)またはディスプレイ要素(62)等のコンポーネント間のそのようなプラットフォームの偏向を決定するように構成されてもよく、図8に描写される眼鏡様プラットフォーム上の突出部の上方の部分等のプラットフォームの薄い部分等においてプラットフォームの屈曲が生じた場合、それを理解することが重要であり得る。
頭部搭載型ウェアラブルコンポーネント(58)はまた、プロセッサ(128)と、1つ以上のIMU(102)とを特徴とする。コンポーネントはそれぞれ、好ましくは、ハードウェアコントローラ、ハードウェアマイクロプロセッサ、特定用途向け集積回路(ASIC)等を含み得る、プロセッサ(128)に動作可能に結合される。コンポーネント(606)およびローカル処理およびデータモジュール(70)は、類似コンポーネントを特徴とするように図示される。図8に示されるように、そのように多くの感知およびコネクティビティ手段を用いることで、そのようなシステムは、重く、電力を大量に消費し、大型で、かつ比較的に高価である可能性が高い。しかしながら、例証目的のために、そのようなシステムは、非常に高レベルのコネクティビティ、システムコンポーネント統合、および位置/配向追跡を提供するために利用されてもよい。例えば、そのような構成を用いることで、種々の主要モバイルコンポーネント(58、70、606)は、Wi-Fi、GPS、またはセルラー信号三角測量を使用して、グローバル座標系に対する位置の観点から位置特定されてもよく、ビーコン、EM追跡(本明細書に説明されるように)、RADAR、およびLIDIRシステムはさらに、場所および/または配向情報およびフィードバックを提供してもよい。マーカおよびカメラもまた、相対および絶対位置および配向に関するさらなる情報を提供するために利用されてもよい。例えば、頭部搭載型ウェアラブルコンポーネント(58)に結合されて示されるもの等の種々のカメラコンポーネント(124)は、コンポーネント(58)が他のコンポーネントに対して配向される場所およびその状態を決定するために、同時位置特定およびマッピングプロトコル、すなわち、「SLAM」において利用され得る、データを捕捉するために利用されてもよい。
いくつかの実施形態では、LIDAR(106)タイプの深度センサに加えて、またはその代替として、システムは、例えば、ステレオ三角測量式深度センサ(受動ステレオ深度センサ、テクスチャ投影ステレオ深度センサ、または構造化光ステレオ深度センサ等)または飛行時間式深度センサ(LIDAR深度センサまたは変調放出深度センサ等)のいずれかであり得る、汎用深度カメラまたは深度センサを含む。さらに、システムは、付加的前向き「世界」カメラ(124、720p範囲の分解能が可能なセンサを有する、グレースケールカメラであり得る)および比較的に高分解能の「写真カメラ」(例えば、2メガピクセル以上の高い分解能が可能なセンサを有する、フルカラーカメラであり得る)を含んでもよい。
(ARシステム内の例示的電磁感知コンポーネント)
(ARシステム内の例示的電磁感知コンポーネント)
図9Aを参照すると、EM感知コイルアセンブリ(604、例えば、筐体に結合される3つの個々のコイル)が、頭部搭載型コンポーネント(58)に結合されて示される。そのような構成は、付加的幾何学形状を全体的アセンブリに追加し、これは、望ましくない場合がある。図9Bを参照すると、図9Aの構成におけるように、コイルをボックスまたは単一筐体604内に格納するのではなく、個々のコイルは、図9Bに示されるように、頭部搭載型コンポーネント(58)の種々の構造の中に統合されてもよい。図9Bは、X-軸コイル(148)、Y-軸コイル(150)、およびZ-軸コイル(152)のための頭部搭載型ディスプレイ58上の場所の実施例を示す。したがって、感知コイルは、頭部搭載型ディスプレイ(58)上またはそれを中心として空間的に分散され、EM追跡システムによって、ディスプレイ(58)の位置特定および/または配向の所望の空間分解能または正確度を提供し得る。
図9Bを再び参照すると、分散センサコイル構成が、ARデバイス58に関して示される。ARデバイス58は、本明細書に説明されるように、6自由度(6DOF)追跡のためにウェアラブルコンポーネント(58)に結合され得る、X、Y、Zの方向毎に1つずつ、3つの直交感知コイルを含有する、筐体等の単一のEMセンサデバイス(604)を有することができる。また、上記のように、そのようなデバイスは、図9Bに示されるように、ウェアラブルコンポーネント(58)の異なる場所において取り付けられた3つのサブ部分(例えば、コイル)を伴って、分解されてもよい。さらなる設計代替物を提供するために、各個々のセンサコイルは、任意の所与の直交方向のための全体的磁束が、直交方向毎に単一のコイルによってではなく、同様に配向されたコイルの群によって捕捉されるように、その群と置換されてもよい。換言すると、直交方向毎に1つのコイルではなく、より小型のコイルの群が、利用されてもよく、それらの信号が、その直交方向のための信号を形成するように集約されてもよい。頭部搭載型コンポーネント(58)等の特定のシステムコンポーネントが、2つ以上のEMコイルセンサセットを特徴とする、いくつかの実施形態では、システムは、システムの性能を改良または最適化するために相互に最も近い(例えば、1cm、2cm、3cm、4cm、5cm、または10cm以内)センサおよびエミッタ対合を選択的に利用するように構成されてもよい。いくつかの実施形態では、EMエミッタおよびEMセンサは、異なるように配列されることができる。例えば、EMエミッタは、頭部搭載型コンポーネント(58)内または上に配置されることができ、EMセンサは、コントローラ(606)またはベルトパック(70)内または上に配置されることができる。別の実施例として、EMセンサは、頭部搭載型コンポーネント(58)内または上に配置されることができ、EMエミッタは、コントローラ(606)またはベルトパック(70)内または上に配置されることができる。さらに別の実施例として、EMエミッタは、ベルト(70)内または上に配置されることができ、EMセンサは、コントローラ(606)または頭部搭載型コンポーネント(58)内または上に配置されることができる。
EM追跡更新は、ポータブルシステムのための電力の観点から比較的に「高価」であり得、非常に高頻度の更新が可能ではない場合がある。「センサ融合」構成では、IMU等の別のセンサからのより頻繁に更新される位置特定情報が、光学センサ(例えば、カメラまたは深度カメラ)等の別のセンサからのデータとともに組み合わせられ得、これは、比較的に高い頻度にある場合とそうではない場合がある。これらの入力の全てを融合することの要点は、EMシステムにより低い要求を課し得、より迅速な更新を提供する。本明細書に説明されるように、いくつかの実施形態では、センサ融合技法は、IMU(または他のセンサ)データとEM追跡データを融合し、または組み合わせ、ハンドヘルドコンポーネントまたは頭部搭載型コンポーネントの姿勢のロバストな推定を提供するステップを含むことができる。
図9Cおよび9Dは、1つを上回るEMセンサ604C、604Dを伴う、例示的ヘッドセットを図示する。図9Eおよび9Fは、1つを上回るEMエミッタ602E、602Fを伴う、例示的ハンドヘルドコントローラを図示する。EM追跡システムによって生成された姿勢検出の正確度を改良するために等、実装に応じて、EMセンサおよび/またはEMエミッタの量は、変動し得る。例えば、2つのEMセンサ604Cを伴う、ヘッドセット(例えば、図9C)は、1つのEMエミッタ、2つのEMエミッタ602E(例えば、図9E)、3つのEMエミッタ602F(例えば、図9F)、またはそれよりも多くのEMエミッタを伴う、コントローラと併用されてもよい。同様に、3つの(または任意の他の数量の)EMセンサ604Dを伴う、ヘッドセット(例えば、図9D)は、1つのEMエミッタ、2つのEMエミッタ602E(例えば、図9E)、3つのEMエミッタ602F(例えば、図9F)、またはそれよりも多くのEMエミッタを伴う、コントローラと併用されてもよい。
ヘッドセットの異なる側上に複数のEMセンサを伴う、実施形態(例えば、図9C)は、金属歪曲の影響を低減させ得る。例えば、いくつかの実装では、EMセンサ604Cからの入力は、EMエミッタ602を伴うコントローラを基準として、近接度または位置に基づいて加重されてもよい。例えば、EMエミッタ602を伴う、コントローラが、ユーザの右にある場合、ヘッドセットの右側上のEMセンサ604は、コントローラとあまり直接的ではない通信チャネルを有する、他のEMセンサ(例えば、ヘッドセットの左側または中央上のEMセンサ604)より高い加重された入力を有してもよい。
複数のEMセンサの使用はさらに、EMエミッタとEMセンサとの間のEM信号の干渉によって引き起こされ得る、歪曲を定量的に監視するために使用可能なデータを提供し得る。例えば、既知の場所におけるヘッドセット上の2つのEMセンサと、コントローラ上の1つのEMエミッタとを用いると、EMセンサとEMエミッタとの間の2つの分解される位置ベクトルが、三角形を形成するために使用されることができる。EMセンサ間の本「感知される」変位は、例えば、ヘッドセットのモデル内の「既知の」EMセンサ位置と比較されてもよい。歪曲の本定量的推定値は、次いで、「予期される歪曲」(例えば、クリーン環境内のヘッドセットとコントローラとの間で測定された歪曲影響)および「環境歪曲」(例えば、予期される歪曲を取り去った後、残っている歪曲の量)のインジケーション等のフィードバックをユーザ、ソフトウェアアプリケーション等に提供するために使用されてもよい。類似加重および歪曲計算が、他の量のエミッタおよびセンサを有する構成において決定されてもよい。
(ユーザ頭部姿勢または手姿勢のEM追跡の実施例)
(ユーザ頭部姿勢または手姿勢のEM追跡の実施例)
図10を参照すると、一実施形態では、ユーザがそのウェアラブルコンピューティングシステム(160)に電源を投入後、頭部搭載型コンポーネントアセンブリは、IMUおよびカメラデータ(カメラデータは、例えば、より多くの未加工処理能力が存在し得る、ベルトパックプロセッサ等のSLAM分析のために使用される)またはEM追跡システムデータの組み合わせを捕捉し、実世界グローバル座標系(162;実世界グローバル座標系10の実施例は、図8に示される)に対する頭部の姿勢(例えば、位置または配向)を決定および更新してもよい。ユーザはまた、ハンドヘルドコンポーネントをアクティブ化し、例えば、拡張現実ゲーム(164)をプレーしてもよく、ハンドヘルドコンポーネントは、ベルトパックおよび頭部搭載型コンポーネント(166)の一方または両方に動作可能に結合されるEM伝送機を含んでもよい。頭部搭載型コンポーネントに結合される1つ以上のEM場コイル受信機セット(例えば、セットは、3つの異なるように配向される個々のコイルである)が、伝送機から磁束を捕捉し、これは、頭部搭載型コンポーネントとハンドヘルドコンポーネント(168)との間の位置または配向差(または「デルタ」)を決定するために利用されてもよい。グローバル座標系に対する姿勢の決定を補助する頭部搭載型コンポーネントと、頭部搭載型コンポーネントに対するハンドヘルドの相対的場所および配向の決定を補助するハンドヘルドの組み合わせは、システムが、概して、各コンポーネントがグローバル座標系に対して位置する場所、したがって、ユーザの頭部の姿勢を決定することを可能にし、ハンドヘルド姿勢は、好ましくは、拡張現実画像特徴の提示と、ハンドヘルドコンポーネント(170)の移動および回転を使用した相互作用とのために、比較的に短待ち時間で追跡され得る。
図11を参照すると、図10のものに幾分類似するが、ユーザの頭部の姿勢およびハンドヘルド姿勢が、好ましくは、拡張現実画像特徴の提示と、ハンドヘルドコンポーネント(180)の移動および回転を使用した相互作用とのために、比較的に短待ち時間において追跡され得るように、システムが頭部搭載型コンポーネント(172)およびハンドヘルドコンポーネント(176、178)の両方の姿勢の決定を補助するために利用可能なより多くの感知デバイスおよび構成を有する、実施形態が、図示される。
種々の実装では、拡張現実デバイスは、1つ以上のコンピュータビジョン技法を実装し、システムの環境内のオブジェクト、ユーザジェスチャを識別する、または本明細書で使用または説明される他のコンピュータビジョンプロシージャを実施するように構成される、コンピュータビジョンシステムを含むことができる。例えば、下記に説明されるように、コンピュータビジョンシステムは、外向きに面したカメラ124によって撮影されるユーザ入力デバイス/コントローラ606の画像を分析し、電磁追跡システムにおけるEM歪曲を補償する際に使用するためのデバイスの姿勢(例えば、位置または配向)を決定することができる。コンピュータビジョン技法の非限定的実施例は、スケール不変特徴変換(SIFT)、スピードアップロバスト特徴(SURF)、配向FASTおよび回転BRIEF(ORB)、バイナリロバスト不変スケーラブルキーポイント(BRISK)、高速網膜キーポイント(FREAK)、Viola-Jonesアルゴリズム、Eigenfacesアプローチ、Lucas-Kanadeアルゴリズム、Horn-Schunkアルゴリズム、Mean-shiftアルゴリズム、視覚的同時位置推定およびマッピング(vSLAM)技法、シーケンシャルベイズ推定器、カルマンフィルタ、拡張カルマンフィルタ、バンドル調節、適応閾値化(および他の閾値化技法)、反復最近傍点(ICP)、セミグローバルマッチング(SGM)、セミグローバルブロックマッチング(SGBM)、特徴点ヒストグラム、種々の機械学習アルゴリズム(例えば、サポートベクトルマシン、k最近傍アルゴリズム、単純ベイズ、ニューラルネットワーク(畳み込みまたは深層ニューラルネットワークを含む)、または他の教師あり/教師なしモデル等)等を含む。
(電磁位置特定の概要)
(電磁位置特定の概要)
EM位置特定は、1つ以上のEMエミッタによる磁場の励起に由来する、1つ以上のEMセンサによって測定される、磁場結合に基づく。磁場を励起する2つの一般的な方法が存在する。一方は、パルス交流(AC)場に基づき、他方は、パルス直流(DC)場に基づく。現在、AC EM場を利用するEM追跡システムが、雑音にあまり敏感ではない傾向があるため、より一般的である。図9Aおよび9Bを参照して説明されるように、6DOF位置特定に関して、EMセンサ(例えば、EMセンサ604)およびEMエミッタ(例えば、EMエミッタ602)はそれぞれ、(例えば、個別のX、Y、Z軸に沿って)3つの直交整合コイルを含むことができる。本構成を使用する多くの用途では、EMエミッタ602内のエミッタコイル電流は、連続的に(例えば、Xにおいて、次いで、Yにおいて、次いで、Zにおいて)パルス状であり、結果として生じた磁場は、EMセンサ604内の各センサコイル内で電流を誘発し、これは、次いで、エミッタコイルに対するセンサコイル、したがって、EMエミッタ602に対するEMセンサ604の位置または配向を決定するために使用される。
以下の理論展開によって拘束または限定されるわけではないが、EM位置特定のためのEMモデルが、ここで提示されるであろう。本モデルでは、EMエミッタ602内のエミッタコイルによって生成される磁場は、同等の磁気双極子場(EMエミッタ602内のエミッタコイルのサイズがエミッタコイルとセンサコイルとの間の距離よりも小さいときに、正確である傾向がある)であると仮定される。双極子場は、距離の逆3乗として、EMエミッタ602とEMセンサ604との間の距離の増加に伴って減少する。
6DOF位置特定のための方程式は、オイラー角変換(または四元数)を使用し、EMエミッタ602に対するEMセンサ604の位置および配向を説明することができる。EMセンサ604によって感知されるEM場は、行列方程式によって表され得る。
式中、Fは、3×3EM場行列であり、cは、任意の所与のコイル構成に関する定数(例えば、ワイヤのループの数、ループの面積、およびセンサ利得の積に比例する)であり、rは、EMエミッタ602とEMセンサ604との間の距離であり、Tは、EMエミッタ602に対するEMセンサ604の3自由度(3DOF)配向を表す3×3回転行列であり、Pは、EMエミッタ602に対するEMセンサ604の位置を表す3×3回転行列であり、Kは、[1,-1/2,-1/2]に比例する対角要素を伴う3×3対角行列であり、Eは、対角要素がEMエミッタ602の3つの直交エミッタコイルによって測定されるEM場の強度を表す、3×3対角行列である。行列Pは、以下によって、方位角θおよびピッチφの観点から表され得る。
式中、rotyは、Y軸の周囲の3×3回転行列であり、rotzは、Z軸の周囲の3×3回転行列である。
行列の要素は、三角関数を伴うため、方程式(1)は、実際には、6つの未知数(3つの位置変数および3つの配向変数)を伴う、連立同時非線形方程式であって、これは、同時に解法され(例えば、反復数値技法を介して)、EMエミッタ602に対するEMセンサ604の6DOF姿勢を取得することができる。上記に説明される方法からの位置および配向は、グローバル基準フレームに対するEMセンサコイルの設置のため、異なる基準フレームに変換される必要があり得る。本フレーム(または基準フレーム)は、時として、世界フレーム(または世界基準フレームまたは世界またはグローバル座標系)と呼ばれる。世界座標系10の実施例は、図8を参照して説明される。いくつかの実装では、世界座標系10は、ARデバイスがユーザによってオンにされると、例えば、ユーザの初期頭部姿勢が決定されると、確立される。世界フレームの原点は、環境内の任意の点に設定されることができ、例えば、その中でユーザがデバイスを動作させている、部屋の角が、原点(例えば、デカルト系内の座標(0,0,0)を伴う)として設定され得る。
(拡張現実システムのためのセンサ融合の概要)
(拡張現実システムのためのセンサ融合の概要)
図12は、ハンドヘルドユーザ入力デバイス(例えば、図6および8を参照して説明される、ハンドヘルドコントローラ/トーテム606)上のIMU650からの入力を受け取り、ARシステム200と関連付けられる世界フレーム(例えば、世界座標系10)内のトーテムの6DOF姿勢(例えば、位置および配向)を提供し得る、慣性ナビゲーションシステム(INS)1202の実施例のためのブロック図である。ARシステム200は、例えば、図7、10、および11におけるフローチャートを参照して説明されるように、6DOF姿勢を利用することができる。
本明細書に説明されるように、トーテムIMU650は、コンポーネントの中でもとりわけ、加速度計と、ジャイロスコープとを含むことができる。加速度計は、トーテムの基準フレーム内で測定された時間の関数として、加速a(t)を提供する。ジャイロスコープは、トーテムの基準フレーム内で測定された時間の関数として、角速度ω(t)を提供する。
INS1202は、加速データを2回積分し、トーテム606の位置を取得し、角速度を1回積分し、トーテム606の角配向(例えば、オイラー角または四元数として表される)を取得する、ハードウェアプロセッサを含むことができる。例えば、トーテム606の位置x(t)は、以下のように記述され得る。
式中、x0およびv0は、それぞれ、時間t=0におけるトーテムの初期位置および速度を表す、積分定数である。トーテム606の配向θ(t)は、以下のように記述され得る。
式中、θ0は、時間t=0におけるトーテムの初期角配向を表す、積分定数である。
方程式(3)および(4)を実装するとき、いくつかの課題が存在する。第1に、ARシステム200の世界基準フレーム内のトーテム606の初期位置、配向、および角配向は、概して、既知ではない。したがって、積分定数x0、v0、およびθ0は、初期時間(例えば、t=0)におけるIMUの基準フレームの位置および配向をARシステム200の世界基準フレームにリンクさせるために、付加的情報または他のセンサからの入力を伴わずに、決定することが困難であり得る。2つの基準フレーム間の本リンクは、初期時間(例えば、t=0)におけるARシステム200の世界基準フレームに対するトーテムの位置間のオフセットを表すため、時として、本明細書では、オフセットと称され得る。
トーテムIMU650からのデータは、概して、誤差、非線形性、および雑音を受ける。例えば、加速度計またはジャイロスコープからの出力は、真の加速または角速度からオフセットされる、バイアスを有し得る。いくつかのセンサに関して、バイアスは、時間、温度、センサの配向、電源電圧等の関数であり得る。したがって、バイアス(未知)は、未知の様式において経時的に変化し得る。センサが、最初に、較正され、センサ内に存在するバイアスを除去する場合でも、バイアスは、経時的に発展する傾向にあるであろう。
加速度計およびジャイロスコープデータにおける誤差は、それぞれ、方程式(3)および(4)から決定される位置および配向のドリフトにつながり得る。方程式(3)における2つの積分のため、加速度計データにおける誤差は、時間に伴って二次的に増加する、決定された位置におけるドリフトにつながる。方程式(4)における単一積分のため、ジャイロスコープデータにおける誤差は、時間に伴って線形に増加する、決定された配向におけるドリフトにつながる。未補正の場合、これらのドリフトは、決定された位置および配向を実際の位置および配向から実質的に逸脱させ得る。
下記に説明されるであろうように、トーテムIMU650への付加的センサからの入力は、IMUデータ(例えば、加速度計データおよびジャイロスコープデータ)と融合され、ドリフトを低減させ、トーテムの位置および配向をARシステム200の世界基準フレームにリンクさせることができる。例えば、カルマンフィルタ等のセンサ融合アルゴリズムが、センサ誤差状態および基準フレームオフセットのモデルとともに、センサデータ入力を融合させるために使用されることができる。例えば、カルマンフィルタは、ARシステム200の世界基準フレーム内のトーテムの初期姿勢に関するセンサバイアス、雑音、およびオフセットの存在下、トーテムの姿勢のロバストな予測を提供することができる。下記に説明される実施形態は、カルマンフィルタを利用するが、他の統計的フィルタまたは確率論的データ融合技法も、使用されることができる。例えば、カルマンフィルタは、拡張カルマンフィルタ、アンセンテッドカルマンフィルタ、または任意の他の種々のカルマンフィルタを含むことができる。確率論的データ融合技法は、マルコフモデル、ベイズフィルタリング、線形二次推定等を含むことができる。さらに、トーテムの6DOF姿勢(例えば、位置および配向)を推定する観点から説明されるが、これは、要件ではなく、他の実施形態では、センサ融合システムは、3DOF姿勢(例えば、位置または配向)を推定することができる。
例証的実施例として、トーテムの初期速度v0がゼロである場合、トーテムの位置に関するモデルは、以下のように記述され得る。
式中、offsetxは、ARシステム200の世界基準フレームと加速度計基準フレーム(恣意的に選定された座標原点に対する)との間の位置誤差の推定値であり、ε(t)は、加速度計出力におけるバイアスを補正するための誤差状態推定値である。類似方程式が、角配向θ(t)に関して以下のように記述され得る。
式中、offsetθは、ARシステム200の世界基準フレームとジャイロスコープ基準フレーム(恣意的に選定された座標原点に対する)との間の角度誤差の推定値であり、δ(t)は、ジャイロスコープ出力(角速度)におけるバイアスを補正するための誤差状態推定値である。カルマンフィルタ(または他の適切なフィルタ)は、下記にさらに説明されるであろうように、誤差状態の推定値(例えば、offsets、εおよびδ)を提供することができる。
(センサ融合のための例示的システム)
(センサ融合のための例示的システム)
図13Aは、例えば、図2A-2D、6、または8を参照して説明されるようなARシステム200と併用可能なセンサ融合システム1300の実施例を図式的に図示する、ブロック図である。センサ融合システム1300の実施形態は、図12を参照して上記に説明される課題のいくつかまたは全てに対処する。
センサ融合システム1300は、複数のタイプのセンサからのセンサデータを受信および融合するように構成される、慣性ナビゲーションシステム(INS)1302を含む。例えば、図13Aに示されるように、INS1302は、トーテムIMU650、EM追跡システム600、および加えて、または随意に、他のセンサ651から入力データを受信することができる。本明細書に説明されるように、トーテムIMU650は、コンポーネントの中でもとりわけ、加速度計と、ジャイロスコープとを含むことができる。他のセンサ651は、コンポーネントの中でもとりわけ、磁力計と、光学センサとを含むことができる(例えば、外向きに面したまたは内向きに面したカメラ内に)。
EM追跡システム600の実施形態は、図6-11を参照して上記に説明される。例えば、トーテム606は、EM場を放出する、EMエミッタ602を含むことができ、頭部搭載型ARヘッドセット58は、放出されたEM場を測定し、EMエミッタ602に対するEMセンサ604の姿勢(3DOFまたは6DOF)を計算する、EMセンサ604を含むことができる。例えば、6DOF姿勢は、方程式(1)を参照して上記に説明される、EM場行列Fから計算されることができる。
他の実装では、EMエミッタ602は、ARヘッドセット58内に配置されることができ、EMセンサ604は、トーテム606内に配置されることができる。例えば、図9Aおよび9Bを参照する、EMセンサおよびエミッタの種々の配列の説明を参照されたい。
センサ融合システム1300は、トーテム姿勢に関する誤差状態を推定し得る、カルマンフィルタ1304を含む(例えば、方程式(5)および(6)を参照して説明されるように)。カルマンフィルタ1304は、トーテムIMU650が挙動するはずである方法に関するモデル(例えば、バイアス、雑音等を伴わない)を利用して、これらのモデルをセンサ(例えば、トーテムIMU650、EM追跡システム600、および(随意に)他のセンサ651)からの実際の測定値と比較することができる。カルマンフィルタ1304は、モデルと測定値との間の差異を使用して、トーテム姿勢のより良好な推定値を提供する。例えば、カルマンフィルタ1304は、誤差状態を生成するために、トーテム姿勢の現在の状態の推定値を予測し、本状態を融合されているセンサ(例えば、IMU650、EM追跡システム600、および(随意に)他のセンサ651)からのデータと比較することができる。誤差状態の知識は、トーテム姿勢の状態を更新するために使用されることができる(例えば、方程式(5)および(6)を介して)。上記に述べられたように、カルマンフィルタ1304の使用は、要件ではなく、他の実施形態では、例えば、マルコフモデル、ベイズフィルタリング、線形二次推定等の他の統計的フィルタまたは確率論的データ融合技法も、使用されることができる。
INS1302は、トーテムIMU650のみからまたはEM追跡システム600のみからの入力を使用する、姿勢推定より統計的に正確である傾向にある、トーテム姿勢の推定値を提供するために、カルマンフィルタを使用して、トーテムIMUおよびEM追跡システム(および随意に、任意の他のセンサ651)からの入力を融合させる。例えば、カルマンフィルタ1304は、トーテム姿勢のドリフト(例えば、センサバイアス、雑音等に起因する)を補正し、ARシステム200の世界基準フレームに対するオフセットを調節することができる。
故に、センサ融合システム1300は、ARシステム200の世界基準フレーム内のトーテム姿勢(例えば、3DOFまたは6DOF)を決定し、本トーテム姿勢をARシステム200に提供することができる。ARシステム200は、ARシステム200の世界基準フレーム内のトーテム姿勢を使用して、例えば、仮想コンテンツをARシステムのユーザに送達することができる(例えば、図7、10、11参照)。センサ融合技法は、トーテム姿勢のより正確かつロバストな推定値を提供し、それによって、ユーザへの仮想コンテンツの改良された送達およびARシステム200の改良されたユーザ体験につながる。
図13Bおよび13Cは、センサ融合システム1300の付加的例証的特徴を提供する。方程式(1)を参照して上記に説明されるように、EM追跡システム600は、EMセンサ604によって測定されたEM場行列1322を使用して、トーテム姿勢を決定する。測定されたEM場行列1322は、Fによって示される3×3行列であって、9つの成分を有する。図13Bでは、測定されたEM場行列1322は、予期されるトーテム姿勢の本システムの推定値を表す、予測されるEM場行列1324と比較される。比較は、予測されるEM場行列1324と測定されたEM場行列1322との間の差異1328を含むことができる。予測および測定されたEM場行列1324、1322間の比較は、カルマンフィルタ1304によって使用される誤差状態の推定値を提供する。例えば、予測および測定されたEM場行列1324、1322間の差異が、比較的に小さいとき、センサバイアスまたは雑音に起因する、ドリフトは、それほど多くない場合があり、INS1302によるトーテム姿勢の決定は、比較的に正確であり得る。ドリフトが蓄積するにつれて、予測および測定されたEM場行列1324、1322間の差異は、増加し得、カルマンフィルタ1304は、トーテム姿勢1310の正確度を復元するように作用する。図13Bにおける破線1328によって示されるように、世界フレーム1310内のトーテム姿勢の現在の値は、トーテム606があることが予期される場所に関する予測の中にフィードバックされることができる。カルマンフィルタ1304は、したがって、トーテムIMU650およびEM追跡システム600(および随意に、他のセンサ651)からの入力を融合させることによって、世界フレーム1310内のトーテム姿勢の改良または最適決定を提供するように再帰的に機能する。
図13Cは、予測されるEM場行列1324がセンサ融合システム1300によって決定され得る方法の実施例を図示する。図13Cでは、EMエミッタ602は、「TX」(伝送機の省略形)と標識され、EMセンサ604は、「RX」(受信機の省略形)と標識される。図13Cにおけるブロック図は、EMエミッタ602およびEMセンサ604によって行われる測定がARシステム200の世界基準フレームに変換され得る方法の実施例を図示する。本実施例では、EMエミッタ602は、トーテム606(例えば、図6参照)内に位置することが想定され、EMセンサ604は、ARヘッドセット58(例えば、図9A参照)内に位置することが想定される。EMエミッタ602およびEMセンサ604の本配列は、限定ではなく、他の実施形態では、図13Cを参照して説明される処理は、他の配列(例えば、ARヘッドセット58内のEMエミッタ602およびトーテム606内のEMセンサ604)のために修正され得る。
ブロック1342では、システム1300は、ARシステム200の世界基準フレーム内のARヘッドセット58の姿勢を示す、頭部姿勢データにアクセスする。図8を参照して上記に説明されるように、IMU102または外向きに面した世界カメラ124等のARヘッドセット58内のセンサは、ヘッドセット58の姿勢を決定するために使用されることができる。例えば、カメラ124は、データを捕捉するために利用されてもよく、これは、同時位置特定およびマッピングプロトコルまたは「SLAM」において利用され、ARヘッドセット58がある場所およびシステム200または世界内の他のコンポーネントに対して配向される状態を決定し得る。ARヘッドセット58の姿勢(例えば、位置および配向)は、ARヘッドセット58に対する基点原点900を基準とすることができる。例えば、図9Aに図式的に示されるように、基点原点900は、例えば、実質的に一対の外向きに面した世界カメラ間にある、ヘッドセット58の中心の近くの点にあってもよい。
図9Aから分かるように、EMセンサ604は、ARヘッドセット58の基点原点900に位置せず、変位902によって、原点から変位され得る(二重矢印として示される)。したがって、EMセンサ604によって行われる測定は、本変位902のため、基点原点900に対するARヘッドセット58の姿勢を表し得ない。基点原点900に対するEMセンサ604の変位は、センサ融合システム1300によって、図13Cのブロック1344において記憶されることができ、これは、「RX付帯性質」と標識される。EMセンサ604によって行われる測定を調節し、ARシステム200の世界基準フレーム内のARヘッドセット58の位置を反映させるために、図13Cのブロック1344では、RX付帯性質(例えば、変位902)が、EMセンサ604測定に適用されることができる。ブロック1346の出力は、ARシステム200の世界基準フレーム内のEMセンサ604の姿勢(例えば、位置および配向)(図13Cでは、「世界フレーム内のRX」として標識される)である。
図13Cの下側部分に目を向けると、類似プロシージャが、ARシステム200の世界基準フレーム内のEMエミッタ602の姿勢(図13Cでは、「世界フレーム内のTX」として標識される)を決定するために使用されてもよい。EMセンサ604がARヘッドセット58の基点原点から変位されるのと同様に、EMエミッタ602も、ARシステム200の世界基準フレーム内のトーテム606の位置を表す、基点原点660から変位され得る。図6に示される実施例に戻ると、トーテム606は、変位662によって、EMエミッタ602の位置から変位される、基点原点660を含む。トーテム606の基点原点660は、任意の好適な場所、例えば、トーテム606の質量中心またはトーテム606の立体中心に選択されることができる。
トーテム606の基点原点660に対するEMエミッタ602の変位は、センサ融合システム1300によって、図13Cのブロック1354において記憶されることができ、これは、「TX付帯性質」と標識される。ARシステム200の世界基準フレーム内のトーテム606の基点原点660の場所を把握するために、ブロック1310(図13B参照)からのトーテム姿勢データが、使用されることができる。EMエミッタ602を調節し、ARシステム200の世界基準フレーム内のトーテム606の位置を反映させるために、TX付帯性質(例えば、変位662)および基点原点660のトーテム姿勢が、図13Cのブロック1356において適用されることができる。事実上、世界フレーム1310内のトーテム姿勢は、ARシステム200の世界基準フレーム内のトーテム606の基点原点660の位置および配向を提供し、TX付帯性質1354は、EMエミッタ602が基点原点660から変位され得るという事実を調節する。
ブロック1356の出力は、したがって、ARシステム200の世界基準フレーム内のEMエミッタ602の姿勢(例えば、位置および配向)(「図13Cでは、世界フレーム内のTX」として標識される)である。故に、プロシージャにおける本点において、EMセンサ604(RX)およびEMエミッタ602(TX)の両方の予測される姿勢が、同一基準フレーム、すなわち、ARシステム200の世界基準フレーム内で決定される。
「TX→RXリゾルバ」と標識されたブロック1348では、EMセンサ604に対するEMエミッタ602の相対的姿勢が、決定されることができる。相対的姿勢は、EMエミッタ602とEMセンサ604との間の距離rと、EMエミッタ602に対するEMセンサ604の角配向(例えば、方位角およびピッチ角)とを含んでもよい。
ブロック1352では、EMエミッタ602およびEMセンサ604の相対的姿勢が、EMエミッタ602とEMセンサ604との間のその特定の相対的姿勢に関して生じることが予測されるであろう、EM場行列1324の値を決定するために使用されることができる。例えば、予測されるEM場行列1324は、距離rおよび配向角度(例えば、方位角およびピッチ)が相対的姿勢から決定されるため、方程式(1)および(2)から計算されることができる。
したがって、図13Cにおけるブロック1324の出力は、EM場行列に関する予測を提供し、これは、図13Bを参照して説明されるように、実際に測定されたEM場行列1322と比較されることができる。該当する場合、予測および測定されたEM場行列間の差異が、カルマンフィルタ1304によって使用され、世界フレーム1310内のトーテム姿勢を更新するためにINS1302によって使用される誤差状態推定値を提供することができる。
図13Cは、EMエミッタ602が、トーテム606内または上に配置され、EMセンサ604が、頭部搭載型ウェアラブルディスプレイ58内または上に配置される、例示的システムに関する予測されるEM場行列1324の計算を図示する。これは、例証の目的のためのものであって、限定ではない。他の実装では、EMエミッタ602は、頭部搭載型ウェアラブルディスプレイ58内または上に配置されてもよく、EMセンサ604は、トーテム606内または上に配置されてもよい。そのような実装では、RX付帯性質は、トーテム606の基点位置に対するEMセンサ604の変位を含んでもよく、TX付帯性質は、頭部搭載型ディスプレイ58の基点位置に対するEMエミッタ602の変位を含んでもよい。
センサ融合システム1300のいくつかの実装では、トーテムIMU650は、約250Hzで動作する。INS1302は、IMUデータを積分する一方、カルマンフィルタ1304からの誤差状態推定値を適用し、世界フレーム1310内のトーテム姿勢を決定する。例えば、INS1302は、方程式(5)および(6)を評価してもよい。EM追跡システム600は、IMU650と異なるレート(例えば、240Hz)で動作してもよい。EM追跡システム600からの新しいデータが、取得される度に、図13B/13Cを参照して説明されるプロシージャが、実施され、測定および予測されるEM場行列をカルマンフィルタ1304に供給することができる。本プロセスは、更新された世界-フレームトーテム姿勢をARシステム200にリアルタイムで提供するために、新しいIMU650またはEM追跡システム600データが取得されるにつれて、反復されてもよい。センサ融合システム1300の使用は、有利なこととして、ARシステム200が、低減された待ち時間、改良された性能(例えば、トーテム姿勢は、よりロバストかつ正確であろうため)を伴って動作することを可能にし、それによって、改良されたユーザ体験を提供し得る。
(初期化)
(初期化)
ARシステム200が、始動(またはリブート)されると、センサ融合システム1300は、初期化されてもよい。例えば、初期トーテム姿勢は、EM追跡システム600によって、測定されたEM場行列1322から計算されてもよい。センサ積分およびフィルタリングが、進むにつれて、推定されるトーテム姿勢が、カルマンフィルタ1304によって実施される最適化によって、正確度において改良され得る。ある場合には、初期トーテム姿勢を測定されたEM場行列1322から決定するステップは、トーテム606が向いている方向(例えば、それが向いている半球)に関する曖昧性をもたらし得る。いくつかの実装では、本曖昧性を解決するために、融合システム1300のための2つのスレッドが、並行して開始され、各スレッドは、トーテム606が半球のうちの1つに向いていると仮定する。スレッドのうちの1つは、正しい半球を有し、スレッドのうちの1つは、正しくない半球を有するであろう。センサ融合システム1300が、起動されるにつれて、正しくない半球を仮定したスレッドは、本スレッドによって推定される姿勢が真のトーテム姿勢からますます多く発散し始めるであろうため、容易に決定され得る。その時点で、本スレッドは、終了されることができ、センサ融合システム1300は、初期トーテム姿勢に関する正しい半球を仮定した1つのみのスレッドを伴って進む。本技法は、有利なこととして、正しい半球を迅速に識別し、実践において、あまり算出上需要が要求されるものではない。
誤差検出
誤差検出
トーテム606は、典型的には、ユーザの手に保持され、したがって、トーテム606とARヘッドセット58との間の距離は、典型的には、近似的に、ユーザの腕の長さを超えない。センサ融合システム1300のいくつかの実施形態は、トーテム606とARヘッドセット58との間の推定される距離が閾値距離(例えば、典型的ヒトの腕長に匹敵する)を超えるかどうかをチェックする、誤差プロトコルを実装する。例えば、TX→RXリゾルバブロック1348は、EMセンサ604(典型的には、ARヘッドセット58内に配置される)とEMエミッタ602(典型的には、トーテム606内に配置される)との間の距離を計算することができ、距離が、閾値距離を超える場合、融合システム1300は、誤差が生じている可能性が高いことを決定することができる。誤差が、検出される場合、融合システム1300は、例えば、システムを再初期化する等の補正アクションを行うことができる。
(ユーザ入力デバイスの姿勢を計算するための例示的方法)
(ユーザ入力デバイスの姿勢を計算するための例示的方法)
図14は、ウェアラブルシステム200のためのハンドヘルドユーザ入力デバイス/コントローラ/トーテム606の姿勢を計算するための方法1400の実施例を図示する、フローチャートである。方法1400は、図13A-13Cを参照して説明されるINS1302によって実施されてもよい。
ブロック1410では、方法1400は、ハンドヘルドユーザ入力デバイス606と関連付けられる、姿勢センサからの姿勢データにアクセスする。姿勢センサは、IMU、加速度計、ジャイロスコープ、磁力計、光学センサ、またはそれらの組み合わせを含んでもよい。ブロック1420では、方法1400は、ハンドヘルドユーザ入力デバイス606と関連付けられる、EM追跡システム600と関連付けられる、EM追跡データにアクセスする。EM追跡データは、方程式(1)を参照して説明されるEM場行列Fを含んでもよい。
ブロック1430では、方法1400は、データ融合技法を適用し、姿勢データとEM追跡データを組み合わせる。データ融合技法は、カルマンフィルタ(または、例えば、拡張またはアンセンテッドカルマンフィルタ等の任意の種々のカルマンフィルタ)、マルコフモデル、ベイズ推定器、線形二次推定、ニューラルネットワーク、機械学習アルゴリズム等を含んでもよい。データ融合技法は、誤差状態を計算し、姿勢センサから出力された姿勢データのバイアス、雑音、非線形性、誤差等を補正してもよい。
ブロック1440では、方法1400は、ARシステム200の環境と関連付けられる、世界基準フレーム内のハンドヘルドユーザ入力デバイス606の姿勢を決定する。世界基準フレームの実施例は、図8を参照して説明される世界座標系10である。姿勢は、6DOF姿勢または3DOF姿勢であることができる。
ブロック1450では、姿勢は、仮想コンテンツをウェアラブルシステム200のユーザに提示する、またはハンドヘルドユーザ入力デバイスとの便宜的ユーザ相互作用を提供するために使用されてもよい。例えば、図10および11を参照して説明されるように、世界座標系に対する姿勢を決定することを補助する、頭部搭載型ディスプレイ58と、頭部搭載型ディスプレイ58に対するハンドヘルドユーザ入力デバイス606の相対的場所および配向を決定することを補助する、ハンドヘルドユーザ入力デバイス606の組み合わせは、システム200が、概して、各コンポーネントが世界基準フレームに対してある場所、したがって、ユーザの頭部姿勢を決定することを可能にすることができ、ハンドヘルド姿勢は、好ましくは、拡張現実画像特徴の提示およびハンドヘルドコンポーネントの移動および回転を使用した相互作用のために、比較的に短待ち時間で追跡され得る。したがって、方法1400の実施形態は、ウェアラブルデバイス200のユーザのために、短待ち時間性能および改良されたユーザ体験を提供することができる。
(付加的考慮点)
(付加的考慮点)
センサ融合技術のある実施形態が、ウェアラブルディスプレイシステムのコンポーネント(例えば、ARまたはVRコンテキストにおいて頭部姿勢または身体姿勢を追跡するためのIMUおよびEMセンサ)に関するリアルタイム姿勢決定の文脈において説明されるが、これは、限定ではなく例証のためである。センサ融合技術の実施形態が、他の用途で他のデバイスと併用されることができ、一般に、任意の姿勢決定システムに適用されることができる。例えば、センサ融合技術は、医療または外科的環境において使用され、それによって、医療または外科的手技の間に使用される医療器具の改良された位置または配向を提供するために使用されることができる。
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ得る、動的リンクライブラリ内にインストールされ得る、またはインタープリタ型プログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
さらに、本開示の機能性のある実装は、十分に数学的、コンピュータ的、または技術的に複雑であるため、(適切な特殊化された実行可能命令を利用する)特定用途向けハードウェアまたは1つ以上の物理的コンピューティングデバイスは、例えば、関与する計算の量または複雑性に起因して、または結果を実質的にリアルタイムで提供するために、機能性を実施する必要があり得る。例えば、ビデオは、多くのフレームを含み、各フレームは、数百万のピクセルを有し得、具体的にプログラムされたコンピュータハードウェアは、商業的に妥当な時間量において所望の画像処理タスクまたは用途を提供するようにビデオデータを処理する必要がある。さらに、EM追跡を使用する姿勢推定は、典型的には、ARまたはVR環境においてリアルタイムで行われる必要があり、ハードウェア処理が、姿勢推定タスクを実施し、享受できるユーザ体験を提供するために要求される。
コードモジュールまたは任意のタイプのデータは、ハードドライブ、ソリッドステートメモリ、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、光学ディスク、揮発性または不揮発性記憶装置、同一物の組み合わせ、および/または同等物を含む、物理的コンピュータ記憶装置等の任意のタイプの非一過性コンピュータ可読媒体上に記憶され得る。本方法およびモジュール(またはデータ)はまた、無線ベースおよび有線/ケーブルベースの媒体を含む、種々のコンピュータ可読伝送媒体上で生成されたデータ信号として(例えば、搬送波または他のアナログまたはデジタル伝搬信号の一部として)伝送され得、種々の形態(例えば、単一または多重化アナログ信号の一部として、または複数の離散デジタルパケットまたはフレームとして)をとり得る。開示されるプロセスまたはプロセスステップの結果は、任意のタイプの非一過性有形コンピュータ記憶装置内に持続的または別様に記憶され得る、またはコンピュータ可読伝送媒体を介して通信され得る。
本明細書に説明される、および/または添付される図に描写されるフロー図における任意のプロセス、ブロック、状態、ステップ、または機能性は、プロセスにおいて具体的機能(例えば、論理または算術)またはステップを実装するための1つ以上の実行可能命令を含む、コードモジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されたい。種々のプロセス、ブロック、状態、ステップ、または機能性は、組み合わせられる、再配列される、本明細書に提供される例証的実施例に追加される、そこから削除される、修正される、または別様にそこから変更されることができる。いくつかの実施形態では、付加的または異なるコンピューティングシステムまたはコードモジュールが、本明細書に説明される機能性のいくつかまたは全てを実施し得る。本明細書に説明される方法およびプロセスはまた、いずれの特定のシーケンスにも限定されず、それに関連するブロック、ステップ、または状態は、適切な他のシーケンスで、例えば、連続して、並行して、またはある他の様式で実施されることができる。タスクまたはイベントが、開示される例示的実施形態に追加される、またはそこから除去され得る。さらに、本明細書に説明される実装における種々のシステムコンポーネントの分離は、例証目的のためであり、全ての実装においてそのような分離を要求するものとして理解されるべきではない。説明されるプログラムコンポーネント、方法、およびシステムは、概して、単一のコンピュータ製品においてともに統合される、または複数のコンピュータ製品にパッケージ化され得ることを理解されたい。多くの実装変形例が、可能である。
本プロセス、方法、およびシステムは、ネットワーク(または分散)コンピューティング環境において実装され得る。ネットワーク環境は、企業全体コンピュータネットワーク、イントラネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、パーソナルエリアネットワーク(PAN)、クラウドコンピューティングネットワーク、クラウドソースコンピューティングネットワーク、インターネット、およびワールドワイドウェブを含む。ネットワークは、有線または無線ネットワークまたは任意の他のタイプの通信ネットワークであり得る。
本発明は、対象デバイスを使用して実施され得る方法を含む。本方法は、そのような好適なデバイスを提供する行為を含んでもよい。そのような提供は、エンドユーザによって実施されてもよい。換言すると、「提供する」行為は、単に、エンドユーザが、本主題の方法において必要なデバイスを取得する、それにアクセスする、それに接近する、それを位置付ける、それを設定する、それをアクティブ化する、それに電源を入れる、または別様にそれを提供するように作用することを要求する。本明細書に列挙される方法は、論理的に可能な列挙されたイベントの任意の順序およびイベントの列挙された順序で行われてもよい。
本開示のシステムおよび方法は、それぞれ、いくつかの革新的側面を有し、そのうちのいかなるものも、本明細書に開示される望ましい属性に単独で関与しない、またはそのために要求されない。上記に説明される種々の特徴およびプロセスは、相互に独立して使用され得る、または種々の方法で組み合わせられ得る。全ての可能な組み合わせおよび副次的組み合わせが、本開示の範囲内に該当することが意図される。本開示に説明される実装の種々の修正が、当業者に容易に明白であり得、本明細書に定義される一般原理は、本開示の精神または範囲から逸脱することなく、他の実装に適用され得る。したがって、請求項は、本明細書に示される実装に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。
別個の実装の文脈において本明細書に説明されるある特徴はまた、単一の実装における組み合わせにおいて実装されることができる。逆に、単一の実装の文脈において説明される種々の特徴もまた、複数の実装において別個に、または任意の好適な副次的組み合わせにおいて実装されることができる。さらに、特徴がある組み合わせにおいて作用するものとして上記に説明され、さらに、そのようなものとして最初に請求され得るが、請求される組み合わせからの1つ以上の特徴は、いくつかの場合では、組み合わせから削除されることができ、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。いかなる単一の特徴または特徴のグループも、あらゆる実施形態に必要または必須ではない。
とりわけ、「~できる(can)」、「~し得る(could)」、「~し得る(might)」、「~し得る(may)」、「例えば(e.g.)」、および同等物等、本明細書で使用される条件文は、別様に具体的に記載されない限り、または使用されるような文脈内で別様に理解されない限り、概して、ある実施形態がある特徴、要素、および/またはステップを含む一方、他の実施形態がそれらを含まないことを伝えることが意図される。したがって、そのような条件文は、概して、特徴、要素、および/またはステップが、1つ以上の実施形態に対していかようにも要求されること、または1つ以上の実施形態が、著者の入力または促しの有無を問わず、これらの特徴、要素、および/またはステップが任意の特定の実施形態において含まれる、または実施されるべきかどうかを決定するための論理を必然的に含むことを合意することを意図されない。用語「~を備える(comprising)」、「~を含む(including)」、「~を有する(having)」、および同等物は、同義語であり、非限定的方式で包括的に使用され、付加的要素、特徴、行為、動作等を除外しない。また、用語「または」は、その包括的意味において使用され(およびその排他的意味において使用されず)、したがって、例えば、要素のリストを接続するために使用されると、用語「または」は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。加えて、本願および添付される請求項で使用されるような冠詞「a」、「an」、および「the」は、別様に規定されない限り、「1つ以上の」または「少なくとも1つ」を意味するように解釈されるべきである。本明細書で具体的に定義される場合を除いて、本明細書で使用される全ての技術的および科学的用語は、請求項の妥当性を維持されながら、可能な限り広義に一般的に理解される意味として与えられるべきである。
本明細書で使用されるように、項目のリスト「~のうちの少なくとも1つ」を指す語句は、単一の要素を含む、それらの項目の任意の組み合わせを指す。ある実施例として、「A、B、またはCのうちの少なくとも1つ」は、A、B、C、AおよびB、AおよびC、BおよびC、およびA、B、およびCを網羅することが意図される。語句「X、Y、およびZのうちの少なくとも1つ」等の接続文は、別様に具体的に記載されない限り、概して、項目、用語等がX、Y、またはZのうちの少なくとも1つであり得ることを伝えるために使用されるような文脈で別様に理解される。したがって、そのような接続文は、概して、ある実施形態が、Xのうちの少なくとも1つ、Yのうちの少なくとも1つ、およびZのうちの少なくとも1つがそれぞれ存在するように要求することを示唆することを意図されない。
同様に、動作は、特定の順序で図面に描写され得るが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序で、または連続的順序で実施される、または全ての図示される動作が実施される必要はないと認識されるべきである。さらに、図面は、フローチャートの形態で1つ以上の例示的プロセスを図式的に描写し得る。しかしながら、描写されない他の動作も、図式的に図示される例示的方法およびプロセス内に組み込まれることができる。例えば、1つ以上の付加的動作が、図示される動作のいずれかの前に、その後に、それと同時に、またはその間に実施されることができる。加えて、動作は、他の実装において再配列される、または再順序付けられ得る。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上記に説明される実装における種々のシステムコンポーネントの分離は、全ての実装におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合では、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。
Claims (30)
- ウェアラブルシステムであって、
頭部搭載型ディスプレイと、
慣性測定ユニット(IMU)を備えるハンドヘルドユーザ入力デバイスと、
電磁(EM)追跡システムであって、
前記ハンドヘルドユーザ入力デバイス内または上に配置されるEMエミッタであって、前記EMエミッタは、EM場を生成するように構成される、EMエミッタと、
前記頭部搭載型ディスプレイ内または上に配置されるEMセンサであって、前記EMセンサは、前記EM場を感知するように構成される、EMセンサと
を備え、前記EMエミッタに対する前記EMセンサの推定される姿勢と関連付けられるEM場行列を出力するように構成される、EM追跡システムと、
ハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記IMUからのIMUデータにアクセスすることであって、前記IMUデータは、前記ハンドヘルドユーザ入力デバイスと関連付けられる基準フレーム内の前記ハンドヘルドユーザ入力デバイスの推定される姿勢を表す、ことと、
前記EM追跡システムから前記EM場行列にアクセスすることと、
前記ウェアラブルシステムの環境と関連付けられる世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの予測される姿勢を表す予測されるEM場行列を計算することと、
少なくとも部分的に、前記EM場行列および前記予測されるEM場行列に基づいて、誤差状態を生成することであって、前記誤差状態は、前記IMU内のバイアスまたは雑音または前記ハンドヘルドユーザ入力デバイスの基準フレームと前記世界基準フレームとの間のオフセットのうちの少なくとも1つを表す、ことと、
前記誤差状態に基づいて、カルマンフィルタを前記IMUデータに適用することと、
前記カルマンフィルタを使用して、前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢を決定することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、ウェアラブルシステム。 - 前記IMUは、加速度計またはジャイロスコープのうちの少なくとも1つを備える、請求項1に記載のウェアラブルシステム。
- 前記予測されるEM場行列を計算するために、前記ハードウェアプロセッサは、
前記世界基準フレーム内の前記EMエミッタ姿勢に関する推定値を計算することと、
前記世界基準フレーム内の前記EMセンサ姿勢に関する推定値を計算することと、
前記世界基準フレーム内の前記EMエミッタ姿勢と前記世界基準フレーム内の前記EMセンサ姿勢との間の相対的姿勢を計算することと
を行うようにプログラムされる、請求項1または請求項2に記載のウェアラブルシステム。 - 前記世界基準フレーム内の前記EMエミッタ姿勢に関する推定値を計算するために、前記ハードウェアプロセッサは、
前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢にアクセスすることと、
前記ハンドヘルドユーザ入力デバイスの基点位置に対する前記EMエミッタの位置を調節するように構成されるEM伝送機付帯性質を適用することと
を行うようにプログラムされる、請求項3に記載のウェアラブルシステム。 - 前記EM伝送機付帯性質は、前記EMエミッタの位置と前記ハンドヘルドユーザ入力デバイスの基点位置との間の変位を備える、請求項4に記載のウェアラブルシステム。
- 前記世界基準フレーム内の前記EMセンサに関する推定値を計算するために、前記ハードウェアプロセッサは、
前記頭部搭載型ディスプレイに関する姿勢に関する推定値にアクセスすることと、
前記頭部搭載型ディスプレイの基点位置に対する前記EMセンサの位置を調節するように構成される、EM受信機付帯性質を適用することと
を行うようにプログラムされる、請求項3-5のいずれか1項に記載のウェアラブルシステム。 - 前記EM受信機付帯性質は、前記EMセンサの位置と前記頭部搭載型ディスプレイの基点位置との間の変位を備える、請求項6に記載のウェアラブルシステム。
- 前記ハードウェアプロセッサはさらに、
前記EM追跡システムから決定される姿勢に基づいて、前記ハンドヘルドユーザ入力デバイスの予測される姿勢を計算すること、または
前記ハンドヘルドユーザ入力デバイスの配向における曖昧性を解決すること
のうちの1つ以上のものを含む初期化プロシージャを実施するようにプログラムされる、請求項1-7のいずれか1項に記載のウェアラブルシステム。 - 前記ハンドヘルドユーザ入力デバイスの配向における曖昧性を解決するために、前記ハードウェアプロセッサは、
前記ハンドヘルドユーザ入力デバイスの初期配向が第1の半球内に位置する第1のスレッドを実行することであって、前記第1のスレッドは、前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢の第1の推定値を決定する、ことと、
前記ハンドヘルドユーザ入力デバイスの前記初期配向が前記第1の半球と反対の第2の半球内に位置する第2のスレッドを実行し、前記第2のスレッドは、前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢の第2の推定値を決定することと
を行うようにプログラムされる、請求項8に記載のウェアラブルシステム。 - 前記ハードウェアプロセッサは、それぞれ、前記第1の推定値または前記第2の推定値が、前記ハンドヘルドユーザ入力デバイスの真の姿勢から発散するとき、前記第1のスレッドまたは前記第2のスレッドのいずれかの実行を終了するようにプログラムされる、請求項9に記載のウェアラブルシステム。
- 前記ハードウェアプロセッサは、誤差検出ルーチンを実施するようにプログラムされ、誤差の決定に応答して、前記システムは、補正アクションを実施する、請求項1-10のいずれか1項に記載のウェアラブルシステム。
- 前記誤差検出ルーチンは、前記EMエミッタと前記EMセンサとの間の距離が閾値距離を超えることを決定することを含む、請求項11に記載のウェアラブルシステム。
- 前記補正アクションは、前記システムを再初期化することを含む、請求項11または請求項12に記載のウェアラブルシステム。
- 前記ハードウェアプロセッサはさらに、
前記頭部搭載型ディスプレイを介して、仮想コンテンツを前記ウェアラブルシステムのユーザに提示する、または
少なくとも部分的に、前記ハンドヘルドユーザ入力デバイスの移動または回転に基づいて、前記ウェアラブルシステムの環境との相互作用を有効にする
ようにプログラムされる、請求項1-13のいずれか1項に記載のウェアラブルシステム。 - ウェアラブルシステムであって、
頭部搭載型ディスプレイと、
慣性測定ユニット(IMU)を備えるハンドヘルドユーザ入力デバイスと、
電磁(EM)追跡システムであって、
EM場を生成するように構成される1つ以上のEMエミッタと、
前記EM場を感知するように構成される1つ以上のEMセンサと
を備え、前記EM追跡システムは、前記1つ以上のEMエミッタに対する前記1つ以上のEMセンサの推定される姿勢と関連付けられるEM場行列を出力するように構成される、EM追跡システムと、
慣性ナビゲーションシステム(INS)であって、
前記IMUからのIMUデータにアクセスすることと、
前記EM追跡システムからの前記EM場行列にアクセスすることと、
データ融合アルゴリズムを前記IMUデータおよび前記EM場行列に適用し、前記ウェアラブルシステムと関連付けられる世界フレーム内の前記ハンドヘルドユーザ入力デバイスの予測される姿勢を生成することと
を行うように構成される、INSと
を備える、ウェアラブルシステム。 - 前記1つ以上のEMエミッタは、前記ハンドヘルドユーザ入力デバイス内または上に配置され、前記1つ以上のEMセンサは、前記頭部搭載型ディスプレイ内または上に配置される、請求項15に記載のウェアラブルシステム。
- 前記1つ以上のEMセンサは、前記頭部搭載型ディスプレイの左側上に位置付けられる第1のEMセンサと、前記頭部搭載型ディスプレイの右側上に位置付けられる第2のEMセンサとを備える、請求項15または請求項16に記載のウェアラブルシステム。
- 前記EM場行列は、前記第1のEMセンサと関連付けられる第1の加重と、前記第2のEMセンサと関連付けられる第2の加重とに基づいて決定される、請求項17に記載のウェアラブルシステム。
- 前記加重は、前記センサと前記ハンドヘルドユーザ入力デバイスとの間の個別の距離に基づいて決定される、請求項18に記載のウェアラブルシステム。
- 前記データ融合アルゴリズムは、カルマンフィルタを備える、請求項15または請求項16に記載のウェアラブルシステム。
- 前記INSは、前記EM場行列と前記ハンドヘルドユーザ入力デバイスの予測される姿勢を表す予測されるEM場行列の比較に基づいて、誤差状態を生成するように構成される、請求項15-19のいずれか1項に記載のウェアラブルシステム。
- 前記予測される姿勢は、6自由度姿勢を備える、請求項15-18のいずれか1項に記載のウェアラブルシステム。
- ウェアラブルシステムのためのハンドヘルドユーザ入力デバイスの姿勢を計算する方法であって、前記方法は、
コンピュータハードウェアを備える慣性ナビゲーションシステム(INS)の制御下で、
前記ハンドヘルドユーザ入力デバイスと関連付けられる姿勢センサからの姿勢データにアクセスすることと、
前記ハンドヘルドユーザ入力デバイスと関連付けられるEM追跡システムと関連付けられる電磁(EM)追跡データにアクセスすることと、
データ融合技法を適用し、前記姿勢データと前記EM追跡データを組み合わせることと、
前記ウェアラブルシステムの環境と関連付けられる基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢を決定することと
を含む、方法。 - 前記姿勢センサは、慣性測定ユニットを備える、請求項23に記載の方法。
- 前記姿勢センサは、加速度計、ジャイロスコープ、磁力計、または光学センサを備える、請求項23または請求項24に記載の方法。
- 前記EM追跡システムは、EMエミッタと、EMセンサとを備える、請求項23-25のいずれか1項に記載の方法。
- 前記EMエミッタは、前記ユーザ入力デバイス内または上に配置される、請求項26に記載の方法。
- 前記データ融合技法は、カルマンフィルタを備える、請求項23-27のいずれか1項に記載の方法。
- 請求項20-25のいずれか1項に記載の方法を実施するように構成される、INS。
- ウェアラブルシステムであって、
前記ハンドヘルドユーザ入力デバイスと、
前記EM追跡システムと、
請求項26に記載のINSと、
を備える、ウェアラブルシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962834081P | 2019-04-15 | 2019-04-15 | |
US62/834,081 | 2019-04-15 | ||
PCT/US2020/021415 WO2020214272A1 (en) | 2019-04-15 | 2020-03-06 | Sensor fusion for electromagnetic tracking |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022529245A true JP2022529245A (ja) | 2022-06-20 |
JPWO2020214272A5 JPWO2020214272A5 (ja) | 2023-03-01 |
Family
ID=72747377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021560020A Pending JP2022529245A (ja) | 2019-04-15 | 2020-03-06 | 電磁追跡のためのセンサ融合 |
Country Status (5)
Country | Link |
---|---|
US (4) | US11016305B2 (ja) |
EP (1) | EP3956717A4 (ja) |
JP (1) | JP2022529245A (ja) |
CN (1) | CN114008514A (ja) |
WO (1) | WO2020214272A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11188144B2 (en) * | 2018-01-05 | 2021-11-30 | Samsung Electronics Co., Ltd. | Method and apparatus to navigate a virtual content displayed by a virtual reality (VR) device |
DE102020109121A1 (de) * | 2019-04-02 | 2020-10-08 | Ascension Technology Corporation | Korrektur von Verzerrungen |
US11016305B2 (en) | 2019-04-15 | 2021-05-25 | Magic Leap, Inc. | Sensor fusion for electromagnetic tracking |
US11719850B2 (en) * | 2019-06-20 | 2023-08-08 | Sony Interactive Entertainment Inc. | Detecting and compensating for magnetic interference in electromagnetic (EM) positional tracking |
WO2021236170A1 (en) * | 2020-05-18 | 2021-11-25 | Google Llc | Low-power semi-passive relative six-degree-of-freedom tracking |
US11320896B2 (en) * | 2020-08-03 | 2022-05-03 | Facebook Technologies, Llc. | Systems and methods for object tracking using fused data |
JP2023547884A (ja) * | 2020-10-26 | 2023-11-14 | プラトー システムズ インコーポレイテッド | 分散型固定センサによる集中型追跡システム |
CN114740967A (zh) * | 2021-01-07 | 2022-07-12 | 华为技术有限公司 | 手柄校正方法、电子设备、芯片及可读存储介质 |
CN112964246B (zh) * | 2021-05-17 | 2021-08-27 | 北京三快在线科技有限公司 | 无人机多传感器数据融合方法、装置、存储介质及设备 |
US11651528B2 (en) * | 2021-09-22 | 2023-05-16 | Rockwell Automation Technologies, Inc. | Systems and methods for providing context-based data for an industrial automation system |
US11797127B1 (en) * | 2021-11-16 | 2023-10-24 | Alken Inc. | Hybrid tracking with auto-correction |
US20230221795A1 (en) * | 2022-01-11 | 2023-07-13 | Rockwell Collins, Inc. | Head tracking system with extended kalman filter combining absolute and relative navigation |
US11880503B1 (en) | 2022-12-19 | 2024-01-23 | Rockwell Collins, Inc. | System and method for pose prediction in head worn display (HWD) headtrackers |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3868565A (en) | 1973-07-30 | 1975-02-25 | Jack Kuipers | Object tracking and orientation determination means, system and process |
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
WO1998036236A1 (en) | 1997-02-13 | 1998-08-20 | Super Dimension Ltd. | Six-degree tracking system |
US6172499B1 (en) | 1999-10-29 | 2001-01-09 | Ascension Technology Corporation | Eddy current error-reduced AC magnetic position measurement system |
US6774624B2 (en) | 2002-03-27 | 2004-08-10 | Ge Medical Systems Global Technology Company, Llc | Magnetic tracking system |
US6754596B2 (en) | 2002-11-01 | 2004-06-22 | Ascension Technology Corporation | Method of measuring position and orientation with improved signal to noise ratio |
IL165314A (en) | 2004-11-21 | 2009-08-03 | Elbit Ltd | Electromagnetic tracker |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
WO2007117951A2 (en) | 2006-03-29 | 2007-10-18 | Stryker Corporation | Shielded surgical navigation system that determines the position and orientation of the tracked object with real and virtual dipoles |
US10016148B2 (en) * | 2006-09-27 | 2018-07-10 | General Electric Company | Method and apparatus for correction of multiple EM sensor positions |
IL195389A (en) | 2008-11-19 | 2013-12-31 | Elbit Systems Ltd | Magnetic Field Mapping System and Method |
US9201501B2 (en) * | 2010-07-20 | 2015-12-01 | Apple Inc. | Adaptive projector |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
US9348143B2 (en) | 2010-12-24 | 2016-05-24 | Magic Leap, Inc. | Ergonomic head mounted display device and optical system |
EP3462286A1 (en) | 2011-05-06 | 2019-04-03 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
CA2835306C (en) * | 2011-06-07 | 2016-11-15 | Creaform Inc. | Sensor positioning for 3d scanning |
WO2013049861A1 (en) | 2011-09-29 | 2013-04-04 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
JP6110866B2 (ja) | 2011-10-28 | 2017-04-05 | マジック リープ, インコーポレイテッド | 拡張現実および仮想現実のためのシステムおよび方法 |
RU2015156050A (ru) | 2012-04-05 | 2019-01-18 | Мэджик Лип, Инк. | Устройство формирования изображения с широким полем обзора (fov) с возможностью активного наведения взора на цель |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
EP2895910A4 (en) | 2012-09-11 | 2016-04-20 | Magic Leap Inc | ERGONOMIC HEAD-MOUNTED DISPLAY DEVICE AND OPTICAL SYSTEM |
US10151875B2 (en) | 2013-01-15 | 2018-12-11 | Magic Leap, Inc. | Ultra-high resolution scanning fiber display |
CN105188516B (zh) | 2013-03-11 | 2017-12-22 | 奇跃公司 | 用于增强和虚拟现实的系统与方法 |
CN108427504B (zh) | 2013-03-15 | 2021-06-11 | 奇跃公司 | 显示系统和方法 |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
KR102341870B1 (ko) | 2013-10-16 | 2021-12-20 | 매직 립, 인코포레이티드 | 조절가능한 동공간 거리를 가지는 가상 또는 증강 현실 헤드셋들 |
CN107315249B (zh) | 2013-11-27 | 2021-08-17 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
US10317690B2 (en) | 2014-01-31 | 2019-06-11 | Magic Leap, Inc. | Multi-focal display system and method |
AU2015210704B2 (en) | 2014-01-31 | 2019-05-30 | Magic Leap, Inc. | Multi-focal display system and method |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
AU2015297036B2 (en) | 2014-05-09 | 2017-09-28 | Google Llc | Systems and methods for discerning eye signals and continuous biometric identification |
NZ764905A (en) | 2014-05-30 | 2022-05-27 | Magic Leap Inc | Methods and systems for generating virtual content display with a virtual or augmented reality apparatus |
WO2016141373A1 (en) | 2015-03-05 | 2016-09-09 | Magic Leap, Inc. | Systems and methods for augmented reality |
US10180734B2 (en) * | 2015-03-05 | 2019-01-15 | Magic Leap, Inc. | Systems and methods for augmented reality |
EP3458167B1 (en) | 2016-04-26 | 2022-10-19 | Magic Leap, Inc. | Electromagnetic tracking with augmented reality systems |
CA3036208A1 (en) | 2016-09-13 | 2018-03-22 | Magic Leap, Inc. | Sensory eyewear |
US10134192B2 (en) | 2016-10-17 | 2018-11-20 | Microsoft Technology Licensing, Llc | Generating and displaying a computer generated image on a future pose of a real world object |
US10650552B2 (en) | 2016-12-29 | 2020-05-12 | Magic Leap, Inc. | Systems and methods for augmented reality |
US11347054B2 (en) * | 2017-02-16 | 2022-05-31 | Magic Leap, Inc. | Systems and methods for augmented reality |
US11534246B2 (en) * | 2018-06-15 | 2022-12-27 | Verb Surgical Inc. | User input device for use in robotic surgery |
US11016305B2 (en) | 2019-04-15 | 2021-05-25 | Magic Leap, Inc. | Sensor fusion for electromagnetic tracking |
-
2020
- 2020-03-06 US US16/811,584 patent/US11016305B2/en active Active
- 2020-03-06 JP JP2021560020A patent/JP2022529245A/ja active Pending
- 2020-03-06 EP EP20791624.8A patent/EP3956717A4/en active Pending
- 2020-03-06 CN CN202080043487.5A patent/CN114008514A/zh active Pending
- 2020-03-06 WO PCT/US2020/021415 patent/WO2020214272A1/en unknown
-
2021
- 2021-04-22 US US17/237,879 patent/US11353709B2/en active Active
-
2022
- 2022-04-29 US US17/733,729 patent/US11550156B2/en active Active
- 2022-12-01 US US18/060,918 patent/US11836284B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20210239993A1 (en) | 2021-08-05 |
EP3956717A4 (en) | 2023-01-04 |
US11550156B2 (en) | 2023-01-10 |
US11836284B2 (en) | 2023-12-05 |
US11016305B2 (en) | 2021-05-25 |
US20230100979A1 (en) | 2023-03-30 |
US11353709B2 (en) | 2022-06-07 |
US20200326544A1 (en) | 2020-10-15 |
WO2020214272A1 (en) | 2020-10-22 |
US20220260839A1 (en) | 2022-08-18 |
CN114008514A (zh) | 2022-02-01 |
EP3956717A1 (en) | 2022-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022529245A (ja) | 電磁追跡のためのセンサ融合 | |
JP7476387B2 (ja) | 深層学習センサを有する拡張現実ディスプレイデバイス | |
JP7297028B2 (ja) | 拡張現実のためのシステムおよび方法 | |
JP6948387B2 (ja) | 仮想現実または拡張現実ディスプレイシステムにおける磁気センサおよび光学センサの較正 | |
JP7455121B2 (ja) | 電磁追跡のための周囲電磁歪み補正 | |
JP6690014B2 (ja) | ヘッドマウントディスプレイ追跡 | |
US11709544B2 (en) | Pose estimation using electromagnetic tracking | |
JP2021101251A (ja) | 拡張現実のためのシステムおよび方法 | |
JP2019535004A5 (ja) | ||
JP2021530814A (ja) | 位置ベクトルを使用して半球曖昧性を解決するための方法およびシステム | |
JP2023126474A (ja) | 拡張現実のためのシステムおよび方法 | |
JP2022518779A (ja) | 6自由度の姿勢測定値における半球の曖昧性を解決するための方法およびシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240229 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240307 |