JP2019505926A - 拡張現実のためのシステムおよび方法 - Google Patents

拡張現実のためのシステムおよび方法 Download PDF

Info

Publication number
JP2019505926A
JP2019505926A JP2018540434A JP2018540434A JP2019505926A JP 2019505926 A JP2019505926 A JP 2019505926A JP 2018540434 A JP2018540434 A JP 2018540434A JP 2018540434 A JP2018540434 A JP 2018540434A JP 2019505926 A JP2019505926 A JP 2019505926A
Authority
JP
Japan
Prior art keywords
display system
sensor
camera
depth sensor
electromagnetic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2018540434A
Other languages
English (en)
Inventor
サミュエル エー. ミラー,
サミュエル エー. ミラー,
マイケル ジェイ. ウッズ,
マイケル ジェイ. ウッズ,
デイビッド シー. ルンドマーク,
デイビッド シー. ルンドマーク,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/062,104 external-priority patent/US20160259404A1/en
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2019505926A publication Critical patent/JP2019505926A/ja
Priority to JP2021168082A priority Critical patent/JP7297028B2/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

拡張現実ディスプレイシステムは、電磁場エミッタを含み、既知の座標系内で既知の磁場を放出する。本システムはまた、電磁センサを含み、既知の磁場から生じる電磁センサにおける磁束に関連するパラメータを測定する。本システムはさらに、深度センサを含み、既知の座標系内の距離を測定する。さらに、本システムは、コントローラを含み、少なくとも部分的に、電磁センサによって測定された磁束および深度センサによって測定された距離に関連するパラメータに基づいて、既知の座標系内の電磁場エミッタに対する電磁センサの姿勢情報を判定する。加えて、本システムは、ディスプレイシステムを含み、少なくとも部分的に、電磁場エミッタに対する電磁センサの姿勢情報に基づいて、仮想コンテンツをユーザに表示する。

Description

(関連出願データ)
本願は、2016年2月5日に出願された米国仮特許出願第62/292,185号および2016年2月23日に出願された米国仮特許出願第62/298,993号に対する優先権の利益を主張するものである。また、本願は、2016年3月5日に出願された米国特許出願第15/062,104号の一部継続出願であり、これは、2015年3月5日に出願された米国仮特許出願第62/128,993号および2016年2月5日に出願された米国仮特許出願第62/292,185号に対する優先権の利益を主張するものである。また、本願は、2016年3月1日に出願された米国仮特許出願第62/301,847号に関連している。上記出願は、それらの全体が参照により本明細書中に援用される。
本開示は、拡張現実システムの状況において、1つまたはそれを上回るオブジェクトの位置および配向を特定するためのシステムおよび方法に関する。
現代のコンピューティングおよびディスプレイ技術は、デジタル的に再現された画像またはその一部が、現実であるように見えるかまたはそのように知覚され得る様式においてユーザに提示される、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進している。仮想現実、すなわち、「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対して透明性を伴わずに、デジタルまたは仮想画像情報の提示を伴う。拡張現実、すなわち、「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の視覚化の拡張として、デジタルまたは仮想画像情報の提示を伴う。
例えば、図1を参照すると、拡張現実場面(4)が、描写されており、AR技術のユーザには、背景における人々、木々、建物およびコンクリートプラットフォーム(1120)を特徴とする、実世界の公園のような設定(6)が見える。これらのアイテムに加え、AR技術のユーザはまた、実世界プラットフォーム(1120)上に立っているロボット像(1110)と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ(2)とが「見える」と知覚するが、これらの要素(2、1110)は、実世界には存在しない。結論から述べると、ヒト視知覚系は、非常に複雑であって、他の仮想または実世界画像要素の中で仮想画像要素の快適かつ自然な感覚で豊かな提示を促進する、VRまたはAR技術を生成することは、困難である。
例えば、頭部装着型ARディスプレイ(またはヘルメット搭載型ディスプレイまたはスマートグラス)は、典型的には、ユーザの頭部に少なくとも緩く結合され、したがって、ユーザの頭部が移動すると、移動し得る。ユーザの頭部の運動が、ディスプレイシステムによって検出される場合、表示されているデータは、頭部姿勢の変化を考慮するように更新されることができる。
実施例として、頭部装着型ディスプレイを装着するユーザが、ディスプレイ上の3次元(3−D)オブジェクトの仮想表現を視認し、3−Dオブジェクトが現れる面積の周囲を歩き回る場合、その3−Dオブジェクトは、視点毎に再レンダリングされ、彼らが、実空間を占めるオブジェクトの周囲を歩き回っているような知覚をユーザに与えることができる。頭部装着型ディスプレイが、仮想空間内に複数のオブジェクト(例えば、豊かな仮想世界)を提示するために使用される場合、頭部の姿勢の測定(すなわち、ユーザの頭部の場所および配向)が、ユーザの動的に変化する頭部場所および配向に合致するように場面を再レンダリングし、仮想空間内への没入感の増加を提供するために使用されることができる。
ARシステムでは、頭部の姿勢の検出または計算は、ユーザにとって意味をなす様式において、ディスプレイシステムが、仮想オブジェクトが実世界内の空間を占めるように現れるように、それらをレンダリングすることを促進することができる。加えて、ユーザの頭部またはARシステムと連動したハンドヘルドデバイス(「トーテム」とも称され得る)、触知デバイス、または他の実物理的オブジェクト等の実オブジェクトの位置および/または配向の検出もまた、ディスプレイシステムが、ディスプレイ情報をユーザに提示し、ユーザが、ARシステムのある側面と効率的に相互作用することを可能にすることを促進し得る。ユーザの頭部が、実世界内で動き回るにつれて、仮想オブジェクトは、仮想オブジェクトが実世界に対して安定したまま現れるように、頭部の姿勢の関数として再レンダリングされ得る。少なくともAR用途に関して、物理的オブジェクトと空間的に連動した仮想オブジェクトの設置(例えば、2次元または3次元において物理的オブジェクトに空間的に近接して現れるように提示される)は、些細な問題ではあり得ない。例えば、頭部の移動が、周囲環境の視点からの仮想オブジェクトの設置を有意に複雑にし得る。これは、視点が周囲環境の画像として捕捉され、次いで、エンドユーザに投影もしく表示されるかどうか、またはエンドユーザが周囲環境の視点を直接知覚するかどうかに当てはまり得る。例えば、頭部の移動は、エンドユーザの視野を変化させる可能性が高く、これは、種々の仮想オブジェクトがエンドユーザの視野に表示される場所に対する更新を要求する可能性が高いであろう。加えて、頭部移動は、多種多様な範囲および速度で生じ得る。頭部移動速度は、異なる頭部移動間においてだけではなく、単一頭部移動の範囲内またはそれを横断して変動し得る。例えば、頭部移動速度は、始点から増加し得(例えば、線形または非線形)、終点に到達するにつれて、減少し得、頭部の移動の始点と終点との間のある場所で最大速度を得る。高速頭部移動は、特定の表示または投影技術の能力さえ超え、均一および/または平滑運動としてエンドユーザに現れる画像をレンダリングし得る。
頭部追跡正確度および待ち時間(すなわち、ユーザがその頭部を移動させてから、画像が更新され、ユーザに表示されるまでの経過時間)は、VRおよびARシステムにとって課題となっている。特に、ユーザの視野の実質的部分を仮想要素で充填する、ディスプレイシステムに関して、頭部追跡の正確度が高く、頭部運動の最初の検出からディスプレイによってユーザの視覚系に配信される光の更新までの全体的システム待ち時間が非常に短いことが重要である。待ち時間が長い場合、システムは、ユーザの前庭と視感覚系との間に不整合をもたらし、乗り物酔いまたは3D酔いにつながり得る、ユーザ知覚シナリオを生成させ得る。システム待ち時間が長い場合、仮想オブジェクトの見掛け場所は、高速頭部運動の間、不安定に現れ得る。
頭部装着型ディスプレイシステムに加え、他のディスプレイシステムもまた、正確かつ短い待ち時間の頭部の姿勢検出から恩恵を受け得る。これらとして、ディスプレイが、ユーザの身体に装着されず、例えば、壁または他の表面上に搭載される、頭部追跡型ディスプレイシステムが挙げられ得る。頭部追跡型ディスプレイは、場面上に窓のように作用し得、ユーザがその頭部を「窓」に対して移動させるにつれて、場面は、ユーザの変化する視点に合致するように、再レンダリングされる。他のシステムとして、頭部装着型ディスプレイが光を実世界上に投影する、頭部装着型投影システムが挙げられる。
加えて、現実的拡張現実体験を提供するために、ARシステムは、ユーザと相互作用するように設計されてもよい。例えば、複数のユーザが、仮想ボールおよび/または他の仮想オブジェクトを用いて、ボールゲームをプレーしてもよい。1人のユーザが、仮想ボールを「キャッチ」し、ボールを別のユーザに投げ返してもよい。別の実施形態では、第1のユーザは、仮想ボールを打つためのトーテム(例えば、ARシステムに通信可能に結合される実際の「バット」)を提供されてもよい。他の実施形態では、仮想ユーザインターフェースは、ユーザが多くのオプションのうちの1つを選択することを可能にするために、ARユーザに提示されてもよい。ユーザは、トーテム、触知デバイス、ウェアラブルコンポーネントを使用し、または単に、仮想画面をタッチし、システムと相互作用してもよい。
ユーザの頭部の姿勢および配向ならびに空間内の実オブジェクトの物理的場所を検出することは、ARシステムが、仮想コンテンツを効果的かつ楽しい様式で表示することを可能にする。しかしながら、これらの能力は、ARシステムにとって重要であるが、達成することが困難である。言い換えると、ARシステムは、実オブジェクト(例えば、ユーザの頭部、トーテム、触知デバイス、ウェアラブルコンポーネント、ユーザの手等)の物理的場所を認識し、実オブジェクトの物理的座標をユーザに表示されている1つまたはそれを上回る仮想オブジェクトに対応する仮想座標に相関させなければならない。これは、1つまたはそれを上回るオブジェクトの位置および配向を高速レートで追跡する非常に正確なセンサならびにセンサ認識システムを要求する。現在のアプローチは、満足のゆく速度または精度規格において位置特定を行わない。
したがって、ARおよびVRデバイスの状況において、より優れた位置特定システムの必要がある。
本発明の実施形態は、1人またはそれを上回るユーザのために仮想現実および/または拡張現実相互作用を促進するためのデバイス、システム、および方法に関する。
一実施形態では、拡張現実(AR)ディスプレイシステムは、既知の磁場を放出するための電磁場エミッタを既知の座標系内に含む。本システムはまた、既知の磁場から生じる電磁センサにおける磁束に関連するパラメータを測定するための電磁センサを含む。本システムはさらに、既知の座標系内の距離を測定するための深度センサを含む。さらに、本システムは、少なくとも部分的に、電磁センサによって測定された磁束および深度センサによって測定された距離に関連するパラメータに基づいて、既知の座標系内の電磁場エミッタに対する電磁センサの姿勢情報を判定するためのコントローラを含む。加えて、本システムは、少なくとも部分的に、電磁場エミッタに対する電磁センサの姿勢情報に基づいて、仮想コンテンツをユーザに表示するためのディスプレイシステムを含む。
1つまたはそれを上回る実施形態では、深度センサは、受動ステレオ深度センサである。
1つまたはそれを上回る実施形態では、深度センサは、能動深度センサである。深度センサは、テクスチャ投影ステレオ深度センサ、構造化光投影ステレオ深度センサ、飛行時間深度センサ、LIDAR深度センサ、または変調放出深度センサであってもよい。
1つまたはそれを上回る実施形態では、深度センサは、第1の視野(FOV)を有する、深度カメラを含む。ARディスプレイシステムはまた、世界捕捉カメラを含んでもよく、世界捕捉カメラは、少なくとも部分的に、第1のFOVと重複する、第2のFOVを有する。ARディスプレイシステムはまた、写真カメラを含んでもよく、写真カメラは、少なくとも部分的に、第1のFOVおよび第2のFOVと重複する、第3のFOVを有する。深度カメラ、世界捕捉カメラ、および写真カメラは、個別の異なる第1、第2、および第3の分解能を有してもよい。深度カメラの第1の分解能は、サブVGAであってもよく、世界捕捉カメラの第2の分解能は、720pであってもよく、写真カメラの第3の分解能は、2メガピクセルであってもよい。
1つまたはそれを上回る実施形態では、深度カメラ、世界捕捉カメラ、および写真カメラは、個別の第1、第2、および第3の画像を捕捉するように構成される。コントローラは、第2および第3の画像をセグメント化するようにプログラムされてもよい。コントローラは、第2および第3の画像をセグメント化した後、第2および第3の画像を融合し、融合された画像を生成するようにプログラムされてもよい。既知の座標系内の距離を測定することは、深度カメラからの第1の画像を分析することによって、仮説的距離を生成することと、仮説的距離および融合された画像を分析することによって、距離を生成することとを含んでもよい。深度カメラ、世界捕捉カメラ、および写真カメラは、単一統合センサを形成してもよい。
1つまたはそれを上回る実施形態では、ARディスプレイシステムはまた、付加的情報を提供するための付加的位置特定リソースを含む。既知の座標系内の電磁場エミッタに対する電磁センサの姿勢情報は、少なくとも部分的に、電磁センサによって測定された磁束、深度センサによって測定された距離、および付加的位置特定リソースによって提供される付加的情報に関連するパラメータに基づいて判定されてもよい。
1つまたはそれを上回る実施形態では、付加的位置特定リソースは、WiFi送受信機、付加的電磁エミッタ、または付加的電磁センサを含んでもよい。付加的位置特定リソースは、ビーコンを含んでもよい。ビーコンは、放射を放出してもよい。放射は、赤外線放射であってもよく、ビーコンは、赤外線LEDを含んでもよい。付加的位置特定リソースは、反射体を含んでもよい。反射体は、放射を反射してもよい。
1つまたはそれを上回る実施形態では、付加的位置特定リソースは、セルラーネットワーク送受信機、RADARエミッタ、RADAR検出器、LIDARエミッタ、LIDAR検出器、GPS送受信機、既知の検出可能パターンを有するポスタ、既知の検出可能パターンを有するマーカ、慣性測定ユニット、または歪みゲージを含んでもよい。
1つまたはそれを上回る実施形態では、電磁場エミッタは、ARディスプレイシステムのモバイルコンポーネントに結合される。モバイルコンポーネントは、ハンドヘルドコンポーネント、トーテム、ディスプレイシステムを格納する頭部搭載型コンポーネント、胴体装着型コンポーネント、またはベルトパックであってもよい。
1つまたはそれを上回る実施形態では、電磁場エミッタは、電磁場エミッタが既知の位置および既知の配向を有するように、既知の座標系内のオブジェクトに結合される。電磁センサは、ARディスプレイシステムのモバイルコンポーネントに結合されてもよい。モバイルコンポーネントは、ハンドヘルドコンポーネント、トーテム、ディスプレイシステムを格納する頭部搭載型コンポーネント、胴体装着型コンポーネント、またはベルトパックであってもよい。
1つまたはそれを上回る実施形態では、姿勢情報は、既知の座標系内の電磁場エミッタに対する電磁センサの位置および配向を含む。コントローラは、姿勢情報を分析し、既知の座標系内の電磁センサの位置および配向を判定してもよい。
別の実施形態では、拡張現実を表示するための方法は、電磁場エミッタを使用して、既知の座標系内で既知の磁場を放出するステップを含む。本方法はまた、電磁センサを使用して、既知の磁場から生じる電磁センサにおける磁束に関連するパラメータを測定するステップを含む。本方法はさらに、深度センサを使用して、既知の座標系内の距離を測定するステップを含む。さらに、本方法は、少なくとも部分的に、電磁センサを使用して測定された磁束および深度センサを使用して測定された距離に関連するパラメータに基づいて、既知の座標系内の電磁場エミッタに対する電磁センサの姿勢情報を判定するステップを含む。加えて、本方法は、少なくとも部分的に、電磁場エミッタに対する電磁センサの姿勢情報に基づいて、仮想コンテンツをユーザに表示するステップを含む。
1つまたはそれを上回る実施形態では、深度センサは、受動ステレオ深度センサである。
1つまたはそれを上回る実施形態では、深度センサは、能動深度センサである。深度センサは、テクスチャ投影ステレオ深度センサ、構造化光投影ステレオ深度センサ、飛行時間深度センサ、LIDAR深度センサ、または変調放出深度センサであってもよい。
1つまたはそれを上回る実施形態では、深度センサは、第1の視野(FOV)を有する、深度カメラを含む。深度センサはまた、世界捕捉カメラを含んでもよく、世界捕捉カメラは、少なくとも部分的に、第1のFOVと重複する、第2のFOVを有する。深度センサはまた、写真カメラを含んでもよく、写真カメラは、少なくとも部分的に、第1のFOVおよび第2のFOVと重複する、第3のFOVを有する。深度カメラ、世界捕捉カメラ、および写真カメラは、個別の異なる第1、第2、および第3の分解能を有してもよい。深度カメラの第1の分解能は、サブVGAであってもよく、世界捕捉カメラの第2の分解能は、720pであってもよく、写真カメラの第3の分解能は、2メガピクセルであってもよい。
1つまたはそれを上回る実施形態では、本方法はまた、個別の深度カメラ、世界捕捉カメラ、および写真カメラを使用して、第1、第2、および第3の画像を捕捉するステップを含む。本方法はまた、第2および第3の画像をセグメント化するステップを含んでもよい。本方法はさらに、第2および第3の画像をセグメント化した後、第2および第3の画像を融合し、融合された画像を生成するステップを含んでもよい。既知の座標系内の距離を測定するステップは、深度カメラからの第1の画像を分析することによって、仮説的距離を生成するステップと、仮説的距離および融合された画像を分析することによって、距離を生成するステップとを含んでもよい。深度カメラ、世界捕捉カメラ、および写真カメラは、単一統合センサを形成してもよい。
1つまたはそれを上回る実施形態では、本方法はまた、少なくとも部分的に、電磁センサを使用して測定された磁束、深度センサを使用して測定された距離、および付加的位置特定リソースによって提供された付加的情報に関連するパラメータに基づいて、既知の座標系内の電磁場エミッタに対する電磁センサの姿勢情報を判定するステップを含む。
1つまたはそれを上回る実施形態では、付加的位置特定リソースは、WiFi送受信機、付加的電磁エミッタ、または付加的電磁センサを含んでもよい。付加的位置特定リソースは、ビーコンを含んでもよい。本方法はまた、ビーコンが放射を放出するステップを含んでもよい。放射は、赤外線放射であってもよく、ビーコンは、赤外線LEDを含んでもよい。付加的位置特定リソースは、反射体を含んでもよい。本方法はまた、反射体が放射を反射するステップを含んでもよい。
1つまたはそれを上回る実施形態では、付加的位置特定リソースは、セルラーネットワーク送受信機、RADARエミッタ、RADAR検出器、LIDARエミッタ、LIDAR検出器、GPS送受信機、既知の検出可能パターンを有する、ポスタ、既知の検出可能パターンを有する、マーカ、慣性測定ユニット、または歪みゲージを含んでもよい。
1つまたはそれを上回る実施形態では、電磁場エミッタは、ARディスプレイシステムのモバイルコンポーネントに結合される。モバイルコンポーネントは、ハンドヘルドコンポーネント、トーテム、ディスプレイシステムを格納する頭部搭載型コンポーネント、胴体装着型コンポーネント、またはベルトパックであってもよい。
1つまたはそれを上回る実施形態では、電磁場エミッタは、電磁場エミッタが既知の位置および既知の配向を有するように、既知の座標系内のオブジェクトに結合される。電磁センサは、ARディスプレイシステムのモバイルコンポーネントに結合されてもよい。モバイルコンポーネントは、ハンドヘルドコンポーネント、トーテム、ディスプレイシステムを格納する頭部搭載型コンポーネント、胴体装着型コンポーネント、またはベルトパックであってもよい。
1つまたはそれを上回る実施形態では、姿勢情報は、既知の座標系内の電磁場エミッタに対する電磁センサの位置および配向を含む。本方法はまた、姿勢情報を分析し、既知の座標系内の電磁センサの位置および配向を判定するステップを含んでもよい。
さらに別の実施形態では、拡張現実ディスプレイシステムは、電磁場エミッタに結合される、ハンドヘルドコンポーネントであって、電磁場エミッタは、磁場を放出する、ハンドヘルドコンポーネントを含む。本システムはまた、仮想コンテンツをユーザに表示する、ディスプレイシステムを有する、頭部搭載型コンポーネントを含む。頭部搭載型コンポーネントは、磁場から生じる電磁センサにおける磁束に関連するパラメータを測定する、電磁センサに結合され、既知の座標系内の頭部搭載型コンポーネントの頭部の姿勢は、既知である。本システムはさらに、既知の座標系内の距離を測定する、深度センサを含む。さらに、本システムは、ハンドヘルドコンポーネント、頭部搭載型コンポーネント、および深度センサに通信可能に結合される、コントローラを含む。コントローラは、電磁センサにおける磁束に関連するパラメータを頭部搭載型コンポーネントから、距離を深度センサから受信する。コントローラは、少なくとも部分的に、電磁センサによって測定された磁束および深度センサによって測定された距離に関連するパラメータに基づいて、ハンドヘルドコンポーネントの手の姿勢を判定する。本システムは、少なくとも部分的に、手の姿勢に基づいて、ユーザに表示される仮想コンテンツを修正する。
1つまたはそれを上回る実施形態では、深度センサは、受動ステレオ深度センサである。
1つまたはそれを上回る実施形態では、深度センサは、能動深度センサである。深度センサは、テクスチャ投影ステレオ深度センサ、構造化光投影ステレオ深度センサ、飛行時間深度センサ、LIDAR深度センサ、または変調放出深度センサであってもよい。
1つまたはそれを上回る実施形態では、深度センサは、第1の視野(FOV)を有する、深度カメラを含む。ARディスプレイシステムはまた、世界捕捉カメラを含んでもよく、世界捕捉カメラは、少なくとも部分的に、第1のFOVと重複する、第2のFOVを有する。ARディスプレイシステムはまた、写真カメラを含んでもよく、写真カメラは、少なくとも部分的に、第1のFOVおよび第2のFOVと重複する、第3のFOVを有する。深度カメラ、世界捕捉カメラ、および写真カメラは、個別の異なる第1、第2、および第3の分解能を有してもよい。深度カメラの第1の分解能は、サブVGAであってもよく、世界捕捉カメラの第2の分解能は、720pであってもよく、写真カメラの第3の分解能は、2メガピクセルであってもよい。
1つまたはそれを上回る実施形態では、深度カメラ、世界捕捉カメラ、および写真カメラは、個別の第1、第2、および第3の画像を捕捉するように構成される。コントローラは、第2および第3の画像をセグメント化するようにプログラムされてもよい。コントローラは、第2および第3の画像をセグメント化した後、第2および第3の画像を融合し、融合された画像を生成するようにプログラムされてもよい。既知の座標系内の距離を測定することは、深度カメラからの第1の画像を分析することによって、仮説的距離を生成することと、仮説的距離および融合された画像を分析することによって、距離を生成することとを含んでもよい。深度カメラ、世界捕捉カメラ、および写真カメラは、単一統合センサを形成してもよい。
1つまたはそれを上回る実施形態では、ARディスプレイシステムはまた、付加的情報を提供するための付加的位置特定リソースを含む。コントローラは、少なくとも部分的に、電磁センサによって測定された磁束、深度センサによって測定された距離、および付加的位置特定リソースによって提供される付加的情報に関連するパラメータに基づいて、ハンドヘルドコンポーネントの手の姿勢を判定する。
1つまたはそれを上回る実施形態では、付加的位置特定リソースは、WiFi送受信機、付加的電磁エミッタ、または付加的電磁センサを含んでもよい。付加的位置特定リソースは、ビーコンを含んでもよい。ビーコンは、放射を放出してもよい。放射は、赤外線放射であってもよく、ビーコンは、赤外線LEDを含んでもよい。付加的位置特定リソースは、反射体を含んでもよい。反射体は、放射を反射してもよい。
1つまたはそれを上回る実施形態では、付加的位置特定リソースは、セルラーネットワーク送受信機、RADARエミッタ、RADAR検出器、LIDARエミッタ、LIDAR検出器、GPS送受信機、既知の検出可能パターンを有する、ポスタ、既知の検出可能パターンを有する、マーカ、慣性測定ユニット、または歪みゲージを含んでもよい。
1つまたはそれを上回る実施形態では、電磁場ハンドヘルドコンポーネントは、トーテムである。手の姿勢情報は、既知の座標系内のハンドヘルドコンポーネントの位置および配向を含んでもよい。
本発明の付加的および他の目的、特徴、および利点が、発明を実施するための形態、図、および請求項で説明される。
図面は、本発明の種々の実施形態の設計および利用を図示する。図は、正確な縮尺で描かれておらず、類似構造または機能の要素は、図全体を通して同一参照番号によって表されることに留意されたい。本発明の種々の実施形態の前述および他の利点および目的を得る方法をより深く理解するために、上記に簡潔に説明された本発明のより詳細な説明が、付随の図面に図示されるその具体的実施形態を参照することによって与えられるであろう。これらの図面は、本発明の典型的な実施形態のみを描写しており、したがって、その範囲の限定と見なされるものではないことを理解した上で、本発明が、付随の図面の使用を通して付加的具体性および詳細とともに記載され、説明されるであろう。
図1は、一実施形態による、ARシステムのユーザに表示されるAR場面の平面図を図示する。 図2A−2Dは、ウェアラブルARデバイスの種々の実施形態を図示する。 図2A−2Dは、ウェアラブルARデバイスの種々の実施形態を図示する。 図2A−2Dは、ウェアラブルARデバイスの種々の実施形態を図示する。 図2A−2Dは、ウェアラブルARデバイスの種々の実施形態を図示する。 図3は、ARシステムの1つまたはそれを上回るクラウドサーバと相互作用するウェアラブルARデバイスの例示的実施形態を図示する。 図4は、電磁追跡システムの例示的実施形態を図示する。 図5は、一例示的実施形態による、センサの位置および配向を判定する例示的方法を図示する。 図6は、電磁追跡システムを有する、ARシステムの例示的実施形態を図示する。 図7は、検出された頭部の姿勢に基づいて仮想コンテンツをユーザに配信する、例示的方法を図示する。 図8は、電磁送信機および電磁センサを有する一実施形態による、ARシステムの種々のコンポーネントの概略図を図示する。 図9A−9Fは、制御および急速解放モジュールの種々の実施形態を図示する。 図9A−9Fは、制御および急速解放モジュールの種々の実施形態を図示する。 図9A−9Fは、制御および急速解放モジュールの種々の実施形態を図示する。 図9A−9Fは、制御および急速解放モジュールの種々の実施形態を図示する。 図9A−9Fは、制御および急速解放モジュールの種々の実施形態を図示する。 図9A−9Fは、制御および急速解放モジュールの種々の実施形態を図示する。 図10は、ウェアラブルARデバイスの1つの簡略化された実施形態を図示する。 図11Aおよび11Bは、頭部搭載型ARシステム上への電磁センサの設置の種々の実施形態を図示する。 図11Aおよび11Bは、頭部搭載型ARシステム上への電磁センサの設置の種々の実施形態を図示する。 図12A−12Eは、電磁センサに結合されるべきフェライト立方体の種々の実施形態を図示する。 図13A−13Cは、電磁センサのためのデータプロセッサの種々の実施形態を図示する。 図13A−13Cは、電磁センサのためのデータプロセッサの種々の実施形態を図示する。 図13A−13Cは、電磁センサのためのデータプロセッサの種々の実施形態を図示する。 図14は、電磁追跡システムを使用して頭部および手の姿勢を検出する、例示的方法を図示する。 図15は、電磁追跡システムを使用して頭部および手の姿勢を検出する、別の例示的方法を図示する。 図16Aは、深度センサ、電磁送信機、および電磁センサを有する、別の実施形態による、ARシステムの種々のコンポーネントの概略図を図示する。 図16Bは、深度センサ、電磁送信機、および電磁センサを有する、さらに別の実施形態による、ARシステムの種々のコンポーネントおよび種々の視野の概略図を図示する。
図2A−2Dを参照すると、いくつかの一般的なコンポーネントオプションが図示されている。図2A−2Dの議論に従う、詳細な説明の部分では、種々のシステム、サブシステム、およびコンポーネントが、ヒトVRおよび/またはARのための高品質かつ快適に知覚されるディスプレイシステムを提供する目的に対処するために提示される。
図2Aに示されるように、ARシステムユーザ(60)は、ユーザの眼の正面に位置付けられるディスプレイシステム(62)に結合されるフレーム(64)構造を特徴とする、頭部搭載型コンポーネント(58)を装着するように描写される。スピーカ(66)が、描写される構成においてフレーム(64)に結合され、ユーザの外耳道に隣接して位置付けられる(一実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、立体/成形可能音制御を提供する)。ディスプレイ(62)は、有線導線または無線コネクティビティ等によって、ローカル処理およびデータモジュール(70)に動作可能に結合(68)されてもよく、これは、フレーム(64)に固定して取り付けられる、図2Bの実施形態に示されるようにヘルメットまたは帽子(80)に固定して取り付けられる、ヘッドホン内に埋め込まれた、図2Cの実施形態に示されるようにバックパック式構成においてユーザ(60)の胴体(82)に除去可能に取り付けられる、または図2Dの実施形態に示されるようにベルト結合式構成においてユーザ(60)の臀部(84)に除去可能に取り付けられる等、種々の構成において搭載されてもよい。
ローカル処理およびデータモジュール(70)は、電力効率の良いプロセッサまたはコントローラならびにフラッシュメモリ等のデジタルメモリを備えてもよく、両方とも、データの処理、キャッシュ、および記憶を補助するために利用されてもよく、そのようなデータは、a)画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロ等、フレーム(64)に動作可能に結合され得る、センサから捕捉される、および/または、b)可能性として、そのような処理または読み出し後、ディスプレイ(62)への通過のために、遠隔処理モジュール(72)および/または遠隔データリポジトリ(74)を使用して、取得および/または処理され得る。ローカル処理およびデータモジュール(70)は、遠隔モジュール(72、74)が、相互に動作可能に結合され、ローカル処理およびデータモジュール(70)へのリソースとして利用可能であるように、有線または無線通信リンク等を介して、これらの遠隔処理モジュール(72)および遠隔データリポジトリ(74)に動作可能に結合(76、78)されてもよい。
一実施形態では、遠隔処理モジュール72は、データおよび/または画像情報を分析および処理するように構成される、1つまたはそれを上回る比較的に高い性能のプロセッサまたはコントローラを備えてもよい。一実施形態では、遠隔データリポジトリ(74)は、比較的に大規模なデジタルデータ記憶設備を備えてもよく、これは、インターネットまたは「クラウド」リソース構成内の他のネットワーキング構成を通して利用可能であってもよい。一実施形態では、全てのデータは、記憶されてもよく、全ての計算は、ローカル処理およびデータモジュール内で行われ、任意の遠隔モジュールから完全に自律的な使用を可能にしてもよい。
ここで図3を参照すると、概略図は、クラウドコンピューティングアセット(46)とローカル処理アセットとの間の協調を図示し、そのようなローカル処理アセットは、例えば、ユーザの頭部(120)に結合される頭部搭載型コンポーネント(58)およびユーザのベルト(308)に結合されるローカル処理およびデータモジュール(70)内に常駐し得る。したがって、コンポーネント70はまた、図3に示されるように、「ベルトパック」70とも称され得る。一実施形態では、1つまたはそれを上回るサーバシステム(110)等のクラウド(46)アセットは、有線または無線ネットワーキング等を介して、(無線は、可動性のために好ましく、有線は、所望され得る特定の高帯域幅または高データ量転送のために好ましい)、直接、前述のように、ユーザの頭部(120)およびベルト(308)に結合されるプロセッサおよびメモリ構成等のローカルコンピューティングアセットの一方または両方(40、42)に動作可能に結合(115)される。ユーザにローカルのこれらのコンピューティングアセットは同様に、図8を参照して以下に議論される有線結合(68)等、有線および/または無線コネクティビティ構成(44)を介して、相互に動作可能に結合されてもよい。一実施形態では、ユーザの頭部(120)に搭載される低慣性および小型サブシステムを維持するために、ユーザとクラウド(46)との間の一次転送は、ベルト(308)に搭載されるサブシステムとクラウドとの間のリンクを介してもよく、頭部搭載型サブシステム(120)は、主に、例えば、パーソナルコンピューティング周辺コネクティビティ用途において現在採用されているような超広帯域(「UWB」)コネクティビティ等の無線コネクティビティを使用して、ベルトベースのサブシステム(308)にデータテザリングされる。
効率的なローカルおよび遠隔の処理の協調ならびに図2Aに示されるユーザインターフェースまたはユーザディスプレイシステム(62)またはその変形例等のユーザのための適切なディスプレイデバイスを用いることで、ユーザの現在の実際または仮想の場所に関する1つの世界の側面は、ユーザに転送または「パス(pass)」され、効率的方式で更新され得る。言い換えると、世界のマップが、ユーザのARシステム上に部分的に常駐し得、かつクラウドリソース内に部分的に常駐し得る記憶場所において、継続的に更新され得る。マップ(「パス可能世界モデル(passable world model)」とも称される)は、ラスタ画像、3−Dおよび2−D点、パラメータ情報、および実世界についての他の情報を備える、大型データベースであってもよい。多くのARユーザが、彼らの実環境についての情報を継続的に捕捉する(例えば、カメラ、センサ、IMU等を通して)ほど、マップはより正確かつ完全となる。
前述のような構成を用いることで、クラウドコンピューティングリソース上に常駐し、そこから配信されることができる、1つの世界モデルが存在し、そのような世界は、リアルタイムビデオデータまたは同等物を回送することを試みるために好ましい比較的に低い帯域幅の形態において、1人またはそれを上回るユーザに「パス可能」となり得る。像の近くに立っている人(すなわち、図1に示されるように)の拡張体験は、クラウドベースの世界モデルによって情報提供されてもよく、そのサブセットは、彼らおよび彼らのローカルディスプレイデバイスにパスされ、ビューを完成させてもよい。机上にあるパーソナルコンピュータと同程度に単純であり得る遠隔ディスプレイデバイスに向かって着座している人が、その情報の同一セクションをクラウドから効率的にダウンロードし、それを彼らのディスプレイ上にレンダリングさせることもできる。実際、実際に像の近くに居る公園内に存在する1人の人物は、遠隔に位置する友人と公園内を散歩してもよく、友人は、仮想および拡張現実を通して参加する。本システムは、通りの場所、木々の場所、像の場所を把握する必要があるであろうが、クラウド上のその情報を用いることで、参加する友人は、クラウドから、シナリオの側面をダウンロードし、次いで、実際に公園内に居る人物に対してローカルな拡張現実に沿って歩行を開始することができる。
3−D点が、環境から捕捉されてもよく、それらの画像または点を捕捉するカメラの姿勢(すなわち、世界に対するベクトルおよび/または原位置情報)が、これらの点または画像が、本姿勢情報と「タグ付けされ」得るかまたは関連付けられ得るように、判定されてもよい。次いで、第2のカメラによって捕捉された点は、第2のカメラの姿勢を判定するために利用されてもよい。言い換えると、第1のカメラからのタグ付けされた画像との比較に基づいて、第2のカメラを配向および/または位置特定することができる。次いで、本知識は、テクスチャを抽出するため、マップを作成するため、および実世界の仮想コピーを作成するために利用されてもよい(その時点で、位置合わせされる2つのカメラが周囲に存在するため)。
したがって、基礎レベルでは、一実施形態では、人物装着型システムは、3−D点およびその点を生成した2−D画像の両方を捕捉するために利用されることができ、これらの点および画像は、クラウド記憶および処理リソースに送信されてもよい。それらはまた、内蔵姿勢情報とともにローカルにキャッシュされてもよい(すなわち、タグ付けされた画像をキャッシュする)。したがって、クラウドは、すぐ使える状態の(すなわち、利用可能なキャッシュ内において)タグ付けされた2−D画像(すなわち、3−D姿勢とタグ付けされた)を3−D点とともに有し得る。ユーザが、動的なものを観察している場合、ユーザはまた、クラウドに、運動に関する付加的情報を送信してもよい(例えば、別の人物の顔を見ている場合、ユーザは、顔のテクスチャマップを撮影し、周囲世界がその他の点では基本的に静的であっても、それを最適化された周波数でプッシュすることができる)。オブジェクト認識装置およびパス可能世界モデルに関するさらなる情報は、「System and method for augmented and virtual reality」と題された米国特許出願第14/205,126号(参照することによって本明細書にその全体として組み込まれる)とともに、Magic Leap, Inc.(Fort Lauderdale, Florida)によって開発されたもの等の拡張および仮想現実システムに関連する、米国特許出願第14/641,376号、米国特許出願第14/555,585号、米国特許出願第14/212,961号、米国特許出願第14/690,401号、米国特許出願第13/663,466号、および米国特許出願第13/684,489号の付加的開示に見出され得る。
「パス可能世界モデル」を生成するために使用され得る点を捕捉するために、世界に対するユーザの場所、姿勢、および配向を正確に把握することが有用である。より具体的には、ユーザの位置は、ユーザの頭部の姿勢ならびに手の姿勢(ユーザが、ハンドヘルドコンポーネントを握っている、ジェスチャを行っている等の場合)を把握することが重要であり得るため、ある程度の粒度まで位置特定されなければならない。1つまたはそれを上回る実施形態では、GPSおよび他の位置特定情報が、そのような処理のための入力として利用されてもよい。ユーザの頭部、トーテム、手のジェスチャ、触知デバイス等の非常に正確な位置特定が、適切な仮想コンテンツをユーザに表示するために、重要である。
高精度位置特定を達成するための1つのアプローチは、ユーザのARヘッドセット、ベルトパック、および/または他の補助デバイス(例えば、トーテム、触知デバイス、ゲーム器具等)上に方略的に設置される、電磁センサと結合される電磁場の使用を伴い得る。電磁追跡システムは、典型的には、少なくとも、電磁場エミッタと、少なくとも1つの電磁場センサとを備える。センサは、既知の分布を伴う電磁場を測定してもよい。これらの測定に基づいて、エミッタに対する場センサの位置および配向が、判定される。
ここで図4を参照すると、電磁追跡システムの例示的システム図(例えば、Johnson & Johnson Corporationの子会社であるBiosense(登録商標)、Polhemus(登録商標),Inc.(Colchester, Vermont)等の組織によって開発されたもの、Sixense(登録商標)Entertainment, Inc.(Los Gatos, California)、および他の追跡装置製造企業によって製造されたもの等)が、図示される。1つまたはそれを上回る実施形態では、電磁追跡システムは、既知の磁場を放出するように構成される電磁場エミッタ402を備える。図4に示されるように、電磁場エミッタは、電力供給源(例えば、電流、バッテリ等)に結合され、電力を電磁場エミッタ402に提供してもよい。
1つまたはそれを上回る実施形態では、電磁場エミッタ402は、磁場を生成する、いくつかのコイル(例えば、相互に垂直に位置付けられ、場をx、y、およびz方向に生成する、少なくとも3つのコイル)を備える。本磁場は、座標空間を確立するために使用される。これは、システムが、既知の磁場と関連してセンサの位置をマップすることを可能にし、センサの位置および/または配向を判定することに役立つ。1つまたはそれを上回る実施形態では、電磁センサ404a、404b等が、1つまたはそれを上回る実オブジェクトに取り付けられてもよい。電磁センサ404は、放出される電磁場を通して電流が誘導され得る、より小さいコイルを備えてもよい。概して、「センサ」コンポーネント(404)は、エミッタ(402)によって放出される磁場から流入する磁束を捕捉するように位置付けられる/配向される立方体または他の容器等の小型構造内にともに結合される、3つの異なるように配向される(すなわち、相互に対して直交して配向される等)コイルのセット等の小型コイルまたはループを備えてもよい。これらのコイルを通して誘導される電流を比較することによって、かつ相互に対するコイルの相対的な位置および配向を把握することによって、エミッタに対するセンサの相対的な位置および配向が、計算され得る。
電磁追跡センサに動作可能に結合される、コイルおよび慣性測定ユニット(「IMU」)コンポーネントの挙動に関する1つまたはそれを上回るパラメータが、電磁場エミッタが結合される座標系に対するセンサ(およびそれが取り付けられるオブジェクト)の位置および/または配向を検出するために、測定されてもよい。当然ながら、本座標系は、実世界内の電磁場エミッタの場所または姿勢を判定するために、世界の座標系に変換されてもよい。1つまたはそれを上回る実施形態では、複数のセンサが、電磁エミッタと連動して使用され、座標空間内のセンサのそれぞれの位置および配向を検出してもよい。
いくつかの実施形態では、頭部の姿勢は、ARシステムの頭部搭載型コンポーネント上のセンサと、頭部搭載型ARシステムを通して捕捉されたセンサデータおよび画像データに基づいて行われるSLAM分析とに基づいて既に把握されている場合があることを理解されたい。しかしながら、既知の頭部の姿勢に対するユーザの手(例えば、トーテムのようなハンドヘルドコンポーネント等)の位置を把握することが重要である場合もある。言い換えると、頭部の姿勢に対する手の姿勢を把握することが重要であり得る。いったん頭部(センサが頭部搭載型コンポーネント上に設置されると仮定して)と手との間の関係が把握されると、世界に対する手の場所(例えば、世界座標)が、容易に計算されることができる。
電磁追跡システムは、3つの方向(すなわち、X、Y、およびZ方向)において、さらに、2つまたは3つの配向角度において、位置を提供してもよい。1つまたはそれを上回る実施形態では、IMUの測定は、コイルの測定と比較され、センサの位置および配向を判定してもよい。1つまたはそれを上回る実施形態では、電磁(EM)データおよびIMUデータは両方とも、カメラ、深度センサ、および他のセンサ等の種々の他のデータ源とともに、位置および配向を判定するために組み合わせられてもよい。本情報は、コントローラ406に伝送されてもよい(例えば、無線通信、Bluetooth(登録商標)等)。1つまたはそれを上回る実施形態では、姿勢(または位置および配向)は、従来のシステムにおいて比較的に高いリフレッシュレートで報告されてもよい。従来、電磁エミッタは、テーブル、手術台、壁、または天井等の比較的に安定した大型オブジェクトに結合され、1つまたはそれを上回るセンサは、医療デバイス、ハンドヘルドゲームコンポーネント、または同等物等のより小型のオブジェクトに結合される。代替として、図6を参照して以下に説明されるように、電磁追跡システムの種々の特徴が、採用され、より安定した大域座標系に対する空間内を移動する2つのオブジェクト間の位置および/または配向における変化またはデルタが追跡され得る、構成を生成してもよい。言い換えると、構成は、図6に示されており、電磁追跡システムの変動が、利用され、頭部搭載型コンポーネントとハンドヘルドコンポーネントとの間の位置および配向デルタを追跡し得る一方、(例えば、ユーザにローカルの室内環境の)大域座標系に対する頭部の姿勢は、システムの頭部搭載型コンポーネントに結合され得る外向き捕捉カメラを使用して、同時位置特定およびマッピング(「SLAM」)技法等によって別様に判定される。
コントローラ406は、電磁場エミッタ402を制御してもよく、また、データを種々の電磁センサ404から捕捉してもよい。システムの種々のコンポーネントは、任意の電気機械的または無線/Bluetooth(登録商標)手段を通して相互に結合されてもよいことを理解されたい。コントローラ406はまた、既知の磁場に関するデータと磁場に関連する座標空間に関するデータとを備えてもよい。本情報は、次いで、既知の電磁場に対応する座標空間に関連してセンサの位置および配向を検出するために使用されてもよい。
電磁追跡システムの1つの利点は、最小限の待ち時間および高分解能を伴って非常に正確な追跡結果を生成することができることである。加えて、電磁追跡システムは、必ずしも、光学追跡装置に依拠せず、ユーザの視線内にないセンサ/オブジェクトは、容易に追跡され得る。
電磁場(「v」)の強度は、コイル送信機(例えば、電磁場エミッタ402)からの距離rの三次関数として低下することを理解されたい。したがって、アルゴリズムは、電磁場エミッタからの距離に基づいて、要求されてもよい。コントローラ406は、そのようなアルゴリズムを用いて、電磁場エミッタからの可変距離におけるセンサ/オブジェクトの位置および配向を判定するように構成されてもよい。電磁エミッタから離れて移動するにつれて、電磁場の強度の急減を前提として、正確度、効率、および短待ち時間の観点から、最良結果が、より近い距離において達成され得る。典型的な電磁追跡システムでは、電磁場エミッタは、電流(例えば、差込式電力供給源)によって給電され、電磁場エミッタから半径20フィート以内に位置するセンサを有する。センサと場エミッタとの間の半径が短いほど、AR用途を含む多くの用途においてより望ましくあり得る。
ここで図5を参照すると、典型的な電磁追跡システムの機能を説明する例示的フロー図が、簡単に説明される。502では、既知の電磁場が、放出される。1つまたはそれを上回る実施形態では、磁場エミッタは、磁場を生成してもよく、各コイルは、電場を一方向(例えば、x、y、またはz)に生成させ得る。磁場は、任意の波形を用いて生成されてもよい。1つまたはそれを上回る実施形態では、軸はそれぞれ、若干異なる周波数で発振してもよい。504では、電磁場に対応する座標空間が、判定され得る。例えば、図4のコントローラ406は、電磁場に基づいて、エミッタの周囲の座標空間を自動的に判定してもよい。506では、センサ(既知のオブジェクトに取り付けられ得る)におけるコイルの挙動が、検出され得る。例えば、コイルにおいて誘導される電流が、計算されてもよい。他の実施形態では、コイルの回転または任意の他の定量化可能な挙動が、追跡および測定されてもよい。508では、本挙動は、センサおよび/または既知のオブジェクトの位置および配向を検出するために使用されてもよい。例えば、コントローラ406は、センサにおけるコイルの挙動を種々の位置または配向に相関させる、マッピングテーブルを参考にしてもよい。これらの計算に基づいて、座標空間内の位置が、センサの配向とともに、判定されてもよい。いくつかの実施形態では、姿勢/場所情報は、センサにおいて判定されてもよい。他の実施形態では、センサは、センサにおいて検出されたデータをコントローラに通信し、コントローラは、マッピングテーブルを参考にし、既知の磁場に対する姿勢情報(例えば、ハンドヘルドコンポーネントに対する座標)を判定してもよい。
ARシステムの状況では、電磁追跡システムの1つまたはそれを上回るコンポーネントは、モバイルコンポーネントの正確な追跡を促進するために、修正される必要があり得る。前述のように、ユーザの頭部の姿勢および配向の追跡は、多くのAR用途において重要である。ユーザの頭部の姿勢および配向の正確な判定は、ARシステムが、正しい仮想コンテンツをユーザに表示することを可能にする。例えば、仮想場面は、実際の建物の背後に隠れているモンスタを含み得る。建物と関連したユーザの頭部の姿勢および配向に応じて、仮想モンスタのビューは、現実的AR体験が提供されるように修正される必要があり得る。または、トーテム、触知デバイス、または仮想コンテンツと相互作用するある他の手段の位置および/または配向は、ARユーザがARシステムと相互作用することを可能にすることにおいて重要であり得る。例えば、多くのゲーム用途では、ARシステムは、仮想コンテンツと関連した実オブジェクトの位置および配向を検出しなければならない。または、仮想インターフェースを表示するとき、トーテム、ユーザの手、触知デバイス、またはARシステムとの相互作用のために構成される任意の他の実オブジェクトの位置が、システムがコマンド等を理解するために、表示される仮想インターフェースと関連して把握されなければならない。光学追跡および他の方法を含む、従来の位置特定方法は、典型的には、長い待ち時間および低い分解能の問題に悩まされ、レンダリングを多くの拡張現実用途において困難にする。
1つまたはそれを上回る実施形態では、図4および5に関連して議論される、電磁追跡システムは、放出される電磁場に関連して1つまたはそれを上回るオブジェクトの位置および配向を検出するようにARシステムに適合されてもよい。典型的な電磁システムは、大型で嵩張る電磁エミッタ(例えば、図4における402)を有する傾向にあって、これは、ARデバイスにとって問題となる。しかしながら、より小型の電磁エミッタ(例えば、ミリメートル範囲内)が、ARシステムの状況において既知の電磁場を放出するために使用されてもよい。
ここで図6を参照すると、電磁追跡システムは、ハンドヘルドコントローラ606の一部として組み込まれる電磁場エミッタ602とともに、示されるように、ARシステムとともに組み込まれてもよい。1つまたはそれを上回る実施形態では、ハンドヘルドコントローラは、ゲームシナリオにおいて使用されるべきトーテムであってもよい。他の実施形態では、ハンドヘルドコントローラは、触知デバイスであってもよい。さらに他の実施形態では、電磁場エミッタは、単に、ベルトパック70の一部として組み込まれてもよい。ハンドヘルドコントローラ606は、電磁場エミッタ602に給電する、バッテリ610または他の電力供給源を備えてもよい。電磁場エミッタ602はまた、他のコンポーネントに対する電磁場エミッタ602の位置および/または配向を判定することを補助するように構成される、IMUコンポーネント650を備える、またはそれに結合されてもよいことを理解されたい。これは、電磁場エミッタ602およびセンサ(604)の両方がモバイル式である場合、特に重要であり得る。図6の実施形態に示されるように、ベルトパックではなく、ハンドヘルドコントローラ内に電磁場エミッタ602を設置することは、電磁場エミッタがベルトパックにおいてリソースを競合するのではなく、むしろ、ハンドヘルドコントローラ606においてその独自のバッテリ源を使用することを確実にする。
1つまたはそれを上回る実施形態では、電磁センサ(604)は、1つまたはそれを上回るIMUまたは付加的磁束捕捉コイル(608)等、他の感知デバイスとともに、ユーザのヘッドセット(58)上の1つまたはそれを上回る場所に設置されてもよい。例えば、図6に示されるように、センサ(604、608)は、ヘッドセット(58)の両側に設置されてもよい。これらのセンサ(604、608)は、非常に小型(故に、ある場合には、低感度であり得る)に加工されるため、複数のセンサを有することは、効率および精度を改良し得る。
1つまたはそれを上回る実施形態では、1つまたはそれを上回るセンサはまた、ベルトパック(620)またはユーザの身体の任意の他の部分上に設置されてもよい。センサ(604、608)は、無線で、またはBluetooth(登録商標)を通して、センサ(604、608)(および電磁場エミッタ(602)によって放出される既知の磁場と関連して、それらが取り付けられるARヘッドセット(58))の姿勢および配向を判定する、コンピューティング装置(607、例えば、コントローラ)と通信してもよい。1つまたはそれを上回る実施形態では、コンピューティング装置(607)は、ベルトパック620に常駐してもよい。他の実施形態では、コンピューティング装置(607)は、ヘッドセット(58)自体またはさらにハンドヘルドコントローラ(606)に常駐してもよい。コンピューティング装置(607)は、センサ(604、608)の測定を受信し、電磁場エミッタ(602)によって放出される既知の電磁場に関連してセンサ(604、608)の位置および配向を判定してもよい。
コンピューティング装置(607)は、ひいては、マッピングデータベース(632;例えば、パス可能世界モデル、座標空間等)を備え、姿勢を検出し、実オブジェクトおよび仮想オブジェクトの座標を判定してもよく、さらに、1つまたはそれを上回る実施形態では、クラウドリソース(630)およびパス可能世界モデルに接続してもよい。マッピングデータベース(632)が、センサ(604、608)の場所座標を判定するために参考にされてもよい。マッピングデータベース(632)は、いくつかの実施形態では、ベルトパック(620)内に常駐してもよい。図6に描写される実施形態では、マッピングデータベース(632)は、クラウドリソース(630)上に常駐する。コンピューティング装置(607)は、無線でクラウドリソース(630)と通信する。判定された姿勢情報は、ARシステムによって収集された点および画像と併せて、次いで、クラウドリソース(630)に通信され、次いで、パス可能世界モデル(634)に追加されてもよい。
前述のように、従来の電磁エミッタは、ARデバイスにおいて使用するために嵩張り過ぎ得る。したがって、電磁場エミッタは、従来のシステムと比較してより小型のコイルを使用して、コンパクトに加工されてもよい。しかしながら、電磁場の強度が場エミッタからの距離の三次関数として減少することを前提として、電磁センサ604と電磁場エミッタ602との間の半径が短いほど(例えば、約3〜3.5フィート)、図4に詳述されるもの等の従来のシステムと比較して、電力消費を低減させ得る。
本側面は、1つまたはそれを上回る実施形態では、コントローラ606および電磁場エミッタ602に給電し得るバッテリ610の寿命を延長させるために利用されてもよい。または、他の実施形態では、本側面は、電磁場エミッタ602において磁場を生成するコイルのサイズを縮小させるために利用されてもよい。しかしながら、同一の強度の磁場を得るために、電力は、増加される必要があり得る。これは、ハンドヘルドコントローラ606においてコンパクトにフィットし得るコンパクトな電磁場エミッタユニット602を可能にする。
いくつかの他の変更が、ARデバイスのために電磁追跡システムを使用するときに行われてもよい。この姿勢報告レートは、非常に良好であるが、ARシステムは、さらにより効率的な姿勢報告レートを要求してもよい。この目的を達成するために、IMUベースの姿勢追跡が、センサ内で使用されてもよい。重要なこととして、IMUは、姿勢検出プロセスの効率を増加させるために、可能な限り安定したままでなければならない。IMUは、最大50〜100ミリ秒、安定したままであるように加工されてもよい。いくつかの実施形態は、姿勢更新が10〜20Hzのレートで報告されることを可能にし得る、外部姿勢推定器モジュールを利用してもよいことを理解されたい(すなわち、IMUは、経時的にドリフトし得る)。IMUを合理的なレートに安定して保つことによって、姿勢更新レートは、10〜20Hzまで著しく低下され得る(従来のシステムにおけるより高い周波数と比較して)。
電磁追跡システムが、10%デューティサイクルにおいて起動され得る場合(例えば、100ミリ秒毎にのみグラウンドトゥルースにピングする)、これは、ARシステムにおける電力を節約する別の方法となるであろう。これは、電磁追跡システムが、100ミリ秒毎に10ミリ秒にわたってウェイクアップし、姿勢推定値を生成することを意味するであろう。これは、直接、電力消費節約につながり、ひいては、ARデバイスのサイズ、バッテリ寿命、およびコストに影響を及ぼし得る。
1つまたはそれを上回る実施形態では、デューティサイクルのこの低減は、1つのみではなく、2つのハンドヘルドコントローラ(図示せず)を提供することによって方略的に利用されてもよい。例えば、ユーザは、2つのトーテム等を要求するゲームをプレーしてもよい。または、マルチユーザゲームでは、2人のユーザが、その独自のトーテム/ハンドヘルドコントローラを有し、ゲームをプレーしてもよい。1つではなく、2つのコントローラ(例えば、各手に対して対称的なコントローラ)が、使用されるとき、コントローラは、オフセットデューティサイクルで動作してもよい。同一概念はまた、例えば、マルチプレーヤゲームをプレーしている2人の異なるユーザによって利用されるコントローラにも適用されてもよい。
ここで図7を参照すると、ARデバイスの状況における電磁追跡システムを説明する例示的フロー図が、説明される。702では、ハンドヘルドコントローラが、磁場を放出する。704では、電磁センサ(ヘッドセット、ベルトパック等上に設置される)が、磁場を検出する。706では、ヘッドセット/ベルトの位置および配向は、センサにおけるコイル/IMUの挙動に基づいて判定される。708では、姿勢情報が、コンピューティング装置(例えば、ベルトパックまたはヘッドセットにおける)に伝達される。710では、随意に、マッピングデータベース(例えば、パス可能世界モデル)は、実世界座標と仮想世界座標を相関させるために調べられてもよい。712では、仮想コンテンツが、ARヘッドセットにおいてユーザに送達されてもよい。前述のフロー図は、例証目的にすぎず、限定として読み取られるべきではないことを理解されたい。
有利には、図6に概略されるものに類似する電磁追跡システムの使用は、姿勢追跡を可能にする(例えば、頭部位置および配向、トーテムおよび他のコントローラの位置および配向)。これは、ARシステムが、光学追跡技法と比較して、より高い正確度およびより短い待ち時間を伴って、仮想コンテンツを投影することを可能にする。
図8を参照すると、多くの感知コンポーネントを特徴とする、システム構成が、図示される。頭部搭載型ウェアラブルコンポーネント(58)は、ここでは、図9A−9Fを参照して以下に説明されるように、制御および急速解放モジュール(86)もまた特徴とする、物理的マルチコア導線を使用して、ベルトパック等のローカル処理およびデータモジュール(70)に動作可能に結合(68)されて示される。ローカル処理およびデータモジュール(70)は、ここでは、低電力Bluetooth(登録商標)等の無線接続によって、ハンドヘルドコンポーネント(606)に動作可能に結合(100)されてもよい。ハンドヘルドコンポーネント(606)はまた、低電力Bluetooth(登録商標)等の無線接続等によって、直接、頭部搭載型ウェアラブルコンポーネント(58)に動作可能に結合(94)されてもよい。概して、IMUデータが、種々のコンポーネントの座標姿勢検出にパスされる場合、数百または数千サイクル/秒またはより高い範囲内等の高周波数接続が、望ましい。センサ(604)および送信機(602)ペアリング等による電磁位置特定感知のためには、数十サイクル/秒が、適正であり得る。また、壁(8)等のユーザの周囲の実世界内の固定オブジェクトを表す、大域座標系(10)も示される。クラウドリソース(46)はまた、それぞれ、ローカル処理およびデータモジュール(70)に、頭部搭載型ウェアラブルコンポーネント(58)に、壁(8)または大域座標系10に対して固定される他のアイテムに結合され得るリソースに動作可能に結合(42、40、88、90)されてもよい。壁(8)に結合される、または大域座標系(10)に対して既知の位置および/または配向を有する、リソースは、Wi−Fi送受信機(114)、電磁エミッタ(602)および/または受信機(604)、赤外線LEDビーコン等の所与のタイプの放射を放出または反射するように構成されるビーコンまたは反射体(112)、セルラーネットワーク送受信機(110)、RADARエミッタまたは検出器(108)、LIDARエミッタまたは検出器(106)、GPS送受信機(118)、既知の検出可能パターン(122)を有するポスタまたはマーカ、およびカメラ(124)を含んでもよい。頭部搭載型ウェアラブルコンポーネント(58)は、赤外線カメラ(124)のための赤外線エミッタ(130)等のカメラ(124)検出器を補助するように構成される光エミッタ(130)に加え、図示されるような類似コンポーネントを特徴とする。頭部搭載型ウェアラブルコンポーネント(58)はまた、1つまたはそれを上回る歪みゲージ(116)を特徴とし、これは、頭部搭載型ウェアラブルコンポーネント(58)のフレームまたは機械的プラットフォームに固定して結合され、電磁受信機センサ(604)またはディスプレイ要素(62)等のコンポーネント間のそのようなプラットフォームの偏向を判定するように構成されてもよく、図8に描写される眼鏡様プラットフォーム上の突出部上方の部分等のプラットフォームの薄い部分等においてプラットフォームの屈曲が生じた場合、それを理解することが重要であり得る。頭部搭載型ウェアラブルコンポーネント(58)はまた、プロセッサ(128)と、1つまたはそれを上回るIMU(102)とを特徴とする。コンポーネントはそれぞれ、好ましくは、プロセッサ(128)に動作可能に結合される。ハンドヘルドコンポーネント(606)およびローカル処理およびデータモジュール(70)は、類似コンポーネントを特徴とするように図示される。図8に示されるように、そのように多くの感知およびコネクティビティ手段を用いることで、そのようなシステムは、重く、電力を大量に消費し、大型で、かつ比較的に高価である可能性が高い。しかしながら、例証目的のために、そのようなシステムは、非常に高いレベルのコネクティビティ、システムコンポーネント統合、および位置/配向追跡を提供するために利用されてもよい。例えば、そのような構成を用いることで、種々の主要モバイルコンポーネント(58、70、606)は、Wi−Fi、GPS、またはセルラー信号三角測量を使用して、大域座標系に対する位置の観点から位置特定されてもよく、ビーコン、電磁追跡(前述のように)、RADAR、およびLIDIRシステムはさらに、場所および/または配向情報およびフィードバックを提供してもよい。マーカおよびカメラもまた、相対的および絶対的な位置および配向に関するさらなる情報を提供するために利用されてもよい。例えば、頭部搭載型ウェアラブルコンポーネント(58)に結合されて示されるもの等の種々のカメラコンポーネント(124)は、コンポーネント(58)が他のコンポーネントに対して配向される場所およびその状態を判定するために、同時位置特定およびマッピングプロトコル、すなわち、「SLAM」において利用され得る、データを捕捉するために利用されてもよい。
図9A−9Fを参照すると、制御および急速解放モジュール86の種々の側面が、描写される。図9Aを参照すると、2つの外側筐体コンポーネントが、機械的掛止を用いて増強され得る磁気結合構成を使用して、ともに結合される。関連付けられたシステムの動作のためのボタン(136)が、含まれてもよい。図9Bは、ボタン(136)および下層上部印刷回路基板(138)が示される、部分的切断図を図示する。図9Cを参照すると、ボタン(136)および下層上部印刷回路基板(138)が除去され、メス型接触ピンアレイ(140)が、可視である。図9Dを参照すると、筐体(134)の反対部分が除去され、下側印刷回路基板(142)が、可視である。下側印刷回路基板(142)が除去され、図9Eに示されるように、オス型接触ピンアレイ(144)が、可視である。図9Fの断面図を参照すると、オス型ピンまたはメス型ピンのうちの少なくとも1つが、各ピンの縦軸に沿って押下され得るように、ばね荷重されるように構成される。ピンは、「ポゴピン」と称され得、概して、銅または金等の非常に伝導性のある材料を含んでいてもよい。組み立てられると、図示される構成は、46オス型ピンとメス型ピンを噛合させており、アセンブリ全体は、手動で引き離し、ピンアレイ(140、144)の周縁の周囲に配向された南北磁石を使用して作られた磁気インターフェース146の荷重を克服することによって、急速解放式に半分に分断されてもよい。一実施形態では、46個のポゴピンを圧縮することからの約2kgの荷重が、約4kgの閉鎖維持力と対抗される。アレイ内のピンは、約1.3mmだけ分離されてもよく、ピンは、ツイストペアまたは他の組み合わせ等の種々のタイプの伝導性ラインに動作可能に結合され、USB3.0、HDMI(登録商標)2.0、I2S信号、GPIO、およびMIPI構成、ならびに一実施形態では、最大約4アンペア/5ボルト用に構成される高電流アナログラインおよび接地をサポートしてもよい。
図10を参照すると、種々のコンポーネントの重量および大きさを最小限にし、例えば、図10において特徴付けられているもの(58)等の比較的にスリムな頭部搭載型コンポーネントに至るようにすることを可能にするために、最小限にされたコンポーネント/特徴セットを有することが有用である。したがって、図8に示される種々のコンポーネントの種々の順列および組み合わせが、利用されてもよい。
図11Aを参照すると、電磁感知コイルアセンブリ(604、すなわち、筐体に結合される3つの個々のコイル)が、頭部搭載型コンポーネント(58)に結合されて示される。そのような構成は、付加的幾何学形状を全体的アセンブリに追加し、これは、望ましくない場合がある。図11Bを参照すると、図11Aの構成におけるように、コイルをボックスまたは単一筐体内に格納するのではなく、個々のコイルは、図11Bに示されるように、頭部搭載型コンポーネント(58)の種々の構造の中に統合されてもよい。例えば、x−軸コイル(148)が、頭部搭載型コンポーネント(58)の一部分(例えば、フレームの中心)に設置されてもよい。同様に、y−軸コイル(150)が、頭部搭載型コンポーネント(58;例えば、フレームの左右の底部側面)の別の部分に設置されてもよい。同様に、z−軸コイル152が、頭部搭載型コンポーネント(58)のさらに別の部分(例えば、フレームの左右の上部側面)に設置されてもよい。
図12A−12Eは、電磁センサに結合され、場感度を増加させるフェライトコアを特徴とするための種々の構成を図示する。図12Aを参照すると、フェライトコアは、中実立方体(1202)であってもよい。中実立方体(1202)は、場感度を増加させることにおいて最も効果的であり得るが、また、図12B−12Eに描写される残りの構成と比較して、最も重くなり得る。図12Bを参照すると、複数のフェライトディスク(1204)が、電磁センサに結合されてもよい。同様に、図12Cを参照すると、1つの軸空心(1206)を伴う中実立方体が、電磁センサに結合されてもよい。図12Cに示されるように、開放空間(すなわち、空心)が、1つの軸に沿って中実立方体内に形成されてもよい。これは、依然として、必要な場感度を提供しながら、立方体の重量を減少させ得る。さらに別の実施形態では、図12Dを参照すると、3つの軸空心(1208)を伴う中実立方体が、電磁センサに結合されてもよい。本構成では、中実立方体は、全3つの軸に沿って中空化され、それによって、立方体の重量を著しく減少させる。図12Eを参照すると、プラスチック筐体(1210)を伴うフェライトロッドもまた、電磁センサに結合されてもよい。図12B−12Eの実施形態は、図12Aの中実コア構成より重量が軽く、前述のように、質量を節約するために利用されてもよいことを理解されたい。
図13A−13Cを参照すると、時分割多重化(「TDM」)が、同様に質量を節約するために利用されてもよい。例えば、図13Aを参照すると、従来のローカルデータ処理構成が、3コイル電磁受信機センサのために示されており、アナログ電流が、X、Y、およびZコイル(1302、1304、および1306)のそれぞれから流入し、前置増幅器(1308)の中に流れ、帯域通過フィルタ(1310)、PA(1312)、アナログ/デジタルコンバータ(1314)を通して、最終的には、デジタル信号プロセッサ(1316)の中に流れる。図13Bの送信機構成および図13Cの受信機構成を参照すると、時分割多重化が、各コイルセンサチェーンがその独自の増幅器等を要求しないように、ハードウェアを共有するために利用されてもよい。これは、図13Bに示されるように、TDMスイッチ(1320)を通して達成されてもよく、これは、同一セットのハードウェアコンポーネント(増幅器等)を使用して、複数の送信機および受信機へならびにそこからの信号の処理を促進する。センサ筐体を除去し、多重化し、頭部上のハードウェアを節約することに加え、信号対雑音比が、1つを上回るセットの電磁センサを有することによって増加されてもよく、各セットは、単一のより大きいコイルセットに対して比較的に小さい。また、概して、複数の感知コイルを近接近して有するために必要とされる、低側周波数限界が、帯域幅要件の改良を促進するために改良されてもよい。多重化が、概して、無線周波数信号の受信を時間的に拡散し、概して、より粗悪な信号をもたらすという点において、多重化とのトレードオフが存在する。したがって、より大きいコイル直径が、多重化システムのために要求され得る。例えば、多重化システムが、9mm辺寸法の立方体のコイルセンサボックスを要求し得る場合、非多重化システムは、類似性能のために、7mm辺寸法の立方体のコイルボックスのみを要求し得る。したがって、幾何学形状および質量を最小限にする際、トレードオフが存在し得る。
頭部搭載型コンポーネント(58)等の特定のシステムコンポーネントが2つまたはそれを上回る電磁コイルセンサセットを特徴とする別の実施形態では、システムは、システムの性能を最適化するために、相互に最も近いセンサおよびエミッタ対を選択的に利用するように構成されてもよい。
図14を参照すると、一実施形態では、ユーザが自身のウェアラブルコンピューティングシステム(160)に電源を投入した後、頭部搭載型コンポーネントアセンブリは、IMUおよびカメラデータ(カメラデータは、例えば、より多くのraw処理能力が存在し得るベルトパックプロセッサ等のSLAM分析のために使用される)の組み合わせを捕捉し、実世界の大域座標系に対する頭部の姿勢(すなわち、位置および配向)を判定および更新してもよい(162)。ユーザはまた、ハンドヘルドコンポーネントを能動化し、例えば、拡張現実ゲームをプレーしてもよく(164)、ハンドヘルドコンポーネントは、ベルトパックおよび頭部搭載型コンポーネントの一方または両方に動作可能に結合される電磁送信機を備えてもよい(166)。送信機からの磁束を捕捉するために、1つまたはそれを上回る電磁場コイル受信機セット(すなわち、3つの異なるように配向される個々のコイルのセット)が、頭部搭載型コンポーネントに結合され、これは、頭部搭載型コンポーネントとハンドヘルドコンポーネント(168)との間の位置または配向差(または「デルタ」)を判定するために利用されてもよい。大域座標系に対する姿勢の判定を補助する頭部搭載型コンポーネントと、頭部搭載型コンポーネントに対するハンドヘルドの相対的な場所および配向を判定することを補助するハンドヘルドの組み合わせは、システムが、概して、各コンポーネントが大域座標系に対して位置する場所、したがって、ユーザの頭部の姿勢を判定することを可能にし、ハンドヘルド姿勢は、好ましくは、拡張現実画像の特徴の提示と、ハンドヘルドコンポーネント(170)の移動および回転を使用した相互作用とのために、比較的に短い待ち時間で追跡され得る。
図15を参照すると、図14のものに幾分類似するが、システムが頭部搭載型コンポーネント(172)およびハンドヘルドコンポーネント(176、178)の両方の姿勢の判定を補助するために利用可能なより多くの感知デバイスおよび構成を有する実施形態が図示されており、これにより、ユーザの頭部の姿勢およびハンドヘルド姿勢が、好ましくは、拡張現実画像の特徴の提示と、ハンドヘルドコンポーネント(180)の移動および回転を使用した相互作用とのために、比較的に短い待ち時間において追跡され得る。
具体的には、ユーザが、自身のウェアラブルコンピューティングシステム(160)に電源を投入した後、頭部搭載型コンポーネントは、実世界の大域座標系に対する頭部の姿勢を判定および更新するために、SLAM分析のためのIMUおよびカメラデータの組み合わせを捕捉する。システムはさらに、大域座標系の種々の側面または1つまたはそれを上回る移動可能なコンポーネント(172)に結び付けられ得る、Wi−Fi、セルラー、ビーコン、RADAR、LIDAR、GPS、マーカ、および/または他のカメラのような環境内の他の位置特定リソースの存在を検出するように構成されてもよい。
ユーザはまた、ハンドヘルドコンポーネントを能動化し、例えば、拡張現実ゲーム(174)をプレーしてもよく、ハンドヘルドコンポーネントは、ベルトパックおよび頭部搭載型コンポーネント(176)の一方または両方に動作可能に結合される電磁送信機を備えてもよい。他の位置特定リソースもまた、同様に利用されてもよい。頭部搭載型コンポーネントに結合される1つまたはそれを上回る電磁場コイル受信機セット(例えば、3つの異なるように配向される個々のコイルのセット)が、電磁送信機からの磁束を捕捉するために使用されてもよい。この捕捉された磁束は、頭部搭載型コンポーネントとハンドヘルドコンポーネント(178)との間の位置または配向差異(または「デルタ」)を判定するために利用されてもよい。
したがって、ユーザの頭部の姿勢およびハンドヘルド姿勢が、ARコンテンツの提示および/またはハンドヘルドコンポーネント(180)の移動または回転を使用したARシステムとの相互作用のために、比較的に短い待ち時間において追跡され得る。
図16Aおよび16Bを参照すると、図8のものに類似する構成の種々の側面が、示される。図16Aの構成は、LIDAR(106)タイプの深度センサに加え、図16Aの構成が、例証目的のために、例えば、ステレオ三角測量式深度センサ(受動ステレオ深度センサ、テクスチャ投影ステレオ深度センサ、または構造化光ステレオ深度センサ等)または飛行時間式深度センサ(LIDAR深度センサまたは変調放出深度センサ等)のいずれかであり得る、汎用深度カメラまたは深度センサ(154)を特徴とするという点において、図8のものと異なる。さらに、図16Aの構成は、付加的な前向き「世界」カメラ(124、720p範囲の分解能が可能なセンサを有するグレースケールカメラであってもよい)ならびに比較的に高い分解能の「写真カメラ」(156、例えば、2メガピクセルまたはより高い分解能が可能なセンサを有するフルカラーカメラであってもよい)を有する。図16Bは、図16Bを参照して以下にさらに説明されるように、例証目的のために、図16Aの構成の部分的直交図を示す。
図16Aおよび前述のステレオ対飛行時間式深度センサに戻って参照すると、これらの深度センサタイプはそれぞれ、本明細書に開示されるようなウェアラブルコンピューティングソリューションとともに採用され得るが、それぞれ、種々の利点および不利点を有する。例えば、多くの深度センサは、黒色表面と光沢表面または反射表面とに関する課題を有する。受動ステレオ深度感知は、深度カメラまたはセンサを用いて深度を計算するために三角測量を得るという比較的に単純な方法であるが、広視野(「FOV」)が要求される場合、課題となり得、比較的に有意なコンピューティングリソースを要求し得る。さらに、そのようなセンサタイプは、目下の特定の用途に重要であり得るエッジ検出に関する課題を有し得る。受動ステレオは、無テクスチャ壁、低光状況、および繰り返しパターンに関する課題を有し得る。受動ステレオ深度センサは、Intel(登録商標)およびAquifi(登録商標)等の製造業者から利用可能である。テクスチャ投影を伴うステレオ(「能動ステレオ」としても知られる)は、受動ステレオに類似するが、テクスチャプロジェクタは、投影パターンを環境上にブロードキャストし、より多くのテクスチャがブロードキャストされるほど、より高い正確度が深度計算のための三角測量において利用可能になる。能動ステレオもまた、比較的に高い算出リソースを要求し、広FOVが要求されるときに課題を提示し、エッジを検出することにおいて幾分準最適であり得るが、無テクスチャ壁に効果的であるという点、低光において良好であるという点、そして、繰り返しパターンに関する問題を概して有していないという点において、受動ステレオの課題のうちのいくつかに対処する。能動ステレオ深度センサは、Intel(登録商標)およびAquifi(登録商標)等の製造業者から利用可能である。Primesense, Inc.(登録商標)によって開発され、商標名Kinect(登録商標)下で利用可能なシステム、ならびに、単一カメラ/プロジェクタペアリングおよびプロジェクタを概して利用するMantis Vision,Inc.(登録商標)から利用可能なシステム等の構造化光を伴うステレオは、アプリオリに把握されたドットのパターンをブロードキャストするように構成されるという点において特殊化されている。本質的に、システムは、ブロードキャストされるパターンを把握し、判定されるべき変数が深度であることを把握している。そのような構成は、算出負荷に関して比較的に効率的であり得、広FOV要件シナリオならびに他の近傍デバイスからブロードキャストされる周囲光およびパターンを伴うシナリオでは、課題となり得るが、多くのシナリオにおいて非常に効果的かつ効率的であり得る。PMD Technologies(登録商標),A.G.およびSoft Kinetic Inc.(登録商標)から利用可能なもの等の変調飛行時間タイプ深度センサを用いることで、エミッタは、振幅変調光の正弦波等の波を送信するように構成されてもよい。いくつかの構成では、近傍に、またはさらに重複して位置付けられ得る、カメラコンポーネントが、カメラコンポーネントのピクセルのそれぞれ上への戻り信号を受信し、深度マッピングが、判定/計算されてもよい。そのような構成は、幾何学形状が比較的にコンパクトであり得、高正確度、および低算出負荷であり得るが、画像分解能(オブジェクトのエッジにおいて等)、多経路誤差(センサが反射性のコーナーまたは光沢性のあるコーナーに照準され、いくつかの深度検出エイリアシングが存在するように、検出器が1つを上回る戻り経路を受信する結果となる等)の観点から課題となり得る。前述のLIDARとも称され得る、直接飛行時間センサが、LuminAR(登録商標)およびAdvanced Scientific Concepts, Inc.(登録商標)等の供給業者から利用可能である。これらの飛行時間構成を用いることで、概して、光のパルス(ピコ秒、ナノ秒、またはフェムト秒長の光のパルス等)は、その周囲に配向される世界に注ぐようにこの光ピングとともに送信される。次いで、カメラセンサ上の各ピクセルは、そのパルスが戻って来るのを待機し、光の速度を把握することで、各ピクセルにおける距離が、計算され得る。そのような構成は、変調飛行時間センサ構成の利点(無ベースライン、比較的に広いFOV、高正確度、比較的に低い算出負荷等)の多くを有し得、そして、数百万ヘルツ等の比較的に高いフレームレートを有し得る。それらはまた、比較的に高価であって、比較的に低い分解能を有し、明るい光に敏感であって、かつ多経路誤差を受けやすい。それらはまた、比較的に大型であって、かつ重くあり得る。
図16Bを参照すると、部分的上面図が、例証目的のために示され、ユーザの眼(12)と、視野(28、30)を伴うカメラ(14、赤外線カメラ等)と、眼(12)に向かって指向され、眼追跡、観察、および/または画像捕捉を促進する、光源または放射源(16、赤外線等)とを特徴とする。3つの外向き世界捕捉カメラ(124)が、深度カメラ(154)およびそのFOV(24)と、写真カメラ(156)およびそのFOV(26)と同様に、そのFOV(18、20、22)とともに示される。深度カメラ(154)から集められた深度情報は、重複FOVおよび他の前向きカメラからのデータを使用することによって強化されてもよい。例えば、システムは、深度センサ(154)からのサブVGA画像、世界カメラ(124)からの720p画像、場合によって、写真カメラ(156)からの2メガピクセルカラー画像のようなもので構成され得る。そのような構成は、共通FOVを共有する5つのカメラを有し、そのうちの3つは、異種可視スペクトル画像を伴い、1つのものは、色を伴い、第3のものは、比較的に低い分解能の深度を伴う。システムは、グレースケールおよびカラー画像においてセグメント化を行い、それらの画像を融合し、比較的に高い分解能の画像をそれらから作成し、いくつかのステレオ対応を得て、深度センサを使用して、ステレオ深度についての仮説的を提供し、ステレオ対応を使用して、深度センサのみから利用可能なものよりも有意に良好であり得る、より精緻化された深度マップを得るように構成されてもよい。そのようなプロセスは、ローカルモバイル処理ハードウェア上で起動されてもよいか、または、可能性として、エリア内の他者からのデータとともに(近傍で相互からテーブルを横断して着座している2人等)クラウドコンピューティングリソースを使用して、起動され、非常に精緻化されたマッピングとなり得る。別の実施形態では、そのような機能性を遂行するために、前述のセンサは全て、1つの統合されたセンサに組み合わせられてもよい。
本発明の種々の例示的実施形態が、本明細書で説明されている。非限定的な意味で、これらの実施例が参照されている。それらは、本発明のより広くて適用可能な側面を例証するように提供されている。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、同等物が置換されてもよい。加えて、特定の状況、材料、物質組成、プロセス、プロセス行為、またはステップを本発明の目的、精神、または範囲に適合させるように、多くの修正が行われてもよい。さらに、当業者によって理解されるように、本明細書で説明および例証される個々の変形例のそれぞれは、本発明の範囲または精神から逸脱することなく、他のいくつかの実施形態のうちのいずれかの特徴から容易に分離され、またはそれらと組み合わせられ得る、離散コンポーネントおよび特徴を有する。全てのそのような修正は、本開示と関連付けられる請求項の範囲内にあることを目的としている。
本発明は、本デバイスを使用して行われ得る方法を含む。本方法は、そのような好適なデバイスを提供する行為を含んでもよい。そのような提供は、エンドユーザによって行われてもよい。換言すると、「提供する」行為は、本方法において必要なデバイスを提供するために、取得する、アクセスする、接近する、位置付ける、設定する、起動する、電源投入する、または別様に作用するようにエンドユーザに要求するにすぎない。本明細書に記載される方法は、論理的に可能である記載された事象の任意の順序で、ならびに事象の記載された順序で実行されてもよい。
本発明の例示的側面が、材料選択および製造に関する詳細とともに、上記で記載されている。本発明の他の詳細に関して、これらは、上記の参照された特許および公開に関連して理解されるとともに、概して、当業者によって把握または理解され得る。同じことが、一般的または理論的に採用されるような付加的な行為の観点から、本発明の方法ベースの側面に関して当てはまり得る。
加えて、本発明は、種々の特徴を随意に組み込む、いくつかの実施例を参照して説明されているが、本発明は、本発明の各変形例に関して考慮されるように説明または指示されるものに限定されるものではない。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、(本明細書に記載されるか、またはいくらか簡潔にするために含まれないかどうかにかかわらず)均等物が置換されてもよい。加えて、値の範囲が提供される場合、その範囲の上限と下限との間の全ての介在値、およびその規定範囲内の任意の他の規定値または介在値が、本発明内に包含されることが理解される。
また、本明細書で説明される発明の変形例の任意の随意的な特徴が、独立して、または本明細書で説明される特徴のうちのいずれか1つまたはそれを上回る特徴と組み合わせて、記載および請求され得ることが考慮される。単数形の項目の言及は、複数の同一項目が存在する可能性を含む。より具体的には、本明細書で、およびそれに関連付けられる請求項で使用されるように、「1つの(a、an)」、「該(said)」、および「該(the)」という単数形は、特に別様に記述されない限り、複数の指示対象を含む。換言すると、冠詞の使用は、上記の説明ならびに本開示と関連付けられる請求項で、対象項目の「少なくとも1つ」を可能にする。さらに、そのような請求項は、任意の随意的な要素を除外するように起草され得ることに留意されたい。したがって、この記述は、請求項要素の記載に関連する「だけ」、「のみ」、および同等物等のそのような排他的用語の使用、または「否定的」制限の使用のための先行詞としての機能を果たすことを目的としている。
そのような排他的用語を使用することなく、本開示と関連付けられる請求項での「備える」という用語は、所与の数の要素がそのような請求項で列挙されるか、または特徴の追加をそのような請求項に記載される要素の性質を変換するものと見なすことができるかどうかにかかわらず、任意の付加的な要素の包含を可能にするものとする。本明細書で特に定義される場合を除いて、本明細書で使用される全ての技術および科学用語は、請求項の有効性を維持しながら、可能な限り広義の一般的に理解されている意味を与えられるものである。
本発明の広さは、提供される実施例および/または本明細書に限定されるものではないが、むしろ本開示と関連付けられる請求項の範囲のみによって限定されるものとする。
本発明の付加的および他の目的、特徴、および利点が、発明を実施するための形態、図、および請求項で説明される。
(項目1)
拡張現実(AR)ディスプレイシステムであって、
既知の座標系内で既知の磁場を放出する電磁場エミッタと、
電磁センサであって、上記電磁センサは、上記既知の磁場から生じる上記電磁センサにおける磁束に関連するパラメータを測定する電磁センサと、
上記既知の座標系内の距離を測定する深度センサと、
コントローラであって、上記コントローラは、少なくとも部分的に、上記電磁センサによって測定された磁束および上記深度センサによって測定された距離に関連するパラメータに基づいて、上記既知の座標系内の電磁場エミッタに対する上記電磁センサの姿勢情報を判定する、コントローラと、
ディスプレイシステムであって、上記ディスプレイシステムは、少なくとも部分的に、上記電磁場エミッタに対する上記電磁センサの姿勢情報に基づいて、仮想コンテンツをユーザに表示する、ディスプレイシステムと、
を備える、ARディスプレイシステム。
(項目2)
上記深度センサは、受動ステレオ深度センサである、項目1に記載のARディスプレイシステム。
(項目3)
上記深度センサは、能動深度センサである、項目1に記載のARディスプレイシステム。
(項目4)
上記深度センサは、テクスチャ投影ステレオ深度センサである、項目3に記載のARディスプレイシステム。
(項目5)
上記深度センサは、構造化光投影ステレオ深度センサである、項目3に記載のARディスプレイシステム。
(項目6)
上記深度センサは、飛行時間深度センサである、項目3に記載のARディスプレイシステム。
(項目7)
上記深度センサは、LIDAR深度センサである、項目3に記載のARディスプレイシステム。
(項目8)
上記深度センサは、変調放出深度センサである、項目3に記載のARディスプレイシステム。
(項目9)
上記深度センサは、第1の視野(FOV)を有する深度カメラを備える、項目1に記載のARディスプレイシステム。
(項目10)
世界捕捉カメラをさらに備え、
上記世界捕捉カメラは、少なくとも部分的に、上記第1のFOVと重複する第2のFOVを有する、項目9に記載のARディスプレイシステム。
(項目11)
写真カメラをさらに備え、
上記写真カメラは、少なくとも部分的に、上記第1のFOVおよび上記第2のFOVと重複する第3のFOVを有する、項目10に記載のARディスプレイシステム。
(項目12)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、個別の異なる第1、第2、および第3の分解能を有する、項目11に記載のARディスプレイシステム。
(項目13)
上記深度カメラの第1の分解能は、サブVGAであり、上記世界捕捉カメラの第2の分解能は、720pであり、上記写真カメラの第3の分解能は、2メガピクセルである、項目12に記載のARディスプレイシステム。
(項目14)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、個別の第1、第2、および第3の画像を捕捉するように構成される、項目11に記載のARディスプレイシステム。
(項目15)
上記コントローラは、上記第2および第3の画像をセグメント化するようにプログラムされる、項目14に記載のARディスプレイシステム。
(項目16)
上記コントローラは、上記第2および第3の画像をセグメント化した後、上記第2および第3の画像を融合し、融合された画像を生成するようにプログラムされる、項目15に記載のARディスプレイシステム。
(項目17)
上記既知の座標系内の距離を測定することは、
上記深度カメラからの第1の画像を分析することによって、仮説的距離を生成することと、
上記仮説的距離および上記融合された画像を分析することによって、上記距離を生成することと、
を含む、項目16に記載のARディスプレイシステム。
(項目18)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、単一統合センサを形成する、項目11に記載のARディスプレイシステム。
(項目19)
付加的情報を提供する付加的位置特定リソースをさらに備え、上記既知の座標系内の電磁場エミッタに対する上記電磁センサの姿勢情報は、少なくとも部分的に、上記電磁センサによって測定された磁束、上記深度センサによって測定された距離、および上記付加的位置特定リソースによって提供される付加的情報に関連するパラメータに基づいて判定される、項目1に記載のARディスプレイシステム。
(項目20)
上記付加的位置特定リソースは、WiFi送受信機を備える、項目19に記載のARディスプレイシステム。
(項目21)
上記付加的位置特定リソースは、付加的電磁エミッタを備える、項目19に記載のARディスプレイシステム。
(項目22)
上記付加的位置特定リソースは、付加的電磁センサを備える、項目19に記載のARディスプレイシステム。
(項目23)
上記付加的位置特定リソースは、ビーコンを備える、項目19に記載のARディスプレイシステム。
(項目24)
上記ビーコンは、放射を放出する、項目23に記載のARディスプレイシステム。
(項目25)
上記放射は、赤外線放射であり、上記ビーコンは、赤外線LEDを備える、項目24に記載のARディスプレイシステム。
(項目26)
上記付加的位置特定リソースは、反射体を備える、項目19に記載のARディスプレイシステム。
(項目27)
上記反射体は、放射を反射する、項目26に記載のARディスプレイシステム。
(項目28)
上記付加的位置特定リソースは、セルラーネットワーク送受信機を備える、項目19に記載のARディスプレイシステム。
(項目29)
上記付加的位置特定リソースは、RADARエミッタを備える、項目19に記載のARディスプレイシステム。
(項目30)
上記付加的位置特定リソースは、RADAR検出器を備える、項目19に記載のARディスプレイシステム。
(項目31)
上記付加的位置特定リソースは、LIDARエミッタを備える、項目19に記載のARディスプレイシステム。
(項目32)
上記付加的位置特定リソースは、LIDAR検出器を備える、項目19に記載のARディスプレイシステム。
(項目33)
上記付加的位置特定リソースは、GPS送受信機を備える、項目19に記載のARディスプレイシステム。
(項目34)
上記付加的位置特定リソースは、既知の検出可能パターンを有するポスタを備える、項目19に記載のARディスプレイシステム。
(項目35)
上記付加的位置特定リソースは、既知の検出可能パターンを有するマーカを備える、項目19に記載のARディスプレイシステム。
(項目36)
上記付加的位置特定リソースは、慣性測定ユニットを備える、項目19に記載のARディスプレイシステム。
(項目37)
上記付加的位置特定リソースは、歪みゲージを備える、項目19に記載のARディスプレイシステム。
(項目38)
上記電磁場エミッタは、ARディスプレイシステムのモバイルコンポーネントに結合される、項目1に記載のARディスプレイシステム。
(項目39)
上記モバイルコンポーネントは、ハンドヘルドコンポーネントである、項目38に記載のARディスプレイシステム。
(項目40)
上記モバイルコンポーネントは、トーテムである、項目39に記載のARディスプレイシステム。
(項目41)
上記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、項目38に記載のARディスプレイシステム。
(項目42)
上記モバイルコンポーネントは、胴体装着型コンポーネントである、項目38に記載のARディスプレイシステム。
(項目43)
上記胴体装着型コンポーネントは、ベルトパックである、項目42に記載のARディスプレイシステム。
(項目44)
上記電磁場エミッタは、上記電磁場エミッタが既知の位置および既知の配向を有するように、上記既知の座標系内のオブジェクトに結合される、項目1に記載のARディスプレイシステム。
(項目45)
上記電磁センサは、ARディスプレイシステムのモバイルコンポーネントに結合される、項目44に記載のARディスプレイシステム。
(項目46)
上記モバイルコンポーネントは、ハンドヘルドコンポーネントである、項目45に記載のARディスプレイシステム。
(項目47)
上記モバイルコンポーネントは、トーテムである、項目46に記載のARディスプレイシステム。
(項目48)
上記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、項目45に記載のARディスプレイシステム。
(項目49)
上記モバイルコンポーネントは、胴体装着型コンポーネントである、項目45に記載のARディスプレイシステム。
(項目50)
上記胴体装着型コンポーネントは、ベルトパックである、項目49に記載のARディスプレイシステム。
(項目51)
上記姿勢情報は、上記既知の座標系内の電磁場エミッタに対する上記電磁センサの位置および配向を備える、項目1に記載のARディスプレイシステム。
(項目52)
上記コントローラは、上記姿勢情報を分析し、上記既知の座標系内の上記電磁センサの位置および配向を判定する、項目1に記載のARディスプレイシステム。
(項目53)
拡張現実を表示するための方法であって、上記方法は、
電磁場エミッタを使用して、既知の座標系内で既知の磁場を放出するステップと、
電磁センサを使用して、上記既知の磁場から生じる上記電磁センサの磁束に関連するパラメータを測定するステップと、
深度センサを使用して、上記既知の座標系内の距離を測定するステップと、
少なくとも部分的に、上記電磁センサを使用して測定された磁束および上記深度センサを使用して測定された距離に関連するパラメータに基づいて、上記既知の座標系内の電磁場エミッタに対する上記電磁センサの姿勢情報を判定するステップと、
少なくとも部分的に、上記電磁場エミッタに対する上記電磁センサの姿勢情報に基づいて、仮想コンテンツをユーザに表示するステップと、
を含む、方法。
(項目54)
上記深度センサは、受動ステレオ深度センサである、項目53に記載の方法。
(項目55)
上記深度センサは、能動深度センサである、項目53に記載の方法。
(項目56)
上記深度センサは、テクスチャ投影ステレオ深度センサである、項目55に記載の方法。
(項目57)
上記深度センサは、構造化光投影ステレオ深度センサである、項目55に記載の方法。
(項目58)
上記深度センサは、飛行時間深度センサである、項目55に記載の方法。
(項目59)
上記深度センサは、LIDAR深度センサである、項目55に記載の方法。
(項目60)
上記深度センサは、変調放出深度センサである、項目55に記載の方法。
(項目61)
上記深度センサは、第1の視野(FOV)を有する深度カメラを備える、項目53に記載の方法。
(項目62)
上記深度センサはさらに、世界捕捉カメラを備え、
上記世界捕捉カメラは、少なくとも部分的に、上記第1のFOVと重複する第2のFOVを有する、項目61に記載の方法。
(項目63)
上記深度センサはさらに、写真カメラを備え、
上記写真カメラは、少なくとも部分的に、上記第1のFOVおよび上記第2のFOVと重複する第3のFOVを有する、項目62に記載の方法。
(項目64)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、個別の異なる第1、第2、および第3の分解能を有する、項目63に記載の方法。
(項目65)
上記深度カメラの第1の分解能は、サブVGAであり、上記世界捕捉カメラの第2の分解能は、720pであり、上記写真カメラの第3の分解能は、2メガピクセルである、項目64に記載の方法。
(項目66)
個別の深度カメラ、世界捕捉カメラ、および写真カメラを使用して、第1、第2、および第3の画像を捕捉するステップをさらに含む、項目63に記載の方法。
(項目67)
上記第2および第3の画像をセグメント化するステップをさらに含む、項目66に記載の方法。
(項目68)
上記第2および第3の画像をセグメント化した後、上記第2および第3の画像を融合し、融合された画像を生成するステップをさらに含む、項目67に記載の方法。
(項目69)
上記既知の座標系内の距離を測定するステップは、
上記深度カメラからの第1の画像を分析することによって、仮説的距離を生成するステップと、
上記仮説的距離および上記融合された画像を分析することによって、上記距離を生成するステップと、
を含む、項目68に記載の方法。
(項目70)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、単一統合センサを形成する、項目63に記載の方法。
(項目71)
少なくとも部分的に、上記電磁センサを使用して測定された磁束、上記深度センサを使用して測定された距離、および付加的位置特定リソースによって提供された付加的情報に関連するパラメータに基づいて、上記既知の座標系内の電磁場エミッタに対する上記電磁センサの姿勢情報を判定するステップをさらに含む、項目53に記載の方法。
(項目72)
上記付加的位置特定リソースは、WiFi送受信機を備える、項目71に記載の方法。
(項目73)
上記付加的位置特定リソースは、付加的電磁エミッタを備える、項目71に記載の方法。
(項目74)
上記付加的位置特定リソースは、付加的電磁センサを備える、項目71に記載の方法。
(項目75)
上記付加的位置特定リソースは、ビーコンを備える、項目71に記載の方法。
(項目76)
上記ビーコンが放射を放出するステップをさらに含む、項目75に記載の方法。
(項目77)
上記放射は、赤外線放射であり、上記ビーコンは、赤外線LEDを備える、項目76に記載の方法。
(項目78)
上記付加的位置特定リソースは、反射体を備える、項目71に記載の方法。
(項目79)
上記反射体が放射を反射するステップをさらに含む、項目78に記載の方法。
(項目80)
上記付加的位置特定リソースは、セルラーネットワーク送受信機を備える、項目71に記載の方法。
(項目81)
上記付加的位置特定リソースは、RADARエミッタを備える、項目71に記載の方法。
(項目82)
上記付加的位置特定リソースは、RADAR検出器を備える、項目71に記載の方法。
(項目83)
上記付加的位置特定リソースは、LIDARエミッタを備える、項目71に記載の方法。
(項目84)
上記付加的位置特定リソースは、LIDAR検出器を備える、項目71に記載の方法。
(項目85)
上記付加的位置特定リソースは、GPS送受信機を備える、項目71に記載の方法。
(項目86)
上記付加的位置特定リソースは、既知の検出可能パターンを有するポスタを備える、項目71に記載の方法。
(項目87)
上記付加的位置特定リソースは、既知の検出可能パターンを有するマーカを備える、項目71に記載の方法。
(項目88)
上記付加的位置特定リソースは、慣性測定ユニットを備える、項目71に記載の方法。
(項目89)
上記付加的位置特定リソースは、歪みゲージを備える、項目71に記載の方法。
(項目90)
上記電磁場エミッタは、ARディスプレイシステムのモバイルコンポーネントに結合される、項目53に記載の方法。
(項目91)
上記モバイルコンポーネントは、ハンドヘルドコンポーネントである、項目90に記載の方法。
(項目92)
上記モバイルコンポーネントは、トーテムである、項目91に記載の方法。
(項目93)
上記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、項目90に記載の方法。
(項目94)
上記モバイルコンポーネントは、胴体装着型コンポーネントである、項目90に記載の方法。
(項目95)
上記胴体装着型コンポーネントは、ベルトパックである、項目94に記載の方法。
(項目96)
上記電磁場エミッタは、上記電磁場エミッタが既知の位置および既知の配向を有するように、上記既知の座標系内のオブジェクトに結合される、項目53に記載の方法。
(項目97)
上記電磁センサは、ARディスプレイシステムのモバイルコンポーネントに結合される、項目96に記載の方法。
(項目98)
上記モバイルコンポーネントは、ハンドヘルドコンポーネントである、項目97に記載の方法。
(項目99)
上記モバイルコンポーネントは、トーテムである、項目98に記載の方法。
(項目100)
上記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、項目97に記載の方法。
(項目101)
上記モバイルコンポーネントは、胴体装着型コンポーネントである、項目97に記載の方法。
(項目102)
上記胴体装着型コンポーネントは、ベルトパックである、項目101に記載の方法。
(項目103)
上記姿勢情報は、上記既知の座標系内の電磁場エミッタに対する上記電磁センサの位置および配向を備える、項目53に記載の方法。
(項目104)
上記姿勢情報を分析し、上記既知の座標系内の上記電磁センサの位置および配向を判定するステップをさらに含む、項目53に記載の方法。
(項目105)
拡張現実ディスプレイシステムであって、
電磁場エミッタに結合されるハンドヘルドコンポーネントであって、上記電磁場エミッタは、磁場を放出する、ハンドヘルドコンポーネントと、
仮想コンテンツをユーザに表示するディスプレイシステムを有する頭部搭載型コンポーネントであって、上記頭部搭載型コンポーネントは、上記磁場から生じる電磁センサにおける磁束に関連するパラメータを測定する電磁センサに結合され、既知の座標系内の上記頭部搭載型コンポーネントの頭部の姿勢は、既知である、頭部搭載型コンポーネントと、
上記既知の座標系内の距離を測定する深度センサと、
上記ハンドヘルドコンポーネント、上記頭部搭載型コンポーネント、および上記深度センサに通信可能に結合されるコントローラであって、上記コントローラは、上記電磁センサにおける磁束に関連するパラメータを上記頭部搭載型コンポーネントから受信し、上記距離を上記深度センサから受信する、コントローラと、
を備え、上記コントローラは、少なくとも部分的に、上記電磁センサによって測定された磁束および上記深度センサによって測定された距離に関連するパラメータに基づいて、上記ハンドヘルドコンポーネントの手の姿勢を判定し、
上記システムは、少なくとも部分的に、上記手の姿勢に基づいて、上記ユーザに表示される仮想コンテンツを修正する、
拡張現実ディスプレイシステム。
(項目106)
上記深度センサは、受動ステレオ深度センサである、項目105に記載のARディスプレイシステム。
(項目107)
上記深度センサは、能動深度センサである、項目105に記載のARディスプレイシステム。
(項目108)
上記深度センサは、テクスチャ投影ステレオ深度センサである、項目107に記載のARディスプレイシステム。
(項目109)
上記深度センサは、構造化光投影ステレオ深度センサである、項目107に記載のARディスプレイシステム。
(項目110)
上記深度センサは、飛行時間深度センサである、項目107に記載のARディスプレイシステム。
(項目111)
上記深度センサは、LIDAR深度センサである、項目107に記載のARディスプレイシステム。
(項目112)
上記深度センサは、変調放出深度センサである、項目107に記載のARディスプレイシステム。
(項目113)
上記深度センサは、第1の視野(FOV)を有する深度カメラを備える、項目105に記載のARディスプレイシステム。
(項目114)
世界捕捉カメラをさらに備え、
上記世界捕捉カメラは、少なくとも部分的に、上記第1のFOVと重複する第2のFOVを有する、項目113に記載のARディスプレイシステム。
(項目115)
写真カメラをさらに備え、
上記写真カメラは、少なくとも部分的に、上記第1のFOVおよび上記第2のFOVと重複する第3のFOVを有する、項目114に記載のARディスプレイシステム。
(項目116)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、個別の異なる第1、第2、および第3の分解能を有する、項目115に記載のARディスプレイシステム。
(項目117)
上記深度カメラの第1の分解能は、サブVGAであり、上記世界捕捉カメラの第2の分解能は、720pであり、上記写真カメラの第3の分解能は、2メガピクセルである、項目116に記載のARディスプレイシステム。
(項目118)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、個別の第1、第2、および第3の画像を捕捉するように構成される、項目115に記載のARディスプレイシステム。
(項目119)
上記コントローラは、上記第2および第3の画像をセグメント化するようにプログラムされる、項目118に記載のARディスプレイシステム。
(項目120)
上記コントローラは、上記第2および第3の画像をセグメント化した後、上記第2および第3の画像を融合し、融合された画像を生成するようにプログラムされる、項目119に記載のARディスプレイシステム。
(項目121)
上記既知の座標系内の距離を測定することは、
上記深度カメラからの第1の画像を分析することによって、仮説的距離を生成することと、
上記仮説的距離および上記融合された画像を分析することによって、上記距離を生成することと、
を含む、項目120に記載のARディスプレイシステム。
(項目122)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、単一統合センサを形成する、項目115に記載のARディスプレイシステム。
(項目123)
付加的情報を提供する付加的位置特定リソースをさらに備え、上記コントローラは、少なくとも部分的に、上記電磁センサによって測定された磁束、上記深度センサによって測定された距離、および上記付加的位置特定リソースによって提供される付加的情報に関連するパラメータに基づいて、上記ハンドヘルドコンポーネントの手の姿勢を判定する、項目105に記載のARディスプレイシステム。
(項目124)
上記付加的位置特定リソースは、WiFi送受信機を備える、項目123に記載のARディスプレイシステム。
(項目125)
上記付加的位置特定リソースは、付加的電磁エミッタを備える、項目123に記載のARディスプレイシステム。
(項目126)
上記付加的位置特定リソースは、付加的電磁センサを備える、項目123に記載のARディスプレイシステム。
(項目127)
上記付加的位置特定リソースは、ビーコンを備える、項目123に記載のARディスプレイシステム。
(項目128)
上記ビーコンは、放射を放出する、項目127に記載のARディスプレイシステム。
(項目129)
上記放射は、赤外線放射であり、上記ビーコンは、赤外線LEDを備える、項目128に記載のARディスプレイシステム。
(項目130)
上記付加的位置特定リソースは、反射体を備える、項目123に記載のARディスプレイシステム。
(項目131)
上記反射体は、放射を反射する、項目130に記載のARディスプレイシステム。
(項目132)
上記付加的位置特定リソースは、セルラーネットワーク送受信機を備える、項目123に記載のARディスプレイシステム。
(項目133)
上記付加的位置特定リソースは、RADARエミッタを備える、項目123に記載のARディスプレイシステム。
(項目134)
上記付加的位置特定リソースは、RADAR検出器を備える、項目123に記載のARディスプレイシステム。
(項目135)
上記付加的位置特定リソースは、LIDARエミッタを備える、項目123に記載のARディスプレイシステム。
(項目136)
上記付加的位置特定リソースは、LIDAR検出器を備える、項目123に記載のARディスプレイシステム。
(項目137)
上記付加的位置特定リソースは、GPS送受信機を備える、項目123に記載のARディスプレイシステム。
(項目138)
上記付加的位置特定リソースは、既知の検出可能パターンを有するポスタを備える、項目123に記載のARディスプレイシステム。
(項目139)
上記付加的位置特定リソースは、既知の検出可能パターンを有するマーカを備える、項目123に記載のARディスプレイシステム。
(項目140)
上記付加的位置特定リソースは、慣性測定ユニットを備える、項目123に記載のARディスプレイシステム。
(項目141)
上記付加的位置特定リソースは、歪みゲージを備える、項目123に記載のARディスプレイシステム。
(項目142)
上記ハンドヘルドコンポーネントは、トーテムである、項目105に記載のARディスプレイシステム。
(項目143)
上記手の姿勢は、上記既知の座標系内の上記ハンドヘルドコンポーネントの位置および配向を備える、項目105に記載のARディスプレイシステム。

Claims (143)

  1. 拡張現実(AR)ディスプレイシステムであって、
    既知の座標系内で既知の磁場を放出する電磁場エミッタと、
    電磁センサであって、前記電磁センサは、前記既知の磁場から生じる前記電磁センサにおける磁束に関連するパラメータを測定する電磁センサと、
    前記既知の座標系内の距離を測定する深度センサと、
    コントローラであって、前記コントローラは、少なくとも部分的に、前記電磁センサによって測定された磁束および前記深度センサによって測定された距離に関連するパラメータに基づいて、前記既知の座標系内の電磁場エミッタに対する前記電磁センサの姿勢情報を判定する、コントローラと、
    ディスプレイシステムであって、前記ディスプレイシステムは、少なくとも部分的に、前記電磁場エミッタに対する前記電磁センサの姿勢情報に基づいて、仮想コンテンツをユーザに表示する、ディスプレイシステムと、
    を備える、ARディスプレイシステム。
  2. 前記深度センサは、受動ステレオ深度センサである、請求項1に記載のARディスプレイシステム。
  3. 前記深度センサは、能動深度センサである、請求項1に記載のARディスプレイシステム。
  4. 前記深度センサは、テクスチャ投影ステレオ深度センサである、請求項3に記載のARディスプレイシステム。
  5. 前記深度センサは、構造化光投影ステレオ深度センサである、請求項3に記載のARディスプレイシステム。
  6. 前記深度センサは、飛行時間深度センサである、請求項3に記載のARディスプレイシステム。
  7. 前記深度センサは、LIDAR深度センサである、請求項3に記載のARディスプレイシステム。
  8. 前記深度センサは、変調放出深度センサである、請求項3に記載のARディスプレイシステム。
  9. 前記深度センサは、第1の視野(FOV)を有する深度カメラを備える、請求項1に記載のARディスプレイシステム。
  10. 世界捕捉カメラをさらに備え、
    前記世界捕捉カメラは、少なくとも部分的に、前記第1のFOVと重複する第2のFOVを有する、請求項9に記載のARディスプレイシステム。
  11. 写真カメラをさらに備え、
    前記写真カメラは、少なくとも部分的に、前記第1のFOVおよび前記第2のFOVと重複する第3のFOVを有する、請求項10に記載のARディスプレイシステム。
  12. 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、個別の異なる第1、第2、および第3の分解能を有する、請求項11に記載のARディスプレイシステム。
  13. 前記深度カメラの第1の分解能は、サブVGAであり、前記世界捕捉カメラの第2の分解能は、720pであり、前記写真カメラの第3の分解能は、2メガピクセルである、請求項12に記載のARディスプレイシステム。
  14. 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、個別の第1、第2、および第3の画像を捕捉するように構成される、請求項11に記載のARディスプレイシステム。
  15. 前記コントローラは、前記第2および第3の画像をセグメント化するようにプログラムされる、請求項14に記載のARディスプレイシステム。
  16. 前記コントローラは、前記第2および第3の画像をセグメント化した後、前記第2および第3の画像を融合し、融合された画像を生成するようにプログラムされる、請求項15に記載のARディスプレイシステム。
  17. 前記既知の座標系内の距離を測定することは、
    前記深度カメラからの第1の画像を分析することによって、仮説的距離を生成することと、
    前記仮説的距離および前記融合された画像を分析することによって、前記距離を生成することと、
    を含む、請求項16に記載のARディスプレイシステム。
  18. 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、単一統合センサを形成する、請求項11に記載のARディスプレイシステム。
  19. 付加的情報を提供する付加的位置特定リソースをさらに備え、前記既知の座標系内の電磁場エミッタに対する前記電磁センサの姿勢情報は、少なくとも部分的に、前記電磁センサによって測定された磁束、前記深度センサによって測定された距離、および前記付加的位置特定リソースによって提供される付加的情報に関連するパラメータに基づいて判定される、請求項1に記載のARディスプレイシステム。
  20. 前記付加的位置特定リソースは、WiFi送受信機を備える、請求項19に記載のARディスプレイシステム。
  21. 前記付加的位置特定リソースは、付加的電磁エミッタを備える、請求項19に記載のARディスプレイシステム。
  22. 前記付加的位置特定リソースは、付加的電磁センサを備える、請求項19に記載のARディスプレイシステム。
  23. 前記付加的位置特定リソースは、ビーコンを備える、請求項19に記載のARディスプレイシステム。
  24. 前記ビーコンは、放射を放出する、請求項23に記載のARディスプレイシステム。
  25. 前記放射は、赤外線放射であり、前記ビーコンは、赤外線LEDを備える、請求項24に記載のARディスプレイシステム。
  26. 前記付加的位置特定リソースは、反射体を備える、請求項19に記載のARディスプレイシステム。
  27. 前記反射体は、放射を反射する、請求項26に記載のARディスプレイシステム。
  28. 前記付加的位置特定リソースは、セルラーネットワーク送受信機を備える、請求項19に記載のARディスプレイシステム。
  29. 前記付加的位置特定リソースは、RADARエミッタを備える、請求項19に記載のARディスプレイシステム。
  30. 前記付加的位置特定リソースは、RADAR検出器を備える、請求項19に記載のARディスプレイシステム。
  31. 前記付加的位置特定リソースは、LIDARエミッタを備える、請求項19に記載のARディスプレイシステム。
  32. 前記付加的位置特定リソースは、LIDAR検出器を備える、請求項19に記載のARディスプレイシステム。
  33. 前記付加的位置特定リソースは、GPS送受信機を備える、請求項19に記載のARディスプレイシステム。
  34. 前記付加的位置特定リソースは、既知の検出可能パターンを有するポスタを備える、請求項19に記載のARディスプレイシステム。
  35. 前記付加的位置特定リソースは、既知の検出可能パターンを有するマーカを備える、請求項19に記載のARディスプレイシステム。
  36. 前記付加的位置特定リソースは、慣性測定ユニットを備える、請求項19に記載のARディスプレイシステム。
  37. 前記付加的位置特定リソースは、歪みゲージを備える、請求項19に記載のARディスプレイシステム。
  38. 前記電磁場エミッタは、ARディスプレイシステムのモバイルコンポーネントに結合される、請求項1に記載のARディスプレイシステム。
  39. 前記モバイルコンポーネントは、ハンドヘルドコンポーネントである、請求項38に記載のARディスプレイシステム。
  40. 前記モバイルコンポーネントは、トーテムである、請求項39に記載のARディスプレイシステム。
  41. 前記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、請求項38に記載のARディスプレイシステム。
  42. 前記モバイルコンポーネントは、胴体装着型コンポーネントである、請求項38に記載のARディスプレイシステム。
  43. 前記胴体装着型コンポーネントは、ベルトパックである、請求項42に記載のARディスプレイシステム。
  44. 前記電磁場エミッタは、前記電磁場エミッタが既知の位置および既知の配向を有するように、前記既知の座標系内のオブジェクトに結合される、請求項1に記載のARディスプレイシステム。
  45. 前記電磁センサは、ARディスプレイシステムのモバイルコンポーネントに結合される、請求項44に記載のARディスプレイシステム。
  46. 前記モバイルコンポーネントは、ハンドヘルドコンポーネントである、請求項45に記載のARディスプレイシステム。
  47. 前記モバイルコンポーネントは、トーテムである、請求項46に記載のARディスプレイシステム。
  48. 前記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、請求項45に記載のARディスプレイシステム。
  49. 前記モバイルコンポーネントは、胴体装着型コンポーネントである、請求項45に記載のARディスプレイシステム。
  50. 前記胴体装着型コンポーネントは、ベルトパックである、請求項49に記載のARディスプレイシステム。
  51. 前記姿勢情報は、前記既知の座標系内の電磁場エミッタに対する前記電磁センサの位置および配向を備える、請求項1に記載のARディスプレイシステム。
  52. 前記コントローラは、前記姿勢情報を分析し、前記既知の座標系内の前記電磁センサの位置および配向を判定する、請求項1に記載のARディスプレイシステム。
  53. 拡張現実を表示するための方法であって、前記方法は、
    電磁場エミッタを使用して、既知の座標系内で既知の磁場を放出するステップと、
    電磁センサを使用して、前記既知の磁場から生じる前記電磁センサの磁束に関連するパラメータを測定するステップと、
    深度センサを使用して、前記既知の座標系内の距離を測定するステップと、
    少なくとも部分的に、前記電磁センサを使用して測定された磁束および前記深度センサを使用して測定された距離に関連するパラメータに基づいて、前記既知の座標系内の電磁場エミッタに対する前記電磁センサの姿勢情報を判定するステップと、
    少なくとも部分的に、前記電磁場エミッタに対する前記電磁センサの姿勢情報に基づいて、仮想コンテンツをユーザに表示するステップと、
    を含む、方法。
  54. 前記深度センサは、受動ステレオ深度センサである、請求項53に記載の方法。
  55. 前記深度センサは、能動深度センサである、請求項53に記載の方法。
  56. 前記深度センサは、テクスチャ投影ステレオ深度センサである、請求項55に記載の方法。
  57. 前記深度センサは、構造化光投影ステレオ深度センサである、請求項55に記載の方法。
  58. 前記深度センサは、飛行時間深度センサである、請求項55に記載の方法。
  59. 前記深度センサは、LIDAR深度センサである、請求項55に記載の方法。
  60. 前記深度センサは、変調放出深度センサである、請求項55に記載の方法。
  61. 前記深度センサは、第1の視野(FOV)を有する深度カメラを備える、請求項53に記載の方法。
  62. 前記深度センサはさらに、世界捕捉カメラを備え、
    前記世界捕捉カメラは、少なくとも部分的に、前記第1のFOVと重複する第2のFOVを有する、請求項61に記載の方法。
  63. 前記深度センサはさらに、写真カメラを備え、
    前記写真カメラは、少なくとも部分的に、前記第1のFOVおよび前記第2のFOVと重複する第3のFOVを有する、請求項62に記載の方法。
  64. 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、個別の異なる第1、第2、および第3の分解能を有する、請求項63に記載の方法。
  65. 前記深度カメラの第1の分解能は、サブVGAであり、前記世界捕捉カメラの第2の分解能は、720pであり、前記写真カメラの第3の分解能は、2メガピクセルである、請求項64に記載の方法。
  66. 個別の深度カメラ、世界捕捉カメラ、および写真カメラを使用して、第1、第2、および第3の画像を捕捉するステップをさらに含む、請求項63に記載の方法。
  67. 前記第2および第3の画像をセグメント化するステップをさらに含む、請求項66に記載の方法。
  68. 前記第2および第3の画像をセグメント化した後、前記第2および第3の画像を融合し、融合された画像を生成するステップをさらに含む、請求項67に記載の方法。
  69. 前記既知の座標系内の距離を測定するステップは、
    前記深度カメラからの第1の画像を分析することによって、仮説的距離を生成するステップと、
    前記仮説的距離および前記融合された画像を分析することによって、前記距離を生成するステップと、
    を含む、請求項68に記載の方法。
  70. 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、単一統合センサを形成する、請求項63に記載の方法。
  71. 少なくとも部分的に、前記電磁センサを使用して測定された磁束、前記深度センサを使用して測定された距離、および付加的位置特定リソースによって提供された付加的情報に関連するパラメータに基づいて、前記既知の座標系内の電磁場エミッタに対する前記電磁センサの姿勢情報を判定するステップをさらに含む、請求項53に記載の方法。
  72. 前記付加的位置特定リソースは、WiFi送受信機を備える、請求項71に記載の方法。
  73. 前記付加的位置特定リソースは、付加的電磁エミッタを備える、請求項71に記載の方法。
  74. 前記付加的位置特定リソースは、付加的電磁センサを備える、請求項71に記載の方法。
  75. 前記付加的位置特定リソースは、ビーコンを備える、請求項71に記載の方法。
  76. 前記ビーコンが放射を放出するステップをさらに含む、請求項75に記載の方法。
  77. 前記放射は、赤外線放射であり、前記ビーコンは、赤外線LEDを備える、請求項76に記載の方法。
  78. 前記付加的位置特定リソースは、反射体を備える、請求項71に記載の方法。
  79. 前記反射体が放射を反射するステップをさらに含む、請求項78に記載の方法。
  80. 前記付加的位置特定リソースは、セルラーネットワーク送受信機を備える、請求項71に記載の方法。
  81. 前記付加的位置特定リソースは、RADARエミッタを備える、請求項71に記載の方法。
  82. 前記付加的位置特定リソースは、RADAR検出器を備える、請求項71に記載の方法。
  83. 前記付加的位置特定リソースは、LIDARエミッタを備える、請求項71に記載の方法。
  84. 前記付加的位置特定リソースは、LIDAR検出器を備える、請求項71に記載の方法。
  85. 前記付加的位置特定リソースは、GPS送受信機を備える、請求項71に記載の方法。
  86. 前記付加的位置特定リソースは、既知の検出可能パターンを有するポスタを備える、請求項71に記載の方法。
  87. 前記付加的位置特定リソースは、既知の検出可能パターンを有するマーカを備える、請求項71に記載の方法。
  88. 前記付加的位置特定リソースは、慣性測定ユニットを備える、請求項71に記載の方法。
  89. 前記付加的位置特定リソースは、歪みゲージを備える、請求項71に記載の方法。
  90. 前記電磁場エミッタは、ARディスプレイシステムのモバイルコンポーネントに結合される、請求項53に記載の方法。
  91. 前記モバイルコンポーネントは、ハンドヘルドコンポーネントである、請求項90に記載の方法。
  92. 前記モバイルコンポーネントは、トーテムである、請求項91に記載の方法。
  93. 前記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、請求項90に記載の方法。
  94. 前記モバイルコンポーネントは、胴体装着型コンポーネントである、請求項90に記載の方法。
  95. 前記胴体装着型コンポーネントは、ベルトパックである、請求項94に記載の方法。
  96. 前記電磁場エミッタは、前記電磁場エミッタが既知の位置および既知の配向を有するように、前記既知の座標系内のオブジェクトに結合される、請求項53に記載の方法。
  97. 前記電磁センサは、ARディスプレイシステムのモバイルコンポーネントに結合される、請求項96に記載の方法。
  98. 前記モバイルコンポーネントは、ハンドヘルドコンポーネントである、請求項97に記載の方法。
  99. 前記モバイルコンポーネントは、トーテムである、請求項98に記載の方法。
  100. 前記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、請求項97に記載の方法。
  101. 前記モバイルコンポーネントは、胴体装着型コンポーネントである、請求項97に記載の方法。
  102. 前記胴体装着型コンポーネントは、ベルトパックである、請求項101に記載の方法。
  103. 前記姿勢情報は、前記既知の座標系内の電磁場エミッタに対する前記電磁センサの位置および配向を備える、請求項53に記載の方法。
  104. 前記姿勢情報を分析し、前記既知の座標系内の前記電磁センサの位置および配向を判定するステップをさらに含む、請求項53に記載の方法。
  105. 拡張現実ディスプレイシステムであって、
    電磁場エミッタに結合されるハンドヘルドコンポーネントであって、前記電磁場エミッタは、磁場を放出する、ハンドヘルドコンポーネントと、
    仮想コンテンツをユーザに表示するディスプレイシステムを有する頭部搭載型コンポーネントであって、前記頭部搭載型コンポーネントは、前記磁場から生じる電磁センサにおける磁束に関連するパラメータを測定する電磁センサに結合され、既知の座標系内の前記頭部搭載型コンポーネントの頭部の姿勢は、既知である、頭部搭載型コンポーネントと、
    前記既知の座標系内の距離を測定する深度センサと、
    前記ハンドヘルドコンポーネント、前記頭部搭載型コンポーネント、および前記深度センサに通信可能に結合されるコントローラであって、前記コントローラは、前記電磁センサにおける磁束に関連するパラメータを前記頭部搭載型コンポーネントから受信し、前記距離を前記深度センサから受信する、コントローラと、
    を備え、前記コントローラは、少なくとも部分的に、前記電磁センサによって測定された磁束および前記深度センサによって測定された距離に関連するパラメータに基づいて、前記ハンドヘルドコンポーネントの手の姿勢を判定し、
    前記システムは、少なくとも部分的に、前記手の姿勢に基づいて、前記ユーザに表示される仮想コンテンツを修正する、
    拡張現実ディスプレイシステム。
  106. 前記深度センサは、受動ステレオ深度センサである、請求項105に記載のARディスプレイシステム。
  107. 前記深度センサは、能動深度センサである、請求項105に記載のARディスプレイシステム。
  108. 前記深度センサは、テクスチャ投影ステレオ深度センサである、請求項107に記載のARディスプレイシステム。
  109. 前記深度センサは、構造化光投影ステレオ深度センサである、請求項107に記載のARディスプレイシステム。
  110. 前記深度センサは、飛行時間深度センサである、請求項107に記載のARディスプレイシステム。
  111. 前記深度センサは、LIDAR深度センサである、請求項107に記載のARディスプレイシステム。
  112. 前記深度センサは、変調放出深度センサである、請求項107に記載のARディスプレイシステム。
  113. 前記深度センサは、第1の視野(FOV)を有する深度カメラを備える、請求項105に記載のARディスプレイシステム。
  114. 世界捕捉カメラをさらに備え、
    前記世界捕捉カメラは、少なくとも部分的に、前記第1のFOVと重複する第2のFOVを有する、請求項113に記載のARディスプレイシステム。
  115. 写真カメラをさらに備え、
    前記写真カメラは、少なくとも部分的に、前記第1のFOVおよび前記第2のFOVと重複する第3のFOVを有する、請求項114に記載のARディスプレイシステム。
  116. 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、個別の異なる第1、第2、および第3の分解能を有する、請求項115に記載のARディスプレイシステム。
  117. 前記深度カメラの第1の分解能は、サブVGAであり、前記世界捕捉カメラの第2の分解能は、720pであり、前記写真カメラの第3の分解能は、2メガピクセルである、請求項116に記載のARディスプレイシステム。
  118. 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、個別の第1、第2、および第3の画像を捕捉するように構成される、請求項115に記載のARディスプレイシステム。
  119. 前記コントローラは、前記第2および第3の画像をセグメント化するようにプログラムされる、請求項118に記載のARディスプレイシステム。
  120. 前記コントローラは、前記第2および第3の画像をセグメント化した後、前記第2および第3の画像を融合し、融合された画像を生成するようにプログラムされる、請求項119に記載のARディスプレイシステム。
  121. 前記既知の座標系内の距離を測定することは、
    前記深度カメラからの第1の画像を分析することによって、仮説的距離を生成することと、
    前記仮説的距離および前記融合された画像を分析することによって、前記距離を生成することと、
    を含む、請求項120に記載のARディスプレイシステム。
  122. 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、単一統合センサを形成する、請求項115に記載のARディスプレイシステム。
  123. 付加的情報を提供する付加的位置特定リソースをさらに備え、前記コントローラは、少なくとも部分的に、前記電磁センサによって測定された磁束、前記深度センサによって測定された距離、および前記付加的位置特定リソースによって提供される付加的情報に関連するパラメータに基づいて、前記ハンドヘルドコンポーネントの手の姿勢を判定する、請求項105に記載のARディスプレイシステム。
  124. 前記付加的位置特定リソースは、WiFi送受信機を備える、請求項123に記載のARディスプレイシステム。
  125. 前記付加的位置特定リソースは、付加的電磁エミッタを備える、請求項123に記載のARディスプレイシステム。
  126. 前記付加的位置特定リソースは、付加的電磁センサを備える、請求項123に記載のARディスプレイシステム。
  127. 前記付加的位置特定リソースは、ビーコンを備える、請求項123に記載のARディスプレイシステム。
  128. 前記ビーコンは、放射を放出する、請求項127に記載のARディスプレイシステム。
  129. 前記放射は、赤外線放射であり、前記ビーコンは、赤外線LEDを備える、請求項128に記載のARディスプレイシステム。
  130. 前記付加的位置特定リソースは、反射体を備える、請求項123に記載のARディスプレイシステム。
  131. 前記反射体は、放射を反射する、請求項130に記載のARディスプレイシステム。
  132. 前記付加的位置特定リソースは、セルラーネットワーク送受信機を備える、請求項123に記載のARディスプレイシステム。
  133. 前記付加的位置特定リソースは、RADARエミッタを備える、請求項123に記載のARディスプレイシステム。
  134. 前記付加的位置特定リソースは、RADAR検出器を備える、請求項123に記載のARディスプレイシステム。
  135. 前記付加的位置特定リソースは、LIDARエミッタを備える、請求項123に記載のARディスプレイシステム。
  136. 前記付加的位置特定リソースは、LIDAR検出器を備える、請求項123に記載のARディスプレイシステム。
  137. 前記付加的位置特定リソースは、GPS送受信機を備える、請求項123に記載のARディスプレイシステム。
  138. 前記付加的位置特定リソースは、既知の検出可能パターンを有するポスタを備える、請求項123に記載のARディスプレイシステム。
  139. 前記付加的位置特定リソースは、既知の検出可能パターンを有するマーカを備える、請求項123に記載のARディスプレイシステム。
  140. 前記付加的位置特定リソースは、慣性測定ユニットを備える、請求項123に記載のARディスプレイシステム。
  141. 前記付加的位置特定リソースは、歪みゲージを備える、請求項123に記載のARディスプレイシステム。
  142. 前記ハンドヘルドコンポーネントは、トーテムである、請求項105に記載のARディスプレイシステム。
  143. 前記手の姿勢は、前記既知の座標系内の前記ハンドヘルドコンポーネントの位置および配向を備える、請求項105に記載のARディスプレイシステム。
JP2018540434A 2016-02-05 2017-02-06 拡張現実のためのシステムおよび方法 Withdrawn JP2019505926A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021168082A JP7297028B2 (ja) 2016-02-05 2021-10-13 拡張現実のためのシステムおよび方法

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201662292185P 2016-02-05 2016-02-05
US62/292,185 2016-02-05
US201662298993P 2016-02-23 2016-02-23
US62/298,993 2016-02-23
US15/062,104 2016-03-05
US15/062,104 US20160259404A1 (en) 2015-03-05 2016-03-05 Systems and methods for augmented reality
PCT/US2017/016722 WO2017136833A1 (en) 2016-02-05 2017-02-06 Systems and methods for augmented reality

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021168082A Division JP7297028B2 (ja) 2016-02-05 2021-10-13 拡張現実のためのシステムおよび方法

Publications (1)

Publication Number Publication Date
JP2019505926A true JP2019505926A (ja) 2019-02-28

Family

ID=59501080

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018540434A Withdrawn JP2019505926A (ja) 2016-02-05 2017-02-06 拡張現実のためのシステムおよび方法
JP2021168082A Active JP7297028B2 (ja) 2016-02-05 2021-10-13 拡張現実のためのシステムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021168082A Active JP7297028B2 (ja) 2016-02-05 2021-10-13 拡張現実のためのシステムおよび方法

Country Status (8)

Country Link
EP (1) EP3411779A4 (ja)
JP (2) JP2019505926A (ja)
KR (1) KR20180110051A (ja)
CN (2) CN108700939B (ja)
AU (1) AU2017214748B9 (ja)
CA (1) CA3011377A1 (ja)
IL (3) IL301449B1 (ja)
WO (1) WO2017136833A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7136558B2 (ja) 2015-03-05 2022-09-13 マジック リープ, インコーポレイテッド 拡張現実のためのシステムおよび方法
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
WO2017096396A1 (en) 2015-12-04 2017-06-08 Magic Leap, Inc. Relocalization systems and methods
US10649211B2 (en) 2016-08-02 2020-05-12 Magic Leap, Inc. Fixed-distance virtual and augmented reality systems and methods
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
KR102594063B1 (ko) 2017-03-17 2023-10-24 매직 립, 인코포레이티드 컬러 가상 콘텐츠 워핑을 갖는 혼합 현실 시스템 및 이를 사용하여 가상 콘텐츠를 생성하는 방법
AU2018236457B2 (en) 2017-03-17 2021-04-29 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
IL303275B1 (en) 2017-03-17 2024-04-01 Magic Leap Inc A mixed reality system with the assembly of multi-source virtual content and a method for creating virtual content using it
CN107807738B (zh) * 2017-12-04 2023-08-15 成都思悟革科技有限公司 一种用于vr显示眼镜的头部动作捕捉系统及方法
US10558260B2 (en) * 2017-12-15 2020-02-11 Microsoft Technology Licensing, Llc Detecting the pose of an out-of-range controller
CN108269310A (zh) * 2018-03-20 2018-07-10 公安部上海消防研究所 一种交互展示系统、方法及装置
CN112513712B (zh) 2018-07-23 2023-05-09 奇跃公司 具有虚拟内容翘曲的混合现实系统和使用该系统生成虚拟内容的方法
WO2020023523A1 (en) 2018-07-23 2020-01-30 Magic Leap, Inc. Intra-field sub code timing in field sequential displays
US10957112B2 (en) * 2018-08-13 2021-03-23 Magic Leap, Inc. Cross reality system
CN112654404A (zh) 2018-09-05 2021-04-13 奇跃公司 用于增强显示系统中电磁跟踪的定向发射器/传感器
US11666203B2 (en) * 2018-10-04 2023-06-06 Biosense Webster (Israel) Ltd. Using a camera with an ENT tool
US11232635B2 (en) 2018-10-05 2022-01-25 Magic Leap, Inc. Rendering location specific virtual content in any location
WO2020092297A1 (en) * 2018-10-30 2020-05-07 Boston Scientific Scimed, Inc. Devices and methods for treatment of body lumens
US11353588B2 (en) * 2018-11-01 2022-06-07 Waymo Llc Time-of-flight sensor with structured light illuminator
US11347310B2 (en) * 2019-02-21 2022-05-31 Facebook Technologies, Llc Tracking positions of portions of a device based on detection of magnetic fields by magnetic field sensors having predetermined positions
DE102020110212A1 (de) * 2019-04-16 2020-10-22 Ascension Technology Corporation Positions- und Orientierungsbestimmung mit einer Helmholtz-Vorrichtung
CN110223686A (zh) * 2019-05-31 2019-09-10 联想(北京)有限公司 语音识别方法、语音识别装置和电子设备
EP4046401A4 (en) 2019-10-15 2023-11-01 Magic Leap, Inc. CROSS-REALLY SYSTEM WITH WIRELESS FINGERPRINTS
WO2021096931A1 (en) 2019-11-12 2021-05-20 Magic Leap, Inc. Cross reality system with localization service and shared location-based content
CN114762008A (zh) 2019-12-09 2022-07-15 奇跃公司 简化的虚拟内容编程的交叉现实系统
WO2021163300A1 (en) 2020-02-13 2021-08-19 Magic Leap, Inc. Cross reality system with map processing using multi-resolution frame descriptors
EP4103910A4 (en) 2020-02-13 2024-03-06 Magic Leap Inc CROSS-REALLY SYSTEM WITH ACCURATE COMMON MAPS
CN115398484A (zh) 2020-02-13 2022-11-25 奇跃公司 具有用于定位的地理定位信息优先级的交叉现实系统
CN111652261A (zh) * 2020-02-26 2020-09-11 南开大学 一种多模态感知融合系统
CN113539039B (zh) * 2021-09-01 2023-01-31 山东柏新医疗制品有限公司 一种男用扩张型导尿管施药操作训练装置及方法
CN114882773A (zh) * 2022-05-24 2022-08-09 华北电力大学(保定) 一种基于Augmented Reality的磁场学习系统
KR20240047186A (ko) * 2022-10-04 2024-04-12 삼성전자주식회사 증강현실 장치 및 이의 동작 방법

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2358682A1 (en) * 1992-08-14 1994-03-03 British Telecommunications Public Limited Company Position location system
WO1994004938A1 (en) * 1992-08-14 1994-03-03 British Telecommunications Public Limited Company Position location system
JP2001208529A (ja) * 2000-01-26 2001-08-03 Mixed Reality Systems Laboratory Inc 計測装置及びその制御方法並びに記憶媒体
US20010056574A1 (en) * 2000-06-26 2001-12-27 Richards Angus Duncan VTV system
US20070155589A1 (en) * 2002-12-04 2007-07-05 Philip Feldman Method and Apparatus for Operatively Controlling a Virtual Reality Scenario with an Isometric Exercise System
JP2007134785A (ja) * 2005-11-08 2007-05-31 Konica Minolta Photo Imaging Inc 頭部装着型の映像表示装置
IL195389A (en) * 2008-11-19 2013-12-31 Elbit Systems Ltd Magnetic Field Mapping System and Method
KR20090055803A (ko) * 2007-11-29 2009-06-03 광주과학기술원 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
US8926511B2 (en) * 2008-02-29 2015-01-06 Biosense Webster, Inc. Location system with virtual touch screen
US8405680B1 (en) * 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
JP6202981B2 (ja) * 2013-10-18 2017-09-27 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
EP2887311B1 (en) * 2013-12-20 2016-09-14 Thomson Licensing Method and apparatus for performing depth estimation
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US20150358539A1 (en) * 2014-06-06 2015-12-10 Jacob Catt Mobile Virtual Reality Camera, Method, And System
CN205007551U (zh) * 2015-08-19 2016-02-03 深圳游视虚拟现实技术有限公司 一种基于虚拟现实技术的人机交互系统

Also Published As

Publication number Publication date
CN108700939A (zh) 2018-10-23
EP3411779A1 (en) 2018-12-12
IL293782A (en) 2022-08-01
JP7297028B2 (ja) 2023-06-23
CA3011377A1 (en) 2017-08-10
IL260614A (en) 2018-08-30
WO2017136833A1 (en) 2017-08-10
IL293782B2 (en) 2023-08-01
IL301449A (en) 2023-05-01
CN114995647A (zh) 2022-09-02
AU2017214748A1 (en) 2018-08-02
IL301449B1 (en) 2024-02-01
IL293782B1 (en) 2023-04-01
CN108700939B (zh) 2022-07-05
AU2017214748B2 (en) 2021-05-06
AU2017214748B9 (en) 2021-05-27
EP3411779A4 (en) 2019-02-20
JP2022002144A (ja) 2022-01-06
KR20180110051A (ko) 2018-10-08

Similar Documents

Publication Publication Date Title
JP7297028B2 (ja) 拡張現実のためのシステムおよび方法
US10678324B2 (en) Systems and methods for augmented reality
JP7305690B2 (ja) 拡張現実のためのシステムおよび方法
CN109791435B (zh) 虚拟现实或增强现实显示系统中磁传感器和光学传感器的校准
JP2019522832A (ja) 拡張現実システムを用いた電磁追跡
CN116300091A (zh) 用于使用位置向量解析半球模糊度的方法和系统
US11256090B2 (en) Systems and methods for augmented reality
NZ735802A (en) Traffic diversion signalling system and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181003

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201216

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210517

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211013

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211013

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211025

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211026

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20211027