JP6994515B2 - 後方散乱レーザスペックルパターンのオプティカルフローの追跡 - Google Patents

後方散乱レーザスペックルパターンのオプティカルフローの追跡 Download PDF

Info

Publication number
JP6994515B2
JP6994515B2 JP2019557356A JP2019557356A JP6994515B2 JP 6994515 B2 JP6994515 B2 JP 6994515B2 JP 2019557356 A JP2019557356 A JP 2019557356A JP 2019557356 A JP2019557356 A JP 2019557356A JP 6994515 B2 JP6994515 B2 JP 6994515B2
Authority
JP
Japan
Prior art keywords
sensor array
augmented reality
optical sensor
speckle pattern
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019557356A
Other languages
English (en)
Other versions
JP2020517934A5 (ja
JP2020517934A (ja
Inventor
アシフ シネイ,
バラク フリードマン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2020517934A publication Critical patent/JP2020517934A/ja
Publication of JP2020517934A5 publication Critical patent/JP2020517934A5/ja
Priority to JP2021184611A priority Critical patent/JP7150966B2/ja
Application granted granted Critical
Publication of JP6994515B2 publication Critical patent/JP6994515B2/ja
Priority to JP2022155078A priority patent/JP7419471B2/ja
Priority to JP2024001688A priority patent/JP2024024099A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Position Input By Displaying (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Holo Graphy (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • User Interface Of Digital Computer (AREA)

Description

(関連出願の相互参照)
本願は、2017年4月24日に出願された米国仮特許出願第62/489,339号に基づく。
本発明は、拡張現実ヘッドギヤに関する。
近年、ユーザをコンピュータ生成仮想世界に没入させる、仮想現実デバイスが、導入されている。ある仮想現実デバイスは、ユーザの眼に近接近して設置された一対のディスプレイと、その目的が、ユーザが、ディスプレイの近接近にもかかわらず、ディスプレイ上に表示される画像上に合焦することを可能にすることである、一対のディスプレイとユーザの眼との間に介在される、補正光学系とを含む。そのような仮想現実デバイスのための主要な用途は、ゲーム用であるが、科学データ可視化等の他の用途もまた、検討される。
仮想現実に関連するが、より高度な開発中の技術は、拡張現実である。拡張現実ウェアラブル(すなわち、眼鏡形状因子を伴うヘッドギヤ)は、ユーザが、実世界と、実世界上に重畳される、仮想コンピュータ生成コンテンツとを同時に視認することを可能にするであろう。仮想コンテンツが現実であるという錯覚を改良するために、および/または仮想コンテンツおよび実世界をよりシームレスに統合するために、仮想コンテンツは、ユーザがヘッドギヤとともにその頭部を回転させる、またはその環境内を動き回るにもかかわらず、ユーザの実環境に固定される慣性基準フレーム内に存在するように現れることが望ましいであろう。したがって、例えば、仮想コンテンツが、実世界机の角上に静置する仮想本を含むことになる場合、ユーザが、本の画像を机の角上に投影させる、拡張現実ヘッドギヤとともに、その頭部を回転させても、本は、実世界内に、例えば、机の角上に固定されたままであるべきである。これを遂行するために、ユーザの頭部上に担持されるヘッドギヤの移動は、慎重に追跡され、拡張現実ヘッドギヤによって生成されている画像は、ヘッドギヤの移動の影響を相殺するために、視野内で急速に偏移される必要があるであろう。オブジェクトの配向を追跡する1つの方法は、1つ以上のジャイロスコープを使用することである。しかしながら、ジャイロスコープは、本質的に、ドリフトに悩まされ、したがって、ジャイロスコープ出力に基づいて、仮想オブジェクトを実世界内に固定する試みは、それらが実世界に対して固定位置を維持するように意図されるとき、実世界に対してゆっくりとドリフトする仮想オブジェクトにつながるであろう。
本明細書に開示されるある実施形態による、拡張現実ヘッドギヤは、少なくとも1つのレーザと、少なくとも1つの光学センサアレイとを装備する。各レーザは、部屋表面(例えば、壁、天井、または床)から部分的に反射され、関連付けられた光学センサアレイによって検出されたスペックルパターンを作成する、ビームを放出する。光学センサアレイは、例えば、デジタルカメラ内で使用され得るタイプのものであることができるが、しかしながら、本願では、2D光学センサアレイは、オブジェクトの集束された画像を捕捉するために使用される必要はなく、むしろ、それらは、部屋表面から反射されたレーザによって生成されたパターン化されたスペックルを捕捉し得る。センサアレイを横断したスペックルパターンの移動(ある場合には、適切に、「オプティカルフロー」と称される)が、部屋に固定される慣性基準フレーム内の拡張現実ヘッドギヤの移動を計算するために使用される。拡張現実の接眼レンズを使用して表示される画像は、部屋に固定される慣性基準フレーム内のその位置または速度を維持するために、計算された移動に基づいて偏移される。
本開示の一側面は、拡張現実ヘッドギヤであって、少なくとも1つの画像毎変調光源と、ユーザが実世界を見ることを可能にしながら、画像毎変調光をユーザの眼の中に結合するように構成される、少なくとも1つの透明接眼レンズと、コヒーレント光を少なくとも1つの環境表面上に投影するように、第1の方向に拡張現実ヘッドギヤから外向きに照準される、少なくとも第1のコヒーレント光源と、少なくとも1つの環境表面によって回折され、そこから反射される、光を受け取るように構成される、少なくとも第1のセンサアレイであって、光は、第1のスペックルパターンを第1のセンサアレイ上に形成する、第1のセンサアレイと、電子回路であって、該電子回路は、画像毎変調光源および第1のセンサアレイに結合され、該電子回路は、画像毎変調光源を動作させ、拡張現実ヘッドギヤを装着しているユーザによって占有される物理的空間に固定される慣性基準フレーム内に定義される座標のセットに仮想オブジェクトを表示し、第1のスペックルパターンの第1のコピーを第1の時間に受け取り、第1のスペックルパターンの第2のコピーを第2の時間に受け取り、第1のスペックルパターンの第1のコピーに対する第1のスペックルパターンの第2のコピーにおける偏移を決定し、第1のスペックルパターンの第1のコピーに対する第1のスペックルパターンの第2のコピーにおける偏移に基づいて、ユーザによって占有される物理的空間内の拡張現実ヘッドギヤの運動を決定し、拡張現実ヘッドギヤの運動に基づいて、画像毎変調光を調節し、拡張現実ヘッドギヤの運動を補償し、仮想オブジェクトを慣性基準フレーム内に定義される座標のセットに維持するように構成される。加えて、少なくとも1つの環境表面から反射された光を受け取るように構成される、第2のセンサアレイが、提供されてもよい。加えて、拡張現実はまた、コヒーレント光を少なくとも1つの環境表面上に投影するように、第2の方向に拡張現実ヘッドギヤから外向きに照準される、第2のコヒーレント光源を含んでもよい。加えて、拡張現実ヘッドギヤはまた、少なくとも1つの環境表面によって反射された第2のコヒーレント光源からの光が第1のセンサアレイに到達することを実質的に排除するように構成される、少なくとも1つの瞳絞りを含んでもよい。加えて、拡張現実ヘッドギヤはさらに、第1のコヒーレント光源および第2のコヒーレント光源の相互排他的放出立体角範囲を確立するように構成される、少なくとも1つの光学コンポーネントを含んでもよい。加えて、第1のセンサアレイは、第1の視野を有するように搭載されてもよく、第2のセンサアレイは、第2の視野を有するように搭載されてもよく、第1の視野は、第2の視野と部分的に重複してもよい。
本開示の一側面は、3つの独立軸のセットに沿った構造の平行移動運動および3つの独立軸のセットのうちの1つを中心とする構造の回転を感知および区別する方法であって、光を所定の立体角範囲にわたって放出し、構造に結合される、少なくとも1つのコヒーレント光源を提供するステップと、構造に結合される第1の2D光学センサアレイを提供するステップであって、第1の2D光学センサアレイは、第1の方向に向いている第1の法線ベクトルを有する、ステップと、構造に結合される、第2の2D光学センサアレイを提供するステップであって、第2の2D光学センサアレイは、第2の方向に向いている第2の法線ベクトルを有し、第1の法線ベクトルおよび第2の法線ベクトルは、平面を画定し、第1の法線ベクトルは、平面において第2の法線ベクトルに対して角度付けられる、ステップと、少なくとも1つのコヒーレント照明源を使用して、非鏡面環境表面を照明するステップであって、それによって、第1のスペックルパターンが、第1の2D光学センサアレイにおいて作られ、第2のスペックルパターンが、2D光学センサアレイにおいて作られる、ステップと、第1の2D光学センサアレイ上の第1のスペックルパターンの第1のオプティカルフローを感知し、第2の2D光学センサアレイ上の第2のスペックルパターンの第2のオプティカルフローを感知することによって、第1の法線ベクトルと第2の法線ベクトルとの間の平面上に非ゼロ投影を含む、3つの独立軸のセットの第1のものに沿った構造の平行移動を感知するステップであって、第1のオプティカルフローおよび第2のオプティカルフローは、第1の法線ベクトルと第2の法線ベクトルとの間の差異ベクトル上に反対方向投影を有する、ステップと、第1の2D光学センサアレイ上の第1のスペックルパターンの第3のオプティカルフローを感知し、第2の2D光学センサアレイ上の第2のスペックルパターンの第4のオプティカルフローを感知することによって、第1の法線ベクトルと第2の法線ベクトルとの間の角度範囲外の平面上に非ゼロ投影を含む、3つの独立軸のセットの第2のものに沿った構造の平行移動を感知するステップであって、第3のオプティカルフローおよび第4のオプティカルフローは、第1の法線ベクトルと第2の法線ベクトルとの間の差異ベクトル上に共通方向投影を有する、ステップと、第1の2D光学センサアレイ上の第1のスペックルパターンおよび第2の2D光学センサアレイ上の第2のスペックルパターンの同一感知垂直方向オプティカルフローを感知することによって、平面と垂直な非ゼロ成分を含む、3つの独立軸のセットの第3のものに沿った構造の平行移動を感知するステップと、第1の2D光学センサアレイ上の第1のスペックルパターンおよび第2の2D光学センサアレイ上の第2のスペックルパターンの反対垂直方向オプティカルフローを感知することによって、3つの独立軸の第1のものを中心とする構造の回転を感知するステップとを含む。
本開示の一側面は、3つの独立軸のセットに沿った構造の平行移動運動および3つの独立軸のセットを中心とする回転を感知および区別する方法を含み、該方法は、構造に結合される、第1の2D光学センサアレイを提供するステップであって、第1の2D光学センサアレイは、第1の方向に向けられている第1の面法線および第1の視野を有する、ステップと、構造に結合される、第2の2D光学センサアレイを提供するステップであって、第2の2D光学センサアレイは、第2の方向に向けられている第2の面法線および第2の視野を有する、ステップと、構造に結合される、第3の2D光学センサアレイを提供するステップであって、第3の2D光学センサアレイは、第3の方向に向けられている第3の面法線および第3の視野を有し、第1の方向、第2の方向、および第3の方向は、独立している、ステップと、光を第1の視野、第2の視野、および第3の視野の中に投影する、少なくとも1つのコヒーレント光源を提供するステップであって、表面を囲繞する非鏡面によって回折され、そこから反射された光は、第1のスペックルパターンを第1の2D光学センサアレイ上に、第2のスペックルパターンを第2の2D光学センサアレイ上に、第3のスペックルパターンを第3の2D光学センサアレイ上に形成する、ステップと、第2の2D光学センサアレイを使用することによって、第1の方向を中心とする回転を感知し、第1の方向に対する方位角である方向において第2のスペックルパターンの平行移動を感知し、第3の2D光学センサアレイを使用して、第1の方向に対する方位角である方向において第3のスペックルパターンの平行移動を感知するステップと、第2の2D光学センサアレイを使用することによって、第1の方向における平行移動を感知し、第1の方向における第2のスペックルパターンの平行移動を感知し、第3の2D光学センサアレイを使用して、第3の方向における第3のスペックルパターンの平行移動を感知するステップと、第1の2D光学センサアレイを使用することによって、第2の方向を中心とする回転を感知し、第2の方向に対する方位角である方向において第1のスペックルパターンの平行移動を感知し、第3の2D光学センサアレイを使用して、第2の方向に対する方位角である方向において第3のスペックルパターンの平行移動を感知するステップと、第1の2D光学センサアレイを使用することによって、第2の方向における平行移動を感知し、第2の方向における第1のスペックルパターンの平行移動を感知し、第3の2D光学センサアレイを使用して、第2の方向における第3のスペックルパターンの平行移動を感知するステップと、第2の2D光学センサアレイを使用することによって、第3の方向を中心とする回転を感知し、第3の方向に対する方位角である方向において第2のスペックルパターンの平行移動を感知し、第1の2D光学センサアレイを使用して、第3の方向に対する方位角である方向において第1のスペックルパターンの平行移動を感知するステップと、第1の2D光学センサアレイを使用することによって、第3の方向における平行移動を感知し、第3の方向における第1のスペックルパターンの平行移動を感知し、第2の2D光学センサアレイを使用して、第3の方向における第2のスペックルパターンの平行移動を感知するステップとを含む。
本発明は、例えば、以下を提供する。
(項目1)
拡張現実ヘッドギヤであって、
少なくとも1つの画像毎変調光源と、
少なくとも1つの透明接眼レンズであって、前記少なくとも1つの透明接眼レンズは、ユーザが実世界を見ることを可能にしながら、画像毎変調光をユーザの眼の中に結合するように構成される、少なくとも1つの透明接眼レンズと、
少なくとも第1のコヒーレント光源であって、前記少なくとも第1のコヒーレント光源は、コヒーレント光を少なくとも1つの環境表面上に投影するように、第1の方向に前記拡張現実ヘッドギヤから外向きに照準される、少なくとも第1のコヒーレント光源と、
前記少なくとも1つの環境表面から反射された光を受け取るように構成される少なくとも第1のセンサアレイであって、前記光は、第1のスペックルパターンを前記第1のセンサアレイ上に形成する、第1のセンサアレイと、
前記画像毎変調光源および前記第1のセンサアレイに結合された電子回路であって、前記電子回路は、
前記画像毎変調光源を動作させ、前記拡張現実ヘッドギヤを装着しているユーザによって占有される物理的空間に固定される慣性基準フレーム内に定義される座標のセットに仮想オブジェクトを表示することと、
前記第1のスペックルパターンの第1のコピーを第1の時間に受け取ることと、
前記第1のスペックルパターンの第2のコピーを第2の時間に受け取ることと、
前記第1のスペックルパターンの第1のコピーに対する前記第1のスペックルパターンの第2のコピーにおける偏移を決定することと、
前記第1のスペックルパターンの第1のコピーに対する前記第1のスペックルパターンの第2のコピーにおける偏移に基づいて、ユーザによって占有される前記物理的空間内の前記拡張現実ヘッドギヤの運動を決定することと
を行うように構成される、電子回路と
を備える、拡張現実ヘッドギヤ。
(項目2)
前記電子回路はさらに、
前記拡張現実ヘッドギヤの運動に基づいて、前記画像毎変調光を調節し、前記拡張現実ヘッドギヤの運動を補償し、前記仮想オブジェクトを前記慣性基準フレーム内に定義される前記座標のセットに維持すること
を行うように構成される、項目1に記載の拡張現実ヘッドギヤ。
(項目3)
前記少なくとも1つの環境表面からの光を受け取るように構成される第2のセンサアレイをさらに備える、項目1に記載の拡張現実ヘッドギヤ。
(項目4)
コヒーレント光を前記少なくとも1つの環境表面上に投影するように、第2の方向に前記拡張現実ヘッドギヤから外向きに照準される第2のコヒーレント光源をさらに備える、項目3に記載の拡張現実ヘッドギヤ。
(項目5)
前記少なくとも1つの環境表面によって反射された前記第2のコヒーレント光源からの光が前記第1のセンサアレイに到達することを実質的に排除するように構成される少なくとも1つの開口絞りをさらに備える、項目4に記載の拡張現実ヘッドギヤ。
(項目6)
前記第1のコヒーレント光源および前記第2のコヒーレント光源の相互排他的放出立体角範囲を確立するように構成される少なくとも1つの光学コンポーネントをさらに備える、項目4に記載の拡張現実ヘッドギヤ。
(項目7)
3つの独立軸のセットに沿った構造の平行移動運動および前記3つの独立軸のセットのうちの1つを中心とする前記構造の回転を感知および区別する方法であって、前記方法は、
光を所定の立体角範囲にわたって放出し、前記構造に結合される、少なくとも1つのコヒーレント光源を提供することと、
前記構造に結合される第1の2D光学センサアレイを提供することであって、前記第1の2D光学センサアレイは、第1の方向に向いている第1の法線ベクトルを有する、ことと、
前記構造に結合される第2の2D光学センサアレイを提供することであって、前記第2の2D光学センサアレイは、第2の方向に向いている第2の法線ベクトルを有し、前記第1の法線ベクトルおよび前記第2の法線ベクトルは、平面を画定し、前記第1の法線ベクトルは、前記平面において前記第2の法線ベクトルに対して角度付けられる、ことと、
少なくとも1つのコヒーレント照明源を使用して、非鏡面環境表面を照明することであって、それによって、第1のスペックルパターンが、前記第1の2D光学センサアレイにおいて作られ、第2のスペックルパターンが、前記2D光学センサアレイにおいて作られる、ことと、
前記第1の2D光学センサアレイ上の前記第1のスペックルパターンの第1のオプティカルフローを感知し、前記第2の2D光学センサアレイ上の第2のスペックルパターンの第2のオプティカルフローを感知することによって、前記第1の法線ベクトルと前記第2の法線ベクトルとの間の平面上に非ゼロ投影を含む前記3つの独立軸のセットの第1のものに沿った前記構造の平行移動を感知することであって、前記第1のオプティカルフローおよび前記第2のオプティカルフローは、前記第1の法線ベクトルと前記第2の法線ベクトルとの間の差異ベクトル上に反対方向投影を有する、ことと、
前記第1の2D光学センサアレイ上の前記第1のスペックルパターンの第3のオプティカルフローを感知し、前記第2の2D光学センサアレイ上の前記第2のスペックルパターンの第4のオプティカルフローを感知することによって、前記第1の法線ベクトルと前記第2の法線ベクトルとの間の角度範囲外の平面上に非ゼロ投影を含む前記3つの独立軸のセットの第2のものに沿った前記構造の平行移動を感知することであって、前記第3のオプティカルフローおよび前記第4のオプティカルフローは、前記第1の法線ベクトルと前記第2の法線ベクトルとの間の差異ベクトル上に共通方向投影を有する、ことと、
前記第1の2D光学センサアレイ上の前記第1のスペックルパターンおよび前記第2の2D光学センサアレイ上の前記第2のスペックルパターンの同一感知垂直方向オプティカルフローを感知することによって、前記平面と垂直な非ゼロ成分を含む前記3つの独立軸のセットの第3のものに沿った前記構造の平行移動を感知することと、
前記第1の2D光学センサアレイ上の前記第1のスペックルパターンおよび前記第2の2D光学センサアレイ上の前記第2のスペックルパターンの反対垂直方向オプティカルフローを感知することによって、前記3つの独立軸の第1のものを中心とする前記構造の回転を感知することと
を含む、方法。
(項目8)
3つの独立軸のセットに沿った構造の平行移動運動および前記3つの独立軸のセットを中心とする回転を感知および区別する方法であって、前記方法は、
前記構造に結合される第1の2D光学センサアレイを提供することであって、前記第1の2D光学センサアレイは、第1の方向に向けられている第1の面法線および第1の視野を有する、ことと、
前記構造に結合される第2の2D光学センサアレイを提供することであって、前記第2の2D光学センサアレイは、第2の方向に向けられている第2の面法線および第2の視野を有する、ことと、
前記構造に結合される第3の2D光学センサアレイを提供することであって、前記第3の2D光学センサアレイは、第3の方向に向けられている第3の面法線および第3の視野を有し、
前記第1の方向、前記第2の方向、および前記第3の方向は、独立している、ことと、
光を前記第1の視野、前記第2の視野、および前記第3の視野の中に投影する少なくとも1つのコヒーレント光源を提供することであって、表面を囲繞する非鏡面から反射された光は、第1のスペックルパターンを前記第1の2D光学センサアレイ上に、第2のスペックルパターンを前記第2の2D光学センサアレイ上に、第3のスペックルパターンを前記第3の2D光学センサアレイ上に形成する、ことと、
前記第2の2D光学センサアレイを使用することによって、前記第1の方向を中心とする回転を感知し、前記第1の方向に対する方位角である方向において前記第2のスペックルパターンの平行移動を感知し、前記第3の2D光学センサアレイを使用して、前記第1の方向に対する方位角である方向において前記第3のスペックルパターンの平行移動を感知することと、
前記第2の2D光学センサアレイを使用することによって、前記第1の方向における平行移動を感知し、前記第1の方向における前記第2のスペックルパターンの平行移動を感知し、前記第3の2D光学センサアレイを使用して、前記第1の方向における前記第3のスペックルパターンの平行移動を感知することと、
前記第1の2D光学センサアレイを使用することによって、前記第2の方向を中心とする回転を感知し、前記第2の方向に対する方位角である方向において前記第1のスペックルパターンの平行移動を感知し、前記第3の2D光学センサアレイを使用して、前記第2の方向に対する方位角である方向において前記第3のスペックルパターンの平行移動を感知することと、
前記第1の2D光学センサアレイを使用することによって、前記第2の方向における平行移動を感知し、前記第2の方向における前記第1のスペックルパターンの平行移動を感知し、前記第3の2D光学センサアレイを使用して、前記第2の方向における前記第3のスペックルパターンの平行移動を感知することと、
前記第2の2D光学センサアレイを使用することによって、前記第3の方向を中心とする回転を感知し、前記第3の方向に対する方位角である方向において前記第2のスペックルパターンの平行移動を感知し、前記第1の2D光学センサアレイを使用して、前記第3の方向に対する方位角である方向において前記第1のスペックルパターンの平行移動を感知することと、
前記第1の2D光学センサアレイを使用することによって、前記第3の方向における平行移動を感知し、前記第3の方向における前記第1のスペックルパターンの平行移動を感知し、前記第2の2D光学センサアレイを使用して、前記第3の方向における前記第2のスペックルパターンの平行移動を感知することと
を含む、方法。
図面は、本発明の好ましい実施形態の設計および有用性を図示し、類似要素は、共通参照番号によって参照される。本発明の上記および他の利点および目的が得られる方法をより深く理解するために、上記に説明される本発明のより具体的な説明が、付随の図面に図示される、その具体的実施形態を参照することによって与えられるであろう。これらの図面は、本発明の典型的実施形態のみを描写し、その範囲の限定として見なされないことを理解した上で、本発明は、付随の図面の使用を通して付加的具体性および詳細とともに記載および説明されるであろう。
図1は、本明細書に開示されるある実施形態による、拡張現実ヘッドギヤを装着しているユーザの頭部の正面図である。
図2は、図1に示される拡張現実ヘッドギヤ内に含まれる運動検出システムの概略図である。
図3は、ある実施形態による、図2に示される運動検出システムの一部の概略図であって、2つのコヒーレント光源間の光学隔離を図示する。
図4a-4fは、平行移動ステップのシーケンスに対応する、スペックルパターンのシーケンスを示す。 図4a-4fは、平行移動ステップのシーケンスに対応する、スペックルパターンのシーケンスを示す。 図4a-4fは、平行移動ステップのシーケンスに対応する、スペックルパターンのシーケンスを示す。
図5は、代替実施形態による、拡張現実ヘッドギヤ内に含まれる運動検出システムの概略図である。
図6は、別の実施形態による、眼鏡形状因子を伴う拡張現実ヘッドギヤの斜視図である。
図7は、図6に示される拡張現実ヘッドギヤ内に含まれる運動検出システムの概略図である。
図8は、ある実施形態による、図1および図6に示される拡張現実ヘッドギヤに適用可能である、拡張現実ヘッドギヤのブロック図である。
図9は、ある実施形態による、図1に示される拡張現実ヘッドギヤを動作させる方法フローチャートである。
図10は、ある実施形態による、拡張現実ヘッドギヤの使用の実施例の略図である。
図1は、ある実施形態による、拡張現実ヘッドギヤ104を装着しているユーザの頭部102の正面図である。拡張現実ヘッドギヤ104は、眼鏡形状因子を有し、ヘッドギヤ104のレンズ(接眼レンズ)の形態をとる、左(ユーザの左)接眼レンズ108および右接眼レンズ110が搭載される、フレーム106を含む。接眼レンズ108、110は、ユーザの眼に向かう光の再指向を制御する、表面レリーフ反射および透過性回折格子を含むことができる、またはバルク型接眼レンズ108、110に内蔵される、傾斜された部分反射ミラーを含むことができる。例えば、各接眼レンズ108、110は、内部結合格子(ICG)を含むことができ、これは、画像毎変調光を受け取り、画像毎変調光を各接眼レンズ内の全内部反射(TIR)のための臨界角を上回る角度に回折する。ICGに加え、各接眼レンズはさらに、直交瞳拡張格子(OPE)を含むことができ、これは、ICGによってOPEに指向される光を射出瞳エクスパンダ(EPE)の方に向かって漸次的に偏向させ、これは、光をユーザの眼位置に向かって外に漸次的に偏向させる。代替として、接眼レンズ108、110は、光をユーザの眼に再指向する、部分反射正面表面コーティングを含むことができる。後者の場合、接眼レンズは、平面である必要はないが、有限屈折力を有する、湾曲正面および背面(眼の近傍の)表面を含むことができる。再び図1を参照すると、画像毎変調左光源112は、左接眼レンズ108に光学的に結合され、画像毎変調右光源114は、右接眼レンズ110に光学的に結合される。画像毎変調光源112、114は、例えば、シリコン上液晶(LCoS)画像プロジェクタ、ファイバスキャナ、または発光型(例えば、マイクロ発光ダイオードマイクロ有機発光ダイオード)ディスプレイパネルを含むことができる。接眼レンズ108、110は、画像毎変調光をユーザの眼に光学的に結合する役割を果たす。接眼レンズ108、110はまた、透明であって、それによって、ユーザが、実世界を視認することを可能にする。画像毎変調光源112、114および接眼レンズ108、110は、画像を表示するために使用され、これは、本コンテキストでは、「仮想コンテンツ」と称される。仮想コンテンツは、接眼レンズ108、110を通して可視である、実世界を拡張させる。左接眼レンズ108は、画像毎変調左光源112と組み合わせて、左ディスプレイをともに形成し、右接眼レンズ110は、画像毎変調右光源114と組み合わせて、右ディスプレイを形成する。
多くの用途に関して、ユーザが、環境を動き回り、異なる方向を見るために、その頭部102を方向転換させるにつれて、拡張現実ヘッドギヤ104がユーザとともに移動および回転されるという事実にもかかわらず、仮想コンテンツを拡張現実ヘッドギヤのユーザが位置する環境(例えば、部屋)に固定される慣性基準フレーム内に位置付けさせる、またはその中で移動させる(例えば、歩行中の仮想人物)ことが望ましい。後者の目的を達成するために、接眼レンズ108、110を介して表示される画像および画像毎変調光源112、114は、ユーザの運動を補償するために偏移されなければならない。正しい偏移を決定することは、ユーザの運動(平行移動および回転)を慎重に追跡することを要求する。この目的を達成するために、拡張現実ヘッドギヤ104は、上向きに向いているレーザ(コヒーレント照明源)116と、側方に向いているレーザ118と、正面に向いているレーザ120を装備し、その全ては、フレーム106に機械的に結合される。レーザ116、118、120の向いている方向はまた、前述の方向に対して改変されることができるが、これは、単に、好適な方向の単純実施例である。上向きを向いた2D光学センサアレイ122、側方を向いた2D光学センサアレイ124、および正面を向いた2D光学センサアレイ126もまた、提供され、フレーム106に機械的に結合される。2D光学センサアレイ122、124、126は、例えば、相補的金属酸化物半導体(CMOS)ピクセルアレイまたは電荷結合素子(CCD)ピクセルアレイを備えることができる。上向きに向いているレーザ116によって放出される光は、角度的に、上向きを向いた2D光学センサアレイ122の視野内にあって、側方に向いているレーザ118によって放出される光は、角度的に、側方を向いた2D光学センサアレイ124の視野内にあって、正面に向いているレーザ120によって放出される光は、角度的に、正面を向いた2D光学センサアレイ126の視野内にある。各レーザ116、118、120からの光は、光が放出レーザおよび関連付けられた2D光学センサアレイ122、124、126から離れるように伝搬する範囲まで、角度的に、2D光学センサアレイ122、124、126のうちの特定の1つの視野内にあるが、それが衝突する表面、例えば、壁、天井、または家具によって後方散乱されない限り、任意の有意な程度まで、関連付けられた2D光学センサアレイ122、124、126によって検出されないであろう。窓および鏡を除き、そのような表面は、概して、後方散乱された光が、散乱表面と2D光学センサアレイ122、124、126との間の空間を充填するスペックルパターンの形態をとるであろうように、拡散性である。スペックルパターンは、この場合、小規模表面粗度の回折パターンである。スペックルパターンは、2D光学センサアレイ122、124、126によって検出される。さらに、ユーザが拡張現実ヘッドギヤ104とともにその頭部102を移動させるにつれて、2D光学センサアレイ122、124、126は、スペックルパターンを充填する空間を通して移動し、そのような移動は、連続時間において2D光学センサアレイ122、124、126から読み取ることによって検出可能である。レーザ116、118、120は、2D光学センサアレイ122、124、126とともに移動するため、2D光学センサアレイを横断したスペックルパターンの検出された移動は、2D光学センサアレイ122、124、126の物理的移動の2倍となるであろう。剛体力学の場合、3つの平行移動自由度(例えば、デカルトX、Y、Z軸に沿った平行移動)と、3つの回転自由度(例えば、ヨー、ピッチ、およびロール)とが存在する。便宜上、代替として、変数Rx、Ry、Rzを使用して、X、Y、およびZ軸を中心とする回転が、参照され得る。
図2は、図1に示される拡張現実ヘッドギヤ内に含まれる、運動検出システム200の概略図である。運動検出システム200は、上向きに向いているレーザ116と、側方に向いているレーザ118と、正面に向いているレーザ120と、上向きを向いた2D光学センサアレイ122と、側方を向いた2D光学センサアレイ124と、正面を向いた2D光学センサアレイ126とを含む。前述のコンポーネントは、Z(上向き)、Y(側方、ユーザの左)、およびX(正面)軸を含む、3Dデカルト座標系202に対して配向されて示される。上向き(+Z)を向いたレーザ116からのコヒーレント光は、天井表面204上に入射し、これは、非鏡面であって、ある程度の小規模表面粗度を含み、これは、スペックルパターンを形成するコヒーレント光を回折し、上向き(+Z)を向いた2D光学センサアレイ122上に衝突させる。同様に、側方(+Y)を向いたレーザ118からのコヒーレント光は、壁の側方を向いたパッチ206上に入射し、これは、スペックルパターンを形成する光を側方(+Y)を向いた2D光学センサアレイ124上に散乱させる。同様に、正面(+X)を向いたレーザ120からのコヒーレント光は、壁の後ろ向きを向いたパッチ208上に入射し、これは、スペックルパターンを形成する光を正面(+X)を向いた2D光学センサアレイ126上に散乱させる。図2では、X、Y、およびZ軸を中心とする回転は、表記Rx、Ry、Rzによって示される。特定のデカルト軸(X、Y、またはZ)に沿った拡張現実ヘッドギヤ104の平行移動運動の成分は、成分と平行なスペックル偏移を平行移動運動の成分と異なる方向を向いた2つの2D光学センサアレイ122、124、および/または126上に生じさせる。したがって、例えば、+X方向における平行移動成分は、スペックルパターンの+X方向平行移動を上向き(+Z)を向いた2D光学センサアレイ122および側方(+Y)を向いた2D光学センサアレイ124上に生じさせる。スペックルパターンの誘発される平行移動は、ヘッドギヤ104の物理的平行移動の2倍と等しい。各2D光学センサアレイ122、124、126は、2Dセンサアレイ122、124、126によって感知されているレーザスポットが、連続フレーム間のスポットのサイズ(すなわち、半値全幅、FWHM)のある割合である距離を移動するように、十分に高いフレームレートで動作される。
図2における略図に示されるように、2D光学センサアレイ122、124、126は、デカルト座標系原点から変位される。拡張現実ヘッドギヤ104では、2D光学センサアレイは、ユーザの頸部の背後の近傍に位置する、頭部移動に関する事実上の回転中心から変位される。X、Y、およびZ軸を中心とする回転は、2D光学センサアレイ122、124、126上で作られたスペックルパターンの偏移を感知することによって感知される。所与の軸(X、YまたはZ)を中心とする回転の成分は、所与の軸と平行方向を向いた2D光学センサアレイ122、124または126以外の2D光学センサアレイ122、124、または126上の所与の軸に対する方位角である、スペックル偏移を誘発するであろう。(本目的のために、正のデカルト軸を中心とする回転の正の向きは、右手の法則を使用して定義される。)したがって、例えば、-X方向は、側方(+Y)を向いた2D光学センサアレイ124上のZ-軸に対する方位角であって、+Y方向もまた、正面(+X)を向いた2D光学センサアレイ126上のZ-軸に対する方位角である。故に、Z-軸を中心とした正のRz回転成分は、X方向スペックル偏移を側方(+Y)を向いた2D光学センサアレイ124上に誘発し、-Y方向スペックル偏移を正面(+X)を向いた2D光学センサアレイ126上に誘発するであろう。
下記の行列方程式EQU.1は、デカルトX、Y、およびZ軸に沿ったインクリメント平行移動およびデカルトX、Y、およびZ軸を中心とするインクリメント回転を2D光学センサアレイ122、124、126上のスペックルパターンの偏移と関連させる。
Figure 0006994515000001
EQU.1の左側の係数行列内の非ゼロ係数は、3つの添字を有する。第1の添字は、X、Y、Z平行移動およびX、Y、およびZ軸を中心とするRx、Ry、Rz回転間の拡張現実ヘッドギヤ104の運動上の6自由度のうちの1つを識別する。第2の添字は、2D光学センサアレイ122、124、126の正面(光を受け取る)表面に対して法線ベクトルの方向と等しい、それが向く方向(X、Y、またはZ)によって、2D光学センサアレイ122、124、126のうちの1つを識別する。第3の添字は、第2の添字によって識別される、特定の2D光学センサアレイ122、124、126上のスペックル偏移の方向(X、Y、またはZ)を識別する。平行移動自由度に関する、係数行列内の最初の3列内の非ゼロ係数は、2の値を有する。平行移動行列の第3から第6の列内の非ゼロ係数は、2/Rsensorの値を有し、Rsensorは、第2の添字によって識別される2D光学センサアレイ122、124、または126とユーザが拡張現実ヘッドギヤ104を装着しているときの事実上の回転中心(例えば、ユーザの頸部の背後)との間の距離である。
EQU.1の左側の列ベクトルは、最初の3つの要素としてのインクリメント平行移動Δx、Δy、Δzと、最後の3つの要素としてのX、Y、およびZ軸を中心とするインクリメント回転ΔRx、ΔRy、ΔRzとを含む。EQU.1の右側の列ベクトルの各要素は、2D光学センサアレイ122、124、126のうちの1つ上のスペックル偏移である。各スペックル偏移要素は、添字および上付き文字Sによって示される。添字は、その法線ベクトルが配向される方向(それが向く方向)によって、2D光学センサアレイ122、124、126のうちの1つを識別する。上付き文字は、2D光学センサアレイ122、124、126上のスペックル偏移の方向を識別する。例証として、係数行列Cの第1の行は、y方向における平行移動(Cy,x,yによって示されるように)およびZ軸を中心とする回転(CRz,x,yによって示されるように)の両方が、y方向(z軸に対する方位角)スペックル偏移を正面(+X)方向を向いた2D光学センサアレイ126)上に生じさせるであろうことを示す。係数行列は、容易に反転可能であって、下記に与えられる行列方程式EQU.2につながる。
Figure 0006994515000002
式中、 -1 は、EQU.1内の行列の反転である。EQU.2は、EQU.2の左側に現れるスペックル偏移のベクトルに基づいて拡張現実ヘッドギヤ104のインクリメント平行移動および回転を決定するために使用される。インクリメントスペックル偏移は、2つの連続時間において2D光学センサアレイ122、124、126上に形成されるスペックルパターンを読み取り、2つの連続時間におけるスペックルパターンの相対的偏移を決定することによって取得されることができる。Farneback方法または正規化された相互相関等のオプティカルフロー追跡方法が、スペックルパターンの相対的偏移を決定するために使用されてもよい。決定されたインクリメント平行移動および回転に基づいて、画像毎変調光源112、114および接眼レンズ108、110を介して出力されている仮想コンテンツは、拡張現実ヘッドギヤ104が使用されている環境に固定される慣性座標系内の位置および/または運動を維持するように調節される。2D光学センサアレイ122、124、126は、レーザ116、118、120の向いている角度のフレーム毎変化が、レーザ116、118、120のFWHMビーム発散(図3の拡散器310、312の効果を含む)のある割合であるように、拡張現実ヘッドギヤの最大予期レートと比較して、十分に高レートで読み取られる。故に、2D光学センサアレイ122、124、126によって感知されるスペックルパターンのフレーム毎変化は、主に、偏移(オプティカルフロー)となる。加えて、レーザ116、118、120は、2D光学センサアレイ122、124、126のフレームレートと等しいパルスレートおよび2D光学センサアレイ122、124、126のフレーム周期(1/フレームレート)より実質的に短いパルス幅における、パルスモードで動作されることができる。そのような短レーザパルス幅を使用することは、スペックルパターンの運動誘発ぼけを回避することに役立つであろう。
図3は、ある実施形態による、図2に示される運動検出システムの一部の概略図であって、2つのコヒーレント光源間の光学隔離を図示する。図3に示される図は、側方に向いているレーザ118と、正面に向いているレーザ120とを含む。示されるように、側方に向いているレーザ118は、第1のコリメートレンズ304に光学的に結合される、第1のレーザダイオード302を含み、同様に、正面に向いているレーザ120は、第2のコリメートレンズ308に光学的に結合される、第2のレーザダイオード306を含む。コリメートレンズ304、308は、側方に向いているレーザ118および正面に向いているレーザ120のカバレッジ(放出)の相互に排他的な立体角範囲を確立する。第1のコリメートレンズ304は、側方に伝搬光ビームを形成し、第2のコリメートレンズ308は、正面に伝搬する光ビームを形成する。代替として、コリメートレンズの代わりに、制御された発散ビームを形成する、レンズが、使用されてもよい。さらに、ある半径方向(例えば、平坦上部)または非軸対称ビームプロファイルを確立する、ビーム成形レンズが、コリメートレンズの代わりに使用されてもよい。第1の低角度拡散器310は、第1のコリメートレンズ304の正面に位置付けられ、第2の低角度拡散器312は、第2のコリメートレンズ308の正面に位置付けられる。低角度拡散器310、312は、コリメートレンズ304、308によって形成される光ビームの輝度を低減させ、眼の安全性のために有用である。レーザダイオード302、306は、赤外線を放出してもよく、その場合、ユーザは、放出される光を見ることが不可能となるであろうことに留意されたい。低角度拡散器310、312は、非限定的実施例として、拡散FWHM2°~20°によって特徴付けられることができる。側方を向いた2D光学センサアレイ124および正面を向いた2D光学センサアレイ126もまた、図3に示される。側方を向いた瞳絞り314は、側方を向いた2D光学センサアレイ124の正面に位置付けられ、側方を向いた2D光学センサアレイ124の視野を限定する役割を果たす。同様に、正面を向いた瞳絞り316は、正面を向いた2D光学センサアレイ126の正面に位置付けられ、正面を向いた2D光学センサアレイ126の視野を限定する役割を果たす。側方を向いた瞳絞り314は、第1の低角度拡散器310によって拡張されるような側方に向いているレーザ118の放出の立体角範囲に実質的に重複し、第2の低角度拡散器312によって拡張されるような正面に向いているレーザ120の立体角範囲放出を実質的に排除する、側方を向いた2D光学センサアレイ124の視野を確立する。同様に、正面を向いた瞳絞り316は、第2の低角度拡散器312によって拡張されるような正面に向いているレーザ120の放出の立体角範囲に実質的に重複し、第1の低角度拡散器310によって拡張されるような側方に向いているレーザ118の放出の立体角範囲を実質的に排除する、正面を向いた2D光学センサアレイ126の視野を確立する。したがって、各2D光学センサアレイは、その関連付けられたレーザによって放出される光によって作られた単一スペックルパターンのみを受け取るであろう。瞳絞り314、316の別の目的は、各2D光学センサアレイ124、126上に入射するスペックルパターン内のスペックルのサイズを拡大することである。スペックルパターン内のスペックルの特性サイズは、2Dセンサアレイ124、126を構成する個々のセンサ要素(ピクセル)のサイズと等しいまたはより大きくなるはずである。図3には図示されないが、上向きに向いているレーザ116は、側方に向いているレーザ118および正面に向いているレーザ120のために、図3に示されるものと同一内部設計を有し、また、低角度拡散器を装備することができ、上向きを向いた2D光学センサアレイ122もまた、瞳絞りを装備することができる。
代替実施形態によると、センサアレイ122、124、126は、それらが関連付けられるもの以外のレーザ116、118、120の放出からスペクトル的に隔離される。一実装では、上向きに向いているレーザ116は、第1のピーク波長を有する、第1のスペクトルラインを放出し、側方に向いているレーザ118は、第2のピーク波長を有する、第2のスペクトルラインを放出し、正面に向いているレーザ120は、第3のピーク波長を有する、第3のスペクトルラインを放出する。第1のスペクトルラインを透過させるが、第2のスペクトルラインまたは第3のスペクトルラインを透過させない、第1のスペクトル的選択的フィルタが、上向きを向いた2D光学センサアレイ122にわたって位置付けられ、第2のスペクトルラインを透過させるが、第1のスペクトルラインまたは第3のスペクトルラインを透過させない、第2のスペクトル的選択的フィルタが、側方を向いた2D光学センサアレイ124にわたって位置付けられ、第3のスペクトルラインを透過させるが、第1のスペクトルラインまたは第2のスペクトルラインを透過させない、第3のスペクトル的選択的フィルタが、正面を向いた2D光学センサアレイ126にわたって位置付けられる。
図4aは、図1-3に示されるシステム内の運動を追跡するために使用され得る、スペックルパターン400の初期画像である。図4b-4fは、平行移動インクリメントのシーケンス後の図4aに示されるスペックルパターン400の画像408、410、412、414、416のシーケンスを示す。スペックルパターン400内の初期の勝手な位置402が、垂直ライン404および水平ライン406とともにマークされる。限定ではないが、上記で述べられたもの等のオプティカルフロー追跡方法が、スペックルパターンの移動を追跡するために使用されることができる。スペックルパターンの平行移動距離は、運動検出システム200を含む、物理的平行移動拡張現実ヘッドギヤ104の2倍に等しい。勝手に選択された位置402の場所は、連続図4b-4fのそれぞれに示される。
図5は、代替実施形態による、拡張現実ヘッドギヤ104内に含まれる、運動検出システム500の概略図である。システム300は、第1の方向に向くように配向される、第1のレーザ506と、第2の方向に向くように配向される、第2のレーザ508と、第3の方向に向くように配向される、第3のレーザとを含む。システム300はまた、第1の方向を向いた第1の2D光学センサアレイと、第2の方向を向いた第2の2D光学センサアレイと、第3の方向を向いた第3の2D光学センサアレイとを含む。図3に示される運動検出システム300の場合、レーザ116、118、120は、3つの直交方向のセットに向き、2D光学センサアレイ122、124、126は、同一の3つの直交方向のセットに向くように配向されるのに対し、図5に示される運動検出システム500の場合、第1、第2、および第3の方向は、直交しない。
図6は、別の実施形態による、眼鏡形状因子を伴う拡張現実ヘッドギヤ600の斜視図であって、図7は、拡張現実ヘッドギヤ600内に含まれる、運動検出システム700の略図である。拡張現実ヘッドギヤ600は、左(ユーザの左)透明接眼レンズ604と、右透明接眼レンズ606とを支持する、フレーム602を含む。左透明接眼レンズ604は、左ICG604Aと、左OPE604Bと、左EPE604Cとを含み、同様に、右透明接眼レンズ606は、右ICG606Aと、右OPE606Bと、右EPE606Cとを含む。接眼レンズ604、606はそれぞれ、代替として、複数の導波管を含み、複数の色チャネルをハンドリングする、および/または画像を異なる波面曲率(異なる仮想画像距離に対応する)に出力することができる。画像毎変調左光源608は、左透明接眼レンズ604に光学的に結合され、画像毎変調右光源610は、右透明接眼レンズ606に光学的に結合される。透明接眼レンズ604、606は、画像毎変調光をユーザの眼に光学的に結合する役割を果たす。
拡張現実ヘッドギヤ600はさらに、右レーザ611と、左レーザ612と、左2D光学センサアレイ614と、右2D光学センサアレイ616とを装備する。前方方向は、図6に示されるデカルト座標系の3軸のうちの+X軸に対応する。左レーザ612および左2D光学センサアレイ614は、前方方向に対して方位角的に左に傾斜された方向に向き(垂直に配向されるZ軸を中心として回転する)、右レーザ611および右2D光学センサアレイ616は、前方方向に対して方位角的に右に傾斜された方向に向く。左レーザ612および左光学センサ614が向く方向は、左光学センサ614の受光表面に対して垂直の左法線ベクトルNによって定義され、右レーザ611および右光学センサ616が向く方向は、右光学センサ616の受光表面に対して垂直の右法線ベクトルNによって定義される。代替として、各レーザおよび関連付けられたセンサが向く方向間には、差異が存在し得る。左法線ベクトルNと右法線ベクトルNとの間の差異ベクトルDは、図7に示される。左2D光学センサアレイ614および右2D光学センサアレイ616は、別個の視野を有する。左2D光学センサアレイ614の視野は、少なくとも、左レーザ612の放出の範囲の実質的部分を含み、右2D光学センサアレイ616の視野は、少なくとも、右レーザ611の放出の立体範囲の実質的部分を含む。左および右2D光学センサアレイ614、616の視野は、瞳絞りまたは他の視野限定光学コンポーネント(図6には図示せず)によって限定され得る。例えば、左2D光学センサアレイ614の視野は、放出右レーザ611の角度範囲を排除するように限定され得、その逆も同様である。
随意に、左2D光学センサアレイ614は、左結像レンズ618を装備することができ、右2D光学センサアレイ616は、右結像レンズ620を装備することができる。結像レンズ618、620は、それぞれ、結像レンズ618、620の正面の空間内に位置付けられる、左焦点面622および右焦点面624からのスペックル光を、2D光学センサアレイ614、616上に集束させ、拡大または拡大解除する。
デカルト座標の3軸のうちのY軸は、左から右に側方に延在することに留意されたい。拡張現実ヘッドギヤ600内に組み込まれる運動検出システム700は、X-軸、Y-軸、およびZ-軸に沿った平行移動成分と、前方を向いたX-軸を中心とする回転とを含む、4自由度を感知および区別することが可能である。左法線ベクトルNおよび右法線ベクトルNは、仮想平面を画定し、NおよびNによって画定された平面上には、NとNとの間の角度範囲が存在する。NとNとの間の角度範囲内のNおよびNによって画定された平面上に投影を有する、平行移動成分は、NおよびNによって画定された平面と平行な左および右2D光学センサアレイ614、616上の反対方向スペックルパターン偏移を感知することによって感知されることができる。前述の場合、左2D光学センサアレイ614上の第1のオプティカルフローおよび右2D光学センサアレイ616上の第2のオプティカルフローは、反対方向投影を差異ベクトルD上に有する。
他方では、NとNとの間の角度範囲外のNおよびNによって画定された平面上に投影を有する、平行移動成分は、NおよびNによって画定された平面と平行な左および右2D光学センサアレイ614、616上の同一方向スペックルパターン偏移を感知することによって感知されることができる。後者の場合、左2D光学センサアレイ614上の第1のオプティカルフローおよび右2D光学センサアレイ616上の第2のオプティカルフローは、共通方向投影を差異ベクトルD上に有する。さらに、NおよびNによって画定された平面と垂直な平行移動成分は、NおよびNによって画定された平面と垂直な左および右2D光学センサアレイ614、616上の同一方向スペックルパターン偏移を感知することによって感知されることができる。加えて、前方に延在する+X軸を中心とする回転は、NおよびNによって画定された平面と垂直な左および右2D光学センサアレイ614、616上の反対垂直方向スペックルパターン偏移を感知することによって感知されることができる。
図8は、ある実施形態による、拡張現実ヘッドギヤ900のブロック図である。図8に示される設計は、ある実施形態による、図1および図6に示される拡張現実ヘッドギヤのために使用されることができる。拡張現実ヘッドギヤ900は、左光透過性(シースルー)接眼レンズ902と、右光透過性接眼レンズ904と、第1のレーザダイオード906と、第1の2D光学センサアレイ908と、N番目のレーザダイオード910と、N番目の2D光学センサアレイ912とを含み、全て拡張現実ヘッドギヤフレーム914に機械的に結合される。識別子「N番目」の使用は、「N番目」によって識別されるものを含む、同様のコンポーネントの数が、可変であることを示すことを理解される。例えば、図1に示される拡張現実ヘッドギヤ104の場合、3つのレーザダイオードが、3つのレーザ116、118、120内で利用される一方、図6に示される拡張現実ヘッドギヤ600の場合、単一レーザダイオード(図6には図示せず)が、前方に指向されるレーザ612内に提供される。
画像毎変調左光源916は、左光透過性接眼レンズ902に光学的に結合され、画像毎変調右光源918は、右光透過性接眼レンズ904に光学的に結合される。画像毎変調光源916、918は、例えば、ファイバスキャナ、LCoSプロジェクタまたはMEMS光ビームスキャナ、またはマイクロ発光型ディスプレイを備えることができる。左画像データソース920は、画像毎変調左光源916に結合され、右画像データソース922は、画像毎変調右光源918に結合される。画像データソース920、922は、例えば、ディスプレイドライバの形態をとることができる。画像毎変調左光源916は、左光透過性接眼レンズ902と組み合わせて、左ディスプレイ948を形成し、画像毎変調右光源918は、右光透過性接眼レンズ904と組み合わせて、右ディスプレイ950を形成する。左および画像毎変調右光源916、918は、それぞれ、左および右画像データ源920、922によって提供されるデータに従って、光を変調させる。左および右画像データ源920、922は、マイクロプロセッサとともに、ゲームエンジンプログラムを起動させる、グラフィック処理ユニット(GPU)によってデータを供給される、フレームバッファの形態をとることができる。
第1のレーザダイオード906は、第1のコリメートレンズ924を通して、第1の拡散器926に光学的に結合され、N番目のレーザダイオード912は、N番目のコリメートレンズ928を通して、N番目の拡散器930に光学的に結合される。第1のコリメートレンズ924および第1の拡散器926を通して結合される、第1のレーザダイオード906からのコヒーレント光は、拡張現実ヘッドギヤ900の環境内の第1の表面パッチ932(例えば、壁、天井、床、家具)上に入射し、これは、第1のスペックルパターン(小規模表面粗度の回折パターン)を形成し、第1の2D光学センサアレイ908上に入射する。同様に、N番目のコリメートレンズ928およびN番目の拡散器930を通して結合される、N番目のレーザダイオード910からのコヒーレント光は、拡張現実ヘッドギヤ900の環境内のN番目の表面パッチ934上に入射し、N番目のスペックルパターンを形成し、これは、N番目の2D光学センサアレイ912上に入射する。
第1のセンサ読取回路936は、第1の2D光学センサアレイ908に結合され、N番目のセンサ読取回路938は、N番目の2D光学センサアレイ912に結合される。慣性測定ユニット(IMU)952は、フレーム914に機械的に結合される。第1のセンサ読取回路936、N番目のセンサ読取回路938、左画像データソース920、第1の画像データソース922、IMU952、少なくとも1つのプロセッサ940、少なくとも1つのプログラムメモリ942、および少なくとも1つの作業空間メモリ944は、少なくとも1つのバス946を介して、ともに結合される。少なくとも1つのプロセッサ940は、例えば、マイクロプロセッサ、グラフィック処理ユニット、デジタル信号プロセッサ、および/またはマイクロコントローラを含むことができる。IMU952は、上記に説明されるコンポーネントと併用されることができ、これは、スペックルオプティカルフローを介して、運動を検出する。例えば、IMU952は、運動情報の付加的冗長源として使用され、正確度を改良することができる、またはIMUからの情報は、スペックルフロー監視を介して取得される情報と組み合わせられ、ヘッドギヤ900の6DoFを完全に決定することができる。
図9は、ある実施形態による、図1に示される拡張現実ヘッドギヤ104を動作させる方法1000のフローチャートである。図6、8に示される拡張現実ヘッドギヤ600、900は、類似様式で動作されることができる。ブロック1002では、ヘッドギヤ104のローカル環境内の表面(例えば、204、206、208)が、拡張現実ヘッドギヤ104に固定されるレーザ116、118、120で照明される。ブロック1004では、拡張現実ヘッドギヤのディスプレイは、少なくとも1つの仮想オブジェクトをローカル環境内のある位置(座標のセットによって定義される)に表示するように動作される。接眼レンズ108、110は、画像毎変調光源112、114と組み合わせて、ディスプレイをともに形成する。図10は、図10に示される方法に従って使用されている図1に示される拡張現実104ヘッドギヤの使用の実施例の略図である。図10では、ヘッドギヤ1100は、ユーザの頭部102上に示される。ユーザは、本の形態における仮想オブジェクト1102を視認しており、これは、拡張現実ヘッドギヤのディスプレイを使用して表示される。仮想オブジェクト1102は、実テーブル1104上に位置する。仮想コンテンツの他の実施例は、例えば、人々、動物、想像上の生物、および/または移動オブジェクトを含むことができる。移動仮想コンテンツの場合、仮想コンテンツの移動は、物理的環境に固定される慣性基準フレーム内で定義され、ヘッドギヤの運動は、ヘッドギヤの移動が速度を物理的環境に対する仮想コンテンツの意図される移動に追加するように、補償(相殺)され得るように追跡される。再び図9を参照すると、ブロック1006では、光センサアレイ122、124、126が、環境表面(例えば、204、206、208)によって散乱されているレーザ116、118、120によって作られたスペックルパターンを感知するために使用される。下記に説明されるブロック1006およびブロック1010を実行する際、スペックルパターンは、例えば、少なくとも1つのプロセッサ940(図8)の制御下、作業空間メモリ944(図8)内のセンサ読取回路936、938(図8)から受け取られ得る。ブロック1008は、連続時間毎に実行されるループの開始をマークする。ブロック1010では、光センサアレイは、再び、環境表面(例えば、204、206、208)によって散乱されているレーザ116、118、120によって作られたスペックルパターンを感知するために使用される。ブロック1012では、各特定のスペックルパターン内の偏移が、特定のスペックルパターンの少なくとも1つの先行測定と比較して、決定される。上記に議論されるようなオプティカルフロー決定方法が、ブロック1012を実行する際に使用されてもよい。ブロック1014では、拡張現実ヘッドギヤの平行移動および回転座標の変化が、ブロック1012におけるスペックルパターンにおける偏移を決定するステップに基づいて決定される。ブロック1014を実行する際、上記に説明されるEQU.2が、使用されることができる。次に、ブロック1016では、拡張現実ヘッドギヤ104のディスプレイ上の仮想オブジェクトの位置(座標)が、ローカル環境内の仮想オブジェクトの位置を維持し、例えば、仮想本1102を実テーブル1104上の定位置に維持するために、ブロック1014において決定されるような少なくとも1つの座標の変化に従って偏移される。仮想オブジェクトの位置は、接眼レンズを通してユーザの眼に結合される、画像毎変調光を調節することによって、偏移される。方法1100は、少なくとも1つのメモリ942内に記憶され、少なくとも1つの仕事空間メモリ944を使用して、少なくとも1つのプロセッサ940によって実行される、プログラムの制御下で実行されることができる。より一般的には、ヘッドギヤ100、600、900は、いくつかの形態の電子回路を具備し、これは、代替として、非限定的実施例として、連続時間間のスペックル偏移を決定し、スペックル偏移に基づいて、連続時間間のインクリメント運動(平行移動および回転)を決定し、表示される仮想オブジェクトの位置を調節し、インクリメント運動を補償する、特定用途向け集積回路(ASIC)および/またはFPGAを含んでもよい。
上記に説明される実施形態は、それを通して、ユーザが実世界を視認しながら、また、仮想コンテンツも視認し得る、透明接眼レンズを含む、拡張現実眼鏡を含むが、代替として、上記に説明される6DoF追跡システムは、これは、ユーザの実世界のビューが、オクルードされ、ユーザには、仮想コンテンツのみ見え得る、仮想現実ゴーグル内に組み込まれてもよい。上記に説明される6DoFシステムはまた、ユーザが、直接、実世界を視認することができないが、1つ以上のカメラによって捕捉され、仮想コンテンツとともにユーザに表示される、実世界の画像を視認することができる、拡張現実のタイプに適用されてもよい。
本発明の種々の例示的実施形態が、本明細書で説明される。非限定的な意味で、これらの実施例が参照される。それらは、本発明のより広く適用可能な側面を例証するように提供される。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、均等物が置換されてもよい。加えて、特定の状況、材料、物質組成、プロセス、プロセス行為、またはステップを本発明の目的、精神、または範囲に適合させるように、多くの修正が行われてもよい。さらに、当業者によって理解されるように、本明細書で説明および例証される個々の変形例のそれぞれは、本発明の範囲または精神から逸脱することなく、他のいくつかの実施形態のうちのいずれかの特徴から容易に分離され、またはそれらと組み合わせられ得る、離散構成要素および特徴を有する。全てのそのような修正は、本開示と関連付けられる請求項の範囲内にあることを目的としている。
本発明は、対象デバイスを使用して行われ得る方法を含む。方法は、そのような好適なデバイスを提供するという行為を含んでもよい。そのような提供は、エンドユーザによって行われてもよい。換言すれば、「提供する」行為は、単に、エンドユーザが、対象方法において必須デバイスを提供するように、取得し、アクセスし、接近し、位置付けし、設定し、起動し、電源を入れ、または別様に作用することを要求する。本明細書で記載される方法は、論理的に可能である記載された事象の任意の順番で、および事象の記載された順番で実行されてもよい。
本発明の例示的側面が、材料選択および製造に関する詳細とともに、上記で記載されている。本発明の他の詳細に関しては、これらは、上記で参照された特許および出版物と関連して理解されるとともに、概して、当業者によって公知または理解されたい。一般的または論理的に採用されるような付加的な行為の観点から、本発明の方法ベースの側面に関して、同じことが当てはまり得る。
加えて、本発明は、種々の特徴を随意的に組み込むいくつかの実施例を参照して説明されているが、本発明は、本発明の各変形例に関して考慮されるような説明および指示されるものに限定されるものではない。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、均等物(本明細書に記載されようと、いくらか簡単にするために含まれていなかろうと)が置換されてもよい。加えて、値の範囲が提供される場合、その範囲の上限と下限との間の全ての介在値、およびその規定範囲内の任意の他の規定または介在値が、本発明内に包含されることを理解されたい。
また、説明される本発明の変形例の任意の随意的な特徴が、独立して、または本明細書で説明される特徴のうちのいずれか1つ以上のものと組み合わせて、記載および請求されてもよいことが考慮される。単数形のアイテムへの参照は、複数形の同一のアイテムが存在するという可能性を含む。より具体的には、本明細書で、および本明細書に関連付けられる請求項で使用されるように、「a」、「an」、「said」、および「the」という単数形は、特に規定がない限り、複数形の指示対象を含む。換言すれば、冠詞の使用は、上記の説明および本開示と関連付けられる請求項において、対象アイテムの「少なくとも1つ」を可能にする。さらに、そのような請求項は、任意の随意的な要素を排除するように起草され得ることに留意されたい。したがって、この記述は、請求項の要素の記載と関連して、「単に」、「のみ」、および均等物等の排他的用語の使用、または「否定的」制限の使用のために、先行詞としての機能を果たすことを目的としている。
そのような排他的用語を使用することなく、本開示と関連付けられる請求項での「備える」という用語は、所与の数の要素がそのような請求項で列挙されるか、または特徴の追加をそのような請求項に記載される要素の性質の変換として見なすことができるかにかかわらず、任意の付加的な要素を含むことを可能にするものとする。本明細書で具体的に定義される場合を除いて、本明細書で使用される全ての技術および科学用語は、請求項の有効性を維持しながら、可能な限り広い一般的に理解されている意味を与えられるものである。
本発明の範疇は、提供される例示的および/または対象の明細書に限定されるものではなく、むしろ、本開示と関連付けられる請求項の言葉の範囲のみによって限定されるものである。

Claims (6)

  1. 拡張現実ヘッドギヤであって、
    画像毎変調光を提供するように構成される少なくとも1つの画像毎変調光源と、
    少なくとも1つの透明接眼レンズであって、前記少なくとも1つの透明接眼レンズは、ユーザが実世界を見ることを可能にしながら、前記画像毎変調光をユーザの眼の中に結合するように構成される、少なくとも1つの透明接眼レンズと、
    少なくとも第1のコヒーレント光源であって、前記少なくとも第1のコヒーレント光源は、コヒーレント光を少なくとも1つの環境表面上に投影するように、第1の方向に前記拡張現実ヘッドギヤから外向きに照準される、少なくとも第1のコヒーレント光源と、
    前記少なくとも1つの環境表面から反射された光を受け取るように構成される少なくとも第1のセンサアレイであって、前記光は、第1のスペックルパターンを前記第1のセンサアレイ上に形成する、第1のセンサアレイと、
    前記画像毎変調光源および前記第1のセンサアレイに結合された電子回路であって、前記電子回路は、
    前記少なくとも1つの画像毎変調光源を動作させ、前記拡張現実ヘッドギヤを装着している前記ユーザによって占有される物理的空間に固定される慣性基準フレーム内に定義される座標のセットに仮想オブジェクトを表示することと、
    前記第1のスペックルパターンの第1のコピーを第1の時間に受け取ることと、
    前記第1のスペックルパターンの第2のコピーを第2の時間に受け取ることと、
    前記第1のスペックルパターンの第1のコピーに対する前記第1のスペックルパターンの第2のコピーにおける偏移を決定することと、
    前記第1のスペックルパターンの第1のコピーに対する前記第1のスペックルパターンの第2のコピーにおける偏移に基づいて、前記ユーザによって占有される前記物理的空間内の前記拡張現実ヘッドギヤの運動を決定することと
    を行うように構成される、電子回路と
    を備える、拡張現実ヘッドギヤ。
  2. 前記電子回路は、
    前記拡張現実ヘッドギヤの運動に基づいて、前記画像毎変調光を調節し、前記拡張現実ヘッドギヤの運動を補償し、前記仮想オブジェクトを前記慣性基準フレーム内に定義される前記座標のセットに維持すること
    を行うようにさらに構成される、請求項1に記載の拡張現実ヘッドギヤ。
  3. 前記少なくとも1つの環境表面からの光を受け取るように構成される第2のセンサアレイをさらに備える、請求項1に記載の拡張現実ヘッドギヤ。
  4. コヒーレント光を前記少なくとも1つの環境表面上に投影するように、第2の方向に前記拡張現実ヘッドギヤから外向きに照準される第2のコヒーレント光源をさらに備える、請求項3に記載の拡張現実ヘッドギヤ。
  5. 前記少なくとも1つの環境表面によって反射された前記第2のコヒーレント光源からの光が前記第1のセンサアレイに到達することを排除するように構成される少なくとも1つの開口絞りをさらに備える、請求項4に記載の拡張現実ヘッドギヤ。
  6. 前記第1のコヒーレント光源および前記第2のコヒーレント光源の相互排他的放出立体角範囲を確立するように構成される少なくとも1つの光学コンポーネントをさらに備える、請求項4に記載の拡張現実ヘッドギヤ。
JP2019557356A 2017-04-24 2018-04-23 後方散乱レーザスペックルパターンのオプティカルフローの追跡 Active JP6994515B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021184611A JP7150966B2 (ja) 2017-04-24 2021-11-12 後方散乱レーザスペックルパターンのオプティカルフローの追跡
JP2022155078A JP7419471B2 (ja) 2017-04-24 2022-09-28 後方散乱レーザスペックルパターンのオプティカルフローの追跡
JP2024001688A JP2024024099A (ja) 2017-04-24 2024-01-10 後方散乱レーザスペックルパターンのオプティカルフローの追跡

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762489339P 2017-04-24 2017-04-24
US62/489,339 2017-04-24
PCT/US2018/028964 WO2018200423A1 (en) 2017-04-24 2018-04-23 Tracking optical flow of backscattered laser speckle patterns

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021184611A Division JP7150966B2 (ja) 2017-04-24 2021-11-12 後方散乱レーザスペックルパターンのオプティカルフローの追跡

Publications (3)

Publication Number Publication Date
JP2020517934A JP2020517934A (ja) 2020-06-18
JP2020517934A5 JP2020517934A5 (ja) 2021-05-27
JP6994515B2 true JP6994515B2 (ja) 2022-01-14

Family

ID=63853886

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2019557356A Active JP6994515B2 (ja) 2017-04-24 2018-04-23 後方散乱レーザスペックルパターンのオプティカルフローの追跡
JP2021184611A Active JP7150966B2 (ja) 2017-04-24 2021-11-12 後方散乱レーザスペックルパターンのオプティカルフローの追跡
JP2022155078A Active JP7419471B2 (ja) 2017-04-24 2022-09-28 後方散乱レーザスペックルパターンのオプティカルフローの追跡
JP2024001688A Pending JP2024024099A (ja) 2017-04-24 2024-01-10 後方散乱レーザスペックルパターンのオプティカルフローの追跡

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2021184611A Active JP7150966B2 (ja) 2017-04-24 2021-11-12 後方散乱レーザスペックルパターンのオプティカルフローの追跡
JP2022155078A Active JP7419471B2 (ja) 2017-04-24 2022-09-28 後方散乱レーザスペックルパターンのオプティカルフローの追跡
JP2024001688A Pending JP2024024099A (ja) 2017-04-24 2024-01-10 後方散乱レーザスペックルパターンのオプティカルフローの追跡

Country Status (9)

Country Link
US (3) US10649523B2 (ja)
EP (2) EP4206761A1 (ja)
JP (4) JP6994515B2 (ja)
KR (3) KR20230152179A (ja)
CN (2) CN110573917B (ja)
AU (1) AU2018257776A1 (ja)
CA (1) CA3059373A1 (ja)
IL (3) IL309523A (ja)
WO (1) WO2018200423A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110573917B (zh) * 2017-04-24 2022-08-23 奇跃公司 跟踪反向散射的激光斑点图案的光流

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040061680A1 (en) 2002-07-10 2004-04-01 John Taboada Method and apparatus for computer control
US20130300637A1 (en) 2010-10-04 2013-11-14 G Dirk Smits System and method for 3-d projection and enhancements for interactivity
US20160035140A1 (en) 2014-07-29 2016-02-04 Sony Computer Entertainment Europe Limited Image processing
US20160116745A1 (en) 2014-01-21 2016-04-28 Osterhout Group, Inc. See-through computer display systems
US20160187654A1 (en) 2011-02-28 2016-06-30 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2803307B2 (ja) * 1990-04-03 1998-09-24 富士ゼロックス株式会社 スペックルパターンの移動検出方法及びこれを用いた位置指定装置
JP3287002B2 (ja) 1992-02-06 2002-05-27 東日本旅客鉄道株式会社 鉄道車両の測距装置
JP3112219B2 (ja) 1993-06-25 2000-11-27 富士ゼロックス株式会社 移動検出方法及び検出器
US7292232B2 (en) * 2004-04-30 2007-11-06 Microsoft Corporation Data input devices and methods for detecting movement of a tracking surface by a laser speckle pattern
US7354167B2 (en) * 2004-05-27 2008-04-08 Angstrom, Inc. Beam focusing and scanning system using micromirror array lens
US8390821B2 (en) * 2005-10-11 2013-03-05 Primesense Ltd. Three-dimensional sensing using speckle patterns
WO2007096893A2 (en) * 2006-02-27 2007-08-30 Prime Sense Ltd. Range mapping using speckle decorrelation
US8451224B2 (en) * 2008-07-23 2013-05-28 Sony Corporation Mapping detected movement of an interference pattern of a coherent light beam to cursor movement to effect navigation of a user interface
US9201501B2 (en) * 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
US8692880B2 (en) * 2010-10-05 2014-04-08 Mitutoyo Corporation Image correlation displacement sensor
KR101151962B1 (ko) * 2011-02-16 2012-06-01 김석중 포인터를 사용하지 않는 가상 터치 장치 및 방법
WO2012147702A1 (ja) * 2011-04-28 2012-11-01 シャープ株式会社 ヘッドマウントディスプレイ
EP2581034B1 (en) * 2011-10-11 2016-02-17 Tobii AB Eye-tracker illumination
KR101343748B1 (ko) * 2012-04-23 2014-01-08 주식회사 브이터치 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치
US9597014B2 (en) * 2012-06-22 2017-03-21 Fitbit, Inc. GPS accuracy refinement using external sensors
CN103514450B (zh) * 2012-06-29 2017-02-15 华为技术有限公司 一种图像特征提取方法和图像校正方法以及设备
US9690376B2 (en) * 2012-11-01 2017-06-27 Eyecam, Inc. Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing
US9208566B2 (en) * 2013-08-09 2015-12-08 Microsoft Technology Licensing, Llc Speckle sensing for motion tracking
US9495801B2 (en) * 2014-05-01 2016-11-15 Microsoft Technology Licensing, Llc Pose tracking an augmented reality device
US9430038B2 (en) 2014-05-01 2016-08-30 Microsoft Technology Licensing, Llc World-locked display quality feedback
AU2015302865A1 (en) * 2014-08-10 2017-03-16 Facebook Technologies, Llc Structured light for 3D sensing
WO2016046514A1 (en) * 2014-09-26 2016-03-31 LOKOVIC, Kimberly, Sun Holographic waveguide opticaltracker
US9931040B2 (en) 2015-01-14 2018-04-03 Verily Life Sciences Llc Applications of hyperspectral laser speckle imaging
US20160209929A1 (en) 2015-01-20 2016-07-21 Jahja I. Trisnadi Method and system for three-dimensional motion-tracking
CN107209396B (zh) * 2015-01-21 2020-03-31 日立乐金光科技株式会社 影像显示装置
CN105607034A (zh) * 2015-12-23 2016-05-25 北京凌宇智控科技有限公司 一种三维空间检测系统、定位方法及系统
JP7008702B2 (ja) * 2016-11-10 2022-02-10 マジック リープ, インコーポレイテッド スペックルパターンを使用した眼追跡のための方法およびシステム
CN106525003B (zh) * 2016-12-16 2019-02-12 深圳市未来感知科技有限公司 一种基于双目视觉的姿态测量方法
US10152798B2 (en) * 2017-04-10 2018-12-11 Wisconsin Alumni Research Foundation Systems, methods and, media for determining object motion in three dimensions using speckle images
CN110573917B (zh) 2017-04-24 2022-08-23 奇跃公司 跟踪反向散射的激光斑点图案的光流

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040061680A1 (en) 2002-07-10 2004-04-01 John Taboada Method and apparatus for computer control
US20130300637A1 (en) 2010-10-04 2013-11-14 G Dirk Smits System and method for 3-d projection and enhancements for interactivity
US20160187654A1 (en) 2011-02-28 2016-06-30 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US20160116745A1 (en) 2014-01-21 2016-04-28 Osterhout Group, Inc. See-through computer display systems
US20160035140A1 (en) 2014-07-29 2016-02-04 Sony Computer Entertainment Europe Limited Image processing

Also Published As

Publication number Publication date
KR20210128030A (ko) 2021-10-25
CA3059373A1 (en) 2018-11-01
EP3615967B1 (en) 2023-03-01
IL301447A (en) 2023-05-01
EP3615967A1 (en) 2020-03-04
KR102595778B1 (ko) 2023-10-27
IL270087B2 (en) 2023-08-01
US10649523B2 (en) 2020-05-12
JP2020517934A (ja) 2020-06-18
US11150725B2 (en) 2021-10-19
JP2022179563A (ja) 2022-12-02
EP3615967A4 (en) 2020-12-09
IL301447B2 (en) 2024-05-01
CN110573917B (zh) 2022-08-23
EP4206761A1 (en) 2023-07-05
IL301447B1 (en) 2024-01-01
IL309523A (en) 2024-02-01
US20180307308A1 (en) 2018-10-25
US20220057858A1 (en) 2022-02-24
CN115327775A (zh) 2022-11-11
KR20230152179A (ko) 2023-11-02
US11762455B2 (en) 2023-09-19
US20200310534A1 (en) 2020-10-01
KR20190137908A (ko) 2019-12-11
JP2022020073A (ja) 2022-01-31
JP7150966B2 (ja) 2022-10-11
JP2024024099A (ja) 2024-02-21
JP7419471B2 (ja) 2024-01-22
WO2018200423A1 (en) 2018-11-01
IL270087A (ja) 2019-12-31
IL270087B1 (en) 2023-04-01
AU2018257776A1 (en) 2019-10-31
KR102314822B1 (ko) 2021-10-19
CN110573917A (zh) 2019-12-13

Similar Documents

Publication Publication Date Title
TWI681663B (zh) 具有經由眼睛追蹤之延伸有效眼動範圍之近眼顯示器
JP7029399B2 (ja) 仮想/拡張現実システムにおけるビーム角度センサ
US10740971B2 (en) Augmented reality field of view object follower
US10429652B2 (en) Tiled waveguide display with a wide field-of-view
US10228565B1 (en) Variable focus waveguide display
JP6349660B2 (ja) 画像表示装置、画像表示方法、および画像表示プログラム
JP2024024099A (ja) 後方散乱レーザスペックルパターンのオプティカルフローの追跡
US10527858B1 (en) Scanning waveguide display
US10690923B1 (en) Scanning system for a tiling display
US20220350149A1 (en) Waveguide configurations in a head-mounted display (hmd) for improved field of view (fov)
JP2020517934A5 (ja)
EP4330757A1 (en) Waveguide configurations in a head-mounted display (hmd) for improved field of view (fov)
CN117242390A (zh) 头戴式显示器(hmd)中用于改善视场(fov)的波导构造

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210419

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210419

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210621

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211213

R150 Certificate of patent or registration of utility model

Ref document number: 6994515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150