JP6546349B2 - 構造化光およびタイムオブフライトを用いた深度マッピング - Google Patents

構造化光およびタイムオブフライトを用いた深度マッピング Download PDF

Info

Publication number
JP6546349B2
JP6546349B2 JP2018533883A JP2018533883A JP6546349B2 JP 6546349 B2 JP6546349 B2 JP 6546349B2 JP 2018533883 A JP2018533883 A JP 2018533883A JP 2018533883 A JP2018533883 A JP 2018533883A JP 6546349 B2 JP6546349 B2 JP 6546349B2
Authority
JP
Japan
Prior art keywords
light
group
pixels
carrier signal
detector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018533883A
Other languages
English (en)
Other versions
JP2019504313A (ja
Inventor
ダニエル トレイル、ニコラス
ダニエル トレイル、ニコラス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Facebook Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facebook Technologies LLC filed Critical Facebook Technologies LLC
Publication of JP2019504313A publication Critical patent/JP2019504313A/ja
Application granted granted Critical
Publication of JP6546349B2 publication Critical patent/JP6546349B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/06Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the phase of light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本開示は、概して、仮想現実システムまたは拡張現実システムに関し、より詳細には、局所領域の深度情報を取得する仮想現実システムのヘッドセットに関する。
仮想現実(VR)システム、または拡張現実(AR)システムは、3次元(3D)でユーザを取り囲む環境の捕捉を活用することができる。しかしながら、従来のデプスカメラ撮像アーキテクチャは、サイズが比較的大きく、重量があり、相当量の電力を消費する。シーンの3D情報を取得するための例示的な一般的なデプスカメラ撮像アーキテクチャには、タイムオブフライト(パルスおよび符号化波形の両方の直接検出)、構造化光(SL)、およびステレオビジョンが含まれる。異なるデプスカメラ撮像アーキテクチャは、それぞれ異なる長所および短所を提供するので、特定のデプスカメラ撮像アーキテクチャは、異なる動作条件において他のものよりも優れた性能を提供することができる。例えば、ステレオビジョンアーキテクチャは周囲照明と良好に動作し、一方、アクティブ照明源を有するタイムオブフライト型アーキテクチャは周囲照明からの信号対雑音比の制限によって十分に機能を果たさない可能性がある。しかしながら、従来のデプスカメラ撮像アーキテクチャの比較的大きなサイズにより、デプスカメラを含む多くのシステムは、通常、特定の使用ケースのために構成された単一タイプのデプスカメラ撮像アーキテクチャを使用している。ヘッドマウントシステムは、様々な動作条件および動作環境においてより広範な機能を実行するように使用される傾向にあるので、ヘッドマウントシステムおよびユーザを取り囲む領域の深度情報を得るために単一のデプスカメラ撮像アーキテクチャを選択することは、ヘッドマウントシステムでのユーザーエクスペリエンスが低下する可能性がある。
仮想現実(VR)システム環境または拡張現実(AR)システム環境内のヘッドセットは、ヘッドセットを囲む領域内およびヘッドセットに含まれる撮像デバイスの視野(すなわち、「局所領域」)内のヘッドセットと1つまたは複数の対象物との間の距離を決定するように構成されたデプスカメラ部品(DCA:depth camera assembly)を含む。DCAは、カメラ等の撮像デバイスと、対称ドットまたは準ランダムドット、グリッドまたは水平バーなどの特定のパターンをシーンに放射するように構成された照明源とを含む。例えば、照明源は、グリッドまたは一連の水平バーを局所領域に放射する。DCAは、局所領域の表面に投影したときのパターンの変形に基づいて、三角測量を活用して表面とヘッドセットとの間の距離を決定することができる。
DCAは、局所領域に放射される特定のパターンを制御することに加えて、時間変化する強度をパターンに埋め込む。照明源から放射された光が局所領域内の対象物から反射して撮像デバイスに戻る正味の往復時間を表す情報(「タイムオブフライト情報」)を捕捉する際に、DCAは、ヘッドセットの局所領域の深度情報を捕捉するための追加の機構を有する。DCAは、撮像デバイスによって捕捉される放射光の時間に基づいて、DCAと、照明源からの光を反射する局所領域内の対象物との間の距離を決定する。例えば、DCAは、DCAに含まれる撮像デバイスによって捕捉される放射光に対して約2ナノ秒でDCAと局所領域内の対象物との間の1フィート(30.48センチメートル)の距離を決定する。タイムオブフライト情報および構造化光情報を捕捉するために、照明源は、照明源によって放射されるパターンの時間的強度および空間的強度を、30メガヘルツなどの特定の周波数を有する時間キャリア信号(temporal carrier signal)で変調する。
撮像デバイスは、空間的プロファイルおよび時間的プロファイルによって規定される、照明源によって放射される光を含む、局所領域からの光を捕捉する。局所領域内の対象物によって反射された照明源からのタイムオブフライト情報を決定するために、撮像デバイスは画素群のアレイを含む検出器を含む。各画素群は、1つまたは複数の画素を含み、個々の画素群は、照明源が放射されたパターンを変調するために使用されるキャリア信号の位相に対して積分時間において個々の位相シフトに関連付けられる。検出器の個々の画素群は個々の制御信号を受信するので、個々の画素群は、制御信号によって特定される個々の時間に光を捕捉する。これにより、検出器の個々の画素群が変調されたパターンの個々の位相を捕捉することが可能となる。例えば、互いに最も近い4つの画素群は、4つの画素群の各々に個々の時間で光を捕捉させる個々の制御信号を受信し、4つの画素群の各々によって捕捉された光は、4つの画素群内の他の画素群によって捕捉された光に対して90度の位相シフトを有する。DCAは、4つの画素群間の相対信号を比較して、相対的な視野に基づいて検出器に亘って変化する対象物の位置に対するキャリア信号の正味の位相または角度を導出する。導出された正味の位相または角度は、検出器の個々の画素群によって捕捉された光の信号差に基づく。DCAは、任意の適切な技術を用いて、相対信号における時間オフセットを補償して、局所領域に放射された構造化パターンの画像を決定する。例えば、DCAは、相対信号の位相角を反転させて相対的な画素毎の放射照度をスケーリングし、隣接する画素からの相対信号を加算して時間バイアスを除去するか、または、相対信号の時間オフセットおよび検出器の個々の画素から導出された正味の位相または角度におけるオフセットに基づいて他の適切な処理を行うことによって相対信号における時間オフセットを補償する。したがって、DCAの撮像デバイスによって捕捉されたフレームは、構造化光(すなわち空間)データおよびタイムオブフライト(すなわち時間的)データを捕捉し、DCAによる局所領域の全体的な深度情報の算定が改善される。構造化光データおよびタイムオブフライトデータは、DCAに対する局所領域の相対的な深度に関する異なる情報を提供するので、フレーム内の構造化光データおよびタイムオブフライトデータを捕捉することにより、DCAによる深度算定の正確度、精度、およびロバスト性が改善される。構造化光データおよびタイムオブフライトデータを単一のフレームで捕捉することにより、DCAの移動変化または動き変化に対する感度が低下し、DCAが単一の検出器を使用してタイムオブフライトデータと構造化光データの両方の相対強度を活用することができ、小型で軽量でよりコスト効率の良いDCAの実施が提供される。
一実施形態による仮想現実システムを含むシステム環境のブロック図である。 一実施形態による仮想現実ヘッドセットの図である。 一実施形態による仮想現実ヘッドセットの前部剛体の断面図である。 一実施形態による仮想現実ヘッドセットに含まれるデプスカメラ部品の撮像デバイスに含まれる検出器の一例である。 一実施形態による図4Aに示される例示的な検出器を積分タイミングで動作させる制御信号の一例である。 一実施形態による正弦波キャリア波に対して図4Aに示される例示的な検出器における個々の画素群による光の捕捉の一例である。 一実施形態による、仮想現実ヘッドセットに含まれるデプスカメラ部品の撮像デバイスに含まれる検出器の別の例である。 一実施形態による、撮像デバイスおよび構造化光パターンを局所領域に投影する照明源の例示的な構成を示す。 一実施形態による、撮像デバイス及び局所領域上に時間的及び空間的に変調された構造化光パターンを投影する照明源の例示的な構成を示す。
図面は、例示のみを目的として本開示の実施形態を示す。当業者であれば、以下の説明から、本明細書で説明した構造および方法の代替の実施形態を、本明細書に記載の原理または利点から逸脱することなく用いることができることを容易に認識するであろう。
システムの概要
図1は、VRコンソール110が動作する仮想現実(VR:virtual reality)システム環境100の一実施形態のブロック図である。なお、図1は、例示のためのVRシステム環境を示しており、本明細書に記載された構成要素および機能は、様々な実施形態における拡張現実(AR:augmented reality)システムに含まれてもよい。本明細書で使用されるように、VRシステム環境100は、ユーザが対話することができる仮想環境をユーザに提示する仮想現実システム環境を含み得る。図1に示すVRシステム環境100は、VRコンソール110に接続されたVRヘッドセット105およびVR入出力(I/O)インタフェース115を備える。なお、図1は、1つのVRヘッドセット105および1つのVR I/Oインタフェース115を含む例示的なシステム100を示しているが、他の実施形態では、任意の数のこれらの構成要素がVRシステム環境100に含まれてもよい。例えば、複数のVRヘッドセット105が設けられ、各VRヘッドセット105が関連するVR I/Oインタフェース115を有し、各VRヘッドセット105およびVR I/Oインタフェース115がVRコンソール110と通信してもよい。代替の構成では、異なる構成要素および/または追加の構成要素をVRシステム環境100に含ませることができる。さらに、いくつかの実施形態において、図1に示される1つまたは複数の構成要素と関連して説明される機能が、図1に関連して説明したのとは異なる方法で複数の構成要素に分配されてもよい。例えば、VRコンソール110の機能の一部または全部は、VRヘッドセット105によって提供される。
VRヘッドセット105は、コンピュータが生成した要素(例えば、2次元(2D)または3次元(3D)画像、2Dまたは3D動画、音声他)を用いて物理的な現実世界環境の拡大ビューを含むコンテンツをユーザに提示するヘッドマウントディスプレイである。いくつかの実施形態では、提示されるコンテンツは、VRヘッドセット105、VRコンソール110、またはその両方からオーディオ情報を受信し、オーディオ情報に基づいてオーディオデータを提示する外部デバイス(例えば、スピーカおよび/またはヘッドフォン)を介して提示されるオーディオを含む。VRヘッドセット105の一実施形態は、図2および図3に関連して以下でさらに説明される。VRヘッドセット105は、互いに強固にまたは非剛性に結合され得る1つまたは複数の剛体を備え得る。剛体間の堅固な結合は、結合された剛体を単一の剛体として機能させる。対照的に、剛体間の非剛性結合は、剛体が互いに対して移動することを可能にする。
VRヘッドセット105は、デプスカメラ部品(DCA:depth camera assembly)120、電子ディスプレイ125、光学ブロック130、1つまたは複数の位置センサ135、および慣性測定ユニット(IMU:inertial measurement Unit)140を含む。VRヘッドセット105のいくつかの実施形態は、図1に関連して説明されるものとは異なる構成要素を有する。さらに、図1に関連して説明した様々な構成要素によって提供される機能は、他の実施形態では、VRヘッドセット105の構成要素において異なるようにして分散されてもよい。
DCA120は、VRヘッドセット105を取り囲む領域の深度情報を表すデータを捕捉する。DCA120のいくつかの実施形態は、1つまたは複数の撮像デバイス(たとえば、カメラ、ビデオカメラ)と、構造化光(SL:structured light)パターンを放射するように構成された照明源とを含む。以下にさらに説明するように、構造化光は、対称ドットパターンまたは準ランダムドットパターン、グリッド、または水平バーなどの特定のパターンをシーンに投影する。例えば、照明源は、VRヘッドセット105を取り囲む環境上にグリッドまたは一連の水平バーを放射する。三角測量または表面に投影されたときのパターンの認識される変形に基づいて、シーン内の対象物の深度情報および表面情報が決定される。
VRヘッドセット105を取り囲む領域の深度情報をよりよく捕捉するために、DCA120は、照明源から放射された光がVRヘッドセット105を取り囲む領域内の対象物から反射して1つまたは複数の撮像デバイスに戻る時間を表すタイムオブフライト(time of flight)情報を捕捉する。様々な実施形態において、DCA120は、構造化光情報と同時にまたはほぼ同時にタイムオブフライト情報を捕捉する。1つまたは複数の撮像デバイスによって放射された光が捕捉される時間に基づいて、DCA120は、DCA120と、照明源からの光を反射する、VRヘッドセット105を取り囲む領域内の対象物との間の距離を決定する。タイムオブフライト情報および構造化光情報を捕捉するために、照明源は、放射されるSLパターンを、30MHz(様々な実施形態では、周波数は5MHzと5GHzとの間の周波数範囲から選択され得る)等の特定の周波数を有するキャリア信号で変調する。
撮像デバイスは、特定の波長範囲の光(即ち、「波長帯域」の光)を捕捉して記録する。撮像デバイスによって捕捉される例示的な光の波長帯域は、可視帯域(380nm〜750nm)、赤外線(IR)帯域(750nm〜2200nm)、紫外線帯域(100nm〜380nm)、電磁波スペクトルの別の一部、またはそれらのいくつかの組合せを含む。いくつかの実施形態では、撮像デバイスは、可視帯域および赤外帯域の光を含む画像を捕捉する。VRヘッドセット105を取り囲む領域内の対象物から反射された構造化光パターンからの光を共同で捕捉し、照明源からのキャリア信号がその領域内の対象物からDCA120に反射する時間を決定するために、撮像デバイスは、画素群のアレイを含む検出器を含む。各画素群は、1つまたは複数の画素を含み、個々の画素群は、キャリア信号の位相とは異なる位相シフトで関連付けられている。様々な実施形態では、照明源によって放射されたキャリア信号によって変調された個々の時間位相のパターンを捕捉するために個々の画素群が互いに異なる時間に起動される。例えば、画素群は、個々の時間に起動され、隣接する画素群は、互いに対して約90度、180度、または270度の位相シフトを有する光を捕捉する。DCA120は、個々の画素群によって捕捉された信号データから、DCA120からの深度と等しいキャリア信号の位相を導出する。また、捕捉されたデータは、空間パターンの画像フレームを、時間領域に亘る全画素電荷の合計によって、またはキャリア位相信号を補正した後に生成する。DCA120については、図3〜図4Dを参照して以下でさらに説明する。
電子ディスプレイ125は、VRコンソール110から受信したデータに従って2Dまたは3D画像をユーザに表示する。種々の実施形態において、電子ディスプレイ125は、単一の電子ディスプレイまたは複数の電子ディスプレイ(例えば、ユーザの各眼に対するディスプレイ)を含む。例示的な電子ディスプレイ125は、液晶ディスプレイ(LCD:liquid crystal display)、有機発光ダイオード(OLED:organic light emitting diode)ディスプレイ、アクティブマトリクス有機発光ダイオードディスプレイ(AMOLED:active−matrix organic light−emitting diode)、その他のディスプレイ、またはそれらの組合せを含む。
光学ブロック130は、電子ディスプレイ125から受け取った画像光を拡大し、画像光に関連する光学誤差を補正し、かつ補正された画像光をVRヘッドセット105のユーザに提示する。様々な実施形態において、光学ブロック130は、1つまたは複数の光学素子を含む。光学ブロック130に含まれる例示的な光学素子は、開口、フレネルレンズ、凸レンズ、凹レンズ、フィルタ、反射面、または画像光に影響を与える他の任意の適切な光学素子を含む。さらに、光学ブロック130は、異なる光学素子の組合せを含み得る。いくつかの実施形態では、光学ブロック130内の1つまたは複数の光学素子は、反射防止コーティングのような1つまたは複数のコーティングを有することができる。
光学ブロック130による画像光の拡大および集束は、より大きなディスプレイよりも電子ディスプレイ125を物理的に小さくし、重量を低減し、消費電力を低減することを可能にする。さらに、拡大は、電子ディスプレイ125によって提示されるコンテンツの視野を増加させる。例えば、表示されたコンテンツの視野は、表示されたコンテンツが、ユーザの視野のほぼすべて(例えば、約110度傾斜)、および場合によっては全部を使用して提示されるようになっている。さらにいくつかの実施形態では、光学素子を追加または除去することによって拡大の量を調整することができる。
いくつかの実施形態では、光学ブロック130は、1つまたは複数のタイプの光学誤差を補正するように設計されてもよい。光学誤差の例には、バレル歪み、ピンクッション歪み、軸上色収差、または横方向色収差が含まれる。他のタイプの光学誤差は、球面収差、コマ収差またはレンズ像面湾曲による誤差、非点収差、または他のタイプの光学誤差をさらに含み得る。いくつかの実施形態では、表示のために電子ディスプレイ125に提供されるコンテンツは予歪状態であり、光学ブロック130は、コンテンツに基づいて生成された電子ディスプレイ125から画像光を受け取るときに歪みを補正する。
IMU140は、1つまたは複数の位置センサ135から受信した測定信号に基づいて、およびDCA120から受信した深度情報からVRヘッドセット105の位置を示すデータを生成する電子デバイスである。位置センサ135は、VRヘッドセット105の動きに応答した1つまたは複数の測定信号を生成する。位置センサ135の例には、1つまたは複数の加速度計、1つまたは複数のジャイロスコープ、1つまたは複数の磁力計、動きを検出する別の適切なタイプのセンサ、IMU140の誤差補正に使用されるあるタイプのセンサ、またはそれらの組合せが含まれる。位置センサ135は、IMU140の外部に、IMU140の内部に、またはそれらの位置の組合せに配置することができる。
IMU140は、1つまたは複数の位置センサ135からの1つまたは複数の測定信号に基づいて、VRヘッドセット105の初期位置に対するVRヘッドセット105の推定の現在位置を示すデータを生成する。例えば、位置センサ135は、並進運動(前後、上下、左右)を測定する複数の加速度計、および回転運動(例えば、ピッチ、ヨー、ロール)を測定する複数のジャイロスコープを含む。いくつかの実施形態では、IMU140は測定信号を迅速にサンプリングし、サンプリングされたデータからVRヘッドセット105の推定の現在位置を計算する。例えば、IMU140は、加速度計から受信した測定信号を経時的に積分して速度ベクトルを推定し、速度ベクトルを経時的に積分して、VRヘッドセット105上の基準点の推定の現在位置を決定する。代替的に、IMU140は、サンプリングされた測定信号をVRコンソール110に提供し、IMU140は、データを解釈して誤差を低減する。基準点は、VRヘッドセット105の位置を表すために使用され得る点である。基準点は、一般に、VRヘッドセット105の向きおよび位置に関連する空間内の点または位置として定義され得る。
IMU140は、VRコンソール110から1つまたは複数のパラメータを受信する。以下でさらに説明するように、1つまたは複数のパラメータは、VRヘッドセット105の追跡を維持するために使用される。受信したパラメータに基づいて、IMU140は、1つまたは複数のIMUパラメータ(例えば、サンプルレート)を調整することができる。いくつかの実施形態では、特定のパラメータによって、IMU140は、基準点の初期位置が基準点の次の位置に対応するように基準点の初期位置を更新する。基準点の次の較正された位置として基準点の初期位置を更新することは、IMU140の推定の現在の位置に関連する累積誤差を低減するのに役立つ。累積誤差は、ドリフト誤差とも呼ばれ、推定の基準点の位置を基準点の実際の位置から経時的に「離脱」させる。VRヘッドセット105のいくつかの実施形態では、IMU140は、専用ハードウェアコンポーネントであってもよい。他の実施形態では、IMU140は、1つまたは複数のプロセッサに実装されたソフトウェアコンポーネントであってもよい。
VR I/Oインタフェース115は、ユーザがアクション要求を送信し、VRコンソール110から応答を受信することを可能にするデバイスである。アクション要求は、特定のアクションを実行するための要求である。例えば、アクション要求は、画像またはビデオデータの捕捉を開始または終了するための命令、またはアプリケーション内で特定のアクションを実行するための命令であってもよい。VR I/Oインタフェース115は、1つまたは複数の入力デバイスを含むことができる。例示的な入力デバイスには、キーボード、マウス、ゲームコントローラ、またはアクション要求を受け取り、VRコンソール110にアクション要求を伝達するための他の適切な装置が含まれる。VR I/Oインタフェース115によって受信されたアクション要求は、アクション要求に対応するアクションを実行するVRコンソール110に伝達される。いくつかの実施形態では、VR I/Oインタフェース115は、VR I/Oインタフェース115の初期位置に対するVR I/Oインタフェース115の推定の位置を示す較正データを取得する上述したようなIMU 140をさらに含む。いくつかの実施形態では、VR I/Oインタフェース115は、VRコンソール110から受信した指示に従ってユーザに触覚フィードバックを提供することができる。例えば、アクション要求が受信されたときに触覚フィードバックが提供されるか、またはVRコンソール110がアクションを実行するときにVRコンソール110がVR I/Oインタフェース115に命令を送り、VR I/Oインタフェース115に触覚フィードバックを生成させる。
VRコンソール110は、DCA120、VRヘッドセット105、およびVR I/Oインタフェース115のうちの1つまたは複数から受信した情報に従って処理するためにVRヘッドセット105にコンテンツを提供する。図1に示すように、VRコンソール110は、アプリケーションストア150、追跡モジュール155、およびVRエンジン145を含む。VRコンソール110のいくつかの実施形態は、図1に関連して説明したものとは異なるモジュールまたは構成要素を有する。同様に、以下でさらに説明される機能は、図1と関連して説明したものとは異なる方法で、VRコンソール110の複数の構成要素に分散されてもよい。
アプリケーションストア150は、VRコンソール110による実行のための1つまたは複数のアプリケーションを格納する。アプリケーションは、プロセッサによる実行時に、ユーザに提示するためのコンテンツを生成する1つのグループの命令である。アプリケーションによって生成されるコンテンツは、VRヘッドセット105またはVR I/Oインタフェース115の動きによりユーザから受信した入力に応答したものであってもよい。アプリケーションの例には、ゲームアプリケーション、会議アプリケーション、ビデオ再生アプリケーション、または他の適切なアプリケーションが含まれる。
追跡モジュール155は、1つまたは複数の較正パラメータを使用してVRシステム環境100を較正するとともに、1つまたは複数の較正パラメータを調整して、VRヘッドセット105またはVR I/Oインタフェース115の位置の決定における誤差を低減することができる。例えば、追跡モジュール155は、較正パラメータをDCA120に伝達してDCA120の焦点を調整し、DCA120によって捕捉されるSL要素の位置をより正確に決定する。追跡モジュール155によって実行される較正はまた、VRヘッドセット105内のIMU140および/またはVR I/Oインタフェース115に含まれるIMU140から受信した情報を考慮する。さらに、VRヘッドセット105の追跡を喪失した場合(例えば、DCA120が少なくとも閾値数のSL要素の照準線を喪失する)、追跡モジュール140は、VRシステム環境100の一部または全部を再較正することができる。
追跡モジュール155は、DCA120、1つまたは複数の位置センサ135、IMU140またはそれらのいくつかの組合せからの情報を使用してVRヘッドセット105またはVR I/Oインタフェース115の動きを追跡する。例えば、追跡モジュール155は、VRヘッドセット105からの情報に基づいて局所領域のマッピングにおけるVRヘッドセット105の基準点の位置を決定する。追跡モジュール155は、IMU140からのVRヘッドセット105の位置を示すデータを使用して、またはVR I/Oインタフェース115に含まれるIMU140からのVR I/Oインタフェース115の位置を示すデータを使用して、VRヘッドセット105の基準点の位置またはVR I/Oインタフェース115の基準点を決定する。さらに、いくつかの実施形態では、追跡モジュール155は、IMU140からのVRヘッドセット105の位置を示すデータの一部ならびにDCA120からの局所領域の表現を使用してVRヘッドセット105の将来の位置を予測することができる。追跡モジュール155は、VRヘッドセット105またはVR I/Oインタフェース115の推定または予測した将来の位置をVRエンジン145に提供する。
VRエンジン145は、VRヘッドセット105から受信した情報に基づいて、VRヘッドセット105を取り囲む領域(即ち、「局所領域」)の3Dマッピングを生成する。いくつかの実施形態では、VRエンジン145は、VRヘッドセット105のDCA120によって捕捉された変形したSL要素の画像に基づいて、DCA120によって放射された光がVRヘッドセット105を取り囲む領域内の1つまたは複数の対象物によって反射された後にDCA120によって検出される経過時間に基づいて、またはDCA120によって捕捉された変形したSL要素の画像と、DCA120によって放射された光がVRヘッドセット105を取り囲む領域内の1つまたは複数の対象物によって反射された後にDCA120によって検出される経過時間との組合わせに基づいて局所領域の3Dマッピングに関する深度情報を決定する。様々な実施形態では、VRエンジン145は、DCA120によって決定された個々のタイプの情報、またはDCA120によって決定された組合せのタイプの情報を使用する。
VRエンジン145はまた、VRシステム環境100内のアプリケーションを実行して、VRヘッドセット105の位置情報、加速度情報、速度情報、予測した将来の位置、またはそれらのいくつかの組合せを追跡モジュール155から受信する。受信した情報に基づいて、VRエンジン145は、ユーザに提示するためにVRヘッドセット105に提供するコンテンツを決定する。例えば、受信した情報が、ユーザが左方向を見たことを示している場合、VRエンジン145は、バーチャル環境または追加のコンテンツで局所領域を拡張する環境においてユーザの動きを反映するVRヘッドセット105に対するコンテンツを生成する。さらに、VRエンジン145は、VR I/Oインタフェース115から受信したアクション要求に応答してVRコンソール110上で実行中のアプリケーション内でアクションを実行し、アクションが実行されたことをユーザにフィードバックする。提供されるフィードバックは、VRヘッドセット105による視覚的または聴覚的なフィードバックまたはVR I/Oインタフェース115による触覚フィードバックであり得る。
図2は、一実施形態のVRヘッドセット200の線図である。VRヘッドセット200は、VRヘッドセット105の一実施形態であり、前部剛体205、バンド210、基準点215、左側面220A、上面220B、右側面220C、底面220D、および前面220Eを含む。図2に示されたVRヘッドセット200はまた、図3および図4に関連して以下でさらに説明される、カメラ225および照明源230を含む一実施形態のデプスカメラ部品(DCA)120を含む。前部剛体205は、電子ディスプレイ125の1つまたは複数の電子ディスプレイ要素(図示せず)、IMU130、1つまたは複数の位置センサ135、および基準点215を含む。
図2に示す実施形態において、VRヘッドセット200は、カメラ225を含むDCA120と、既知の空間パターン(例えば、グリッド、一連のライン、対称ドットまたは準ランダムに配向されたドットのパターン)を局所領域上に投影するように構成された照明源230とを含む。例えば、空間パターンは、既知の幅と高さの1つまたは複数の幾何学要素を含み、空間パターンが局所領域に投影されたときに様々な幾何学要素の変形を計算して局所領域内の対象物に関する情報を提供することを可能にする。照明源230は、既知の空間パターンを特定の周波数を有するキャリア信号で時間的に変調する。様々な実施形態において、照明源230は、発光体に接続されたコントローラ(例えば、プロセッサ)を含み、コントローラは、発光体によって放射される光をキャリア信号によって変調して、キャリア信号の変化に基づいて発光体によって放射された光の強度を経時的に変化させる。発光体が既知の空間パターン(すなわち、「構造化光のパターン」または「構造化光パターン」)を放射するとき、既知の空間パターンの強度は、キャリア信号に基づいて経時的に変化する。例えば、照明源230は、既知の空間パターンを、10MHzの周波数を有する正弦波、100MHzの周波数を有する方形波、または任意の他の適切な信号で変調するコントローラに接続された発光体を含む。カメラ225は、局所領域の画像を捕捉し、局所領域の画像は、図3〜4Bに関して以下にさらに説明するように、局所領域の深度画像を計算するために使用される。
図3は、図2に示したVRヘッドセット200の前部剛体205の断面図である。図3に示すように、前部剛体205は、撮像デバイス225および照明源230を含む。図3の例において示すように、前部剛体205は、撮像デバイス225に接続されたプロセッサ315を含む。しかしながら、他の実施形態では、プロセッサ315は、撮像デバイス225に含まれる。前部剛体205はまた、光が前部剛体205を伝搬する経路に対応する光軸も有する。いくつかの実施形態では、撮像デバイス225は、光軸に沿って配置されており、かつ撮像デバイス225の視野内の前部剛体205を取り囲む環境の一部である局所領域305の画像を捕捉する。さらに、前部剛体205は、図1に関連して前にさらに説明されている電子ディスプレイ125および光学ブロック130を含む。前部剛体205はまた、ユーザの眼340が位置する射出瞳335を含む。説明のために、図3は、単一の眼340による前部剛体205の断面を示す。局所領域305は、入射した環境光ならびに照明源230によって投影された光を反射する。
図1に関連して前に説明したように、電子ディスプレイ125は、光学ブロック130に向けて画像を形成する光を放射し、光学ブロック130は、電子ディスプレイ125から受け取った光を変更する。光学ブロック130は、変更した画像光をユーザの眼340が位置している前部剛体205の位置にある射出瞳335に向ける。図3は、ユーザの単一の眼340のための前部剛体205の断面図を示し、前部剛体205に含まれる図3に示されるものとは別個の別の電子ディスプレイ125および光学ブロック130を用いて、局所領域305の拡張表現または仮想コンテンツなどのコンテンツがユーザの別の眼に提示される。
照明源230および撮像デバイス225を含むデプスカメラ部品(DCA)120は、照明源230から放射された光が局所領域305内の対象物から反射されて撮像デバイス225に戻る時間を表す情報を捕捉するとともに、検出器を用いて照明源230によって局所領域305上に投影された構造化光パターンの画像を捕捉する。いくつかの実施形態では、検出器は、撮像デバイス225に含まれる。前で説明したように、照明源230からの光が局所領域305内の対象物から反射する時間を捕捉するために、照明源230は、構造化光パターンを特定の周波数を有するキャリア信号で変調する。例えば、照明源230は、構造化光パターンを10MHzの正弦波で変調し、照明源230によって放射された光が、キャリア信号に基づいて経時的に変化するようにする。
空間的および時間的変調光パターンの両方を捕捉するために、撮像デバイス225は、複数の画素群を含む検出器を含む。図4Aは、撮像デバイス225に含まれる検出器400の一例を示す。図4Aにおける検出器は、画像データを捕捉するために画素群410,415,420,425を起動する個々の制御信号をそれぞれ受信する個々の画素群410,415,420,425を含む。個々の画素群410,415,420,425が個々の制御信号を受信することにより、個々の画素群410,415,420,425がオフセットで、さらに制御されたタイミングシーケンスで画像データを捕捉することが可能になる。例えば、画素群410,415,420,425によって受信された制御信号が特定の値を有する場合、画素群410,415,420,425は、局所領域305からの光を捕捉し、制御信号が別の値を有する場合、画素群410,415,420,425は、局所領域305からの光を捕捉しない。検出器400内の画素群410,415,420,425は、互いに最も近い画素群410,415,420,425が個々の時間で光を捕捉し、その結果、互いに最も近い画素群410,415,420,425によって捕捉された光の間に特定の位相シフトがもたらされるように互いに対して位置決めされている。図4Aの例において、画素群410によって捕捉された光は、画素群415によって捕捉された光に対して90度の位相シフトを有し、画素群415によって捕捉された光は、画素群420に対して90度の位相シフト(及び画素群410に対して180度の位相シフト)を有するように、画素群410,画素群415,画素群420,画素群425は個々の時間に光を捕捉する。しかしながら、他の実施形態では、画素群410によって捕捉された光は、画素群410に最も近い他の画素群415,420,425によって捕捉された光に対して任意の適切な特定の位相シフトを有する(例えば、45度の位相シフト、10度の位相シフトなど)。図4の例では、画素群425は、画素群420に対して90度の位相シフト(および画素群410に対して270度の位相シフト)を有する。同様に、画素群415、画素群420、および画素群425の各々は、他の画素群410,415,420,425に対して90度の位相シフトを有する光を捕捉する。例えば、画素群410、画素群415、画素群420、および画素群425は、それぞれ0度の位相シフト、90度の位相シフト、180度の位相シフト、および270度の位相シフトを有する光を捕捉する。様々な実施形態では、画素群410,415,420,425は、繰り返しパターンで検出器400内に配置される。例えば、検出器400は、図4Aに示すように相互に配置された画素群410,415,420,425をそれぞれ含む複数の2×2の格子を含む。
撮像デバイス225に接続された(または撮像デバイス225に含まれる)プロセッサ310は、撮像デバイス225からデータを受け取り、以下にさらに説明するように、構造化光のパターンを時間的に変調したキャリア信号の位相を決定する。キャリア信号の決定された位相に基づいて、プロセッサ310は、構造化光の変調されたパターンが局所領域内の1つまたは複数の対象物によって反射されて、撮像デバイス225の検出器400によって捕捉される時間を決定する。プロセッサ310は、局所領域内の個々の対象物による構造化光のパターンの反射に対して決定された時間から、検出器400から局所領域内の1つまたは複数の対象物までの距離を決定し、検出器400内の各画素群410,415,420,425によって捕捉された光から構造化光のパターンを含むフレームを生成する。
図4Bは、検出器400内の個々の画素群410,415,420,425によって受信される制御信号の一例を示す。図4Bの例において、制御信号が最大値を有する場合、制御信号を受信する画素群410,415,420,425は光を捕捉し、個々の制御信号を受信する画素群410,415,420,425は光を捕捉しない。同様に、制御信号が最小値を有する場合、制御信号を受信する画素群410,415,420,425は光を捕捉しない。図4Bに示すように、個々の画素群410,415,420,425に対する制御信号は、個々の時間に最大値を有するので、単一の画素群410,415,420,425は特定の時間に光を捕捉する。例えば、画素群415で受信された制御信号が最大値を有する場合、画素群410,420,425で受信される制御信号は最小値を有するので、画素群410,420,425は光を捕捉せず、画素群415は光を捕捉する。個々の画素群410,415,420,425は、それらの制御信号に基づいて光を連続的に捕捉する。各画素群410,415,420,425から光が捕捉されると、検出器はフレームを生成する。様々な実施形態において、光が各画素群410,415,420,425から複数回捕捉され、検出器は、画素群410,415,420,425によって捕捉された蓄積光からフレームを生成して、フレームの信号対雑音比を改善する。個々の画素群410,415,420,425から光を個々の時間に捕捉することが、各フレームに対する全体的な積分時間および撮像デバイス225のフレームレートによって決定された1つのフレームに対して光が捕捉される時間で、次のフレームに対して繰り返される。
したがって、一実施形態では、個々の画素群410,415,420,425は、局所領域305からの光を、個々のオフセット時間で捕捉する。これらの捕捉は、空間パターンを変調するキャリア信号の周波数の往復時間の一部である。例えば、図4Cは、照明源230が構造化光パターンを変調する例示的な正弦波キャリア信号430を示す。図4Cは、キャリア信号430を含む光を個々の時間に捕捉する個々の画素群410,415,420,425を特定している。画素群410は、画素群410によって受信される制御信号が最大値を有する時間の間にキャリア信号430の一部を含む光を捕捉し、画素群415,420,425は、キャリア信号の一部を含む光を捕捉しない。残りの画素群415,420,425は同様に、対応する画素群415,420,425によって受信される制御信号が最大値を有する時間間隔の間にキャリア信号430の一部を捕捉する。図4Cは、キャリア信号430を正弦波として示しているが、他の実施形態では、キャリア信号430は、方形波であるか、または周波数と高調波の組合わせを有する他の信号であってもよい。図4A〜4Cの例では、画素群410が光を捕捉するとき、残りの画素群415,420,245は光を捕捉しないので、単一の画素群が光を捕捉しているとき、残りの3つの画素群はその相対フレームの光を捕捉しない。各画素群410,415,420,425が単一の連続パターンの光を捕捉した後、撮像デバイス225によって捕捉されたフレームに対する積分時間中にシーケンスが繰り返される。
DCA120は、画像捕捉デバイス320内の個々の画素群410,415,420,425によって受光された光の強度に基づいて、キャリア信号の位相を決定する。例えば、DCA120は、画素群425によって捕捉された光と画素群415によって捕捉された光との間の差を決定する。さらに、DCA120は、画素群410によって捕捉された光と画素群420によって捕捉された光との間の追加の差を決定する。(最小の直交配置である)図4Aに示す検出器400の構成例において、DCA120は、キャリア信号の位相を、差と追加の差との比の逆正接として決定する。決定された位相を用いて、DCA120は、照明源230から放射された光が局所領域305内の対象物によって反射されて撮像デバイス225に戻る時間を決定する。DCA120は、決定された時間から、1つまたは複数のタイムオブフライト方法を使用して、DCA120と局所領域305内の様々な対象物との間の距離を決定する。さらに、DCA120は、決定された位相を使用して、個々の画素群410,415,420,425によって捕捉された光を、照明源310から放射された構造化光パターンが局所領域305に対するさらなる深度情報を提供することを可能にするフレームに合成する。1つまたは複数のタイムオブフライト方法によって決定された距離は、局所領域305内の対象物とDCA120との間の距離情報を提供し、撮像デバイス225によって捕捉された構造化光パターンの解析は、局所領域305内の対象物とDCA120との間に関連しているものの、固有の距離測定値を提供する。
図4Dは、デプスカメラ部品120の撮像デバイスに含まれる検出器405の別の例を示す。図4A〜図4Cに関連して説明された検出器400において、検出器400内の個々の画素群410,415,420,425は、撮像デバイス225がフレームを生成するための積分時間の一部の光を捕捉するように示されている。図4Dの例において、検出器405の各画素群410,415,420,425は、サーキュレータまたはスイッチのようなソフトウェアまたはハードウェアを介して実施することができる、各画素ごとに複数の電荷格納領域を含む。これにより、各画素群410,415,420,425は積分時間中に光を連続的に捕捉し、捕捉された光から生成された電流がキャリア信号430の周波数および位相タイミングに基づいて結合される場所を動的に変化させることができる。個々の画素群410,415,420,425によって捕捉された光から蓄積される電荷は、(図4Dに強調表示された矩形として示される)個々のサブウィンドウを提供する、個々の場所(例えば、メモリまたはコンデンサ)に蓄積される。図4Dに示すように、サブウィンドウは互いに対して90度の位相シフトを有するサブウィンドウを示す斜線に沿って合成される。各画素群410,415,420,425からのサブウィンドウは、信号対雑音比を増加させ、かつタイムオブフライト測定のためのフレームを生成するために位相が合成される。個々の時間に個々の画素群410,415,420,425によって捕捉された光は、前述した手法により合成され、キャリア信号430の位相が抽出される。図4Dの例では、各画素群410,415,420,425が連続的に光を捕捉し、捕捉された光からの電荷がキャリア周波数の位相で蓄積される場所を変化させるので、特定の最大積分時間内で強調表示されたサブウィンドウが合成される。例えば、図4Dの検出器405の各画素群410,415,420,425は、同時に光を捕捉し、かつキャリア周波数の位相を保持するためにキャリア信号430に基づいて画素群410,415,420,425によって蓄積される電荷が変化する場所を用いて、画素群41,415,420,425に対応する場所に電荷を蓄積する。いくつかの実施形態では、図4Dに示す検出器405の各画素群410,415,420,425は、検出器405の複数の画素群410,415,420,425が、最大100%のデューティサイクルにまで光を捕捉するように構成されて、いくつかの実施形態では、検出器405の複数の画素群410,415,420,425が複数の画素群410,415,420,425によって捕捉された光からの電荷を連続して同時に蓄積することを可能にする。前で説明したように、個々の画素群410,415,420,425によって決定された位相角は、構造的な光パターンを分析するために放射測定の差異の補正を可能にする。また、図4Dの例では、個々の画素群410,415,420,425による光の連続的な捕捉は、構造化光の画像解析のための受動的な補正を可能にする。各画素群410,415,420,425について全積分ウィンドウに亘って捕捉された全電荷を合計することにより、検出器405はカメラなどの画像捕捉デバイスとして動作する(画素レベルの積分タイミングにオフセットがないように見えるため)。したがって、図4Dに示す検出器405は、構造化光アルゴリズムに対する時間変調の影響を最小限に抑えることによって、相関する固定パターンノイズ、時間的ノイズ、または系統的ノイズの可能性を低減する。
図5Aは、構造化光パターン(空間パターンとも呼ばれる)を局所領域に投影する、撮像デバイス225および照明源230の例示的な構成を示す。図5Aにおいて、例示的な空間パターンは、照明源230の視野内に投影された垂直バーを含む。散乱反射または直接反射を介して、空間パターンは、撮像デバイス内の検出器によって捕捉されて、照明源230との三角測量により、構造光の手法が局所領域の3次元レイアウトを抽出することを可能にする。
図5Bは、撮像デバイス230および時間的に変調された照明源230からの構造化光パターン(空間パターンとも呼ばれる)を投影する照明源230の例示的な構成を示す。図5Bでは、時間変調は、局所領域に到達する前に照明源230からほぼ等しい距離にある矩形領域によって示されている。空間的なパターンが説明の便宜上、4つの垂直バーとして図5Bに示されている。したがって、図5Bにおける撮像デバイス225および照明源230は、空間パターンおよびタイムオブフライト情報を捕捉して、局所領域の深度を抽出するための空間的手法および時間的手法の両方をそれぞれ提供することを可能にする。図3〜図4Dに関連して前で説明したように、撮像デバイス225は、撮像デバイス225内の個々の画素群410,415,420,425の間の位相オフセットを制御することによって、空間的情報および時間的情報の両方を捕捉する共通の検出器を含む。
実施形態に関する前述の説明は、例示のために提示されたものであり、網羅的であること、または開示された正確な形態に特許権を限定することを意図するものではない。当業者であれば、上記の開示を参照して多くの変更および変形が可能であることを理解することができる。
本明細書で使用される用語は、主に、読みやすさおよび教示目的のために選択されたものであり、本発明の主題を画定または制限するために選択されていない。従って、特許権の範囲は、この詳細な説明ではなく、本明細書に基づいて出願時の任意の特許請求の範囲によって限定されることが意図される。従って、実施形態の開示は、特許権の範囲に限定するものではなく例示的なものとすることを意図する。

Claims (22)

  1. 装置であって、
    発光体に接続されたコントローラを含む照明源であって、前記コントローラは、前記発光体によって放射された光をキャリア信号によって変調して、前記照明源から放射された変調された光パターンの強度が前記キャリア信号に基づいて空間的かつ経時的に変化するように構成されている、前記照明源と、
    変調された光パターンの反射を捕捉するように構成された撮像デバイスであって、前記撮像デバイスは、検出器を含み、前記検出器は、複数の画素群を含み、前記複数の画素群の各々は、1つまたは複数の画素を含み、各画素群は、画素群が光を捕捉する時期を決定する制御信号を受信するように構成され、前記制御信号は、各画素群に他の画素群とは異なる時間に光を捕捉させる、前記撮像デバイスと、
    前記撮像デバイスに接続されたプロセッサであって、前記プロセッサは、
    前記検出器の個々の画素群によって受光される光の強度に基づいてキャリア信号の位相を決定し、
    前記キャリア信号の決定された位相に基づいて、変調されたパターンが局所領域内の1つの対象物から反射されて前記検出器によって捕捉される時間を決定し、
    前記光の強度に基づいて空間的情報を決定し、
    前記時間および前記空間的情報に基づいて前記局所領域内の対象物に関する深度情報を決定するように構成されている、前記プロセッサと
    を備える装置。
  2. 画素群は、前記画素群によって受信される前記制御信号が値を有するときに光を捕捉し、前記画素群によって受信される前記制御信号が別の値を有するときに光を捕捉しないように構成されている、請求項1に記載の装置。
  3. 個々の画素群によって受信される複数の制御信号は、個々の時間に前記値を有する、請求項2に記載の装置。
  4. 前記個々の時間に隣接する画素群によって受信される制御信号は、前記画素群によって捕捉される光が、前記画素群に隣接する他の画素群によって捕捉された光に対して特定の位相シフトを有するようにする、請求項2に記載の装置。
  5. 前記特定の位相シフトは、90度の位相シフトである、請求項4に記載の装置。
  6. 画素群によって受信される制御信号は、特定の時間に前記値を有し、他の画素群によって受信される制御信号は、前記特定の時間に前記別の値を有する、請求項5に記載の装置。
  7. 画素群によって受信される制御信号は、特定の時間に前記値を有し、前記画素群に隣接する各画素群によって受信される制御信号は、前記特定の時間に前記別の値を有する、請求項5に記載の装置。
  8. 前記検出器の個々の画素群によって受光される光の強度に基づいて前記キャリア信号の位相を決定することは、
    画素群によって捕捉された光の強度と前記画素群に隣接する他の画素群によって捕捉された光の強度との間の差を決定すること、
    別の画素群によって捕捉された光の強度と、前記別の画素群に隣接するさらなる画素群によって捕捉された光の強度との間の追加の差を決定すること、ここで、前記別の画素群およびさらなる画素群は、前記画素群に隣接し、
    前記差と前記追加の差との比に基づいて前記キャリア信号の位相を決定することを含む、請求項5に記載の装置。
  9. 前記差と前記追加の差との比に基づいて前記キャリア信号の位相を決定することは、
    前記追加の差に対する前記差の逆正接としてキャリア信号の位相を決定することを含む、請求項8に記載の装置。
  10. 前記検出器に含まれる前記複数の画素群は、繰り返しパターンで配置される、請求項1に記載の装置。
  11. 前記繰り返しパターンは、2×2の格子を含み、前記2×2の格子内の各画素群は、前記2×2の格子内の別の画素群によって捕捉される光に対して90度の位相シフトを有する光を捕捉する、請求項10に記載の装置。
  12. 前記キャリア信号は正弦波を含む、請求項1に記載の装置。
  13. 前記キャリア信号は方形波を含む、請求項1に記載の装置。
  14. 方法であって、
    変調された光パターンの強度がキャリア信号に基づいて空間的かつ経時的に変化するように前記パターンをキャリア信号によって変調するステップと、
    変調された光パターンを局所領域に放射するステップと、
    複数の画素群を含む検出器を使用して変調されたパターンの反射を捕捉するステップであって、各画素群は、他の画素群とは異なる時間に光を捕捉するように構成されている、前記放射するステップと、
    前記検出器の個々の画素群によって受光される光の強度に基づいて前記キャリア信号の位相を決定するステップと、
    前記キャリア信号の決定された位相に基づいて、前記変調されたパターンが局所領域内の1つの対象物から反射されて前記検出器によって検出される時間を決定するステップと、
    前記光の強度に基づいて空間的情報を決定するステップと、
    前記時間および前記空間的情報に基づいて前記局所領域内の対象物に関する深度情報を決定するステップ
    を含む方法。
  15. 複数の画素群を含む前記検出器を使用して前記変調されたパターンを捕捉することは、個々の時間に個々の画素群を使用して光を捕捉することを含む、請求項14に記載の方法。
  16. 個々の画素群を使用して光を個々の時間に捕捉することは、
    画素群によって捕捉された光が前記画素群に隣接する他の画素群によって捕捉された光に対して特定の位相シフトを有するように個々の画素群を使用して光を捕捉することを含む、請求項15に記載の方法。
  17. 前記特定の位相シフトが90度の位相シフトを含む、請求項16に記載の方法。
  18. 前記検出器の個々の画素群によって受光される光の強度に基づいて前記キャリア信号の位相を決定することは、
    前記検出器の画素群によって捕捉される光の強度と、前記画素群に隣接する画素群内の他の画素群によって捕捉される光の強度との間の差を決定すること、
    前記検出器の別の画素群によって捕捉された光の強度と、別の画素群に隣接する前記検出器のさらなる画素群によって捕捉された光の強度との間の追加の差を決定すること、
    前記差と前記追加の差との比に基づいて前記キャリア信号の位相を決定することを含む、請求項17に記載の方法。
  19. 差と追加の差との比に基づいて前記キャリア信号の位相を決定することは、
    前記キャリア信号の位相を前記追加の差に対する前記差の逆正接として決定することを含む、請求項17に記載の方法。
  20. 装置であって、
    変調された光パターンの強度がキャリア信号に基づいて空間的かつ経時的に変化するように前記光パターンをキャリア信号によって変調し、
    変調された光パターンを放射するように構成された照明源と、
    前記変調された光パターンの反射を捕捉するように構成された撮像デバイスであって、前記撮像デバイスは、検出器を含み、前記検出器は、複数の画素群を含み、各画素群は1つまたは複数の画素を含み、各画素群は、複数の電荷格納領域を含み、前記検出器は、画素群によって捕捉された光からの電荷を前記キャリア信号の周波数および位相に基づいて前記画素群に含まれる前記電荷格納領域のうちの1つに蓄積するように構成されている、前記撮像デバイスと
    前記撮像デバイスに接続されたプロセッサであって、前記プロセッサは、
    前記検出器の個々の画素群によって受光される光の強度に基づいて前記キャリア信号の位相を決定し、
    前記キャリア信号の決定された位相に基づいて、変調された光パターンが局所領域内の1つの対象物から反射されて前記検出器により捕捉される時間を決定し、
    前記光の強度に基づいて空間的情報を決定し、
    前記時間および前記空間的情報に基づいて前記局所領域内の対象物に関する深度情報を決定するように構成されている、前記プロセッサと
    を備える装置。
  21. 前記画素群は、光と、前記キャリア信号に基づいて変更された画素群に含まれる格納領域に蓄積された電荷とを同時に捕捉する、請求項20に記載の装置。
  22. 各画素群は、100%のデューティサイクルまで光を捕捉するように構成される、請求項21に記載の装置。
JP2018533883A 2016-01-15 2017-01-05 構造化光およびタイムオブフライトを用いた深度マッピング Active JP6546349B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662279629P 2016-01-15 2016-01-15
US62/279,629 2016-01-15
US15/268,325 US9858672B2 (en) 2016-01-15 2016-09-16 Depth mapping using structured light and time of flight
US15/268,325 2016-09-16
PCT/US2017/012346 WO2017123452A1 (en) 2016-01-15 2017-01-05 Depth mapping using structured light and time of flight

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019114525A Division JP6827073B2 (ja) 2016-01-15 2019-06-20 構造化光およびタイムオブフライトを用いた深度マッピング

Publications (2)

Publication Number Publication Date
JP2019504313A JP2019504313A (ja) 2019-02-14
JP6546349B2 true JP6546349B2 (ja) 2019-07-17

Family

ID=59312060

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018533883A Active JP6546349B2 (ja) 2016-01-15 2017-01-05 構造化光およびタイムオブフライトを用いた深度マッピング
JP2019114525A Active JP6827073B2 (ja) 2016-01-15 2019-06-20 構造化光およびタイムオブフライトを用いた深度マッピング

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019114525A Active JP6827073B2 (ja) 2016-01-15 2019-06-20 構造化光およびタイムオブフライトを用いた深度マッピング

Country Status (6)

Country Link
US (3) US9858672B2 (ja)
EP (2) EP3745185A1 (ja)
JP (2) JP6546349B2 (ja)
KR (2) KR101949950B1 (ja)
CN (1) CN108463740B (ja)
WO (1) WO2017123452A1 (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10481195B2 (en) 2015-12-02 2019-11-19 Machinesense, Llc Distributed IoT based sensor analytics for power line diagnosis
US10648735B2 (en) 2015-08-23 2020-05-12 Machinesense, Llc Machine learning based predictive maintenance of a dryer
JP6598673B2 (ja) * 2015-12-24 2019-10-30 キヤノン株式会社 データ処理装置およびその方法
US9858672B2 (en) * 2016-01-15 2018-01-02 Oculus Vr, Llc Depth mapping using structured light and time of flight
US10033988B2 (en) 2016-10-31 2018-07-24 Verizon Patent And Licensing Inc. Methods and systems for capturing depth data using frequency-segregated structured light
US10025384B1 (en) * 2017-01-06 2018-07-17 Oculus Vr, Llc Eye tracking architecture for common structured light and time-of-flight framework
US10154254B2 (en) 2017-01-17 2018-12-11 Facebook Technologies, Llc Time-of-flight depth sensing for eye tracking
CN110785741B (zh) * 2017-06-16 2024-04-26 微软技术许可有限责任公司 生成用户界面容器
DE102017117211B3 (de) 2017-07-31 2018-09-06 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur trajektorienbasierten Merkmalszuordnung in einem von einer Bilderfassungseinheit eines Fahrzeugs erfassten Bild
US10692279B2 (en) * 2017-07-31 2020-06-23 Quantum Spatial, Inc. Systems and methods for facilitating making partial selections of multidimensional information while maintaining a multidimensional structure
US10061352B1 (en) * 2017-08-14 2018-08-28 Oculus Vr, Llc Distributed augmented reality system
US10791283B2 (en) * 2017-09-01 2020-09-29 Facebook Technologies, Llc Imaging device based on lens assembly with embedded filter
JP6637936B2 (ja) * 2017-09-14 2020-01-29 株式会社Subaru 車両の路面判定装置
US10491877B1 (en) * 2017-12-21 2019-11-26 Facebook Technologies, Llc Depth camera assembly using multiplexed sensor phase measurements to determine depth using fringe interferometry
US10855973B1 (en) * 2017-12-21 2020-12-01 Facebook Technologies, Llc Depth mapping using fringe interferometry
JP7253323B2 (ja) * 2018-02-14 2023-04-06 オムロン株式会社 3次元計測システム及び3次元計測方法
US11716548B2 (en) 2018-03-13 2023-08-01 Meta Platforms Technologies, Llc Timing of multiplexed sensor phase measurements in a depth camera assembly for depth determination using fringe interferometry
CN108648222B (zh) * 2018-04-27 2021-08-17 华中科技大学 结构光深度数据空间分辨率的提升方法及装置
JP7214363B2 (ja) * 2018-04-27 2023-01-30 ソニーセミコンダクタソリューションズ株式会社 測距処理装置、測距モジュール、測距処理方法、およびプログラム
US10529128B1 (en) * 2018-04-27 2020-01-07 Facebook Technologies, Llc Apparatus, system, and method for mapping a 3D environment
US11187804B2 (en) 2018-05-30 2021-11-30 Qualcomm Incorporated Time of flight range finder for a structured light system
KR102596053B1 (ko) * 2018-08-27 2023-11-01 엘지이노텍 주식회사 영상 처리 장치 및 영상 처리 방법
WO2020045770A1 (en) * 2018-08-31 2020-03-05 Samsung Electronics Co., Ltd. Method and device for obtaining 3d images
KR102543027B1 (ko) * 2018-08-31 2023-06-14 삼성전자주식회사 3차원 이미지를 획득하기 위한 방법 및 장치
US10616550B1 (en) * 2018-09-14 2020-04-07 Facebook Technologies, Llc Generating a representation of an object from depth information determined in parallel from images captured by multiple cameras
US10916023B2 (en) 2018-09-14 2021-02-09 Facebook Technologies, Llc Depth measurement assembly with a structured light source and a time of flight camera
CN109343070A (zh) * 2018-11-21 2019-02-15 深圳奥比中光科技有限公司 时间飞行深度相机
CN109283508A (zh) * 2018-11-21 2019-01-29 深圳奥比中光科技有限公司 飞行时间计算方法
US10855896B1 (en) * 2018-12-13 2020-12-01 Facebook Technologies, Llc Depth determination using time-of-flight and camera assembly with augmented pixels
US10791282B2 (en) 2018-12-13 2020-09-29 Fenwick & West LLP High dynamic range camera assembly with augmented pixels
US10791286B2 (en) 2018-12-13 2020-09-29 Facebook Technologies, Llc Differentiated imaging using camera assembly with augmented pixels
JP7438555B2 (ja) 2019-04-22 2024-02-27 国立大学法人 奈良先端科学技術大学院大学 三次元計測方法および三次元計測装置
WO2021030034A1 (en) 2019-08-15 2021-02-18 Apple Inc. Depth mapping using spatial multiplexing of illumination phase
US10902623B1 (en) 2019-11-19 2021-01-26 Facebook Technologies, Llc Three-dimensional imaging with spatial and temporal coding for depth camera assembly
US11194160B1 (en) 2020-01-21 2021-12-07 Facebook Technologies, Llc High frame rate reconstruction with N-tap camera sensor
US20210255327A1 (en) * 2020-02-17 2021-08-19 Mediatek Inc. Emission And Reception Of Patterned Light Waves For Range Sensing
WO2021176873A1 (ja) * 2020-03-03 2021-09-10 ソニーグループ株式会社 情報処理装置と情報処理方法およびプログラム
US11763472B1 (en) 2020-04-02 2023-09-19 Apple Inc. Depth mapping with MPI mitigation using reference illumination pattern
CN115552285A (zh) 2020-06-11 2022-12-30 苹果公司 具有飞行时间感测能力的全局快门图像传感器
CN113298778B (zh) * 2021-05-21 2023-04-07 奥比中光科技集团股份有限公司 一种基于飞行时间的深度计算方法、系统及存储介质
JP2024005071A (ja) * 2022-06-29 2024-01-17 ソニーセミコンダクタソリューションズ株式会社 測距装置、測距システム、および測距方法

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3298081B2 (ja) 1994-12-06 2002-07-02 日本電信電話株式会社 ヘッドマウントディスプレイ装置
US6600168B1 (en) * 2000-02-03 2003-07-29 Genex Technologies, Inc. High speed laser three-dimensional imager
JP4466260B2 (ja) * 2004-07-30 2010-05-26 パナソニック電工株式会社 画像処理装置
WO2006013901A1 (ja) 2004-08-04 2006-02-09 Asahi Glass Company, Limited 液晶レンズ素子および光ヘッド装置
US20060210111A1 (en) 2005-03-16 2006-09-21 Dixon Cleveland Systems and methods for eye-operated three-dimensional object location
US8427426B2 (en) * 2005-05-27 2013-04-23 Sony Computer Entertainment Inc. Remote input device
KR100791389B1 (ko) * 2006-12-26 2008-01-07 삼성전자주식회사 스트럭쳐드 라이트를 이용한 거리 측정 장치 및 방법
US8150142B2 (en) * 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
US8224068B2 (en) * 2007-09-18 2012-07-17 University Of Kentucky Research Foundation (Ukrf) Lock and hold structured light illumination
JP5280030B2 (ja) * 2007-09-26 2013-09-04 富士フイルム株式会社 測距方法および装置
US7986321B2 (en) * 2008-01-02 2011-07-26 Spatial Integrated Systems, Inc. System and method for generating structured light for 3-dimensional image rendering
BR112012000189B1 (pt) * 2009-06-17 2020-01-21 3Shape As aparelho de varredura com foco.
EP2500687A3 (en) * 2011-03-14 2013-02-20 Heliotis SA Structured light projector
KR101788032B1 (ko) * 2011-03-24 2017-10-19 삼성전자주식회사 깊이 센서, 상기 깊이 센서의 깊이 정보 에러 보상 방법, 및 상기 깊이 센서를 포함하는 신호 처리 시스템
KR20130011692A (ko) * 2011-07-22 2013-01-30 삼성전자주식회사 깊이 영상과 컬러 영상을 획득하는 픽셀 구조를 가진 이미지 센서
CA2750287C (en) 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US9349182B2 (en) * 2011-11-10 2016-05-24 Carestream Health, Inc. 3D intraoral measurements using optical multiline method
JP2013104784A (ja) * 2011-11-14 2013-05-30 Mitsubishi Electric Corp 光3次元カメラ
WO2013078349A1 (en) * 2011-11-23 2013-05-30 The Trustees Of Columbia University In The City Of New York Systems, methods, and media for performing shape measurement
US8955973B2 (en) 2012-01-06 2015-02-17 Google Inc. Method and system for input detection using structured light projection
US20140085426A1 (en) 2012-09-24 2014-03-27 Alces Technology, Inc. Structured light systems with static spatial light modulators
TWI481901B (zh) * 2012-12-03 2015-04-21 Wistron Corp 頭戴式顯示裝置
RU2012154657A (ru) 2012-12-17 2014-06-27 ЭлЭсАй Корпорейшн Способы и устройство для объединения изображений с глубиной, генерированных с использованием разных способов формирования изображений с глубиной
JP6241793B2 (ja) * 2012-12-20 2017-12-06 パナソニックIpマネジメント株式会社 3次元測定装置および3次元測定方法
JP2014219621A (ja) 2013-05-10 2014-11-20 株式会社タイトー 表示装置、表示制御プログラム
KR102098277B1 (ko) 2013-06-11 2020-04-07 삼성전자주식회사 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP6403776B2 (ja) * 2013-08-19 2018-10-10 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se 光学検出器
US10061028B2 (en) * 2013-09-05 2018-08-28 Texas Instruments Incorporated Time-of-flight (TOF) assisted structured light imaging
TWI485361B (zh) * 2013-09-11 2015-05-21 Univ Nat Taiwan 三維形貌輪廓量測裝置及其方法
US20150102981A1 (en) 2013-10-11 2015-04-16 Microsoft Corporation Eye tracking
JP6146293B2 (ja) * 2013-12-25 2017-06-14 ソニー株式会社 制御装置、制御方法および制御システム
US9671612B2 (en) 2014-01-29 2017-06-06 Google Inc. Dynamic lens for head mounted display
US9749513B2 (en) * 2014-04-29 2017-08-29 Facebook, Inc. System and method for generating a light pattern for object illumination
US9753140B2 (en) * 2014-05-05 2017-09-05 Raytheon Company Methods and apparatus for imaging in scattering environments
US9330464B1 (en) * 2014-12-12 2016-05-03 Microsoft Technology Licensing, Llc Depth camera feedback
US9712806B2 (en) * 2014-12-19 2017-07-18 Datalogic ADC, Inc. Depth camera system using coded structured light
WO2016138143A1 (en) * 2015-02-25 2016-09-01 Oculus Vr, Llc Using intensity variations in a light pattern for depth mapping of objects in a volume
US10241569B2 (en) 2015-12-08 2019-03-26 Facebook Technologies, Llc Focus adjustment method for a virtual reality headset
US9858672B2 (en) * 2016-01-15 2018-01-02 Oculus Vr, Llc Depth mapping using structured light and time of flight

Also Published As

Publication number Publication date
KR20180081634A (ko) 2018-07-16
US9858672B2 (en) 2018-01-02
JP2019504313A (ja) 2019-02-14
EP3745185A1 (en) 2020-12-02
US20170206660A1 (en) 2017-07-20
US10228240B2 (en) 2019-03-12
CN108463740A (zh) 2018-08-28
CN108463740B (zh) 2020-01-21
US9976849B2 (en) 2018-05-22
US20180058844A1 (en) 2018-03-01
EP3403131A1 (en) 2018-11-21
KR102456961B1 (ko) 2022-10-21
KR101949950B1 (ko) 2019-02-19
US20180231372A1 (en) 2018-08-16
WO2017123452A1 (en) 2017-07-20
KR20190010742A (ko) 2019-01-30
JP6827073B2 (ja) 2021-02-10
EP3403131A4 (en) 2019-08-21
EP3403131B1 (en) 2020-11-18
JP2019219399A (ja) 2019-12-26

Similar Documents

Publication Publication Date Title
JP6546349B2 (ja) 構造化光およびタイムオブフライトを用いた深度マッピング
CN113016177B (zh) 具有结构光源和飞行时间相机的深度测量组件
JP6866365B2 (ja) ステレオカメラと構造化光とを用いたヘッドマウントディスプレイを伴う奥行きマッピング
US10469722B2 (en) Spatially tiled structured light projector
CN108370438B (zh) 范围选通的深度相机组件
CN109565585B (zh) 用于深度信息确定的多发射器照明源
CN109425306B (zh) 深度测量组件
US20190072771A1 (en) Depth measurement using multiple pulsed structured light projectors
US10957059B1 (en) Multi-pattern depth camera assembly
WO2018038763A1 (en) Array detector for depth mapping
US10574938B1 (en) Variable frame rate depth camera assembly
US10855973B1 (en) Depth mapping using fringe interferometry
US10852434B1 (en) Depth camera assembly using fringe interferometery via multiple wavelengths

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190327

TRDD Decision of grant or rejection written
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190517

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190620

R150 Certificate of patent or registration of utility model

Ref document number: 6546349

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250