JP7076368B2 - レンジゲート式デプスカメラ部品 - Google Patents
レンジゲート式デプスカメラ部品 Download PDFInfo
- Publication number
- JP7076368B2 JP7076368B2 JP2018527936A JP2018527936A JP7076368B2 JP 7076368 B2 JP7076368 B2 JP 7076368B2 JP 2018527936 A JP2018527936 A JP 2018527936A JP 2018527936 A JP2018527936 A JP 2018527936A JP 7076368 B2 JP7076368 B2 JP 7076368B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- zone
- depth zone
- zones
- empty
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
- G01S17/18—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0025—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Optics & Photonics (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- User Interface Of Digital Computer (AREA)
Description
図1は、ARコンソール110が動作する拡張現実(AR:augmented reality)システム環境100の一実施形態のブロック図である。本明細書で使用されるように、ARシステム環境100は、ユーザが対話することができる仮想環境をユーザに提示する仮想現実システム環境を含み得る。図1に示すARシステム環境100は、ARコンソール110にそれぞれ結合されたARヘッドセット105およびAR入出力(I/O)インタフェース115を備える。図1は、1つのARヘッドセット105および1つのAR I/Oインタフェース115を含む例示的なシステム100を示しているが、他の実施形態では、任意の数のこれらのコンポーネントがARシステム環境100に含まれてもよい。例えば、複数のARヘッドセット105が設けられ、各ARヘッドセット105がAR I/Oインタフェース115を有し、各ARヘッドセット105およびAR I/Oインタフェース115がARコンソール110と通信してもよい。代替の構成では、異なるおよび/または追加のコンポーネントをARシステム環境100に含ませることができる。さらに、いくつかの実施形態において図1に示される1つまたは複数の構成要素と関連して説明される機能が、図1に関連して説明したのとは異なる方法で複数の構成要素に分配されてもよい。例えば、ARコンソール110の機能の一部または全部は、ARヘッドセット105によって提供される。
本開示の実施形態に関する前述の説明は、例示のために提示されたものであり、網羅的であること、または開示された正確な形態に本開示を限定することを意図するものではない。当業者であれば、上記の開示を参照して多くの変更および変形が可能であることを理解することができる。
Claims (20)
- レンジゲート式デプスカメラ部品であって、
照明光パルスを放射するように構成された照明源と、
局所領域の複数の画像を捕捉することにより画像データを生成するように構成された撮像装置と、
コントローラと、を備え、前記コントローラは、
前記複数の画像のうちの画像のコントラスト測定値がコントラスト閾値未満であるとの決定に応答して、前記照明光パルスの振幅および量を少なくとも含む1つまたは複数の照明パラメータを調整し、
前記1つまたは複数の照明パラメータに従って、複数の照明光パルスを放射して前記局所領域のシーンを照明するように前記照明源を調整し、前記局所領域は、少なくとも1つの非空の深度ゾーンを含む複数の深度ゾーンに分割され、前記非空の深度ゾーンは、少なくとも1つの対象物を含み、
前記複数の深度ゾーンの各非空の深度ゾーンに対して、一組の反射光パルスを記録して前記非空の深度ゾーンの画像データを生成するように前記撮像装置を調整し、前記一組の反射光パルスは、前記非空の深度ゾーンに含まれる1つまたは複数の対象物から反射された前記照明光パルスであり、
複数の非空の深度ゾーンのうちの前記少なくとも1つの非空の深度ゾーンに対して生成された前記画像データを使用して、前記シーンの1つまたは複数の部分的に拡張された画像を生成し、前記1つまたは複数の部分的に拡張された画像のうちの少なくとも1つは、前記少なくとも1つの対象物についての深度情報を含み、
前記シーンの前記1つまたは複数の部分的に拡張された画像をコンソールに提供する
ように構成されており、
前記1つまたは複数の部分的に拡張された画像は、ユーザに提示するための仮想コンテンツを生成するために使用される、レンジゲート式デプスカメラ部品。 - 前記深度ゾーンの第1の深度ゾーンに対する第1の露光期間は、前記深度ゾーンの第2の深度ゾーンに対する第2の露光期間とは異なり、前記第1の深度ゾーンは、前記第2の深度ゾーンとは異なる、請求項1に記載のレンジゲート式デプスカメラ部品。
- 前記シーンの前記1つまたは複数の部分的に拡張された画像を生成することは、深度ゾーンの画像データを当該深度ゾーンの深度情報に関連付けることを含む、請求項1に記載のレンジゲート式デプスカメラ部品。
- 前記コントローラは、さらに
前記撮像装置から前記深度ゾーンのうちの1つの深度ゾーンまでの距離、および前記複数の画像のうちの前記画像の品質のうちの1つに少なくとも基づいて前記1つまたは複数の照明パラメータを調整するように構成されている、請求項1に記載のレンジゲート式デプスカメラ部品。 - 前記コントローラは、さらに
対象物の反射率、対象物の動きの速度、対象物の前記撮像装置からの距離、前記画像のノイズ測定値、および前記画像の信号対雑音比(SNR)のうちの少なくとも1つに基づいて前記1つまたは複数の照明パラメータを調整するように構成されており、前記1つまたは複数の照明パラメータは、前記照明光パルスのパルス幅、振幅、周波数、量、および波長のうちの少なくとも1つを含む、請求項1に記載のレンジゲート式デプスカメラ部品。 - 前記コントローラは、1つまたは複数の露光パラメータに従って前記撮像装置を調整するようにさらに構成され、前記コントローラは、さらに
前記照明源の前記1つまたは複数の照明パラメータおよび前記深度ゾーンの特性に少なくとも基づいて、更新された1つまたは複数の露光パラメータを決定し、
前記更新された1つまたは複数の露光パラメータに従って前記1つまたは複数の露光パラメータを調整するように構成され、前記1つまたは複数の露光パラメータは、露光期間、前記露光期間の開始時間、読み出しフレームごとの繰り返し回数、および読み出しフレームごとの繰り返しカウント値のうちの少なくとも1つを含む、請求項1に記載のレンジゲート式デプスカメラ部品。 - 前記コントローラはさらに
前記局所領域を前記複数の深度ゾーンに分割し、前記複数の深度ゾーンの数が予め定められており、
前記複数の深度ゾーンの各非空の深度ゾーンに対して、前記撮像装置からの所定の距離範囲内に1つまたは複数の対象物を特定して前記1つまたは複数の対象物を識別するように構成されている、請求項1に記載のレンジゲート式デプスカメラ部品。 - 前記コントローラはさらに
前記複数の深度ゾーンを生成するように構成され、前記複数の深度ゾーンを生成することは、
前記局所領域を第2の複数の所定の深度ゾーンに分割すること、各所定の深度ゾーンの寸法は予め定められており、
複数の空の深度ゾーンを識別すること、前記複数の空の深度ゾーンは、対象物を含まない前記第2の複数の所定の深度ゾーンの一部であり、
識別された前記複数の空の深度ゾーンのうちの互いに隣接する2つを、単一の空の深度ゾーンに結合することを含む、請求項1に記載のレンジゲート式デプスカメラ部品。 - 前記コントローラはさらに
前記複数の深度ゾーンを生成するように構成され、前記複数の深度ゾーンを生成することは、
前記局所領域を第1の組の深度ゾーンのセットに分割すること、
一組の非空の深度ゾーンを識別すること、前記一組の非空の深度ゾーンは、少なくとも1つの対象物を含む前記第1の組の深度ゾーンの一部であり、
各非空の深度ゾーンに対して、当該非空の深度ゾーンを第2の組の深度ゾーンに分割することを含み、前記第2の組の深度ゾーンの各深度ゾーンの寸法は閾値寸法より大きい、請求項1に記載のレンジゲート式デプスカメラ部品。 - 前記コントローラはさらに
前記複数の深度ゾーンの各深度ゾーンに対して、
当該深度ゾーンの第1の境界を第1の対象物の第1の位置に調整し、前記第1の対象物は、前記深度ゾーンに含まれる1つまたは複数の対象物の中で前記撮像装置までの最短距離を有し、
当該深度ゾーンの第2の境界を第2の対象物の第2の位置に調整するように構成され、前記第2の対象物は、前記深度ゾーンに含まれる1つまたは複数の対象物の中で前記撮像装置までの最長距離を有する、請求項1に記載のレンジゲート式デプスカメラ部品。 - 前記コントローラはさらに
深度ゾーンを監視するように構成され、深度ゾーンを監視することは、
深度ゾーンに含まれる対象物の動きを検出すること、
前記対象物の動きを検出することに応答して、前記対象物から前記撮像装置までの更新された距離を決定すること、
前記更新された距離に基づいて前記複数の深度ゾーンを調整することによって第2の複数の調整された深度ゾーンを生成することを含み、前記複数の深度ゾーンを調整することは、前記複数の深度ゾーンのうちのある深度ゾーンの境界を調整すること、前記更新された距離が第1の所定の範囲内であると判定することに応答して新規の深度ゾーンを形成すること、および前記更新された距離が第2の所定の範囲外であると判定することに応答して、既存の深度ゾーンを除去することのうちの少なくとも1つを含む、請求項1に記載のレンジゲート式デプスカメラ部品。 - HMD(ヘッドマウントディスプレイ)であって、
電子ディスプレイと、
レンジゲート式デプスカメラ部品であって、
照明光パルスを放射するように構成された照明源と、
局所領域の複数の画像を捕捉することにより画像データを生成するように構成された撮像装置と、
コントローラと、を含む前記レンジゲート式デプスカメラ部品と、を備え、前記コントローラは、
前記複数の画像のうちの画像のコントラスト測定値がコントラスト閾値未満であるとの決定に応答して、前記照明光パルスの振幅および量を少なくとも含む1つまたは複数の照明パラメータを調整し、
前記1つまたは複数の照明パラメータに従って、複数の照明光パルスを放射して前記局所領域のシーンを照明するように前記照明源を調整し、前記局所領域は、少なくとも1つの非空の深度ゾーンを含む複数の深度ゾーンに分割され、前記非空の深度ゾーンは、少なくとも1つの対象物を含み、
前記複数の深度ゾーンの各非空の深度ゾーンに対して、一組の反射光パルスを記録して前記非空の深度ゾーンの画像データを生成するように前記撮像装置を調整し、前記一組の反射光パルスは、前記非空の深度ゾーンに含まれる1つまたは複数の対象物から反射された前記照明光パルスであり、
複数の非空の深度ゾーンの前記少なくとも1つの非空の深度ゾーンに対して生成された前記画像データを使用して、前記シーンの1つまたは複数の部分的に拡張された画像を生成し、前記1つまたは複数の部分的に拡張された画像のうちの少なくとも1つは、前記少なくとも1つの対象物についての深度情報を含み、
前記シーンの前記1つまたは複数の部分的に拡張された画像をコンソールに提供する
ように構成されており、
前記1つまたは複数の部分的に拡張された画像は、ユーザに提示するための仮想コンテンツを生成するために使用される、HMD。 - 前記深度ゾーンの第1の深度ゾーンに対する第1の露光期間は、前記深度ゾーンの第2の深度ゾーンに対する第2の露光期間とは異なり、前記第1の深度ゾーンは、前記第2の深度ゾーンとは異なる、請求項12に記載のHMD。
- 前記シーンの前記1つまたは複数の部分的に拡張された画像を生成することは、深度ゾーンの画像データを当該深度ゾーンの深度情報に関連付けることを含む、請求項12に記載のHMD。
- 前記コントローラは、さらに
前記撮像装置から前記深度ゾーンのうちの1つの深度ゾーンまでの距離、および前記複数の画像のうちの前記画像の品質のうちの1つに少なくとも基づいて前記1つまたは複数の照明パラメータを調整するように構成されている、請求項12に記載のHMD。 - 前記コントローラは、さらに
対象物の反射率、対象物の動きの速度、対象物の前記撮像装置からの距離、前記画像のノイズ測定値、および前記画像の信号対雑音比(SNR)のうちの少なくとも1つに基づいて前記1つまたは複数の照明パラメータを調整するように構成されており、前記1つまたは複数の照明パラメータは、前記照明光パルスのパルス幅、振幅、周波数、量、および波長のうちの少なくとも1つを含む、請求項12に記載のHMD。 - 前記コントローラは、1つまたは複数の露光パラメータに従って前記撮像装置を調整するようにさらに構成され、前記コントローラは、さらに
前記照明源の前記1つまたは複数の照明パラメータおよび前記深度ゾーンの特性に少なくとも基づいて、更新された1つまたは複数の露光パラメータを決定し、
前記更新された1つまたは複数の露光パラメータに従って前記1つまたは複数の露光パラメータを調整するように構成され、前記1つまたは複数の露光パラメータは、露光期間、前記露光期間の開始時間、読み出しフレームごとの繰り返し回数、および読み出しフレームごとの繰り返しカウント値のうちの少なくとも1つを含む、請求項12に記載のHMD。 - 方法であって、
撮像装置により捕捉された局所領域の複数の画像のうちの画像のコントラスト測定値が、コントラスト閾値未満であると決定するステップと、
前記コントラスト測定値が前記コントラスト閾値未満であることに基づいて、複数の照明光パルスの振幅および量を少なくとも含む1つまたは複数の照明パラメータを調整するステップと、
前記1つまたは複数の照明パラメータに従って、照明源が前記複数の照明光パルスを放射して前記局所領域のシーンを照明するステップと、前記局所領域は、少なくとも1つの非空の深度ゾーンを含む複数の深度ゾーンに分割され、前記非空の深度ゾーンは、少なくとも1つの対象物を含み、
前記複数の深度ゾーンの各深度ゾーンに対して、一組の反射光パルスを記録して前記非空の深度ゾーンに対する画像データを生成するステップと、前記一組の反射光パルスは、前記非空の深度ゾーンに含まれる1つまたは複数の対象物から反射された前記照明光パルスであり、
複数の非空の深度ゾーンのうちの前記少なくとも1つの非空の深度ゾーンに対して生成された前記画像データを使用して、前記シーンの1つまたは複数の部分的に拡張された画像を生成するステップと、前記1つまたは複数の部分的に拡張された画像のうちの少なくとも1つは、前記少なくとも1つの対象物についての深度情報を含み、
前記シーンの前記1つまたは複数の部分的に拡張された画像をコンソールに提供するステップと、を含み、
前記1つまたは複数の部分的に拡張された画像は、ユーザに提示するための仮想コンテンツを生成するために使用される、方法。 - 前記深度ゾーンの第1の深度ゾーンに対する第1の露光期間は、前記深度ゾーンの第2の深度ゾーンに対する第2の露光期間とは異なり、前記第1の深度ゾーンは、前記第2の深度ゾーンとは異なる、請求項18に記載の方法。
- 前記シーンの前記1つまたは複数の部分的に拡張された画像を生成することは、深度ゾーンの画像データを当該深度ゾーンの深度情報に関連付けることを含む、請求項18に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562268488P | 2015-12-16 | 2015-12-16 | |
US62/268,488 | 2015-12-16 | ||
US15/372,779 US10708577B2 (en) | 2015-12-16 | 2016-12-08 | Range-gated depth camera assembly |
US15/372,779 | 2016-12-08 | ||
PCT/US2016/065985 WO2017106053A1 (en) | 2015-12-16 | 2016-12-09 | Range-gated depth camera assembly |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019506768A JP2019506768A (ja) | 2019-03-07 |
JP7076368B2 true JP7076368B2 (ja) | 2022-05-27 |
Family
ID=59057427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018527936A Active JP7076368B2 (ja) | 2015-12-16 | 2016-12-09 | レンジゲート式デプスカメラ部品 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10708577B2 (ja) |
EP (1) | EP3391648B1 (ja) |
JP (1) | JP7076368B2 (ja) |
KR (1) | KR20190028356A (ja) |
CN (1) | CN108370438B (ja) |
WO (1) | WO2017106053A1 (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10551614B2 (en) * | 2017-08-14 | 2020-02-04 | Facebook Technologies, Llc | Camera assembly with programmable diffractive optical element for depth sensing |
US10061352B1 (en) * | 2017-08-14 | 2018-08-28 | Oculus Vr, Llc | Distributed augmented reality system |
US10586342B2 (en) | 2017-08-31 | 2020-03-10 | Facebook Technologies, Llc | Shifting diffractive optical element for adjustable depth sensing resolution |
US10506217B2 (en) * | 2017-10-09 | 2019-12-10 | Facebook Technologies, Llc | Head-mounted display tracking system |
US10311584B1 (en) | 2017-11-09 | 2019-06-04 | Facebook Technologies, Llc | Estimation of absolute depth from polarization measurements |
FR3073999B1 (fr) * | 2017-11-23 | 2024-02-09 | Ateme | Compression intelligente de contenus video graines |
US10491877B1 (en) * | 2017-12-21 | 2019-11-26 | Facebook Technologies, Llc | Depth camera assembly using multiplexed sensor phase measurements to determine depth using fringe interferometry |
US11716548B2 (en) | 2018-03-13 | 2023-08-01 | Meta Platforms Technologies, Llc | Timing of multiplexed sensor phase measurements in a depth camera assembly for depth determination using fringe interferometry |
US10559121B1 (en) * | 2018-03-16 | 2020-02-11 | Amazon Technologies, Inc. | Infrared reflectivity determinations for augmented reality rendering |
US10607567B1 (en) | 2018-03-16 | 2020-03-31 | Amazon Technologies, Inc. | Color variant environment mapping for augmented reality |
US10777010B1 (en) | 2018-03-16 | 2020-09-15 | Amazon Technologies, Inc. | Dynamic environment mapping for augmented reality |
US10999524B1 (en) * | 2018-04-12 | 2021-05-04 | Amazon Technologies, Inc. | Temporal high dynamic range imaging using time-of-flight cameras |
CN108683843B (zh) * | 2018-04-28 | 2020-02-18 | Oppo广东移动通信有限公司 | 电子设备控制方法、装置、电子设备和可读存储介质 |
US11182914B2 (en) | 2018-05-21 | 2021-11-23 | Facebook Technologies, Llc | Dynamic structured light for depth sensing systems based on contrast in a local area |
US10708484B2 (en) | 2018-06-20 | 2020-07-07 | Amazon Technologies, Inc. | Detecting interference between time-of-flight cameras using modified image sensor arrays |
US10877238B2 (en) * | 2018-07-17 | 2020-12-29 | STMicroelectronics (Beijing) R&D Co. Ltd | Bokeh control utilizing time-of-flight sensor to estimate distances to an object |
US10681338B1 (en) | 2018-07-24 | 2020-06-09 | Amazon Technologies, Inc. | Detecting interference in depth images captured using overlapping depth cameras |
US10732285B2 (en) * | 2018-09-26 | 2020-08-04 | Qualcomm Incorporated | Multi-phase active light depth system |
US11353588B2 (en) * | 2018-11-01 | 2022-06-07 | Waymo Llc | Time-of-flight sensor with structured light illuminator |
US10630925B1 (en) * | 2018-12-03 | 2020-04-21 | Facebook Technologies, Llc | Depth determination using polarization of light and camera assembly with augmented pixels |
US10791286B2 (en) | 2018-12-13 | 2020-09-29 | Facebook Technologies, Llc | Differentiated imaging using camera assembly with augmented pixels |
US10791282B2 (en) | 2018-12-13 | 2020-09-29 | Fenwick & West LLP | High dynamic range camera assembly with augmented pixels |
US10855896B1 (en) | 2018-12-13 | 2020-12-01 | Facebook Technologies, Llc | Depth determination using time-of-flight and camera assembly with augmented pixels |
US10915783B1 (en) | 2018-12-14 | 2021-02-09 | Amazon Technologies, Inc. | Detecting and locating actors in scenes based on degraded or supersaturated depth data |
CN113498473B (zh) * | 2019-02-22 | 2024-08-16 | 普罗费塞公司 | 使用动态视觉传感器和图案投影的三维成像和感测 |
CN113631944B (zh) * | 2019-03-27 | 2024-07-30 | 松下知识产权经营株式会社 | 距离测量装置以及图像生成方法 |
EP3757945A1 (en) * | 2019-06-24 | 2020-12-30 | Imec VZW | Device for generating an augmented reality image |
CN110456380B (zh) * | 2019-07-31 | 2021-12-28 | 炬佑智能科技(苏州)有限公司 | 飞行时间传感相机及其深度检测方法 |
CN110346780A (zh) * | 2019-07-31 | 2019-10-18 | 炬佑智能科技(苏州)有限公司 | 飞行时间传感相机及其局部检测精度调整方法 |
CN110749902A (zh) * | 2019-10-09 | 2020-02-04 | 深圳奥锐达科技有限公司 | 一种基于时间分段的3d成像系统及成像方法 |
US10902623B1 (en) | 2019-11-19 | 2021-01-26 | Facebook Technologies, Llc | Three-dimensional imaging with spatial and temporal coding for depth camera assembly |
CN113126072B (zh) * | 2019-12-30 | 2023-12-29 | 浙江舜宇智能光学技术有限公司 | 深度相机及控制方法 |
US11194160B1 (en) | 2020-01-21 | 2021-12-07 | Facebook Technologies, Llc | High frame rate reconstruction with N-tap camera sensor |
CN111398976B (zh) * | 2020-04-01 | 2022-08-23 | 宁波飞芯电子科技有限公司 | 探测装置及方法 |
DE102020002994B4 (de) | 2020-05-19 | 2023-03-30 | Daimler Truck AG | Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung |
CN113484874B (zh) * | 2021-06-25 | 2023-10-17 | 山东航天电子技术研究所 | 一种实现飞行时间域全探测的主动成像装置及成像方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000055632A (ja) | 1998-08-12 | 2000-02-25 | Fuji Xerox Co Ltd | 三次元形状計測法および装置 |
JP2004152133A (ja) | 2002-10-31 | 2004-05-27 | Nippon Telegr & Teleph Corp <Ntt> | 仮想視点画像生成方法及び仮想視点画像生成装置、ならびに仮想視点画像生成プログラム及び記録媒体 |
JP2010008093A (ja) | 2008-06-24 | 2010-01-14 | Toshiba Corp | 赤外線撮像装置および赤外線撮像方法 |
WO2014150728A1 (en) | 2013-03-15 | 2014-09-25 | Qualcomm Incorporated | Detection of a zooming gesture |
JP2015125641A (ja) | 2013-12-26 | 2015-07-06 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、その制御方法、及びプログラム |
JP2015527761A (ja) | 2012-05-29 | 2015-09-17 | ブライトウェイ ビジョン リミテッド | 適用可能な被写界深度を使用するゲーテッド撮像 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07110381A (ja) * | 1993-10-07 | 1995-04-25 | Wacom Co Ltd | 距離カメラ装置 |
US6587186B2 (en) * | 2000-06-06 | 2003-07-01 | Canesta, Inc. | CMOS-compatible three-dimensional image sensing using reduced peak energy |
US7663689B2 (en) * | 2004-01-16 | 2010-02-16 | Sony Computer Entertainment Inc. | Method and apparatus for optimizing capture device settings through depth information |
US8355117B2 (en) * | 2005-12-21 | 2013-01-15 | Ecole Polytechnique Federale De Lausanne | Method and arrangement for measuring the distance to an object |
CN102099703A (zh) * | 2007-12-19 | 2011-06-15 | 微软国际控股私有有限公司 | 3d照相机及其选通方法 |
US8325978B2 (en) * | 2008-10-30 | 2012-12-04 | Nokia Corporation | Method, apparatus and computer program product for providing adaptive gesture analysis |
US8320621B2 (en) * | 2009-12-21 | 2012-11-27 | Microsoft Corporation | Depth projector system with integrated VCSEL array |
US8717469B2 (en) * | 2010-02-03 | 2014-05-06 | Microsoft Corporation | Fast gating photosurface |
WO2012020380A1 (en) * | 2010-08-11 | 2012-02-16 | Primesense Ltd. | Scanning projectors and image capture modules for 3d mapping |
WO2014014838A2 (en) | 2012-07-15 | 2014-01-23 | 2R1Y | Interactive illumination for gesture and/or object recognition |
US9851245B2 (en) * | 2012-11-06 | 2017-12-26 | Microsoft Technology Licensing, Llc | Accumulating charge from multiple imaging exposure periods |
US9894255B2 (en) * | 2013-06-17 | 2018-02-13 | Industrial Technology Research Institute | Method and system for depth selective segmentation of object |
US10613642B2 (en) | 2014-03-12 | 2020-04-07 | Microsoft Technology Licensing, Llc | Gesture parameter tuning |
KR102144543B1 (ko) | 2014-05-08 | 2020-08-18 | 주식회사 히타치엘지 데이터 스토리지 코리아 | Tof 카메라에서 신호 검출 방법 |
TWI529662B (zh) * | 2014-12-15 | 2016-04-11 | 財團法人工業技術研究院 | 基於深度資訊的模型建構方法、圖形處理裝置與紀錄媒體 |
US10133947B2 (en) * | 2015-01-16 | 2018-11-20 | Qualcomm Incorporated | Object detection using location data and scale space representations of image data |
US10126459B2 (en) * | 2015-03-12 | 2018-11-13 | Raytheon Company | System and method for depth profiling by temporal and spatial range gating based on penetrating electromagnetic radiation |
-
2016
- 2016-12-08 US US15/372,779 patent/US10708577B2/en active Active
- 2016-12-09 KR KR1020187017648A patent/KR20190028356A/ko active IP Right Grant
- 2016-12-09 CN CN201680072127.1A patent/CN108370438B/zh active Active
- 2016-12-09 WO PCT/US2016/065985 patent/WO2017106053A1/en active Application Filing
- 2016-12-09 JP JP2018527936A patent/JP7076368B2/ja active Active
- 2016-12-09 EP EP16876429.8A patent/EP3391648B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000055632A (ja) | 1998-08-12 | 2000-02-25 | Fuji Xerox Co Ltd | 三次元形状計測法および装置 |
JP2004152133A (ja) | 2002-10-31 | 2004-05-27 | Nippon Telegr & Teleph Corp <Ntt> | 仮想視点画像生成方法及び仮想視点画像生成装置、ならびに仮想視点画像生成プログラム及び記録媒体 |
JP2010008093A (ja) | 2008-06-24 | 2010-01-14 | Toshiba Corp | 赤外線撮像装置および赤外線撮像方法 |
JP2015527761A (ja) | 2012-05-29 | 2015-09-17 | ブライトウェイ ビジョン リミテッド | 適用可能な被写界深度を使用するゲーテッド撮像 |
WO2014150728A1 (en) | 2013-03-15 | 2014-09-25 | Qualcomm Incorporated | Detection of a zooming gesture |
JP2015125641A (ja) | 2013-12-26 | 2015-07-06 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、その制御方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3391648B1 (en) | 2021-07-07 |
CN108370438A (zh) | 2018-08-03 |
WO2017106053A1 (en) | 2017-06-22 |
US10708577B2 (en) | 2020-07-07 |
JP2019506768A (ja) | 2019-03-07 |
CN108370438B (zh) | 2021-03-23 |
EP3391648A1 (en) | 2018-10-24 |
EP3391648A4 (en) | 2019-05-22 |
KR20190028356A (ko) | 2019-03-18 |
US20170180713A1 (en) | 2017-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7076368B2 (ja) | レンジゲート式デプスカメラ部品 | |
JP6827073B2 (ja) | 構造化光およびタイムオブフライトを用いた深度マッピング | |
JP6866365B2 (ja) | ステレオカメラと構造化光とを用いたヘッドマウントディスプレイを伴う奥行きマッピング | |
US11132805B2 (en) | Depth measurement assembly with a structured light source and a time of flight camera | |
US10878236B2 (en) | Eye tracking using time multiplexing | |
CN109425306B (zh) | 深度测量组件 | |
CN110658914B (zh) | 边界区域的闪烁追踪 | |
US10725537B2 (en) | Eye tracking system using dense structured light patterns | |
US10684674B2 (en) | Tracking portions of a user's face uncovered by a head mounted display worn by the user | |
CN108352075A (zh) | 使用光流的眼睛跟踪 | |
US10957059B1 (en) | Multi-pattern depth camera assembly | |
JP2018518750A (ja) | 反射マップ表現による奥行きマップ表現の増補 | |
US10902623B1 (en) | Three-dimensional imaging with spatial and temporal coding for depth camera assembly | |
US10789777B1 (en) | Generating content for presentation by a head mounted display based on data captured by a light field camera positioned on the head mounted display | |
EP3462382A1 (en) | Eye tracking system using dense structured light patterns |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190517 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210415 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220207 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220207 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220216 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220419 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220517 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7076368 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |