JP2021524021A - 深度検知システム用の動的構造化光 - Google Patents
深度検知システム用の動的構造化光 Download PDFInfo
- Publication number
- JP2021524021A JP2021524021A JP2020558925A JP2020558925A JP2021524021A JP 2021524021 A JP2021524021 A JP 2021524021A JP 2020558925 A JP2020558925 A JP 2020558925A JP 2020558925 A JP2020558925 A JP 2020558925A JP 2021524021 A JP2021524021 A JP 2021524021A
- Authority
- JP
- Japan
- Prior art keywords
- local area
- interest
- dca
- region
- contrast
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title abstract description 6
- 238000013507 mapping Methods 0.000 claims abstract description 85
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 18
- 238000000034 method Methods 0.000 claims description 37
- 238000005286 illumination Methods 0.000 claims description 29
- 230000000007 visual effect Effects 0.000 claims description 22
- 230000033001 locomotion Effects 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 11
- 238000005259 measurement Methods 0.000 abstract description 37
- 238000010586 diagram Methods 0.000 abstract description 6
- 230000009286 beneficial effect Effects 0.000 abstract description 4
- 230000003287 optical effect Effects 0.000 description 38
- 238000003384 imaging method Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 17
- 230000009471 action Effects 0.000 description 15
- 238000004458 analytical method Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000010287 polarization Effects 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000004075 alteration Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000000712 assembly Effects 0.000 description 3
- 238000000429 assembly Methods 0.000 description 3
- 238000000576 coating method Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 239000011248 coating agent Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 241000226585 Antennaria plantaginifolia Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 239000005336 safety glass Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/22—Measuring arrangements characterised by the use of optical techniques for measuring depth
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/529—Depth or shape recovery from texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Artificial Intelligence (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
Description
本出願は、2018年5月21日出願の米国特許仮出願第62/674,430号、および2019年5月17日出願の米国特許出願第16/415,202号の利益を主張し、これらの特許文献は参照によりその全体が本明細書に組み込まれる。
ここでIi,jは、センサピクセル(i,j)のデジタル数であり、iおよびjは、画像センサのピクセルのi番目の列およびj番目の行を表す整数値である。
ここでwは、スライディングウィンドウのサイズを制御する(ウィンドウサイズは、ピクセルで(2w+1)×(2w+1)である)。kおよびlは、スライディングウィンドウ内にあるピクセルのk番目の列およびl番目の行を表す整数値である。L2コントラストウィズスライディングマックスアルゴリズムは、深度性能との良好な相関関係を示した。それゆえに、DCAは、コントラストアルゴリズムの結果を用いて、高レベルまたは低レベルの照明が望ましいことがある領域を識別することができ、またDCAは、その結果を用いて、図6のステップ640に関して説明したように、照明命令を更新することができる。
図9は、1つまたは複数の実施形態による、ヘッドセット905のシステム環境900である。いくつかの実施形態では、ヘッドセット905は、図1Aのヘッドセット100であってもよい。システム900は、人工現実環境、たとえば仮想現実、拡張現実、複合現実環境、またはこれらのどれかの組み合わせにおいて動作することができる。図9で示されたシステム900は、ヘッドセット905、ネットワーク935、マッピングサーバ965、およびコンソール945に接続された入力/出力(I/O)インターフェース940を含む。図9は、1つのヘッドセット905および1つのI/Oインターフェース940を含む例示的なシステム900を示すが、別の実施形態では、任意の個数のこれら構成要素がシステム900に含まれ得る。たとえば、付随するI/Oインターフェース940をそれぞれが有する多数のヘッドセットがあり得、それぞれのヘッドセットおよびI/Oインターフェース940がコンソール945と通信する。代替構成では、別の、および/または追加の構成要素がシステム900に含まれ得る。加えて、図9に示された構成要素のうちの1つまたは複数と併せて説明される機能性は、いくつかの実施形態では、図9と併せて説明されるのとは異なるようにして構成要素の中に分布し得る。たとえば、コンソール945の機能性の一部または全部は、ヘッドセット905によって提供することができる。
本発明による諸実施形態は特に、方法、装置、および記憶媒体を対象とする添付の特許請求の範囲に開示されており、1つの請求項カテゴリ(たとえば、方法)で述べられているいずれの特徴もまた、別の請求項カテゴリ(たとえば、装置、記憶媒体、システム、およびコンピュータプログラム製品)で特許請求され得る。添付の特許請求の範囲の従属事項または参照事項は、正式の理由だけで選ばれている。しかし、先行する請求項を意図的に参照することにより得られるいずれの主題(特に多数の従属事項)もまた特許請求することができ、それにより、請求項およびその特徴の任意の組み合わせが開示されることになり、添付の特許請求の範囲において選ばれている従属事項にかかわらず特許請求され得る。特許請求できる主題は、添付の特許請求の範囲に詳述された特徴の組み合わせだけでなく、特許請求の範囲の他の任意の特徴の組み合わせも含み、特許請求の範囲に述べられている各特徴を、特許請求の範囲の任意の他の特徴または他の特徴の組み合わせと組み合わせることができる。さらに、本明細書に説明または描写された実施形態および特徴のいずれも、別個の請求項として、および/または本明細書に説明または描写された任意の実施形態および特徴との、または添付の特許請求の範囲の特徴のいずれかとの任意の組み合わせとして、特許請求することができる。
Claims (20)
- 照明命令に従って1つまたは複数の構造化光(SL)パターンを局所エリアに投射するように構成されたSL投射器と、
前記1つまたは複数のSLパターンを含む前記局所エリアの一部分の画像を取り込むように構成されたカメラアセンブリと、
コントローラであり、
前記局所エリアのコントラスト量を、前記取り込まれた画像に部分的に基づいて決定し、
前記局所エリア内の、第1のコントラスト量を有する第1の関心領域と、前記局所エリア内の、前記第1のコントラスト量よりも多い第2のコントラスト量を有する第2の関心領域とを識別し、
前記第1の関心領域内の前記第1のコントラスト量と、前記第2の関心領域内の前記第2のコントラスト量とに部分的に基づいて前記照明命令を更新し、
前記更新された照明命令を前記SL投射器に与えるように構成されたコントローラと
を備える深度カメラアセンブリ(DCA)であって、前記更新された照明命令により前記SL投射器が第1のSLパターンを前記第1の関心領域に投射し、第2のSLパターンを前記第2の関心領域に投射する、深度カメラアセンブリ(DCA)。 - 前記コントローラがさらに、
前記局所エリアについて記述する情報をマッピングサーバへ送信するように構成され、前記情報が前記局所エリアの少なくとも前記部分についての視覚情報を含む、請求項1に記載のDCA。 - 前記コントローラがさらに、
前記局所エリアのコントラストをコントラストアルゴリズムを用いて計算するように構成される、請求項1に記載のDCA。 - 前記コントラストアルゴリズムが、ピクセルごとのコントラストのスライディングウィンドウ最大値を計算することを含む、請求項3に記載のDCA。
- 前記コントローラが、前記局所エリア内の前記第1の関心領域を、前記第1の関心領域内の対象物の移動を検出することに基づいて識別するように構成される、請求項1に記載のDCA。
- 前記コントローラが、
前記局所エリア内の前記第1の関心領域を、前記第1の関心領域内の遮られた対象物を検出することに基づいて識別し、
前記遮られた対象物を検出することに応答して前記第1の関心領域のテクスチャの量を減少させるように構成され、前記遮られた対象物が物理的対象物であり、前記物理的対象物が仮想対象物によって遮られる、請求項1に記載のDCA。 - 前記コントローラが、
前記局所エリア内の仮想対象物の予想ロケーションを決定し、
前記第1のSLパターンの電力レベルを前記仮想対象物の前記予想ロケーションに基づいて選択するように構成される、請求項1に記載のDCA。 - 前記第2のSLパターンが前記第1のSLパターンとは異なる、請求項1に記載のDCA。
- 前記コントローラが、前記局所エリアについて記述するパラメータをマッピングサーバから受け取るように構成される、請求項1に記載のDCA。
- 前記コントローラが、
SLパターンを全く用いずに取り込まれた第1の画像を、前記SLパターンのうちの1つを含有する第2の画像から減算し、
前記減算に基づいて、IR照明のバックグラウンドレベルを決定するように構成される、請求項1に記載のDCA。 - 局所エリアのコントラスト量を決定すること、
前記局所エリア内の、第1のコントラスト量を有する第1の関心領域と、前記局所エリア内の、前記第1のコントラスト量よりも多い第2のコントラスト量を有する第2の関心領域とを識別すること、
前記第1の関心領域内の前記第1のコントラスト量と、前記第2の関心領域内の前記第2のコントラスト量とに部分的に基づいて照明命令を更新すること、および
前記更新された照明命令をSL投射器に与えることを含む方法であって、前記更新された照明命令により、前記SL投射器が第1のSLパターンを前記第1の関心領域に投射し、第2のSLパターンを前記第2の関心領域に投射する、方法。 - 前記局所エリアについて記述する情報をマッピングサーバへ送信することをさらに含み、前記情報が前記局所エリアの少なくとも一部分についての視覚情報を含む、請求項11に記載の方法。
- 前記局所エリアのコントラストをコントラストアルゴリズムを用いて計算することをさらに含む、請求項11に記載の方法。
- 前記コントラストアルゴリズムが、ピクセルごとのコントラストのスライディングウィンドウを計算することを含む、請求項13に記載の方法。
- 前記局所エリア内の前記第1の関心領域を、前記第1の関心領域内の対象物の移動を検出することに基づいて識別することをさらに含む、請求項11に記載の方法。
- 前記局所エリア内の前記第1の関心領域を、前記第1の関心領域内の遮られた対象物を検出することに基づいて識別することをさらに含む、請求項11に記載の方法。
- 前記遮られた対象物を検出することに応答して前記第1の関心領域のテクスチャの量を減少させることをさらに含む、請求項16に記載の方法。
- 前記遮られた対象物が物理的対象物であり、前記物理的対象物が仮想対象物によって遮られる、請求項17に記載の方法。
- 前記局所エリアについて記述するパラメータをマッピングサーバから受け取ることをさらに含む、請求項11に記載の方法。
- 符号化された命令であり、プロセッサによって実行されたときに、前記プロセッサが、
局所エリアのコントラスト量を決定すること、
前記局所エリア内の、第1のコントラスト量を有する第1の関心領域と、前記局所エリア内の、前記第1のコントラスト量よりも多い第2のコントラスト量を有する第2の関心領域とを識別すること、
前記第1の関心領域内の前記第1のコントラスト量と、前記第2の関心領域内の前記第2のコントラスト量とに部分的に基づいて照明命令を更新すること、および
前記更新された照明命令をSL投射器に与えること
を含む動作を行う、符号化された命令を有する非一時的なコンピュータ可読記憶媒体であって、前記更新された照明命令により、前記SL投射器が第1のSLパターンを前記第1の関心領域に投射し、第2のSLパターンを前記第2の関心領域に投射する、非一時的なコンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862674430P | 2018-05-21 | 2018-05-21 | |
US62/674,430 | 2018-05-21 | ||
US16/415,202 US11182914B2 (en) | 2018-05-21 | 2019-05-17 | Dynamic structured light for depth sensing systems based on contrast in a local area |
US16/415,202 | 2019-05-17 | ||
PCT/US2019/033129 WO2019226552A1 (en) | 2018-05-21 | 2019-05-20 | Dynamic structured light for depth sensing systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021524021A true JP2021524021A (ja) | 2021-09-09 |
JP7307093B2 JP7307093B2 (ja) | 2023-07-11 |
Family
ID=68533883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020558925A Active JP7307093B2 (ja) | 2018-05-21 | 2019-05-20 | 深度検知システム用の動的構造化光 |
Country Status (6)
Country | Link |
---|---|
US (6) | US11182914B2 (ja) |
EP (1) | EP3797316B1 (ja) |
JP (1) | JP7307093B2 (ja) |
KR (1) | KR20210013572A (ja) |
CN (1) | CN112154352B (ja) |
WO (1) | WO2019226552A1 (ja) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9132352B1 (en) | 2010-06-24 | 2015-09-15 | Gregory S. Rabin | Interactive system and method for rendering an object |
US11182914B2 (en) * | 2018-05-21 | 2021-11-23 | Facebook Technologies, Llc | Dynamic structured light for depth sensing systems based on contrast in a local area |
US10818028B2 (en) * | 2018-12-17 | 2020-10-27 | Microsoft Technology Licensing, Llc | Detecting objects in crowds using geometric context |
US11587247B1 (en) | 2019-04-03 | 2023-02-21 | Meta Platforms Technologies, Llc | Synchronous event driven readout of pixels in a detector for direct time-of-flight depth sensing |
US11386237B2 (en) * | 2019-06-19 | 2022-07-12 | Facebook Technologies, Llc | Scalable encryption engine having partitionable data paths |
CN114175629A (zh) * | 2019-07-26 | 2022-03-11 | 惠普发展公司, 有限责任合伙企业 | 基于捕捉的图像内的被识别的点来修改投射的结构光 |
WO2021030034A1 (en) | 2019-08-15 | 2021-02-18 | Apple Inc. | Depth mapping using spatial multiplexing of illumination phase |
US10805549B1 (en) * | 2019-08-20 | 2020-10-13 | Himax Technologies Limited | Method and apparatus of auto exposure control based on pattern detection in depth sensing system |
US20210055419A1 (en) * | 2019-08-20 | 2021-02-25 | Apple Inc. | Depth sensor with interlaced sampling structure |
US20210156881A1 (en) * | 2019-11-26 | 2021-05-27 | Faro Technologies, Inc. | Dynamic machine vision sensor (dmvs) that performs integrated 3d tracking |
EP3832537A1 (en) * | 2019-12-05 | 2021-06-09 | Axis AB | Thermal camera health monitoring |
EP3832538B1 (en) | 2019-12-05 | 2022-05-11 | Axis AB | Automatic malfunction detection in a thermal camera |
WO2021113781A1 (en) * | 2019-12-06 | 2021-06-10 | Magic Leap, Inc. | Environment acoustics persistence |
CN111123386A (zh) * | 2019-12-19 | 2020-05-08 | 中国空间技术研究院 | 一种基于动态视觉传感器的偏振成像探测装置及探测方法 |
US11340696B2 (en) * | 2020-01-13 | 2022-05-24 | Sony Interactive Entertainment Inc. | Event driven sensor (EDS) tracking of light emitting diode (LED) array |
US11763472B1 (en) | 2020-04-02 | 2023-09-19 | Apple Inc. | Depth mapping with MPI mitigation using reference illumination pattern |
WO2021252153A1 (en) | 2020-06-11 | 2021-12-16 | Apple Inc. | Global-shutter image sensor with time-of-flight sensing capability |
US11480684B2 (en) * | 2020-06-18 | 2022-10-25 | Meta Platforms Technologies, Llc | Time of flight depth system including an illumination source with addressable illumination blocks |
GB2597928B (en) * | 2020-08-05 | 2024-09-25 | Envisics Ltd | Light detection and ranging |
JP2022049269A (ja) * | 2020-09-16 | 2022-03-29 | セイコーエプソン株式会社 | 三次元形状計測方法および三次元形状計測装置 |
US11682130B2 (en) * | 2021-06-22 | 2023-06-20 | Microsoft Technology Licensing, Llc | Device case including a projector |
US11557054B1 (en) * | 2021-06-24 | 2023-01-17 | Himax Technologies Limited | Method for performing region-of-interest-based depth detection with aid of pattern-adjustable projector, and associated apparatus |
WO2023208372A1 (en) * | 2022-04-29 | 2023-11-02 | Huawei Technologies Co., Ltd. | Camera system and method for determining depth information of an area |
US12059609B2 (en) | 2022-06-10 | 2024-08-13 | Sony Interactive Entertainment Inc. | Asynchronous dynamic vision sensor LED AI tracking system and method |
US12064682B2 (en) * | 2022-06-10 | 2024-08-20 | Sony Interactive Entertainment Inc. | Deployment of dynamic vision sensor hybrid element in method for tracking a controller and simultaneous body tracking, slam or safety shutter |
US12029971B2 (en) | 2022-06-10 | 2024-07-09 | Sony Interactive Entertainment LLC | Hybrid pixel dynamic vision sensor tracking using IR and ambient light (or depth sensor) |
US11995226B2 (en) | 2022-06-10 | 2024-05-28 | Sony Interactive Entertainment Inc. | Dynamic vision sensor tracking based on light source occlusion |
WO2024081154A1 (en) * | 2022-10-12 | 2024-04-18 | Snap Inc. | Energy-efficient adaptive 3d sensing |
US12001024B2 (en) | 2022-10-12 | 2024-06-04 | Snap Inc. | Energy-efficient adaptive 3D sensing |
US20240169673A1 (en) * | 2022-11-21 | 2024-05-23 | Samsung Electronics Co., Ltd. | Mesh transformation with efficient depth reconstruction and filtering in passthrough augmented reality (ar) systems |
CN116721109B (zh) * | 2023-08-11 | 2023-11-03 | 合肥图迅电子科技有限公司 | 一种双目视觉图像半全局匹配方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010091491A (ja) * | 2008-10-10 | 2010-04-22 | Fujifilm Corp | 3次元形状計測用撮影装置および方法並びにプログラム |
US20170195653A1 (en) * | 2016-01-04 | 2017-07-06 | Oculus Vr, Llc | Dynamic control over structured illumination intensity |
JP2017191083A (ja) * | 2016-04-15 | 2017-10-19 | 株式会社イデアクエスト | 輝点画像取得装置および輝点画像取得方法 |
Family Cites Families (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7728845B2 (en) | 1996-02-26 | 2010-06-01 | Rah Color Technologies Llc | Color calibration of color image rendering devices |
EP1220182A3 (en) | 2000-12-25 | 2005-08-17 | Matsushita Electric Industrial Co., Ltd. | Image detection apparatus, program, and recording medium |
JP4915737B2 (ja) | 2007-03-13 | 2012-04-11 | 興和株式会社 | 画像解析システム、及び画像解析プログラム |
JP4856612B2 (ja) | 2007-10-29 | 2012-01-18 | 富士重工業株式会社 | 物体検出装置 |
US8351685B2 (en) | 2007-11-16 | 2013-01-08 | Gwangju Institute Of Science And Technology | Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same |
US8294762B2 (en) | 2008-10-10 | 2012-10-23 | Fujifilm Corporation | Three-dimensional shape measurement photographing apparatus, method, and program |
JP5188430B2 (ja) | 2009-03-24 | 2013-04-24 | 富士重工業株式会社 | 画像処理装置 |
EP2389004B1 (en) | 2010-05-20 | 2013-07-24 | Sony Computer Entertainment Europe Ltd. | 3D camera and imaging method |
KR101681538B1 (ko) | 2010-10-20 | 2016-12-01 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
US9865083B2 (en) | 2010-11-03 | 2018-01-09 | Industrial Technology Research Institute | Apparatus and method for inpainting three-dimensional stereoscopic image |
EP2605506B1 (en) | 2010-11-16 | 2019-04-10 | Honda Motor Co., Ltd. | Displacement magnitude detection device for vehicle-mounted camera |
JP5979500B2 (ja) | 2011-04-07 | 2016-08-24 | パナソニックIpマネジメント株式会社 | 立体撮像装置 |
US9300946B2 (en) | 2011-07-08 | 2016-03-29 | Personify, Inc. | System and method for generating a depth map and fusing images from a camera array |
TW201323262A (zh) | 2011-12-02 | 2013-06-16 | Hon Hai Prec Ind Co Ltd | 車輛輔助系統及車輛輔助方法 |
EP2602588A1 (en) | 2011-12-06 | 2013-06-12 | Hexagon Technology Center GmbH | Position and Orientation Determination in 6-DOF |
US9478037B2 (en) | 2011-12-08 | 2016-10-25 | Intel Corporation | Techniques for efficient stereo block matching for gesture recognition |
JP5320524B1 (ja) | 2012-01-20 | 2013-10-23 | パナソニック株式会社 | ステレオ撮影装置 |
US9361699B2 (en) | 2012-06-27 | 2016-06-07 | Imec Taiwan Co. | Imaging system and method |
JP2014009975A (ja) | 2012-06-28 | 2014-01-20 | Hitachi Automotive Systems Ltd | ステレオカメラ |
US9019267B2 (en) | 2012-10-30 | 2015-04-28 | Apple Inc. | Depth mapping with enhanced resolution |
US20140139632A1 (en) * | 2012-11-21 | 2014-05-22 | Lsi Corporation | Depth imaging method and apparatus with adaptive illumination of an object of interest |
JP6407509B2 (ja) | 2013-04-18 | 2018-10-17 | シャープ株式会社 | 制御装置および表示装置 |
CA2917221A1 (en) | 2013-07-02 | 2015-01-08 | Lg Electronics Inc. | Method and apparatus for processing 3-dimensional image including additional object in system providing multi-view image |
US9595125B2 (en) | 2013-08-30 | 2017-03-14 | Qualcomm Incorporated | Expanding a digital representation of a physical plane |
CN113256730B (zh) | 2014-09-29 | 2023-09-05 | 快图有限公司 | 用于阵列相机的动态校准的系统和方法 |
WO2016073699A1 (en) * | 2014-11-05 | 2016-05-12 | Trw Automotive U.S. Llc | Augmented object detection using structured light |
JP6566654B2 (ja) | 2015-02-13 | 2019-08-28 | キヤノン株式会社 | 制御装置、撮像装置、制御方法、プログラム、および記憶媒体 |
KR101954855B1 (ko) * | 2015-02-25 | 2019-03-06 | 페이스북, 인크. | 볼륨 내 물체의 심도 맵핑을 위한 광 패턴의 강도 변화의 사용 |
JP6233345B2 (ja) | 2015-04-17 | 2017-11-22 | トヨタ自動車株式会社 | 路面勾配検出装置 |
JP6121641B1 (ja) | 2015-06-24 | 2017-04-26 | 京セラ株式会社 | 画像処理装置、ステレオカメラ装置、車両、及び画像処理方法 |
WO2017043258A1 (ja) | 2015-09-09 | 2017-03-16 | シャープ株式会社 | 計算装置および計算装置の制御方法 |
US10659766B2 (en) | 2015-10-30 | 2020-05-19 | Canon Kabushiki Kaisha | Confidence generation apparatus, confidence generation method, and imaging apparatus |
US10440355B2 (en) | 2015-11-06 | 2019-10-08 | Facebook Technologies, Llc | Depth mapping with a head mounted display using stereo cameras and structured light |
EP3373240B1 (en) | 2015-11-30 | 2019-10-02 | Huawei Technologies Co., Ltd. | Image processing method and dual-camera system |
US10708577B2 (en) | 2015-12-16 | 2020-07-07 | Facebook Technologies, Llc | Range-gated depth camera assembly |
JP2017129788A (ja) | 2016-01-21 | 2017-07-27 | キヤノン株式会社 | 焦点検出装置及び方法、及び撮像装置 |
JP6611660B2 (ja) | 2016-04-13 | 2019-11-27 | 富士フイルム株式会社 | 画像位置合わせ装置および方法並びにプログラム |
US10469722B2 (en) * | 2016-08-29 | 2019-11-05 | Facebook Technologies, Llc | Spatially tiled structured light projector |
JP2018036898A (ja) | 2016-08-31 | 2018-03-08 | キヤノン株式会社 | 画像処理装置及びその制御方法 |
US20180262744A1 (en) | 2017-02-07 | 2018-09-13 | Mindmaze Holding Sa | Systems, methods and apparatuses for stereo vision |
US11380005B2 (en) | 2017-05-19 | 2022-07-05 | Movidius Limited | Methods, systems and apparatus to optimize pipeline execution |
US10362296B2 (en) * | 2017-08-17 | 2019-07-23 | Microsoft Technology Licensing, Llc | Localized depth map generation |
CN109523555A (zh) | 2017-09-18 | 2019-03-26 | 百度在线网络技术(北京)有限公司 | 用于无人驾驶车辆的前车刹车行为检测方法和装置 |
US10878574B2 (en) | 2018-02-21 | 2020-12-29 | Topcon Corporation | 3D quantitative analysis of retinal layers with deep learning |
US11182914B2 (en) | 2018-05-21 | 2021-11-23 | Facebook Technologies, Llc | Dynamic structured light for depth sensing systems based on contrast in a local area |
CN111337010B (zh) | 2018-12-18 | 2022-05-03 | 北京地平线机器人技术研发有限公司 | 可移动设备的定位方法、定位装置及电子设备 |
-
2019
- 2019-05-17 US US16/415,202 patent/US11182914B2/en active Active
- 2019-05-20 WO PCT/US2019/033129 patent/WO2019226552A1/en unknown
- 2019-05-20 EP EP19749862.9A patent/EP3797316B1/en active Active
- 2019-05-20 JP JP2020558925A patent/JP7307093B2/ja active Active
- 2019-05-20 CN CN201980034030.5A patent/CN112154352B/zh active Active
- 2019-05-20 KR KR1020207034782A patent/KR20210013572A/ko not_active Application Discontinuation
- 2019-05-21 US US16/417,872 patent/US11010911B1/en active Active
- 2019-05-21 US US16/418,510 patent/US10972715B1/en active Active
- 2019-05-21 US US16/418,812 patent/US10929997B1/en active Active
-
2021
- 2021-04-14 US US17/230,109 patent/US11703323B2/en active Active
- 2021-10-18 US US17/504,004 patent/US11740075B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010091491A (ja) * | 2008-10-10 | 2010-04-22 | Fujifilm Corp | 3次元形状計測用撮影装置および方法並びにプログラム |
US20170195653A1 (en) * | 2016-01-04 | 2017-07-06 | Oculus Vr, Llc | Dynamic control over structured illumination intensity |
JP2017191083A (ja) * | 2016-04-15 | 2017-10-19 | 株式会社イデアクエスト | 輝点画像取得装置および輝点画像取得方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2019226552A1 (en) | 2019-11-28 |
EP3797316B1 (en) | 2023-09-13 |
CN112154352B (zh) | 2024-08-06 |
US10972715B1 (en) | 2021-04-06 |
US11010911B1 (en) | 2021-05-18 |
US10929997B1 (en) | 2021-02-23 |
EP3797316A1 (en) | 2021-03-31 |
KR20210013572A (ko) | 2021-02-04 |
US20220036571A1 (en) | 2022-02-03 |
US11703323B2 (en) | 2023-07-18 |
US20190355138A1 (en) | 2019-11-21 |
US20220028103A1 (en) | 2022-01-27 |
US11182914B2 (en) | 2021-11-23 |
US11740075B2 (en) | 2023-08-29 |
JP7307093B2 (ja) | 2023-07-11 |
CN112154352A (zh) | 2020-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7307093B2 (ja) | 深度検知システム用の動的構造化光 | |
US10317680B1 (en) | Optical aberration correction based on user eye position in head mounted displays | |
US11122385B2 (en) | Determination of acoustic parameters for a headset using a mapping server | |
US10529113B1 (en) | Generating graphical representation of facial expressions of a user wearing a head mounted display accounting for previously captured images of the user's facial expressions | |
US11112389B1 (en) | Room acoustic characterization using sensors | |
US10897570B1 (en) | Room acoustic matching using sensors on headset | |
US11218831B2 (en) | Determination of an acoustic filter for incorporating local effects of room modes | |
US11605191B1 (en) | Spatial audio and avatar control at headset using audio signals | |
US11644894B1 (en) | Biologically-constrained drift correction of an inertial measurement unit | |
US10795436B2 (en) | Determining fixation of a user's eyes from images of portions of the user's face enclosed by a head mounted display | |
US11195291B1 (en) | Dynamic illumination control for depth determination | |
US10495882B1 (en) | Positioning cameras in a head mounted display to capture images of portions of a face of a user | |
US20230085063A1 (en) | Vcsel chip for generation of linear structured light patterns and flood illumination | |
WO2023039288A1 (en) | Vcsel chip for generation of linear structured light patterns and flood illumination |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7307093 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |