JP6990859B2 - 奥行取得装置、奥行取得方法およびプログラム - Google Patents
奥行取得装置、奥行取得方法およびプログラム Download PDFInfo
- Publication number
- JP6990859B2 JP6990859B2 JP2020548409A JP2020548409A JP6990859B2 JP 6990859 B2 JP6990859 B2 JP 6990859B2 JP 2020548409 A JP2020548409 A JP 2020548409A JP 2020548409 A JP2020548409 A JP 2020548409A JP 6990859 B2 JP6990859 B2 JP 6990859B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- depth
- infrared light
- visible light
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 17
- 238000012937 correction Methods 0.000 claims description 65
- 238000003384 imaging method Methods 0.000 claims description 47
- 238000001514 detection method Methods 0.000 claims description 34
- 238000004364 calculation method Methods 0.000 claims description 18
- 235000019557 luminance Nutrition 0.000 claims description 12
- 238000001914 filtration Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 description 29
- 239000013598 vector Substances 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 238000005259 measurement Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 108700007698 Genetic Terminator Regions Proteins 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000003990 capacitor Substances 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 239000006059 cover glass Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003706 image smoothing Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/131—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/133—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/135—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20028—Bilateral filtering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/25—Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Optics & Photonics (AREA)
- Measurement Of Optical Distance (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Description
本発明者は、「背景技術」の欄において記載した、特許文献1の測距装置に関し、以下の問題が生じることを見出した。
[ハードウェア構成]
図1は、実施の形態に係る奥行取得装置1のハードウェア構成を示すブロック図である。本実施の形態における奥行取得装置1は、赤外光(または近赤外線光)に基づく画像と、可視光に基づく画像とを、実質的に同一のシーンに対する撮像であって、かつ、実質的に同一の視点および時刻での撮像によって取得することができるハードウェア構成を有する。なお、実質的に同一とは、本開示における効果を奏し得る程度に同一であることを意味する。
本実施の形態における奥行取得装置1は、図1に示すハードウェア構成によって、IR画像とBW画像とを、実質的に同一のシーンに対する撮像であって、かつ、実質的に同一の視点および時刻の撮像によって取得する。ここで、IR画像は、固体撮像素子20に含まれる複数の第1画素21のそれぞれで受光された赤外光の強度に基づいて形成されている。したがって、奥行取得装置1は、IR画像の撮像によって、複数の第1画素21のそれぞれにおける赤外光の強度を取得している。奥行取得装置1は、それらの第1画素21の赤外光の強度に基づいて、そのIR画像に映し出されている被写体までの距離を奥行きとして示す奥行画像を取得する。そして、奥行取得装置1は、BW画像内におけるエッジ領域を検出し、そのエッジ領域に対応する奥行画像内の領域の奥行きを補正する。
図5は、BW画像およびIR画像の一例を示す。
図6は、本実施の形態における奥行取得装置1の全体的な処理動作を示すフローチャートである。
まず、BWカメラ103は、可視光に基づく撮像を行うことによってBW画像を生成する。そして、BW取得部115は、そのBW画像を、メモリ200を介して取得する。
次に、IRカメラ102は、赤外光に基づく撮像を行うことによってその赤外光の強度を計測する。そして、IR取得部114は、その赤外光の強度を、メモリ200を介して取得する。ここで、取得される赤外光の強度は、固体撮像素子20の複数の第1画素21のそれぞれで受光された赤外光の強度である。したがって、IR取得部114は、それらの赤外光の強度を取得することによって、それらの赤外光の強度に基づいて形成されるIR画像を取得する。
次に、境界領域検出部112は、ステップS110で取得されたBW画像から、明暗境界領域を検出する。そして、境界領域検出部112は、検出された明暗境界領域内の各画素に対して1を示し、それ以外の領域内の各画素に対して0を示す、2値のマスク画像を出力する。
次に、奥行算出部111aは、ステップS120で取得された赤外光の強度に基づいて、奥行きを算出する。つまり、奥行算出部111aは、固体撮像素子20に含まれる複数の第1画素21のそれぞれについて、その第1画素21に受光された赤外光の強度に基づいて、被写体までの距離を奥行きとして算出することによって、奥行画像を生成する。具体的には、奥行算出部111aは、固体撮像素子20に含まれる複数の第1画素21のそれぞれについて、その第1画素21で計測された上述の少なくとも3つの強度に基づいて奥行きを算出することによって、奥行画像を生成する。例えば、奥行算出部111aは、ToF測距方式にしたがって、上述の(式1)を用いて奥行きを算出する。
次に、奥行補正部111bは、明暗境界領域に対応する奥行画像内の領域、すなわち補正対象領域の奥行きを補正する。
まず、境界領域検出部112は、BW画像から動きを検出する。この動きは、例えば、そのBW画像と過去のBW画像との間のブロックマッチングを行う動き探索によって検出される。
次に、境界領域検出部112は、ステップS131で検出された動きの方向と垂直な方向に沿うエッジを上述の境界としてBW画像から検出する。このとき、境界領域検出部112は、第1閾値以上の強度を有するエッジを検出してもよい。
境界領域検出部112は、ステップS132で検出されたエッジを含む領域を明暗境界領域として検出する。このとき、境界領域検出部112は、例えば、このエッジから一定の距離にある領域を明暗境界領域として抽出する。具体的には、明暗境界領域は、第1閾値以上の強度を有するエッジから、BW画像の動きに応じた距離までの領域である。
境界領域検出部112は、BW画像と直前のBW画像との差分を算出する。
そして、境界領域検出部112は、BW画像のうち、その差分が第2閾値以上の領域を明暗境界領域として検出する。
上記実施の形態では、奥行きを補正するために、明暗境界領域を検出したが、その明暗境界領域を検出することなく、学習モデルを用いて奥行きを補正してもよい。
10、101 光源
20 固体撮像素子
21 第1画素(IR)
22 第2画素(BW)
30 処理回路
50 拡散板
60 レンズ
70 バンドパスフィルタ
102 IRカメラ
103 BWカメラ
104 学習モデル
110a、110b プロセッサ
111a 奥行算出部
111b、111c 奥行補正部
112 境界領域検出部
113 発光制御部
114 IR取得部
115 BW取得部
200 メモリ
Claims (9)
- メモリと、
プロセッサとを備え、
前記プロセッサは、
光源から照射されて被写体によって反射された赤外光を、撮像素子に含まれる複数の画素のそれぞれが受光する赤外光画像の撮像によって計測され、前記メモリに保存されている前記赤外光の強度を取得し、
前記赤外光画像の撮像により取得された前記赤外光の強度に基づいて、前記被写体までの距離を奥行きとして算出することによって、奥行画像を生成し、
前記赤外光画像と実質的に同一のシーンの可視光に基づく撮像であって、前記撮像素子が行う前記赤外光画像と実質的に同一の視点および同一の時刻の撮像によって生成され、前記メモリに保持されている可視光画像を取得し、
前記可視光画像から、前記可視光画像の動きの方向と垂直な方向に沿う輝度の異なる複数の領域の境界を含む領域であるエッジ領域を検出し、
前記エッジ領域に対応する前記奥行画像内の領域である補正対象領域の奥行きを、前記可視光画像を参照画像として用いた前記奥行画像に対するフィルタリングによって、補正する、
奥行取得装置。 - 輸送機器に搭載されて、
前記可視光画像および前記赤外光画像は前記輸送機器が動いている際に撮像される、
請求項1に記載の奥行取得装置。 - 前記エッジ領域の検出では、
第1閾値以上の強度を有する前記境界を検出し、
前記エッジ領域は、
前記第1閾値以上の強度を有する前記境界から、前記可視光画像の動きに応じた距離までの領域である
請求項1に記載の奥行取得装置。 - 前記エッジ領域の検出では、
前記可視光画像と、過去の可視光画像との画素値の差分が第2閾値以上の領域を、前記エッジ領域として検出する
請求項1に記載の奥行取得装置。 - 前記補正対象領域の補正では、さらに、
前記奥行画像内において前記補正対象領域の周囲に位置する領域である周囲領域の奥行きを用いて前記補正対象領域の奥行きを補正する
請求項1~4の何れか1項に記載の奥行取得装置。 - 撮像素子を有し、光源から照射されて被写体によって反射された赤外光を、前記撮像素子に含まれる複数の画素のそれぞれが受光する赤外光画像の撮像を行うことによって、前記赤外光の強度を計測する赤外光カメラと、
前記赤外光画像の撮像により取得された前記赤外光の強度に基づいて、前記被写体までの距離を奥行きとして算出することによって、奥行画像を生成する奥行算出部と、
前記赤外光画像と実質的に同一のシーンの可視光に基づく撮像であって、前記撮像素子が行う前記赤外光画像と実質的に同一の視点および同一の時刻の撮像を行うことによって、可視光画像を生成する可視光カメラと、
前記可視光画像から、前記可視光画像の動きの方向と垂直な方向に沿う輝度の異なる複数の領域の境界を含む領域であるエッジ領域を検出するエッジ領域検出部と、
前記エッジ領域に対応する前記奥行画像内の領域である補正対象領域の奥行きを、前記可視光画像を参照画像として用いた前記奥行画像に対するフィルタリングによって、補正する奥行補正部と、
を備える奥行取得装置。 - 光源から照射されて被写体によって反射された赤外光を、撮像素子に含まれる複数の画素のそれぞれが受光する赤外光画像の撮像によって計測され、メモリに保存されている前記赤外光の強度を取得し、
前記赤外光画像の撮像により取得された前記赤外光の強度に基づいて、前記被写体までの距離を奥行きとして算出することによって、奥行画像を生成し、
前記赤外光画像と実質的に同一のシーンの可視光に基づく撮像であって、前記撮像素子が行う前記赤外光画像と実質的に同一の視点および同一の時刻の撮像によって生成され、前記メモリに保持されている可視光画像を取得し、
前記可視光画像から、前記可視光画像の動きの方向と垂直な方向に沿う輝度の異なる複数の領域の境界を含む領域であるエッジ領域を検出し、
前記エッジ領域に対応する前記奥行画像内の領域である補正対象領域の奥行きを、前記可視光画像を参照画像として用いた前記奥行画像に対するフィルタリングによって、補正する、
奥行取得方法。 - 被写体までの距離を奥行きとして取得するためのプログラムであって、
光源から照射されて前記被写体によって反射された赤外光を、撮像素子に含まれる複数の画素のそれぞれが受光する赤外光画像の撮像によって計測され、メモリに保存されている前記赤外光の強度を取得し、
前記赤外光画像の撮像により取得された前記赤外光の強度に基づいて、前記被写体までの距離を奥行きとして算出することによって、奥行画像を生成し、
前記赤外光画像と実質的に同一のシーンの可視光に基づく撮像であって、前記撮像素子が行う前記赤外光画像と実質的に同一の視点および同一の時刻の撮像によって生成され、前記メモリに保持されている可視光画像を取得し、
前記可視光画像から、前記可視光画像の動きの方向と垂直な方向に沿う輝度の異なる複数の領域の境界を含む領域であるエッジ領域を検出し、
前記エッジ領域に対応する前記奥行画像内の領域である補正対象領域の奥行きを、前記可視光画像を参照画像として用いた前記奥行画像に対するフィルタリングによって、補正する、
ことをコンピュータに実行させるプログラム。 - メモリと、
プロセッサを備え、
前記メモリは、
赤外光画像および可視光画像を記録しており、
前記赤外光画像は、撮像素子に含まれる複数の画素のそれぞれが受光する光源から照射されて被写体によって反射された赤外光の強度に基づいて形成され、
前記可視光画像は、前記撮像素子が行う前記赤外光画像と実質的に同一のシーンの可視光および同一の視点および同一の時刻の撮像により生成され、
前記プロセッサは、
前記赤外光の強度に基づき、被写体までの距離を奥行として算出することによって、奥行画像を生成し、
前記可視光画像から、前記可視光画像の動きの方向と垂直な方向に沿う輝度の異なる複数の領域の境界を含む領域であるエッジ領域を検出し、
前記エッジ領域に対応する前記奥行画像内の領域である補正対象領域を検出し、
前記補正対象領域の奥行を、前記可視光画像を参照画像として用いた前記奥行画像に対するフィルタリングによって、補正する、
奥行取得装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018184472 | 2018-09-28 | ||
JP2018184472 | 2018-09-28 | ||
PCT/JP2019/035781 WO2020066637A1 (ja) | 2018-09-28 | 2019-09-11 | 奥行取得装置、奥行取得方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020066637A1 JPWO2020066637A1 (ja) | 2021-08-30 |
JP6990859B2 true JP6990859B2 (ja) | 2022-01-12 |
Family
ID=69952595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020548409A Active JP6990859B2 (ja) | 2018-09-28 | 2019-09-11 | 奥行取得装置、奥行取得方法およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (2) | US11758247B2 (ja) |
EP (1) | EP3859394A4 (ja) |
JP (1) | JP6990859B2 (ja) |
CN (1) | CN112513677A (ja) |
WO (1) | WO2020066637A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4386674A2 (en) * | 2018-09-27 | 2024-06-19 | Panasonic Intellectual Property Management Co., Ltd. | Depth acquisition device, depth acquisition method, and program |
DE102019003049B4 (de) * | 2019-04-27 | 2021-04-29 | Tarsier Gmbh | Vorrichtung und Verfahren zum Erfassen von Objekten |
CN114521240A (zh) * | 2019-09-30 | 2022-05-20 | 富士胶片株式会社 | 处理装置、电子设备、处理方法及程序 |
CN112526534B (zh) * | 2020-11-03 | 2024-03-08 | 上海炬佑智能科技有限公司 | ToF传感装置及其距离检测方法 |
CN117099019A (zh) * | 2021-03-22 | 2023-11-21 | 索尼半导体解决方案公司 | 信息处理装置 |
WO2023195403A1 (ja) * | 2022-04-06 | 2023-10-12 | 株式会社Jvcケンウッド | 画像処理装置及び画像処理方法 |
WO2024062874A1 (ja) * | 2022-09-20 | 2024-03-28 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、プログラム |
WO2024116444A1 (ja) * | 2022-11-28 | 2024-06-06 | 株式会社Jvcケンウッド | 画像処理装置、画像処理プログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008097624A (ja) | 2007-11-05 | 2008-04-24 | National Institute Of Advanced Industrial & Technology | 3次元データからの特徴抽出方法および装置 |
JP2011505610A (ja) | 2007-11-07 | 2011-02-24 | テレ アトラス ベスローテン フエンノートシャップ | 画像センサデータに距離センサデータをマッピングする方法及び装置 |
WO2017145450A1 (ja) | 2016-02-23 | 2017-08-31 | ソニー株式会社 | 測距モジュール、測距システム、および、測距モジュールの制御方法 |
US20180041718A1 (en) | 2016-08-08 | 2018-02-08 | Microsoft Technology Licensing, Llc | Hybrid imaging sensor for structured light object capture |
WO2018131514A1 (ja) | 2017-01-13 | 2018-07-19 | ソニー株式会社 | 信号処理装置、信号処理方法、およびプログラム |
JP2018149628A (ja) | 2017-03-13 | 2018-09-27 | ファナック株式会社 | 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100474760B1 (ko) * | 2001-10-08 | 2005-03-08 | 엘지전자 주식회사 | 영상내의 오브젝트 영역 추출방법 |
US8596541B2 (en) * | 2008-02-22 | 2013-12-03 | Qualcomm Incorporated | Image capture device with integrated barcode scanning |
JP2010182287A (ja) * | 2008-07-17 | 2010-08-19 | Steven C Kays | 適応型インテリジェント・デザイン |
JP5448617B2 (ja) * | 2008-08-19 | 2014-03-19 | パナソニック株式会社 | 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ |
CN102857696A (zh) * | 2009-08-18 | 2013-01-02 | 夏普株式会社 | 拍摄条件决定装置、拍摄条件决定方法和不均校正系统 |
JP5743390B2 (ja) | 2009-09-15 | 2015-07-01 | 本田技研工業株式会社 | 測距装置、及び測距方法 |
JP5469527B2 (ja) * | 2010-05-10 | 2014-04-16 | パナソニック株式会社 | 撮像装置 |
US9194953B2 (en) * | 2010-10-21 | 2015-11-24 | Sony Corporation | 3D time-of-light camera and method |
US9055248B2 (en) * | 2011-05-02 | 2015-06-09 | Sony Corporation | Infrared imaging system and method of operating |
US9204062B2 (en) * | 2011-08-24 | 2015-12-01 | Fluke Corporation | Thermal imaging camera with range detection |
JP2013207415A (ja) * | 2012-03-27 | 2013-10-07 | Osaka City Univ | 撮像システム及び撮像方法 |
TWM458748U (zh) * | 2012-12-26 | 2013-08-01 | Chunghwa Telecom Co Ltd | 影像式深度資訊擷取裝置 |
FI125675B (en) * | 2013-05-03 | 2016-01-15 | Optofidelity Oy | Procedure, device and computer program product for testing video playback quality |
BR112018000564A2 (pt) * | 2015-07-13 | 2018-09-11 | Koninklijke Philips N.V. | aparelho, método, e produto de programa de computador |
US10841491B2 (en) * | 2016-03-16 | 2020-11-17 | Analog Devices, Inc. | Reducing power consumption for time-of-flight depth imaging |
CN107229056A (zh) * | 2016-03-23 | 2017-10-03 | 松下知识产权经营株式会社 | 图像处理装置、图像处理方法以及记录介质 |
CN106651941A (zh) * | 2016-09-19 | 2017-05-10 | 深圳奥比中光科技有限公司 | 一种深度信息的采集方法以及深度测量系统 |
US20180136332A1 (en) * | 2016-11-15 | 2018-05-17 | Wheego Electric Cars, Inc. | Method and system to annotate objects and determine distances to objects in an image |
US10116915B2 (en) * | 2017-01-17 | 2018-10-30 | Seiko Epson Corporation | Cleaning of depth data by elimination of artifacts caused by shadows and parallax |
US10901740B2 (en) * | 2017-08-08 | 2021-01-26 | Siemens Aktiengesellschaft | Synthetic depth image generation from cad data using generative adversarial neural networks for enhancement |
DE112019000277T5 (de) * | 2018-01-19 | 2020-08-27 | Sony Corporation | Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und programm |
US10755426B2 (en) * | 2018-05-23 | 2020-08-25 | Apple Inc. | Efficient scene depth map enhancement for low power devices |
KR102192899B1 (ko) * | 2018-08-16 | 2020-12-18 | 주식회사 날비컴퍼니 | 이미지에 보케 효과를 적용하는 방법 및 기록매체 |
JP7240115B2 (ja) * | 2018-08-31 | 2023-03-15 | キヤノン株式会社 | 情報処理装置及びその方法及びコンピュータプログラム |
-
2019
- 2019-09-11 CN CN201980050152.3A patent/CN112513677A/zh active Pending
- 2019-09-11 WO PCT/JP2019/035781 patent/WO2020066637A1/ja unknown
- 2019-09-11 EP EP19864942.8A patent/EP3859394A4/en active Pending
- 2019-09-11 JP JP2020548409A patent/JP6990859B2/ja active Active
-
2021
- 2021-01-21 US US17/154,533 patent/US11758247B2/en active Active
-
2023
- 2023-07-26 US US18/226,418 patent/US20240007727A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008097624A (ja) | 2007-11-05 | 2008-04-24 | National Institute Of Advanced Industrial & Technology | 3次元データからの特徴抽出方法および装置 |
JP2011505610A (ja) | 2007-11-07 | 2011-02-24 | テレ アトラス ベスローテン フエンノートシャップ | 画像センサデータに距離センサデータをマッピングする方法及び装置 |
WO2017145450A1 (ja) | 2016-02-23 | 2017-08-31 | ソニー株式会社 | 測距モジュール、測距システム、および、測距モジュールの制御方法 |
US20180041718A1 (en) | 2016-08-08 | 2018-02-08 | Microsoft Technology Licensing, Llc | Hybrid imaging sensor for structured light object capture |
WO2018131514A1 (ja) | 2017-01-13 | 2018-07-19 | ソニー株式会社 | 信号処理装置、信号処理方法、およびプログラム |
JP2018149628A (ja) | 2017-03-13 | 2018-09-27 | ファナック株式会社 | 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法 |
Non-Patent Citations (1)
Title |
---|
LU, J. et al.,"Cross-Based Local Multipoint Filtering",2012 IEEE Conference on Computer Vision and Pattern Recognition [オンライン],2012年07月26日,Pages 430-437,http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6247705,DOI:10.1109/CVPR.2012.6247705 |
Also Published As
Publication number | Publication date |
---|---|
EP3859394A4 (en) | 2022-03-02 |
JPWO2020066637A1 (ja) | 2021-08-30 |
WO2020066637A1 (ja) | 2020-04-02 |
CN112513677A (zh) | 2021-03-16 |
US20240007727A1 (en) | 2024-01-04 |
US20210144314A1 (en) | 2021-05-13 |
EP3859394A1 (en) | 2021-08-04 |
US11758247B2 (en) | 2023-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6990859B2 (ja) | 奥行取得装置、奥行取得方法およびプログラム | |
US11423562B2 (en) | Device and method for obtaining distance information from views | |
JP7262021B2 (ja) | 奥行取得装置、奥行取得方法およびプログラム | |
US9805294B2 (en) | Method for denoising time-of-flight range images | |
JP7450163B2 (ja) | 奥行取得装置、奥行取得方法およびプログラム | |
US11988780B2 (en) | Imaging device and method | |
US20150193934A1 (en) | Motion sensor apparatus having a plurality of light sources | |
US11373324B2 (en) | Depth acquisition device and depth acquisition method for providing a corrected depth image | |
US10853935B2 (en) | Image processing system, computer readable recording medium, and image processing method | |
JP2020052001A (ja) | 奥行取得装置、奥行取得方法およびプログラム | |
JP2020051991A (ja) | 奥行取得装置、奥行取得方法およびプログラム | |
JP7507408B2 (ja) | 撮像装置、情報処理装置、撮像方法、およびプログラム | |
CN114761825A (zh) | 飞行时间成像电路、飞行时间成像系统、飞行时间成像方法 | |
CN112313541B (zh) | 设备和方法 | |
US12026904B2 (en) | Depth acquisition device and depth acquisition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210407 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210407 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210407 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211117 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6990859 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |