JPWO2020059448A1 - 奥行取得装置、奥行取得方法およびプログラム - Google Patents
奥行取得装置、奥行取得方法およびプログラム Download PDFInfo
- Publication number
- JPWO2020059448A1 JPWO2020059448A1 JP2020548223A JP2020548223A JPWO2020059448A1 JP WO2020059448 A1 JPWO2020059448 A1 JP WO2020059448A1 JP 2020548223 A JP2020548223 A JP 2020548223A JP 2020548223 A JP2020548223 A JP 2020548223A JP WO2020059448 A1 JPWO2020059448 A1 JP WO2020059448A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- depth
- dust
- region
- infrared
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 21
- 239000000428 dust Substances 0.000 claims abstract description 480
- 238000003384 imaging method Methods 0.000 claims abstract description 103
- 238000001514 detection method Methods 0.000 claims description 123
- 230000005484 gravity Effects 0.000 claims description 47
- 238000012545 processing Methods 0.000 description 42
- 238000010586 diagram Methods 0.000 description 29
- 230000003287 optical effect Effects 0.000 description 15
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000012937 correction Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 241000533950 Leucojum Species 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 239000002245 particle Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000000691 measurement method Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 2
- 239000003990 capacitor Substances 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 101100508818 Mus musculus Inpp5k gene Proteins 0.000 description 1
- 101100366438 Rattus norvegicus Sphkap gene Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000006059 cover glass Substances 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000010419 fine particle Substances 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20028—Bilateral filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Measurement Of Optical Distance (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明者は、「背景技術」の欄において記載した、特許文献1の測距装置に関し、以下の問題が生じることを見出した。
[ハードウェア構成]
図1は、実施の形態に係る奥行取得装置1のハードウェア構成を示すブロック図である。本実施の形態における奥行取得装置1は、赤外光(または近赤外線光)に基づく画像と、可視光に基づく画像とを、実質的に同一のシーンに対する撮像であって、かつ、実質的に同一の視点および撮像時刻の撮像によって取得することができるハードウェア構成を有する。なお、実質的に同一とは、本開示における効果を奏し得る程度に同一であることを意味する。
本実施の形態における奥行取得装置1は、図1に示すハードウェア構成によって、IR画像とBW画像とを、実質的に同一のシーンに対する撮像であって、かつ、実質的に同一の視点および同一時刻の撮像によって取得する。そして、奥行取得装置1は、そのIR画像から得られる、そのIR画像内の各位置における奥行きを、BW画像を用いて補正する。具体的には、IR画像に、粉塵が映し出されている領域(以下、粉塵領域という)が存在する場合、奥行取得装置1は、そのIR画像から得られる、粉塵領域内の各位置における奥行きを、その粉塵領域に対応するBW画像の領域内の画像を用いて補正する。これにより、粉塵領域の奥行きを、粉塵であるノイズの影響を除いて適切に取得することができる。
まず、光源101は、発光することによって、被写体に赤外光を照射する。
次に、IRカメラ102は、IR画像を取得する。つまり、IRカメラ102は、光源101によって赤外光が照射された被写体を含むシーンを撮像する。これにより、IRカメラ102は、被写体から反射された赤外光に基づくIR画像を取得する。具体的には、IRカメラ102は、図3に示す第1露光期間、第2露光期間および第3露光期間のそれぞれのタイミングと露光量とによって得られるIR画像を取得する。
次に、BWカメラ103は、BW画像を取得する。つまり、BWカメラ103は、ステップS12で取得されたIR画像に対応するBW画像、すなわち、そのIR画像と同一のシーン、同一の視点および同一の撮像時刻のBW画像を取得する。
そして、粉塵検出部112は、ステップS12で取得されたIR画像から粉塵領域を検出する。
次に、奥行推定部111は、ステップS12で取得されたIR画像、ステップS13で取得されたBW画像、および、ステップS14で検出された粉塵領域に基づいて、粉塵領域の奥行きを推定する。
まず、プロセッサ110の発光タイミング取得部113は、光源101が被写体に赤外光を照射するタイミングを示すタイミング情報を取得する。
次に、IR画像取得部114は、ステップS21で取得されたタイミング情報によって示されるタイミングに応じて撮像を行ったIRカメラ102から、IR画像を取得する。例えば、IR画像取得部114は、発光タイミング取得部113から図1に示す発光信号が出力されるタイミングに、露光信号をIRカメラ102に出力する。これによって、IR画像取得部114は、IRカメラ102に撮像を開始させ、その撮像によって得られたIR画像を、そのIRカメラ102から取得する。このとき、IR画像取得部114は、メモリ200を介してIRカメラ102からIR画像を取得してもよく、IRカメラ102から直接取得してもよい。
次に、BW画像取得部115は、ステップS22で取得されたIR画像に対応するBW画像をBWカメラ103から取得する。このとき、BW画像取得部115は、メモリ200を介してBWカメラ103からBW画像を取得してもよく、BWカメラ103から直接取得してもよい。
そして、粉塵検出部112は、IR画像から粉塵領域を検出する。
次に、奥行推定部111は、ステップS22で取得されたIR画像、ステップS23で取得されたBW画像、および、ステップS24で検出された粉塵領域に基づいて、粉塵領域の奥行きを推定する。これによって、少なくともその粉塵領域の奥行きを示す奥行情報が算出される。なお、このとき、奥行推定部111は、粉塵領域だけでなくIR画像の全体の奥行きを推定し、その推定結果を示す奥行情報を算出してもよい。
図8は、奥行取得装置1のプロセッサ110の具体的な機能構成を示すブロック図である。
図21は、図8に示す奥行取得装置1の全体的な処理動作を示すフローチャートである。
まず、高輝度領域検出部116は、IR画像から高輝度領域を検出する。
粉塵検出部112は、高輝度領域が粉塵候補領域であるか否かを決定する。これにより、IR画像が粉塵候補領域と非粉塵領域とに分割される。
FOE検出部117は、BW画像を利用してFOEを検出する。
粉塵検出部112は、粉塵候補領域とFOEとに基づいて、粉塵領域を検出する。これにより、IR画像が粉塵領域と非粉塵領域とに分割される。
第1奥行推定部111aは、例えばTOFを用いてIR画像から第1奥行情報を生成する。
第2奥行推定部111bは、IR画像の第1奥行情報とBW画像とに基づいて、粉塵領域の奥行きを示す第2奥行情報を生成する。
出力部118は、その第1奥行情報によって示される粉塵領域の奥行きを、第2奥行情報によって示される奥行きに置き換えることによって、第3奥行情報を生成する。
まず、高輝度領域検出部116は、IR画像内の各位置での輝度が第1閾値以上であるか否かを判定する。ここで、第1閾値は、例えばIR画像が12ビット階調の画像であれば、256程度であってもよい。もちろん、この第1閾値は、環境条件またはIRカメラ102の設定に応じて変化する値であってもよい。例えば、夜のような暗いシーンが撮像される場合、IR画像全体の輝度が低くなるため、第1閾値は、昼の明るいシーンが撮像される場合よりも、小さい値でもよい。また、IRカメラ102の露光時間が長い場合、IR画像全体の輝度が高くなるため、第1閾値は、露光時間が短い場合よりも、大きい値でもよい。
ここで、何れの位置での輝度も第1閾値以上ではないと判定すると(ステップS41のNo)、高輝度領域検出部116は、そのIR画像において粉塵は映し出されていないと判定する。つまり、IR画像の全体が非粉塵領域として判定される。
一方、何れかの位置での輝度が第1閾値以上であると判定すると(ステップS41のYes)、高輝度領域検出部116は、IR画像を領域分割する。つまり、高輝度領域検出部116は、IR画像を、少なくとも1つの高輝度領域と、高輝度領域以外の領域とに分割する。この領域分割には、例えばSuperPixelなど、輝度による手法を利用してもよい。なお、高輝度領域検出部116は、その領域分割に、領域の大きさを利用したフィルタリング処理を行ってもよい。例えば、高輝度領域検出部116は、高輝度領域内の画素数が、予め定められた数以下であれば、その高輝度領域を削除してもよい。つまり、高輝度領域検出部116は、高輝度領域を検出しても、その領域の画素数が少なければ、その高輝度領域を、高輝度領域以外の領域に分類し直してもよい。
次に、粉塵検出部112は、ステップS43の領域分割によって検出された少なくとも1つの高輝度領域のそれぞれについて、その高輝度領域の重心を検出する。具体的には、粉塵検出部112は、高輝度領域に含まれる複数の画素のX軸座標位置およびY軸座標位置のそれぞれの平均値を算出することによって、その高輝度領域の重心を検出する。
粉塵検出部112は、その高輝度領域の重心に対応するBW画像内の位置(すなわち重心対応位置)の輝度が第2閾値未満であるか否かを判定する。つまり、粉塵検出部112は、高輝度領域が第2条件を満たすか否かを判定する。第2閾値未満でないと判定すると(ステップS45aのNo)、粉塵検出部112は、その高輝度領域を非粉塵領域として判別する(ステップS42)。つまり、この場合には、IR画像の高輝度領域と、BW画像内のその高輝度領域に対応する領域とのそれぞれで、光の反射率が高い被写体が映し出されていると推定される。したがって、この場合には、その高輝度領域が非粉塵領域として判別される。なお、第2閾値は、例えばBW画像が12ビット階調の画像であれば、20,000程度であってもよい。もちろん、この第2閾値は、環境条件またはBWカメラ103の設定に応じて変化する値であってもよい。例えば、夜のような暗いシーンが撮像される場合、BW画像全体の輝度が低くなるため、第2閾値は、昼の明るいシーンが撮像される場合よりも、小さい値でもよい。また、BWカメラ103の露光時間が長い場合、BW画像全体の輝度が高くなるため、第2閾値は、露光時間が短い場合よりも、大きい値でもよい。
一方、粉塵検出部112によって、重心対応位置の輝度が第2閾値未満であると判定されると(ステップS45aのYes)、FOE検出部117は、BW画像に基づいてFOEを検出する。
粉塵検出部112は、ステップS44において検出された3つ以上の粉塵候補領域の重心とFOEとが直線上に配置されているか否かを判定する。つまり、粉塵検出部112は、粉塵候補領域が上述の第1条件を満たすか否かを判定する。具体的には、粉塵検出部112は、3つ以上の粉塵候補領域のそれぞれの重心と、FOEに交わる直線とのフィッティングを行い、その直線と、各重心との間の誤差(すなわち距離)が許容値以下であるか否かを判定する。これによって、3つ以上の粉塵候補領域のそれぞれの重心とFOEとが直線上に配置されているか否かが判定される。誤差が許容値以下であれば、それらの粉塵候補領域の重心とFOEとが直線上に配置されていると判定され、誤差が許容値以下でなければ、それらの粉塵候補領域の重心とFOEとが直線上に配置されていないと判定される。
粉塵検出部112は、各粉塵候補領域の重心とFOEとが直線上に配置されていると判定すると(ステップS47aのYes)、それらの粉塵候補領域を粉塵領域として判別する。
一方、粉塵検出部112は、3つ以上の粉塵候補領域の重心とFOEとが直線上に配置されていないと判定すると(ステップS47aのNo)、各粉塵候補領域の主軸を検出する。
次に、粉塵検出部112は、ステップS48で検出された各粉塵候補領域の主軸またはその延長線がFOEに交わるか否かを判定する。つまり、粉塵検出部112は、粉塵候補領域がステップS47aの第1条件とは異なる他の第1条件を満たすか否かを判定する。ここで、粉塵検出部112は、主軸またはその延長線がFOEに交わると判定すると(ステップS49のYes)、その主軸を有する粉塵候補領域を粉塵領域として判別する(ステップS50)。一方、粉塵検出部112は、主軸またはその延長線がFOEに交わらないと判定すると(ステップS49のNo)、その主軸を有する粉塵候補領域を非粉塵領域として判別する(ステップS42)。
例えば、IRカメラ102のレンズの歪みが大きい場合には、上述のように、各粉塵領域およびFOEは直線上に配置されずに、レンズ歪みに応じた円弧上に配置される。
ステップS45bでは、粉塵検出部112は、ステップS43の領域分割によって得られる少なくとも1つの高輝度領域のそれぞれについて、IR画像のその高輝度領域と、その高輝度領域に対応するBW画像内の領域(すなわち対応領域)との間における輝度の相関係数を算出する。相関係数は、IR画像とBW画像のそれぞれの各画素の輝度を、領域ごとにベクトル状に配列し、その内積値を計算し、画素数で正規化することによって求められる。つまり、粉塵検出部112は、IR画像の高輝度領域における各画素の輝度からなるベクトルと、BW画像の対応領域における各画素の輝度からなるベクトルとの内積値を正規化する。これによって、その高輝度領域に対する相関係数が算出される。
第2奥行推定部111bは、BW画像、第1奥行情報、および粉塵領域(すなわち上述の領域の判別結果)を利用し、第2奥行情報を生成する。
上記実施の形態では、第2奥行情報の生成に、ガイデッドフィルタなどのフィルタを用いたが、学習モデルを用いて第2奥行情報を生成してもよい。
10、101 光源
20 固体撮像素子
21 第1画素(IR)
22 第2画素(BW)
30 処理回路
50 拡散板
60 レンズ
70 バンドパスフィルタ
102 IRカメラ
103 BWカメラ
104 学習モデル
110 プロセッサ
111 奥行推定部
111a 第1奥行推定部
111b 第2奥行推定部
112 粉塵検出部
113 発光タイミング取得部
114 IR画像取得部
115 BW画像取得部
116 高輝度領域検出部
117 FOE検出部
118 出力部
200 メモリ
Claims (18)
- メモリと、
プロセッサとを備え、
前記プロセッサは、
光源が被写体に赤外光を照射するタイミングを示すタイミング情報を取得し、
前記タイミング情報によって示される前記タイミングに応じた、前記被写体を含むシーンの赤外光に基づく撮像によって得られ、前記メモリに保持されている赤外画像を取得し、
前記赤外画像と実質的に同一のシーンの可視光に基づく撮像であって、前記赤外画像と実質的に同一の視点および撮像時刻の撮像によって得られ、前記メモリに保持されている可視光画像を取得し、
前記赤外画像から、粉塵が映し出されている領域を粉塵領域として検出し、
前記赤外画像、前記可視光画像、および前記粉塵領域に基づいて、前記粉塵領域の奥行きを推定する、
奥行取得装置。 - 前記プロセッサは、
前記粉塵領域の奥行きの推定では、
前記赤外画像内の各位置での奥行きを示す第1奥行情報を推定し、
前記第1奥行情報によって示される前記粉塵領域内の各位置での奥行きを前記可視光画像に基づいて補正することによって、前記粉塵領域内の各位置での補正後の奥行きを示す第2奥行情報を推定し、
さらに、前記第1奥行情報によって示される、前記赤外画像の前記粉塵領域外の各位置での奥行きと、前記第2奥行情報によって示される、前記赤外画像の前記粉塵領域内の各位置での奥行きとを示す、第3奥行情報を生成する、
請求項1に記載の奥行取得装置。 - 前記プロセッサは、前記粉塵領域の検出では、
前記赤外画像のうち、第1閾値以上の輝度を有する高輝度領域が第1条件を満たす場合に、前記高輝度領域を前記粉塵領域として検出する、
請求項1または2に記載の奥行取得装置。 - 前記第1条件は、
前記赤外画像における前記高輝度領域とは異なる他の少なくとも2つの高輝度領域のそれぞれの重心と、前記赤外画像または前記可視光画像のFOE(Focus of Expansion)とに交わる直線上または円弧上に、前記高輝度領域の重心が配置されている条件である、
請求項3に記載の奥行取得装置。 - 前記第1条件は、
前記高輝度領域の主軸または前記主軸の延長線が、前記赤外画像または前記可視光画像のFOE(Focus of Expansion)に交わる条件である、
請求項3に記載の奥行取得装置。 - 前記プロセッサは、前記粉塵領域の検出では、
前記高輝度領域が、さらに、第2条件を満たす場合に、前記高輝度領域を前記粉塵領域として検出する、
請求項3〜5の何れか1項に記載の奥行取得装置。 - 前記第2条件は、
前記赤外画像内の前記高輝度領域の重心に対応する前記可視光画像内の位置の輝度が、第2閾値未満となる条件である、
請求項6に記載の奥行取得装置。 - 前記第2条件は、
前記赤外画像の高輝度領域内の輝度と、前記高輝度領域に対応する前記可視光画像の領域内の輝度との間の相関係数が、第3閾値未満となる条件である、
請求項6に記載の奥行取得装置。 - 前記プロセッサは、
前記粉塵領域の奥行きの推定では、
前記赤外画像内の各位置での奥行きを示す奥行情報を推定し、
前記赤外画像、前記可視光画像、前記粉塵領域、および前記奥行情報を学習モデルに入力することによって、前記奥行情報によって示される、前記粉塵領域内の各位置での奥行きを補正する、
請求項1に記載の奥行取得装置。 - メモリと、
プロセッサとを備え、
前記プロセッサは、
光源が被写体に赤外光を照射するタイミングを示すタイミング情報を取得し、
前記タイミング情報によって示される前記タイミングに応じた、前記被写体を含むシーンの赤外光に基づく撮像によって得られ、前記メモリに保持されている赤外画像を取得し、
前記赤外画像と実質的に同一のシーンの可視光に基づく撮像であって、前記赤外画像と実質的に同一の視点および撮像時刻の撮像によって得られ、前記メモリに保持されている可視光画像を取得し、
前記赤外画像内の各位置での奥行きを示す奥行情報を推定し、
前記赤外画像、前記可視光画像、および前記奥行情報を、学習モデルに入力することによって、前記奥行情報によって示される、前記赤外画像において粉塵が映し出されている粉塵領域内の各位置での奥行きを補正する、
奥行取得装置。 - 光源と、
前記光源が被写体に赤外光を照射するタイミングに応じて、前記被写体を含むシーンの赤外光に基づく撮像を行うことによって、赤外画像を取得する赤外カメラと、
前記赤外画像と実質的に同一のシーンの可視光に基づく撮像であって、前記赤外画像と実質的に同一の視点および撮像時刻の撮像を行うことによって、可視光画像を取得する可視光カメラと、
前記赤外画像から、粉塵が映し出されている領域を粉塵領域として検出する粉塵検出部と、
前記赤外画像、前記可視光画像、および前記粉塵領域に基づいて、前記粉塵領域の奥行きを推定する奥行推定部と、
を備える奥行取得装置。 - 光源と、
前記光源が被写体に赤外光を照射するタイミングに応じて、前記被写体を含むシーンの赤外光に基づく撮像を行うことによって、赤外画像を取得する赤外カメラと、
前記赤外画像と実質的に同一のシーンの可視光に基づく撮像であって、前記赤外画像と実質的に同一の視点および撮像時刻の撮像を行うことによって、可視光画像を取得する可視光カメラと、
前記赤外画像内の各位置での奥行きを示す奥行情報を推定する第1奥行推定部と、
前記赤外画像、前記可視光画像、および前記奥行情報を、学習モデルに入力することによって、前記奥行情報によって示される、前記赤外画像において粉塵が映し出されている粉塵領域内の各位置での奥行きを補正する第2奥行推定部と、
を備える奥行取得装置。 - メモリと、
プロセッサとを備え、
前記プロセッサは、
前記メモリに保持されている赤外画像を取得し、ここで、前記赤外画像は、赤外光に基づく撮像によって得られ、
前記メモリに保持されている可視光画像を取得し、ここで、前記可視光画像は、前記赤外画像と実質的に同一の視点および撮像時刻に、可視光に基づく撮像によって得られ、
前記赤外画像から、粉塵が映し出されている領域を粉塵領域として検出し、
前記可視光画像に基づいて、前記粉塵領域の奥行きを推定する、
奥行取得装置。 - 光源が被写体に赤外光を照射するタイミングを示すタイミング情報を取得し、
前記タイミング情報によって示される前記タイミングに応じた、前記被写体を含むシーンの赤外光に基づく撮像によって得られ、メモリに保持されている赤外画像を取得し、
前記赤外画像と実質的に同一のシーンの可視光に基づく撮像であって、前記赤外画像と実質的に同一の視点および撮像時刻の撮像によって得られ、メモリに保持されている可視光画像を取得し、
前記赤外画像から、粉塵が映し出されている領域を粉塵領域として検出し、
前記赤外画像、前記可視光画像、および前記粉塵領域に基づいて、前記粉塵領域の奥行きを推定する、
奥行取得方法。 - 光源が被写体に赤外光を照射するタイミングを示すタイミング情報を取得し、
前記タイミング情報によって示される前記タイミングに応じた、前記被写体を含むシーンの赤外光に基づく撮像によって得られ、メモリに保持されている赤外画像を取得し、
前記赤外画像と実質的に同一のシーンの可視光に基づく撮像であって、前記赤外画像と実質的に同一の視点および撮像時刻の撮像によって得られ、メモリに保持されている可視光画像を取得し、
前記赤外画像内の各位置での奥行きを示す奥行情報を推定し、
前記赤外画像、前記可視光画像、および前記奥行情報を、学習モデルに入力することによって、前記奥行情報によって示される、前記赤外画像において粉塵が映し出されている粉塵領域内の各位置での奥行きを補正する、
奥行取得方法。 - メモリとプロセッサとを備える奥行取得装置を用いた奥行取得方法であって、
前記プロセッサは、
前記メモリに保持されている赤外画像を取得し、ここで、前記赤外画像は、赤外光に基づく撮像によって得られ、
前記メモリに保持されている可視光画像を取得し、ここで、前記可視光画像は、前記赤外画像と実質的に同一の視点および撮像時刻に、可視光に基づく撮像によって得られ、
前記赤外画像から、粉塵が映し出されている領域を粉塵領域として検出し、
前記可視光画像に基づいて、前記粉塵領域の奥行きを推定する、
奥行取得方法。 - 光源が被写体に赤外光を照射するタイミングを示すタイミング情報を取得し、
前記タイミング情報によって示される前記タイミングに応じた、前記被写体を含むシーンの赤外光に基づく撮像によって得られ、メモリに保持されている赤外画像を取得し、
前記赤外画像と実質的に同一のシーンの可視光に基づく撮像であって、前記赤外画像と実質的に同一の視点および撮像時刻の撮像によって得られ、メモリに保持されている可視光画像を取得し、
前記赤外画像から、粉塵が映し出されている領域を粉塵領域として検出し、
前記赤外画像、前記可視光画像、および前記粉塵領域に基づいて、前記粉塵領域の奥行きを推定する、
ことをコンピュータに実行させるためのプログラム。 - 光源が被写体に赤外光を照射するタイミングを示すタイミング情報を取得し、
前記タイミング情報によって示される前記タイミングに応じた、前記被写体を含むシーンの赤外光に基づく撮像によって得られ、メモリに保持されている赤外画像を取得し、
前記赤外画像と実質的に同一のシーンの可視光に基づく撮像であって、前記赤外画像と実質的に同一の視点および撮像時刻の撮像によって得られ、メモリに保持されている可視光画像を取得し、
前記赤外画像内の各位置での奥行きを示す奥行情報を推定し、
前記赤外画像、前記可視光画像、および前記奥行情報を、学習モデルに入力することによって、前記奥行情報によって示される、前記赤外画像において粉塵が映し出されている粉塵領域内の各位置での奥行きを補正する、
ことをコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023213839A JP2024019613A (ja) | 2018-09-18 | 2023-12-19 | 撮像装置、情報処理装置、撮像方法およびプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018174276 | 2018-09-18 | ||
JP2018174276 | 2018-09-18 | ||
PCT/JP2019/033601 WO2020059448A1 (ja) | 2018-09-18 | 2019-08-28 | 奥行取得装置、奥行取得方法およびプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023213839A Division JP2024019613A (ja) | 2018-09-18 | 2023-12-19 | 撮像装置、情報処理装置、撮像方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020059448A1 true JPWO2020059448A1 (ja) | 2021-09-09 |
JP7450163B2 JP7450163B2 (ja) | 2024-03-15 |
Family
ID=69888770
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020548223A Active JP7450163B2 (ja) | 2018-09-18 | 2019-08-28 | 奥行取得装置、奥行取得方法およびプログラム |
JP2023213839A Pending JP2024019613A (ja) | 2018-09-18 | 2023-12-19 | 撮像装置、情報処理装置、撮像方法およびプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023213839A Pending JP2024019613A (ja) | 2018-09-18 | 2023-12-19 | 撮像装置、情報処理装置、撮像方法およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11514595B2 (ja) |
EP (1) | EP3855215A4 (ja) |
JP (2) | JP7450163B2 (ja) |
CN (1) | CN112513676A (ja) |
WO (1) | WO2020059448A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102597823B1 (ko) * | 2019-06-11 | 2023-11-03 | 엘지전자 주식회사 | 먼지 측정 장치 |
US20220397675A1 (en) * | 2019-07-09 | 2022-12-15 | Sony Semiconductor Solutions Corporation | Imaging systems, devices and methods |
JP7361649B2 (ja) | 2020-03-30 | 2023-10-16 | 株式会社フジタ | 粉塵測定装置および粉塵測定方法 |
JP2022133958A (ja) * | 2021-03-02 | 2022-09-14 | 京セラ株式会社 | 電磁波検出装置及び移動体 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014122714A1 (ja) * | 2013-02-07 | 2014-08-14 | パナソニック株式会社 | 撮像装置及びその駆動方法 |
US20140240467A1 (en) * | 2012-10-24 | 2014-08-28 | Lsi Corporation | Image processing method and apparatus for elimination of depth artifacts |
US9234618B1 (en) * | 2012-09-27 | 2016-01-12 | Google Inc. | Characterizing optically reflective features via hyper-spectral sensor |
JP2017223648A (ja) * | 2016-03-16 | 2017-12-21 | アナログ ディヴァイスィズ インク | 飛行時間型深度イメージングの際の消費電力の低減 |
US20180003807A1 (en) * | 2014-05-19 | 2018-01-04 | Rockwell Automation Technologies, Inc. | Waveform reconstruction in a time-of-flight sensor |
US20180232947A1 (en) * | 2017-02-11 | 2018-08-16 | Vayavision, Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
JP2019028861A (ja) * | 2017-08-02 | 2019-02-21 | ソニー株式会社 | 信号処理装置、および信号処理方法、プログラム、並びに移動体 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7242803B2 (en) * | 2003-01-21 | 2007-07-10 | The United States Of America As Represented By The Secretary Of The Navy | System and method for significant dust detection and enhancement of dust images over land and ocean |
JP2006322855A (ja) * | 2005-05-19 | 2006-11-30 | Denso Corp | 無限遠点決定装置 |
JP4235252B2 (ja) * | 2007-05-31 | 2009-03-11 | パナソニック株式会社 | 画像処理装置 |
JP5448617B2 (ja) * | 2008-08-19 | 2014-03-19 | パナソニック株式会社 | 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ |
JP5353455B2 (ja) * | 2009-06-09 | 2013-11-27 | コニカミノルタ株式会社 | 周辺監視装置 |
JP5483535B2 (ja) * | 2009-08-04 | 2014-05-07 | アイシン精機株式会社 | 車両周辺認知支援装置 |
JP5743390B2 (ja) | 2009-09-15 | 2015-07-01 | 本田技研工業株式会社 | 測距装置、及び測距方法 |
WO2012137434A1 (ja) * | 2011-04-07 | 2012-10-11 | パナソニック株式会社 | 立体撮像装置 |
JP2013009041A (ja) * | 2011-06-22 | 2013-01-10 | Denso Corp | 車両用撮影表示制御システム |
JP6100635B2 (ja) * | 2012-12-13 | 2017-03-22 | 株式会社デンソー | 移動体検出装置 |
DE102013203109A1 (de) * | 2013-02-26 | 2014-08-28 | Siemens Aktiengesellschaft | Staubleitung mit optischem Sensor und Verfahren zur Messung der Zusammensetzung von Staub |
WO2015075926A1 (ja) * | 2013-11-20 | 2015-05-28 | パナソニックIpマネジメント株式会社 | 測距撮像システム |
US10458905B2 (en) * | 2014-07-07 | 2019-10-29 | Rebellion Photonics, Inc. | Gas leak emission quantification with a gas cloud imager |
US9694498B2 (en) * | 2015-03-30 | 2017-07-04 | X Development Llc | Imager for detecting visual light and projected patterns |
JP6243087B2 (ja) * | 2015-04-23 | 2017-12-06 | 富士フイルム株式会社 | 撮像装置及び撮像装置の画像処理方法及びプログラム |
JP2016224021A (ja) * | 2015-06-03 | 2016-12-28 | 上田 智章 | デプスカメラ |
US9846808B2 (en) * | 2015-12-31 | 2017-12-19 | Adaptive Computation, Llc | Image integration search based on human visual pathway model |
EP3367166A1 (en) * | 2017-02-24 | 2018-08-29 | ASML Netherlands B.V. | Method of measuring variation, inspection system, computer program, and computer system |
JP7230813B2 (ja) * | 2017-09-21 | 2023-03-01 | コニカミノルタ株式会社 | ガス検知用画像処理装置、ガス検知用画像処理方法、及び、ガス検知用画像処理プログラム |
US11840334B2 (en) * | 2018-01-24 | 2023-12-12 | Honeywell International Inc. | Solar panel inspection by unmanned aerial vehicle |
-
2019
- 2019-08-28 JP JP2020548223A patent/JP7450163B2/ja active Active
- 2019-08-28 WO PCT/JP2019/033601 patent/WO2020059448A1/ja unknown
- 2019-08-28 CN CN201980049509.6A patent/CN112513676A/zh active Pending
- 2019-08-28 EP EP19861674.0A patent/EP3855215A4/en active Pending
-
2021
- 2021-01-25 US US17/157,175 patent/US11514595B2/en active Active
-
2023
- 2023-12-19 JP JP2023213839A patent/JP2024019613A/ja active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9234618B1 (en) * | 2012-09-27 | 2016-01-12 | Google Inc. | Characterizing optically reflective features via hyper-spectral sensor |
US20140240467A1 (en) * | 2012-10-24 | 2014-08-28 | Lsi Corporation | Image processing method and apparatus for elimination of depth artifacts |
JP2016502704A (ja) * | 2012-10-24 | 2016-01-28 | エルエスアイ コーポレーション | 奥行きアーチファクトを除去するための画像処理方法および装置 |
WO2014122714A1 (ja) * | 2013-02-07 | 2014-08-14 | パナソニック株式会社 | 撮像装置及びその駆動方法 |
US20180003807A1 (en) * | 2014-05-19 | 2018-01-04 | Rockwell Automation Technologies, Inc. | Waveform reconstruction in a time-of-flight sensor |
JP2017223648A (ja) * | 2016-03-16 | 2017-12-21 | アナログ ディヴァイスィズ インク | 飛行時間型深度イメージングの際の消費電力の低減 |
US20180232947A1 (en) * | 2017-02-11 | 2018-08-16 | Vayavision, Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
JP2019028861A (ja) * | 2017-08-02 | 2019-02-21 | ソニー株式会社 | 信号処理装置、および信号処理方法、プログラム、並びに移動体 |
Also Published As
Publication number | Publication date |
---|---|
US11514595B2 (en) | 2022-11-29 |
EP3855215A4 (en) | 2021-11-10 |
WO2020059448A1 (ja) | 2020-03-26 |
EP3855215A1 (en) | 2021-07-28 |
JP7450163B2 (ja) | 2024-03-15 |
JP2024019613A (ja) | 2024-02-09 |
US20210142496A1 (en) | 2021-05-13 |
CN112513676A (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7262021B2 (ja) | 奥行取得装置、奥行取得方法およびプログラム | |
JP7450163B2 (ja) | 奥行取得装置、奥行取得方法およびプログラム | |
JP6990859B2 (ja) | 奥行取得装置、奥行取得方法およびプログラム | |
US10354413B2 (en) | Detection system and picture filtering method thereof | |
US11373324B2 (en) | Depth acquisition device and depth acquisition method for providing a corrected depth image | |
JP2021038929A (ja) | 計測装置、エレベータシステムおよび計測方法 | |
US10803625B2 (en) | Detection system and picturing filtering method thereof | |
JP2020052001A (ja) | 奥行取得装置、奥行取得方法およびプログラム | |
KR20170119952A (ko) | 물품의 외관 검사장치 및 이를 이용한 물품의 외관 검사방법 | |
JP2020051991A (ja) | 奥行取得装置、奥行取得方法およびプログラム | |
US12026904B2 (en) | Depth acquisition device and depth acquisition method | |
JP7507408B2 (ja) | 撮像装置、情報処理装置、撮像方法、およびプログラム | |
CN112313541B (zh) | 设备和方法 | |
KR101087863B1 (ko) | 구조 광 패턴을 이용한 영상의 경계를 결정하는 방법, 이러한 방법이 기록된 기록매체 및 구조 광 패턴을 이용한 영상의 경계 인식 시스템 | |
CN112313541A (zh) | 设备和方法 | |
CN114537429A (zh) | 车辆控制方法、装置、车辆及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230501 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231219 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240219 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7450163 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |