JP6990859B2 - 奥行取得装置、奥行取得方法およびプログラム - Google Patents

奥行取得装置、奥行取得方法およびプログラム Download PDF

Info

Publication number
JP6990859B2
JP6990859B2 JP2020548409A JP2020548409A JP6990859B2 JP 6990859 B2 JP6990859 B2 JP 6990859B2 JP 2020548409 A JP2020548409 A JP 2020548409A JP 2020548409 A JP2020548409 A JP 2020548409A JP 6990859 B2 JP6990859 B2 JP 6990859B2
Authority
JP
Japan
Prior art keywords
image
depth
infrared light
visible light
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020548409A
Other languages
English (en)
Other versions
JPWO2020066637A1 (ja
Inventor
健夫 吾妻
智 佐藤
信彦 若井
康介 吉岡
規貴 清水
良直 河合
高明 天田
陽子 川合
猛 村井
宏樹 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2020066637A1 publication Critical patent/JPWO2020066637A1/ja
Application granted granted Critical
Publication of JP6990859B2 publication Critical patent/JP6990859B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Optics & Photonics (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本開示は、被写体までの距離を奥行きとして取得する奥行取得装置などに関する。
従来、被写体までの距離を測定する測距装置が提案されている(例えば、特許文献1参照)。この測距装置は、光源と撮像部とを備える。光源は被写体に光を照射する。撮像部は、その被写体で反射された反射光を撮像する。そして、測距装置は、その撮像によって得られた画像の各画素値を、被写体までの距離に変換することによって、その被写体までの距離を測定する。つまり、測距装置は、撮像部によって得られた画像の奥行きを取得する。
特開2011-64498号公報
しかしながら、上記特許文献1の測距装置では、奥行きを正確に取得することができないという課題がある。
そこで、本開示は、被写体までの距離である奥行きを正確に取得することができる奥行取得装置を提供する。
本開示の一態様に係る奥行取得装置は、メモリと、プロセッサとを備え、前記プロセッサは、光源から照射されて被写体によって反射された赤外光を、撮像素子に含まれる複数の画素のそれぞれが受光する赤外光画像の撮像によって計測され、前記赤外光画像の撮像により取得された前記赤外光の強度に基づいて、前記被写体までの距離を奥行きとして算出することによって、奥行画像を生成し、前記撮像素子に含まれる複数の画素のそれぞれで受光された前記赤外光の強度に基づいて形成される赤外光画像と実質的に同一のシーンの可視光に基づく撮像であって、前記撮像素子が行う前記赤外光画像と実質的に同一の視点および同一の時刻の撮像によって生成され、前記メモリに保持されている可視光画像を取得し、前記可視光画像から、前記可視光画像の動きの方向と垂直な方向に沿う輝度の異なる複数の領域の境界を含む領域であるエッジ領域を検出し、前記エッジ領域に対応する前記奥行画像内の領域である補正対象領域の奥行きを、前記可視光画像を参照画像として用いた前記奥行画像に対するフィルタリングによって、補正する。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。また、記録媒体は、非一時的な記録媒体であってもよい。
本開示の奥行取得装置は、被写体までの距離である奥行きを正確に取得することができる。本開示の一態様における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施の形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
図1は、実施の形態における奥行取得装置のハードウェア構成を示すブロック図である。 図2は、実施の形態における固体撮像素子が有する画素アレイを示す模式図である。 図3は、実施の形態おける、光源の発光素子の発光タイミングと、固体撮像素子の第1画素の露光タイミングとの関係を示すタイミング図である。 図4は、実施の形態おける奥行取得装置の機能構成の一例を示すブロック図である。 図5は、BW画像およびIR画像の一例を示す図である。 図6は、実施の形態における奥行取得装置の全体的な処理動作を示すフローチャートである。 図7は、実施の形態における境界領域検出部の処理動作の一例を示すフローチャートである。 図8は、実施の形態におけるエッジ検出を説明するための図である。 図9は、実施の形態における境界領域検出部の処理動作の他の例を示すフローチャートである。 図10は、実施の形態の変形例における奥行取得装置の機能構成の一例を示すブロック図である。 図11Aは、実施の形態における奥行取得装置のシミュレーション結果の一例を示す図である。 図11Bは、実施の形態における奥行取得装置のシミュレーション結果の他の例を示す図である。
(本開示の基礎となった知見)
本発明者は、「背景技術」の欄において記載した、特許文献1の測距装置に関し、以下の問題が生じることを見出した。
特許文献1の測距装置は、上述のように、光源から被写体に光を照射し、光が照射された被写体を撮像することによって画像を取得し、その画像の奥行きを測定する。この奥行きの測定には、ToF(Time of Flight)が用いられる。このような測距装置では、測距精度を向上させるために、互いに異なる撮像条件の撮像が行われる。つまり、測距装置は、所定の撮像条件にしたがって撮像を行い、その撮像結果に応じて、その所定の撮像条件と異なる撮像条件を設定する。そして、測距装置は、その設定された撮像条件にしたがって再び撮像を行う。
しかしながら、互いに光の反射率が異なる2つの物体の境界が撮像されるときには、上記特許文献1の測距装置では、撮像条件を変更しても、その境界周辺の奥行きを正しく測定することが難しい場合がある。
このような問題を解決するために、本開示の一態様に係る奥行取得装置は、メモリと、プロセッサとを備え、前記プロセッサは、光源から照射されて被写体によって反射された赤外光を、撮像素子に含まれる複数の画素のそれぞれが受光する撮像によって計測され、前記メモリに保存されている前記赤外光の強度を取得し、前記撮像素子に含まれる複数の画素のそれぞれについて、当該画素に受光された前記赤外光の強度に基づいて、前記被写体までの距離を奥行きとして算出することによって、奥行画像を生成し、前記撮像素子に含まれる複数の画素のそれぞれで受光された前記赤外光の強度に基づいて形成される赤外光画像と実質的に同一のシーンの可視光に基づく撮像であって、前記赤外光画像と実質的に同一の視点および時刻の撮像によって生成され、前記メモリに保持されている可視光画像を取得し、前記可視光画像から、前記可視光画像の動きの方向と垂直な方向に沿うエッジを含む領域であるエッジ領域を検出し、前記エッジ領域に対応する前記奥行画像内の領域である補正対象領域の奥行きを補正する。なお、エッジ領域に対応する奥行画像内の領域とは、可視光画像内におけるエッジ領域と同一の位置にあって、そのエッジ領域と同一の形状および大きさを有する、奥行画像内における領域である。
例えば、赤外光に対する反射率が互いに異なる2つの物体の境界が撮像される際に、その撮像に用いられるカメラが動くと、ToFによる測定中に、その境界周辺の測定対象位置における反射率が大きく変化してしまう場合がある。このような場合、その測定対象位置ではノイズが得られ、不正確な奥行きを示す奥行画像が取得される。
しかし、上記一態様に係る奥行取得装置では、可視光画像から、その可視光画像の動きの方向と垂直な方向に沿うエッジを含む領域が、エッジ領域として検出される。このエッジ領域に含まれるエッジは、例えば上述の2つの物体の境界に相当する。つまり、エッジ領域は、ToFによる測定中に、赤外光の反射率が大きく変化する可能性が高い上述の境界周辺が映し出されている領域である。そして、このようなエッジ領域に対応する奥行画像内の領域が、補正対象領域とされて、この補正対象領域の奥行きが補正されることによって、ノイズを低減し、その境界周辺の奥行きを正確に取得することができる。
ここで、実質的に同一の視点および時刻で撮像した実質的に同一のシーンの画像の一例としては、同一撮像素子の異なる画素で撮像された画像である。このような画像は、ベイヤー配列のカラーフィルタで撮像されたカラー画像の赤、緑および青の各チャンネル画像と同様のものであり、各画像の画角、視点および撮像時刻はほぼ等しい。つまり、実質的に同一の視点および時刻で撮像した実質的に同一のシーンの画像は、撮像された各画像において、被写体の画像上での位置が2画素以上、異ならない。例えば、シーンに可視光と赤外成分を有する点光源が存在し、可視光画像において1画素のみが高輝度に撮像されている場合、赤外光画像においても可視光画像で撮像されている画素位置に対応する画素の2画素より近傍に点光源が撮像される。また、実質的に同一の時刻の撮像とは、撮像時刻の差が1フレーム以下で等しいことを示している。
なお、上述のエッジ領域は、明暗境界領域に相当する。つまり、プロセッサは、前記可視光画像から、互いに異なる輝度を有する2つの領域の境界であって、前記可視光画像の動きの方向と垂直な方向に沿う境界を含む領域である明暗境界領域を検出する。この場合、プロセッサは、前記明暗境界領域に対応する前記奥行画像内の領域である補正対象領域の奥行きを補正する。
また、前記エッジ領域の検出では、第1閾値以上の強度を有する前記エッジを検出し、前記エッジ領域は、前記第1閾値以上の強度を有する前記エッジから、前記可視光画像の動きに応じた距離までの領域であってもよい。
これにより、エッジ領域を適切に検出することができる。その結果、奥行画像において、ノイズが生じ易い領域を適切に検出することができる。
また、前記エッジ領域の検出では、前記可視光画像と、過去の可視光画像との画素値の差分が第2閾値以上の領域を、前記エッジ領域として検出してもよい。
これにより、エッジ領域を簡単に検出することができる。
また、前記補正対象領域の補正では、前記奥行画像内において前記補正対象領域の周囲に位置する領域である周囲領域の奥行きを用いて前記補正対象領域の奥行きを補正してもよい。例えば、前記周囲領域は、前記補正対象領域の下側に接する領域であって、前記補正対象領域の奥行きの補正では、前記補正対象領域の奥行きを、前記周囲領域の奥行きに置き換えてもよい。
周囲領域の奥行きは、補正対象領域の正しい奥行きと近似している可能性が高い。したがって、このような周囲領域の奥行きを用いることによって、補正対象領域の奥行きを正しく補正することができる。
また、前記補正対象領域の奥行きの補正では、前記可視光画像を参照画像として用いた前記奥行画像に対するフィルタリングによって、前記補正対象領域の奥行きを補正してもよい。
例えば、フィルタリングにはGuided Filterの拡張フィルタを用いてもよい。これにより、補正対象領域の奥行きを正しく補正することができる。
また、前記補正対象領域の奥行きの補正では、前記赤外光画像、前記可視光画像、前記奥行画像、および前記エッジ領域を学習モデルに入力することによって、前記奥行画像内における前記補正対象領域の奥行きを補正してもよい。
これにより、奥行画像、赤外光画像、可視光画像およびエッジ領域の入力に対して、正解の補正後の奥行画像が出力されるように、学習モデルに予め学習させておけば、エッジ領域を検出することなく、適切な奥行画像を簡単に取得することができる。
また、本開示の他の態様に係る奥行取得装置は、メモリと、プロセッサとを備え、前記プロセッサは、光源から照射されて被写体によって反射された赤外光を、撮像素子に含まれる複数の画素のそれぞれが受光する撮像によって計測され、前記メモリに保存されている前記赤外光の強度を取得し、前記撮像素子に含まれる複数の画素のそれぞれについて、当該画素に受光された前記赤外光の強度に基づいて、前記被写体までの距離を奥行きとして算出することによって、奥行画像を生成し、前記撮像素子に含まれる複数の画素のそれぞれで受光された前記赤外光の強度に基づいて形成される赤外光画像と実質的に同一のシーンの可視光に基づく撮像であって、前記赤外光画像と実質的に同一の視点および時刻の撮像によって生成され、前記メモリに保持されている可視光画像を取得し、前記奥行画像、前記赤外光画像、および前記可視光画像を、学習モデルに入力することによって、前記奥行画像の奥行きを補正してもよい。
これにより、奥行画像、赤外光画像、および可視光画像の入力に対して、正解の補正後の奥行画像が出力されるように、学習モデルに予め学習させておけば、エッジ領域を検出することなく、適切な奥行画像を簡単に取得することができる。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。また、記録媒体は、非一時的な記録媒体であってもよい。
以下、実施の形態について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、同じ構成部材については同じ符号を付している。
(実施の形態)
[ハードウェア構成]
図1は、実施の形態に係る奥行取得装置1のハードウェア構成を示すブロック図である。本実施の形態における奥行取得装置1は、赤外光(または近赤外線光)に基づく画像と、可視光に基づく画像とを、実質的に同一のシーンに対する撮像であって、かつ、実質的に同一の視点および時刻での撮像によって取得することができるハードウェア構成を有する。なお、実質的に同一とは、本開示における効果を奏し得る程度に同一であることを意味する。
図1に示されるように、奥行取得装置1は、光源10と、固体撮像素子20と、処理回路30と、拡散板50と、レンズ60と、バンドパスフィルタ70とを含んで構成される。
光源10は、照射光を照射する。より具体的には、光源10は、処理回路30で生成された発光信号によって示されるタイミングで、被写体に照射する照射光を発光する。
光源10は、例えば、コンデンサ、駆動回路、及び発光素子を含んで構成され、コンデンサに蓄積された電気エネルギーで発光素子を駆動することで発光する。発光素子は、一例として、レーザダイオード、発光ダイオード等により実現される。なお、光源10は、1種類の発光素子を含む構成であっても構わないし、目的に応じた複数種類の発光素子を含む構成であっても構わない。
以下では、発光素子は、例えば、近赤外線光を発光するレーザダイオード、または、近赤外線光を発光する発光ダイオード等である。しかしながら、光源10が照射する照射光は、近赤外線光に限定される必要はない。光源10が照射する照射光は、例えば、近赤外線光以外の周波数帯の赤外光(赤外線光ともいう)であっても構わない。以下、本実施の形態では、光源10が照射する照射光を赤外光として説明するが、その赤外光は、近赤外線光であってもよく、近赤外線光以外の周波数帯の赤外光であってもよい。
固体撮像素子20は、被写体を撮像して露光量を示す撮像信号を出力する。より具体的には、固体撮像素子20は、処理回路30で生成された露光信号によって示されるタイミングで露光を行い、露光量を示す撮像信号を出力する。
固体撮像素子20は、照射光が被写体により反射した反射光を用いて撮像する第1画素と、被写体を撮像する第2画素とがアレイ状に配置されてなる画素アレイを有する。固体撮像素子20は、例えば、必要に応じて、カバーガラス、ADコンバータ等のロジック機能を有していても構わない。
以下では、照射光と同様に、反射光は、赤外光であるとして説明するが、反射光は、照射光が被写体により反射した光であれば、赤外光に限定される必要はない。
図2は、固体撮像素子20が有する画素アレイ2を示す模式図である。
図2に示されるように、画素アレイ2は、照射光が被写体により反射した反射光を用いて撮像する第1画素21(IR画素)と、被写体を撮像する第2画素22(BW画素)とが列単位で交互に並ぶように、アレイ状に配置されて構成される。
また、図2では、画素アレイ2において、第2画素22と第1画素21が行方向に隣接するように並べられ、行方向のストライプ状に並ぶように配置されているが、これに限定されず、複数行置き(一例として、2行置き)に配置されていてもよい。つまり、第2画素22が行方向に隣接するように並べられる第1の行と第1画素21が行方向に隣接するように並べられる第2の行は、M行置き(Mは自然数)に交互に配置されてもよい。更に、第2画素22が行方向に隣接するように並べられる第1の行と第1画素21が行方向に隣接するように並べられる第2の行は、異なる行置き(第1の行はN行、第2の行はL行を交互に繰り返す(NとLは、異なる自然数))に配置されていてもよい。
第1画素21は、例えば、反射光である赤外光に感度を有する赤外光画素で実現される。第2画素22は、例えば、可視光に感度を有する可視光画素で実現される。
赤外光画素は、例えば、赤外光のみを透過させる光学フィルタ(IRフィルタともいう)、マイクロレンズ、光電変換部としての受光素子、および、受光素子で生成された電荷を蓄積する蓄積部等を含んで構成される。したがって、画素アレイ2に含まれる複数の赤外光画素(すなわち第1画素21)から出力される撮像信号によって、赤外光の輝度を示す画像が表現される。この赤外光の画像を、以下、IR画像または赤外光画像ともいう。
また、可視光画素は、例えば、可視光のみを透過させる光学フィルタ(BWフィルタともいう)、マイクロレンズ、光電変換部としての受光素子、および、受光素子で変換された電荷を蓄積する蓄積部等を含んで構成される。したがって、可視光画素、すなわち第2画素22は、輝度および色差を示す撮像信号を出力する。つまり、画素アレイ2に含まれる複数の第2画素22から出力される撮像信号によって、可視光の輝度および色差を示すカラー画像が表現される。なお、可視光画素の光学フィルタは、可視光と赤外光との双方を透過させても構わないし、可視光のうち、赤(R)、緑(G)、または青(B)等の特定の波長帯域の光だけを透過させても構わない。
また、可視光画素は、可視光の輝度のみを検出してもよい。この場合には、可視光画素、すなわち第2画素22は、輝度を示す撮像信号を出力する。したがって、画素アレイ2に含まれる複数の第2画素22から出力される撮像信号によって、可視光の輝度を示す白黒の画像、言い換えればモノクロの画像が表現される。このモノクロの画像を、以下、BW画像ともいう。なお、上述のカラー画像およびBW画像を総称して、可視光画像ともいう。
再び図1に戻って、奥行取得装置1の説明を続ける。
処理回路30は、固体撮像素子20によって出力された撮像信号を用いて、被写体に係る被写体情報を演算する。
処理回路30は、例えば、マイクロコンピュータ等の演算処理装置によって構成される。マイクロコンピュータは、プロセッサ(マイクロプロセッサ)、メモリ等を含み、メモリに格納された駆動プログラムがプロセッサにより実行されることで、発光信号および露光信号を生成する。なお、処理回路30は、FPGAまたはISP等を用いてもよく、1つのハードウェアから構成されても、複数のハードウェアから構成されてもかまわない。
処理回路30は、例えば、固体撮像素子20の第1画素21からの撮像信号を用いて行うToF測距方式により、被写体までの距離を算出する。
以下、図面を参照しながら、処理回路30が行うToF測距方式による被写体までの距離の算出について説明する。
図3は、処理回路30が、ToF測距方式を用いて被写体までの距離の算出を行う際における、光源10の発光素子の発光タイミングと、固体撮像素子20の第1画素21の露光タイミングとの関係を示すタイミング図である。
図3において、Tpは光源10の発光素子が照射光を発光する発光期間であり、Tdは、光源10の発光素子が照射光を発光してから、その照射光が被写体により反射した反射光が、固体撮像素子20に戻ってくるまでの遅延時間である。そして、第1露光期間は、光源10が照射光を発光する発光期間と同じタイミングとなっており、第2露光期間は、第1露光期間の終了時点から、発光期間Tpが経過するまでのタイミングとなっている。
図3において、q1は、第1露光期間内における反射光による、固体撮像素子20の第1画素21における露光量の総量を示し、q2は、第2露光期間内における反射光による、固体撮像素子20の第1画素21における露光量の総量を示す。
光源10の発光素子による照射光の発光と、固体撮像素子20の第1画素21による露光とを、図3に示されるタイミングで行うことで、被写体までの距離dは、光速をcとして、以下の(式1)で表すことができる。
d=c×Tp/2×q2/(q1+q2) ・・・(式1)
このため、処理回路30は、(式1)を利用することで、固体撮像素子20の第1画素21からの撮像信号を用いて、被写体までの距離を算出することができる。
また、固体撮像素子20の複数の第1画素21は、第1露光期間および第2露光期間の終了後に、第3露光期間Tpだけ露光してもよい。複数の第1画素21は、この第3露光期間Tpにおいて得られる露光量によって、反射光以外のノイズを検出することができる。つまり、処理回路30は、上記(式1)において、第1露光期間の露光量q1および第2露光期間の露光量q2のそれぞれからノイズを削除することによって、より正確に、被写体までの距離dを算出することができる。
再び図1に戻って、奥行取得装置1の説明を続ける。
処理回路30は、例えば、固体撮像素子20の第2画素22からの撮像信号を用いて、被写体の検知、及び被写体までの距離の算出を行ってもよい。
すなわち、処理回路30は、固体撮像素子20の複数の第2画素22によって撮像された可視光画像に基づいて、被写体の検知、及び被写体までの距離の算出を行ってもよい。ここで、被写体の検知は、例えば、被写体の特異点のエッジ検出によりパターン認識で形状の判別を行うことで実現してもよいし、事前に学習した学習モデルを利用してDeep Learningなどの処理により実現してもかまわない。また、被写体までの距離の算出は、世界座標変換を用いて行ってもよい。もちろん、可視光画像だけでなく、第1画素21によって撮像された赤外光の輝度や距離情報を利用してマルチモーダルな学習処理により被写体の検知を実現してもよい。
処理回路30は、発光するタイミングを示す発光信号と、露光するタイミングを示す露光信号とを生成する。そして、処理回路30は、生成した発光信号を光源10へ出力し、生成した露光信号を固体撮像素子20へ出力する。
処理回路30は、例えば、所定の周期で光源10を発光させるように発光信号を生成して出力し、所定の周期で固体撮像素子20を露光させるように露光信号を生成して出力することで、奥行取得装置1に、所定のフレームレートによる連続撮像を実現させてもよい。また、処理回路30は、例えばプロセッサ(マイクロプロセッサ)、メモリ等を含み、メモリに格納された駆動プログラムがプロセッサにより実行されることで、発光信号および露光信号を生成する。
拡散板50は、照射光の強度分布と角度を調整する。また、強度分布の調整では、拡散板50は、光源10からの照射光の強度分布を一様にする。なお、図1に示す例では、奥行取得装置1は、拡散板50を備えるが、この拡散板50を備えていなくてもよい。
レンズ60は、奥行取得装置1の外部から入る光を、固体撮像素子20の画素アレイ2の表面に集光する光学レンズである。
バンドパスフィルタ70は、反射光である赤外光と、可視光とを透過させる光学フィルタである。なお、図1に示す例では、奥行取得装置1は、バンドパスフィルタ70を備えるが、このバンドパスフィルタ70を備えていなくてもよい。
上記構成の奥行取得装置1は、輸送機器に搭載されて利用される。例えば、奥行取得装置1は、路面を走行する車両に搭載されて利用される。なお、奥行取得装置1が搭載される輸送機器は、必ずしも車両に限定される必要はない。奥行取得装置1は、例えば、オートバイ、ボート、飛行機等といった、車両以外の輸送機器に搭載されて利用されても構わない。
[奥行取得装置の機能構成]
本実施の形態における奥行取得装置1は、図1に示すハードウェア構成によって、IR画像とBW画像とを、実質的に同一のシーンに対する撮像であって、かつ、実質的に同一の視点および時刻の撮像によって取得する。ここで、IR画像は、固体撮像素子20に含まれる複数の第1画素21のそれぞれで受光された赤外光の強度に基づいて形成されている。したがって、奥行取得装置1は、IR画像の撮像によって、複数の第1画素21のそれぞれにおける赤外光の強度を取得している。奥行取得装置1は、それらの第1画素21の赤外光の強度に基づいて、そのIR画像に映し出されている被写体までの距離を奥行きとして示す奥行画像を取得する。そして、奥行取得装置1は、BW画像内におけるエッジ領域を検出し、そのエッジ領域に対応する奥行画像内の領域の奥行きを補正する。
なお、本開示において、第1画像内の第1領域に対応する第2画像内の第2領域とは、第1画像内における第1領域と同一の位置にあって、その第1領域と同一の形状および大きさを有する、第2画像内における領域である。その第1画像および第2画像はそれぞれ任意の画像であり、第1領域および第2領域もそれぞれ任意な領域である。
また、本開示におけるエッジは、互いに輝度の異なる2つの領域の境界である。その2つの領域は、明るい領域と暗い領域である。なお、明るい領域における平均輝度は、暗い領域における平均輝度よりも高い。したがって、本開示における奥行取得装置1は、例えばBW画像などの可視光画像内における明るい領域と暗い領域との境界を含む領域である明暗境界領域を、上述のエッジ領域として検出する。
図4は、奥行取得装置1の機能構成の一例を示すブロック図である。
奥行取得装置1は、光源101と、IRカメラ102と、BWカメラ103と、プロセッサ110aと、メモリ200とを備える。なお、本実施の形態における奥行取得装置1は、光源101、IRカメラ102およびBWカメラ103を備えているが、これらの構成要素を備えず、プロセッサ110aおよびメモリ200のみを備えていてもよい。
光源101は、図1に示す光源10および拡散板50から構成されていてもよく、発光することによって赤外光を被写体に照射する。
IRカメラ102は、赤外光カメラともいい、図1に示す固体撮像素子20の複数の第1画素21、レンズ60およびバンドパスフィルタ70から構成されていてもよい。このようなIRカメラ102は、光源101が被写体に赤外光を照射するタイミングに応じて、その被写体を含むシーンの赤外光に基づく撮像を行うことによって、IR画像を取得する。また、IRカメラ102は、IR画像の撮像によって、赤外光の強度を計測している。つまり、IRカメラ102は、固体撮像素子20を有し、光源101から照射されて被写体によって反射された赤外光を、その固体撮像素子20に含まれる複数の第1画素21のそれぞれが受光する撮像を行うことによって、その赤外光の強度を計測する。
BWカメラ103は、可視光カメラともいい、図1に示す固体撮像素子20の複数の第2画素22、レンズ60およびバンドパスフィルタ70から構成されていてもよい。このようなBWカメラ103は、IR画像と実質的に同一のシーンの可視光に基づく撮像であって、そのIR画像と実質的に同一の視点および同一の時刻での撮像を行うことによって、可視光画像(具体的にはBW画像)を取得する。つまり、BWカメラ103は、固体撮像素子20に含まれる複数の第1画素21のそれぞれで受光された赤外光の強度に基づいて形成されるIR画像と実質的に同一のシーンの可視光に基づく撮像であって、そのIR画像と実質的に同一の視点および時刻の撮像を行うことによって、BW画像を生成する。
メモリ200は、IRカメラ102による撮像によって得られたIR画像と、BWカメラ103による撮像によって得られたBW画像とを格納するための記録媒体である。なお、IR画像は、上述のように、固体撮像素子20に含まれる複数の第1画素21のそれぞれで受光された赤外光の強度に基づいて形成されている。したがって、そのIR画像は、画素ごとに赤外光の強度を示している。つまり、メモリ200は、赤外光の強度を格納していると言える。なお、このようなメモリ200は、具体的には、ROM(Read Only Memory)、RAM(Random access memory)またはSSD(solid state drive)などであってもよく、不揮発性または揮発性であってもよい。また、メモリ200は、ハードディスクであってもよい。
プロセッサ110aは、メモリ200からIR画像およびBW画像を取得し、IR画像から奥行画像を算出し、IR画像およびBW画像に基づいて、BW画像内における明暗境界領域を検出する。そして、プロセッサ110aは、その明暗境界領域に対応する奥行画像内の領域の奥行きを補正する。
なお、BW画像の明暗境界領域は、明るい領域と暗い領域との境界であって、BW画像の動きの方向と垂直な方向に沿う境界を含む領域である。その明暗境界領域に対応する奥行画像内の領域では、不適切な奥行きが示されている可能性がある。
その理由は、以下のとおりである。BW画像の明暗境界領域における輝度は、そのBW画像の動きによって、短時間の間に大きく変化する。つまり、短時間の間に、その明暗境界領域に映し出される物体が、その物体と光の反射率が大きく異なる他の物体に入れ替わる。また、BW画像の動きは、例えばBWカメラ103の動きによって生じ、IRカメラ102がBWカメラ103と共に動いている場合、例えば、奥行取得装置1が車両に搭載されている場合には、BW画像の動きとIR画像の動きとは等しい。したがって、IR画像においても、BW画像と同様の事象が生じている。つまり、明暗境界領域に対応するIR画像内の領域に映し出される物体は、短時間の間に、その物体と赤外光の反射率が大きく異なる他の物体に入れ替わる。その結果、その明暗境界領域に対応する赤外光の強度を用いたToFによって測定される奥行きは、不正確になってしまう。つまり、このような測定によって得られる奥行きは、奥行画像においてノイズとして現れる。
このように、奥行画像内においてノイズが現れている領域は、BW画像内の上記境界を含む領域に対応している。したがって、このような境界を含む領域、すなわち明暗境界領域を検出することによって、奥行画像において補正すべき領域を適切に見つけ出すことができる。本実施の形態における奥行取得装置1は、奥行画像内のその補正すべき領域、つまり明暗境界領域に対応する領域である補正対象領域の奥行きを補正する。
このようなプロセッサ110aは、発光制御部113と、IR取得部114と、BW取得部115と、奥行算出部111aと、境界領域検出部112と、奥行補正部111bとを備える。
発光制御部113は、光源101を制御する。つまり、発光制御部113は、上述の発光信号を光源101に出力することによって、その光源101を発光させる。これにより、光源101から赤外光が被写体に照射され、その被写体によって反射された光である反射光がIRカメラ102に入射する。
IR取得部114は、IRカメラ102からメモリ200を介してIR画像を取得する。ここで、IR画像の各画素は、その画素の位置において受光された赤外光の強度を画素値(具体的には輝度)として示す。したがって、IR取得部114は、IR画像を取得することによって、赤外光の強度を取得する。つまり、IR取得部114は、光源101から照射されて被写体によって反射された赤外光を、固体撮像素子20に含まれる複数の第1画素21のそれぞれが受光する撮像によって計測され、メモリ200に保存されている赤外光の強度を取得する。
BW取得部115は、BWカメラ103からメモリ200を介してBW画像を取得する。つまり、BW取得部115は、固体撮像素子20に含まれる複数の第1画素21のそれぞれで受光された赤外光の強度に基づいて形成されるIR画像と実質的に同一のシーンの可視光に基づく撮像であって、そのIR画像と実質的に同一の視点および時刻の撮像によって生成され、メモリ200に保持されているBW画像を取得する。
奥行算出部111aは、固体撮像素子20に含まれる複数の第1画素21のそれぞれについて、その第1画素21に受光された赤外光の強度に基づいて、被写体までの距離を奥行きとして算出することによって、奥行画像を生成する。
境界領域検出部112は、BW画像から、明るい領域と暗い領域との境界であって、BW画像の動きの方向と垂直な方向に沿う境界を含む領域である明暗境界領域を検出する。
奥行補正部111bは、その明暗境界領域に対応する奥行画像内の領域である補正対象領域の奥行きを補正する。
例えば、赤外光に対する反射率が互いに異なる2つの物体の境界が撮像される際に、その撮像に用いられるIRカメラ102が動くと、ToFによる測定中に、その境界周辺の測定対象位置における反射率が大きく変化してしまう場合がある。このような場合、その測定対象位置ではノイズが得られ、不正確な奥行きを示す奥行画像が取得される。
しかし、本実施の形態における奥行取得装置1では、上述のように、BW画像から、明るい領域と暗い領域との境界であって、その可視光画像の動きの方向と垂直な方向に沿う境界を含む領域が、明暗境界領域として検出される。この明暗境界領域は、ToFによる測定中に、赤外光の反射率が大きく変化する可能性が高い上述の境界周辺が映し出されている領域である。そして、このような明暗境界領域に対応する奥行画像内の領域が、補正対象領域とされて、この補正対象領域の奥行きが補正されることによって、ノイズを低減し、その境界周辺の奥行きを正確に取得することができる。
したがって、このような本実施の形態における奥行取得装置1は、赤外光に対する反射率が互いに異なる2つの物体の境界が、画像の動きの方向と垂直な方向に沿っていても、それらの物体の境界周辺までの距離である奥行きを正確に取得することができる。
[各画像の一例]
図5は、BW画像およびIR画像の一例を示す。
例えば、車両が路面上を走行しているときに、その車両に搭載されている奥行取得装置1のIRカメラ102およびBWカメラ103のそれぞれは、実質的に同一の時刻に撮像を行う。このとき、IRカメラ102およびBWカメラ103のそれぞれは、互いに異なる3つのタイミングで露光を行う。これにより、IRカメラ102による撮像によって3枚のIR画像が生成され、BWカメラ103による撮像によって3枚のBW画像が生成される。
IRカメラ102による撮像によって生成され、IR取得部114によって取得されるIR画像には、例えば図5の(a)~(c)に示すように、路面とその周囲の樹木などが映し出されている。
また、BWカメラ103による撮像によって生成され、BW取得部115によって取得されるBW画像にも、図5の(d)~(f)に示すように、図5の(a)~(c)に示すIR画像と実質的に同一のシーンが映し出されている。また、この図5の(d)~(f)に示すBW画像は、図5の(a)~(c)に示すIR画像の撮像と実質的に同一の視点および同一の時刻の撮像によって得られた画像である。したがって、図5の(a)~(c)に示すIR画像と、図5の(d)~(f)に示すBW画像とでは、互いに対応する領域において同一の物体が映し出されている。なお、互いに対応する領域とは、それぞれの画像内における位置、大きさ、および形状が同一の領域である。
ここで、BW画像において、樹木の葉の像の輝度は低く、背景の空の像の輝度は高い。したがって、葉の像と空の像との境界のうち、画像の動きの方向と垂直な方向に沿う境界を含む領域は、明暗境界領域に相当する。このような、明暗境界領域に対応するIR画像内の領域では、不適切な赤外光の強度が得られるため、画像がぼける傾向にある。また、そのような不適切な赤外光の強度によって算出される奥行きの信頼性も低い。本実施の形態における奥行補正部111bは、その奥行きを補正することによって、奥行きの信頼性を高める。
[処理フロー]
図6は、本実施の形態における奥行取得装置1の全体的な処理動作を示すフローチャートである。
(ステップS110)
まず、BWカメラ103は、可視光に基づく撮像を行うことによってBW画像を生成する。そして、BW取得部115は、そのBW画像を、メモリ200を介して取得する。
(ステップS120)
次に、IRカメラ102は、赤外光に基づく撮像を行うことによってその赤外光の強度を計測する。そして、IR取得部114は、その赤外光の強度を、メモリ200を介して取得する。ここで、取得される赤外光の強度は、固体撮像素子20の複数の第1画素21のそれぞれで受光された赤外光の強度である。したがって、IR取得部114は、それらの赤外光の強度を取得することによって、それらの赤外光の強度に基づいて形成されるIR画像を取得する。
具体的には、メモリ200から取得される赤外光の強度は、光源101から照射されて被写体に反射された赤外光が固体撮像素子20によって受光されるときに、互いに異なる少なくとも3回のタイミングでの固体撮像素子20の露光によって計測された少なくとも3つの強度からなる。例えば、赤外光の強度は、図3に示すように、第1露光期間、第2露光期間、および第3露光期間によって計測された3つの強度からなる。例えば、1フレームのIR画像に含まれる各画素値は、その少なくとも3回のタイミングでの露光によって計測された赤外光の強度の累積値として示される。
(ステップS130)
次に、境界領域検出部112は、ステップS110で取得されたBW画像から、明暗境界領域を検出する。そして、境界領域検出部112は、検出された明暗境界領域内の各画素に対して1を示し、それ以外の領域内の各画素に対して0を示す、2値のマスク画像を出力する。
(ステップS140)
次に、奥行算出部111aは、ステップS120で取得された赤外光の強度に基づいて、奥行きを算出する。つまり、奥行算出部111aは、固体撮像素子20に含まれる複数の第1画素21のそれぞれについて、その第1画素21に受光された赤外光の強度に基づいて、被写体までの距離を奥行きとして算出することによって、奥行画像を生成する。具体的には、奥行算出部111aは、固体撮像素子20に含まれる複数の第1画素21のそれぞれについて、その第1画素21で計測された上述の少なくとも3つの強度に基づいて奥行きを算出することによって、奥行画像を生成する。例えば、奥行算出部111aは、ToF測距方式にしたがって、上述の(式1)を用いて奥行きを算出する。
(ステップS150)
次に、奥行補正部111bは、明暗境界領域に対応する奥行画像内の領域、すなわち補正対象領域の奥行きを補正する。
具体的には、奥行補正部111bは、BW画像、奥行画像、およびマスク画像を取得し、奥行画像のうち、マスク画像によって1と示される領域における奥行き(すなわち、奥行画像における画素値)を補正する。この奥行きの補正は、例えば、BW画像をガイド画像として利用するGuided Filterの拡張フィルタによって行われる。この拡張フィルタは、非特許文献(Jiangbo Lu, Keyang Shi, Dongbo Min, Liang Lin, and Minh N. Do, “Cross-Based Local Multipoint Filtering”, 2012 IEEE Conference on Computer Vision and Pattern Recognition)に開示されている。または、奥行きの補正は、非特許文献(Dongbo Min, Sunghwan Choi, Jiangbo Lu, Bumsub Ham, Kwanghoon Sohn, and Minh N. Do,“Fast Global Image Smoothing Based on Weighted Least Squares”, IEEE Transactions on Image Processing, Vol. 23, No. 12, December 2014)に開示されている方法によっても実現できる。
このように、本実施の形態における奥行補正部111bは、BW画像をガイド画像または参照画像として用いた奥行画像に対するフィルタリングによって、補正対象領域の奥行きを補正する。これにより、補正対象領域の奥行きを正しく補正することができる。
なお、奥行きの補正は、上記のものに限らず、例えば、明暗境界領域の下部と接する領域における奥行きを重視して補間するようにしてもよい。つまり、奥行補正部111bは、奥行画像内において補正対象領域の周囲に位置する領域である周囲領域の奥行きを用いてその補正対象領域の奥行きを補正してもよい。また、周囲領域は、補正対象領域の下側に接する領域であってもよい。この場合、奥行補正部111bは、補正対象領域の奥行きを、その周囲領域の奥行きに置き換えてもよい。周囲領域の奥行きは、補正対象領域の正しい奥行きと近似している可能性が高い。したがって、このような周囲領域の奥行きを用いることによって、補正対象領域の奥行きを正しく補正することができる。
また、BW画像、奥行画像、およびマスク画像に加えてIR画像も入力として用いてもよい。例えば、奥行補正部111bは、IR画像、BW画像、奥行画像、および明暗境界領域を、学習モデルに入力することによって、奥行画像内における補正対象領域の奥行きを補正してもよい。なお、明暗境界領域の代わりに上述のマスク画像が用いられてもよい。例えば、学習モデルは、深層学習によって構築されたニューラルネットワークである。この学習モデルの学習では、IR画像、BW画像、奥行画像、および、明暗境界領域が入力として学習モデルに与えられる。そして、その入力に対する学習モデルからの出力が、補正後の正解の奥行画像と一致するように、その学習モデルに対する学習が行われる。このような学習済みの学習モデルを用いることによって、奥行補正部111bは、補正後の奥行画像を簡単に取得することができる。
図7は、境界領域検出部112の処理動作の一例を示すフローチャートである。なお、図7は、図6のステップS130の処理を詳細に示す。
(ステップS131)
まず、境界領域検出部112は、BW画像から動きを検出する。この動きは、例えば、そのBW画像と過去のBW画像との間のブロックマッチングを行う動き探索によって検出される。
(ステップS132)
次に、境界領域検出部112は、ステップS131で検出された動きの方向と垂直な方向に沿うエッジを上述の境界としてBW画像から検出する。このとき、境界領域検出部112は、第1閾値以上の強度を有するエッジを検出してもよい。
(ステップS133)
境界領域検出部112は、ステップS132で検出されたエッジを含む領域を明暗境界領域として検出する。このとき、境界領域検出部112は、例えば、このエッジから一定の距離にある領域を明暗境界領域として抽出する。具体的には、明暗境界領域は、第1閾値以上の強度を有するエッジから、BW画像の動きに応じた距離までの領域である。
ここで、上述の距離は、そのBW画像の動きを示す動きベクトルの長さと等しいか、その動きベクトルの長さを定数倍した長さ(例えば、動きベクトルの長さの1.1倍等)である。もしくは、その距離は、動きベクトルの長さに定数を加えたもの(例えば、動きベクトルの長さ+3画素、もしくは、+5画素等)であってもよい。また、その距離には、動きベクトルの向きが考慮されてもよい。例えば、エッジから動きベクトルの向きの距離は、その動きベクトルの長さ以上であって、動きベクトルと逆の向きの距離は、例えば、動きベクトルの長さの0.1倍であってもよく、3画素または5画素等の定数であってもよい。
このように、本実施の形態における境界領域検出部112は、BW画像における動きの方向と垂直な方向に沿うエッジを境界としてBW画像から検出し、そのエッジを含む領域を明暗境界領域として検出する。具体的には、境界領域検出部112は、第1閾値以上の強度を有するエッジを検出する。そして、そのエッジを含む領域は、その第1閾値以上の強度を有するエッジから、BW画像の動きに応じた距離までの領域である。これにより、明暗境界領域を適切に検出することができる。その結果、奥行画像において、ノイズが生じ易い領域を適切に検出することができる。
図8は、図7におけるステップS132のエッジ検出を説明するための図である。
例えば、BW画像に映し出されている物体は、図8に示す時刻t0、t1およびt2のように、時間の経過に伴って移動する。このような物体の動きは、例えば奥行取得装置1を搭載する車両が移動することによって生じる。BW画像内の画素(x,y)におけるこのような動きは、動きベクトル(u(x,y),v(x,y))として示される。
境界領域検出部112は、画素値の空間方向の分布を微分することによって、その画素値の変化量としてエッジの強度を計算する。任意の方向nについての微分は(式2)で表される。
Figure 0006990859000001
ここで、方向nを、画像の動きベクトル(u(x,y),v(x,y))の方向、すなわち、動きベクトルと同じ向きで平行な方向の単位ベクトルとして考える。すなわち、nのx成分cosθとy成分sinθは、(式3)で表される。なお、画像の動きベクトルは、公知の方法によって求められる。
Figure 0006990859000002
また、(式2)中の水平方向と垂直方向の輝度勾配は、それぞれ(式4)および(式5)によって計算される。
Figure 0006990859000003
Figure 0006990859000004
なお、水平方向と垂直方向の輝度勾配の計算は、(式4)および(式5)に示す両側差分に基づくものに限らず、(式6)および(式7)に示す前方差分に基づく計算、または、(式8)および(式9)に示す後方差分に基づく方法を用いてもよい。これらの何れの計算でも、同様の結果が得られる。
Figure 0006990859000005
Figure 0006990859000006
Figure 0006990859000007
Figure 0006990859000008
なお、(式4)から(式9)では、同一行内もしくは同一列内の画素間だけで計算しているが、これに限らず(式10)から(式15)に示す様に、隣接する行または列の画素値を用いた計算を行うことにより、ノイズの影響を低減した安定した輝度勾配の計算を行える。
Figure 0006990859000009
Figure 0006990859000010
Figure 0006990859000011
Figure 0006990859000012
Figure 0006990859000013
Figure 0006990859000014
さらに、複数行または複数列の画素値を用いて輝度勾配を計算する際、(式16)から(式21)の様に、着目行または着目列の重みを、隣接行または隣接列と比べて重くする様にしてもよい。
Figure 0006990859000015
Figure 0006990859000016
Figure 0006990859000017
Figure 0006990859000018
Figure 0006990859000019
Figure 0006990859000020
境界領域検出部112は、(式4)~(式21)に示す水平輝度勾配および垂直輝度勾配と、(式3)に示す動きの方向ベクトルnの水平成分cosθおよび垂直成分sinθとを用いて、(式2)によって、動きの方向nに沿った方向微分∂I(x,y)/∂nを、エッジの強度として計算する。
なお、境界領域検出部112は、(式2)の方法だけでなく、他の方法によって方向微分を計算してもよい。例えば、境界領域検出部112は、着目点と微分方向で決まる直線上にある少なくとも1つの画素の画素値を補間によって計算する。そして、境界領域検出部112は、その計算された少なくとも1つの画素の画素値と着目点の画素値とうちの何れか2つの画素値の差分値から、方向微分を計算する。このような方法であっても、上記(式2)の方法と同様の結果を得ることができる。
境界領域検出部112は、方向微分の絶対値が第1閾値以上の画素をエッジとして検出する。
図9は、境界領域検出部112の処理動作の他の例を示すフローチャートである。なお、図9は、図6のステップS130の処理を詳細に示す。
(ステップS135)
境界領域検出部112は、BW画像と直前のBW画像との差分を算出する。
(ステップS136)
そして、境界領域検出部112は、BW画像のうち、その差分が第2閾値以上の領域を明暗境界領域として検出する。
このように、本実施の形態における境界領域検出部112は、BW画像と、過去のBW画像との画素値の差分が第2閾値以上の領域を、明暗境界領域として検出する。これにより、明暗境界領域を簡単に検出することができる。
(変形例)
上記実施の形態では、奥行きを補正するために、明暗境界領域を検出したが、その明暗境界領域を検出することなく、学習モデルを用いて奥行きを補正してもよい。
図10は、本変形例における奥行取得装置1の機能構成の一例を示すブロック図である。なお、図10に示す構成要素のうち、図4に示す構成要素と同一の構成要素については、図4に示す構成要素と同一の符号を付し、詳細な説明を省略する。
本変形例における奥行取得装置1は、図4に示すプロセッサ110aの代わりにプロセッサ110bを備え、さらに、学習モデル104を備える。
学習モデル104は、例えばニューラルネットワークであって、深層学習によって構成されている。例えば、この学習モデル104に入力される入力データには、BW画像、IR画像、および奥行画像が用いられる。この学習モデル104では、それらの入力データの組み合わせに対して、正解の補正後の奥行画像が出力されるように、既に学習が行われている。
プロセッサ110bは、図4に示す境界領域検出部112を備えておらず、図4に示す奥行補正部111bの代わりに、奥行補正部111cを備える。
奥行補正部111cは、上述の学習モデル104に対して上述の入力データを入力する。その結果、奥行補正部111cは、その入力データに対する出力データとして、補正後の奥行画像を学習モデル104から取得する。
つまり、図10に示す奥行取得装置1は、メモリ200と、プロセッサ110bとを備える。プロセッサ110bは、光源101から照射されて被写体によって反射された赤外光を、固体撮像素子20に含まれる複数の第1画素21のそれぞれが受光する撮像によって計測され、メモリ200に保存されている赤外光の強度を取得する。また、プロセッサ110bは、固体撮像素子20に含まれる複数の第1画素21のそれぞれについて、その第1画素21に受光された赤外光の強度に基づいて、被写体までの距離を奥行きとして算出することによって、奥行画像を生成する。さらに、プロセッサ110bは、固体撮像素子20に含まれる複数の第1画素21のそれぞれで受光された赤外光の強度に基づいて形成されるIR画像と実質的に同一のシーンの可視光に基づく撮像であって、IR画像と実質的に同一の視点および時刻の撮像によって生成され、メモリ200に保持されているBW画像を取得する。そして、プロセッサ110bは、奥行画像、IR画像、およびBW画像を、学習モデル104に入力することによって、奥行画像の奥行きを補正する。
これにより、奥行画像、IR画像、およびBW画像の入力に対して、正解の補正後の奥行画像が出力されるように、学習モデル104に予め学習させておけば、明暗境界領域を検出することなく、奥行画像の奥行きを適切に補正することができる。
図11Aは、本変形例に係る奥行取得装置1のシミュレーション結果の一例を示す。
奥行取得装置1は、BWカメラ103による撮像によって、図11Aの(a)に示すBW画像を取得し、さらに、IRカメラ102による撮像によって、図11Aの(b)に示すIR画像を取得する。このBW画像およびIR画像は、同一のシーンを同一の視点および同一の時刻で撮像することによって得られる画像である。
奥行算出部111aは、そのIR画像を形成する赤外光の強度に基づいて、図11Aの(c)に示す奥行画像を生成する。図11Aの(a)に示すBW画像における明暗境界領域では、物体の輪郭、例えば、路面に描かれている横断歩道の白いラインの輪郭が明瞭に映し出されている。しかし、図11Aの(c)に示す奥行画像では、その明暗境界領域に対応する領域の奥行きが不明瞭に表現されている。
奥行補正部111bは、図11Aの(a)~(c)に示すBW画像、IR画像および奥行画像を、学習モデル104に入力することによって、図11Aの(d)に示す補正後の奥行画像をその学習モデル104から取得する。
その結果、本変形例に係る奥行取得装置1では、補正後の奥行画像を、図11Aの(e)に示す正解の奥行画像に近づけることができる。
図11Bは、本変形例に係る奥行取得装置1のシミュレーション結果の他の例を示す。
奥行取得装置1は、BWカメラ103による撮像によって、図11Bの(a)に示すBW画像を取得し、さらに、IRカメラ102による撮像によって、図11Bの(b)に示すIR画像を取得する。この図11Bに示す例でも、図11Aに示す例と同様、BW画像およびIR画像は、同一のシーンを同一の視点および同一の時刻で撮像することによって得られる画像である。
奥行算出部111aは、そのIR画像を形成する赤外光の強度に基づいて、図11Bの(c)に示す奥行画像を生成する。図11Bの(a)に示すBW画像における明暗境界領域では、物体の輪郭、例えば、路面に描かれている横断歩道の白いラインの輪郭が明瞭に映し出されている。しかし、図11Bの(c)に示す奥行画像では、その明暗境界領域に対応する領域の奥行きが不明瞭に表現されている。
奥行補正部111bは、図11Bの(a)~(c)に示すBW画像、IR画像および奥行画像を、学習モデル104に入力することによって、図11Bの(d)に示す補正後の奥行画像をその学習モデル104から取得する。
その結果、本変形例に係る奥行取得装置1では、補正後の奥行画像を、図11Bの(e)に示す正解の奥行画像に近づけることができる。
以上、本実施の形態およびその変形例における奥行取得装置1では、赤外光に対する反射率が互いに異なる2つの物体の境界が撮像される場合でも、その境界周辺の奥行きを正確に取得することができる。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記実施の形態および変形例の奥行取得装置などを実現するソフトウェアは、図6、図7および図9の何れかのフローチャートに含まれる各ステップをコンピュータに実行させる。
以上、一つまたは複数の態様に係る奥行取得装置について、実施の形態およびその変形例に基づいて説明したが、本開示は、この実施の形態およびその変形例に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態および変形例に施したものや、実施の形態および変形例における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれてもよい。
例えば、奥行算出部111aは、互いに異なる3つの露光タイミングで計測された3つの赤外光の強度に基づいて、奥行きを算出する。しかし、その露光タイミングおよび赤外光の強度の数は、3つに限定されることなく、4つ以上であってもよい。
また、上記実施の形態の変形例では、奥行取得装置1は、学習モデル104を備えているが、その学習モデル104を備えていなくてもよい。この場合、奥行取得装置1は、例えば通信ネットワークを介して学習モデル104に上述の入力データを入力し、その学習モデル104からの出力データである補正後の奥行画像を、その通信ネットワークを介して取得する。
また、本開示において、ユニット、デバイスの全部又は一部、又は図1、図4、および図10に示されるブロック図の機能ブロックの全部又は一部は、半導体装置、半導体集積回路(IC)、又はLSI(large scale integration)を含む一つ又は一つ以上の電子回路によって実行されてもよい。LSI又はICは、一つのチップに集積されてもよいし、複数のチップを組み合わせて構成されてもよい。例えば、記憶素子以外の機能ブロックは、一つのチップに集積されてもよい。ここでは、LSIやICと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(very large scale integration)、若しくはULSI(ultra large scale integration) と呼ばれるかもしれない。LSIの製造後にプログラムされる、Field Programmable Gate Array (FPGA)、又はLSI内部の接合関係の再構成又はLSI内部の回路区画のセットアップができるreconfigurable logic deviceも同じ目的で使うことができる。
さらに、ユニット、装置、又は装置の一部の、全部又は一部の機能又は操作は、ソフトウェア処理によって実行することが可能である。この場合、ソフトウェアは一つ又は一つ以上のROM、光学ディスク、ハードディスクドライブ、などの非一時的記録媒体に記録され、ソフトウェアが、処理装置(processor)によって実行された場合に、ソフトウェアは、ソフトウェア内の特定の機能を、処理装置(processor)と周辺のデバイスに実行させる。システム又は装置は、ソフトウェアが記録されている一つ又は一つ以上の非一時的記録媒体、処理装置(processor)、及び必要とされるハードウェアデバイス、例えばインターフェース、を備えていても良い。
本開示は、被写体までの距離である奥行きを取得する奥行取得装置に適用可能であり、例えば車載機器などとして利用可能である。
1 奥行取得装置
10、101 光源
20 固体撮像素子
21 第1画素(IR)
22 第2画素(BW)
30 処理回路
50 拡散板
60 レンズ
70 バンドパスフィルタ
102 IRカメラ
103 BWカメラ
104 学習モデル
110a、110b プロセッサ
111a 奥行算出部
111b、111c 奥行補正部
112 境界領域検出部
113 発光制御部
114 IR取得部
115 BW取得部
200 メモリ

Claims (9)

  1. メモリと、
    プロセッサとを備え、
    前記プロセッサは、
    光源から照射されて被写体によって反射された赤外光を、撮像素子に含まれる複数の画素のそれぞれが受光する赤外光画像の撮像によって計測され、前記メモリに保存されている前記赤外光の強度を取得し、
    前記赤外光画像の撮像により取得された前記赤外光の強度に基づいて、前記被写体までの距離を奥行きとして算出することによって、奥行画像を生成し、
    前記赤外光画像と実質的に同一のシーンの可視光に基づく撮像であって、前記撮像素子が行う前記赤外光画像と実質的に同一の視点および同一の時刻の撮像によって生成され、前記メモリに保持されている可視光画像を取得し、
    前記可視光画像から、前記可視光画像の動きの方向と垂直な方向に沿う輝度の異なる複数の領域の境界を含む領域であるエッジ領域を検出し、
    前記エッジ領域に対応する前記奥行画像内の領域である補正対象領域の奥行きを、前記可視光画像を参照画像として用いた前記奥行画像に対するフィルタリングによって、補正する、
    奥行取得装置。
  2. 輸送機器に搭載されて、
    前記可視光画像および前記赤外光画像は前記輸送機器が動いている際に撮像される、
    請求項1に記載の奥行取得装置。
  3. 前記エッジ領域の検出では、
    第1閾値以上の強度を有する前記境界を検出し、
    前記エッジ領域は、
    前記第1閾値以上の強度を有する前記境界から、前記可視光画像の動きに応じた距離までの領域である
    請求項1に記載の奥行取得装置。
  4. 前記エッジ領域の検出では、
    前記可視光画像と、過去の可視光画像との画素値の差分が第2閾値以上の領域を、前記エッジ領域として検出する
    請求項1に記載の奥行取得装置。
  5. 前記補正対象領域の補正では、さらに、
    前記奥行画像内において前記補正対象領域の周囲に位置する領域である周囲領域の奥行きを用いて前記補正対象領域の奥行きを補正する
    請求項1~の何れか1項に記載の奥行取得装置。
  6. 撮像素子を有し、光源から照射されて被写体によって反射された赤外光を、前記撮像素子に含まれる複数の画素のそれぞれが受光する赤外光画像の撮像を行うことによって、前記赤外光の強度を計測する赤外光カメラと、
    前記赤外光画像の撮像により取得された前記赤外光の強度に基づいて、前記被写体までの距離を奥行きとして算出することによって、奥行画像を生成する奥行算出部と、
    前記赤外光画像と実質的に同一のシーンの可視光に基づく撮像であって、前記撮像素子が行う前記赤外光画像と実質的に同一の視点および同一の時刻の撮像を行うことによって、可視光画像を生成する可視光カメラと、
    前記可視光画像から、前記可視光画像の動きの方向と垂直な方向に沿う輝度の異なる複数の領域の境界を含む領域であるエッジ領域を検出するエッジ領域検出部と、
    前記エッジ領域に対応する前記奥行画像内の領域である補正対象領域の奥行きを、前記可視光画像を参照画像として用いた前記奥行画像に対するフィルタリングによって、補正する奥行補正部と、
    を備える奥行取得装置。
  7. 光源から照射されて被写体によって反射された赤外光を、撮像素子に含まれる複数の画素のそれぞれが受光する赤外光画像の撮像によって計測され、メモリに保存されている前記赤外光の強度を取得し、
    前記赤外光画像の撮像により取得された前記赤外光の強度に基づいて、前記被写体までの距離を奥行きとして算出することによって、奥行画像を生成し、
    前記赤外光画像と実質的に同一のシーンの可視光に基づく撮像であって、前記撮像素子が行う前記赤外光画像と実質的に同一の視点および同一の時刻の撮像によって生成され、前記メモリに保持されている可視光画像を取得し、
    前記可視光画像から、前記可視光画像の動きの方向と垂直な方向に沿う輝度の異なる複数の領域の境界を含む領域であるエッジ領域を検出し、
    前記エッジ領域に対応する前記奥行画像内の領域である補正対象領域の奥行きを、前記可視光画像を参照画像として用いた前記奥行画像に対するフィルタリングによって、補正する、
    奥行取得方法。
  8. 被写体までの距離を奥行きとして取得するためのプログラムであって、
    光源から照射されて前記被写体によって反射された赤外光を、撮像素子に含まれる複数の画素のそれぞれが受光する赤外光画像の撮像によって計測され、メモリに保存されている前記赤外光の強度を取得し、
    前記赤外光画像の撮像により取得された前記赤外光の強度に基づいて、前記被写体までの距離を奥行きとして算出することによって、奥行画像を生成し、
    前記赤外光画像と実質的に同一のシーンの可視光に基づく撮像であって、前記撮像素子が行う前記赤外光画像と実質的に同一の視点および同一の時刻の撮像によって生成され、前記メモリに保持されている可視光画像を取得し、
    前記可視光画像から、前記可視光画像の動きの方向と垂直な方向に沿う輝度の異なる複数の領域の境界を含む領域であるエッジ領域を検出し、
    前記エッジ領域に対応する前記奥行画像内の領域である補正対象領域の奥行きを、前記可視光画像を参照画像として用いた前記奥行画像に対するフィルタリングによって、補正する、
    ことをコンピュータに実行させるプログラム。
  9. メモリと、
    プロセッサを備え、
    前記メモリは、
    赤外光画像および可視光画像を記録しており、
    前記赤外光画像は、撮像素子に含まれる複数の画素のそれぞれが受光する光源から照射されて被写体によって反射された赤外光の強度に基づいて形成され、
    前記可視光画像は、前記撮像素子が行う前記赤外光画像と実質的に同一のシーンの可視光および同一の視点および同一の時刻の撮像により生成され、
    前記プロセッサは、
    前記赤外光の強度に基づき、被写体までの距離を奥行として算出することによって、奥行画像を生成し、
    前記可視光画像から、前記可視光画像の動きの方向と垂直な方向に沿う輝度の異なる複数の領域の境界を含む領域であるエッジ領域を検出し、
    前記エッジ領域に対応する前記奥行画像内の領域である補正対象領域を検出し、
    前記補正対象領域の奥行を、前記可視光画像を参照画像として用いた前記奥行画像に対するフィルタリングによって、補正する、
    奥行取得装置。
JP2020548409A 2018-09-28 2019-09-11 奥行取得装置、奥行取得方法およびプログラム Active JP6990859B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018184472 2018-09-28
JP2018184472 2018-09-28
PCT/JP2019/035781 WO2020066637A1 (ja) 2018-09-28 2019-09-11 奥行取得装置、奥行取得方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2020066637A1 JPWO2020066637A1 (ja) 2021-08-30
JP6990859B2 true JP6990859B2 (ja) 2022-01-12

Family

ID=69952595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020548409A Active JP6990859B2 (ja) 2018-09-28 2019-09-11 奥行取得装置、奥行取得方法およびプログラム

Country Status (5)

Country Link
US (2) US11758247B2 (ja)
EP (1) EP3859394A4 (ja)
JP (1) JP6990859B2 (ja)
CN (1) CN112513677A (ja)
WO (1) WO2020066637A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4386674A2 (en) * 2018-09-27 2024-06-19 Panasonic Intellectual Property Management Co., Ltd. Depth acquisition device, depth acquisition method, and program
DE102019003049B4 (de) * 2019-04-27 2021-04-29 Tarsier Gmbh Vorrichtung und Verfahren zum Erfassen von Objekten
CN114521240A (zh) * 2019-09-30 2022-05-20 富士胶片株式会社 处理装置、电子设备、处理方法及程序
CN112526534B (zh) * 2020-11-03 2024-03-08 上海炬佑智能科技有限公司 ToF传感装置及其距离检测方法
CN117099019A (zh) * 2021-03-22 2023-11-21 索尼半导体解决方案公司 信息处理装置
WO2023195403A1 (ja) * 2022-04-06 2023-10-12 株式会社Jvcケンウッド 画像処理装置及び画像処理方法
WO2024062874A1 (ja) * 2022-09-20 2024-03-28 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、プログラム
WO2024116444A1 (ja) * 2022-11-28 2024-06-06 株式会社Jvcケンウッド 画像処理装置、画像処理プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097624A (ja) 2007-11-05 2008-04-24 National Institute Of Advanced Industrial & Technology 3次元データからの特徴抽出方法および装置
JP2011505610A (ja) 2007-11-07 2011-02-24 テレ アトラス ベスローテン フエンノートシャップ 画像センサデータに距離センサデータをマッピングする方法及び装置
WO2017145450A1 (ja) 2016-02-23 2017-08-31 ソニー株式会社 測距モジュール、測距システム、および、測距モジュールの制御方法
US20180041718A1 (en) 2016-08-08 2018-02-08 Microsoft Technology Licensing, Llc Hybrid imaging sensor for structured light object capture
WO2018131514A1 (ja) 2017-01-13 2018-07-19 ソニー株式会社 信号処理装置、信号処理方法、およびプログラム
JP2018149628A (ja) 2017-03-13 2018-09-27 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100474760B1 (ko) * 2001-10-08 2005-03-08 엘지전자 주식회사 영상내의 오브젝트 영역 추출방법
US8596541B2 (en) * 2008-02-22 2013-12-03 Qualcomm Incorporated Image capture device with integrated barcode scanning
JP2010182287A (ja) * 2008-07-17 2010-08-19 Steven C Kays 適応型インテリジェント・デザイン
JP5448617B2 (ja) * 2008-08-19 2014-03-19 パナソニック株式会社 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
CN102857696A (zh) * 2009-08-18 2013-01-02 夏普株式会社 拍摄条件决定装置、拍摄条件决定方法和不均校正系统
JP5743390B2 (ja) 2009-09-15 2015-07-01 本田技研工業株式会社 測距装置、及び測距方法
JP5469527B2 (ja) * 2010-05-10 2014-04-16 パナソニック株式会社 撮像装置
US9194953B2 (en) * 2010-10-21 2015-11-24 Sony Corporation 3D time-of-light camera and method
US9055248B2 (en) * 2011-05-02 2015-06-09 Sony Corporation Infrared imaging system and method of operating
US9204062B2 (en) * 2011-08-24 2015-12-01 Fluke Corporation Thermal imaging camera with range detection
JP2013207415A (ja) * 2012-03-27 2013-10-07 Osaka City Univ 撮像システム及び撮像方法
TWM458748U (zh) * 2012-12-26 2013-08-01 Chunghwa Telecom Co Ltd 影像式深度資訊擷取裝置
FI125675B (en) * 2013-05-03 2016-01-15 Optofidelity Oy Procedure, device and computer program product for testing video playback quality
BR112018000564A2 (pt) * 2015-07-13 2018-09-11 Koninklijke Philips N.V. aparelho, método, e produto de programa de computador
US10841491B2 (en) * 2016-03-16 2020-11-17 Analog Devices, Inc. Reducing power consumption for time-of-flight depth imaging
CN107229056A (zh) * 2016-03-23 2017-10-03 松下知识产权经营株式会社 图像处理装置、图像处理方法以及记录介质
CN106651941A (zh) * 2016-09-19 2017-05-10 深圳奥比中光科技有限公司 一种深度信息的采集方法以及深度测量系统
US20180136332A1 (en) * 2016-11-15 2018-05-17 Wheego Electric Cars, Inc. Method and system to annotate objects and determine distances to objects in an image
US10116915B2 (en) * 2017-01-17 2018-10-30 Seiko Epson Corporation Cleaning of depth data by elimination of artifacts caused by shadows and parallax
US10901740B2 (en) * 2017-08-08 2021-01-26 Siemens Aktiengesellschaft Synthetic depth image generation from cad data using generative adversarial neural networks for enhancement
DE112019000277T5 (de) * 2018-01-19 2020-08-27 Sony Corporation Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und programm
US10755426B2 (en) * 2018-05-23 2020-08-25 Apple Inc. Efficient scene depth map enhancement for low power devices
KR102192899B1 (ko) * 2018-08-16 2020-12-18 주식회사 날비컴퍼니 이미지에 보케 효과를 적용하는 방법 및 기록매체
JP7240115B2 (ja) * 2018-08-31 2023-03-15 キヤノン株式会社 情報処理装置及びその方法及びコンピュータプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097624A (ja) 2007-11-05 2008-04-24 National Institute Of Advanced Industrial & Technology 3次元データからの特徴抽出方法および装置
JP2011505610A (ja) 2007-11-07 2011-02-24 テレ アトラス ベスローテン フエンノートシャップ 画像センサデータに距離センサデータをマッピングする方法及び装置
WO2017145450A1 (ja) 2016-02-23 2017-08-31 ソニー株式会社 測距モジュール、測距システム、および、測距モジュールの制御方法
US20180041718A1 (en) 2016-08-08 2018-02-08 Microsoft Technology Licensing, Llc Hybrid imaging sensor for structured light object capture
WO2018131514A1 (ja) 2017-01-13 2018-07-19 ソニー株式会社 信号処理装置、信号処理方法、およびプログラム
JP2018149628A (ja) 2017-03-13 2018-09-27 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LU, J. et al.,"Cross-Based Local Multipoint Filtering",2012 IEEE Conference on Computer Vision and Pattern Recognition [オンライン],2012年07月26日,Pages 430-437,http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6247705,DOI:10.1109/CVPR.2012.6247705

Also Published As

Publication number Publication date
EP3859394A4 (en) 2022-03-02
JPWO2020066637A1 (ja) 2021-08-30
WO2020066637A1 (ja) 2020-04-02
CN112513677A (zh) 2021-03-16
US20240007727A1 (en) 2024-01-04
US20210144314A1 (en) 2021-05-13
EP3859394A1 (en) 2021-08-04
US11758247B2 (en) 2023-09-12

Similar Documents

Publication Publication Date Title
JP6990859B2 (ja) 奥行取得装置、奥行取得方法およびプログラム
US11423562B2 (en) Device and method for obtaining distance information from views
JP7262021B2 (ja) 奥行取得装置、奥行取得方法およびプログラム
US9805294B2 (en) Method for denoising time-of-flight range images
JP7450163B2 (ja) 奥行取得装置、奥行取得方法およびプログラム
US11988780B2 (en) Imaging device and method
US20150193934A1 (en) Motion sensor apparatus having a plurality of light sources
US11373324B2 (en) Depth acquisition device and depth acquisition method for providing a corrected depth image
US10853935B2 (en) Image processing system, computer readable recording medium, and image processing method
JP2020052001A (ja) 奥行取得装置、奥行取得方法およびプログラム
JP2020051991A (ja) 奥行取得装置、奥行取得方法およびプログラム
JP7507408B2 (ja) 撮像装置、情報処理装置、撮像方法、およびプログラム
CN114761825A (zh) 飞行时间成像电路、飞行时间成像系统、飞行时间成像方法
CN112313541B (zh) 设备和方法
US12026904B2 (en) Depth acquisition device and depth acquisition method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210407

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210407

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211117

R151 Written notification of patent or utility model registration

Ref document number: 6990859

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151