JPWO2020105092A1 - 画像処理方法および画像処理装置 - Google Patents

画像処理方法および画像処理装置 Download PDF

Info

Publication number
JPWO2020105092A1
JPWO2020105092A1 JP2020557043A JP2020557043A JPWO2020105092A1 JP WO2020105092 A1 JPWO2020105092 A1 JP WO2020105092A1 JP 2020557043 A JP2020557043 A JP 2020557043A JP 2020557043 A JP2020557043 A JP 2020557043A JP WO2020105092 A1 JPWO2020105092 A1 JP WO2020105092A1
Authority
JP
Japan
Prior art keywords
image
depth
reliability
edge
visible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020557043A
Other languages
English (en)
Other versions
JP7036227B2 (ja
Inventor
竜一 赤司
竜一 赤司
慶一 蝶野
慶一 蝶野
塚田 正人
正人 塚田
知里 舟山
知里 舟山
貴裕 戸泉
貴裕 戸泉
有加 荻野
有加 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020105092A1 publication Critical patent/JPWO2020105092A1/ja
Application granted granted Critical
Publication of JP7036227B2 publication Critical patent/JP7036227B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

画像処理方法は、屋内環境でも屋外環境でも、物体の影や背景などからの反射光の影響を受けることなく前景を検出するために、可視光画像から第1の前景尤度を生成するステップと、可視光画像の撮影対象と同じ撮影対象のデプス画像から第2の前景尤度を生成するステップと、少なくとも可視光画像とデプス画像とを用いて、デプス画像の信頼度を生成するステップと、デプス画像の信頼度を重みとして、第1の前景尤度と第2の前景尤度とから撮影対象の前景尤度を決定するステップとを含む。

Description

本発明は、入力画像から前景を検出する画像処理方法および画像処理装置に関する。
画像から対象物体を抽出するために、背景差分と呼ばれる方法が知られている。背景差分は、事前に取得された背景画像と、観測画像とを比較することによって、背景画像には存在しない対象物体を抽出する方法である。なお、背景画像に存在しない物体が占める領域(対象物体が占める領域)を前景領域といい、それ以外の領域を背景領域という。
特許文献1には、背景差分を利用して、背景(背景物体)に対する前景(対象物体)の状態を検出する物体検出装置が記載されている。具体的には、図14に示すように、物体検出装置50において、近赤外光を発する投射部(光源)51が、対象物体が存在する領域(照射領域)に光を照射する。近赤外光を受光する測距部52は、背景に適する露光条件で投射部51から出射された光の照射領域からの反射光を受光する。測距部52は、受光に基づく距離計測によって背景デプスマップを生成する。また、測距部52は、前景に適する露光条件で投射部51から出射された光の照射領域からの反射光を受光する。測距部52は、受光に基づく距離計測によって前景デプスマップを生成する。
状態判定部53は、背景デプスマップと前景デプスマップとの差分を計算する。そして、状態判定部53は、差分に基づいて、前景の状態を検出する。
測距部52において可視光カメラが用いられると、物体の影や床面などの背景面からの反射光が、対象物体の誤検知の原因になる。しかし、測距部52において近赤外光カメラを用いることによって、物体の影などの影響が低減される。
しかし、近赤外光は、太陽光にも含まれる。すると、近赤外光カメラ(近赤外線カメラ)を利用する物体検出装置は、太陽光の影響を受けて、正確な距離計測ができない。すなわち、特許文献1に記載されたような物体検出装置は、屋外での使用には適さない。
非特許文献1には、太陽光スペクトルモデルを用いた画像処理装置が記載されている。具体的には、図15に示すように、画像処理装置60において、日時指定部61は、太陽光スペクトルの算出に用いられる日時を指定する。位置指定部62は、太陽光スペクトルの算出に用いられる位置を指定する。
太陽光スペクトル算出部63は、日時指定部61から入力した日時と、位置指定部62から入力した位置とを用いて、太陽光モデルを用いた方法で、太陽光スペクトルを算出する。太陽光スペクトル算出部63は、太陽光スペクトルを含む信号を予測背景算出部64に出力する。
予測背景算出部64には、屋外で撮影された入力画像(RGB画像)を含む信号(入力画像信号)Vinも入力される。予測背景算出部64は、入力画像の色情報と、太陽光スペクトルとを用いて、予測背景を算出する。予測背景は、最も実際の背景に近いと予測される画像を意味する。予測背景算出部64は、予測背景を予測背景出力部65に出力する。予測背景出力部65は、予測背景をVoutとしてそのまま出力してもよいが、前景尤度を出力してもよい。
前景尤度を出力する場合、予測背景出力部65は、例えば、予測背景と入力画像信号との差分に基づいて前景尤度を得る。
画像処理装置60は、屋外で撮影された入力画像から予測背景または前景尤度を得ることができる。しかし、画像処理装置60が、屋内で撮影された入力画像から前景尤度を得ることは困難である。屋内で使用される場合、太陽光スペクトルを算出する代わりに、屋内の照明光スペクトルを算出することが考えられるが、照明光スペクトルは未知であるからである。
特開2017−125764号公報
A. Sato, et al., "Foreground Detection Robust Against Cast Shadows in Outdoor Daytime Environment", ICIAP 2015, Part II, LNCS 9280, pp. 653-664, 2015
以上に説明したように、屋内環境において精度よく前景を検出する技術と屋外環境において精度よく前景を検出する技術とはそれぞれ存在する。しかし、特許文献1に記載された装置および非非特許文献1に記載された装置は、屋内環境と屋外環境とのいずれにおいても精度よく前景を検出するということはできない。
本発明は、屋内環境でも屋外環境でも、物体の影や背景などからの反射光の影響を受けることなく前景を検出できる画像処理方法および画像処理装置を提供することを目的とする。
本発明による画像処理方法は、可視光画像から第1の前景尤度を生成し、可視光画像の撮影対象と同じ撮影対象のデプス画像から第2の前景尤度を生成し、少なくとも可視光画像とデプス画像とを用いて、デプス画像の信頼度を生成し、デプス画像の信頼度を重みとして、第1の前景尤度と第2の前景尤度とから撮影対象の前景尤度を決定する。
本発明による画像処理装置は、可視光画像から第1の前景尤度を生成する第1の尤度生成手段と、可視光画像の撮影対象と同じ撮影対象のデプス画像から第2の前景尤度を生成する第2の尤度生成手段と、少なくとも可視光画像とデプス画像とを用いて、デプス画像の信頼度を生成するデプス信頼度生成手段と、デプス画像の信頼度を重みとして、第1の前景尤度と第2の前景尤度とから撮影対象の前景尤度を決定する前景検出手段とを含む。
本発明による画像処理プログラムは、コンピュータに、可視光画像から第1の前景尤度を生成する処理と、可視光画像の撮影対象と同じ撮影対象のデプス画像から第2の前景尤度を生成する処理と、少なくとも可視光画像とデプス画像とを用いて、デプス画像の信頼度を生成する処理と、デプス画像の信頼度を重みとして、第1の前景尤度と第2の前景尤度とから撮影対象の前景尤度を決定する処理とを実行させる。
本発明によれば、屋内環境でも屋外環境でも、物体の影や背景などからの反射光の影響を受けることなく前景を検出できる。
第1の実施形態の画像処理装置の構成例を示すブロック図である。 第1の実施形態におけるデプス信頼度生成部の構成例を示すブロック図である。 第1の実施形態の画像処理装置の動作を示すフローチャートである。 太陽からの直射光および環境光を説明するための説明図である。 前景尤度の生成方法の一例を示す説明図である。 第2の実施形態の画像処理装置の構成例を示すブロック図である。 第2の実施形態におけるデプス信頼度生成部の構成例を示すブロック図である。 第2の実施形態の画像処理装置の動作を示すフローチャートである。 第3の実施形態の画像処理装置の構成例を示すブロック図である。 第3の実施形態におけるデプス信頼度生成部の構成例を示すブロック図である。 第3の実施形態の画像処理装置の動作を示すフローチャートである。 CPUを有するコンピュータの一例を示すブロック図である。 画像処理装置の主要部を示すブロック図である。 物体検出装置を示すブロック図である。 非特許文献1に記載された画像処理装置を示すブロック図である。
以下、本発明の実施形態を図面を参照して説明する。
実施形態1.
図1は、画像処理装置の第1の実施形態の構成例を示すブロック図である。図1に示す例では、画像処理装置10は、可視光前景尤度生成部11、デプス前景尤度生成部12、デプス信頼度生成部13、および前景検出部14を備える。
可視光前景尤度生成部11は、少なくともフレームの可視光画像からフレーム内の所定領域ごとの可視光画像の前景尤度を生成する。デプス前景尤度生成部12は、少なくともフレームのデプス画像(デプス値(距離)が濃淡で表現された画像)から所定領域ごとのデプス画像前景尤度を生成する。デプス信頼度生成部13は、少なくともフレームのデプス画像から所定領域ごとのデプス画像信頼度を生成する。前景検出部14は、可視光画像前景尤度、デプス画像前景尤度およびデプス画像信頼度に基づいて、物体の影や物体からの反射の影響が除外された前景を検出する。
本実施形態では、可視光画像は、一般的な可視光画像取得手段(例えば、可視光カメラ41)で取得される。デプス画像(距離画像)は、近赤外光を用いるToF(Time of Flight)カメラなどの距離画像取得手段(例えば、デプスカメラ42)で取得される。しかし、可視光画像およびデプス画像を取得するための機器はそれらに限られない。例えば、可視光画像を取得する機能も有するToFカメラなどが用いられてもよい。
なお、画像処理装置10は、あらかじめ記憶部(図示せず)に記憶されている可視光画像を入力してもよい。また、画像処理装置10は、あらかじめ記憶部(図示せず)に記憶されているデプス画像を入力してもよい。
図2は、デプス信頼度生成部13の構成例を示すブロック図である。図2に示す例では、デプス信頼度生成部13は、観測値勾配算出部131、測距不能画素判定部132、第1のエッジ検出部133、第2のエッジ検出部134、およびデプス信頼度決定部136を備えている。
観測値勾配算出部131は、可視光画像の撮影対象と同じ撮影対象のデプス画像における各小領域の観測値の勾配を算出する。小領域のサイズは、任意である。小領域のサイズは、一例として、5×5画素である。測距不能画素判定部132は、小領域ごとに、デプス画像における各画素が測距不能(距離取得不能)であるか否か判定する。第1のエッジ検出部133は、デプス画像におけるエッジを、小領域ごとに検出する。第2のエッジ検出部134は、可視光画像におけるエッジを、小領域ごとに検出する。デプス信頼度決定部136は、観測値の勾配、測距不能画素、デプス画像におけるエッジおよび可視光画像におけるエッジを使用してデプス画像信頼度を算出する。
なお、本実施形態では、デプス信頼度決定部136は、観測値の勾配、測距不能画素、デプス画像におけるエッジおよび可視光画像におけるエッジに関する情報を使用するが、デプス信頼度決定部136は、それらの情報のうちの一部を使用してもよい。また、デプス信頼度決定部136は、それらの情報に加えて、他の情報も使用してもよい。
次に、画像処理装置10の動作を図3のフローチャートを参照して説明する。
可視光前景尤度生成部11は、太陽光スペクトルモデルを利用して、可視光画像の前景尤度を生成する(ステップS11)。可視光前景尤度生成部11は、様々の方法で前景尤度を生成することができる。一例として、可視光前景尤度生成部11は、非特許文献1に記載された方法を使用する。
図4は、太陽1からの直射光および環境光を説明するための説明図である。図4には、前景としての物体(例えば人物)2と、直射光による物体2の影3も示されている。
可視光前景尤度生成部11は、まず、カメラの撮影位置および撮影時刻における太陽光(直射光および環境光)のスペクトルを算出する。可視光前景尤度生成部11は、スペクトルを色情報に変換する。色情報は、例えば、RGB色空間における各チャネルの情報である。色情報を、(1)式のように表現する。
Figure 2020105092
直射光および環境光の画素値(例えば、RGB値)は、以下のように表される。(2)式において、p,q,rは、直射光または環境光の強度を表す係数である。以下、画素値は、RGB色空間におけるRGB値であるとする。その場合、(1)式および(2)式における上付き添字cは、R値、G値、B値のいずれかを表す。
Figure 2020105092
可視光前景尤度生成部11は、入力された可視光画像(この例では、RGB画像)と太陽光スペクトルから予測背景を算出する。可視光画像における背景のRGB値をBcとすると、予測背景を、以下のように表すことができる。
Figure 2020105092
(3)式において、m=(p+q)/1、n=q/1である。入力された可視光画像のRGB値をCiとすると、可視光前景尤度生成部11は、CiとBcとの差を最小にするm,nを求める。可視光前景尤度生成部11は、求められたm,nを(3)式に代入して、予測背景画像のRGB値を得る。
そして、可視光前景尤度生成部11は、正規化された可視光画像のRGB値Ciと正規化された予測背景画像のRGB値との差を前景尤度とする。なお、可視光前景尤度生成部11は、当該差に対して何らかの加工を施した値を前景尤度としてもよい。
デプス前景尤度生成部12は、デプス画像における画素ごとの前景尤度(デプス画像前景尤度)を生成する(ステップS12)。図5は、前景尤度の生成方法の一例を示す説明図である。
デプス前景尤度生成部12は、デプス画像の前景尤度を生成するために、過去の複数フレームのデプス画像における画素ごとの画素値(輝度値)のヒストグラムを作成する。背景は静止しているので、複数フレームに亘って同じような画素値が現れる位置は、背景に含まれている可能性が高い。前景は移動する可能性があるので、複数フレームに亘って画素値がばらつくような位置は、前景に含まれている可能性が高い。
デプス前景尤度生成部12は、画素値のヒストグラムがガウス分布または混合ガウス分布で近似し、ガウス分布または混合ガウス分布から前景尤度を導出する。
なお、そのような前景尤度の生成は一例であって、デプス前景尤度生成部12は、公知の様々な前景尤度の生成方法を用いることができる。
次いで、デプス信頼度生成部13は、ステップS21〜S24の処理を実行した後、ステップS31の処理でデプス画像信頼度を生成する。
デプス信頼度生成部13において、観測値勾配算出部131は、デプス画像における小領域ごとに、画素の観測値(輝度値)の勾配を算出する(ステップS21)。また、測距不能画素判定部132は、小領域ごとに、画素が測距不能画素であるか否か判定する(ステップS22)。測距不能画素判定部132は、一例として、画素値が0である画素を測距不能画素であるとする。なお、画素値が0であるということは、近赤外光の反射光が得られないことに相当するとして、測距不能画素判定部132は、画素値が0である画素を測距不能画素とする。
第1のエッジ検出部133は、デプス画像における小領域ごとに、エッジを検出する(ステップS23)。第2のエッジ検出部134は、可視光画像における小領域ごとに、エッジを検出する(ステップS24)。
デプス信頼度決定部136は、例えば、以下のようにしてデプス画像信頼度を決定する(ステップS31)。
デプス信頼度決定部136は、観測値の勾配が小さい領域に対して高い信頼度を付与する。観測値の勾配が小さいことはデプス画像において空間的な距離差が小さい(滑らかである。)ことに相当する。滑らかな領域は、物体の影や反射光の影響を受けることなく、安定して距離が観測できていると考えられるので、デプス信頼度決定部136は、当該領域に高い信頼度を付与する。
また、デプス信頼度決定部136は、測距不能画素からなる領域に、低い信頼度を付与する。
さらに、デプス信頼度決定部136は、デプス画像においてエッジが存在する位置と、可視光画像においてエッジが存在する位置とが共通する領域が存在する場合、デプス画像における当該領域に高い信頼度を付与する。
エッジは観測値の勾配が所定のしきい値を越える部分であるが、雑音が大きい領域でもある。しかし、デプス画像において、可視光画像でもエッジが存在する位置と同じ位置にエッジが存在する場合には、デプス画像におけるエッジは、雑音で形成された偽のエッジではないといえる。すなわち、デプス信頼度決定部136は、可視光画像におけるエッジを参照することによって、デプス画像においてエッジと判定された部分の信頼度を上げる。
また、デプス信頼度決定部136は、可視光画像において、デプス画像においてエッジが存在する位置と同じ位置にエッジが存在しない場合には、デプス画像におけるエッジが存在する領域に対して低い信頼度を付与する。
デプス信頼度決定部136は、簡便には、高い信頼度として「1」(最大値)を設定し低い信頼度として「0」(最小値)を設定することができる。しかし、デプス信頼度決定部136は、画像処理装置10の主たる使用環境等に応じた信頼度を設定することができる。
デプス画像に高い信頼度が付与されるということは、デプス画像における前景が、可視光画像における前景よりも、最終的に決定される前景または前景尤度により強く反映されることを意味する。
なお、デプス信頼度決定部136は、測距不能画素からなる領域に信頼度「0」または0に近い信頼度を付与し、その他の領域(測距不能画素以外の画素が含まれる領域)には、可視光画像における当該領域とデプス画像における当該領域との正規化相互相関を信頼度として付与してもよい。
前景検出部14は、前景または前景尤度(最終的な前景尤度)を決定する(ステップS32)。前景検出部14は、以下に述べるように、可視光前景尤度生成部11が生成した可視光画像前景尤度と、デプス前景尤度生成部12が生成したデプス画像前景尤度と、デプス信頼度生成部13が生成したデプス画像信頼度とを用いる。
可視光画像前景尤度Pv(x,y) 、デプス画像前景尤度をPd(x,y)、デプス画像信頼度をS(x,y)とする。x はx座標値を示し、y はy座標値を示す。
前景検出部14は、下記の(4)式を用いて最終的な前景尤度P(x,y)を決定する。
P(x,y) = {1-S(x,y)}・Pv(x,y) + S(x,y)・Pd(x,y) ・・・(4)
なお、前景検出部14は、前景尤度P(x,y)を2値化して前景領域を決定し、前景を出力してもよい。2値化は、例えば、所定のしきい値を越える画素値の画素を前景の画素とする処理である。
また、図3には、各ステップが順次実行されるフローチャートが示されているが、画像処理装置10は、ステップS11の処理、ステップS12の処理、およびステップS21〜S24の処理を並列実行することが可能である。また、デプス信頼度生成部13は、ステップS21〜S24のそれぞれの処理を並列実行することが可能である。
以上に説明したように、本実施形態では、画像処理装置10において、可視光前景尤度生成部11は、太陽光スペクトルモデルを利用して、可視光画像の前景尤度を生成し、デプス前景尤度生成部12は、デプス画像前景尤度を生成し、デプス信頼度生成部13は、デプス画像前景尤度の信頼度(デプス画像信頼度)を生成する。そして、前景検出部14は、デプス画像信頼度を重みとして、可視光画像の前景尤度とデプス画像前景尤度とから最終的な前景尤度を決定するので、屋内環境および屋外環境の双方において、物体の影や反射光の影響を受けることなく前景の検出を行うことが可能になる。
実施形態2.
第1の実施形態の画像処理装置10は、可視光画像におけるエッジとデプス画像におけるエッジとを比較したが、第2の実施形態では、画像処理装置は、可視光画像におけるエッジと近赤外画像におけるエッジとを比較する。
図6は、第2の実施形態の画像処理装置の構成例を示すブロック図である。
図6に示す画像処理装置20において、デプス信頼度生成部13Bは、近赤外画像取得手段(例えば、近赤外光カメラ43)からの近赤外画像も入力する。デプス信頼度生成部13Bは、可視光画像におけるエッジと近赤外画像におけるエッジとを比較する。画像処理装置20のその他の構成は、画像処理装置10の構成と同じである。
なお、画像処理装置20は、あらかじめ記憶部(図示せず)に記憶されている近赤外画像を入力してもよい。
図7は、デプス信頼度生成部13Bの構成例を示すブロック図である。図7に示す例では、デプス信頼度生成部13Bにおける第3のエッジ検出部135は、デプス画像の撮影対象と同じ撮影対象の近赤外画像におけるエッジを検出する。デプス信頼度生成部13Bのその他の構成は、デプス信頼度生成部13の構成と同じである。
図8は、第2の実施形態の画像処理装置20の動作を示すフローチャートである。
第3のエッジ検出部135は、近赤外画像における小領域ごとに、エッジを検出する(ステップS23B)。なお、ステップS23の処理(図3参照)は実行されない。画像処理装置20のその他の処理は、第1の実施形態における処理と同じである。ただし、デプス信頼度決定部136は、エッジ位置に基づく信頼度を付与するときに、デプス画像におけるエッジ位置と近赤外画像におけるエッジ位置とを比較する。
なお、図8には、各ステップが順次実行されるフローチャートが示されているが、画像処理装置20は、ステップS11の処理、ステップS12の処理、およびステップS21〜S24の処理を並列実行することが可能である。また、デプス信頼度生成部13Bは、ステップS21,S22,S23B,S24のそれぞれの処理を並列実行することが可能である。
本実施形態でも、画像処理装置10において、可視光前景尤度生成部11は、太陽光スペクトルモデルを利用して、可視光画像の前景尤度を生成し、デプス前景尤度生成部12は、デプス画像前景尤度を生成し、デプス信頼度生成部13Bは、デプス画像前景尤度の信頼度(デプス画像信頼度)を生成する。そして、前景検出部14は、デプス画像信頼度を重みとして、可視光画像の前景尤度とデプス画像前景尤度とから最終的な前景尤度を決定するので、屋内環境および屋外環境の双方において、物体の影や反射光の影響を受けることなく前景の検出を行うことが可能になる。また、本実施形態では、エッジ位置に基づく信頼度を付与する場合に近赤外画像におけるエッジ位置を利用するので、暗い屋内環境におけるエッジ位置に基づく信頼度の精度が向上することが期待される。
なお、本実施形態では、近赤外光カメラ43がデプスカメラ42とは別に設けられているが、デプスカメラ42として近赤外光を受光するタイプのカメラが用いられる場合には、デプス信頼度生成部13Bは、デプスカメラ42からの画像(所定の露光時間の間、近赤外光を受光して得られる画像)からエッジを検出してもよい。その場合には、近赤外光カメラ43は不要である。
実施形態3.
第1の実施形態の画像処理装置10は、デプス画像におけるエッジと可視光画像におけるエッジとを比較し、第2の実施形態の画像処理装置20は、デプス画像におけるエッジと近赤外画像におけるエッジとを比較したが、第3の実施形態では、画像処理装置は、デプス画像におけるエッジを、可視光画像におけるエッジおよび近赤外画像におけるエッジと比較する。
図9は、第3の実施形態の画像処理装置の構成例を示すブロック図である。
図9に示す画像処理装置30においては、デプス信頼度生成部13Cは、近赤外光カメラ43からの近赤外画像も入力する。デプス信頼度生成部13Cは、デプス画像におけるエッジを、可視光画像におけるエッジおよび近赤外画像におけるエッジと比較する。画像処理装置30のその他の構成は、画像処理装置10の構成と同じである。
なお、画像処理装置30は、あらかじめ記憶部(図示せず)に記憶されている近赤外画像を入力してもよい。
図10は、デプス信頼度生成部13Cの構成例を示すブロック図である。図10に示す例では、デプス信頼度生成部13Cにおける第3のエッジ検出部135は、デプス画像の撮影対象と同じ撮影対象の近赤外画像におけるエッジを検出する。デプス信頼度生成部13Cのその他の構成は、デプス信頼度生成部13の構成と同じである。
図11は、第3の実施形態の画像処理装置30の動作を示すフローチャートである。
第3のエッジ検出部135は、ステップS23の処理を実行するとともに、近赤外画像における小領域ごとにエッジを検出する(ステップS23B)。画像処理装置20のその他の処理は、第1の実施形態における処理と同じである。
ただし、デプス信頼度決定部136は、エッジ位置に基づく信頼度を付与するときに、デプス画像におけるエッジ位置と近赤外画像におけるエッジ位置とを比較する。
デプス信頼度決定部136は、デプス画像においてエッジが存在する位置と、可視光画像においてエッジが存在する位置とが共通する領域が存在する場合、さらに、近赤外画像においてエッジが存在する位置とが共通する領域が存在するときに、デプス画像における当該領域に高い信頼度を付与する。
なお、デプス信頼度決定部136は、デプス画像においてエッジが存在する位置と、可視光画像においてエッジが存在する位置とが共通する領域が存在する場合に、デプス画像における当該領域に高い信頼度を付与し、デプス画像においてエッジが存在する位置と、近赤外画像においてエッジが存在する位置とが共通する領域が存在する場合にも、デプス画像における当該領域に高い信頼度を付与するようにしてもよい。
また、図11には、各ステップが順次実行されるフローチャートが示されているが、画像処理装置30は、ステップS11の処理、ステップS12の処理、およびステップS21〜S24の処理を並列実行することが可能である。また、デプス信頼度生成部13Bは、ステップS21〜S24のそれぞれの処理を並列実行することが可能である。
本実施形態でも、画像処理装置10において、可視光前景尤度生成部11は、太陽光スペクトルモデルを利用して、可視光画像の前景尤度を生成し、デプス前景尤度生成部12は、デプス画像前景尤度を生成し、デプス信頼度生成部13Cは、デプス画像前景尤度の信頼度(デプス画像信頼度)を生成する。そして、前景検出部14は、デプス画像信頼度を重みとして、可視光画像の前景尤度とデプス画像前景尤度とから最終的な前景尤度を決定するので、屋内環境および屋外環境の双方において、物体の影や反射光の影響を受けることなく前景の検出を行うことが可能になる。また、本実施形態では、エッジ位置に基づく信頼度を付与する場合に近赤外画像におけるエッジ位置を利用するので、暗い屋内環境におけるエッジ位置に基づく信頼度の精度が向上することが期待される。
なお、本実施形態では、近赤外光カメラ43がデプスカメラ42とは別に設けられているが、デプスカメラ42として近赤外光を受光するタイプのカメラが用いられる場合には、デプス信頼度生成部13Bは、デプスカメラ42からの画像(所定の露光時間の間、近赤外光を受光して得られる画像)からエッジを検出してもよい。その場合には、近赤外光カメラ43は不要である。
また、上記の各実施形態では、画像処理装置10,20,30は、画像における小領域ごとに、勾配検出、測距不能画素判定、およびエッジ検出を行ったが、フレーム全体を対象として、勾配検出、測距不能画素判定、およびエッジ検出を行ってもよい。
上記の実施形態における各構成要素は、1つのハードウェアで構成可能であるが、1つのソフトウェアでも構成可能である。また、各構成要素は、複数のハードウェアでも構成可能であり、複数のソフトウェアでも構成可能である。また、各構成要素のうちの一部をハードウェアで構成し、他部をソフトウェアで構成することもできる。
上記の実施形態における各機能(各処理)を、CPU(Central Processing Unit )等のプロセッサやメモリ等を有するコンピュータで実現可能である。例えば、記憶装置(記憶媒体)に上記の実施形態における方法(処理)を実施するためのプログラムを格納し、各機能を、記憶装置に格納されたプログラムをCPUで実行することによって実現してもよい。
図12は、CPUを有するコンピュータの一例を示すブロック図である。コンピュータは、画像処理装置に実装される。CPU1000は、記憶装置1001に格納されたプログラムに従って処理を実行することによって、上記の実施形態における各機能を実現する。すなわち、図1,図6,図9に示された画像処理装置10,20,30における、可視光前景尤度生成部11、デプス前景尤度生成部12、デプス信頼度生成部13,13B,13C、および前景検出部14の機能を実現する。
記憶装置1001は、例えば、非一時的なコンピュータ可読媒体(non-transitory computer readable medium )である。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium )を含む。非一時的なコンピュータ可読媒体の具体例として、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD−ROM(Compact Disc-Read Only Memory )、CD−R(Compact Disc-Recordable )、CD−R/W(Compact Disc-ReWritable )、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM )、フラッシュROM)がある。
また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium )に格納されてもよい。一時的なコンピュータ可読媒体には、例えば、有線通信路または無線通信路を介して、すなわち、電気信号、光信号または電磁波を介して、プログラムが供給される。
メモリ1002は、例えばRAM(Random Access Memory)で実現され、CPU1000が処理を実行するときに一時的にデータを格納する記憶手段である。メモリ1002に、記憶装置1001または一時的なコンピュータ可読媒体が保持するプログラムが転送され、CPU1000がメモリ1002内のプログラムに基づいて処理を実行するような形態も想定しうる。
図13は、画像処理装置の主要部を示すブロック図である。図13に示す画像処理装置100は、可視光画像から第1の前景尤度(例えば、可視光画像前景尤度)を生成する第1の尤度生成手段(実施形態では、可視光前景尤度生成部11で実現される。)101と、可視光画像の撮影対象と同じ撮影対象のデプス画像から第2の前景尤度を生成する第2の尤度生成手段(実施形態では、デプス前景尤度生成部12で実現される。)102と、少なくとも可視光画像とデプス画像とを用いて、デプス画像の信頼度を生成するデプス信頼度生成手段(実施形態では、デプス信頼生成部13,13B,13Cで実現される。)103と、デプス画像の信頼度を重みとして、第1の前景尤度と第2の前景尤度とから撮影対象の前景尤度を決定する前景検出手段(実施形態では、前景検出部14で実現される。)104とを備える。
上記の実施形態の一部または全部は、以下の付記のようにも記載され得るが、本発明は、以下に限定されるわけではない。
(付記1)可視光画像から第1の前景尤度を生成し、
前記可視光画像の撮影対象と同じ撮影対象のデプス画像から第2の前景尤度を生成し、
少なくとも前記可視光画像と前記デプス画像とを用いて、前記デプス画像の信頼度を生成し、
前記デプス画像の信頼度を重みとして、前記第1の前景尤度と前記第2の前景尤度とから前記撮影対象の前景尤度を決定する
画像処理方法。
(付記2)前記デプス画像における観測値の勾配が所定値以下である領域に相対的に高い信頼度を付与した上で、前記デプス画像の信頼度を生成する
付記1の画像処理方法。
(付記3)前記デプス画像におけるエッジを検出し、
前記可視光画像におけるエッジを検出し、
前記デプス画像におけるエッジが検出された領域に相当する前記可視光画像における領域においてエッジが検出された場合に、当該領域に相対的に高い信頼度を付与する
付記1または付記2の画像処理方法。
(付記4)前記デプス画像におけるエッジを検出し、
前記デプス画像の撮影対象と同じ撮影対象の近赤外画像におけるエッジを検出し、
前記デプス画像におけるエッジが検出された領域に相当する前記近赤外画像における領域においてエッジが検出された場合に、当該領域に相対的に高い信頼度を付与する
付記1または付記2の画像処理方法。
(付記5)前記デプス画像におけるエッジを検出し、
前記可視光画像におけるエッジを検出し、
前記デプス画像の撮影対象と同じ撮影対象の近赤外画像におけるエッジを検出し、
前記デプス画像におけるエッジが検出された領域に相当する前記可視光画像における領域および前記近赤外画像における領域においてエッジが検出された場合に、当該領域に相対的に高い信頼度を付与する
付記1または付記2の画像処理方法。
(付記6)測距不能画素からなる領域に低い信頼度を与える
付記1から付記5のうちのいずれかの画像処理方法。
(付記7)可視光画像から第1の前景尤度を生成する第1の尤度生成手段と、
前記可視光画像の撮影対象と同じ撮影対象のデプス画像から第2の前景尤度を生成する第2の尤度生成手段と、
少なくとも前記可視光画像と前記デプス画像とを用いて、前記デプス画像の信頼度を生成するデプス信頼度生成手段と、
前記デプス画像の信頼度を重みとして、前記第1の前景尤度と前記第2の前景尤度とから前記撮影対象の前景尤度を決定する前景検出手段と
を備えた画像処理装置。
(付記8)前記デプス信頼度生成手段は、少なくとも前記デプス画像における観測値の勾配を算出する観測値勾配算出部と、前記デプス画像の信頼度を決定するデプス信頼度決定部とを含み、
前記デプス信頼度決定部は、前記デプス画像における観測値の勾配が所定値以下である領域に相対的に高い信頼度を付与する
付記7の画像処理装置。
(付記9)前記デプス信頼度生成手段は、前記デプス画像におけるエッジを検出する第1のエッジ検出部と、前記可視光画像におけるエッジを検出する第2のエッジ検出部と、前記デプス画像の信頼度を決定するデプス信頼度決定部とを含み、
前記デプス信頼度決定部は、前記デプス画像におけるエッジが検出された領域に相当する前記可視光画像における領域においてエッジが検出された場合に、当該領域に相対的に高い信頼度を付与する
付記7または付記8の画像処理装置。
(付記10)前記デプス信頼度生成手段は、前記デプス画像におけるエッジを検出する第1のエッジ検出部と、前記デプス画像の撮影対象と同じ撮影対象の近赤外画像におけるエッジを検出する第3のエッジ検出部と、前記デプス画像の信頼度を決定するデプス信頼度決定部とを含み、
前記デプス信頼度決定部は、前記デプス画像におけるエッジが検出された領域に相当する前記近赤外画像における領域においてエッジが検出された場合に、当該領域に相対的に高い信頼度を付与する
付記7または付記8の画像処理装置。
(付記11)前記デプス信頼度生成手段は、前記デプス画像におけるエッジを検出する第1のエッジ検出部と、前記可視光画像におけるエッジを検出する第2のエッジ検出部と、前記デプス画像の撮影対象と同じ撮影対象の近赤外画像におけるエッジを検出する第3のエッジ検出部と、前記デプス画像の信頼度を決定するデプス信頼度決定部とを含み、
前記デプス信頼度決定部は、前記デプス画像におけるエッジが検出された領域に相当する前記可視光画像における領域および前記近赤外画像における領域においてエッジが検出された場合に、当該領域に相対的に高い信頼度を付与する
付記7または付記8の画像処理装置。
(付記12)前記デプス信頼度生成手段は、前記デプス画像における測距不能画素を検出する測距不能画素判定部を含み、
前記デプス信頼度決定部は、測距不能画素からなる領域に低い信頼度を与える
請求項8から請求項11のうちのいずれか1項に記載の画像処理装置。
(付記13)コンピュータに、
可視光画像から第1の前景尤度を生成する処理と、
前記可視光画像の撮影対象と同じ撮影対象のデプス画像から第2の前景尤度を生成する処理と、
少なくとも前記可視光画像と前記デプス画像とを用いて、前記デプス画像の信頼度を生成する処理と、
前記デプス画像の信頼度を重みとして、前記第1の前景尤度と前記第2の前景尤度とから前記撮影対象の前景尤度を決定する処理と
を実行させるための画像処理プログラム。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記の実施形態に限定されない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
10,20,30 画像処理装置
11 可視光前景尤度生成部
12 デプス前景尤度生成部
13,13B,13C デプス信頼度生成部
14 前景検出部
41 可視光カメラ
42 デプスカメラ
43 近赤外光カメラ
100 画像処理装置
101 第1の尤度生成手段
102 第2の尤度生成手段
103 デプス信頼度生成手段
104 前景検出手段
131 観測値勾配算出部
132 測距不能画素判定部
133 第1のエッジ検出部
134 第2のエッジ検出部
135 第3のエッジ検出部
136 デプス信頼度決定部
1000 CPU
1001 記憶装置
1002 メモリ

Claims (13)

  1. 可視光画像から第1の前景尤度を生成し、
    前記可視光画像の撮影対象と同じ撮影対象のデプス画像から第2の前景尤度を生成し、
    少なくとも前記可視光画像と前記デプス画像とを用いて、前記デプス画像の信頼度を生成し、
    前記デプス画像の信頼度を重みとして、前記第1の前景尤度と前記第2の前景尤度とから前記撮影対象の前景尤度を決定する
    画像処理方法。
  2. 前記デプス画像における観測値の勾配が所定値以下である領域に相対的に高い信頼度を付与した上で、前記デプス画像の信頼度を生成する
    請求項1記載の画像処理方法。
  3. 前記デプス画像におけるエッジを検出し、
    前記可視光画像におけるエッジを検出し、
    前記デプス画像におけるエッジが検出された領域に相当する前記可視光画像における領域においてエッジが検出された場合に、当該領域に相対的に高い信頼度を付与する
    請求項1または請求項2記載の画像処理方法。
  4. 前記デプス画像におけるエッジを検出し、
    前記デプス画像の撮影対象と同じ撮影対象の近赤外画像におけるエッジを検出し、
    前記デプス画像におけるエッジが検出された領域に相当する前記近赤外画像における領域においてエッジが検出された場合に、当該領域に相対的に高い信頼度を付与する
    請求項1または請求項2記載の画像処理方法。
  5. 前記デプス画像におけるエッジを検出し、
    前記可視光画像におけるエッジを検出し、
    前記デプス画像の撮影対象と同じ撮影対象の近赤外画像におけるエッジを検出し、
    前記デプス画像におけるエッジが検出された領域に相当する前記可視光画像における領域および前記近赤外画像における領域においてエッジが検出された場合に、当該領域に相対的に高い信頼度を付与する
    請求項1または請求項2記載の画像処理方法。
  6. 測距不能画素からなる領域に低い信頼度を与える
    請求項1から請求項5のうちのいずれか1項に記載の画像処理方法。
  7. 可視光画像から第1の前景尤度を生成する第1の尤度生成手段と、
    前記可視光画像の撮影対象と同じ撮影対象のデプス画像から第2の前景尤度を生成する第2の尤度生成手段と、
    少なくとも前記可視光画像と前記デプス画像とを用いて、前記デプス画像の信頼度を生成するデプス信頼度生成手段と、
    前記デプス画像の信頼度を重みとして、前記第1の前景尤度と前記第2の前景尤度とから前記撮影対象の前景尤度を決定する前景検出手段と
    を備えた画像処理装置。
  8. 前記デプス信頼度生成手段は、少なくとも前記デプス画像における観測値の勾配を算出する観測値勾配算出部と、前記デプス画像の信頼度を決定するデプス信頼度決定部とを含み、
    前記デプス信頼度決定部は、前記デプス画像における観測値の勾配が所定値以下である領域に相対的に高い信頼度を付与する
    請求項7記載の画像処理装置。
  9. 前記デプス信頼度生成手段は、前記デプス画像におけるエッジを検出する第1のエッジ検出部と、前記可視光画像におけるエッジを検出する第2のエッジ検出部と、前記デプス画像の信頼度を決定するデプス信頼度決定部とを含み、
    前記デプス信頼度決定部は、前記デプス画像におけるエッジが検出された領域に相当する前記可視光画像における領域においてエッジが検出された場合に、当該領域に相対的に高い信頼度を付与する
    請求項7または請求項8記載の画像処理装置。
  10. 前記デプス信頼度生成手段は、前記デプス画像におけるエッジを検出する第1のエッジ検出部と、前記デプス画像の撮影対象と同じ撮影対象の近赤外画像におけるエッジを検出する第3のエッジ検出部と、前記デプス画像の信頼度を決定するデプス信頼度決定部とを含み、
    前記デプス信頼度決定部は、前記デプス画像におけるエッジが検出された領域に相当する前記近赤外画像における領域においてエッジが検出された場合に、当該領域に相対的に高い信頼度を付与する
    請求項7または請求項8記載の画像処理装置。
  11. 前記デプス信頼度生成手段は、前記デプス画像におけるエッジを検出する第1のエッジ検出部と、前記可視光画像におけるエッジを検出する第2のエッジ検出部と、前記デプス画像の撮影対象と同じ撮影対象の近赤外画像におけるエッジを検出する第3のエッジ検出部と、前記デプス画像の信頼度を決定するデプス信頼度決定部を含み、
    前記デプス信頼度決定部は、前記デプス画像におけるエッジが検出された領域に相当する前記可視光画像における領域および前記近赤外画像における領域においてエッジが検出された場合に、当該領域に相対的に高い信頼度を付与する
    請求項7または請求項8記載の画像処理装置。
  12. 前記デプス信頼度生成手段は、前記デプス画像における測距不能画素を検出する測距不能画素判定部を含み、
    前記デプス信頼度決定部は、測距不能画素からなる領域に低い信頼度を与える
    請求項8から請求項11のうちのいずれか1項に記載の画像処理装置。
  13. コンピュータに、
    可視光画像から第1の前景尤度を生成する処理と、
    前記可視光画像の撮影対象と同じ撮影対象のデプス画像から第2の前景尤度を生成する処理と、
    少なくとも前記可視光画像と前記デプス画像とを用いて、前記デプス画像の信頼度を生成する処理と、
    前記デプス画像の信頼度を重みとして、前記第1の前景尤度と前記第2の前景尤度とから前記撮影対象の前景尤度を決定する処理と
    を実行させるための画像処理プログラム。
JP2020557043A 2018-11-19 2018-11-19 画像処理方法および画像処理装置 Active JP7036227B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/042673 WO2020105092A1 (ja) 2018-11-19 2018-11-19 画像処理方法および画像処理装置

Publications (2)

Publication Number Publication Date
JPWO2020105092A1 true JPWO2020105092A1 (ja) 2021-09-27
JP7036227B2 JP7036227B2 (ja) 2022-03-15

Family

ID=70774663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020557043A Active JP7036227B2 (ja) 2018-11-19 2018-11-19 画像処理方法および画像処理装置

Country Status (3)

Country Link
US (1) US20220005203A1 (ja)
JP (1) JP7036227B2 (ja)
WO (1) WO2020105092A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122507A (ja) * 2005-10-28 2007-05-17 Secom Co Ltd 侵入検知装置
JP2007526453A (ja) * 2004-01-28 2007-09-13 カネスタ インコーポレイテッド 単一チップの赤、緑、青、距離(rgb−z)センサー
JP2010256138A (ja) * 2009-04-23 2010-11-11 Canon Inc 撮像装置及びその制御方法
JP2016017799A (ja) * 2014-07-07 2016-02-01 株式会社デンソー 光飛行型測距装置
WO2017057056A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2018042801A1 (ja) * 2016-09-01 2018-03-08 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101700595B1 (ko) * 2010-01-05 2017-01-31 삼성전자주식회사 얼굴 인식 장치 및 그 방법
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
CN104662589B (zh) * 2012-08-21 2017-08-04 派力肯影像公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
KR102272254B1 (ko) * 2015-02-13 2021-07-06 삼성전자주식회사 위상 검출 픽셀을 이용하여 깊이 맵을 생성하기 위한 영상 생성 장치
US9955140B2 (en) * 2015-03-11 2018-04-24 Microsoft Technology Licensing, Llc Distinguishing foreground and background with inframed imaging

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007526453A (ja) * 2004-01-28 2007-09-13 カネスタ インコーポレイテッド 単一チップの赤、緑、青、距離(rgb−z)センサー
JP2007122507A (ja) * 2005-10-28 2007-05-17 Secom Co Ltd 侵入検知装置
JP2010256138A (ja) * 2009-04-23 2010-11-11 Canon Inc 撮像装置及びその制御方法
JP2016017799A (ja) * 2014-07-07 2016-02-01 株式会社デンソー 光飛行型測距装置
WO2017057056A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2018042801A1 (ja) * 2016-09-01 2018-03-08 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Also Published As

Publication number Publication date
JP7036227B2 (ja) 2022-03-15
WO2020105092A1 (ja) 2020-05-28
US20220005203A1 (en) 2022-01-06

Similar Documents

Publication Publication Date Title
US20200043225A1 (en) Image processing apparatus and control method thereof
KR101283262B1 (ko) 영상 처리 방법 및 장치
KR102336064B1 (ko) 촬상 장치 및 그 촬상 방법, 화상 처리 장치 및 그 화상 처리 방법, 및, 프로그램
JP6239594B2 (ja) 3d情報処理装置及び方法
US9047673B2 (en) Apparatus and method for extracting target, and recording medium storing program for performing the method
US20140198951A1 (en) Image processing apparatus and image processing method
JP2023100611A (ja) 撮像装置、情報処理装置、撮像方法およびプログラム
JPWO2009019887A1 (ja) 画像処理装置および画像処理方法
KR101719431B1 (ko) 화상 처리 장치 및 화상 처리 방법
GB2557035A (en) IR or thermal image enhancement method based on background information for video analysis
JP2016015045A (ja) 画像認識装置、画像認識方法及びプログラム
KR20140088697A (ko) 깊이 영상 처리 장치 및 방법
WO2019102966A1 (ja) 脈波検出装置、脈波検出方法、及び記憶媒体
JP2015175644A (ja) 測距システム、情報処理装置、情報処理方法及びプログラム
KR20150136225A (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
US10489928B2 (en) Image processing system for inspecting object distance and dimensions using a hand-held camera with a collimated laser
JP2014048131A (ja) 画像処理装置、方法及びプログラム
JP2015090562A (ja) 画像処理装置、方法、及びプログラム
JP7036227B2 (ja) 画像処理方法および画像処理装置
JP2016051302A5 (ja)
KR102079686B1 (ko) 인텐시티 영상과 깊이 영상을 이용한 컬러 영상 개선 장치 및 방법
JP2020021314A (ja) 画像処理装置及び画像処理方法
JP7279817B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR102160583B1 (ko) 이벤트 객체 감시장치 및 방법
JP2017191082A (ja) 輝点画像取得装置および輝点画像取得方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220214

R151 Written notification of patent or utility model registration

Ref document number: 7036227

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151