JP2013247492A - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP2013247492A
JP2013247492A JP2012119483A JP2012119483A JP2013247492A JP 2013247492 A JP2013247492 A JP 2013247492A JP 2012119483 A JP2012119483 A JP 2012119483A JP 2012119483 A JP2012119483 A JP 2012119483A JP 2013247492 A JP2013247492 A JP 2013247492A
Authority
JP
Japan
Prior art keywords
image
lut
object detection
output
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012119483A
Other languages
English (en)
Other versions
JP5888117B2 (ja
Inventor
Hiroshi Uchino
浩志 内野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2012119483A priority Critical patent/JP5888117B2/ja
Publication of JP2013247492A publication Critical patent/JP2013247492A/ja
Application granted granted Critical
Publication of JP5888117B2 publication Critical patent/JP5888117B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】第1出力画像と第2出力画像とを合成するに際し、合成パラメータを周囲環境に応じて変更し、対象物検出処理に適した対象物検出用画像を生成する。
【解決手段】可視カメラ110は、周囲を撮影し、可視画像を取得する。遠赤外カメラ120は、周囲環境を撮影し、遠赤外画像を取得する。検出部140は、撮像時の周囲環境を検出するために、可視画像及び遠赤外画像のそれぞれの評価値を算出する。CPU170は、検出部140により算出された評価値から周囲環境が昼間、夕暮れ、又は夜間を示すかを検出する。合成処理部150は、周囲環境の検出結果に応じて可視画像と遠赤外画像とを合成するための合成パラメータを変更し、変更した合成パラメータを用いて可視画像と遠赤外画像とを合成し、対象物検出用画像を生成する。
【選択図】図1

Description

本発明は、感度波長が異なる2種類の撮像手段を用いて対象物を撮像し、得られた画像を合成する技術に関するものである。
近年、車載用カメラ等では、夜間や昼間といった周囲環境によらず人物や歩行者等の対象物を正確に検出するために、可視カメラと赤外カメラとを用いて周囲環境を撮像するものが普及している。例えば、特許文献1には、赤外カメラによって車両前方領域に存在する人間や自動車等の障害物を撮像し、且つビデオカメラによって路面を撮像し、両カメラによって得られた画像を合成することで、霧、煙、粉塵等のエアロゾル中であっても障害物と路上の白線等の情報とが現れた画像を得る技術が開示されている。
また、特許文献2には、人物が可視領域内にいる場合、可視画像から人物領域を検出し、検出した可視画像の人物領域を遠赤外画像に合成し、人物が非可視領域に移動した場合、遠赤外画像から人物領域を検出し、検出した人物領域を可視画像に合成し、視認性の高い人物領域が現れた合成画像を生成する技術が開示されている。
特開平9−37147号公報 特開2011−66809号公報
しかしながら、特許文献1、2のいずれも、対象物の視認性を高めるために画像合成が行われており、対象物を正確に検出するのに適した画像を生成するために画像合成が行われていない。
また、特許文献2では、可視画像及び赤外画像をそれぞれ個別に用いて人物領域が検出されているが、可視画像は夜間、雨、霧などの気象条件に弱く、遠赤外画像は昼間や気温の高い場所ではコントラストが低くなるといった特性があるため、気象条件によっては人物領域を正確に検出することができないという問題がある。
更に、特許文献2では、可視画像及び赤外画像をそれぞれ個別に用いて人物領域が検出されているため、可視画像及び赤外画像のそれぞれに対して対象物検出回路が必要となり、コストがかかるという課題がある。
また、特許文献1、2では、人間が視認するのに適した合成画像が生成されているため、この合成画像を対象物検出処理回路に供給した場合、対象物を正確に検出することができないという課題がある。
本発明の第1の目的は、第1出力画像と第2出力画像とを合成するに際し、合成パラメータを周囲環境に応じて変更し、対象物検出処理に適した対象物検出用画像を生成することである。
また、本発明の第2の目的は、人間の視認に適した画像と、対象物検出処理に適した画像とを個別に生成することである。
(1)本発明の一態様による物体検出装置は、感度波長が互いに異なる第1及び第2撮像手段と、前記第1及び第2撮像手段から出力される第1及び第2出力画像を、所定の合成パラメータを用いて合成し、対象物検出用画像を生成する合成処理部と、前記対象物検出用画像から対象物を検出する対象物検出部と、撮像時の周囲環境を検出する検出部とを備え、前記合成処理部は、前記検出部の検出結果に応じて、前記合成パラメータを変更する。
この構成によれば、周囲環境の検出結果に応じて周囲環境に適するように合成パラメータが変更され、変更された合成パラメータを用いて感度波長の異なる第1、第2出力画像が合成される。ここで、合成パラメータとして、対象物検出用画像を生成するに当たって適切な値を持つものを採用される。したがって、対象物検出部が対象物検出処理を実行するうえで適した対象物検出用画像を生成することができ、対象物検出用画像から対象物を正確に検出することができる。
(2)人間が視認するための画像を表示するモニタを更に備え、前記合成処理部は、前記対象物検出用画像に加えて、前記モニタに出力するための視認用画像を生成することが好ましい。
この構成によれば、対象物検出用画像に加えて視認用画像が生成される。そのため、ユーザの視認に適した画像と対象物の検出に適した画像とを生成することができる。
(3)前記合成処理部は、前記検出部の検出結果に応じて前記視認用画像と前記対象物検出用画像との合成パラメータを独立に変更することが好ましい。
この構成によれば、周囲環境に応じて視認用画像の合成パラメータと対象物検出用画像の合成パラメータとが独立に変更されるため、視認に適した視認用画像を生成し、且つ、対象物検出処理に適した対象物検出用画像を生成することができる。
(4)前記合成処理部は、前記視認用画像を生成する視認用画像生成回路と、前記対象物検出用画像を生成する対象物検出用画像生成回路とを備え、前記視認用画像生成回路と前記対象物検出用画像生成回路とは回路の一部が共用されていることが好ましい。
この構成によれば、視認用画像生成回路と対象物検出用画像生成回路との一部が共用されているため、回路規模の縮小を図ることができる。
(5)前記検出部は、前記周囲環境が昼間、夕暮れ、及び夜間のいずれに該当するかを検出し、前記第1撮像手段は、可視光カメラであり、前記第2撮像手段は、赤外カメラであり、前記合成処理部は、前記検出部により昼間が検出された場合、前記第2出力画像に現れる前記対象物の輝度範囲外における前記第1出力画像のコントラストが、前記第2出力画像に現れる前記対象物の輝度範囲内における前記第1出力画像のコントラストよりも弱くなるような所定の合成パラメータを用いて前記対象物検出用画像を生成し、前記検出部により夕暮れが検出された場合、前記対象物の輝度範囲のコントラストが強調された第2出力画像に前記第1出力画像が重畳されるような所定の合成パラメータを用いて前記対象物検出用画像を生成し、前記検出部により夜間が検出された場合、前記夕暮れの場合よりも前記第1出力画像の重み付けが低くされ、且つ、前記第2出力画像において前記対象物の輝度範囲のコントラストが前記夕暮れの場合よりも強調されるような所定の合成パラメータを用いて前記対象物検出用画像を生成することが好ましい。
この構成によれば、昼間、夕暮れ、夜間のシーンに応じて適切な合成パラメータが選択されて対象物検出用画像が生成されるため、シーンによらず対象物検出用画像から対象物を正確に検出することができる。
(6)前記第1出力画像は、各画素がMビットのデータで構成され、前記第2出力画像は、各画素がNビットのデータで構成され、前記合成処理部は、前記第1出力画像の下位m(m<M)ビットを0、前記第2出力画像の下位n(n<N)ビットを0としたときの前記第1、第2出力画像の上位ビットの組のそれぞれにおける前記対象物検出用画像の値を予め記憶する記憶部と、前記第1、第2出力画像の値に対応する前記対象物検出用画像の値の複数の近似値をそれぞれ記憶する前記記憶部のアドレス値を算出し、算出したアドレス値を指定して前記記憶部から前記複数の近似値を出力させるアドレス生成部と、前記記憶部から出力された複数の近似値を、前記第1出力画像の下位mビット、前記第2出力画像の下位nビットに基づいて補間し、前記対象物検出用画像の値を算出する補間部とを備えることが好ましい。
この構成によれば、第1出力画像の下位mビット、第2出力画像の下位nビットの組のそれぞれの対象物検出用画像の値が記憶部に記憶されているため、第1出力画像のMビット、第2出力画像のNビットの組のそれぞれの対象物検出用画像の値を記憶部に記憶させる場合に比べて、記憶部のメモリ容量を削減することができる。
(7)前記記憶部は、前記第1出力画像の下位mビットを0、前記第2出力画像の下位nビットを0としたときの前記第1、第2出力画像の上位ビットの組のそれぞれにおける視認用画像の値を更に記憶し、前記アドレス生成部は、前記第1、第2出力画像の値に対応する前記視認用画像の値の複数の近似値をそれぞれ記憶する前記記憶部のアドレス値を算出し、算出したアドレス値を指定して前記記憶部から前記複数の近似値を更に出力させ、前記補間部は、前記記憶部から出力された複数の近似値を、前記第1出力画像の下位mビットの値と、前記第2出力画像の下位nビットの値とに基づいて補間し、前記視認用画像の値を更に算出することが好ましい。
この構成によれば、第1出力画像の下位mビット、第2出力画像の下位nビットの組のそれぞれにつき、対象物検出用画像と視認用画像との値が記憶部に記憶されているため、第1出力画像のMビット、第2出力画像のNビットの組のそれぞれの対象物検出処理用の画像と視認用画像との値を記憶部に記憶させる場合に比べて、記憶部のメモリ容量を削減することができる。
(8)前記第1撮像手段は、可視光カメラであり、前記第2撮像手段は、近赤外カメラ、中赤外カメラ、遠赤外カメラのいずれかであることが好ましい。
この構成によれば、第1出力画像として可視画像が用いられ、第2出力画像として、近赤外画像、中赤外画像、及び遠赤外画像のいずれかが用いられる。
本発明によれば、対象物検出部が対象物検出処理を実行するうえで適した対象物検出用画像を生成することができ、対象物検出用画像から対象物を正確に検出することができる。また、視認用画像と対象物検出用画像との合成パラメータを個別に用いて両画像が生成されているため、人間の視認に適した画像と、対象物検出処理に適した画像とを個別に生成することができる。
本発明の実施の形態1による物体検出装置の構成を示すブロック図である。 本発明の実施の形態1における合成処理部の概略構成を示したブロック図である。 2次元LUTの詳細な構成を示すブロック図である。 本発明の実施の形態1における2次元LUTのメモリ空間の概念図である。 本発明の実施の形態1における2次元LUTの設定例を示した概念図であり、(A)は昼間の2次元LUTを示し、(B)は夕暮れの2次元LUTを示し、(C)は夜間の2次元LUTを示している。 本発明の実施の形態2による物体検出装置のブロック図である。 本発明の実施の形態2による合成処理部の詳細な構成を示したブロック図である。 本発明の実施の形態2による2次元LUTの詳細な構成を示すブロック図である。 本発明の実施の形態2による検出用LUTの設定例を示した概念図であり、(A)は昼間、(B)は夕暮れ、(C)は夜間の検出用LUTを示す。 本発明の実施の形態2による視認用LUTの設定例を示した概念図であり、(A)は昼間、(B)は夕暮れ、(C)は夜間の視認用LUTを示す。 本発明の実施の形態2による色変調LUTの設定例を示した概念図であり、(A)は昼間、(B)は夕暮れ、(C)は夜間の色変調LUTを示す。
(実施の形態1)
図1は、本発明の実施の形態1による物体検出装置の構成を示すブロック図である。本物体検出装置は、可視カメラ110(第1撮像手段の一例)、遠赤外カメラ120(第2撮像手段の一例)、視差補正部130、検出部140、合成処理部150、対象物検出部160、及びCPU170(検出部の一例)を備えている。
この物体検出装置は、例えば、自動車等の移動体に取り付けられ、移動体の周辺の対象物を検出するものである。対象物としては、種々の物体を採用することができ、例えば、自動車や人間や動物や自転車等を採用することができるが、以下の説明では、人間を採用する。
可視カメラ110は、周囲環境を撮影し、可視画像(第1出力画像の一例)を取得する。可視画像としては、カラー画像を採用してもよいし、モノクロ画像を採用してもよい。また、可視カメラ110としては所定のフレームレートで周囲環境を撮影する動画カメラを採用してもよいし、静止画を撮影する静止画カメラを採用してもよい。
遠赤外カメラ120は、周囲環境を撮影し、遠赤外画像(第2出力画像の一例)を取得する。遠赤外画像は、温度の高い箇所ほど高輝度になる温度画像を採用することができる。ここで、可視画像、遠赤外画像としては、所定行×所定列で所定ビットの画素がマットリックス状に配列された画像データを採用することができる。以下の説明では、説明の便宜上、各画素のビット数を8ビットとして説明するが、これは一例であり、16ビット、32ビット等、他のビット数を採用してもよい。
視差補正部130は、可視画像と遠赤外画像とに視差がある場合、その視差を補正する。ここで、視差補正部130は、例えば可視カメラ110と遠赤外カメラ120との光軸のずれ量から視差の補正データを予め求めておき、その補正データを用いて可視画像と赤外画像との視差を補正すればよい。なお、可視画像と赤外画像とに視差がなければ、視差補正部130は省いても良い。
検出部140は、撮像時の周囲環境を検出するために、可視画像及び遠赤外画像のそれぞれの評価値を算出する。可視画像の評価値としては、例えば、可視画像の輝度分布を求め、求めた輝度分布から得られるAE評価値を採用すればよい。例えば、可視画像の輝度分布のピークの輝度値やピークの輝度値の平均値等をAE評価値として採用すればよい。また、可視画像の評価値としては、可視画像中のエッジ検出量を採用してもよい。ここで、昼間の可視画像は、周囲環境が明るいため夜間の可視画像に比べてエッジが多く現れる。そのため、エッジ検出量が大きいほど周囲環境が明るいと判定することができる。エッジ検出量としては、例えば、可視画像にハイパスフィルタを適用してエッジを抽出し、抽出したエッジの輝度の平均値や、エッジの画素数等を採用すればよい。
遠赤外画像の評価値としては、遠赤外画像の輝度分布を求め、求めた輝度分布のピークの輝度値やピークの平均値を採用すればよい。
なお、検出部140としては、照度センサを採用してもよい。この場合、検出部140は、周囲環境の照度データを測定し、測定した照度データを評価値として採用すればよい。
合成処理部150は、CPU170により検出された周囲環境の検出結果に応じて可視画像と遠赤外画像とを合成するための合成パラメータを変更し、変更した合成パラメータを用いて可視画像と遠赤外画像とを合成し、対象物検出用画像を生成する。
ここで、対象物検出用画像とは、視認に適した画像ではなく、対象物検出部160が対象物を検出するのに適した画像のことであり、例えば対象物の情報が強調され、対象物以外の物体の情報が抑制された画像が採用される。
本実施の形態では、合成処理部150は、例えば、昼間、夕暮れ、及び夜間にそれぞれに対して予め定められた合成パラメータを保持しており、検出部140により算出された評価値が昼間、夕暮れ、又は夜間を示すかに応じて該当する合成パラメータを選択し、可視画像と遠赤外画像とを合成する。
対象物検出部160は、合成処理部150により生成された対象物検出用画像が入力され、既知の形状認識手法により対象物検出用画像に含まれる対象物を検出し、対象物の座標及び大きさの情報を図略の内部レジスタに保存する。
なお、対象物検出部160により検出された対象物の座標及び大きさの情報は、CPU170によって図略のECUに供給され、ECUが運転者に注意を喚起する必要があるか否かを判定するために使用される。
また、2次元LUTの設定を変更すると対象物検出用画像の特徴も変わるため、対象物検出部160は、周囲環境に応じて対象物検出処理に使用するパラメータやアルゴリズムを適宜変更してもよい。
CPU170は、検出部140により算出された評価値から周囲環境が昼間、夕暮れ、又は夜間を示すかを検出し、検出結果を合成処理部150に通知する。ここで、CPU170は、例えば、可視画像の評価値を用いて、周囲環境を判定する。具体的には、CPU170は、可視画像の評価値が所定の第1閾値以上であれば、昼間と判定し、可視画像の評価値が所定の第1閾値未満且つ第2閾値(第2閾値<第1閾値)以上である場合、夕暮れと判定し、可視画像の評価値が第2閾値未満であれば、夜と判定すればよい。
なお、CPU170は、可視画像の評価値に加えて遠赤外画像の評価値を用いて周囲環境を判定してもよい。この場合、CPU170は、例えば可視画像の評価値と遠赤外画像の評価値とを所定の重み値で重み付け加算し、得られた評価値が所定の第1閾値以上であれば昼間であると判定し、得られた評価値が所定の第1閾値未満且つ第2閾値以上であれば夕暮れと判定し、得られた閾値が所定の第2閾値未満であれば夜間と判定すればよい。
なお、可視画像の評価値のみを用いて周囲環境が判定される場合、検出部140は遠赤外画像の評価値を算出しなくてもよい。
図2は、本発明の実施の形態1における合成処理部150の概略構成を示したブロック図である。合成処理部150は、昼間、夕暮れ、及び夜間のそれぞれに対応する3種類の2次元LUT210、210、210と、LUT選択部220とを備える。
LUT選択部220は、CPU170から周囲環境の検出結果(昼間、夕暮れ、又は夜間)が入力され、周囲環境に応じた2次元LUT210を選択し、選択したLUTに可視画像及び遠赤外画像を入力させる。
2次元LUT210は、可視画像と遠赤外画像とが1画素ずつ入力され、対象物検出用画像を1画素ずつ出力する。各2次元LUT210は周囲環境に応じた合成パラメータによって可視画像と遠赤外画像とを合成することで得られる対象物検出用画像の値を予め記憶している。なお、可視画像として、カラー画像が採用される場合、2次元LUT210にはカラー画像の輝度成分が入力される。
例えば、昼間に対応する2次元LUT210は、昼間に適した合成パラメータで可視画像と遠赤外画像とが合成された対象物検出用画像の値を予め記憶し、夕暮れに対応する2次元LUT210は、夕暮れに適した合成パラメータで可視画像と遠赤外画像とが合成された対象物検出用画像の値を予め記憶している。
ここで、合成パラメータとしては、例えば、可視画像及び遠赤外画像の合成する際の比率が採用され、可視画像の合成パラメータをα、遠赤外画像の合成パラメータをβとすると、α+β=1、且つ0≦α、β≦1の値が採用される。そして、α、βは、周囲環境別に可視画像の値及び遠赤外画像の値の組に応じた値を持ち、2次元LUT210はこのα、βで可視画像及び遠赤外画像を重み付け加算した値を対象物検出用画像の値として記憶している。
なお、可視画像及び遠赤外画像の合成は、必ずしも重み付け加算に限定されるものではなく、α+β=1に制約されるものではない。すなわち、2次元LUT210は、可視画像の画素値と遠赤外画像の画素値との組に応じた所定の値を対象物検出用画像の値として記憶していればよい。
図3は、2次元LUT210の詳細な構成を示すブロック図である。2次元LUT210は、アドレス生成部310、LUT用RAM320、及びLUT補間部330を備えている。
本実施の形態では、可視画像は各画素が8bit、遠赤外画像は各画素が8bit、対象物検出用画像は各画素が8bitで表される。そのため、可視画像の全ビットパターンと遠赤外画像の全ビットパターとの組からなる全点の対象物検出用画像を2次元LUT210に保持させた場合、2×2×8bit=64KB(キロバイト)のメモリが必要になりハードウェアと設定データ量とが大きくなってしまう。
そこで、本実施の形態では、可視画像と遠赤外画像とのそれぞれにおいて下位4bitを0としたときの17点×17点のLUT値を2次元LUT210に保持させる。そして、LUT補間部330により下位4bitの値を用いて2次元LUT210で保持されたLUT値を補間させる。これにより、289(=17×17)B(バイト)のメモリで2次元LUT210を構成することができ、2次元LUT210のメモリ容量を削減することができる。
図4は、本発明の実施の形態1における2次元LUT210のメモリ空間の概念図である。図4に示すメモリ空間は縦軸が遠赤外画像を示し、横軸が可視画像を示している。また、メモリ空間は、縦軸及び横軸の値が16増大する毎に格子点PKが設定されている。本実施の形態では、可視画像及び遠赤外画像の上位4ビットの値に対応させるために、縦軸及び横軸はそれぞれ16、32、・・・、256というように16ずつ区切られ、区切られた縦軸及び横軸の交点に格子点PKが設定されている。各格子点PKにはLUT値、つまり、赤外画像及び可視画像の下位4bitの値を0としたときの対象物検出用画像の値が保持されている。
図3に示すLUT用RAM320はLUT_00、LUT_01、LUT_10、及びLUT_11の4つのLUTにより構成されている。図4に示すようにLUT_00〜LUT_11は、それぞれ、図4に示す格子点PKのLUT値を分担して記憶している。図4の例では、LUT_00は可視画像の上位4bitの値が0、32、64、・・・、遠赤外画像の上位4bitの値が0、32、64、・・・の各格子点PKからなる格子点群G_00のLUT値を記憶している。
また、LUT_01は、可視画像の上位4bitの値が16、48、80、・・・、遠赤外画像の上位4bitの値が0、32、64、・・・の各格子点PKからなる格子点群G_01のLUT値を記憶している。
また、LUT_10は、可視画像の上位4bitの値が0、32、64、・・・、遠赤外画像の上位4bitの値が16、48、80、・・・の各格子点PKからなる格子点群G_10のLUT値を記憶している。
また、LUT_11は、可視画像の上位4bitの値が16、48、80、・・・、遠赤外画像の上位4bitの値が16、48、80・・・の各格子点PKからなる格子点群G_11のLUT値を記憶している。
このように、LUT_00〜LUT_11は、4つの格子点群G_00〜G_11のうちのいずれかの格子点群が割り付けられ、割り付けられた格子点群に含まれる各格子点のLUT値を記憶している。
アドレス生成部310は、図4に示すメモリ空間において、8bitの可視画像と8bitの赤外画像との交点である対象点PCの4近傍の格子点PK1〜PK4を特定し(この例では対象点PCの左下、右下、右上、左上がそれぞれ格子点PK1〜PK4とされている。)、特定した格子点PK1〜PK4がそれぞれどの格子点群G_00〜G_11に属するかを判定し、格子点PK1〜PK4のアドレス値を対応するLUT_00〜LUT_11に出力する。
図4の例では、対象点PCは可視画像の値が16〜32の範囲に属し、遠赤外画像の値が32〜48の範囲に属している。そのため、格子点PK1、PK2、PK3、PK4はそれぞれ、格子点群G_01、G_00、G_10、G_11に属すると判定される。よって、LUT_00には格子点PK2の縦軸及び横軸の値(32、32)がアドレス値AD_00として出力され、LUT_01には格子点PK1の縦軸及び横軸の値(16、32)がアドレス値AD_01として出力され、LUT_10には格子点PK3の縦軸及び横軸の値(32、48)がアドレス値AD_10として出力され、LUT_11には格子点PK4の縦軸及び横軸の値(16、48)がアドレス値AD_11として出力される。
LUT_00〜LUT_11は、それぞれ、アドレス値AD_00〜AD_11が入力され、入力されたアドレス値AD_00〜AD_11に対応するLUT値をLUT補間部330に出力する。これにより、格子点PK1〜PK4の8bitのLUT値がLUT補間部330に供給される。
図4の例では、格子点PK1〜PK4の8bitのLUT値がLUT_01、LUT_00、LUT_10、LUT_11から出力される。これにより、遠赤外画像の下位4ビットを0、可視画像の下位4ビットを0としたときの対象点PCの4近傍の格子点PK1〜PK4のLUT値(近似値)が得られる。
図3に戻り、LUT補間部330は、視差補正部130(図1参照)から可視画像及び遠赤外画像の下位4bitが入力され、入力された下位4bitのデータを用いて、格子点PK1〜PK4のLUT値(近似値)を補間し、対象点PCのLUT値を求める。
図4の例では、対象点PCの左下、右下、右上、左上が格子点PK1〜PK4とされている。そのため、LUT補間部330は、対象点PCの可視画像の下位4bitをm1、遠赤外画像の下位4bitをm2とすると、m1とm2とを用いて格子点PK1〜PK4のLUT値を線形補間すればよい。
線形補間の手法としては、例えば、対象点PCの値をLUT_PC、格子点PK1〜PK4のLUT値をLUT_PK1〜LUT_PK4とすると、LUT_PK1及びLUT_PK2をm1で線形補間した値と、LUT_PK3及びLUT_PK4をm1で線形補間した値とを、m2で線形補間した値を対象点PCの値として求めればよい。なお、この手法は一例にすぎず、他の手法を用いて対象点PCの値を求めればよい。
なお、アドレス生成部310は、LUT_00〜LUT_11から出力されたLUT値が格子点PK1〜PK4のいずれに該当するかを特定するためのデータをLUT補間部330に供給し、LUT補間部330にLUT_00〜LUT_11から出力されたLUT値が格子点PK1〜PK4のいずれに該当するかを特定させればよい。
図5は、本発明の実施の形態1における2次元LUT210の設定例を示した概念図であり、(A)は昼間の2次元LUT210を示し、(B)は夕暮れの2次元LUT210を示し、(C)は夜間の2次元LUT210を示している。図5において、横軸は可視画像を示し、縦軸は赤外画像を示し、高さ軸は対象物検出用画像を示している。
<昼間>
昼間では、周囲環境が明るいため、可視画像は対象物検出処理に有効であるが、遠赤外画像は、対象物と背景の物体との温度差が明確に現れないケースも多く、この場合、対象物のコントラストが低くなるため、対象物検出処理に有効ではない。そこで、昼間では、可視画像を重視して対象物検知用画像を生成する。
但し、遠赤外画像において対象物を表す輝度範囲(以下、“対象物FIR輝度範囲”と記述する。)以外の範囲は、検出対象外であるため、可視画像において対象物FIR輝度範囲のコントラストを弱めることが好ましい。
そこで、合成処理部150は、昼間では、対象物FIR輝度範囲外における可視画像のコントラストが、対象物FIR輝度範囲における可視画像のコントラストよりも弱くなるような合成パラメータを用いて対象物検出用画像を生成する。
図5(A)に示す2次元LUT210は、可視画像が増大するにつれて、対象物検出用画像が増大しているが、対象物FIR輝度範囲における可視画像の傾きは対象物FIR輝度範囲外における可視画像の傾きよりも大きくされており、対象物FIR輝度範囲外における可視画像のコントラストが、対象物FIR輝度範囲における可視画像のコントラストが弱められていることが分かる。
なお、対象物FIR輝度範囲としては、検出対象となる対象物に応じて予め定められた輝度範囲が採用されている。遠赤外画像は温度に応じた輝度値を持つため、対象物が持つ温度に相当する輝度範囲を対象物FIR輝度範囲として採用すればよい。
これにより、対象物以外の画像のコントラストが弱められた対象物検出用画像が生成され、昼間において対象物を正確に検出することができる対象物検出用画像を生成することができる。
<夕暮れ>
夕暮れでは、可視画像、遠赤外画像とも対象物検出用処理に有効である。そこで、合成処理部150は、夕暮では、遠赤外画像において対象物FIR輝度範囲のコントラストが強調され、当該遠赤外画像に可視画像が重畳されるような所定の合成パラメータを用いて対象物検出用画像を生成する。
図5(B)に示すように、対象物検出用画像は、可視画像が増大するにつれて値が増大していることが分かる。そして、遠赤外画像は、対象物FIR輝度範囲の領域で可視画像方向の傾きが他の範囲の傾きよりも急峻となっており、且つ、オフセットが加算されており、対象物FIR輝度範囲が他の範囲より高コントラストで明るくなっていることが分かる。
これにより、可視画像と遠赤外画像とがバランスよく合成され、且つ、対象物FIR輝度範囲のコントラストが高く背景より明るく浮き出た対象物検出用画像が生成され、夕暮れにおいて対象物を正確に検出することができる対象物検出用画像を生成することができる。
<夜間>
夜間では、周囲環境が暗いため、可視画像から対象物を検出することが困難である。そこで、合成処理部150は、夜間では、夕暮れの場合よりも可視画像の重み付けが低くされ、且つ、遠赤外画像において対象物FIR輝度範囲のコントラストが夕暮れの場合よりも強調されるような所定の合成パラメータを用いて対象物検出用画像を生成する。
図5(C)に示す2次元LUT210では、遠赤外画像が増大するにつれて対象物検出用画像が増大しているが、可視画像が増大しても対象物検出用画像は増大しておらず、遠赤外画像が可視画像よりも重視されて対象物検出用画像が生成されていることが分かる。そして、遠赤外画像において対象物FIR輝度範囲の傾きが対象物FIR輝度範囲外の傾きよりも急峻であり、対象物FIR輝度範囲のコントラストが強調されていることが分かる。また、対象物FIR輝度範囲の傾きが夕暮れの場合よりもより急峻になっており、夜間においては夕暮れの場合よりも対象物FIR輝度範囲の遠赤外画像のコントラストがより強められていることが分かる。
これにより、遠赤外画像が重視され、且つ、遠赤外画像において対象物FIR輝度範囲のコントラストが強調された対象物検出用画像が生成され、夜間において対象物を正確に検出することができる対象物検出用画像を生成することができる。
このように、本実施の形態による物体検出装置によれば、昼間、夕暮れ、夜間といった周囲環境に応じて2次元LUT210が選択され、選択された2次元LUT210を用いて対象物検出用画像が生成されている。そのため、周囲環境が変化しても対象物を正確に検出することができる対象物検出用画像を生成することができる。
なお、図3の説明では、2次元LUT210には可視画像及び遠赤外画像の下位4bitを0としたときの各格子点のLUT値を持たせたが、下位4bitは一例であり、下位3bit、下位2bit、下位7bit〜5bitを0としたときの各格子点のLUT値を持たせてもよい。
(実施の形態2)
実施の形態2による物体検出装置は、対象物検出用画像に加えて更に視認用画像を生成することを特徴とする。図6は、本発明の実施の形態2による物体検出装置のブロック図である。
図6に示す物体検出装置は、図1の構成に加えて、更に、オーバーレイ部180及びモニタ190を備えている。なお、本実施の形態において、実施の形態1と同じものは説明を省略する。
本実施の形態において、可視カメラ110は、可視画像としてカラー画像を出力する。ここで、カラー画像としては、例えばYCC422のカラー画像が採用される。YCC422のカラー画像とは、輝度成分(Y)4画素に対して2種類の色成分が2画素ずつ含まれる画像である。なお、2種類の色成分としては例えば、Cr(赤)、Cb(青)の色成分を採用することができる。なお、カラー画像として採用されたYCC422は一例にすぎず、輝度成分と色成分とが異なる比率で含まれるカラー画像を採用してもよい。
合成処理部150は、輝度成分及び遠赤外画像を合成用パラメータで合成し、対象物検出用画像に加えて視認用画像を生成する。オーバーレイ部180は、対象物検出部160により検出された対象物の位置及び大きさの情報を用いて、視認用画像にユーザの注意を喚起するためのグラフィックスを重畳し、モニタ190に出力する。ここで、注意を喚起するためのグラフィックスとしては、対象物の輪郭を強調表示する枠線等を採用することができる。これにより、ユーザは対象物を容易に認識することができる。モニタ190は、例えば、液晶パネルや有機ELパネル等のモニタにより構成され、オーバーレイ部180によってグラフィックスが重畳された視認用画像を表示する。
図7は、本発明の実施の形態2による合成処理部150の詳細な構成を示したブロック図である。合成処理部150は、昼間、夕暮れ、夜間に応じた3種類の2次元LUT710、710、710、色変調部720、及びLUT選択部730を備えている。
合成処理部150は、8bitの可視画像の輝度成分と8bitの遠赤外画像とを入力とする2次元LUT710を用い、可視画像の輝度成分と遠赤外画像との組み合わせに対して任意の値を出力できる構成となっている。
LUT選択部730は、実施の形態1と同様、CPU170から出力される検出結果に応じて、昼間、夕暮れ、夜間のいずれかの2次元LUT710を選択する。
色変調部720は、可視画像のCbCr色成分が供給され、LUT710から供給される色変調係数を用いてCbCr色成分を変調し、CbCr´色成分を出力する。
視認用画輝度データは、視認用画像の輝度成分である。CbCr´色成分と視認用輝度データとでYCC422のカラー画像からなる視認用画像が構成される。ここで、視認用画像は、対象物の視認性が高められた画像を指す。
図8は、本発明の実施の形態2による2次元LUT710の詳細な構成を示すブロック図である。2次元LUT710は、アドレス生成部810、LUT用RAM820、マルチプレクサMX、及びLUT補間部840を備えている。
LUT用RAM820は、実施の形態1と同様、4つのLUT_00〜LUT_11を備えている。LUT_00〜LUT_11は、それぞれ、色変調LUT、視認用LUT、検出用LUTの3種類のLUTを記憶している。なお、LUT_00〜LUT_11の色変調LUT、視認用LUT、検出用LUTを区別して表す場合は、色変調LUT_00〜LUT_11、視認用LUT_00〜LUT_11、検出用LUT_00〜LUT_11と表す。
色変調LUT、視認用LUT、検出用LUTのメモリ空間は図4と同じである。すなわち、色変調LUT、視認用LUT、検出用LUTのメモリ空間は、それぞれ、縦軸が遠赤外画像、横軸が可視画像の輝度成分に対応し、縦軸及び横軸が16、32、・・・、256というように16ずつ区切られ、区切られた縦軸及び横軸の交点に格子点PKが設定されている。そして、色変調LUT、視認用LUT、検出用LUTは、それぞれ、各格子点のLUT値、つまり、赤外画像及び可視画像の輝度成分の下位4bitの値を0としたときの色変調係数、視認用輝度データ、及び対象物検出用データを記憶している。
そして、色変調LUT_00〜LUT_11、視認用LUT_00〜LUT_11、及び検出用LUT_00〜LUT_11は、それぞれ、図4に示すように格子点PKのLUT値を分担して記憶している。つまり、2次元LUT710には、色変調係数、視認用輝度データ、対象物検出用データの3種のデータが、それぞれ独立に設定されている。
2次元LUT710に入力される可視画像の輝度成分は8bit、遠赤外画像は8bitである。そのため、色変調LUT、視認用LUT、検出用LUTが保持するLUT値をそれぞれ8bitとすると、可視画像の輝度成分の全ビットパターンと遠赤外画像の全ビットパターンとの組からなる全点のLUT値を保持するには、2×2×3×8bit=192KB(キロバイト)のメモリが必要になりハードウェアとデータ量とが大きくなってしまう。
そこで、本実施の形態では、可視画像の輝度成分と遠赤外画像とのそれぞれにおいて下位4bitを0としたときの17点×17点のLUT値を2次元LUT710に保持させる。つまり、色変調LUT、視認用LUT、検出用LUTのそれぞれに、17点×17点のLUT値を保持させる。そして、LUT補間部840により下位4bitのデータを用いて色変調LUT、視認用LUT、検出用LUTで保持されたLUT値を補間させる。これにより867(=17×17×3)B(バイト)のメモリで2次元LUT710を構成することができ、2次元LUT710のメモリ容量を削減することができる。
アドレス生成部810は、実施の形態1と同様、図4に示す対象点PCの4近傍の格子点PK1〜PK4を特定し、特定した格子点PK1〜PK4がそれぞれどの格子点群G_00〜G_11に属するかを判定し、格子点PK1〜PK4のアドレス値を対応するLUT_00〜LUT_11に出力する。
マルチプレクサMXは、LUT_00〜LUT_11のそれぞれに対応する4つのマルチプレクサMX_00〜MX_11を備えている。そして、マルチプレクサMXは、例えばCPU170から出力されるLUT選択信号を受け、色変調LUT、視認用LUT、検出用LUTのいずれか1つのLUTを選択し、選択したLUTが保持するLUT値をLUT補間部840に出力する。
LUT補間部840は、実施の形態1と同様、視差補正部130(図1参照)から可視画像の輝度成分及び遠赤外画像の下位4bitが入力され、入力された下位4bitのデータを用いて、格子点PK1〜PK4のLUT値を補間し、対象点PCの値を求める。
図8に示す2次元LUT710において、アドレス生成部810、色変調LUT、視認用LUT、マルチプレクサMX、及びLUT補間部840により視認用画像生成回路が構成されている。また、アドレス生成部810、検出用LUT、マルチプレクサMX、及びLUT補間部840により対象物検出用画像生成回路が構成されている。
つまり、本実施の形態では、視認用画像生成回路及び対象物検出用画像生成回路において、アドレス生成部810、マルチプレクサMX、及びLUT補間部840が共用されている。これにより、視認用画像生成回路及び対象物検出用画像生成回路の回路規模の縮小が図られている。
次に、2次元LUT710の動作について説明する。まず、アドレス生成部810に可視画像の輝度成分と遠赤外画像とが入力される。また、このとき、LUT補間部840には、可視画像の輝度成分の下位4bitと遠赤外画像の下位4bitとが入力される。アドレス生成部810は、入力された可視画像の輝度成分と遠赤外画像とから対象点PCの4近傍の格子点PK1〜PK4を特定する。次に、マルチプレクサMX_00〜MX_11のそれぞれにLUT選択信号が入力される。ここで、マルチプレクサ_00〜MX_11には、まず、色変調LUT、次に、視認用LUT、その次に検出用LUTを選択するためのLUT選択信号が入力される。
したがって、LUT補間部840には、まず、対象点PCを色変調係数としたときの格子点PK1〜PK4が入力され、次に、対象点PCを視認用合成データとしたときの格子点PK1〜PK4が入力され、その次に、対象点PCを対象物検出用データとしたときの格子点PK1〜PK4が入力される。
そして、LUT補間部840は、実施の形態1と同様、可視画像の輝度成分の下位4bitと遠赤外画像の下位4bitとの値を用いて、格子点PK1〜PK4を例えば線形補間して色変調係数、視認用合成データ、及び対象物検出用データを順次に生成する。このとき、色変調係数は色変調部720に出力され、視認用合成データはオーバーレイ部180に出力され、対象物検出用データは対象物検出部160に出力される。
図9は、本発明の実施の形態2による検出用LUTの設定例を示した概念図であり、(A)は昼間、(B)は夕暮れ、(C)は夜間の検出用LUTを示す。図10は、本発明の実施の形態2による視認用LUTの設定例を示した概念図であり、(A)は昼間、(B)は夕暮れ、(C)は夜間の視認用LUTを示す。図11は、本発明の実施の形態2による色変調LUTの設定例を示した概念図であり、(A)は昼間、(B)は夕暮れ、(C)は夜間の色変調LUTを示す。なお、図9(A)〜(C)において、横軸は可視画像の輝度成分を示し、縦軸は遠赤外画像を示し、高さ軸は対象物検出用データを示している。図10(A)〜(C)において、横軸は可視画像の輝度成分を示し、縦軸は遠赤外画像を示し、高さ軸は視認用輝度データを示している。図11(A)〜(C)において、横軸は可視画像の輝度成分を示し、縦軸は遠赤外画像を示し、高さ軸は色変調係数を示している。
図9(A)〜(C)に示す検出用LUTは、図5に示す対象物検出画像の2次元LUT210と同じであるため、説明を省略する。
視認用画像としては、人間が見やすい画像を出力する。例えば、本物体検出装置を車載用途として使用した場合、人物や自動車等の対象物のみならず、信号や車線等の周囲環境の情報も表示する必要がある。
<昼間>
昼間において、遠赤外画像は全体的に輝度が高く、周囲環境を視認するには不適当である。一方、可視画像は対象物及び周囲環境も明瞭に現れているため視認には適している。そこで、図10(A)の昼間の視認用LUTでは、可視画像の輝度成分が増大するにつれて、視認用輝度データが増大しているが、遠赤外画像が増大するにつれて視認用輝度データは増大していない。そのため、合成処理部150は、昼間では、可視画像の輝度成分のみを用いて視認用輝度データが生成されるような所定の合成パラメータを用いて視認用輝度データを生成する。
また、昼間では、色成分を補正する必要がないため、図11(A)の昼間の色変調LUTでは、可視画像の輝度成分及び遠赤外画像によらず、色変調係数が一定となっている。したがって、合成処理部150は、昼間では、可視画像の輝度成分及び遠赤外画像によらず一定の値(例えば1.0)を持つ色変調係数を生成する。
<夕暮れ>
夕暮れでは、可視画像の輝度成分はγ補正を行うことで視認性を高める。一方、遠赤外画像では、対象物が背景から浮き出してくる。そのため、可視画像の輝度成分に遠赤外画像を重畳して対象物を強調させる。よって、図10(B)に示す夕暮れの視認用LUTでは、可視画像の輝度成分が増大するにつれて、視認用輝度データが上に凸のγカーブを描いて増大し、且つ、遠赤外画像が増大するにつれて視認用輝度データが緩やかなカーブを描いて増大している。したがって、合成処理部150は、夕暮れの場合、可視画像の輝度成分に対してγ補正を行い、且つγ補正を行った可視画像の輝度成分に遠赤外画像が重畳されるような所定の合成パラメータを用いて視認用輝度データを生成する。
また、図11(B)に示す夕暮れの色変調LUTでは、対象物FIR輝度範囲で可視画像の色成分が強調されるように、遠赤外画像の対象物FIR輝度範囲の色変調係数が大きく設定されている。よって、合成処理部150は、夕暮れでは、遠赤外画像が対象物FIR輝度範囲に入る部分で可視画像の色を強調した視認用画像を生成する。これにより、対象物の視認性が向上する。
<夜間>
夜間において、可視画像では対象物の視認性が低下するが、遠赤外画像では対象物の視認性が増大する。可視画像に含まれる信号や車線等の情報は視認用画像には必要である。そのため、夜間では、夕暮れの場合よりも遠赤外画像の重み付けが可視画像よりも高く設定して可視画像に遠赤外画像を重畳する。
図10(C)に示す夜間の視認用LUTでは、可視画像の輝度成分が増大するにつれて、高輝度側に感度を持たせるために視認用輝度データが夕暮れの場合よりも緩やかな上に凸のγカーブを描いて増大している。また、遠赤外画像が増大するにつれて視認用輝度データが夕暮れの場合よりも大きな傾きで増大している。よって、合成処理部150は、夜間の場合、可視画像の輝度成分を夕暮れの場合よりも緩いγカーブでγ補正し、且つγ補正を行った可視画像の輝度成分に夕暮れの場合よりも大きな重み付けで遠赤外画像が重畳されるような所定の合成パラメータを用いて視認用輝度データを生成する。
また、夜間では、色成分を補正する必要がないため、図11(C)に示す夜間の色変調LUTでは、昼間と同様、色変調係数が一定となっている。したがって、合成処理部150は、夜間では、可視画像の輝度成分及び遠赤外画像によらず一定の値(例えば1.0)を持つ色変調係数を生成する。
なお、実施の形態1、2では、第2撮像手段として遠赤外カメラを採用し、第2出力画像として遠赤外画像を採用したが、これに限定されない。例えば、第2撮像手段として、近赤外カメラ、中赤外カメラを採用し、第2出力画像として、近赤外画像、中赤外画像を採用してもよい。
また、実施の形態1、2では、合成処理部150が予め定められた合成パラメータを保存するものとしたが、検出部140により算出された評価値に基づき、CPU170が合成パラメータを生成して、RAMで構成される合成処理部150のLUTに合成パラメータを設定するようにしてもよい。この場合、評価値に基づく合成パラメータの生成に必要なデータが予めCPU170に設定される。
また、実施の形態1、2では、可視画像及び遠赤外画像の各画素のビット数を同じにしたが、これに限定されず、可視画像をMビット、遠赤外画像をNビットというように異なるビット数にしてもよい。また、実施の形態1、2では、可視画像及び遠赤外画像の下位ビットのビット数を同じにしたが、これに限定されず、可視画像の下位ビットをm(m<M)ビット、遠赤外画像の下位ビットをn(n<N)ビットとし、異なるビット数にしてもよい。この場合、2次元LUT210、710には、可視画像の上位M−mビット、遠赤外画像の上位N−nビットのそれぞれの組に対するLUT値を記憶させればよい。
110 可視カメラ(第1撮像手段)
120 遠赤外カメラ(第2撮像手段)
130 視差補正部
140 検出部
150 合成処理部
160 対象物検出部
180 オーバーレイ部
190 モニタ
310、810 アドレス生成部
320 LUT用RAM(記憶部)
330、840 LUT補間部(補間部)

Claims (8)

  1. 感度波長が互いに異なる第1及び第2撮像手段と、
    前記第1及び第2撮像手段から出力される第1及び第2出力画像を、所定の合成パラメータを用いて合成し、対象物検出用画像を生成する合成処理部と、
    前記対象物検出用画像から対象物を検出する対象物検出部と、
    撮像時の周囲環境を検出する検出部とを備え、
    前記合成処理部は、前記検出部の検出結果に応じて、前記合成パラメータを変更する物体検出装置。
  2. 人間が視認するための画像を表示するモニタを更に備え、
    前記合成処理部は、前記対象物検出用画像に加えて、前記モニタに出力するための視認用画像を生成する請求項1記載の物体検出装置。
  3. 前記合成処理部は、前記検出部の検出結果に応じて前記視認用画像と前記対象物検出用画像との合成パラメータを独立に変更する請求項2記載の物体検出装置。
  4. 前記合成処理部は、
    前記視認用画像を生成する視認用画像生成回路と、
    前記対象物検出用画像を生成する対象物検出用画像生成回路とを備え、
    前記視認用画像生成回路と前記対象物検出用画像生成回路とは回路の一部が共用されている請求項2又は3記載の物体検出装置。
  5. 前記検出部は、前記周囲環境が昼間、夕暮れ、及び夜間のいずれに該当するかを検出し、
    前記第1撮像手段は、可視光カメラであり、
    前記第2撮像手段は、赤外カメラであり、
    前記合成処理部は、
    前記検出部により昼間が検出された場合、前記第2出力画像に現れる前記対象物の輝度範囲外における前記第1出力画像のコントラストが、前記第2出力画像に現れる前記対象物の輝度範囲内における前記第1出力画像のコントラストよりも弱くなるような所定の合成パラメータを用いて前記対象物検出用画像を生成し、
    前記検出部により夕暮れが検出された場合、前記対象物の輝度範囲のコントラストが強調された第2出力画像に前記第1出力画像が重畳されるような所定の合成パラメータを用いて前記対象物検出用画像を生成し、
    前記検出部により夜間が検出された場合、前記夕暮れの場合よりも前記第1出力画像の重み付けが低くされ、且つ、前記第2出力画像において前記対象物の輝度範囲のコントラストが前記夕暮れの場合よりも強調されるような所定の合成パラメータを用いて前記対象物検出用画像を生成する請求項1〜4のいずれかに記載の物体検出装置。
  6. 前記第1出力画像は、各画素がMビットのデータで構成され、
    前記第2出力画像は、各画素がNビットのデータで構成され、
    前記合成処理部は、
    前記第1出力画像の下位m(m<M)ビットを0、前記第2出力画像の下位n(n<N)ビットを0としたときの前記第1、第2出力画像の上位ビットの組のそれぞれにおける前記対象物検出用画像の値を予め記憶する記憶部と、
    前記第1、第2出力画像の値に対応する前記対象物検出用画像の値の複数の近似値をそれぞれ記憶する前記記憶部のアドレス値を算出し、算出したアドレス値を指定して前記記憶部から前記複数の近似値を出力させるアドレス生成部と、
    前記記憶部から出力された複数の近似値を、前記第1出力画像の下位mビット、前記第2出力画像の下位nビットに基づいて補間し、前記対象物検出用画像の値を算出する補間部とを備える請求項1〜5のいずれかに記載の物体検出装置。
  7. 前記記憶部は、前記第1出力画像の下位mビットを0、前記第2出力画像の下位nビットを0としたときの前記第1、第2出力画像の上位ビットの組のそれぞれにおける視認用画像の値を更に記憶し、
    前記アドレス生成部は、前記第1、第2出力画像の値に対応する前記視認用画像の値の複数の近似値をそれぞれ記憶する前記記憶部のアドレス値を算出し、算出したアドレス値を指定して前記記憶部から前記複数の近似値を更に出力させ、
    前記補間部は、前記記憶部から出力された複数の近似値を、前記第1出力画像の下位mビットの値と、前記第2出力画像の下位nビットの値とに基づいて補間し、前記視認用画像の値を更に算出する請求項6記載の物体検出装置。
  8. 前記第1撮像手段は、可視光カメラであり、
    前記第2撮像手段は、近赤外カメラ、中赤外カメラ、遠赤外カメラのいずれかである請求項1〜7のいずれかに記載の物体検出装置。
JP2012119483A 2012-05-25 2012-05-25 物体検出装置 Expired - Fee Related JP5888117B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012119483A JP5888117B2 (ja) 2012-05-25 2012-05-25 物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012119483A JP5888117B2 (ja) 2012-05-25 2012-05-25 物体検出装置

Publications (2)

Publication Number Publication Date
JP2013247492A true JP2013247492A (ja) 2013-12-09
JP5888117B2 JP5888117B2 (ja) 2016-03-16

Family

ID=49846962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012119483A Expired - Fee Related JP5888117B2 (ja) 2012-05-25 2012-05-25 物体検出装置

Country Status (1)

Country Link
JP (1) JP5888117B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160050277A (ko) * 2014-10-29 2016-05-11 고려대학교 산학협력단 주행 정보 처리 방법 및 장치
WO2017073344A1 (ja) * 2015-10-27 2017-05-04 富士フイルム株式会社 撮像システム、並びにオブジェクト検出装置及びその作動方法
JP6341396B1 (ja) * 2017-02-28 2018-06-13 パナソニックIpマネジメント株式会社 動体監視装置、サーバ装置、および動体監視システム
CN108924414A (zh) * 2018-06-27 2018-11-30 维沃移动通信有限公司 一种拍摄方法及终端设备
US10210401B2 (en) * 2015-03-11 2019-02-19 The Boeing Company Real time multi dimensional image fusing
US10367998B2 (en) 2017-02-03 2019-07-30 Panasonic Intellectual Property Management Co., Ltd. Method for controlling imaging device, and imaging device
EP3627828A1 (en) 2018-09-20 2020-03-25 Canon Kabushiki Kaisha Image processing device, image processing method, and recording medium
EP3709260A1 (en) * 2019-03-11 2020-09-16 Canon Kabushiki Kaisha Image processing apparatus, method for controlling image processing apparatus, and non-transitory computer-readable storage medium
CN111835949A (zh) * 2019-04-18 2020-10-27 佳能株式会社 摄像装置、摄像系统、非暂时性存储介质和控制方法
JP6903287B1 (ja) * 2020-12-25 2021-07-14 雄三 安形 ワイパーを具備しない車両
US11178371B2 (en) 2018-11-12 2021-11-16 Canon Kabushiki Kaisha Image processing apparatus, imaging system, recording medium, and control method
KR102372215B1 (ko) * 2020-10-16 2022-03-10 주식회사 넥스트칩 컬러 정보 및 적외선 정보를 혼합한 이미지 생성 방법 및 장치
WO2023286359A1 (ja) * 2021-07-12 2023-01-19 古野電気株式会社 着桟支援装置、着桟支援方法、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7006678B2 (ja) 2017-03-17 2022-01-24 日本電気株式会社 移動体検出装置、移動体検出方法および移動体検出プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000019259A (ja) * 1998-06-30 2000-01-21 Mazda Motor Corp 環境認識装置
JP2001320593A (ja) * 2000-05-10 2001-11-16 Sharp Corp 画像処理装置およびそれを備えた画像形成装置ならびに画像処理方法
JP2005223605A (ja) * 2004-02-05 2005-08-18 Sumitomo Electric Ind Ltd 画像処理方法、画像処理システムおよび画像処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000019259A (ja) * 1998-06-30 2000-01-21 Mazda Motor Corp 環境認識装置
JP2001320593A (ja) * 2000-05-10 2001-11-16 Sharp Corp 画像処理装置およびそれを備えた画像形成装置ならびに画像処理方法
JP2005223605A (ja) * 2004-02-05 2005-08-18 Sumitomo Electric Ind Ltd 画像処理方法、画像処理システムおよび画像処理装置

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101655867B1 (ko) 2014-10-29 2016-09-08 고려대학교 산학협력단 주행 정보 처리 방법 및 장치
KR20160050277A (ko) * 2014-10-29 2016-05-11 고려대학교 산학협력단 주행 정보 처리 방법 및 장치
US10210401B2 (en) * 2015-03-11 2019-02-19 The Boeing Company Real time multi dimensional image fusing
WO2017073344A1 (ja) * 2015-10-27 2017-05-04 富士フイルム株式会社 撮像システム、並びにオブジェクト検出装置及びその作動方法
CN108353128B (zh) * 2015-10-27 2020-05-19 富士胶片株式会社 摄像系统以及对象检测装置及其工作方法
CN108353128A (zh) * 2015-10-27 2018-07-31 富士胶片株式会社 摄像系统以及对象检测装置及其工作方法
JPWO2017073344A1 (ja) * 2015-10-27 2018-08-02 富士フイルム株式会社 撮像システム、並びにオブジェクト検出装置及びその作動方法
US10580161B2 (en) 2015-10-27 2020-03-03 Fujifilm Corporation Imaging system, object detection device and method of operating same
US10367998B2 (en) 2017-02-03 2019-07-30 Panasonic Intellectual Property Management Co., Ltd. Method for controlling imaging device, and imaging device
US10735652B2 (en) 2017-02-03 2020-08-04 Panasonic Intellectual Property Management Co., Ltd. Method for controlling imaging device, and imaging device
JP6341396B1 (ja) * 2017-02-28 2018-06-13 パナソニックIpマネジメント株式会社 動体監視装置、サーバ装置、および動体監視システム
JP2018142895A (ja) * 2017-02-28 2018-09-13 パナソニックIpマネジメント株式会社 動体監視装置、サーバ装置、および動体監視システム
WO2018159121A1 (ja) * 2017-02-28 2018-09-07 パナソニックIpマネジメント株式会社 動体監視装置、サーバ装置、および動体監視システム
CN108924414B (zh) * 2018-06-27 2019-12-10 维沃移动通信有限公司 一种拍摄方法及终端设备
CN108924414A (zh) * 2018-06-27 2018-11-30 维沃移动通信有限公司 一种拍摄方法及终端设备
JP2020048095A (ja) * 2018-09-20 2020-03-26 キヤノン株式会社 撮像装置及び制御方法
JP7210199B2 (ja) 2018-09-20 2023-01-23 キヤノン株式会社 撮像装置、制御方法、コンピュータプログラム、及び記憶媒体
EP3627828A1 (en) 2018-09-20 2020-03-25 Canon Kabushiki Kaisha Image processing device, image processing method, and recording medium
US11138764B2 (en) 2018-09-20 2021-10-05 Canon Kabushiki Kaisha Image processing device, image processing method, and recording medium
US11178371B2 (en) 2018-11-12 2021-11-16 Canon Kabushiki Kaisha Image processing apparatus, imaging system, recording medium, and control method
EP3709260A1 (en) * 2019-03-11 2020-09-16 Canon Kabushiki Kaisha Image processing apparatus, method for controlling image processing apparatus, and non-transitory computer-readable storage medium
US11423524B2 (en) 2019-03-11 2022-08-23 Canon Kabushiki Kaisha Image processing apparatus, method for controlling image processing apparatus, and non- transitory computer-readable storage medium
CN111835949A (zh) * 2019-04-18 2020-10-27 佳能株式会社 摄像装置、摄像系统、非暂时性存储介质和控制方法
US11637969B2 (en) 2019-04-18 2023-04-25 Canon Kabushiki Kaisha Imaging device, imaging system, non-transitory storage medium, and control method
CN111835949B (zh) * 2019-04-18 2023-04-07 佳能株式会社 摄像装置、摄像系统、非暂时性存储介质和控制方法
KR102372215B1 (ko) * 2020-10-16 2022-03-10 주식회사 넥스트칩 컬러 정보 및 적외선 정보를 혼합한 이미지 생성 방법 및 장치
WO2022080550A1 (ko) * 2020-10-16 2022-04-21 주식회사 넥스트칩 컬러 정보 및 적외선 정보를 혼합한 이미지 생성 방법 및 장치
JP6903287B1 (ja) * 2020-12-25 2021-07-14 雄三 安形 ワイパーを具備しない車両
JP2022103000A (ja) * 2020-12-25 2022-07-07 雄三 安形 ワイパーを具備しない車両
WO2022137599A1 (ja) * 2020-12-25 2022-06-30 雄三 安形 ワイパーを具備しない車両
WO2023286359A1 (ja) * 2021-07-12 2023-01-19 古野電気株式会社 着桟支援装置、着桟支援方法、及びプログラム

Also Published As

Publication number Publication date
JP5888117B2 (ja) 2016-03-16

Similar Documents

Publication Publication Date Title
JP5888117B2 (ja) 物体検出装置
JP6729394B2 (ja) 画像処理装置、画像処理方法、プログラム及びシステム
US20190087944A1 (en) System and method for image presentation by a vehicle driver assist module
JP6290392B2 (ja) デュアルバンドセンサからの画像の可視カラー画像への変換
JP2014090349A (ja) 画像処理システム及び画像処理方法
CN103958790A (zh) 施工机械的周边图像显示装置及周边图像显示方法
JP2007323587A (ja) 車載カメラの画像合成装置および画像合成方法
JP4941482B2 (ja) 擬似カラー画像生成装置、及びプログラム
US11232609B2 (en) Method of displaying an image on a see-through display
JP4742733B2 (ja) 画像つなぎ目処理装置および画像つなぎ目処理方法
JP6944328B2 (ja) 車両の周辺監視装置と周辺監視方法
JP2004312402A (ja) 道路監視システム,道路監視装置
US20200280684A1 (en) Method and system of fast image blending for overlapping region in surround view
JP4359662B2 (ja) カラー画像の露出補正方法
JP5218634B2 (ja) 擬似濃淡画像生成装置及びプログラム
US11410274B2 (en) Information processing device and program
US8774553B1 (en) Advanced adaptive contrast enhancement
JP2011013929A (ja) 画像処理装置
JP5280940B2 (ja) 特定色検出回路
JP2017219566A (ja) 表示装置及び表示方法
JP4846627B2 (ja) 表示制御装置
JP5050141B2 (ja) カラー画像の露出評価方法
KR20190081760A (ko) 이미지 보정 장치
WO2014174765A1 (ja) 撮像装置および撮像方法
JP4677924B2 (ja) 撮影システム、動画像処理方法および動画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160201

R150 Certificate of patent or registration of utility model

Ref document number: 5888117

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees