JP2007336091A - 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム - Google Patents

対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム Download PDF

Info

Publication number
JP2007336091A
JP2007336091A JP2006163835A JP2006163835A JP2007336091A JP 2007336091 A JP2007336091 A JP 2007336091A JP 2006163835 A JP2006163835 A JP 2006163835A JP 2006163835 A JP2006163835 A JP 2006163835A JP 2007336091 A JP2007336091 A JP 2007336091A
Authority
JP
Japan
Prior art keywords
image
vehicle
luminance
extracted
pitching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006163835A
Other languages
English (en)
Inventor
Makoto Aimura
誠 相村
Hiroshi Hattori
弘 服部
Akio Takahashi
昭夫 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006163835A priority Critical patent/JP2007336091A/ja
Publication of JP2007336091A publication Critical patent/JP2007336091A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】車両のピッチング時に画像上に生じる残像の影響を低減して、車両に搭載された撮像手段により得られた車両周辺の画像から歩行者等の対象物の種類を精度良く判定することができる対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラムを提供する。
【解決手段】対象物判定手段12は、少なくとも車両10のピッチングが検出された時刻を含む所定期間内に撮像手段2R,2Lを介して取得された複数の画像に対し、該複数の画像から対象物抽出手段11によりそれぞれ抽出された対象物の画像部分の輝度値を、該複数の画像間の対応する画素毎に積算した輝度積算値を画素データとする輝度積算画像を表す輝度積算データを算出する手段と、該算出された輝度積算データが表す輝度積算画像のうちの輝度積算値が所定値以上である部分を抽出する手段とを備え、該抽出された部分の特徴量に基づいて、該対象物の種類を判定する。
【選択図】図1

Description

本発明は、車両に搭載されたカメラ等の撮像手段を介して取得した画像から、車両の周辺に存在する歩行者等の対象物を検出する装置及び方法に関する。さらに、その装置の処理をコンピュータに実行させるためのプログラムに関する。
近年、車両にCCDカメラ等の撮像手段を搭載して周辺を撮像し、撮像された画像から車両の周辺に存在する歩行者等の対象物を検出し、車両との接触を回避すべき対象を判定して、運転者への情報の提示等を行う技術が知られている(例えば特許文献1参照)。
特許文献1の車両の周辺監視装置においては、2つの赤外線カメラにより得られた車両周辺の画像を2値化処理して対象物を抽出し、該対象物と車両との相対位置や相対速度を検出して、該対象物と車両との接触の可能性及び対象物の種類を判定する。このとき、特許文献1の車両の周辺監視装置では、車両前方の接近判定領域(対象物の車両に対する相対速度や車幅等に応じて定まる領域)に対象物が存在する場合に、該対象物の種類(歩行者、他車両、人工構造物等)を判定する。対象物の種類を判定する際には、対象物の形状、グレースケール画像上での輝度分散等の特徴が用いられる。そして、対象物が歩行者である場合に、該対象物は車両との接触を回避すべき対象であると判定される。
一方、車両のピッチング時には、撮像手段の撮像性能に比べて対象物の車両に対する相対位置の時間変化が大きくなるために、車両に搭載された撮像手段から得られた道路周辺の画像上で、対象物の残像が生じる場合がある。例えば、車両が上方向にピッチングしている場合には、画像上で対象物が下側にずれるため上側に残像が生じ、車両が下方向にピッチングしている場合には、画像上で対象物が上側にずれるため下側に残像が生じる。そして、このように残像が生じている画像から対象物を抽出すると、残像の影響で、対象物の形状、輝度分散等の特徴が変化する。このため、例えば対象物が歩行者である場合でも、画像上での対象物の形状、輝度分散等の特徴が、残像が生じていない画像上で一般に歩行者が示す特徴と相違することとなる。
しかしながら、特許文献1の車両の周辺監視装置では、このような残像の影響は考慮されていないため、車両のピッチング時には、例えば対象物が歩行者である場合でも、対象物の種類を判定する際に歩行者でないと誤判定される可能性がある。このため、車両のピッチング時に、画像から抽出された対象物の種類を適切に判定して歩行者等の対象物を検出し得る技術が望まれていた。
特開2003−284057号公報
本発明は、かかる背景に鑑みてなされたものであり、車両のピッチング時に画像上に生じる残像の影響を低減して、車両に搭載された撮像手段により得られた車両周辺の画像から歩行者等の対象物の種類を精度良く判定することができる対象物検出装置、車両、対象物検出方法、並びに該対象物検出装置の処理をコンピュータに実行させる対象物検出用プログラムを提供することを目的とする。
かかる目的を達成するために、本発明の対象物検出装置は、車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出手段と、該対象物抽出手段により抽出された対象物の種類を判定する対象物判定手段とを備えた対象物検出装置において、前記車両のピッチングを逐次検出するピッチング検出手段を備え、前記対象物判定手段は、少なくとも前記画像が前記ピッチング検出手段によりピッチングが検出されたときに取得された画像である場合に、該画像が取得された時刻を含む所定期間内に前記撮像手段を介して取得された複数の画像に対し、該複数の画像から前記対象物抽出手段によりそれぞれ抽出された対象物の画像部分の輝度値を、該複数の画像間の対応する画素毎に積算した輝度積算値を画素データとする輝度積算画像を表す輝度積算データを算出する手段と、該算出された輝度積算データが表す輝度積算画像のうちの輝度積算値が所定値以上である部分を抽出する手段とを備え、該抽出された部分の特徴量に基づいて、該対象物の種類を判定することを特徴とする(第1発明)。
この第1発明の対象物検出装置において、前記対象物抽出手段により、前記撮像手段を介して取得した画像から、前記車両の周辺に存在する歩行者等の対象物が逐次抽出される。ここで、前記車両に搭載された撮像手段を介して取得された画像上で、輝度値の高い領域が対象物に相当する領域であり、前記対象物抽出手段は、例えば画像に2値化処理等を施して、該画像内の画素の輝度値が所定閾値以上である領域を対象物の画像部分として抽出する。そして、前記対象物判定手段により、例えば前記抽出された対象物の画像部分に基づいて、該抽出された対象物の種類が判定される。
このとき、車両のピッチング時には、取得された画像上で対象物の残像が生じることがある。例えば、車両が上方向にピッチングしている場合には、画像上で対象物の上側に残像が生じ、車両が下方向にピッチングしている場合には、画像上で対象物の下側に残像が生じる。そして、このように残像が生じている画像から対象物を抽出すると、残像の画像部分が対象物の画像部分に含まれて抽出される。このため、残像の影響で、抽出された対象物の画像部分の全体的な形状、輝度分散等の特徴量が変化する。
一方、車両のピッチング時には、車両が上下に振動しているので、取得される画像の時系列において、対象物は上下に振動して撮像され、対象物の上下に交互に残像が生じることとなる。よって、対象物自体は時系列で連続して撮像されているが、対象物の上側又は下側に生じる残像は、周期的に撮像されるのみである。
そこで、前記対象物判定手段は、前記画像が前記ピッチング検出手段により車両のピッチングが検出されたとき(車両が画像上に残像が生じる程度にピッチングしているとき)に取得された画像である場合に、該画像が取得された時刻を含む所定期間内に前記撮像手段を介して取得された複数の画像に対する輝度積算データを算出する。この輝度積算データは、前記複数の画像から前記対象物抽出手段によりそれぞれ抽出された対象物の画像部分の輝度値を、該複数の画像間の対応する画素毎に積算した輝度積算値を画素データとする輝度積算画像を表す。なお、前記ピッチング検出手段は、車両のピッチングによって変化する状態量の検出値(例えば、車両の上下方向の並進速度や、車両のピッチング軸周りの角速度等)の大きさが所定閾値以上であるときに、ピッチングが検出されたと判断し、該検出値の大きさが該所定閾値未満であるときに、ピッチングが検出されていないと判断する。
そして、前記対象物判定手段は、前記算出された輝度積算データが表す輝度積算画像のうちの輝度積算値が所定値以上である部分を抽出する。すなわち、前記輝度積算値が所定値以上の部分は、各画像上での対象物自体の画像部分の輝度値が積算された部分であるので、この部分の特徴量は、残像の影響が低減されたものとなる。従って、前記対象物判定手段により、この部分の特徴量に基づいて、対象物の種類を判定することで、車両のピッチング時に、画像上に生じる残像の影響を低減して、車両周辺の画像から抽出された歩行者等の対象物の種類を精度良く判定することができる。
なお、前記対象物判定手段は、前記画像が前記ピッチング検出手段によりピッチングが検出されていないとき(車両が画像上に残像が生じる程度にピッチングしていないとき)に取得された画像である場合には、該画像から前記対象物抽出手段により抽出された対象物の画像部分の全体的な形状、輝度分散等の特徴量に基づいて、該対象物の種類を判定すればよい。
また、前記第1発明の対象物検出装置において、前記対象物判定手段における前記輝度積算データを算出する手段は、所定の演算処理周期の各時刻において、該時刻から所定時間前までの期間を前記所定期間として、該所定期間内に前記撮像手段を介して取得された複数の画像に対し、前記輝度積算データを逐次算出する手段であることが好ましい(第2発明)。
これによれば、前記対象物判定手段により、所定の演算処理周期の各時刻において、該時刻から所定時間前までの期間を前記所定期間として、該所定期間内に前記撮像手段を介して取得された複数の画像に対し、前記輝度積算データが逐次算出される。なお、前記所定期間は、例えば車両のピッチングの周期より長い期間である。そして、前記対象物判定手段は、前記画像が前記上下方向の速度の大きさが所定閾値以上であるときに取得された画像である場合に、該画像が取得された時刻から所定時間前までの前記所定期間内に、前記撮像手段を介して取得された複数の画像に対して算出された前記輝度積算データを直ちに用いて、対象物の種類を判定することで、車両のピッチング時に、画像上に生じる残像の影響を低減して、車両周辺の画像から抽出された対象物の種類を精度良く判定することができる。
また、前記第1又は第2発明の対象物検出装置において、前記対象物抽出手段により抽出された対象物の、前記車両に対する距離を逐次検出する距離検出手段を備え、前記対象物判定手段は、前記複数の画像からそれぞれ抽出された対象物の、前記距離検出手段により検出された距離に基づいて、該複数の画像からそれぞれ抽出された対象物の画像部分の大きさを補正する手段を備え、該補正された画像部分を用いて、前記輝度積算データを算出することが好ましい(第3発明)。
すなわち、対象物の車両に対する距離が変化すると、該車両に搭載された撮像手段を介して取得された画像上で、該対象物の画像部分の大きさが該距離の変化に応じて変化する。そこで、前記対象物判定手段は、前記複数の画像からそれぞれ抽出された対象物の、前記距離検出手段により検出された距離に基づいて、該複数の画像からそれぞれ抽出された対象物の画像部分の大きさを補正する。すなわち、前記複数の画像における対象物の画像部分の大きさが、それぞれ対象物の車両に対する距離の変化の影響を低減するように補正される。
そして、前記対象物判定手段により、前記補正された画像部分を用いて前記輝度積算データが算出される。なお、補正された画像部分における画素は、画像部分の大きさの補正に応じて、取得された画像の画素に基づいて仮想的に算出される画素であり、前記複数の画像間で対応付けられる。従って、算出された輝度積算データのうちの輝度積算値が所定値以上である部分は、対象物の車両に対する距離の変化によらずに、各画像上での対象物自体の画像部分の輝度値がより適切に積算されたものとなる。よって、前記対象物判定手段により、この部分の特徴量に基づいて対象物の種類を判定することで、車両のピッチング時に、画像上に生じる残像の影響を低減して、車両周辺の画像から抽出された対象物の種類を精度良く判定することができる。
次に、本発明の車両は、前記第1〜第3発明のうちいずれかの対象物検出装置が搭載されたことを特徴とする(第4発明)。この第4発明の車両によれば、本発明の対象物検出装置と同等の効果を奏する車両を実現できる。
次に、本発明の対象物検出方法は、車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出し、該抽出された対象物の種類を判定する対象物検出方法であって、前記車両のピッチングを逐次検出するピッチング検出ステップと、少なくとも前記画像が前記ピッチング検出ステップでピッチングが検出されたときに取得された画像である場合に、該画像が取得された時刻を含む所定期間内に前記撮像手段を介して取得された複数の画像に対し、該複数の画像からそれぞれ抽出された対象物の画像部分の輝度値を、該複数の画像間の対応する画素毎に積算した輝度積算値を画素データとする輝度積算画像を表す輝度積算データを算出し、該算出された輝度積算データが表す輝度積算画像のうちの輝度積算値が所定値以上である部分を抽出し、該抽出された部分の特徴量に基づいて、該対象物の種類を判定する対象物判定ステップとを備えたことを特徴とする(第5発明)。
この第5発明の対象物検出方法によれば、前記第1発明に関して説明したように、前記画像が前記ピッチング検出ステップでピッチングが検出されたとき(車両が画像上に残像が生じる程度にピッチングしているとき)に取得された画像である場合に、前記輝度積算データのうちの輝度積算値が所定値以上の部分は、各画像上での対象物自体の画像部分の輝度値が積算された部分であるので、この部分の特徴量は、残像の影響が低減されたものとなる。なお、前記ピッチング検出ステップでは、車両のピッチングによって変化する状態量の検出値(例えば、車両の上下方向の並進速度や、車両のピッチング軸周りの角速度等)の大きさが所定閾値以上であるときに、ピッチングが検出されたと判断し、該検出値の大きさが該所定閾値未満であるときに、ピッチングが検出されていないと判断する。
そして、前記対象物判定ステップにおいて、この残像の影響が低減された部分の特徴量に基づいて、対象物の種類が判定される。よって、本発明によれば、車両のピッチング時に、画像上に生じる残像の影響を低減して、車両周辺の画像から抽出された対象物の種類を精度良く判定することができる。
次に、本発明の対象物検出用プログラムは、車両に搭載された撮像手段を介して取得した画像から逐次抽出される、該車両の周辺に存在する対象物の種類を判定する処理をコンピュータに実行させる対象物検出用プログラムであって、前記車両のピッチングによって変化する状態量の検出値を逐次取得する処理と、少なくとも前記画像が前記検出値によりピッチングが検出されたときに取得された画像である場合に、該画像が取得された時刻を含む所定期間内に前記撮像手段を介して取得された複数の画像に対し、該複数の画像からそれぞれ抽出された対象物の画像部分の輝度値を、該複数の画像間の対応する画素毎に積算した輝度積算値を画素データとする輝度積算画像を表す輝度積算データを算出する処理と、前記算出された輝度積算データが表す輝度積算画像のうちの輝度積算値が所定値以上である部分を抽出する処理と、前記抽出された部分の特徴量に基づいて、該対象物の種類を判定する処理とを前記コンピュータに実行させる機能を有することを特徴とする(第6発明)。
この第6発明の対象物検出用プログラムによれば、前記第1発明に関して説明した効果を奏し得る処理をコンピュータに実行させることができる。
本発明の一実施形態を添付の図面を参照して説明する。図1は、本実施形態による対象物検出装置の機能ブロック図であり、図2は、図1に示した対象物検出装置の車両への取り付け態様の説明図であり、図3は、図1の対象物検出装置における対象物検出・注意喚起動作を示すフローチャートである。また、図4は、図3の対象物検出・注意喚起動作における処理画像の例示図である。
図1,2を参照して、本実施形態の対象物検出装置は、CPU(中央演算装置)を備えた電子ユニットである画像処理ユニット1を有する。画像処理ユニット1には、2つの赤外線カメラ2R,2Lが接続されると共に、自車両10の走行状態を検出するセンサとして、自車両10のヨーレートを逐次検出するヨーレートセンサ3と、自車両10の走行速度(車速)を逐次検出する車速センサ4と、自車両10のブレーキの操作を逐次検出するためのブレーキセンサ5と、自車両10の前部(赤外線カメラ2R,2Lの近傍箇所)の上下方向の加速度を逐次検出する加速度センサ14とが接続されている。
また、画像処理ユニット1には、自車両10に搭載された、音声等による聴覚的な注意喚起情報を出力するためのスピーカ6と、赤外線カメラ2R,2Lにより撮像された画像や視覚的な注意喚起情報を表示するための表示装置7とが接続されている。表示装置7は、例えば、自車両10のフロントウィンドウに画像等の情報を表示するHUD(ヘッドアップディスプレイ)7a等を備えている。HUD7aは、自車両10のフロントウィンドウの運転者の前方視界を妨げない位置に画面が表示されるように設けられている。
赤外線カメラ2R,2Lは、遠赤外線を検出可能なカメラであり、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。なお、赤外線カメラ2R,2Lは、本発明の撮像手段に相当する。
図2に示すように、赤外線カメラ2R,2Lは、自車両10の前方を撮像するために、自車両10の前部に所定の間隔で取り付けられている。そして、赤外線カメラ2R,2Lは、それらの光軸が互いに平行であって、且つ、それぞれの光軸の路面からの高さが等しくなるように自車両10の前部に固定されている。
画像処理ユニット1は、詳細の図示は省略するが、A/D変換回路、CPU、RAM、ROM、画像メモリ等を含む電子回路により構成され、赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4、ブレーキセンサ5、加速度センサ14の出力(アナログ信号)がA/D変換回路を介してデジタル信号に変換されて入力される。そして、画像処理ユニット1は、所定の演算処理周期毎に、入力されたデータを基に、歩行者等の対象物を検出する処理や、その検出した対象物に関する所定要件が満たされるか否かを判定し、該要件が満たされる場合にスピーカ6や表示装置7を介して運転者に注意喚起(対象物に対する運転者の注意の喚起)を行う処理等を実行する。これらの処理は、画像処理ユニット1のROMに予め実装されたプログラムを画像処理ユニット1により実行することにより実現され、そのプログラムは、本発明の対象物検出用プログラムを含んでいる。
より詳しくは、画像処理ユニット1は、上記プログラムにより実現される機能として、取得された画像から自車両10の周辺に存在する対象物を逐次抽出する対象物抽出手段11と、抽出された対象物の種類を判定する対象物判定手段12と、対象物の自車両10に対する距離を逐次検出する距離検出手段13とを備える。
対象物抽出手段11は、赤外線カメラ2R,2Lを介して取得された画像から、自車両10の周辺に存在する対象物を抽出する。具体的には、対象物抽出手段11は、赤外線カメラ2R,2Lを介して取得された画像のうちの所定の基準画像(本実施形態では、赤外線カメラ2Rを介して取得された画像とする)に2値化処理等を施して、さらにラベリング処理等を施し、対象物の画像部分を抽出する。
距離検出手段13は、基準画像上で対象物抽出手段11により抽出された対象物に対応する対象物を赤外線カメラ2Lを介して取得された画像上で探索し、2つの赤外線カメラ2R,2Lから得られる画像上での対象物のずれ(視差)に基づいて、対象物の自車両10に対する距離を検出する。なお、画像に基づいて対象物の距離を検出する具体的な手法としては、例えば、上述の特許文献1に記載したような手法を用いることができる。
対象物判定手段12は、対象物抽出手段11により抽出された対象物の種類(歩行者、他車両、人工構造物等)を判定する。具体的には、対象物判定手段12は、所定の演算処理周期の各時刻において、該時刻から所定時間前までの所定期間内に、赤外線カメラ2Rを介して取得された複数の画像に対し、輝度積算データを逐次算出する。この輝度積算データは、前記複数の画像から対象物抽出手段11によりそれぞれ抽出された対象物の画像部分の輝度値を、該複数の画像間の対応する画素毎に積算した輝度積算値を画素データとする輝度積算画像を表す。
そして、対象物判定手段12は、自車両10の上下方向の速度の大きさが所定閾値以上であるとき(自車両10のピッチングが検出されたとき)には、この時刻から所定時間前までの前記所定期間内に取得された複数の画像に対して算出された前記輝度積算データを用いて、対象物の種類を判定する。このとき、対象物判定手段12は、算出された輝度積算データが表す輝度積算画像のうちの輝度積算値が所定値以上である部分を抽出し、この部分の特徴量に基づいて対象物の種類を判定する。また、自車両10の上下方向の速度の大きさは、加速度センサ14により検出された自車両10の上下方向の加速度を積分して得られる。なお、対象物判定手段12は、距離検出手段13の検出結果に基づいて前記複数の画像からそれぞれ抽出された対象物の画像部分の大きさを補正し、該補正した画像部分を用いて前記輝度積算データを算出する。
また、対象物判定手段12は、自車両10の上下方向の速度の大きさが所定閾値未満であるとき(自車両10のピッチングが検出されていないとき)には、この時刻に取得された画像から抽出された対象物の画像部分の全体的な特徴量に基づいて、該対象物の種類を判定する。なお、対象物の種類の判定に用いる対象物の画像部分の全体的な特徴量は、例えば、対象物の形状、輝度分散等である。
次に、本実施形態の対象物検出装置の全体的な作動(対象物検出・注意喚起動作)を、図3に示したフローチャートに従って説明する。図3を参照して、画像処理ユニット1は、所定の演算処理周期毎に、STEP001〜STEP020の処理を繰り返して、対象物検出・注意喚起動作を実行する。まず、画像処理ユニット1は、赤外線カメラ2R,2Lの出力信号である赤外線画像を取得して(STEP001)、A/D変換し(STEP002)、グレースケール画像を画像メモリに格納する(STEP003)。なお、赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。右画像と左画像とでは、同一の対象物の画像上での横方向(x方向)の位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
次に、画像処理ユニット1は、グレースケール画像のうちの基準画像に対して、その画像信号を2値化する(STEP004)。すなわち、基準画像の画像信号の輝度値が閾値Ithより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理が行われる。閾値Ithは、実験的に予め決定される値である。
図4(a)に、ある演算処理周期の時刻(離散系時刻)kにおいて赤外線カメラ2Rによって得られる画像を2値化した画像を例示する。図4(a)において、ハッチングを付した領域が黒であり、太い実線で囲まれた領域が白であることを示している。太い実線で囲まれた領域は、赤外線カメラ2Rから得られる画像において、輝度レベルが高く(高温で)、画面上に白色として表示される対象物の領域である。なお、図4(a)に示した例は、自車両10の前方に歩行者が存在しており、自車両10が直進している場合の例である。
次に、画像処理ユニット1は、2値化処理で「白」となった領域(以下、2値化領域という)からランレングスデータを作成する(STEP005)。作成されるランレングスデータは、2値化領域を画像の横方向の1次元の連結画素であるラインの集合で表し、該2値化領域を構成する各ラインをその始点の座標と、始点から終点までの長さ(画素数)とで示したものである。
次に、画像処理ユニット1は、作成されたランレングスデータに基づいて、対象物のラベリングをする(STEP006)ことにより、対象物を抽出する(STEP007)。すなわち、ランレングスデータで表されたラインのうち、画像の縦方向(y方向)に重なる部分のあるラインを1つの対象物とみなしてラベル(識別子)を付すことにより、画像内の連結した領域を対象物として抽出する。
上述のSTEP005〜007の処理により、図4(a)に示す2値化領域が、図4(b)に例示するように、対象物(2値化対象物)Tkとして抽出される。このとき、例えばラベルTkの対象物は、n個のランレングスデータL1〜Lnで示される。なお、抽出される対象物(2値化対象物)には、道路周辺の歩行者以外に、例えば、他車両、電柱や自動販売機等の人工構造物が含まれる。図4(b)の例では、対象物Tkは、自車両10の前方に存在する歩行者に対応する2値化対象物である。
次に、画像処理ユニット1は、抽出された対象物の面積S、重心位置Gc、対象物の外接四角形の高さHb、幅Wb、重心位置Gb、縦横比ASPを算出する(STEP008)。具体的には、図4(b)の例では、対象物Tkの面積Skは、各ランレングスデータLi(i=1,...,n)で示されるラインの長さを、対象物Tkのn個のランレングスデータについて積算することにより算出する。また、対象物Tkの重心Gckの座標は、各ランレングスデータLiで示されるラインの長さと、各ランレングスデータLiのラインの中点の座標(x[i],y[i])とをそれぞれ掛け合わせ、更にこれを対象物T1のn個のランレングスデータについて積算したものを、面積Skで割ることにより算出する。また、対象物Tkの外接四角形の縦横比ASPkは、対象物Tkの外接四角形の高さ(縦方向の長さ)Hbkと幅(横方向の長さ)Wbkとの比Hbk/Wbkとして算出する。なお、対象物Tkの画像部分Rkは、対象物Tkを囲む外接四角形の領域全体とする。
次に、画像処理ユニット1は、ヨーレートセンサ3により検出されるヨーレートYRと、車速センサ4により検出される車速VCAR(水平方向の速度)と、加速度センサ17により検出される上下方向の加速度GYとを読み込む(STEP009)。なお、このSTEP009では、ヨーレートYRを時間積分することにより、自車両10の回頭角θrの算出も行われる。また、加速度GYを時間積分することにより、自車両10の上下方向の速度VYの算出も行われる。
次に、画像処理ユニット1は、対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎に同一対象物を認識する処理を行う(STEP010)。同一対象物認識処理は、時刻kにおけるSTEP007の処理により対象物Tkが抽出され、次の演算処理周期の時刻k+1におけるSTEP007の処理により対象物Tk+1が抽出されたとしたとき、対象物Tk+1と対象物Tkとの同一性(対象物Tk+1が対象物Tkと同一の対象物であるか否か)を判定する処理である。そして、対象物Tkと対象物Tk+1とが同一の対象物であると判定された場合には、対象物Tk+1のラベルが対象物Tkのラベルと同じラベルに変更される。これにより、対象物Tkと対象物Tk+1とが同一の対象物であると認識されて、時刻間で追跡される。この同一対象物認識処理は、基準画像において実行される。
一方、画像処理ユニット1は、STEP009,010の処理に平行して、STEP011〜014の処理を実行する。STEP011〜014の処理は、対象物と自車両10との距離z(自車両10の前後方向の距離)を算出する処理である。
まず、画像処理ユニット1は、基準画像の2値化画像によって追跡される対象物の中の1つを選択して、基準画像から探索画像R1(選択した対象物を囲む外接四角形の領域全体を探索画像とする)を抽出する(STEP011)。
次に、画像処理ユニット1は、参照画像(赤外線カメラ2R,2Lから得られた右画像及び左画像のうちの基準画像でない画像)中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する(STEP012)。具体的には、探索画像R1の各頂点座標に応じて、参照画像中に探索領域R2を設定し、探索領域R2内に、座標(x0,y0)を基点(領域の左上の頂点)とした探索画像R1と同一形状の局所領域R3を設定する。そして、基点の座標(x0,y0)を変化させて、探索領域R2内で局所領域R3を移動させながら、局所領域R3と探索画像R1との相関の度合を示す輝度値の絶対差分和(SAD,Sum of Absolute Difference)C(x0,y0)を次式(1)により算出する。
Figure 2007336091
ここで、絶対差分和C(x0,y0)は、探索画像R1内の座標(m,n)の画素の輝度値IRと、探索領域R2内の座標(x0,y0)を基点とした局所領域R3内の座標(x0+m,y0+n)の画素の輝度値ILとの差の絶対値を取り、この差の絶対値の探索画像R1及び局所領域R3内の全画素(m=0,...,M-1,n=0,...,N-1)についての総和値を求めたものである。なお、絶対差分和C(x0,y0)の値が小さいほど、探索画像R1と局所領域R3との相関の度合が高いことを示す。これにより、絶対差分和C(x0,y0)が最小となる基点の座標(x0,y0)を求め、この位置の局所領域R3を対応画像R4として抽出する。なお、この相関演算は、2値化画像ではなくグレースケール画像を用いて行う。STEP011〜012の処理により、基準画像中の探索画像R1と、参照画像中の対応画像R4とが抽出される。
次に、画像処理ユニット1は、探索画像R1の重心位置と、対応画像R4の重心位置とに基づいて、視差Δd(画素数)を算出する(STEP013)。そして、画像処理ユニット1は、算出された視差Δdを用いて、次式(2)により、自車両10と対象物との距離zを算出する(STEP014)。
z=B×F/(Δd×p) …(2)
なお、Bは赤外線カメラ2R,2Lの基線長(光軸の間隔)、Fは赤外線カメラ2R,2Lの焦点距離F、pは画素間隔である。
STEP010及びSTEP014の処理の終了後、画像処理ユニット1は、次に、画像内の座標(x,y)及び距離zを、実空間座標に変換して、各対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(STEP015)。ここで、実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点(自車両10に固定された位置)を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。実空間座標系のX方向及びY方向は、それぞれ自車両10の左右方向(車幅方向)、上下方向であり、これらのX方向及びY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、自車両10の前後方向である。そして、実空間位置(X,Y,Z)は、次式(3)(4)(5)により算出される。
X=x×z×p/f …(3)
Y=y×z×p/f …(4)
Z=z …(5)
次に、画像処理ユニット1は、自車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、STEP009で算出した回頭角θrを用いて、対象物の実空間位置を補正する。(STEP016)。回頭角補正は、時刻kから時刻k+1までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、赤外線カメラ2R,2Lによって得られる画像上では、画像の範囲がx方向にずれるので、これを補正する処理である。なお、以下の説明では、「対象物の実空間位置」は、この回頭角補正を施した対象物の実空間位置を意味する。
次に、画像処理ユニット1は、対象物の自車両10に対する移動ベクトルを求める(STEP017)。具体的には、同一対象物についての実空間位置の、所定期間dT(現在時刻から所定時間前までの期間)における時系列データを近似する直線を求め、所定時間前の時刻での該直線上の対象物の位置(座標PvdT=(XvdT,YvdT,ZvdT))から、現在時刻における該直線上の対象物の位置(座標Pv0=(Xv0,Yv0,Zv0))に向かうベクトルを対象物の移動ベクトルとして求める。なお、近似直線の具体的な算出処理には、前記した特許文献1に記載された手法を用いる。
次に、画像処理ユニット1は、検出した対象物と自車両10とが接触する可能性を判定して、該対象物が回避対象(自車両10との接触を回避すべき対象)であるか否かを判定する回避判定処理を行う(STEP018)。なお、回避判定処理については、詳細を後述する。STEP018において、検出した対象物が回避対象でないと判定された場合(STEP018の判定結果がNO)には、STEP001に戻り、上述の処理を繰り返す。また、STEP018において、検出した対象物が回避対象であると判定された場合(STEP018の判定結果がYES)、STEP019へ進む。
STEP019では、画像処理ユニット1は、対象物に対する車両10の運転者の注意を喚起すべきか否かを判定する注意喚起出力判定処理を行う。この注意喚起出力判定処理では、ブレーキセンサ5の出力BRから、運転者による自車両10のブレーキ操作がなされていることが確認され、且つ、自車両10の減速加速度(車速の減少方向の加速度を正とする)が所定の閾値(>0)よりも大きいときには、注意喚起を行わないと判定される。また、運転者によるブレーキ操作が行なわれていない場合、あるいは、ブレーキ操作が行なわれていても、自車両10の減速加速度が所定の閾値以下である場合には、注意喚起を行うべきと判定される。
そして、画像処理ユニット1は、注意喚起を行うべきと判定した場合(STEP019の判定結果がYES)には、スピーカ6と表示装置7とによる注意喚起を自車両10の運転者に対して行う注意喚起処理を実行し(STEP020)、STEP001に戻り、上述の処理を繰り返す。この注意喚起処理では、例えば表示装置7に基準画像を表示すると共に、その基準画像中の回避対象である対象物の画像を強調的に表示する。さらに、回避対象である対象物が存在することをスピーカ6から運転者に音声案内する。なお、運転者に対する注意喚起は、スピーカ6および表示装置7のいずれか一方だけで行なうようにしてもよい。
また、STEP019で注意喚起を行わないと判定した場合(全ての対象物について注意喚起を行わないと判定した場合)には、STEP019の判定結果がNOとなり、この場合には、そのままSTEP001に戻り、上述の処理を繰り返す。
以上が、本実施形態の対象物検出装置の画像処理ユニット1における対象物検出・注意喚起動作である。これにより、自車両10の周辺の赤外線画像と、自車両10の走行状態を示す信号とから、自車両10の前方の歩行者等の対象物が検出され、回避対象である対象物について運転者に注意喚起が行われる。
次に、図5に示すフローチャートを参照して、図3に示したフローチャートのSTEP018における回避判定処理について詳細に説明する。回避判定処理は、以下に示す第1接触判定処理、第2接触判定処理、進入接触判定処理、歩行者判定処理、及び人工構造物判定処理により、検出した対象物と自車両10との接触の可能性及び対象物の種類を判定して、該対象物が回避対象であるか否かを判定する処理である。
図5を参照して、まず、画像処理ユニット1は、対象物が自車両10に接触する可能性の度合を判定する処理の1つとして、第1接触判定処理を行う(STEP101)。第1接触判定処理は、対象物と自車両10との接触を自車両10の操舵やブレーキ操作によって余裕を持って回避できるか否かを判定するための処理である。具体的には、第1接触判定処理では、赤外線カメラ2R,2Lにより撮像される自車両10の前方の領域(赤外線カメラ2R,2Lの視野角内の領域)AR0のうち、自車両10からのZ方向の距離(自車両10の前後方向の距離)が、所定値以下となる領域AR1(以下、第1接触判定領域という)に対象物の現在の実空間位置が存在するか否かが判定される。
この場合、自車両10からの距離に関する所定値は、対象物毎に設定される。具体的には、対象物と自車両10とのZ方向の相対速度Vs(=(Zv0−ZvdT)/dT)を求め、この相対速度Vsに所定の時間T1(例えば2〜5秒程度)を乗じた値Vs×T1が、第1接触判定領域AR1の、Z方向の境界を規定する上記所定値として設定される。なお、相対速度Vsが自車両10から遠ざかる向きの相対速度である場合には、対象物は第1接触判定領域AR1に存在しないと判定される。
ここで、図6を参照して説明すると、図6は、自車両10の走行する道路を上方から見た図であり、自車両10の前方の領域区分が示されている。図6に示したように、領域AR0を太い実線で示す外側の三角形の領域とすると、第1接触判定領域AR1は、領域AR0内のZ1(=Vs×T1)より自車両10に近い領域となる。なお、第1衝突判定領域AR1は、上下方向では、所定の高さH(例えば自車両10の車高の2倍程度の高さ)を有する領域である。従って、対象物の現在のZ方向の座標値(距離)Zv0がVs×T1以下で、且つ、対象物の現在のY方向の座標値(高さ)Yv0がH以下である場合に、対象物が第1接触判定領域AR1に存在すると判定される。
STEP101の判定結果がNOの場合(対象物が第1接触判定領域内AR1に存在しない)には、車両10の操舵やブレーキ操作によって対象物と車両10との接触を余裕を持って回避しうる状況である。この場合には、STEP107に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
STEP101の判定結果がYESの場合(対象物が第1接触判定領域AR1内に存在している)には、STEP102に進み、画像処理ユニット1は、対象物が自車両10に接触する可能性の度合を判定する処理の1つとして、第2接触判定処理を行う。第2接触判定処理は、対象物の実空間位置が現在位置に維持されたとした場合に、対象物と車両10との接触の可能性が高いか否かを判定するための処理である。具体的には、第2接触判定処理では、対象物が、図6に示したように、第1接触判定領域AR1のうちの、自車両10の車幅αの両側に余裕βを加えた幅(α+2β)を有する領域AR2(以下、第2接触判定領域という)内に存在するか否かを判定する。なお、第2接触判定領域AR2も所定高さHを有する。
STEP102の判定結果がYESの場合(対象物が第2接触判定領域AR2内に存在している)には、対象物が現在の実空間位置に留まったとした場合に、該対象物が自車両10と接触する可能性が高い。この場合には、STEP103に進み、画像処理ユニット1は、対象物が歩行者の可能性があるか否かを判定する歩行者判定処理を行う。なお、歩行者判定処理については、詳細を後述する。
STEP103の判定結果がYESの場合(対象物は歩行者の可能性がある)には、STEP104に進み、更に対象物が歩行者である可能性の判定の信頼性を上げるために、画像処理ユニット1は、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う。人工構造物判定処理は、対象物の画像に、例えば予め登録された人工構造物の形状と一致する等の、歩行者ではないと考えられる特徴が検出された場合に、該対象物を人工構造物と判定し、回避対象から除外する処理である。
STEP104の判定結果がNOの場合(対象物が人工構造物でない)には、STEP106に進み、画像処理ユニット1は、対象物が回避対象であると判定して、回避判定処理を終了する。従って、対象物が第1接触判定領域内の第2接触判定領域に存在し、且つ、対象物が歩行者である可能性が高く、且つ、人工構造物でないと判定された場合には、対象物が回避対象であると判定される。
また、STEP103の判定結果がNOの場合(対象物は歩行者の可能性がない)、あるいは、STEP104の判定結果がYESの場合(対象物が人工構造物である)には、STEP107に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
一方、STEP102の判定結果がNOの場合(対象物が第2接触判定領域AR2内に存在しない)には、STEP105に進み、画像処理ユニット1は、対象物が自車両10に接触する可能性の度合を判定する処理の1つとして、進入接触判定処理を行う。進入接触判定処理は、対象物が第2接触判定領域AR2内へ進入し、且つ自車両10との接触する可能性が高いか否かを判定する処理である。進入接触判定処理では、図6に示したように、第1接触判定領域AR1内で第2接触判定領域AR2よりX座標の絶対値が大きい(第2接触判定領域AR2の横方向外側の)領域AR3,AR4(以下、進入判定領域という)内にある対象物が、第2接触判定領域AR2に進入して自車両10と接触するか否かを、対象物の移動ベクトルに基づいて判定する。なお、進入判定領域AR3,AR4も所定高さHを有する。
具体的には、自車両10の前面のXY平面(自車両10の前後方向に垂直な面)と、対象物の移動ベクトルを含む直線との交点のX座標(車幅方向の位置)が、自車両10の車幅αよりも若干広い所定範囲内に存在する場合(対象物が相対的に自車両10に向かってくる場合)に、第2接触判定領域AR2に進入して接触する可能性が高いと判定される。
STEP105の判定結果がYESの場合には、対象物が将来、自車両10と衝突する可能性が高い。そこで、この場合には、STEP106に進み、画像処理ユニット1は、対象物が回避対象であると判定して、回避判定処理を終了する。また、STEP105の判定結果がNOの場合には、対象物が自車両10と接触する可能性が低いので、STEP107に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
以上が、回避判定処理の詳細である。
次に、図7に示すフローチャートを参照して、図5に示したフローチャートのSTEP103における歩行者判定処理について詳細に説明する。以下の説明では、時刻k−5〜kに、自車両10の前方に歩行者が存在して自車両10が直進しており、時刻k+1〜k+6で、自車両10がピッチングしている場合を例にして説明する。詳しくは、ピッチングの周期は6回分の演算処理周期に相当するものとし、時刻k+1〜k+3では、自車両10が下方向にピッチングし、時刻k+4〜k+6では、自車両10が上方向にピッチングしているものとする。なお、時刻kにおける処理画像は、図4(a)に例示したようになる。また、以下では、時刻k−5〜k+6に取得された画像から抽出された対象物に関する値を、添え字k−5〜k+6を付して表す。
図4(c)には、時刻k+2において、上述のSTEP004で、赤外線カメラ2Rによって得られる画像を2値化した画像が例示されている。図4(c)において、ハッチングを付した領域が黒であり、太い実線で囲まれた領域が白であることを示している。このとき、図4(c)の例では、自車両10が下方向にピッチングしているため、歩行者の画像部分の下側に残像が生じている。このため、図4(c)に示す2値化領域には、歩行者に相当する領域F1と共に、残像に相当する領域F2(点描を付した領域)が含まれている。そして、図4(c)に示す2値化領域は、上述のSTEP005〜007の処理により、図4(d)に例示するように、対象物(2値化対象物)Tk+2として抽出される。
図4(e)には、時刻k+5において、上述のSTEP004で、赤外線カメラ2Rによって得られる画像を2値化した画像が例示されている。図4(e)において、ハッチングを付した領域が黒であり、太い実線で囲まれた領域が白であることを示している。このとき、図4(e)の例では、自車両10が上方向にピッチングしているため、歩行者の画像部分の上側に残像が生じている。このため、図4(e)に示す2値化領域には、歩行者に相当する領域F3と共に、残像に相当する領域F4(点描を付した領域)が含まれている。そして、図4(e)に示す2値化領域は、上述のSTEP005〜007の処理により、図4(f)に例示するように、対象物(2値化対象物)Tk+5として抽出される。
図7を参照して、まず、画像処理ユニット1は、所定期間内に取得された複数の画像に対して、輝度積算データを算出する(STEP201)。なお、本実施形態では、演算処理周期の各時刻において、STEP001で画像が取得されており、前記所定期間は、6回分の演算処理周期とする。例えば時刻kの演算処理周期では、時刻k−5〜kに取得された6枚の画像に対して輝度積算データを算出する。
このとき、具体的には、まず、画像処理ユニット1は、2値化画像上での対象物の画像部分に基づいて、グレースケール画像上での対象物の画像部分を求める。例えば時刻kの演算処理周期では、2値化画像上での対象物Tkの画像部分Rk基づいて、図8に示したように、グレースケール画像上での対象物Tkの画像部分AREA0k(高さHgk,幅Wgk)を求める。なお、図8において、2値化画像上での対象物Tkの領域を、太い実線で囲まれた領域で示している。また、グレースケール画像上での対象物の画像部分を算出する具体的な手法としては、例えば、前記した特許文献1の図8のS43に記載された手法を用いることができる。
次に、画像処理ユニット1は、複数の画像間の対応する画素を決定する。具体的には、例えば時刻kの演算処理周期では、各画像で抽出された対象物Tk-5〜Tkの重心位置Gck-5〜Gckの画素を、対応する画素Pk-5〜Pkとする。さらに、画像処理ユニット1は、上下方向の速度VYk-5〜VYkを積分することにより自車両10のピッチング量を推定し、このピッチング量に基づいて、画素Pk-5〜Pkのy座標を補正する。そして、この画素Pk-5〜Pkを基準として画像部分AREA0k-5〜AREA0kの画素を対応させる。なお、画像部分AREA0k-5〜AREA0kの画素数が異なる場合には、画素数の少ない方の画像部分の周辺に輝度値0の画素を仮想的に付加し、画素数を同じとして画素を対応させる。
次に、画像処理ユニット1は、STEP014で算出された対象物の自車両10に対する距離を用いて、グレースケール画像上での対象物の画像部分の大きさを補正する。具体的には、例えば時刻kの演算処理周期では、AREA0kの大きさを基準として、時刻kのSTEP014で算出された対象物Tkの自車両10に対する距離Zv0kと、時刻k−1のSTEP014で算出された対象物Tk-1の自車両10に対する距離Zv0k-1とを用いて、補正後の画像部分AREA0k-1’の幅Wgk-1’=Wgk-1×Zv0k-1/Zv0k、高さHgk-1’=Hgk-1×Zv0k-1/Zv0kとなるように補正する。AREA0k-5〜AREA0k-2についても、同様に補正する。
このとき、画像部分AREA0k-5〜AREA0k-1の大きさは、対応する画素Pk-5〜Pk-1を中心として補正される。そして、補正後の画像部分AREA0k-5’〜AREA0k-1’における画素は、補正量に応じて、補正前の画像部分AREA0k-5〜AREA0k-1の画素に基づいて、例えば線形補間等により、仮想的に算出される。さらに、画像部分AREA0k-5’〜AREA0k’の画素数が異なる場合には、画素数の少ない方の画像部分の周辺に輝度値0の画素を仮想的に付加し、画素数を同じとして画素を対応させる。
次に、画像処理ユニット1は、補正された画像部分AREA0k-5’〜AREA0k’を用いて、輝度積算データを算出する。ここで、図9を参照して説明すると、図9において横軸は時刻を示しており、図9には、時刻k−5〜k+6に取得された画像における補正されたAREA0k-5’〜AREA0k+6’が時系列に示されている。例えば時刻k+5の演算処理周期では、AREA0k’〜AREA0k+5’を用いて、輝度積算データを算出する。そして、時刻k+5の演算処理周期では、算出される輝度積算データが表す輝度積算画像は、図10(a)に例示するようなものになる。なお、図10(a)において、点描の密度が高いほど、輝度積算値が大きいことを示している。
次に、STEP202で、画像処理ユニット1は、図3のSTEP009で算出された自車両10の上下方向の速度VYの大きさが所定閾値VYth以上であるか否かを判断する。
STEP202の判断結果がNOの場合(|VY|<VYth)は、自車両10の上下方向の速度の大きさが画像上に残像が生じない程度に十分に小さい場合であり、以下のSTEP203〜204の処理が行われ、STEP208又はSTEP209に進む。上述の時刻k−5〜kの例がこの場合に相当しており、以下では図4(c)に示した時刻kの例を用いて説明する。
まず、STEP203に進み、画像処理ユニット1は、抽出された対象物Tkが歩行者であるか否かを判定するために用いる特徴量を算出する。具体的には、まず、画像処理ユニット1は、STEP008で算出された対象物Tk(2値化対象物)の面積Sk、重心Gck、対象物Tkの外接四角形の縦横比ASPk、高さHbk、幅Wbk、重心Gbk、面積(Hbk×Wbk)と、STEP014で算出された自車両10との距離Zv0kとを用いて、実空間での2値化対象物の形状特徴量を、歩行者判定用の特徴量として算出する。この実空間での2値化対象物の形状特徴量は、例えば、実空間における2値化対象物の幅ΔWb、実空間における2値化対象物の高さΔHb、実空間における2値化対象物の上端位置Yt、2値化対象物の面積と外接四角形の面積との比Rate=Sk/(Hbk×Wbk)、2値化対象物の重心位置と外接四角形の重心位置との実空間における距離Dis、外接四角形の縦横比ASPk等である。
次に、STEP204で、画像処理ユニット1は、上述の各特徴量が所定範囲内であるか否か判断する。なお、前記所定範囲は、対象物が歩行者の上半身や全身であるときに採り得る値の範囲として予め定められる範囲である。
STEP204の判断結果がYES(全特徴量が所定範囲内である)の場合には、STEP208に進み、対象物が歩行者であると判定され、歩行者判定処理が終了される。STEP204の判断結果がNO(特徴量の少なくともいずれかが所定範囲内でない)の場合には、STEP209に進み、対象物が歩行者でないと判定され、歩行者判定処理が終了される。なお、この歩行者を判定する手法については、上述の特許文献1に詳細に記載されている。
一方、STEP202の判断結果がYESの場合(|VY|≧VYth)は、自車両10がピッチングして上下方向の速度の大きさが画像上に残像が生じる程度に十分大きい場合であり、以下のSTEP205〜207の処理が行われ、STEP208又はSTEP209に進む。上述の時刻k+1〜k+6の例がこの場合に相当しており、以下では図4(e)に示した時刻k+5の例を用いて説明する。
まず、STEP205に進み、画像処理ユニット1は、STEP201で算出された輝度積算データが表す輝度積算画像のうちの、輝度積算値が所定値以上である部分を抽出する。なお、前記所定値は、例えば、輝度積算データの平均値と分散とに基づいて設定される。抽出された部分は、輝度積算画像上での対象物(以下、輝度積算対象物とする)を示し、図10(b)においてハッチングを付した領域のようになる。このとき、輝度積算画像上での対象物Tk+5の画像部分ARk+5は、幅AWbk+5、高さAHbk+5とする。
次に、STEP206で、画像処理ユニット1は、抽出された部分の特徴量を算出する。具体的には、まず、画像処理ユニット1は、STEP008で2値化対象物について算出したように、輝度積算対象物の面積ASk+5、重心AGck+5、対象物ATk+5の外接四角形の縦横比AASPk+5、高さAHbk、幅AWbk+5、重心AGbk+5、面積(AHbk+5×AWbk+5)とを算出する。そして、画像処理ユニット1は、STEP203と同様に、算出したこれらの値と、STEP014で算出された自車両10との距離Zv0k+5とを用いて、実空間での輝度積算対象物の形状特徴量を、歩行者判定用の特徴量として算出する。この実空間での輝度積算対象物の形状特徴量は、例えば、実空間における輝度積算対象物の幅ΔAWb、実空間における輝度積算対象物の高さΔAHb、実空間における輝度積算対象物の上端位置AYt、輝度積算対象物の面積と外接四角形の面積との比ARate=ASk+5/(AHbk+5×AWbk+5)、輝度積算対象物の重心位置と外接四角形の重心位置との実空間における距離Dis、外接四角形の縦横比ASPk+5等である。
次に、STEP207で、画像処理ユニット1は、STEP206で算出された特徴量が所定範囲内であるか否かを判断する。なお、前記所定範囲は、輝度積算画像上で、対象物が歩行者の上半身や全身であるときに採り得る値の範囲として予め定められる範囲である。
STEP207の判断結果がYES(全特徴量が所定範囲内である)の場合には、STEP208に進み、対象物Tk+5が歩行者である(歩行者の可能性がある)と判定され、歩行者判定処理が終了される。図10(b)に示した例では、所定範囲内であると判断され、対象物Tk+5が歩行者であると判定される。STEP207の判断結果がNO(特徴量の少なくともいずれかが所定範囲内でない)の場合には、STEP209に進み、対象物Tk+5が歩行者でない(歩行者の可能性がない)と判定され、歩行者判定処理が終了される。これにより、自車両10のピッチング時に、取得される画像上に生じる残像の影響を低減して、抽出された対象物Tk+5の種類(本実施形態では、対象物が歩行者であるか否か)を精度良く判定することができる。
以上の処理により、本実施形態によれば、自車両10のピッチング時に、画像上に生じる残像の影響を低減して、赤外線カメラ2R,2Lにより得られた画像から、自車両10の周辺に存在する対象物の種類を精度良く判定することができる。これにより、自車両10の運転者に情報の提示等を適切に行うことができる。
なお、本実施形態では、前述したように、画像処理ユニット1が、その機能として、対象物抽出手段11と、対象物判定手段12と、距離検出手段13とを含んでいる。より具体的には、図3のSTEP004〜007が対象物抽出手段11に相当し、図3のSTEP011〜014が距離検出手段13に相当し、図5のSTEP103が対象物判定手段12に相当する。
また、本実施形態では、画像処理ユニット1は、歩行者判定処理(STEP103)において、上下方向の速度VYの大きさが所定閾値VYth以上である場合に、輝度積算データを用いて対象物の種類(対象物が歩行者であるか否か)を判定するものとしたが、他の実施形態として、例えば、人工構造物判定処理(STEP104)において、輝度積算データを用いて対象物の種類(対象物が人工構造物であるか否か)を判定するものとしてもよい。また、歩行者判定処理と人工構造物判定処理との両方で、輝度積算データを用いて対象物の種類を判定するものとしてもよい。
また、本実施形態では、画像処理ユニット1は、STEP203,206で歩行者判定用の特徴量として、実空間での2値化対象物や輝度積算対象物の形状特徴量を用いるものとしたが、他の実施形態として、例えば、グレースケール画像や輝度積算画像上での平均値・分散等の輝度積算値の分布や、予め登録されているテンプレート画像との類似の度合等を算出して、歩行者判定用の特徴量として用いてもよい。
また、本実施形態では、画像処理ユニット1は、例えば時刻kの演算処理周期において、時刻k−5〜kで取得された画像に対して輝度積算データを算出する際に、対象物Tk-5〜Tkの距離Zv0k-5〜Zv0kに基づいて対象物の画像部分AREA0k-5〜AREA0kの大きさを補正し、補正した画像部分AREA0k-5’〜AREA0k’を用いて輝度積算データを算出したが(STEP201)、画像処理ユニット1は、演算処理周期が十分に短い場合には、時刻k−5〜kで取得された画像上での対象物の大きさの変化が少ないと想定して、補正を行わず対象物の画像部分AREA0k-5〜AREA0kをそのまま用いて輝度積算データを算出してもよい。
また、本実施形態では、画像処理ユニット1は、輝度積算データを逐次算出するものとしたが(STEP201)、他の実施形態として、例えば、上下方向の速度VYが所定閾値(例えばSTEP201の閾値より低く設定する)以上となった時刻tで輝度積算データの算出を開始し、時刻tから所定期間を経過した後の時刻t+nに、該時刻t+nに算出された輝度積算データを用いて対象物の種類を判定するものとしてもよい。このとき、各時刻t+nにおいて、時刻tから時刻t+nまでに取得された全画像に対して、輝度積算データを算出するものとしてもよい。
また、本実施形態では、画像処理ユニット1は、STEP018で回避対象であると判定された対象物について、自車両10の運転者に注意喚起を行うものとしたが、他の実施形態として、例えば、自車両10が、車両のステアリング装置、ブレーキ装置、アクセル装置のいずれかをアクチュエータによって操作可能(ひいては自車両10の走行挙動を操作可能)なものである場合には、STEP018で回避対象であると判定された対象物との接触を回避するように、もしくは、回避が容易になるように自車両10のステアリング装置、ブレーキ装置、アクセル装置を制御するようにしてもよい。例えば、運転者によるアクセルペダルの必要踏力が、回避対象の対象物が存在しない場合(通常の場合)よりも大きくなるようにアクセル装置を制御して、加速しにくくする。あるいは、回避対象と自車両10との接触を回避するために要求されるステアリング装置の操舵方向側へのステアリングハンドルの要求回転力を、反対側へのステアリングハンドルの要求回転力よりも低くして、当該操舵方向側へのステアリングハンドルの操作を容易に行い得るようにする。あるいは、ブレーキ装置のブレーキペダルの踏み込み量に応じた自車両10の制動力の増加速度を、通常の場合よりも高くする。このようにすることで、回避対象との接触を避けるための自車両10の運転が容易になる。また、上記のようなステアリング装置の制御と、表示装置7もしくはスピーカ6による注意喚起とは、並行して行うようにしてもよい。
また、本実施形態では、画像処理ユニット1は、ピッチングによって変化する状態量の検出値として、上下方向の速度(並進速度)VYを用いて、速度VYの大きさが所定閾値VYth以上のときにピッチングが検出されたと判断し、速度VYの大きさが所定閾値VYth未満のときにピッチングが検出されていないと判断するものとしている。これに対し、他の実施形態として、画像処理ユニット1は、上下方向の速度VYの代わりに、自車両10のピッチング軸周りの角速度PRを用いて、ピッチング軸周りの角速度PRの大きさに応じて自車両10のピッチングを検出し、対象物の種類を判定する処理を実行するようにしてもよい。
このとき、ピッチング検出手段として、自車両10の前部(赤外線カメラ2R,2Lの近傍箇所)に取り付けられた上下方向及び前後方向の加速度センサを用い、逐次検出した上下方向及び前後方向の加速度を時間積分することにより、ピッチング軸周りの角速度PRを算出してもよい。または、ピッチング検出手段として、自車両10のピッチング軸周りの角速度PRを逐次検出するレートセンサを用いてもよい。または、自車両10のピッチング角度(ピッチング軸周りの角度)を逐次検出し、所定時間当たりのピッチング角度の変化量(ピッチング軸周りの角速度PR)を算出してもよい。
また、本実施形態では、距離検出手段13は、対象物の自車両10に対する距離を、赤外線カメラ2R,2Lを介して取得された画像に基づいて算出したが、他の実施形態として、距離検出手段13は、対象物の自車両10に対する距離を、ミリ波レーダ等の他のセンサにより検出された対象物の位置情報に基づいて算出するものとしてもよい。
また、本実施形態では、撮像手段として赤外線カメラを使用したが、例えば通常の可視光線のみ検出可能なCCDカメラ等を使用してもよい。ただし、赤外線カメラを用いることにより、歩行者や走行中の車両等の抽出処理を簡略化することができ、演算装置の演算能力が比較的低いものでも実現可能とすることができる。
本発明の第1実施形態による対象物検出装置の機能ブロック図。 図1に示した対象物検出装置の車両への取り付け態様の説明図。 図1の対象物検出装置の画像処理ユニットにおける対象物検出・注意喚起動作を示すフローチャート。 図3の対象物検出・注意喚起動作における処理画像の例示図。 図3の対象物検出・注意喚起動作における回避判定処理のフローチャート。 図5の回避判定処理における車両前方の領域区分を示す説明図。 図5の回避判定処理における歩行者判定処理のフローチャート。 図7の歩行者判定処理に関する説明図。 図7の歩行者判定処理に関する説明図。 図7の歩行者判定処理に関する説明図。
符号の説明
2R,2L…赤外線カメラ(撮像手段)、10…車両、11…対象物抽出手段、12…対象物判定手段、13…距離検出手段、14…加速度センサ(ピッチング検出手段)。

Claims (6)

  1. 車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出手段と、該対象物抽出手段により抽出された対象物の種類を判定する対象物判定手段とを備えた対象物検出装置において、
    前記車両のピッチングを逐次検出するピッチング検出手段を備え、
    前記対象物判定手段は、少なくとも前記画像が前記ピッチング検出手段によりピッチングが検出されたときに取得された画像である場合に、該画像が取得された時刻を含む所定期間内に前記撮像手段を介して取得された複数の画像に対し、該複数の画像から前記対象物抽出手段によりそれぞれ抽出された対象物の画像部分の輝度値を、該複数の画像間の対応する画素毎に積算した輝度積算値を画素データとする輝度積算画像を表す輝度積算データを算出する手段と、該算出された輝度積算データが表す輝度積算画像のうちの輝度積算値が所定値以上である部分を抽出する手段とを備え、該抽出された部分の特徴量に基づいて、該対象物の種類を判定することを特徴とする対象物検出装置。
  2. 前記対象物判定手段における前記輝度積算データを算出する手段は、所定の演算処理周期の各時刻において、該時刻から所定時間前までの期間を前記所定期間として、該所定期間内に前記撮像手段を介して取得された複数の画像に対し、前記輝度積算データを逐次算出する手段であることを特徴とする請求項1記載の対象物検出装置。
  3. 前記対象物抽出手段により抽出された対象物の、前記車両に対する距離を逐次検出する距離検出手段を備え、
    前記対象物判定手段は、前記複数の画像からそれぞれ抽出された対象物の、前記距離検出手段により検出された距離に基づいて、該複数の画像からそれぞれ抽出された対象物の画像部分の大きさを補正する手段を備え、該補正された画像部分を用いて、前記輝度積算データを算出することを特徴とする請求項1又は請求項2記載の対象物検出装置。
  4. 請求項1〜請求項3のうちいずれか1項記載の対象物検出装置が搭載されたことを特徴とする車両。
  5. 車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出し、該抽出された対象物の種類を判定する対象物検出方法であって、
    前記車両のピッチングを逐次検出するピッチング検出ステップと、
    少なくとも前記画像が前記ピッチング検出ステップでピッチングが検出されたときに取得された画像である場合に、該画像が取得された時刻を含む所定期間内に前記撮像手段を介して取得された複数の画像に対し、該複数の画像からそれぞれ抽出された対象物の画像部分の輝度値を、該複数の画像間の対応する画素毎に積算した輝度積算値を画素データとする輝度積算画像を表す輝度積算データを算出し、該算出された輝度積算データが表す輝度積算画像のうちの輝度積算値が所定値以上である部分を抽出し、該抽出された部分の特徴量に基づいて、該対象物の種類を判定する対象物判定ステップとを備えたことを特徴とする対象物検出方法。
  6. 車両に搭載された撮像手段を介して取得した画像から逐次抽出される、該車両の周辺に存在する対象物の種類を判定する処理をコンピュータに実行させる対象物検出用プログラムであって、
    前記車両のピッチングによって変化する状態量の検出値を逐次取得する処理と、
    少なくとも前記画像が前記検出値によりピッチングが検出されたときに取得された画像である場合に、該画像が取得された時刻を含む所定期間内に前記撮像手段を介して取得された複数の画像に対し、該複数の画像からそれぞれ抽出された対象物の画像部分の輝度値を、該複数の画像間の対応する画素毎に積算した輝度積算値を画素データとする輝度積算画像を表す輝度積算データを算出する処理と、
    前記算出された輝度積算データが表す輝度積算画像のうちの輝度積算値が所定値以上である部分を抽出する処理と、
    前記抽出された部分の特徴量に基づいて、該対象物の種類を判定する処理とを前記コンピュータに実行させる機能を有することを特徴とする対象物検出用プログラム。
JP2006163835A 2006-06-13 2006-06-13 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム Pending JP2007336091A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006163835A JP2007336091A (ja) 2006-06-13 2006-06-13 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006163835A JP2007336091A (ja) 2006-06-13 2006-06-13 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム

Publications (1)

Publication Number Publication Date
JP2007336091A true JP2007336091A (ja) 2007-12-27

Family

ID=38935160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006163835A Pending JP2007336091A (ja) 2006-06-13 2006-06-13 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム

Country Status (1)

Country Link
JP (1) JP2007336091A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009101660A1 (ja) * 2008-02-13 2009-08-20 Honda Motor Co., Ltd. 車両周辺監視装置、車両、車両周辺監視プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009101660A1 (ja) * 2008-02-13 2009-08-20 Honda Motor Co., Ltd. 車両周辺監視装置、車両、車両周辺監視プログラム
JP2009194542A (ja) * 2008-02-13 2009-08-27 Honda Motor Co Ltd 車両周辺監視装置、車両、車両周辺監視プログラム
JP4521642B2 (ja) * 2008-02-13 2010-08-11 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視プログラム
US7974445B2 (en) 2008-02-13 2011-07-05 Honda Motor Co., Ltd. Vehicle periphery monitoring device, vehicle, and vehicle periphery monitoring program

Similar Documents

Publication Publication Date Title
JP4173901B2 (ja) 車両周辺監視装置
JP4173896B2 (ja) 車両周辺監視装置
US9073484B2 (en) Surrounding area monitoring apparatus for vehicle
JP4410292B1 (ja) 車両の周辺監視装置
JP5503728B2 (ja) 車両の周辺監視装置
JP4470067B2 (ja) 対象物種別判定装置、車両
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP4173902B2 (ja) 車両周辺監視装置
JP5687702B2 (ja) 車両周辺監視装置
JP4171501B2 (ja) 車両の周辺監視装置
US20030137593A1 (en) Infrared image-processing apparatus
JP4528283B2 (ja) 車両周辺監視装置
JP2007304033A (ja) 車両の周辺監視装置、車両、車両の周辺監視方法、および車両の周辺監視用プログラム
JP2014085920A (ja) 車両周辺監視装置
JP2007334511A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム
JP4887537B2 (ja) 車両周辺監視装置
JP5292047B2 (ja) 車両の周辺監視装置
JP2008077154A (ja) 車両周辺監視装置
JP4823753B2 (ja) 車両の周辺監視装置
JP4627305B2 (ja) 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラム
JP4629638B2 (ja) 車両の周辺監視装置
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP2007311866A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム
JP2007336091A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム
JP4975776B2 (ja) 車両周辺監視装置