JP2008236029A - 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラム - Google Patents

車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラム Download PDF

Info

Publication number
JP2008236029A
JP2008236029A JP2007069059A JP2007069059A JP2008236029A JP 2008236029 A JP2008236029 A JP 2008236029A JP 2007069059 A JP2007069059 A JP 2007069059A JP 2007069059 A JP2007069059 A JP 2007069059A JP 2008236029 A JP2008236029 A JP 2008236029A
Authority
JP
Japan
Prior art keywords
vehicle
image
change amount
distance
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007069059A
Other languages
English (en)
Other versions
JP4627305B2 (ja
Inventor
Masato Watanabe
正人 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2007069059A priority Critical patent/JP4627305B2/ja
Publication of JP2008236029A publication Critical patent/JP2008236029A/ja
Application granted granted Critical
Publication of JP4627305B2 publication Critical patent/JP4627305B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車両周辺を撮像した画像により抽出された対象物から、該対象物が歩行者以外の人工構造物であるか否かを適切に判断することができる車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラムを提供する。
【解決手段】車両周辺監視装置は、撮像手段2R,2Lにより撮像された画像から第1対象物を抽出する第1対象物抽出手段11と、第1対象物との画像上での高さの差が所定値以下で、且つ第1対象物との画像上での形状に関する類似の度合が所定値以上である第2対象物を画像から抽出する第2対象物抽出手段12と、第1対象物と第2対象物との間の領域を監視領域として設定する監視領域設定手段14と、時系列の画像から監視領域における時系列の輝度変化量を算出する輝度変化量算出手段15と、少なくとも輝度変化量が所定値以下である場合に、第1対象物及び第2対象物が人工構造物であると判断する人工構造物判断手段16とを備える。
【選択図】図1

Description

本発明は、車両に搭載されたカメラ等の撮像手段を介して取得した画像から、車両の周辺を監視する装置及び方法に関する。さらに、その装置の処理をコンピュータに実行させるためのプログラムに関する。
近年、車両に赤外線カメラ等の撮像手段を搭載して周辺を撮像し、撮像された画像から車両の周辺に存在する歩行者等の対象物を検出し、運転者への情報の提示等を行う技術が知られている(例えば、特許文献1参照)。
特許文献1の領域推定装置では、車載された赤外線カメラにより撮影された車両前方の赤外線画像から、歩行者等の検出対象者を検出する。具体的には、前記領域推定装置は、赤外線画像上で検出対象者の頭部位置を判別し、この赤外線画像内の頭部位置の情報に基づき、赤外線画像上での検出対象者の身体に相当する領域を決定する。そして、前記領域推定装置は、検出対象者の身体に相当する領域を他の領域と区別できるように強調処理等し、この赤外線画像を表示モニタに表示する。このとき、前記領域推定装置は、赤外線画像の輝度分布から明部が集中している領域を抽出し、抽出した領域の重心位置、縦横比、充足率、実面積等の形状に関する特徴に基づいて、抽出した領域から検出対象者の頭部の領域を決定する。そして、頭部の検出位置と歩行者の一般的な身長とに基づいて、歩行者の身体に相当する領域を決定する。
特開平11−328364号公報
一方、車両の周辺には、歩行者の他に、他車両や電柱等の道路周辺の人工構造物も存在する。そして、これらの歩行者以外のものが、画像上で、歩行者の頭部と同様の輝度分布や形状等の特徴を有する場合がある。例えば、前走車のテールライトやタイヤ、道路周辺の電柱等も、温度が比較的高いので赤外線画像上で明部が集中している領域となり得る。さらに、前走車のテールライトは、歩行者の頭部と同様の形状特徴となり得る。
しかしながら、特許文献1の領域推定装置では、単に赤外線画像上の輝度分布と形状とに基づいて歩行者の頭部に相当する領域を決定しているため、前走車のテールライト等と歩行者とを区別することができない。このため、前走車のテールライト等を歩行者の頭部と誤判断して歩行者の頭部に相当する領域が決定されてしまい、これにより、歩行者の身体に相当する領域が誤って決定されて画像モニタに表示されてしまう。
本発明は、かかる背景に鑑みてなされたものであり、車両周辺を撮像した画像により抽出された対象物から、該対象物が歩行者以外の人工構造物であるか否かを適切に判断することができる車両周辺監視装置、車両周辺監視方法、及び該車両周辺監視装置の処理をコンピュータに実行させる車両周辺監視用プログラムを提供することを目的とする。
かかる目的を達成するために、本発明の第1態様の車両周辺監視装置は、車両に搭載された少なくとも1つの撮像手段により撮像された画像から、該車両の周辺を監視する車両周辺監視装置において、前記撮像手段により撮像された画像から、第1対象物を抽出する第1対象物抽出手段と、前記第1対象物抽出手段により抽出された第1対象物と、該第1対象物との前記画像上での高さの差が所定値以下で、且つ該第1対象物との該画像上での形状に関する類似の度合が所定値以上である第2対象物を、前記撮像手段により撮像された画像から抽出する第2対象物抽出手段と、前記第1対象物と前記第2対象物との間の領域を監視領域として設定する監視領域設定手段と、前記撮像手段により撮像された時系列の画像から、前記監視領域設定手段により設定された監視領域における時系列の輝度変化量を算出する輝度変化量算出手段と、少なくとも前記輝度変化量算出手段により算出された輝度変化量が所定値以下である場合に、前記第1対象物及び第2対象物が人工構造物であると判断する人工構造物判断手段とを備えることを特徴とする(第1発明)。
この第1発明の車両周辺監視装置では、第1対象物抽出手段により、撮像手段により撮像された画像から、車両の周辺に存在する歩行者等の対象物が逐次抽出される。第1対象物抽出手段は、例えば、画像における輝度分布や形状に関する特徴に基づいて対象物を抽出する。このとき、抽出された第1対象物には、歩行者以外に、例えば前走車のテールライト等の、画像における輝度分布や形状に関する特徴が歩行者と類似する人工構造物が含まれている場合がある。
これに対して、第2対象物抽出手段により、第1対象物との画像上での高さの差が所定範囲内で、且つ第1対象物との画像上での形状に関する類似の度合が所定範囲内である第2対象物を画像から抽出する。すなわち、前走車のテールライトは、一般に、左右1対となっており、前走車は画像上で水平に撮像されることが想定される。このため、抽出された第2対象物は、第1対象物がテールライトの一方である場合の、テールライトの他方である可能性が高い。ただし、歩行者が2人並んでいる可能性も考えられる。
そこで、監視領域設定手段により、第1対象物と第2対象物との間の領域を監視領域として設定し、輝度変化量算出手段により、時系列の画像から監視領域における時系列の輝度変化量を算出する。すなわち、前走車のテールライトの間の領域は、一般に、前走車のトランク部分を含んでおり、このトランク部分は、逐次変化する歩行者の背景と比べて、時系列の輝度変化量が少ないと考えられる。よって、人工構造物判断手段により、輝度変化量が所定値以下である場合に、第1対象物及び第2対象物を人工構造物と判断することで、対象物が前走車のテールライト等の人工構造物であるか否かを適切に判断することができる。
従って、本発明によれば、車両周辺を撮像した画像により抽出された対象物から、該対象物が歩行者以外の人工構造物であるか否かを適切に判断することができる。
この本発明によれば、第1対象物及び第2対象物の画像上での高さ及び形状や、画像上での輝度変化量といった、画像から得られる情報のみを用いて、対象物が人工構造物であるか否かを容易に判断することができる。
または、本発明の第2態様の車両周辺監視装置は、車両に搭載された少なくとも1つの撮像手段により撮像された画像から、該車両の周辺を監視する車両周辺監視装置において、前記車両の周辺に存在する対象物の前記車両に対する距離を算出する距離算出手段と、前記撮像手段により撮像された画像から第1対象物を抽出すると共に、前記距離算出手段を用いて該第1対象物の実空間上の位置を検出する第1対象物抽出手段と、前記撮像手段により撮像された画像から第2対象物の候補を抽出すると共に、前記距離算出手段を用いて該第2対象物の候補の実空間上の位置を検出し、該第2対象物の候補のうちの該第1対象物との実空間上の高さの差が所定値以下で、且つ該第1対象物との該実空間上の形状に関する類似の度合が所定値以上である第2対象物を抽出する第2対象物抽出手段と、前記第1対象物と前記第2対象物との間の領域を監視領域として設定する監視領域設定手段と、前記撮像手段により撮像された時系列の画像から、前記監視領域設定手段により設定された監視領域における時系列の輝度変化量を算出する輝度変化量算出手段と、少なくとも前記輝度変化量算出手段により算出された輝度変化量が所定値以下である場合に、前記第1対象物及び第2対象物が人工構造物であると判断する人工構造物判断手段とを備えることを特徴とする(第2発明)。
この第2発明の車両周辺監視装置では、第1対象物抽出手段により、撮像手段により撮像された画像から、車両の周辺に存在する歩行者等の対象物が逐次抽出されると共に、この第1対象物の実空間上の位置が検出される。第1対象物抽出手段は、例えば、画像における輝度分布や形状に関する特徴に基づいて対象物を抽出する。そして、第1対象物の実空間上の位置が検出され、該第1対象物の実空間上の位置と画像における形状に関する特徴とから、該第1対象物の実空間上の形状が把握される。このとき、抽出された第1対象物には、歩行者以外に、例えば前走車のテールライト等の、画像における輝度分布や形状に関する特徴が歩行者と類似する人工構造物が含まれている場合がある。
これに対して、第2対象物抽出手段により、第1対象物との実空間上での高さの差が所定範囲内で、且つ第1対象物との実空間上での形状に関する類似の度合が所定範囲内である第2対象物を画像から抽出する。すなわち、前走車のテールライトは、一般に、左右1対となっており、また、前走車は路面に対して水平となっている。このため、抽出された第2対象物は、第1対象物がテールライトの一方である場合の、テールライトの他方である可能性が高い。
このとき、第2発明の車両周辺監視装置では、距離算出手段が備えられており、この距離算出手段を用いて、画像から抽出される対象物の実空間上の位置が検出される。これにより、第1対象物及び第2対象物の高さと形状を、実空間上で比較することができるので、1対のテールライトである可能性が高い第1対象物及び第2対象物が、第1対象物抽出手段及び第2対象物抽出手段によって、より確実に抽出される。
さらに、第1発明と同様に、監視領域設定手段により、第1対象物と第2対象物との間の領域を監視領域として設定し、輝度変化量算出手段により、時系列の画像から監視領域における時系列の輝度変化量を算出する。すなわち、前走車のテールライトの間の領域は、一般に、前走車のトランク部分を含んでおり、このトランク部分は、逐次変化する歩行者の背景と比べて、時系列の輝度変化量が少ないと考えられる。よって、人工構造物判断手段により、輝度変化量が所定値以下である場合に、第1対象物及び第2対象物を人工構造物と判断する。これにより、歩行者が2人並んでいる場合を排除して、対象物が前走車のテールライト等の人工構造物であるか否かを適切に判断することができる。
従って、本発明によれば、車両周辺を撮像した画像により抽出された対象物から、該対象物が歩行者以外の人工構造物であるか否かを適切に判断することができる。
また、第1又は第2発明の車両周辺監視装置において、前記第1対象物及び前記第2対象物の、実空間上における前記車両に対する距離を算出する距離算出手段を備える場合には、前記第2対象物抽出手段は、前記第2対象物のうちの、前記第1対象物との実空間上の距離の差が所定値以下である第2対象物を抽出することが好ましい(第3発明)。
すなわち、前走車は撮像手段が搭載された車両と同じ方向に進むので、前走車の1対のテールライトは、いずれも車両からの距離が同程度と考えられる。よって、第1対象物及び第2対象物の車両に対する距離を算出する距離算出手段を備える場合には、第2対象物抽出手段は、第2対象物のうちの第1対象物との実空間上の距離の差が所定範囲内である第2対象物を抽出することで、前走車のテールライト等の人工構造物の可能性が高い対象物をより精度良く抽出することができる。
また、第2又は第3発明の車両周辺監視装置において、前記距離算出手段は、前記監視領域の実空間上における前記車両に対する距離をさらに算出し、前記人工構造物判断手段は、前記輝度変化量算出手段により算出された輝度変化量が所定値以下である場合において、前記距離算出手段によって算出された第1対象物又は第2対象物の距離と前記監視領域の距離との差が、所定値以下である場合に、前記第1対象物及び第2対象物が人工構造物であると判断することが好ましい(第4発明)。
すなわち、抽出された第1対象物及び第2対象物が、2人並んだ歩行者である場合に、この歩行者の背景が、所定時間内で輝度が一様に低い場合もある。この場合、時系列の画像における輝度変化量が小さくなり、前走車のトランク部分の輝度変化量との区別が難しいことが想定される。一方、一般に、前走車のテールライトとテーライト間のトランク部分とはいずれも車両との距離がほぼ同じであるが、歩行者と背景とは、車両との距離が相違する。そこで、距離算出手段により、監視領域の車両に対する距離が算出される場合には、人工構造物判断手段により、第1対象物又は第2対象物の距離と監視領域の距離との差が所定値以下である場合に、第1対象物及び第2対象物が人工構造物である判断することで、対象物が前走車のテールライト等の人工構造物であるか否かをより適切に判断することができる。
また、第2〜第4発明の車両周辺監視装置において、前記距離算出手段は、2つの撮像手段により撮像された画像を用いた相関演算を行い、該相関演算の結果算出される視差を用いて前記距離を算出することが好ましい(第5発明)。すなわち、2つの撮像手段はいわゆるステレオカメラを構成しており、この2つの撮像手段により撮像された画像から得られる視差を用いることで、対象物の車両に対する距離が精度良く算出される。よって、人工構造物判断手段により、第1及び第2対象物が人工構造物であるか否かがより精度良く判断される。
または、第2〜第4発明の車両周辺監視装置において、前記距離算出手段は、前記車両に搭載されたレーダを用いて前記距離を算出することが好ましい(第6発明)。この場合、レーダを用いることで対象物の車両に対する距離が精度良く算出されるので、人工構造物判断手段により、第1及び第2対象物が人工構造物であるか否かがより精度良く判断される。
また、第1〜第6発明の車両周辺監視装置において、前記監視領域設定手段は、前記第1対象物と第2対象物との距離に応じて、前記監視領域の大きさが所定値となるように、前記監視領域を設定することが好ましい(第7発明)。
すなわち、撮像手段が搭載された車両と前走車との距離は変化するものであり、この距離に応じて、画像上の前走車の1対のテールライト間の距離とトランク部分の大きさとが変化する。よって、監視領域設定手段により、第1対象物と第2対象物との距離に対する監視領域の大きさが所定値となるように、該距離に応じて監視領域を可変に設定する。これにより、監視領域が前走車のテールライト間のトランク部分に相当する領域となるように、該監視領域を適切に設定することができる。
また、第1〜第7発明の車両周辺監視装置において、前記輝度変化量算出手段は、前記時系列の各画像の前記監視領域における、該各画像の各画素の有する輝度値のヒストグラムから前記輝度変化量を算出することが好ましい(第8発明)。この場合、輝度値のヒストグラムから、各時刻の監視領域における輝度値の分布の傾向が容易に把握される。よって、輝度変化量算出手段により、この輝度値のヒストグラムを用いて輝度変化量を算出することでに、時系列の輝度変化量が適切に得られる。
また、第8発明の車両周辺監視装置において、前記輝度変化量算出手段は、前記時系列の各画像の前記ヒストグラムから平均値を算出し、該平均値の該時系列での変化量を、前記輝度変化量として用いることが好ましい(第9発明)。この場合、輝度値のヒストグラムから算出される平均値は、局所的な輝度分布の変化が排除されているので、監視領域における輝度値の分布の傾向を顕著に示すものである。よって、輝度変化量算出手段により、この輝度値の平均値の変化量を輝度変化量として用いることで、時系列の輝度変化量が適切に把握される。
また、第1〜第9発明の車両周辺監視装置において、前記撮像手段は、赤外線カメラであることが好ましい(第10発明)。この場合、赤外線カメラにより撮像される赤外線画像上では、温度の高い対象物に対応する領域が輝度の高い領域となるので、画像から、熱源である歩行者やテールライトを容易に抽出することができる。
次に、本発明の第1態様の車両周辺監視方法は、車両に搭載された少なくとも1つの撮像手段により撮像された画像から、該車両の周辺を監視する車両周辺監視方法であって、前記撮像手段により撮像された画像から、第1対象物を抽出する第1対象物抽出ステップと、前記第1対象物抽出ステップにより抽出された第1対象物と、該第1対象物との前記画像上での高さの差が所定値以下で、且つ該第1対象物との該画像上での形状に関する類似の度合が所定値以上である第2対象物を、前記撮像手段により撮像された画像から抽出する第2対象物抽出ステップと、前記第1対象物と前記第2対象物との間の領域を監視領域として設定する監視領域設定ステップと、前記撮像手段により撮像された時系列の画像から、前記監視領域設定手段により設定された監視領域における時系列の輝度変化量を算出する輝度変化量算出ステップと、少なくとも前記輝度変化量算出ステップにより算出された輝度変化量が所定値以下である場合に、前記第1対象物及び第2対象物が人工構造物であると判断する人工構造物判断ステップとを備えたことを特徴とする(第11発明)。
または、本発明の第2態様の車両周辺監視方法は、車両に搭載された少なくとも1つの撮像手段により撮像された画像から、該車両の周辺を監視する車両周辺監視方法であって、前記車両の周辺に存在する対象物の前記車両に対する距離を算出する距離算出ステップと、前記撮像手段により撮像された画像から第1対象物を抽出すると共に、前記距離算出ステップを用いて該第1対象物の実空間上の位置を検出する第1対象物抽出ステップと、前記撮像手段により撮像された画像から第2対象物の候補を抽出すると共に、前記距離算出ステップを用いて該第2対象物の候補の実空間上の位置を検出し、該第2対象物の候補のうちの該第1対象物との実空間上の高さの差が所定値以下で、且つ該第1対象物との該実空間上の形状に関する類似の度合が所定値以上である第2対象物を抽出する第2対象物抽出ステップと、前記第1対象物と前記第2対象物との間の領域を監視領域として設定する監視領域設定ステップと、前記撮像手段により撮像された時系列の画像から、前記監視領域設定ステップにより設定された監視領域における時系列の輝度変化量を算出する輝度変化量算出ステップと、少なくとも前記輝度変化量算出ステップにより算出された輝度変化量が所定値以下である場合に、前記第1対象物及び第2対象物が人工構造物であると判断する人工構造物判断ステップとを備えたことを特徴とする(第12発明)。
この第11及び第12発明の車両周辺監視方法によれば、第1発明及び第2発明の車両周辺監視装置に関して説明したように、第1対象物抽出手段と第2対象物抽出手段により、歩行者と特徴が類似した、前走車のテールライトの可能性の高い第1対象物及び第2対象物が抽出される。そして、人工構造物判断手段により、輝度変化量が所定値以下である場合に、第1対象物及び第2対象物を人工構造物と判断することで、第1対象物及び第2対象物が2人並んだ歩行者である場合を排除して、対象物が前走車のテールライト等の人工構造物であるか否かを適切に判断することができる。よって、本発明によれば、車両周辺を撮像した画像により抽出された対象物から、該対象物が歩行者以外の人工構造物であるか否かを適切に判断することができる。
次に、本発明の第1態様の車両周辺監視用プログラムは、車両に搭載された少なくとも1つの撮像手段により撮像された画像から、該車両の周辺を監視する処理をコンピュータに実行させる車両周辺監視用プログラムであって、前記撮像手段により撮像された画像から、第1対象物を抽出する第1対象物抽出処理と、前記第1対象物抽出処理により抽出された第1対象物と、該第1対象物との前記画像上での高さの差が所定値以下で、且つ該第1対象物との該画像上での形状に関する類似の度合が所定値以上である第2対象物を、前記撮像手段により撮像された画像から抽出する第2対象物抽出処理と、前記第1対象物と前記第2対象物との間の領域を監視領域として設定する監視領域設定処理と、前記撮像手段により撮像された時系列の画像から、前記監視領域設定処理により設定された監視領域における時系列の輝度変化量を算出する輝度変化量算出処理と、少なくとも前記輝度変化量算出処理により算出された輝度変化量が所定値以下である場合に、前記第1対象物及び第2対象物が人工構造物であると判断する人工構造物判断処理とを前記コンピュータに実行させる機能を有することを特徴とする(第13発明)。
または、本発明の第2態様の車両周辺監視用プログラムは、車両に搭載された少なくとも1つの撮像手段により撮像された画像から、該車両の周辺を監視する処理をコンピュータに実行させる車両周辺監視用プログラムであって、前記車両の周辺に存在する対象物の前記車両に対する距離を算出する距離算出処理と、前記撮像手段により撮像された画像から第1対象物を抽出すると共に、前記距離算出処理を用いて該第1対象物の実空間上の位置を検出する第1対象物抽出処理と、前記撮像手段により撮像された画像から第2対象物の候補を抽出すると共に、前記距離算出処理を用いて該第2対象物の候補の実空間上の位置を検出し、該第2対象物の候補のうちの該第1対象物との実空間上の高さの差が所定値以下で、且つ該第1対象物との該実空間上の形状に関する類似の度合が所定値以上である第2対象物を抽出する第2対象物抽出処理と、前記第1対象物と前記第2対象物との間の領域を監視領域として設定する監視領域設定処理と、前記撮像手段により撮像された時系列の画像から、前記監視領域設定処理により設定された監視領域における時系列の輝度変化量を算出する輝度変化量算出処理と、少なくとも前記輝度変化量算出処理により算出された輝度変化量が所定値以下である場合に、前記第1対象物及び第2対象物が人工構造物であると判断する人工構造物判断処理とを前記コンピュータに実行させる機能を有することを特徴とする(第14発明)。
この第13及び第14発明の対象物検出用プログラムによれば、第1及び第2発明に関して説明した効果を奏し得る処理をコンピュータに実行させることができる。
[第1実施形態]
本発明の一実施形態を添付の図面を参照して説明する。まず、第1実施形態について、図1〜図12を参照して説明する。図1は、本実施形態による車両周辺監視装置の機能ブロック図であり、図2は、図1に示した車両周辺監視装置の車両への取り付け態様の説明図である。また、図3は、図1の車両周辺監視装置における対象物検出・注意喚起動作を示すフローチャートであり、図4は、図3の対象物検出・注意喚起動作における回避判定処理のフローチャートであり、図5は、図4の回避判定処理における車両前方の領域区分を示す説明図である。また、図6は、図3の対象物検出・注意喚起動作における撮像画像の例示図であり、図7は、図3の対象物検出・注意喚起動作における対象物抽出処理の処理画像の例示図である。また、図8は、図4の回避判定処理の人工構造物判定処理における距離算出処理の説明図であり、図9は、図4の回避判定処理の人工構造物判定処理における監視領域設定処理の説明図であり、図10は、図4の回避判定処理の人工構造物判定処理における輝度ヒストグラムを示すグラフである。また、図11,図12は、図4の回避判定処理の人工構造物判定処理における監視領域の距離算出処理の例示図である。なお、本実施形態は、本発明の第1態様の車両周辺監視装置に相当する。
図1,図2を参照して、本実施形態の車両周辺監視装置は、CPU(中央演算装置)を備えた電子ユニットである画像処理ユニット1を有する。画像処理ユニット1には、2つの赤外線カメラ2R,2Lが接続されると共に、自車両10の走行状態を検出するセンサとして、自車両10のヨーレートを逐次検出するヨーレートセンサ3と、自車両10の走行速度(車速)を逐次検出する車速センサ4と、自車両10のブレーキの操作を逐次検出するためのブレーキセンサ5とが接続されている。
また、画像処理ユニット1には、自車両10に搭載された、音声等による聴覚的な注意喚起情報を出力するためのスピーカ6と、赤外線カメラ2R,2Lにより撮像された画像や視覚的な注意喚起情報を表示するための表示装置7とが接続されている。表示装置7は、例えば、自車両10のフロントウィンドウに画像等の情報を表示するHUD(ヘッドアップディスプレイ)7a等を備えている。HUD7aは、自車両10のフロントウィンドウの運転者の前方視界を妨げない位置に画面が表示されるように設けられている。
赤外線カメラ2R,2Lは、遠赤外線を検出可能なカメラであり、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。なお、赤外線カメラ2R,2Lは、本発明の撮像手段に相当する。
図2に示すように、赤外線カメラ2R,2Lは、自車両10の前方を撮像するために、自車両10の前部に所定の間隔で取り付けられている。そして、赤外線カメラ2R,2Lは、それらの光軸が互いに平行であって、且つ、それぞれの光軸の路面からの高さが等しくなるように自車両10の前部に固定されている。
画像処理ユニット1は、詳細の図示は省略するが、A/D変換回路、CPU、RAM、ROM、画像メモリ等を含む電子回路により構成され、赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4、ブレーキセンサ5の出力(アナログ信号)がA/D変換回路を介してデジタル信号に変換されて入力される。そして、画像処理ユニット1は、所定の演算処理周期毎に、入力されたデータを基に、歩行者等の対象物を検出する処理や、その検出した対象物に関する所定要件が満たされるか否かを判定し、該要件が満たされる場合にスピーカ6や表示装置7を介して運転者に注意喚起(対象物に対する運転者の注意の喚起)を行う処理等を実行する。これらの処理は、画像処理ユニット1のROMに予め実装されたプログラムを画像処理ユニット1により実行することにより実現され、そのプログラムは、本発明の車両周辺監視用プログラムを含んでいる。
より詳しくは、画像処理ユニット1は、上記プログラムにより実現される機能として、画像から第1対象物を抽出する対象物抽出手段11と、第1対象物との高さの差や形状に関する類似の度合が所定要件を満たす第2対象物を画像から抽出する第2対象物抽出手段12と、第1対象物と第2対象物との間の領域を監視領域として設定する監視領域設定手段14と、時系列の画像から監視領域における時系列の輝度変化量を算出する輝度変化量算出手段15と、第1対象物及び第2対象物が人工構造物であるか否かを判断する人工構造物判断手段16とを備える。さらに、画像から第1対象物、第2対象物、及び監視領域の実空間上における車両10に対する距離を算出する距離算出手段13を備える。
第1対象物抽出手段11は、赤外線カメラ2R,2Lを介して取得された画像から、自車両10の周辺に存在する対象物を、第1対象物として抽出する。具体的には、対象物抽出手段11は、赤外線カメラ2R,2Lを介して取得された画像のうちの所定の基準画像(本実施形態では、赤外線カメラ2Rを介して取得された画像とする)に2値化処理等を施して、さらにラベリング処理等を施し、対象物の画像部分を抽出する。
第2対象物抽出手段12は、赤外線カメラ2R,2Lを介して取得された画像から、第1対象物抽出手段12により抽出された第1対象物との、高さの差、形状に関する類似の度合、及び車両の対する距離の差が所定要件を満たす第2対象物を抽出する。具体的には、第2対象物抽出手段12は、第1対象物抽出手段11と同様に抽出された自車両10の周辺に存在する対象物のうちから、第1対象物との画像上での高さの差が所定値以下で、且つ第1対象物との画像上での形状に関する類似の度合が所定値以上で、且つ該第1対象物との車両10に対する距離の差が所定値以下である対象物を、第2対象物として抽出する。
距離算出手段14は、基準画像上で抽出された第1対象物及び第2対象物に対応する対象物を赤外線カメラ2Lを介して取得された画像上で探索し、2つの赤外線カメラ2R,2Lから得られる画像上での対象物のずれ(視差)に基づいて、対象物の自車両10に対する距離を検出する。また、距離算出手段14は、対象物と同様に、監視領域に対応する領域を赤外線カメラ2Lを介して取得された画像上で探索し、2つの赤外線カメラ2R,2Lから得られる画像上での対象物のずれ(視差)に基づいて、対象物の自車両10に対する距離を検出する。なお、画像に基づいて対象物の距離を検出する具体的な手法としては、例えば、本願出願人による特開2003−284057号公報に記載したような手法を用いることができる。
監視領域設定手段14は、第1対象物の車両に対する距離と、第2対象物の車両に対する距離との差に応じて、基準画像上で、第1対象物と第2対象物との間の領域に監視領域を設定する。このとき、監視領域設定手段14は、第1対象物と第2対象物とが前走車のテールライトであるとした場合に、当該前走車のトランク部分に相当する所定の領域となるように(監視領域の大きさが所定値となるように)、監視領域を設定する。
輝度変化量算出手段15は、赤外線カメラ2Rにより撮像された時系列の画像(基準画像)から、監視領域設定手段14により設定された監視領域における時系列の輝度変化量を算出する。具体的には、輝度変化量算出手段15は、時系列の各画像について、監視領域における該各画像の各画素の有する輝度値のヒストグラムを得る。そして、輝度変化量算出手段15は、得られたヒストグラムから平均値を算出する。そして、輝度変化量算出手段15は、この平均値の時系列での変化量(例えば、平均値の時系列データにおける最大値と最小値との差)を輝度変化量として用いる。
人工構造物判断手段16は、輝度変化量算出手段15により算出された輝度変化量に基づいて、第1対象物抽出手段11により抽出された第1対象物及び第2対象物抽出手段12により抽出された第2対象物が人工構造物であるか否を判断する。具体的には、人工構造物判断手段16は、輝度変化量が所定値以下であり、且つ、距離算出手段13により算出された第1対象物の距離又は第2対象物の距離と、距離算出手段13により算出された監視領域の距離との差が、所定値以下である場合に、第1対象物及び第2対象物が人工構造物であると判断する。
次に、本実施形態の車両周辺監視装置の全体的な作動(対象物検出・注意喚起動作)を、図3に示したフローチャートに従って説明する。図3を参照して、画像処理ユニット1は、所定の演算処理周期毎に、STEP1〜STEP20の処理を繰り返して、対象物検出・注意喚起動作を実行する。まず、画像処理ユニット1は、赤外線カメラ2R,2Lの出力信号である赤外線画像を取得して(STEP1)、A/D変換し(STEP2)、グレースケール画像を画像メモリに格納する(STEP3)。なお、赤外線カメラ2Rにより右画像IGRが得られ、赤外線カメラ2Lにより左画像IGLが得られる。図6(a),(b)に、ある演算処理周期の時刻(離散系時刻)kにおいて赤外線カメラ2R,2Lによって得られるグレースケール画像IGR,IGLを例示する。なお、図6(a),(b)に示した例は、自車両10の前方に前走車が存在している場合の例である。このように、右画像IGRと左画像IGLとでは、同一の対象物の画像上での横方向(x方向)の位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
次に、画像処理ユニット1は、グレースケール画像のうちの基準画像に対して、その画像信号を2値化する(STEP4)。すなわち、基準画像の画像信号の輝度値が閾値Ithより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理が行われる。閾値Ithは、実験的に予め決定される値である。
図7(a)に、図6(a)に示した右画像IGRを2値化した画像IBRを例示する。図7(a)において、ハッチングを付した領域が黒であり、太い実線で囲まれた領域が白であることを示している。太い実線で囲まれた領域は、赤外線カメラ2Rから得られる画像において、輝度レベルが高く(高温で)、画面上に白色として表示される対象物の領域である。
次に、画像処理ユニット1は、2値化処理で「白」となった領域(以下、2値化領域という)からランレングスデータを作成する(STEP5)。作成されるランレングスデータは、2値化領域を画像の横方向の1次元の連結画素であるラインの集合で表し、該2値化領域を構成する各ラインをその始点の座標と、始点から終点までの長さ(画素数)とで示したものである。
次に、画像処理ユニット1は、作成されたランレングスデータに基づいて、対象物のラベリングをする(STEP6)ことにより、対象物を抽出する(STEP7)。すなわち、ランレングスデータで表されたラインのうち、画像の縦方向(y方向)に重なる部分のあるラインを1つの対象物とみなしてラベル(識別子)を付すことにより、画像内の連結した領域を対象物として抽出する。
上述のSTEP5〜7の処理により、2値化領域が対象物(2値化対象物)Tkとして抽出される。このとき、例えばラベルTkの対象物は、n個のランレングスデータL1〜Lnで示される。図7(a)の例では、抽出される対象物のうちの1つとして、例えば、領域R1に含まれる2値化領域が対象物T1として抽出される。なお、抽出される対象物(2値化対象物)には、道路周辺の歩行者以外に、例えば、他車両、電柱や自動販売機等の人工構造物が含まれる。図7(a)の例では、対象物T1は、自車両10の前走車の左側のテールライトに対応する2値化対象物である。
次に、画像処理ユニット1は、抽出された対象物の面積S、重心位置Gc、対象物の外接四角形の高さHb、幅Wb、重心位置Gb、縦横比ASPを算出する(STEP8)。具体的には、対象物Tkの面積Skは、各ランレングスデータLi(i=1,...,n)で示されるラインの長さを、対象物Tkのn個のランレングスデータについて積算することにより算出する。また、対象物Tkの重心Gckの座標は、各ランレングスデータLiで示されるラインの長さと、各ランレングスデータLiのラインの中点の座標(x[i],y[i])とをそれぞれ掛け合わせ、更にこれを対象物T1のn個のランレングスデータについて積算したものを、面積Skで割ることにより算出する。また、対象物Tkの外接四角形の縦横比ASPkは、対象物Tkの外接四角形の高さ(縦方向の長さ)Hbkと幅(横方向の長さ)Wbkとの比Hbk/Wbkとして算出する。なお、対象物Tkの画像部分Rkは、対象物Tkを囲む外接四角形の領域全体とする。
次に、画像処理ユニット1は、対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎に同一対象物を認識する処理を行う(STEP9)。同一対象物認識処理は、時刻kにおけるSTEP7の処理により対象物Tkが抽出され、次の演算処理周期の時刻k+1におけるSTEP7の処理により対象物Tk+1が抽出されたとしたとき、対象物Tk+1と対象物Tkとの同一性(対象物Tk+1が対象物Tkと同一の対象物であるか否か)を判定する処理である。そして、対象物Tkと対象物Tk+1とが同一の対象物であると判定された場合には、対象物Tk+1のラベルが対象物Tkのラベルと同じラベルに変更される。これにより、対象物Tkと対象物Tk+1とが同一の対象物であると認識されて、時刻間で追跡される。この同一対象物認識処理は、基準画像において実行される。
次に、画像処理ユニット1は、ヨーレートセンサ3により検出されるヨーレートYRと、車速センサ4により検出される車速VCAR(水平方向の速度)とを読み込む(STEP10)。なお、このSTEP10では、ヨーレートYRを時間積分することにより、自車両10の回頭角θrの算出も行われる。
一方、画像処理ユニット1は、STEP9,10の処理に並行して、STEP11〜14の処理を実行する。STEP11〜14の処理は、対象物と自車両10との距離z(自車両10の前後方向の距離)を算出する処理である。
まず、画像処理ユニット1は、基準画像の2値化画像によって追跡される対象物の中の1つを選択して、基準画像から探索画像R1(選択した対象物を囲む外接四角形の領域全体を探索画像とする)を抽出する(STEP11)。
次に、画像処理ユニット1は、参照画像(赤外線カメラ2R,2Lから得られた右画像及び左画像のうちの基準画像でない画像)中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する(STEP12)。具体的には、図7(a)に示した対象物T1の例では、図8(a),(b)に示すように、探索画像R1の各頂点座標に応じて、参照画像中に探索領域R1aを設定し、探索領域R1a内に、座標(x0,y0)を基点(領域の左上の頂点)とした探索画像R1と同一形状の局所領域R1b設定する。そして、基点の座標(x0,y0)を変化させて、探索領域R1a内で局所領域R1bを移動させながら、局所領域R1bと探索画像R1との相関の度合を示す輝度値の絶対差分和(SAD,Sum of Absolute Difference)C(x0,y0)を次式(1)により算出する。
Figure 2008236029
ここで、絶対差分和C(x0,y0)は、探索画像R1内の座標(m,n)の画素の輝度値IRと、探索領域R1a内の座標(x0,y0)を基点とした局所領域R1b内の座標(x0+m,y0+n)の画素の輝度値ILとの差の絶対値を取り、この差の絶対値の探索画像R1及び局所領域R1b内の全画素(m=0,...,M-1,n=0,...,N-1)についての総和値を求めたものである。なお、絶対差分和C(x0,y0)の値が小さいほど、探索画像R1と局所領域R1bとの相関の度合が高いことを示す。これにより、絶対差分和C(x0,y0)が最小となる基点の座標(x0,y0)を求め、この位置の局所領域R1bを対応画像R1cとして抽出する。なお、この相関演算は、2値化画像ではなくグレースケール画像を用いて行う。STEP11〜12の処理により、基準画像中の探索画像R1と、参照画像中の対応画像R1cとが抽出される。
次に、画像処理ユニット1は、探索画像R1の重心位置と、対応画像R1cの重心位置とに基づいて、視差Δd(画素数)を算出する(STEP13)。そして、画像処理ユニット1は、算出された視差Δdを用いて、次式(2)により、自車両10と対象物との距離zを算出する(STEP14)。
z=B×F/(Δd×p) …(2)
なお、Bは赤外線カメラ2R,2Lの基線長(光軸の間隔)、Fは赤外線カメラ2R,2Lの焦点距離F、pは画素間隔である。
STEP10及びSTEP14の処理の終了後、画像処理ユニット1は、次に、画像内の座標(x,y)及び距離zを、実空間座標に変換して、各対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(STEP15)。ここで、実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点(自車両10に固定された位置)を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。実空間座標系のX方向及びY方向は、それぞれ自車両10の左右方向(車幅方向)、上下方向であり、これらのX方向及びY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、自車両10の前後方向である。そして、実空間位置(X,Y,Z)は、次式(3)(4)(5)により算出される。
X=x×z×p/f …(3)
Y=y×z×p/f …(4)
Z=z …(5)
次に、画像処理ユニット1は、自車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、STEP10で算出した回頭角θrを用いて、対象物の実空間位置を補正する。(STEP16)。回頭角補正は、時刻kから時刻k+1までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、赤外線カメラ2R,2Lによって得られる画像上では、画像の範囲がx方向にずれるので、これを補正する処理である。なお、以下の説明では、「対象物の実空間位置」は、この回頭角補正を施した対象物の実空間位置を意味する。
次に、画像処理ユニット1は、対象物の自車両10に対する移動ベクトルを求める(STEP17)。具体的には、同一対象物についての実空間位置の、所定期間dT(現在時刻から所定時間前までの期間)における時系列データを近似する直線を求め、所定時間前の時刻での該直線上の対象物の位置(座標PvdT=(XvdT,YvdT,ZvdT))から、現在時刻における該直線上の対象物の位置(座標Pv0=(Xv0,Yv0,Zv0))に向かうベクトルを対象物の移動ベクトルとして求める。なお、近似直線の具体的な算出処理には、前記した特開2003−284057号公報に記載された手法を用いる。
次に、画像処理ユニット1は、検出した対象物と自車両10とが接触する可能性を判定して、該対象物が回避対象(自車両10との接触を回避すべき対象)であるか否かを判定する回避判定処理を行う(STEP18)。なお、回避判定処理については、詳細を後述する。STEP18において、検出した対象物が回避対象でないと判定された場合(STEP18の判定結果がNO)には、STEP1に戻り、上述の処理を繰り返す。また、STEP18において、検出した対象物が回避対象であると判定された場合(STEP18の判定結果がYES)、STEP19へ進む。
STEP19では、画像処理ユニット1は、対象物に対する車両10の運転者の注意を喚起すべきか否かを判定する注意喚起出力判定処理を行う。この注意喚起出力判定処理では、ブレーキセンサ5の出力BRから、運転者による自車両10のブレーキ操作がなされていることが確認され、且つ、自車両10の減速加速度(車速の減少方向の加速度を正とする)が所定の閾値(>0)よりも大きいときには、注意喚起を行わないと判定される。また、運転者によるブレーキ操作が行なわれていない場合、あるいは、ブレーキ操作が行なわれていても、自車両10の減速加速度が所定の閾値以下である場合には、注意喚起を行うべきと判定される。
そして、画像処理ユニット1は、注意喚起を行うべきと判定した場合(STEP19の判定結果がYES)には、スピーカ6と表示装置7とによる注意喚起を自車両10の運転者に対して行う注意喚起処理を実行し(STEP20)、STEP1に戻り、上述の処理を繰り返す。この注意喚起処理では、例えば表示装置7に基準画像を表示すると共に、その基準画像中の回避対象である対象物の画像を強調的に表示する。さらに、回避対象である対象物が存在することをスピーカ6から運転者に音声案内する。なお、運転者に対する注意喚起は、スピーカ6および表示装置7のいずれか一方だけで行なうようにしてもよい。
また、STEP19で注意喚起を行わないと判定した場合(全ての対象物について注意喚起を行わないと判定した場合)には、STEP19の判定結果がNOとなり、この場合には、そのままSTEP1に戻り、上述の処理を繰り返す。
以上が、本実施形態の車両周辺監視装置の画像処理ユニット1における対象物検出・注意喚起動作である。これにより、自車両10の周辺の赤外線画像と、自車両10の走行状態を示す信号とから、自車両10の前方の歩行者等の対象物が検出され、回避対象である対象物について運転者に注意喚起が行われる。
次に、図4に示すフローチャートを参照して、図3に示したフローチャートのSTEP18における回避判定処理について詳細に説明する。回避判定処理は、以下に示す第1接触判定処理、第2接触判定処理、進入接触判定処理、人工構造物判定処理、及び歩行者判定処理により、検出した対象物と自車両10との接触の可能性及び対象物の種類を判定して、該対象物が回避対象であるか否かを判定する処理である。
図4を参照して、まず、画像処理ユニット1は、対象物が自車両10に接触する可能性の度合を判定する処理の1つとして、第1接触判定処理を行う(STEP101)。第1接触判定処理は、対象物と自車両10との接触を自車両10の操舵やブレーキ操作によって余裕を持って回避できるか否かを判定するための処理である。具体的には、第1接触判定処理では、赤外線カメラ2R,2Lにより撮像される自車両10の前方の領域(赤外線カメラ2R,2Lの視野角内の領域)AR0のうち、自車両10からのZ方向の距離(自車両10の前後方向の距離)が、所定値以下となる領域AR1(以下、第1接触判定領域という)に対象物の現在の実空間位置が存在するか否かが判定される。
この場合、自車両10からの距離に関する所定値は、対象物毎に設定される。具体的には、対象物と自車両10とのZ方向の相対速度Vs(=(Zv0−ZvdT)/dT)を求め、この相対速度Vsに所定の時間T1(例えば2〜5秒程度)を乗じた値Vs×T1が、第1接触判定領域AR1の、Z方向の境界を規定する上記所定値として設定される。なお、相対速度Vsが自車両10から遠ざかる向きの相対速度である場合には、対象物は第1接触判定領域AR1に存在しないと判定される。
ここで、図5を参照して説明すると、図5は、自車両10の走行する道路を上方から見た図であり、自車両10の前方の領域区分が示されている。図5に示したように、領域AR0を太い実線で示す外側の三角形の領域とすると、第1接触判定領域AR1は、領域AR0内のZ1(=Vs×T1)より自車両10に近い領域となる。なお、第1衝突判定領域AR1は、上下方向では、所定の高さH(例えば自車両10の車高の2倍程度の高さ)を有する領域である。従って、対象物の現在のZ方向の座標値(距離)Zv0がVs×T1以下で、且つ、対象物の現在のY方向の座標値(高さ)Yv0がH以下である場合に、対象物が第1接触判定領域AR1に存在すると判定される。
STEP101の判定結果がNOの場合(対象物が第1接触判定領域内AR1に存在しない)には、車両10の操舵やブレーキ操作によって対象物と車両10との接触を余裕を持って回避しうる状況である。この場合には、STEP107に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
STEP101の判定結果がYESの場合(対象物が第1接触判定領域AR1内に存在している)には、STEP102に進み、画像処理ユニット1は、対象物が自車両10に接触する可能性の度合を判定する処理の1つとして、第2接触判定処理を行う。第2接触判定処理は、対象物の実空間位置が現在位置に維持されたとした場合に、対象物と車両10との接触の可能性が高いか否かを判定するための処理である。具体的には、第2接触判定処理では、対象物が、図5に示したように、第1接触判定領域AR1のうちの、自車両10の車幅αの両側に余裕βを加えた幅(α+2β)を有する領域AR2(以下、第2接触判定領域という)内に存在するか否かを判定する。なお、第2接触判定領域AR2も所定高さHを有する。
STEP102の判定結果がYESの場合(対象物が第2接触判定領域AR2内に存在している)には、対象物が現在の実空間位置に留まったとした場合に、該対象物が自車両10と接触する可能性が高い。この場合には、STEP103に進み、画像処理ユニット1は、例えば前走車等の、自車両10と接触する可能性が比較的低い対象物を回避対象から除外するために、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う。人工構造物判定処理は、対象物の画像に、例えば予め登録された人工構造物の形状と一致する等の、歩行者ではないと考えられる特徴が検出された場合に、該対象物を人工構造物と判定し、回避対象から除外する処理である。なお、人工構造物判定処理については、詳細を後述する。
STEP103の判定結果がYESの場合(対象物が人工構造物である)には、対象物が前走車等の人工構造物であり、自車両10との接触の可能性が低い状況である。この場合には、STEP107に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
STEP103の判定結果がNOの場合(対象物が人工構造物でない、すなわち、対象物は歩行者の可能性がある)には、STEP104に進み、画像処理ユニット1は、対象物が歩行者の可能性があるか否かを判定する歩行者判定処理を行う。歩行者判定処理は、対象物の画像に、例えば予め登録された歩行者の形状と一致する等の、歩行者であると考えられる特徴が検出された場合に、該対象物を歩行者と判定する処理である。なお、歩行者判定処理には、具体的には、例えば前記した特開2003−284057号公報に記載された手法が用いられる。
STEP104の判定結果がYESの場合(対象物が歩行者である)には、STEP106に進み、画像処理ユニット1は、対象物が回避対象であると判定して、回避判定処理を終了する。従って、対象物が第1接触判定領域内の第2接触判定領域に存在し、且つ、対象物が歩行者である可能性が高く、且つ、人工構造物でないと判定された場合には、対象物が回避対象であると判定される。
また、STEP103の判定結果がYESの場合(対象物が人工構造物である)、あるいは、STEP104の判定結果がNOの場合(対象物は歩行者の可能性がない)には、STEP107に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
一方、STEP102の判定結果がNOの場合(対象物が第2接触判定領域AR2内に存在しない)には、STEP105に進み、画像処理ユニット1は、対象物が自車両10に接触する可能性の度合を判定する処理の1つとして、進入接触判定処理を行う。進入接触判定処理は、対象物が第2接触判定領域AR2内へ進入し、且つ自車両10との接触する可能性が高いか否かを判定する処理である。進入接触判定処理では、図6に示したように、第1接触判定領域AR1内で第2接触判定領域AR2よりX座標の絶対値が大きい(第2接触判定領域AR2の横方向外側の)領域AR3,AR4(以下、進入判定領域という)内にある対象物が、第2接触判定領域AR2に進入して自車両10と接触するか否かを、対象物の移動ベクトルに基づいて判定する。なお、進入判定領域AR3,AR4も所定高さHを有する。
具体的には、自車両10の前面のXY平面(自車両10の前後方向に垂直な面)と、対象物の移動ベクトルを含む直線との交点のX座標(車幅方向の位置)が、自車両10の車幅αよりも若干広い所定範囲内に存在する場合(対象物が相対的に自車両10に向かってくる場合)に、第2接触判定領域AR2に進入して接触する可能性が高いと判定される。
STEP105の判定結果がYESの場合には、対象物が将来、自車両10と衝突する可能性が高い。そこで、この場合には、STEP106に進み、画像処理ユニット1は、対象物が回避対象であると判定して、回避判定処理を終了する。また、STEP105の判定結果がNOの場合には、対象物が自車両10と接触する可能性が低いので、STEP107に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
以上が、回避判定処理の詳細である。
次に、図6〜図12を参照して、図3に示したフローチャートのSTEP103における人工構造物判定処理について詳細に説明する。以下の説明では、自車両10の前方に前走車が存在している場合を例にして説明する。なお、時刻kにおける撮像画像は、図6(a),(b)に例示したようになる。
まず、画像処理ユニット1は、所定期間内に取得された複数の時系列の画像から、輝度変化量を算出する。なお、本実施形態では、演算処理周期の各時刻において、STEP1で画像が撮像されており、前記所定期間は、N回分の演算処理周期とする。例えば時刻kの演算処理周期では、時刻k−N+1〜時刻kの各演算処理周期に撮像されたN枚の時系列の画像から輝度変化量を算出する。以下では、時刻kの演算処理周期で輝度変化量をを算出する場合を例に説明する。
具体的には、まず、画像処理ユニット1は、時刻k−N+1〜時刻kの各演算処理周期の基準画像から、第1対象物を抽出する。この処理は、第1対象物抽出手段11による処理に相当する。なお、本実施形態では、上述のSTEP7で抽出された対象物が第1対象物としてそのまま用いられる。例えば、図6(a)に示した時刻kの演算処理周期の撮像画像から、図7(a)で示したように第1対象物T1が抽出される。
次に、画像処理ユニット1は、第1対象物との高さの差、形状に関する類似の度合、及び車両10に対する距離の差が所定要件を満たす第2対象物を抽出する。この処理は、第2対象物抽出手段12による処理に相当する。具体的には、画像処理ユニット1は、上述のSTEP7で抽出された対象物のうちの所定の対象物を第1対象物としたときに、抽出された対象物のうちの第1対象物以外の対象物を第2対象物の候補とする。そして、第2対象物の候補のうちから、第1対象物との画像上での高さの差が所定値以下で、且つ第1対象物との画像上での形状に関する類似の度合が所定値以上で、且つ該第1対象物との車両10に対する距離の差が所定値以下である対象物を、第2対象物として抽出する。なお、これらの所定値は、一般的な車両の構造的な特徴から、前走車の1対のテールライトが取り得る値として予め定められる値である。
詳細には、画像処理ユニット1は、第1対象物と第2対象物との類似の度合として、まず、グレースケール画像上で、第1対象物を左右反転した画像と、第2対象物の画像との相関の度合を示す、上述の式(1)で示した輝度値の絶対差分和を算出する。この絶対差分和が小さいほど、第1対象物と第2対象物の類似の度合が高い。よって、画像処理ユニット1は、算出された絶対差分和に基づいて、類似の度合を算出する。
さらに、画像処理ユニット1は、第1対象物及び第2対象物の、自車両10に対する実空間上の距離を算出する。この処理は、距離算出手段13による処理に相当する。なお、本実施形態では、上述のSTEP14で算出した対象物の距離が、第1対象物及び第2対象物の距離としてそのまま用いられる。これにより、対象物T1の実空間座標(X1,Y1,Z1)、対象物T2の実空間座標(X2,Y2,Z2)が得られる。そして、画像処理ユニット1は、対象物のうちの、第1対象物との車両10に対する距離の差が所定値以下である対象物を、第2対象物として抽出する。
これにより、前走車のテールライトの可能性が高い第1対象物及び第2対象物が抽出される。例えば、図7(a)に示した第1対象物T1に対して、図7(a)に示した第2対象物T2が抽出される。
次に、画像処理ユニット14は、第1対象物T1の車両10に対する距離と、第2対象物T2の車両10に対する距離との差に応じて、基準画像IGR上で、第1対象物T1と第2対象物T2との間の領域に監視領域R3を設定する。この処理は、監視領域設定手段14による処理に相当する。このとき、画像処理ユニット14は、一般的な車両の構造的な特徴から、第1対象物T1及び第2対象物T2が前走車の1対のテールライトであるとした場合に、監視領域R3が前走車のトランク部分に相当する領域となるように、監視領域R3を設定する。
具体的には、実空間上の監視領域R3の始点座標(自車両10から見て左上端点座標)を(Xtp1,Ytp1)、終点座標(自車両10から見て右下端点座標)を(Xtp2,Ytp2)とする。このとき、この実空間上の監視領域R3の始点座標(Xtp1,Ytp1)、終点座標(Xtp2,Ytp2)は、第1対象物T1の実空間座標(X1、Y1,Z1)と、第2対象物T2の実空間座標(X2,Y2,Z2)と、実空間上の監視領域R3のオフセット幅(Xoff ,Yoff )とを用いて、下記の式(6)(7)で表される。
tp1=X1+Xoff ,Ytp1=Y1−Yoff …(6)
tp2=X2−Xoff ,Ytp2=Y2+Yoff …(7)
ここで、監視領域R3のオフセット幅(Xoff ,Yoff )としては、第1対象物と第2対象物との距離の差に、一般的な車両の構造的な特徴(テールライトとトランクの位置関係)から、トランク部分に相当する領域が取り得る値として予め定められる、所定の係数を乗じた値が用いられる。
そして、実空間上の監視領域R3の始点座標(Xtp1,Ytp1)と終点座標(Xtp2,Ytp2)を、焦点距離F、画素間隔pを用いて、下記の式(8)(9)(10)により画像上の座標系に変換して、画像上の監視領域R3の始点座標(xtp1,ytp1)と終点座標(xtp2,ytp2)を求める。
tp1=F×Xtp1/p/Zt,ytp1=F×Ytp1/p/Zt …(8)
tp2=F×Xtp2/p/Zt,ytp2=F×Ytp2/p/Zt …(9)
Zt=(Z1+Z2)/2 …(10)
これにより、画像上で監視領域R3が設定される。
次に、設定された監視領域R3における各画素の有する輝度値のヒストグラムを算出する。図10に、時刻kの演算処理周期において算出された輝度ヒストグラムを例示する。図10において、横軸は輝度(各画素の輝度値)を示し、縦軸は頻度(画素数)を示す。そして、画像処理ユニット1は、輝度ヒストグラムから、平均輝度値AVEkを算出する。
以上の処理を、時刻k−N+1〜時刻kの各演算処理周期に撮像された各画像について実行することにより、時系列の平均輝度値AVEk-N+1〜AVEkが算出される。
次に、時刻kの演算処理周期で、画像処理ユニット1は、この平均輝度値AVEk-N+1〜AVEkの時系列での変化量(例えば、時系列の平均輝度値AVEk-N+1〜AVEkにおける最大値と最小値との差)を輝度変化量として算出する。この処理は、輝度変化量算出手段15による処理に相当する。
次に、画像処理ユニット1は、監視領域R3の車両10に対する距離を算出する。この処理は、距離算出手段13による処理に相当する。監視領域R3の距離は、図11(a)(b)に示すように、上述のSTEP14と同様の処理で算出される。
次に、画像処理ユニット1は、算出された輝度変化量、監視領域R3の車両10に対する距離に基づいて、第1対象物T1及び第2対象物T2が人工構造物であるか否を判断する。この処理は、人工構造物判断手段16による処理に相当する。具体的には、画像処理ユニット1は、輝度変化量が所定値以下であり、且つ、第1対象物の距離又は第2対象物の距離と、監視領域の距離との差が、所定値以下である場合に、第1対象物及び第2対象物が人工構造物であると判断する。なお、これらの所定値は、一般的に画像上で前走車の1対のテールライト及びトランク部分に相当する領域が取り得る値として予め定められる値である。
ここで、図11(a)(b)に、第1対象物T1(画像領域R1)及び第2対象物T2(画像領域R2)が前走車のテールライトで、監視領域R3が前走車のトランク部分に相当する例を示す。図11(a)(b)に示すように、監視領域R3が前走車のトランク部分に相当する領域であるので、時系列の画像において、この監視領域R3の輝度変化量は逐次変化する背景等に比べて小さく、該輝度変化量が所定値以下となる。また、トランクは前走車の後部に設けられており、このトランクの自車両10に対する距離は、同様に前走車の後部に設けられたテールライトである第1対象物T1及び第2対象物T2の自車両10に対する距離との差が小さく、該距離の差が所定値以下となる。
一方、図12(a)(b)に、第1対象物T1及び第2対象物T3が2人並んだ歩行者の場合の画像例IGR’,IGL’を示す。この場合、図12(a)(b)に示すように、歩行者(歩行者の頭部)の間の監視領域R3’は背景である。このため、時系列の画像において、この監視領域R3’は逐次変化して輝度変化量が大きくなり、該輝度変化量が所定値以上となる可能性が高い。また、監視領域R3’は背景であるので、この監視領域R3’の自車両10に対する距離は、無限遠となるか、歩行者の自車両10に対する距離とは大きく相違するため、第1対象物又は第2対象物の距離と監視領域R3’の距離との差が所定値より大きくなる。
したがって、歩行者である場合が排除され、第1対象物T1及び第2対象物T2が前走車のテールライトであることが的確に判断される。
以上の処理により、本実施形態によれば、車両周辺を撮像した画像により抽出された対象物から、該対象物が歩行者以外の人工構造物であるか否かを適切に判断することができる。これにより、自車両10の運転者に情報の提示等を適切に行うことができる。
[第2実施形態]
次に、本発明の第2実施形態について、図13を参照して説明する。図13は、本実施形態における車両周辺監視装置の機能ブロック図である。なお、本実施形態は、第1実施形態において、画像処理ユニット1に、2つの赤外線カメラ2R,2Lの代わりに、1つの赤外線カメラ2を備えると共に、車両10の前方の対象物の車両10に対する距離を検知するレーダ20を備えるものである。以下の説明では、第1実施形態と同一の構成については、第1実施形態と同一の参照符号を用いて説明を省略する。なお、本実施形態は、本発明の第2態様の車両周辺監視装置に相当する。
本実施形態において、赤外線カメラ2は、自車両10の前方を撮像するために、自車両10の前部に取り付けられている。また、レーダ20は、例えばミリ波レーダ等であり、自車両10の前部に取り付けられている。なお、赤外線カメラ2は、本発明の撮像手段に相当する。
そして、距離算出手段14は、レーダ20による検知結果を用いて、第1対象物、第2対象物、及び監視領域の車両10に対する距離を算出する。具体的には、距離算出手段14は、赤外線カメラ2で撮像された画像から抽出された対象物と、レーダ20で検知された対象物とを、赤外線カメラ2及びレーダ20の取り付け位置、赤外線カメラ2の撮像領域、及びレーダ20の検知領域の位置関係に基づいて対応付ける。これにより、距離算出手段14は、レーダ20により検知される対象物の距離から、第1対象物、第2対象物、及び監視領域の車両10に対する距離を算出する。他の構成は第1実施形態と同じである。
次に、本実施形態の車両周辺監視装置の全体的な作動(対象物検出・注意喚起動作)を説明する。なお、本実施形態における車両周辺監視装置の対象物検出・注意喚起動作は、第1実施形態と、図3のSTEP11〜14における対象物の距離を算出する処理、及び図4のSTEP103の人工構造物判定処理における監視領域の距離を算出する処理のみが相違するものである。
本実施形態では、画像処理ユニット1は、上述のようなSTEP11〜14を実行する代わりに、レーダ20による検知結果を用いて自車両10と対象物との距離zを算出する。具体的には、まず、画像処理ユニット1は、レーダ20から検知結果を取得する。次に、画像処理ユニット1は、レーダ20による検知結果と、STEP7で抽出された対象物とを対応付け、自車両10と対象物との距離zを算出する。そして、この算出された距離zを用いて、画像処理ユニット1は、第1実施形態と同様に、画像内の座標(x,y)及び距離zを、実空間座標に変換して、各対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(STEP15)。また、この距離zが、図4の回避判定処理のSTEP103の人工構造物判定処理において、第1対象物及び第2対象物の距離として用いられる。さらに、人工構造物判定処理において、レーダ20による検知結果を用いて、監視領域の距離が算出される。以上説明した以外の作動は第1実施形態と同じである。
以上の処理により、本実施形態によれば、第1実施形態と同様に、車両周辺を撮像した画像により抽出された対象物から、該対象物が歩行者以外の人工構造物であるか否かを適切に判断することができる。これにより、自車両10の運転者に情報の提示等を適切に行うことができる。
なお、本実施形態では、レーダ20を用いて、赤外線カメラ2により撮像された画像から抽出された第1対象物、第2対象物、及び監視領域の自車両10に対する距離を算出したが、他の実施形態として、例えば、1つの赤外線カメラ2により撮像された画像のみを用いて、第1対象物、第2対象物、及び監視領域の自車両10に対する距離を算出するものとしてもよい。この場合、例えば、異なる時刻に撮像された複数の画像における、所定の対象物の大きさの変化量と、時刻と車速から算出される自車両10の走行距離とに基づいて、該対象物の距離を算出することができる。
また、第1及び第2実施形態において、輝度変化量算出手段16は、輝度変化量として、輝度ヒストグラムの平均値(平均輝度値)の変化量を用いたが、他の実施形態として、輝度ヒストグラムの形状やピーク輝度値や分散値(輝度値バラツキ幅)の変化量を用いてもよい。
また、第1及び第2実施形態において、第2対象物を抽出する際に、第1対象物及び第2対象物の画像上における高さの差及び形状の類似の度合を用いたが、他の実施形態として、第1対象物及び第2対象物の実空間上における高さの差及び形状の類似の度合を用いてもよい。
また、第1及び第2実施形態において、距離算出手段14を備え、第2対象物を抽出する際に、第1対象物及び第2対象物の実空間上における距離の差を用いたが、他の実施形態として、距離算出手段14を備えず、第1対象物及び第2対象物の画像上における高さの差及び形状の類似の度合のみを用いてもよい。
また、第1及び第2実施形態において、距離算出手段14を備え、人工構造物判断手段17は、第1対象物又は第2対象物の距離と、監視領域の距離との差を用いて、第1対象物及び第2対象物が人工構造物であるか否かを判断したが、距離算出手段14を備えず、輝度変化量のみを用いて判断するようにしてもよい。
また、第1及び第2実施形態において、画像処理ユニット1は、STEP18で回避対象であると判定された対象物について、自車両10の運転者に注意喚起を行うものとしたが、他の実施形態として、例えば、自車両10が、車両のステアリング装置、ブレーキ装置、アクセル装置のいずれかをアクチュエータによって操作可能(ひいては自車両10の走行挙動を操作可能)なものである場合には、STEP18で回避対象であると判定された対象物との接触を回避するように、もしくは、回避が容易になるように自車両10のステアリング装置、ブレーキ装置、アクセル装置を制御するようにしてもよい。また、上記のような自車両10のステアリング装置等の制御と、表示装置7もしくはスピーカ6による注意喚起とは、並行して行うようにしてもよい。
また、第1及び第2実施形態において、撮像手段として赤外線カメラを使用したが、例えば通常の可視光線のみ検出可能なCCDカメラ等を使用してもよい。ただし、赤外線カメラを用いることにより、歩行者や走行中の車両等の抽出処理を簡略化することができ、演算装置の演算能力が比較的低いものでも実現可能とすることができる。
本発明の第1実施形態による車両周辺監視装置の機能ブロック図。 図1に示した車両周辺監視装置の車両への取り付け態様の説明図。 図1の車両周辺監視装置の画像処理ユニットにおける対象物検出・注意喚起動作を示すフローチャート。 図3の対象物検出・注意喚起動作における回避判定処理のフローチャート。 図4の回避判定処理における車両前方の領域区分を示す説明図。 図3の対象物検出・注意喚起動作における撮像画像の例示図。 図3の対象物検出・注意喚起動作における対象物抽出処理の処理画像の例示図。 図4の回避判定処理の人工構造物判定処理における距離算出処理の説明図。 図4の回避判定処理の人工構造物判定処理における監視領域設定処理の説明図。 図4の回避判定処理の人工構造物判定処理における輝度ヒストグラムを示すグラフ。 図4の回避判定処理の人工構造物判定処理における監視領域の距離算出処理の例示図。 図4の回避判定処理の車両除外処理における監視領域の距離算出処理の他の例示図。 本発明の第2実施形態による車両周辺監視装置の機能ブロック図。
符号の説明
2,2R,2L…赤外線カメラ(撮像手段)、10…車両、11…第1対象物抽出手段、12…第2対象物抽出手段、13…距離算出手段、14…監視領域設定手段、15…輝度変化量算出手段、16…人工構造物判断手段、20…レーダ。

Claims (15)

  1. 車両に搭載された少なくとも1つの撮像手段により撮像された画像から、該車両の周辺を監視する車両周辺監視装置において、
    前記撮像手段により撮像された画像から、第1対象物を抽出する第1対象物抽出手段と、
    前記第1対象物抽出手段により抽出された第1対象物と、該第1対象物との前記画像上での高さの差が所定値以下で、且つ該第1対象物との該画像上での形状に関する類似の度合が所定値以上である第2対象物を、前記撮像手段により撮像された画像から抽出する第2対象物抽出手段と、
    前記第1対象物と前記第2対象物との間の領域を監視領域として設定する監視領域設定手段と、
    前記撮像手段により撮像された時系列の画像から、前記監視領域設定手段により設定された監視領域における時系列の輝度変化量を算出する輝度変化量算出手段と、
    少なくとも前記輝度変化量算出手段により算出された輝度変化量が所定値以下である場合に、前記第1対象物及び第2対象物が人工構造物であると判断する人工構造物判断手段と
    を備えることを特徴とする車両周辺監視装置。
  2. 請求項1記載の車両周辺監視装置において、
    前記第1対象物及び前記第2対象物の、実空間上における前記車両に対する距離を算出する距離算出手段を備え、
    前記第2対象物抽出手段は、前記第2対象物のうちの、前記第1対象物との実空間上の距離の差が所定値以下である第2対象物を抽出することを特徴とする車両周辺監視装置。
  3. 車両に搭載された少なくとも1つの撮像手段により撮像された画像から、該車両の周辺を監視する車両周辺監視装置において、
    前記車両の周辺に存在する対象物の前記車両に対する距離を算出する距離算出手段と、
    前記撮像手段により撮像された画像から第1対象物を抽出すると共に、前記距離算出手段を用いて該第1対象物の実空間上の位置を検出する第1対象物抽出手段と、
    前記撮像手段により撮像された画像から第2対象物の候補を抽出すると共に、前記距離算出手段を用いて該第2対象物の候補の実空間上の位置を検出し、該第2対象物の候補のうちの該第1対象物との実空間上の高さの差が所定値以下で、且つ該第1対象物との該実空間上の形状に関する類似の度合が所定値以上である第2対象物を抽出する第2対象物抽出手段と、
    前記第1対象物と前記第2対象物との間の領域を監視領域として設定する監視領域設定手段と、
    前記撮像手段により撮像された時系列の画像から、前記監視領域設定手段により設定された監視領域における時系列の輝度変化量を算出する輝度変化量算出手段と、
    少なくとも前記輝度変化量算出手段により算出された輝度変化量が所定値以下である場合に、前記第1対象物及び第2対象物が人工構造物であると判断する人工構造物判断手段と
    を備えることを特徴とする車両周辺監視装置。
  4. 請求項3記載の車両周辺監視装置において、
    前記第2対象物抽出手段は、前記第2対象物のうちの、前記第1対象物との実空間上の距離の差が所定値以下である第2対象物を抽出することを特徴とする車両周辺監視装置。
  5. 請求項2〜4のうちいずれか記載の車両周辺監視装置において、
    前記距離算出手段は、前記監視領域の実空間上における前記車両に対する距離をさらに算出し、
    前記人工構造物判断手段は、前記輝度変化量算出手段により算出された輝度変化量が所定値以下である場合において、前記距離算出手段によって算出された第1対象物の距離又は第2対象物の距離と前記監視領域の距離との差が、所定値以下である場合に、前記第1対象物及び第2対象物が人工構造物であると判断することを特徴とする車両周辺監視装置。
  6. 請求項2〜5のうちいずれか記載の車両周辺監視装置において、
    前記距離算出手段は、2つの撮像手段により撮像された画像を用いた相関演算を行い、該相関演算の結果算出される視差を用いて前記距離を算出することを特徴とする車両周辺監視装置。
  7. 請求項2〜5のうちいずれか記載の車両周辺監視装置において、
    前記距離算出手段は、前記車両に搭載されたレーダを用いて前記距離を算出することを特徴とする車両周辺監視装置。
  8. 請求項1〜7のいずれか記載の車両周辺監視装置において、
    前記監視領域設定手段は、前記第1対象物と第2対象物との距離に応じて、前記監視領域の大きさが所定値となるように、該監視領域を設定することを特徴とする車両周辺監視装置。
  9. 請求項1〜8のいずれか記載の車両周辺監視装置において、
    前記輝度変化量算出手段は、前記時系列の各画像の前記監視領域における、該各画像の各画素の有する輝度値のヒストグラムから前記輝度変化量を算出することを特徴とする車両周辺監視装置。
  10. 請求項9記載の車両周辺監視装置において、
    前記輝度変化量算出手段は、前記時系列の各画像の前記ヒストグラムから平均値を算出し、該平均値の該時系列での変化量を、前記輝度変化量として用いることを特徴とする車両周辺監視装置。
  11. 請求項1〜10記載の車両周辺監視装置において、
    前記撮像手段は、赤外線カメラであることを特徴とする車両周辺監視装置。
  12. 車両に搭載された少なくとも1つの撮像手段により撮像された画像から、該車両の周辺を監視する車両周辺監視方法であって、
    前記撮像手段により撮像された画像から、第1対象物を抽出する第1対象物抽出ステップと、
    前記第1対象物抽出ステップにより抽出された第1対象物と、該第1対象物との前記画像上での高さの差が所定値以下で、且つ該第1対象物との該画像上での形状に関する類似の度合が所定値以上である第2対象物を、前記撮像手段により撮像された画像から抽出する第2対象物抽出ステップと、
    前記第1対象物と前記第2対象物との間の領域を監視領域として設定する監視領域設定ステップと、
    前記撮像手段により撮像された時系列の画像から、前記監視領域設定手段により設定された監視領域における時系列の輝度変化量を算出する輝度変化量算出ステップと、
    少なくとも前記輝度変化量算出ステップにより算出された輝度変化量が所定値以下である場合に、前記第1対象物及び第2対象物が人工構造物であると判断する人工構造物判断ステップと
    を備えたことを特徴とする車両周辺監視方法。
  13. 車両に搭載された少なくとも1つの撮像手段により撮像された画像から、該車両の周辺を監視する車両周辺監視方法であって、
    前記車両の周辺に存在する対象物の前記車両に対する距離を算出する距離算出ステップと、
    前記撮像手段により撮像された画像から第1対象物を抽出すると共に、前記距離算出ステップを用いて該第1対象物の実空間上の位置を検出する第1対象物抽出ステップと、
    前記撮像手段により撮像された画像から第2対象物の候補を抽出すると共に、前記距離算出ステップを用いて該第2対象物の候補の実空間上の位置を検出し、該第2対象物の候補のうちの該第1対象物との実空間上の高さの差が所定値以下で、且つ該第1対象物との該実空間上の形状に関する類似の度合が所定値以上である第2対象物を抽出する第2対象物抽出ステップと、
    前記第1対象物と前記第2対象物との間の領域を監視領域として設定する監視領域設定ステップと、
    前記撮像手段により撮像された時系列の画像から、前記監視領域設定ステップにより設定された監視領域における時系列の輝度変化量を算出する輝度変化量算出ステップと、
    少なくとも前記輝度変化量算出ステップにより算出された輝度変化量が所定値以下である場合に、前記第1対象物及び第2対象物が人工構造物であると判断する人工構造物判断ステップと
    を備えたことを特徴とする車両周辺監視方法。
  14. 車両に搭載された少なくとも1つの撮像手段により撮像された画像から、該車両の周辺を監視する処理をコンピュータに実行させる車両周辺監視用プログラムであって、
    前記撮像手段により撮像された画像から、第1対象物を抽出する第1対象物抽出処理と、
    前記第1対象物抽出処理により抽出された第1対象物と、該第1対象物との前記画像上での高さの差が所定値以下で、且つ該第1対象物との該画像上での形状に関する類似の度合が所定値以上である第2対象物を、前記撮像手段により撮像された画像から抽出する第2対象物抽出処理と、
    前記第1対象物と前記第2対象物との間の領域を監視領域として設定する監視領域設定処理と、
    前記撮像手段により撮像された時系列の画像から、前記監視領域設定処理により設定された監視領域における時系列の輝度変化量を算出する輝度変化量算出処理と、
    少なくとも前記輝度変化量算出処理により算出された輝度変化量が所定値以下である場合に、前記第1対象物及び第2対象物が人工構造物であると判断する人工構造物判断処理と
    を前記コンピュータに実行させる機能を有することを特徴とする車両周辺監視用プログラム。
  15. 車両に搭載された少なくとも1つの撮像手段により撮像された画像から、該車両の周辺を監視する処理をコンピュータに実行させる車両周辺監視用プログラムであって、
    前記車両の周辺に存在する対象物の前記車両に対する距離を算出する距離算出処理と、
    前記撮像手段により撮像された画像から第1対象物を抽出すると共に、前記距離算出処理を用いて該第1対象物の実空間上の位置を検出する第1対象物抽出処理と、
    前記撮像手段により撮像された画像から第2対象物の候補を抽出すると共に、前記距離算出処理を用いて該第2対象物の候補の実空間上の位置を検出し、該第2対象物の候補のうちの該第1対象物との実空間上の高さの差が所定値以下で、且つ該第1対象物との該実空間上の形状に関する類似の度合が所定値以上である第2対象物を抽出する第2対象物抽出処理と、
    前記第1対象物と前記第2対象物との間の領域を監視領域として設定する監視領域設定処理と、
    前記撮像手段により撮像された時系列の画像から、前記監視領域設定処理により設定された監視領域における時系列の輝度変化量を算出する輝度変化量算出処理と、
    少なくとも前記輝度変化量算出処理により算出された輝度変化量が所定値以下である場合に、前記第1対象物及び第2対象物が人工構造物であると判断する人工構造物判断処理と
    を前記コンピュータに実行させる機能を有することを特徴とする車両周辺監視用プログラム。
JP2007069059A 2007-03-16 2007-03-16 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラム Expired - Fee Related JP4627305B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007069059A JP4627305B2 (ja) 2007-03-16 2007-03-16 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007069059A JP4627305B2 (ja) 2007-03-16 2007-03-16 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラム

Publications (2)

Publication Number Publication Date
JP2008236029A true JP2008236029A (ja) 2008-10-02
JP4627305B2 JP4627305B2 (ja) 2011-02-09

Family

ID=39908340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007069059A Expired - Fee Related JP4627305B2 (ja) 2007-03-16 2007-03-16 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラム

Country Status (1)

Country Link
JP (1) JP4627305B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010097412A (ja) * 2008-10-16 2010-04-30 Nohmi Bosai Ltd 煙検出装置
US8208723B2 (en) 2008-10-14 2012-06-26 Nohmi Bosai Ltd. Smoke detecting apparatus
JP2012527803A (ja) * 2009-05-19 2012-11-08 オートリブ ディベロップメント エービー 自動車用ビジョンシステムおよびビジョンメソッド

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002104116A (ja) * 2000-09-29 2002-04-10 Mitsubishi Motors Corp 運転支援システム
JP2003230134A (ja) * 2002-02-04 2003-08-15 Honda Motor Co Ltd ナイトビジョンシステム
JP2003284057A (ja) * 2002-01-18 2003-10-03 Honda Motor Co Ltd 車両周辺監視装置
JP2004341801A (ja) * 2003-05-15 2004-12-02 Nissan Motor Co Ltd 追跡車両ランプ検出システムおよび追跡車両ランプ検出方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002104116A (ja) * 2000-09-29 2002-04-10 Mitsubishi Motors Corp 運転支援システム
JP2003284057A (ja) * 2002-01-18 2003-10-03 Honda Motor Co Ltd 車両周辺監視装置
JP2003230134A (ja) * 2002-02-04 2003-08-15 Honda Motor Co Ltd ナイトビジョンシステム
JP2004341801A (ja) * 2003-05-15 2004-12-02 Nissan Motor Co Ltd 追跡車両ランプ検出システムおよび追跡車両ランプ検出方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8208723B2 (en) 2008-10-14 2012-06-26 Nohmi Bosai Ltd. Smoke detecting apparatus
JP2010097412A (ja) * 2008-10-16 2010-04-30 Nohmi Bosai Ltd 煙検出装置
JP4653207B2 (ja) * 2008-10-16 2011-03-16 能美防災株式会社 煙検出装置
JP2012527803A (ja) * 2009-05-19 2012-11-08 オートリブ ディベロップメント エービー 自動車用ビジョンシステムおよびビジョンメソッド

Also Published As

Publication number Publication date
JP4627305B2 (ja) 2011-02-09

Similar Documents

Publication Publication Date Title
JP4470067B2 (ja) 対象物種別判定装置、車両
JP4410292B1 (ja) 車両の周辺監視装置
JP4173901B2 (ja) 車両周辺監視装置
JP4203512B2 (ja) 車両周辺監視装置
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP4173896B2 (ja) 車両周辺監視装置
JP4173902B2 (ja) 車両周辺監視装置
EP2352136A1 (en) System for monitoring the area around a vehicle
US10565438B2 (en) Vehicle periphery monitor device
WO2010125833A1 (ja) 車両周辺監視装置
JP4528283B2 (ja) 車両周辺監視装置
JP2010102572A (ja) 車両の周辺監視装置
JP5760090B2 (ja) 生体認識装置
JP2007334511A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム
WO2010007718A1 (ja) 車両周辺監視装置
JP4887537B2 (ja) 車両周辺監視装置
JP4813304B2 (ja) 車両周辺監視装置
JP4627305B2 (ja) 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラム
JP4629638B2 (ja) 車両の周辺監視装置
JP4823753B2 (ja) 車両の周辺監視装置
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP2007311866A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム
JP2007336091A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム
JP4975776B2 (ja) 車両周辺監視装置
JP4887539B2 (ja) 物体種別判定装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101102

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101104

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees