JP4528283B2 - 車両周辺監視装置 - Google Patents

車両周辺監視装置 Download PDF

Info

Publication number
JP4528283B2
JP4528283B2 JP2006156122A JP2006156122A JP4528283B2 JP 4528283 B2 JP4528283 B2 JP 4528283B2 JP 2006156122 A JP2006156122 A JP 2006156122A JP 2006156122 A JP2006156122 A JP 2006156122A JP 4528283 B2 JP4528283 B2 JP 4528283B2
Authority
JP
Japan
Prior art keywords
image
vehicle
extracted
area
road area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006156122A
Other languages
English (en)
Other versions
JP2007323578A (ja
Inventor
雅和 坂
弘之 小池
文則 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006156122A priority Critical patent/JP4528283B2/ja
Publication of JP2007323578A publication Critical patent/JP2007323578A/ja
Application granted granted Critical
Publication of JP4528283B2 publication Critical patent/JP4528283B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、車両の走行に影響を与える対象物を検出する車両周辺監視装置であり、特に、対象物を検出したときに車両の運転者に注意喚起を行う車両周辺監視装置に関する。
従来、この種の車両周辺監視装置としては、赤外線カメラにより捉えられた車両周辺の画像から、車両との接触の可能性がある歩行者等の対象物を抽出し、その情報を車両の運転者に視覚的に提供する表示処理装置が提案されている(例えば特許文献1参照)。この装置は、赤外線画像を2値化処理して高輝度領域を探し、該領域の赤外線画像内の重心位置、面積比、実面積などの頭部判定条件から、該領域が歩行者の頭部であるか否かを判定する。そして、歩行者の頭部の領域であると判定したときは、歩行者の身体を包含する領域を他の領域と区分して表示する。これにより、歩行者情報が車両の運転者に対して表示され、運転者の視覚を補助している。
また、かかる車両周辺監視装置において、車両の運転者に対して不要な注意喚起がなされることを抑制するため、車両との接触の可能性の高い歩行者を視覚的に表示する車両周辺装置が提案されている(例えば特許文献2参照)。この装置は、2つの赤外線カメラにより得られる画像から車両周辺の対象物と車両との距離を算出し、更に、時系列に求められる対象物の位置データから該対象物の移動ベクトルを算出している。そして、車両の進行方向と対象物の移動ベクトルの関係から、車両と接触する可能性の高い対象物を抽出して表示する。すなわち、図11に示すように、車両前方に接触判定を行う接近判定領域AR1と侵入判定領域AR2,AR3とを設定し、各領域における対象物の移動ベクトルから対象物と車両との接触の可能性を判定する処理を行っている。
しかし、本願発明者らは、この処理により接触の可能性を判定したときに、不要な注意喚起や煩わしい注意喚起がなされる場合があることを知見した。
特開平11−328364号公報 特開2001−6096号公報
本発明は、上記背景を鑑みてなされたものであり、不要な注意喚起や煩わしい注意喚起がなされることを抑制して、車両の運転者に信頼性の高い注意喚起を行う車両周辺監視装置を提供することをその課題としている。
上記課題を解決するための本発明の車両周辺監視装置は、車両に搭載された撮像手段によって得られる画像から、車両の周辺に存在する物体を監視する車両周辺監視装置であって、前記画像における車道領域を識別する車道領域識別手段と、前記画像から対象物を抽出する対象物抽出手段と、前記車両の運転者に対して注意喚起を行う注意喚起手段と、前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、第1の注意喚起を前記注意喚起手段により出力し、該対象物が該車道領域外で抽出された場合には、該第1の注意喚起と異なる第2の注意喚起を該注意喚起手段により出力する注意喚起制御手段と、前記撮像手段によって異なるタイミングで取得された複数の画像から抽出された同一対象物の位置の変化から、該対象物の移動ベクトルを算出する移動ベクトル算出手段とを備え、前記注意喚起制御手段は、前記対象物抽出手段によって前記車道領域内から抽出された対象物が、該対象物の移動ベクトルから、所定時間内に車道領域外に到達すると推定されるときと、到達しないと推定されるときとで前記第1の注意喚起の内容を変えることを特徴とする。
かかる本発明の車両周辺監視装置によれば、車道領域を識別する車道領域識別手段を備え、画像から抽出された対象物が、該車道域識別手段によって識別された車道領域内又は車道領域外において抽出されたか否かによって、前記第1の注意喚起と第2の注意喚起という相異なる注意喚起を車両の運転者に行う。そのため、車両の運転者は、該対象物が車道領域内に存在し、自車両と接触する可能性が高い場合と、該対象物が車道領域外に存在し、自車両と接触する可能性が低い場合とを、相異なる注意喚起によって区別して認識することができる。これにより、自車両と接触する可能性が低いときでも、接触する可能性が高いときと同様の注意喚起がなされることによる注意喚起の煩わしさ等を抑制して、車両の運転者に信頼性の高い注意喚起を行うことができる。
さらに、かかる車両周辺監視装置によれば、注意喚起制御手段は、対象物が車道領域内で抽出された場合に、該対象物の移動ベクトルによる、該対象物が所定時間内に車道領域外に到達されるか否かの推定結果に応じて、前記第1の注意喚起の内容を変更する。これにより、対象物が車道領域外に到達して自車両と接触する可能性が低いときと、車道領域内に到達せずに自車両と接触する可能性が高いときで、同様の注意喚起がなされることによる注意喚起の煩わしさ等を抑制して、車両の運転者に信頼性の高い注意喚起を行うことができる。
上記課題を解決するための本発明の車両周辺監視装置は、車両に搭載された撮像手段によって得られる画像から、車両の周辺に存在する物体を監視する車両周辺監視装置であって、前記画像における車道領域を識別する車道領域識別手段と、前記画像から対象物を抽出する対象物抽出手段と、前記車両の運転者に対して注意喚起を行う注意喚起手段と、前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、第1の注意喚起を前記注意喚起手段により出力し、該対象物が該車道領域外で抽出された場合には、該第1の注意喚起と異なる第2の注意喚起を該注意喚起手段により出力する注意喚起制御手段と、前記撮像手段によって異なるタイミングで取得された複数の画像から抽出された同一対象物の位置の変化から、該対象物の移動ベクトルを算出する移動ベクトル算出手段とを備え、前記注意喚起制御手段は、前記対象物抽出手段によって前記車道領域外から抽出された対象物が、該対象物の移動ベクトルから、所定時間内に車道領域内に到達すると推定されるときと、到達しないと推定されるときとで前記第2の注意喚起の内容を変えることを特徴とする
かかる本発明の車両周辺監視装置によれば、車道領域を識別する車道領域識別手段を備え、画像から抽出された対象物が、該車道域識別手段によって識別された車道領域内又は車道領域外において抽出されたか否かによって、前記第1の注意喚起と第2の注意喚起という相異なる注意喚起を車両の運転者に行う。そのため、車両の運転者は、該対象物が車道領域内に存在し、自車両と接触する可能性が高い場合と、該対象物が車道領域外に存在し、自車両と接触する可能性が低い場合とを、相異なる注意喚起によって区別して認識することができる。これにより、自車両と接触する可能性が低いときでも、接触する可能性が高いときと同様の注意喚起がなされることによる注意喚起の煩わしさ等を抑制して、車両の運転者に信頼性の高い注意喚起を行うことができる。
さらに、かかる車両周辺監視装置によれば、注意喚起制御手段は、対象物が車道領域外で抽出された場合に、該対象物の移動ベクトルによる、該対象物が所定時間内に車道領域内に到達されるか否かの推定結果に応じて、前記第2の注意喚起の内容を変更する。これにより、対象物が車道領域内に入って自車両と接触する可能性が高いときと、その可能性が低いときで、同様の注意喚起がなされることによる注意喚起の煩わしさ等を抑制して、車両の運転者に信頼性の高い注意喚起を行うことができる。
また、本発明の車両周辺監視装置において、前記撮像手段は、前記車両前方を撮像し、前記注意喚起制御手段は、前記車両と前記画像の車道領域内で抽出された対象物との実空間における前方の車道領域の方向に沿った距離である対象物距離を算出し、該対象物距離が予め設定された判定距離以下であるときに、注意喚起手段による前記第1の注意喚起を行うことを特徴とする。
かかる車両周辺監視装置によれば、前記注意喚起制御手段により算出される前記対象物距離は、車両の走行方向における車両と対象物との間の距離となる。そして、該対象物距離が所定距離以下の場合にのみ前記第1の注意喚起を行うことにより、自車両の走行方向に所在する対象物に限定して注意喚起がなされるため、不要な注意喚起や煩わしい注意喚起がなされることを抑制することができる。
さらに、本発明の車両周辺監視装置は、前記撮像手段として、可視画像を取得する可視画像撮像手段と、赤外画像を取得する赤外画像撮像手段とを備え、前記車道領域識別手段は、前記可視画像撮像手段によって取得された可視画像から車道のレーンマークが検出可能な場合には、該レーンマークにより車道領域を識別し、該レーンマークが検出不可能な場合には、前記赤外画像撮像手段によって取得された赤外画像のエッジ部を抽出するエッジ抽出処理を行い、該エッジ抽出処理によって抽出されたエッジ部により車道領域を識別することを特徴とする。
かかる本発明の車両周辺監視装置によれば、撮像手段として可視画像撮像手段と赤外画像撮像手段とを備え、車道領域識別手段は、可視画像撮像手段によって得られる可視画像から車道領域の識別精度の高いレーンマークを検出することができるときは、該レーンマークを第1の判断要素として車道領域を識別する。また、レーンマークが検出できない場合は、赤外画像撮像手段によって得られる赤外画像のエッジ部を抽出し、該エッジ部を第2の判断要素として車道領域を識別する。このように、車道領域の識別精度の高いレーンマークを優先することにより、車道領域を精度良く識別することができるとともに、レーンマークが検出できない場合には、赤外画像のエッジ部により車道領域を識別することで、より広範囲の道路状況下で車道領域を識別することができる。なお、ここで言う可視画像とは、CCDカメラや近赤外カメラ等によって撮像された、レーンマークが検出可能な画像を意味する。
また、本発明の車両周辺監視装置において、前記注意喚起制御手段は、前記画像から抽出された対象物の下端部を検出し、該下端部が、前記車道領域抽出手段によって抽出された車道領域内に位置するときに、該対象物が該車道領域内で抽出されたと判定することを特徴とする。
かかる本発明の車両周辺監視装置によれば、画像から抽出された対象物の下端部を検出し、該下端部が車道領域内又は車道領域外に位置しているか否かによって、該対象物が車道領域内又は車道領域外から抽出されたか否かを判定する。ここで、対象物の下端部は、例えば、該対象物の同一距離部分を抽出した領域のうち、画像上で下端に位置する画素部分として検出することができる。そして、対象物の下端部を基準に該対象物の位置を判定することにより、該対象物が車道領域の境界部分の近くに位置する場合にも、該対象物が車両領域内で抽出されたか否かを容易かつ確実に判定することができる。
さらに、本発明の車両周辺監視装置は、前記画像に含まれる画像部分に対応する実空間上の位置を算出する位置算出手段を備え、前記注意喚起制御手段は、前記画像から抽出された対象物の実空間上の位置が、前記車道領域抽出手段によって抽出された車道領域の実空間上の領域内にあるときに、該対象物が該車道領域内で抽出されたと判定することを特徴とする。
かかる本発明の車両周辺監視装置によれば、位置算出手段が、画像から抽出された対象物の実空間上の位置および車道領域の実空間上の領域範囲を算出し、対象物の実空間上の位置が該領域範囲内又は領域範囲外に位置しているか否かによって、該対象物が車道領域内又は車道領域外から抽出されたか否かを判定する。これにより、例えば、画像から抽出された対象物の形状が、実空間における実際の形状に対して、その一部を欠いたものとなっている場合でも、該対象物が車両領域内で抽出されたか否かを正確に判定することができる。
上記課題を解決するための本発明の車両は、前記車両周辺監視装置が搭載されたことを特徴とする。
かかる本発明の車両によれば、車両の運転者は、対象物が車道領域内に存在し、自車両と接触する可能性が高い場合と、該対象物が車道領域外に存在し、自車両と接触する可能性が低い場合とを、所定の注意喚起(または、自車両と接触する可能性が高い場合にのみ注意喚起を行うこと)によって、区別して認識することができる。これにより、不要な注意喚起や煩わしい注意喚起がなされることを抑制して、車両の運転者に信頼性の高い注意喚起を行うことができる。
本発明の一実施形態を以下に図1〜図11を参照して説明する。
まず、図1および図2を参照して、本実施形態の車両の周辺監視装置のシステム構成を説明する。図1は該周辺監視装置の全体構成を示すブロック図、図2は該周辺監視装置を搭載した車両(自車両)の外観を示す斜視図である。なお、図2では、周辺監視装置の一部の構成要素の図示を省略している。
図1および図2を参照して、本実施形態の周辺監視装置は、画像処理ユニット1を備える。この画像処理ユニット1には、自車両10の前方の画像を撮像する撮像手段としての2つの赤外線カメラ2R,2Lと1つの可視カメラ2´とが接続されると共に、自車両10の走行状態を検出するセンサとして、自車両10のヨーレートを検出するヨーレートセンサ3と、自車両10の走行速度(車速)を検出する車速センサ4と、自車両10のブレーキ操作の有無を検出するブレーキセンサ5とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な注意喚起情報を出力するためのスピーカ6と、赤外線カメラ2R,2Lにより撮像された画像や視覚的な注意喚起情報を表示するための表示装置7とが接続されている。
なお、赤外線カメラ2R,2Lが本発明における赤外画像撮像手段に相当し、可視カメラ2´が本発明における可視画像撮像手段に相当する。また、赤外線カメラ2R,2Lと可視カメラ2´とは、本発明の撮像手段に相当する。スピーカ6と表示装置7とは、本発明の注意喚起手段に相当する。
画像処理ユニット1は、詳細な図示は省略するが、A/D変換回路、マイクロコンピュータ(CPU、RAM、ROM等を有する)、画像メモリなどを含む電子回路により構成され、赤外線カメラ2R,2L、可視カメラ2´、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5から出力されるアナログ信号が、A/D変換回路によりデジタルデータ化されて、マイクロコンピュータに入力される。そして、マイクロコンピュータは、入力されたデータを基に、人(歩行者、自転車に乗っている者)などの対象物を検出し、検出した対象物が所定の注意喚起要件を満す場合にスピーカ6や表示装置7により運転者に注意喚起を発する処理を実行する。
なお、画像処理ユニット1は、本発明における車道領域識別手段、対象物抽出手段、注意喚起制御手段としての機能を備えている。そして、前記マイクロコンピュータに、本発明の車両周辺監視用プログラムを実行させることにより、該コンピュータは、本発明の車道領域識別手段、対象物抽出手段、注意喚起制御手段として機能する。さらに、前記マイクロコンピュータを、車道領域識別手段、対象物抽出手段及び注意喚起制御手段として機能させることにより、本発明の車両周辺監視方法における車道領域識別ステップ、対象物抽出ステップ及び注意喚起制御ステップが実行される。
図2に示すように、赤外線カメラ2R,2Lは、自車両10の前方を撮像するために、自車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、自車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それらの位置は、自車両10の車幅方向の中心に対して左右対称である。そして、赤外線カメラ2R,2Lは、それらの光軸が互いに平行に自車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように固定されている。なお、赤外線カメラ2R,2Lは、遠赤外域に感度を有し、それにより撮像される物体の温度が高いほど、出力される映像信号のレベルが高くなる(映像信号の輝度が高くなる)特性を有している。
また、可視カメラ2´は、自車両10のルームミラー(図示せず)の前方に、撮像方向を自車両10の前方に向けて取り付けられている。可視カメラ2´は、可視光領域で撮像可能なCCDカメラ等によって構成され、それにより撮像される物体の照度が高いほど、出力される映像信号のレベルが高くなる(映像信号の画像の輝度が高くなる)特性を有している。
さらに、本実施形態では、表示装置7として、自車両10のフロントウィンドウに画像情報を表示するヘッド・アップ・ディスプレイ7a(以下、HUD7aという)を備えている。なお、表示装置7として、HUD7aの代わりに、もしくは、HUD7aと共に、自車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイを用いてもよい。
次に、本実施形態の周辺監視装置の全体的動作を図3のフローチャートを参照して説明する。
本実施形態の画像処理ユニット1は、図3を参照して、先ず、STEP100で可視画像又は赤外線画像から車道領域を識別して設定する「車道領域識別処理」を行い、STEP200で赤外線画像から対象物を抽出する「対象物抽出処理」を行う。
そして、STEP300では、「対象物抽出処理」で対象物が抽出されているか否かを判断し、抽出されたときはSTEP400に進んで、「車道領域識別処理」で車道領域が設定されているか否かを判断する。一方、STEP300において、対象物が抽出されなかったときは、STEP100に戻って「車道領域識別処理」以下の処理を再び実行する。
STEP400において、車道領域が設定されているときは、STEP500に進んで、対象物が車道領域内の注意喚起範囲内で抽出されたときに、車道領域外で抽出されたときよりも高いレベルの注意喚起を行う「注意喚起処理(I)」を実行する。
一方、STEP400において、車道領域が設定されていないときは、STEP600に分岐して、車道領域の内外を区別することなく、自車両10の前方領域で対象物が検出されたときに注意喚起を行う「注意喚起処理(II)」を実行する。
以上が、本実施形態の周辺監視装置の全体的動作である。
次に、図4に示したフローチャートに従って、「車道領域識別処理」の具体的な内容について説明する。
まず、画像処理ユニット1は、可視カメラ2´により可視画像を取得する(STEP101)。具体的に、取得される可視画像は、可視カメラ2´の出力信号をA/D変換して得られるグレースケール画像であり、画像メモリに格納される。
続けて、可視画像上で白線等の走行区分線(レーンマーク)を検出するレーンマーク検出を行う(STEP102)。具体的には、可視画像におけるエッジ点を微分フィルタ等により抽出し、該エッジ点から白線等の走行区分線に相当する直線成分をレーンマークとして検出する。
例えば、STEP101で、図5(a)に示した可視画像が取得された場合、該可視画像に、微分処理を施してエッジ画像を生成し、該エッジ画像から周知のHough(ハフ)変換により、走行区分線に相当する直線成分を抽出する。そして、白線等の走行区分線に相当する直線成分が抽出されたときは、該直線成分をレーンマークとして検出することにより、図5(b)に丸印で示したように、レーンマークを検出することができる。
次いで、画像処理ユニット1は、STEP102で、レーンマークが検出されたか否かを判定する(STEP103)。
そして、レーンマークが検出されたとき(STEP103の判断結果がYESとなる場合)は、STEP104に進み、STEP102で検出されたレーンマークの位置に基づいて、車道領域を設定する。そして、STEP105に進んで、「車道領域識別処理」を終了する。
一方、STEP103で、レーンマークが検出されなかったと判定された場合(STEP103の判断結果がNOとなる場合)には、STEP106に分岐し、画像処理ユニット1は、赤外線カメラ2R、2Lにより赤外線画像を取得する。赤外線画像は、赤外線カメラ2R,2Lのそれぞれの出力信号である赤外線画像をA/D変換して得られるグレースケール画像であり、画像メモリに格納される。なお、以降、赤外線カメラ2Rから得られた画像を右画像、赤外線カメラ2Lから得られた画像を左画像といい、特に、右画像を基準画像という。また、基準画像は、本実施形態では右画像であるが、左画像としてもよい。
続けて、画像処理ユニット1は、該赤外線画像から道路領域を検出する(STEP107)。具体的には、前記基準画像におけるエッジ点を微分フィルタ等により抽出し、該エッジ点から自車両10の前方領域において道路領域を検出する。
例えば、STEP106で、図6(a)に示した赤外線画像が基準画像として取得された場合、前述のSTEP102におけるレーンマークの検出と同様、基準画像に微分処理を施してエッジ画像を生成し、該エッジ画像から周知のHough(ハフ)変換により、道路領域の端部に相当する直線成分を抽出する。そして、道路領域の端部に相当する直線成分が抽出されたときは、該直線成分を道路領域の端部として検出することにより、図6(b)に丸印で示したように、道路領域を検出することができる。
次いで、画像処理ユニット1は、STEP107で、道路領域が検出されたか否かを判定する(STEP108)。
そして、道路領域が検出されたとき(STEP108の判断結果がYESとなる場合)は、STEP107によって検出された道路領域の端部位置を車道領域として設定し(STEP109)、「車道領域識別処理」を終了する。
一方、道路領域が検出されなかったとき(STEP108の判断結果がNOとなる場合)は、STEP105に分岐して、車道領域を設定せずに「車道領域識別処理」を終了する。
なお、画像処理ユニット1によりSTEP100の処理を実行する構成が、本発明の車道領域識別手段に相当する。また、STEP100の処理は、本発明の車両周辺監視方法おける車道領域識別ステップに相当する。
次に、図7に示したフローチャートに従って、「対象物抽出処理」(図3のSTEP300)の具体的な内容について説明する。
まず、画像処理ユニット1は、赤外線カメラ2R、2Lにより赤外線画像を取得する(STEP201)。
次いで、画像処理ユニット1は、前記基準画像(右画像)を2値化する(STEP202)。この2値化処理は、基準画像の各画素の輝度値を所定の輝度閾値と比較し、基準画像のうちの、該所定の輝度閾値よりも高い輝度値を有する領域(比較的明るい領域)を「1」(白)とし、該輝度閾値よりも低い輝度値を有する領域(比較的暗い領域)を「0」(黒)とする処理である。以降、この2値化処理により得られる画像(白黒画像)を2値化画像という。そして、この2値化画像のうちの、「1」とされる領域を高輝度領域という。なお、この2値化画像は、グレースケール画像(右画像および左画像)とは別に画像メモリに記憶される。
次いで、画像処理ユニット1は、前記2値化画像に対してSTEP203〜205の処理を実行し、該2値化画像から対象物(より正確には対象物に対応する画像部分)を抽出する。すなわち、前記2値化画像の高輝度領域を構成する画素群を、基準画像の縦方向(y方向)に1画素分の幅を有して横方向(x方向)延在するラインに分類し、その各ラインを、その位置(基準画像上での2次元位置)の座標と長さ(画素数)とからなるランレングスデータに変換する(STEP203)。そして、このランレングスデータにより表されるラインのうちの、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)を付し(STEP204)、そのライン群のそれぞれを対象物として抽出する(STEP205)。
なお、STEP203〜205の処理により抽出される対象物には、人(歩行者)だけでなく、他車両などの人工構造物なども含まれる。また、同一の物体の複数の局所部分が対象物として抽出される場合もある。
次いで、画像処理ユニット1は、上記の如く抽出した各対象物の重心の位置(基準画像上での位置)と面積と外接四角形の縦横比とを求める(STEP206)。面積は、ランレングスデータの長さを同一対象物について積算することにより算出し、重心の座標は、面積をx方向に2等分する線のx座標及びy方向に2等分する線のy座標として算出し、縦横比は、ランレングスデータ化したラインの外接四角形の縦横比として算出する。なお、重心Gの位置は、外接四角形の重心位置で代用してもよい。
次いで、画像処理ユニット1は、前記STEP205で抽出した対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎の同一対象物の認識を行なう(STEP207)。この処理では、ある演算処理周期の時刻(離散系時刻)kにおけるSTEP205の処理により対象物Aが抽出され、次の演算処理周期の時刻k+1におけるSTEP205の処理により対象物Bが抽出されたとしたとき、それらの対象物A,Bの同一性が判定される。この同一性の判定は、例えば、それらの対象物A,Bの2値化画像上での形状やサイズ、基準画像(グレースケール画像)上での輝度分布の相関性などに基づいて行なえばよい。そして、それらの対象物A,Bが同一であると判定された場合に、時刻k+1で抽出した対象物Bのラベル(STEP204で付したラベル)が対象物Aのラベルと同じラベルに変更される。
次いで、画像処理ユニット1は、前記車速センサ4およびヨーレートセンサ5の出力(車速の検出値およびヨーレートの検出値)を読み込む(STEP208)。なお、このSTEP208では、読込んだヨーレートの検出値を積分することにより、自車両10の回頭角(方位角)の算出も行なわれる。
一方、画像処理ユニット1は、STEP207,208の処理と並行して、STEP210の処理を実行する。このSTEP210〜212の処理は、STEP205で抽出した各対象物の自車両10からの距離を求める処理である。その処理を概略的に説明すると、まず、前記基準画像のうち、各対象物に対応する領域(例えば該対象物の外接四角形の領域)を探索画像R1として抽出する(STEP210)。
次いで、左画像中で、右画像の探索画像R1に含まれる対象物と同じ対象物を探索するための領域である探索領域R2が左画像に設定され、その探索領域R2内で、探索画像R1との相関性が最も高い領域が、探索画像R1に対応する画像(探索画像R1と同等の画像)である対応画像R3として抽出される(STEP211)。この場合、左画像の探索領域R2のうち、右画像の探索画像R1の輝度分布に最も一致する輝度分布を有する領域が対応画像R3として抽出される。なお、STEP211の処理は、2値化画像ではなく、グレースケール画像を使用して行なわれる。
次いで、右画像における前記探索画像R1の重心の横方向位置(x方向位置)と、左画像における前記対応画像R3の重心の横方向位置(x方向位置)との差分の画素数を視差Δdとして算出し、その視差Δdを用いて、対象物の自車両10からの距離z(自車両10の前後方向における距離)が算出される(STEP212)。距離zは、次式(1)により算出される。

z=(f×D)/(Δd×p) ……(1)

なお、fは赤外線カメラ2R,2Lの焦点距離、Dは赤外線カメラ2R,2Lの基線長(光軸の間隔)、pは画素ピッチ(1画素分の長さ)である。
以上がSTEP210〜212の処理の概要である。なお、STEP210〜212の処理は、STEP205で抽出された各対象物に対して実行される。
STEP208およびSTEP212の処理の終了後、画像処理ユニット1は、次に、各対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(STEP213)。ここで、実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。実空間座標系のX方向およびY方向は、それぞれ自車両10の車幅方向、上下方向であり、これらのX方向およびY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、自車両10の前後方向である。そして、対象物の実空間位置(X,Y,Z)は次式(2)、(3)、(4)により算出される。

X=x×z×p/f ……(2)
Y=y×z×p/f ……(3)
Z=z ……(4)

なお、x、yは基準画像上での対象物のx座標、y座標である。
次いで、画像処理ユニット1は、自車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、対象物の実空間位置(X,Y,Z)のうちのX方向の位置Xを上記式(2)により求めた値から、前記STEP208で求めた回頭角の時系列データに応じて補正する(STEP214)。これにより、最終的に対象物の実空間位置が求められる。以降の説明では、「対象物の実空間位置」は、この補正を施した対象物の実空間位置を意味する。
次に、画像処理ユニット1は、対象物の自車両10に対する移動ベクトルを求める(STEP215)。具体的には、同一対象物についての実空間位置の、所定期間(現在時刻から所定時間前までの期間)における時系列データを近似する直線を求め、所定時間前の時刻での該直線上の対象物の位置(点)から、現在時刻における該直線上の対象物の位置(点)に向かうベクトルを対象物の移動ベクトルとして求める。この移動ベクトルは、対象物の自車両10に対する相対速度ベクトルに比例する。
さらに、画像処理ユニット1は、STEP213〜215の処理に続いて、STEP216〜217の処理を実行する。このSTEP216の処理では、STEP205で抽出した各対象物が人工構造物である場合に、該対象物を注意喚起の対象から除外する人工構造物除外処理を行う(STEP216)。人工構造物除外処理は、対象物画像に歩行者にはあり得ない特徴が検出された場合、該対象物を人工構造物と判定し、注意喚起の対象から除外する処理である。例えば下記(a)〜(d)に示す条件のように、歩行者にはあり得ない特徴が検出された場合、該対象物を人工構造物と判定し、注意喚起の対象から除外する。
(a)対象物の画像に直線エッジを示す部分が含まれる場合。
(b)対象物の画像の角が直角である場合。
(c)対象物の画像に同じ形状のものが複数含まれている場合。
(d)対象物の画像が予め登録された人工構造物の形状と一致する場合。
次に、STEP216において、対象物から人工構造物を除外する処理を行った上で、さらに判定の信頼性を上げるために、対象物が歩行者の可能性があるかを認定する歩行者認定処理を行う(STEP217)。歩行者認定処理は、前記基準画像上で対象物画像の形状や大きさ、輝度分散等の特徴から、対象物が歩行者であると認定される場合を除いて、該対象物を注意喚起の対象から除外する処理である。
以上が「対象物抽出処理」の詳細である。なお、画像処理ユニット1によりSTEP200の処理を実行する構成が、本発明の対象物抽出手段に相当する。また、STEP200の処理は、本発明の車両周辺監視方法おける対象物抽出ステップに相当する。
また、画像処理ユニット1により、STEP213の処理を実行する構成が、本発明の位置算出手段に相当し、STEP215の処理を実行する構成が、本発明の移動ベクトル算出手段に相当する。
次に、図8に示したフローチャートに従って、「注意喚起処理(I)」(図3のSTEP500)の具体的な内容について説明する。
まず、画像処理ユニット1は、対象物が、「車道領域識別処理」によって設定された車道領域内の注意喚起範囲から抽出されたか否かを判定する(STEP501)。
具体的には、例えば、前記基準画像として図9に示す画像が取得された場合、対象物Qにおける、ある一定の輝度値が連続する部分又は同一距離部分を同一対象物の範囲として、対象物Qの下端部qを決定する。そして、下端部qが車道領域AREに位置しているか否かより、対象物Qが車道領域ARE内から抽出されたものであるか否かを判定する。例えば、図9に示す場合には、対象物Qの下端部qが、車道領域ARE内に位置しているため、対象物Qは、車道領域AREから抽出されたものと判定される。
さらに、図10(a)に示すように、自車両10から車道領域AREの右端部における所定間隔毎の位置er1,er2,…までの方向と距離dr1,dr2,…とを算出する。さらに、自車両10から車道領域AREの左端部における所定間隔毎の位置el1,el2,…までの方向と距離dl1,dl2,…とを算出する。画像処理ユニット1は、これら右端部までの方向と距離、および左端部までの方向と距離に基づいて、車道領域AREの形状と前方の車道領域AREの方向に沿った距離とを認識する。そして、図10(b)に示すように、前方の車道領域AREの方向に沿った距離が所定距離L(自車速または対象物との相対速度によって定める距離)となる範囲(図中の斜線部)を前記注意喚起範囲として、該注意喚起範囲に対象物Qが存在しているか否かを判定する。
例えば、図9に示す対象物Qは、上述のように画像上の対象物Qの下端部qの位置から、車道領域AREにおいて抽出された対象物であると判定され、さらに、図10(b)に示すように、前方の車道領域AREの方向に沿った自車両10と対象物Qとの対象物距離dqが、所定距離L以下であるため、対象物Qは車道領域内における前記注意喚起範囲から抽出された対象物であると判定される。
なお、本実施形態においては、画像処理ユニット1は、前記基準画像上の対象物の下端部を検出し、該下端部が車道領域に位置しているか否かより、対象物が車道領域内から抽出されたものであるか否かを判定しているが、上述の(2)、(4)式から、対象物の実空間位置(X,Z)が、車道領域に対応する実空間上(X−Z座標軸上)の領域範囲内に位置しているかにより、対象物が車道領域内から抽出されたものであるか否かを判定してもよい。
次に、STEP501において、対象物が車道領域内における前記注意喚起範囲から抽出されたと判定された場合には(STEP501の判断結果がYESの場合)、対象物が車道領域内に存在し、自車両10との接触の可能性が高いものと推定される。そのため、危険度を示す警告レベルが最も高いレベルSの注意喚起を行う(STEP502、本発明における第1の注意喚起に相当する)。具体的には、スピーカ6を介して、歩行者の可能性がある対象物が車道領域内に存在する旨の音声による注意喚起及び所定の注意喚起音を発するとともに、画像表示装置7の基準画像の中に歩行者の可能性がある対象物の画像を強調的に表示する。これにより、自車両10と接触する可能性がある対象物に対する運転者の注意が喚起される。
一方、STEP501で、前記対象物が車道領域内における前記注意喚起範囲から抽出されたものではないと判定された場合(STEP501の判断結果がNOの場合)は、STEP503に分岐し、上述した図7の「対象物抽出処理」のSTEP215で算出した該対象物の移動ベクトルが、所定時間の間に注意喚起範囲に至る大きさを有するか否かが判定される(STEP503)。ここで、所定時間は、自車両10が現在の車速で該対象物距離dqを通過するのに要する時間である。
例えば、図10(b)に示す移動ベクトルu1を有する対象物Q1の場合、該移動ベクトルu1が前記所定時間の間に、前記注意喚起範囲に至る大きさを有するときに、対象物Q1は注意喚起領域に至る移動ベクトルを有する対象物であると判定される。一方、移動ベクトルu2を有する対象物Q2の場合、該移動ベクトルu2は前記所定時間の間に、前記注意喚起範囲に至る大きさを有しないため、対象物Q2は注意喚起範囲に至る移動ベクトルを有する対象物ではないと判定される。
次に、STEP503において、対象物が所定時間内に注意喚起範囲に至る移動ベクトルを有する対象物であると判定された場合には(STEP503の判断結果がYESの場合)、対象物が注意喚起範囲に進入して、自車両10と接触する可能性があると推定される。そのため、危険度を示す警告レベルが2番目に高いレベルAの警告を行う(STEP504、本発明における第2の注意喚起に相当する)。具体的には、スピーカ6を介して、歩行者の可能性がある対象物が車道領域に進入する旨の音声による注意喚起を発するとともに、画像表示装置7の基準画像の中に歩行者の可能性がある対象物の画像を強調的に表示する。これにより、自車両10と接触する可能性がある対象物に対する運転者の注意が喚起される。
一方、STEP503において、対象物が注意喚起範囲に至る移動ベクトルを有する対象物ではないと判定された場合には(STEP503の判断結果がNOの場合)、該対象物と自車両10との接触の可能性は低いものと推定される。そのため、この場合は、危険度を示す注意喚起レベルの低いレベルBの注意喚起を行う(STEP505、本発明における第2の注意喚起に相当する)。具体的には、接触の可能性の低い対象物が車両の周辺に存在する旨の音声による注意喚起、または、対象物画像の強調表示のいずれか一方のみを行い、運転者の車両周辺の状況への注意を喚起する。
なお、本実施形態において、画像処理ユニット1は、STEP501において対象物が車道領域内における前記注意喚起範囲から抽出されたと判定された場合に、危険度を示す警告レベルが最も高いレベルSの注意喚起を行っているが(STEP502)、注意喚起範囲から抽出された対象物の移動ベクトルを算出し、該移動ベクトルが所定時間の間に注意喚起範囲外に到達する大きさを有するか否かに応じてレベルSの注意喚起内容を変更してもよい。具体的には、注意喚起範囲から抽出された対象物が、所定時間内に注意喚起範囲外に到達する移動ベクトルを有するときに、注意喚起レベルを下げてレベルAに相当する注意喚起を行うようにしてもよい。
以上が「注意喚起処理(I)」の詳細である。なお、画像処理ユニット1によりSTEP500の処理を実行する構成が、本発明の注意喚起制御手段に相当する。また、STEP500の処理は、本発明の車両周辺監視方法おける注意喚起制御ステップに相当する。
次に、注意喚起処理(II)(STEP600)の処理について概要を説明する。なお、注意喚起処理(II)(STEP600)は、前記特許文献2の図4(STEP41〜45)に記載されている処理と同じであるので、本明細書での詳細な説明は省略する。
まず、画像処理ユニット1は、自車両10と対象物との距離が、相対速度Vsと余裕時間Tとを乗じた値以下の場合に、接触の可能性があるものとして判定する。
次に、余裕時間T以内に自車両10と対象物とが接触する可能性がある場合、さらに判定の信頼性を上げるために、図11に示すように、対象物がそのまま存在し続ければ自車両10との接触の可能性がきわめて高い接近判定領域AR1内に存在するか否かを判定する。
さらに、対象物が接近判定領域AR1内に存在しない場合、画像処理ユニット1は対象物が進入判定領域AR2,AR3から接近判定領域AR1内へ進入して自車両10と接触する可能性があるか否かを判定する。
次に、対象物が接近判定領域AR1内に存在する場合、または対象物が進入判定領域AR2,AR3から接近判定領域AR1に進入して自車両10と接触する可能性があると判定された場合には、実際の注意喚起を行なうべきか否かの判定を行なう注意喚起出力判定処理を実行する。
そして、画像処理ユニット1は、注意喚起を行なうべきと判定した場合には、この場合、対象物が自車両10の前方に存在して、自車両10との接触の可能性があると推定される。そのため、スピーカ6を介して、接触の可能性のある対象物が車両前方に存在する旨の注意喚起を発するとともに、画像表示装置7の基準画像の中に該対象物の画像を強調的に表示する。これにより、自車両10と接触する可能性がある対象物に対する運転者の注意が喚起される。
以上説明してきたように、本実施形態の車両周辺監視装置によれば、自車両10の運転者は、STEP200の「対象物抽出処理」において、STEP216〜217により歩行者の可能性があると判断された対象物に対して、
(1)対象物が車道領域に存在し自車両10と接触する可能性が高い場合と、
(2)対象物が車道領域外に存在するが車道領域に進入し、自車両10と接触する可能性がある場合と、
(3)接触する可能性は低いが、自車両10の周辺に歩行者の可能性がある対象物が存在する場合と
を相異なる注意喚起によって認識することができる。そのため、不要な注意喚起や煩わしい注意喚起を抑制し、車両の運転者に信頼性の高い注意喚起を行うことができる。
さらに、車道領域が検出されない場合であって、自車両10の前方に対象物が存在し自車両10と接触する可能性が高い場合であっても、上記(1)〜(3)と同様の注意喚起もしくは異なる注意喚起を行うことにより、車両の運転者に車両周辺の状況を認識させることができる。
なお、本実施形態においては、前記対象物が車道領域外で検出された場合(STEP503における判断結果がNOの場合)に、注意喚起レベルBまたは注意喚起レベルCの注意喚起を行っているが(STEP504または505)、前記対象物が車道領域外で検出された場合には、注意喚起出力を行わないように構成してもよい。
また、本実施形態においては、画像処理ユニット1の処理結果に基づき、所定の注意喚起を行うように構成されているが、該処理結果に基づき車両挙動が制御されてもよい。
さらに、前記実施形態では、2台の赤外線カメラ2R,2Lを備えたが、対象物との距離をレーダーなどにより検出するようにした場合には、1台の赤外線カメラ2Rもしくは2Lを自車両10に搭載するようにしてもよい。
本発明の車両の周辺監視装置の一実施形態の全体構成を示す図。 図1の周辺監視装置を備えた車両の斜視図。 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。 本実施形態における撮像画像を例示的に示す図。 本実施形態における撮像画像を例示的に示す図。 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。 本実施形態における撮像画像を例示的に示す図。 画像処理ユニットの処理を説明するための図。 従来の車両の周辺監視装置を説明するための図。
符号の説明
1…画像処理ユニット(車道領域識別手段、対象物抽出手段、注意喚起制御手段)、2R,2L…赤外線カメラ(赤外画像撮像手段)、2´…可視カメラ(可視画像撮像手段)、6…スピーカ(注意喚起手段)、7…表示装置(注意喚起手段)、STEP100…車道領域識別手段による処理、STEP200…対象物抽出手段による処理、STEP213…位置算出手段による処理、STEP215…移動ベクトル算出手段による処理、STEP500…注意喚起制御手段による処理。

Claims (7)

  1. 車両に搭載された撮像手段によって得られる画像から、車両の周辺に存在する物体を監視する車両周辺監視装置であって、
    前記画像における車道領域を識別する車道領域識別手段と、
    前記画像から対象物を抽出する対象物抽出手段と、
    前記車両の運転者に対して注意喚起を行う注意喚起手段と、
    前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、第1の注意喚起を前記注意喚起手段により出力し、該対象物が該車道領域外で抽出された場合には、該第1の注意喚起と異なる第2の注意喚起を該注意喚起手段により出力する注意喚起制御手段と
    前記撮像手段によって異なるタイミングで取得された複数の画像から抽出された同一対象物の位置の変化から、該対象物の移動ベクトルを算出する移動ベクトル算出手段と
    を備え、
    前記注意喚起制御手段は、前記対象物抽出手段によって前記車道領域内から抽出された対象物が、該対象物の移動ベクトルから、所定時間内に車道領域外に到達すると推定されるときと、到達しないと推定されるときとで前記第1の注意喚起の内容を変えることを特徴とする車両周辺監視装置。
  2. 車両に搭載された撮像手段によって得られる画像から、車両の周辺に存在する物体を監視する車両周辺監視装置であって、
    前記画像における車道領域を識別する車道領域識別手段と、
    前記画像から対象物を抽出する対象物抽出手段と、
    前記車両の運転者に対して注意喚起を行う注意喚起手段と、
    前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、第1の注意喚起を前記注意喚起手段により出力し、該対象物が該車道領域外で抽出された場合には、該第1の注意喚起と異なる第2の注意喚起を該注意喚起手段により出力する注意喚起制御手段と、
    前記撮像手段によって異なるタイミングで取得された複数の画像から抽出された同一対象物の位置の変化から、該対象物の移動ベクトルを算出する移動ベクトル算出手段と
    を備え、
    前記注意喚起制御手段は、前記対象物抽出手段によって前記車道領域外から抽出された対象物が、該対象物の移動ベクトルから、所定時間内に車道領域内に到達すると推定されるときと、到達しないと推定されるときとで前記第2の注意喚起の内容を変えることを特徴とする車両周辺監視装置。
  3. 前記撮像手段は、前記車両前方を撮像し、
    前記注意喚起制御手段は、前記車両と前記画像の車道領域内で抽出された対象物との実空間における前方の車道領域の方向に沿った距離である対象物距離を算出し、該対象物距離が予め設定された判定距離以下であるときに、注意喚起手段による前記第1の注意喚起を行うことを特徴とする請求項1又は2記載の車両周辺監視装置。
  4. 前記撮像手段として、可視画像を取得する可視画像撮像手段と、赤外画像を取得する赤外画像撮像手段とを備え、
    前記車道領域識別手段は、前記可視画像撮像手段によって取得された可視画像から車道のレーンマークが検出可能な場合には、該レーンマークにより車道領域を識別し、該レーンマークが検出不可能な場合には、前記赤外画像撮像手段によって取得された赤外画像のエッジ部を抽出するエッジ抽出処理を行い、該エッジ抽出処理によって抽出されたエッジ部により車道領域を識別することを特徴とする請求項1から請求項3のうちいずれか1項記載の車両周辺監視装置。
  5. 前記注意喚起制御手段は、前記画像から抽出された対象物の下端部を検出し、該下端部が、前記車道領域抽出手段によって抽出された車道領域内に位置するときに、該対象物が該車道領域内で抽出されたと判定することを特徴とする請求項1から請求項4のうちいずれか1項記載の車両周辺監視装置。
  6. 前記画像に含まれる画像部分に対応する実空間上の位置を算出する位置算出手段を備え、
    前記注意喚起制御手段は、前記画像から抽出された対象物の実空間上の位置が、前記車道領域抽出手段によって抽出された車道領域の実空間上の領域内にあるときに、該対象物が該車道領域内で抽出されたと判定することを特徴とする請求項1から請求項4のうちいずれか1項記載の車両周辺監視装置。
  7. 請求項1から請求項6のうちいずれか1項記載の車両周辺監視装置が搭載されたことを特徴とする車両。
JP2006156122A 2006-06-05 2006-06-05 車両周辺監視装置 Expired - Fee Related JP4528283B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006156122A JP4528283B2 (ja) 2006-06-05 2006-06-05 車両周辺監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006156122A JP4528283B2 (ja) 2006-06-05 2006-06-05 車両周辺監視装置

Publications (2)

Publication Number Publication Date
JP2007323578A JP2007323578A (ja) 2007-12-13
JP4528283B2 true JP4528283B2 (ja) 2010-08-18

Family

ID=38856309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006156122A Expired - Fee Related JP4528283B2 (ja) 2006-06-05 2006-06-05 車両周辺監視装置

Country Status (1)

Country Link
JP (1) JP4528283B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4962865B2 (ja) * 2007-12-14 2012-06-27 トヨタ自動車株式会社 運転支援装置
JP4377439B1 (ja) * 2008-06-12 2009-12-02 本田技研工業株式会社 車両周辺監視装置
JP5291524B2 (ja) * 2009-04-24 2013-09-18 本田技研工業株式会社 車両周辺監視装置
JP5192007B2 (ja) * 2010-03-12 2013-05-08 本田技研工業株式会社 車両の周辺監視装置
JP5345992B2 (ja) * 2010-09-08 2013-11-20 本田技研工業株式会社 車両周辺監視装置
CN103797530B (zh) * 2011-09-21 2015-09-09 本田技研工业株式会社 车辆周围监测装置
JP5465223B2 (ja) * 2011-10-14 2014-04-09 本田技研工業株式会社 車両の運転支援装置
JP6173962B2 (ja) * 2014-04-01 2017-08-02 本田技研工業株式会社 レーンマーク認識装置
JP6662356B2 (ja) 2017-08-03 2020-03-11 トヨタ自動車株式会社 車両制御装置
JP6773854B2 (ja) * 2019-07-10 2020-10-21 株式会社東芝 検出装置、検出方法、および検出プログラム
JP6979096B2 (ja) * 2020-02-28 2021-12-08 本田技研工業株式会社 注意喚起装置、及び注意喚起方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002362302A (ja) * 2001-06-01 2002-12-18 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置
JP2006126000A (ja) * 2004-10-28 2006-05-18 Nissan Motor Co Ltd 物体検出装置及び物体検出方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002362302A (ja) * 2001-06-01 2002-12-18 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置
JP2006126000A (ja) * 2004-10-28 2006-05-18 Nissan Motor Co Ltd 物体検出装置及び物体検出方法

Also Published As

Publication number Publication date
JP2007323578A (ja) 2007-12-13

Similar Documents

Publication Publication Date Title
JP4528283B2 (ja) 車両周辺監視装置
JP4456086B2 (ja) 車両周辺監視装置
JP4173901B2 (ja) 車両周辺監視装置
JP4410292B1 (ja) 車両の周辺監視装置
JP4173902B2 (ja) 車両周辺監視装置
JP5706874B2 (ja) 車両の周辺監視装置
US8766816B2 (en) System for monitoring the area around a vehicle
JP4171501B2 (ja) 車両の周辺監視装置
JPWO2011108218A1 (ja) 車両の周辺監視装置
WO2012004938A1 (ja) 車両の周辺監視装置
JP2010146494A (ja) 車両周辺監視装置
JP4644273B2 (ja) 車両周辺監視装置
JP4813304B2 (ja) 車両周辺監視装置
JP5192007B2 (ja) 車両の周辺監視装置
JP4887537B2 (ja) 車両周辺監視装置
JP2011103058A (ja) 誤認識防止装置
JP4765113B2 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP4823753B2 (ja) 車両の周辺監視装置
JP3949628B2 (ja) 車両の周辺監視装置
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP4567072B2 (ja) 車両周辺監視装置
JP4943403B2 (ja) 車両の周辺監視装置
JP4629638B2 (ja) 車両の周辺監視装置
JP5430633B2 (ja) 車両周辺監視装置
JP5383246B2 (ja) 車両の周辺監視装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100604

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4528283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140611

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees