JP2004038877A - Perimeter monitoring device and image processing apparatus for vehicles - Google Patents

Perimeter monitoring device and image processing apparatus for vehicles Download PDF

Info

Publication number
JP2004038877A
JP2004038877A JP2002198777A JP2002198777A JP2004038877A JP 2004038877 A JP2004038877 A JP 2004038877A JP 2002198777 A JP2002198777 A JP 2002198777A JP 2002198777 A JP2002198777 A JP 2002198777A JP 2004038877 A JP2004038877 A JP 2004038877A
Authority
JP
Japan
Prior art keywords
vehicle
image
monitoring area
feature point
danger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2002198777A
Other languages
Japanese (ja)
Inventor
Kazuyuki Sasaki
佐々木 一幸
Naoto Ishikawa
石川 直人
Masato Nakajima
中島 真人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2002198777A priority Critical patent/JP2004038877A/en
Publication of JP2004038877A publication Critical patent/JP2004038877A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a perimeter monitoring device for accurately determining the danger of a vehicle contacting an object even in running on a general road. <P>SOLUTION: A predicted running course calculation means 52a calculates a predicted running course of a vehicle. A first monitoring area setting means 52b sets a monitoring area based on the predicted running course. A danger determining means 100 monitors an object around the vehicle and determines the danger of the object in the monitored area contacting the vehicle. A white line detecting means 52c processes an image picked up by an imaging means 10 and detects a pair of white lines on either side of the lane in which the vehicle is going. A second monitoring area setting means 52d sets a monitoring area based on the detected white lines. A switching means 52e switches the monitoring area used by the danger judging means 100 for determination of dangerousness between the monitoring area set by the first monitoring area setting means 52b and the monitoring area set by the second monitoring area setting means 52d. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、車両用周辺監視装置及び画像処理装置に係わり、特に、物体と車両との接触の危険度を検出する車両用周辺監視装置及び、例えば、車両用周辺監視装置に用いられる画像処理装置に関する。
【0002】
【従来の技術】
従来、上述した車両用周辺監視装置として、車両に搭載したカメラ、レーザ光源、超音波発振器などを用いて、車両周辺の物体の位置や、自車両に対する接近度を検出し、自車両に非常に近い位置に物体が存在したり、自車両に対して急接近してくる物体が存在したとき、接触の危険性があると判断して、警報を与えるものが知られている。
【0003】
しかしながら、上記した車両用周辺監視装置のように、自車両に非常に近い位置に物体が存在する、自車両に対して物体が急接近してきたということで、接触の危険性があると判断すると、以下に示すような問題が生じる。つまり、進路変更の意志がないとき、隣接車線上を自車両と接近して走行する他車両が存在したり、隣接車線から他車両が急接近してきた場合など、危険でないにも拘わらず、危険と判断してしまい、正確に物体との接触の危険性を判断することができないという問題があった。
【0004】
そこで、このような事態を防止するため、カメラを用いた車両用周辺監視装置の中には、カメラによって撮像した道路画像を用いて車線区画ラインである白線を検出して、検出した白線に基づき、自車線領域と、隣接車線領域とを識別するものがある。
【0005】
このような車両用周辺監視装置は、ウインカの操作が行われてなく、進路変更の意志がないときは、自車線領域に存在する物体について、接触の危険性の判断を行っている。一方、ウインカの操作が行われ、進路変更の意志があるときは、その操作方向の隣接車線領域に存在する物体について、接触の危険性の判断を行っている。
【0006】
【発明が解決しようとする課題】
上述した白線検出を行う車両用周辺監視装置は、走行環境が比較的シンプルな高速道路では、正確に物体との接触の危険性を判断することができた。しかしながら、市街地道路などの一般道路では、歩行者や電柱のような物体が多数存在すること、白線が必ずしも存在しないこと、走行レーン維持に対する運転者の意識が希薄であることから、正確に物体との接触の危険性を判断することができないという第1の問題があった。また、白線検出を行う車両用周辺監視装置は、レーザ光源や、超音波発振器を用いて周辺監視を行うものには適用することができないという問題もある。
【0007】
また、カメラを用いた車両用周辺監視装置としては、互いに所定距離、離れて配置した2台のカメラから構成され、一方のカメラが撮像した物体と、他方のカメラが撮像した物体との視差に基づき、物体の相対位置を検出して、接触の危険性の判断を行うステレオカメラ式のものがある。また、1台のカメラから、所定時間前後して得た2枚の画像中の物体の移動量に基づき、車両周辺の物体の自車両に対する接近度を検出し、接触の危険性の判断を行うオプティカルフロー式のものもある。
【0008】
しかしながら、カメラを用いた車両用監視装置は、カメラが撮像した画像を画像処理して、接触の危険性の判断を行う必要があり、一般に、計算量が膨大となり、実時間(リアルタイム)での接触危険性の判断を行うは困難であったり、実現するためには、高速度の演算処理装置を必要とするため装置自体が高価格化してしまうというような第2の問題もある。
【0009】
そこで、本発明は、上記のような問題点に着目し、白線が存在せず、歩行者や電柱などの多数の物体が存在する、又は、走行レーン維持に対する運転者の意識が希薄である一般道路を走行する場合であっても、正確に物体との接触の危険性を判断することができる車両用周辺監視装置を提供することを第1の課題とする。また、撮像手段が撮像した車両周辺画像の画像処理を簡略にすることによって、安価に、実時間での接触危険性の判断を行うことを可能にする画像処理装置を提供することを第2の課題とする。
【0010】
【課題を解決するための手段】
上記した第1の課題を解決するためになされた請求項1記載の発明は、図1の基本構成図に示すように、車両周辺の物体を監視し、前記物体と前記車両との接触の危険性を判断する危険判断手段100と、前記車両の予測進路を算出する予測進路算出手段52aと、前記予測進路に基づき、監視領域を設定する第1監視領域設定手段52bとを備え、前記危険判断手段は、前記監視領域内に存在する物体について、前記危険性を判断することを特徴とする車両用周辺監視装置に存する。
【0011】
請求項1記載の発明によれば、予測進路算出手段が、車両の予測進路を算出する。第1監視領域設定手段が、予測進路に基づき、監視領域を設定する。危険判断手段が、車両周辺の物体を監視し、監視領域内に存在する物体と車両との接触の危険性を判断する。従って、予測進路に基づき監視領域を設定することにより、歩行者や電柱などの多数の物体が存在する、又は、走行レーン維持に対する運転者の意識が希薄である一般道路を走行する場合であっても、最適な監視領域を設定することができる。しかも、レーザ光源や、超音波発振器を用いて周辺監視を行うものにも適用することができる。
【0012】
請求項2記載の発明は、請求項1記載の車両用周辺監視装置であって、前記危険判断手段は、前記車両前方にある物体を監視して、前記車両前方にある物体と前記車両との接触の危険性を判断することを特徴とする車両用周辺監視装置に存する。
【0013】
請求項2記載の発明によれば、危険判断手段が、車両前方にある物体を監視して、車両前方にある物体と車両との接触の危険性を判断する。従って、車両前方について、最適な監視領域を設定することができる。
【0014】
請求項3記載の発明は、請求項1又は2記載の車両用周辺監視装置であって、前記第1監視領域設定手段は、前記予測進路を含んだ領域を、前記監視領域として設定することを特徴とする車両用周辺監視装置に存する。
【0015】
請求項3記載の発明によれば、予想進路外であれば、物体が存在したとしても接触の危険性が少なくことに着目し、第1監視領域設定手段が、予測進路を含んだ領域を、監視領域として設定する。従って、一般道路を走行する場合であっても、より一層、最適な監視領域を設定することができる。
【0016】
請求項4記載の発明は、請求項3記載の車両用周辺監視装置であって、前記第1監視領域設定手段は、前記予測進路を車幅方向に拡大した領域を、前記監視領域として設定することを特徴とする車両用周辺監視装置に存する。
【0017】
請求項4記載の発明によれば、第1監視領域設定手段が、予測進路を車幅方向に拡大した領域を、監視領域として設定する。従って、運転者がハンドルを操作して、予想進路が多少、変化してしまった場合や、予測進路周辺を走行している他車両が急に近づいてきた場合を考慮した、より一層、最適な監視領域を設定することができる。
【0018】
請求項5記載の発明は、請求項1〜4何れか1項記載の車両用周辺監視装置であって、前記第1監視領域設定手段は、前記車両から、前記予測進路に沿って、前記車両速度に応じて定めた距離より遠方にある範囲を、前記監視領域から除外することを特徴とする車両用周辺監視装置に存する。
【0019】
請求項5記載の発明によれば、運転者が危険を察知してから、ブレーキを踏み、実際に停止するまでの間に、車両が進む距離(以下、停止距離)より、遠方にある物体については接触の危険性がないことに着目し、第1監視領域設定手段が、車両から、予測進路に沿って、車両速度に応じて定めた距離(例えば停止距離)より遠方にある範囲を、監視領域から除外する。従って、渋滞などが発生して、低速で走行したり、交通の流れに沿ってスピードを出して走行したりを繰り返す場合であっても、より一層、最適な監視領域を設定することができる。
【0020】
請求項6記載の発明は、図1の基本構成図に示すように、請求項1〜5何れか1項記載の車両用周辺監視装置であって、前記危険判断手段は、前記車両周辺を撮像する撮像手段10を有し、前記撮像手段が撮像した画像を画像処理し、自車両が走行する自車線の両側に位置する一対の白線を検出する白線検出手段52cと、前記検出した白線に基づき、監視領域を設定する第2監視領域設定手段52dと、前記危険判断手段が、前記危険性の判断に用いる監視領域を、前記第1監視領域設定手段が設定した監視領域と、前記第2監視領域設定手段が設定した監視領域との間で切り替える切替手段52eとをさらに備えることを特徴とする車両用周辺監視装置に存する。
【0021】
請求項6記載の発明によれば、危険判断手段において、撮像手段が、車両周辺を撮像する。白線検出手段が、撮像手段により撮像された画像を画像処理し、自車両が走行する自車線の両側に位置する一対の白線を検出する。第2監視領域設定手段が、検出した白線に基づき、監視領域を設定する。切替手段が、危険判断手段によって危険性の判断に用いられる監視領域を、第1監視領域設定手段が設定した監視領域と、第2監視領域設定手段が設定した監視領域との間で切り替える。従って、白線が存在し、走行環境が比較的シンプルな高速道路では、第2監視領域設定手段が設定した監視領域に切り替え、白線が存在せず、歩行者や電柱のような物体が多数存在する一般道路では、第2監視領域設定手段が設定した監視領域に切り替えれば、走行環境に適応した最適な監視領域を設定することができる。
【0022】
上記した第2の課題を解決するためになされた請求項7記載の発明は、図1の基本構成図に示すように、請求項1〜5何れか1項記載の車両用周辺監視装置であって、前記危険判断手段は、車両の周辺を撮像する撮像手段10と、前記撮像手段が撮像した画像を走査して、走査方向近傍に存在する画素同士の濃度変化量を検出する濃度変化量検出手段52fと、前記検出した濃度変化量の前記走査方向における極大点を特徴点として検出する特徴点検出手段52gとを有し、前記特徴点から構成される画像を画像処理して、前記危険性を判断することを特徴とする車両用周辺監視装置に存する。
【0023】
上記した第2の課題を解決するためになされた請求項9記載の発明は、車両に搭載された撮像手段が撮像した画像を画像処理して、前記画像中の特徴点を検出する画像処理装置であって、前記撮像手段が撮像した画像を走査して、走査方向近傍に存在する画素同士の濃度変化量を検出する濃度変化量検出手段と、前記検出した濃度変化量の前記走査方向における極大点を特徴点として検出する特徴点検出手段とを備えたことを特徴とする画像処理装置に存する。
【0024】
請求項7及び9記載の発明によれば、危険判断手段において、撮像手段が、車両の周辺を撮像する。濃度変化量検出手段が、撮像手段が撮像した画像を走査して、走査方向近傍に存在する画素同士の濃度変化量を検出する。特徴点検出手段が、検出した濃度変化量の走査方向における極大点を特徴点として検出する。危険判断手段が、特徴点から構成される画像を画像処理して、危険性を判断する。従って、濃度変化量の極大点を特徴点として検出することにより、物体のエッジがはっきりと撮像されていない場合であっても、エッジに沿ってある程度の幅を有する領域が特徴点として検出されることがなく、幅を細くすることができる。
【0025】
上記した第2の課題を解決するためになされた請求項8記載の発明は、図1の基本構成図に示すように、請求項1〜5何れか1項記載の車両用周辺監視装置であって、前記危険判断手段は、互いに所定距離、離れて配置された車両周辺を撮像する2つの撮像手段10と、前記2つの撮像手段が撮像した2枚の画像中の同一点を検出する同一点検出手段52hとを有し、前記同一点検出手段は、前記2つの撮像手段により撮像された2枚の画像中の特徴点を検出し、前記2枚の画像のうち、一方の画像中の特徴点を略中心とした窓を設定し、他の画像中において、前記特徴点に対する同一点が現れる直線であるエピポラー線上に存在する特徴点を中心とした窓を設定し、前記他の画像中に設定した窓内の画像のうち、前記一方の画像中に設定した窓の画像との相違度が最も低い窓の略中心を構成する特徴点を同一点として検出することを特徴とする車両用周辺監視装置に存する。
【0026】
上記した第2の課題を解決するためになされた請求項10記載の発明は、車両に搭載され、互いに所定距離、離れて配置された2つの撮像手段が撮像した2枚の画像を画像処理して、前記2つの撮像手段が撮像した2枚の画像中の同一点を検出する画像処理装置であって、前記2つの撮像手段により撮像された2枚の画像中の特徴点を検出し、前記2枚の画像のうち、一方の画像中の特徴点を略中心とした窓を設定し、他の画像中において、前記特徴点に対する同一点が現れる直線上に存在する特徴点を中心とした窓を設定し、前記他の画像中に設定した窓内の画像のうち、前記一方の画像中に設定した窓の画像との相違度が最も低い窓の略中心を構成する特徴点を同一点として検出することを特徴とする画像処理装置に存する。
【0027】
請求項8及び10記載の発明によれば、互いに所定距離、離れて配置された2つの撮像手段により撮像された2枚の画像中の同一点の差に基づき、危険性を判断する場合において、同一点検出手段が、2枚の画像のうち、一方の画像中の特徴点を略中心とした窓を設定する。また、他方の画像中において、上記窓を設定した特徴点に対する同一点が現れる直線であるエピポラー線上に存在する特徴点を中心とした窓を設定する。そして、他の画像中に設定した窓内の画像のうち、一方の画像中に設定した窓の画像との相違度が最も低い窓の略中心を構成する特徴点を同一点として検出する。以上の構成によれば、一方の画像中の特徴点と同一点を、他の画像中から検出する際に、一方の画像中の特徴点に対して設定した窓を、他方の画像中のエピポラー線上に沿って、しかも、エピポラー線上に存在する特徴点毎に上記窓を移動して、相違度を求めることにより、上記窓を他の画像全体に亘って走査したり、他の画像中のエピポラー線上を一画素づつ窓を移動して走査することなく、同一点を求めることができる。
【0028】
【発明の実施の形態】
以下、本発明の実施の形態を、図面を参照して説明する。
図2は、本発明の画像処理装置を組み込んだ車両用周辺監視装置の一実施の形態を示すブロック図である。同図において、車両用周辺監視装置は、車両前方に搭載され、車両前方を撮像する撮像手段としての撮像部10と、画像を蓄える記憶部20と、ハンドル舵角に応じた舵角信号を出力する舵角センサ30と、車両速度に応じた速度信号を検出する速度センサ40と、各種演算処理を実行するマイクロコンピュータ(μCOM)50と、警報を発生する警報発生部60とを備えている。
【0029】
上記撮像部10は、車両に搭載された右側CCD11R及び左側CCD11Lと、右側CCD11Rにより撮像された画像が投影される右側イメージプレーン12Rと、左側CCD11Lにより撮像された画像が投影される左側イメージプレーン12Lとを有している。そして撮像部10は、車両前方が撮像領域となるように取り付けられている。また、撮像部10を構成する一対のCCD11R及び11Lは、水平方向に所定距離、離れて取り付けられている。
【0030】
記憶部20は、右側イメージプレーン12Rに投影された画像を一時的に蓄える右側フレームメモリ21Rと、左側イメージプレーン12Lに投影された画像を一時的に蓄える左側フレームメモリ21Lと、CCD11R及び11Lにより撮像された画像を画像処理して、物体との接触の危険性を判断する過程で用いられるフレームメモリ22とを有している。
【0031】
μCOM50は、車両と物体との接触の危険性を判断するための動作プログラムを記録したROM51と、この動作プログラムに従って動作するCPU52と、CPU52の動作時において必要な情報を一時格納するRAM53とを有している。警報発生部60は、例えば、ディスプレイ(図示せず)やスピーカ(図示せず)から構成され、μCOM50によって、物体との接触の危険性があると判断されたとき、その旨を伝える警報音を発生したり、メッセージを表示して、運転者に対して警報を与える。
【0032】
上述した構成の車両用周辺監視装置の動作を図3のフローチャートを参照して以下説明する。CPU52は、例えば、図示しないイグニッションスイッチのオンによって動作を開始し、図示しない初期ステップにおいて、μCOM50内のRAM53に形成した各種エリアの初期設定を行ってからその最初のステップS1に進む。
【0033】
ステップS1において、CPU52は、イメージプレーン12R及び12Lに投影されている画像を、右側フレームメモリ21R及び21Lにそれぞれ格納して、CCD11R及び11Lにより撮像された撮像画像を取得する(ステップS1)。次に、CPU52は、上記取得した各撮像画像中に映っている物体のエッジ(輪郭)上の点を特徴点として検出し、特徴点のみから構成される特徴点画像を作成して、フレームメモリ22内に一時格納する(ステップS2)。
【0034】
上述した特徴点画像作成の詳細な動作について説明する。まず、CPU52は、濃度変化量検出手段として働き、右側フレームメモリ21R及び21Lに格納された各画像について、x軸方向(=画像水平方向)に走査して、x軸方向近傍に存在する画素の濃度変化量を求める。この濃度変化量を求める方法の代表的な一例として、Sobelオペレータがある。次に、CPU52は、特徴点検出手段として働き、図4に示すように、x軸方向において、求めた濃度変化量が極大となる点を特徴点P、P、P、P…として検出して、特徴点画像を作成する。
【0035】
ところで、従来では、濃度変化量が閾値以上となる点を特徴点として検出するのが一般的であった。しかし、この従来の特徴点検出方法では、図4に示すように、物体のエッジがはっきりと撮像されておらず、エッジでの濃度変化がなだらかな場合、閾値A以上のある程度の幅Wを持った領域内の全ての点が特徴点として検出されてしまう。
【0036】
そこで、上述した本発明のように、濃度変化量の極大点を特徴点として検出すれば、エッジに沿ってある程度の幅Wを有する領域内の全ての点が特徴点として検出されることがなく、エッジに沿った一点(=特徴点P、P、P、P…)が特徴点として検出される。つまり、エッジがはっきりと撮像されない部分で、特徴点が抽出されすぎることがなく、後述する特徴点画像について行われる画像処理を簡略にすることができる。
【0037】
次に、CPU52は、上述したように、右側CCD11R及び左側CCD11Lで撮像した2枚の撮像画像及びこの2枚の撮像画像について各々作成した特徴点画像を用いて、視差画像を作成して、フレームメモリ22に格納する(ステップS3)。
【0038】
具体的には、CPU52は、まず、同一点検出手段として働き、一方の特徴点画像(例えば、左側特徴点画像)内に存在する特徴点と同一の点を、他方の特徴点画像(例えば、右側特徴点画像)中から検出する。上記同一点検出は、左側特徴点画像内に存在する全ての特徴点について行われる。そして、全ての同一点同士の位置差、つまり、視差を求める。次に、視差が発生する特徴点を、その視差値に応じた輝度に変換することにより、視差画像を作成する。
【0039】
このとき、視差値が大きくなるほど輝度が明るくなるように変換すれば、視差画像は、車両付近に存在する物体の特徴点ほど明るくなり(近くにある物体ほど視差が大きいため)、車両遠方に存在する物体の特徴点ほど暗くなる(画像となる遠くにある物体ほど視差が小さいため)。
【0040】
次に、上述した視差画像作成の過程で行われる同一点検出の詳細な動作について、図5を参照して説明する。まず、CPU52は、例えば左側CCD11Lで撮像した撮像画像上に、注目する一特徴点Pを中心としたN×Nの窓Wを設定する。次に、右側撮像画像の中から、特徴点Pの同一点が現れる直線であるエピポラー線L上に存在する特徴点P、P、Pを検出する。本発明のように、2台のCCD11R及び11Lを水平に配置した場合、エピポラー線Lは、水平方向の1ラインとなる。
【0041】
次に、CPU52は、エピポラー線L上に存在する特徴点P、P、Pを中心としたN×Nの窓W21、W22、W23内の画像のうち、窓W内の画像との相違度が最も低い窓に設定された特徴点を、特徴点Pの同一点として検出する。
【0042】
上述したように、左側撮像画像中の特徴点と同一点を、右側撮像画像中から検出することにより、窓Wを右側撮像画像全体に亘って走査したり、右側撮像画像中のエピポラー線L上を一画素づつ窓Wを移動して走査することなく、同一点を求めることができる。このため、同一点検出に関する画像処理を簡略にすることができる。
【0043】
上述したように作成した視差画像には路面に描かれた文字など接触の危険性が全くない物体の視差情報まで含まれているため、次に、CPU52は、路面と同じ高さの物体の視差情報を視差画像から除去する(ステップS4)。撮像画像中に撮像されている路面までの距離(視差)は下式(1)で表される。
d=A・y+B・x+C …(1)
【0044】
上式(1)のdは、視差であり、xは視差画像のx軸方向の位置、yは視差画像のy軸方向(画像垂直方向)の位置、A、B、Cは路面パラメータである。路面パラメータA、B、Cは、路面に対するCCD11R及び11Lの設置パラメータから定まるものである。この式(1)で求めた視差dに対応する輝度値を有する点を、視差画像中から除去することにより、路面と同じ高さの物体の視差情報を視差画像から除去することができる。
【0045】
次に、CPU52は、作成した視差画像を用い、補間視差画像を作成する(ステップS5)。作成した視差画像は、上述したように、画像内の全ての画素に対して視差を算出しているわけではない。従って、特徴点以外の画素、すなわち濃度の平坦な領域に関しては、近傍の特徴点から算出した視差値から推測し、補間することが必要となる。
【0046】
そこで、視差画像中においてx軸方向に同じ視差をもつエッジが連続した場合、それらを同一の車両から生じたエッジとする。そして、同一のエッジ間の水平方向を、両エッジを持つ視差値(輝度)で埋めることにより、特徴点が存在しない部位の視差を補間して補間視差画像を作成する。これにより、撮像された物体の輪郭だけでなく、物体全体(輪郭内)についても、視差に応じた輝度を有した視差画像を得ることができる。
【0047】
次に、CPU52は、作成した補間視差画像を用いて、投影視差画像を作成する(ステップS6)。具体的には、補間視差画像からx軸をそのままとし、y軸は補間視差画像のy方向に視差dの度数分布を求め、横軸x、縦軸dなる投影視差画像を作成する。
【0048】
例えば、前方に他車両F及び他車両Gが走行しているとする。このときの補間視差画像は、図6(a)に示すようになる。同図において、他車両Fは他車両Gより自車両近くを走行しているため、当然、他車両Fから発生する視差は、他車両Gから発生する視差より大きくなる。
【0049】
従って、図6(a)に示すような補間視差画像を、上述したように、投影視差画像に変換したとき、その投影視差画像は、図6(b)に示すように、他車両Fが手前の一直線Lに変換され、他車両Gが奥側の直線Lに変換される(ただし、視差dは手前になるほど大きな値を表すものとする)。つまり、同一の物体から発生する視差は、ほぼ同じであるため、物体は、発生する視差、つまり、車両からの距離に応じた一直線に変換される。そして、自車両近くに存在する物体から変換された直線ほど、手前側に位置する(近くにある物体ほど視差が大きいため)。これは、丁度真上から物体を見たときの位置を表すようになる。
【0050】
次に、CPU52は、予測進路算出手段として働き、図7に示すような、路面のXZ平面上における予測進路Mを算出する(ステップS7)。この予測軌跡Mは、ハンドル舵角に応じた回転半径Rを持つ円弧から車幅を考慮して求めたものである。なお、回転半径Rは、次式(2)によって、算出する。
R=LWB/tanθsteer   …(2)
WBは車両のホイールベース、θsteerはハンドル舵角から算出したタイヤの切れ角を表している。ハンドル舵角は、舵角センサ30からの舵角信号に基づき求める。
【0051】
次に、CPU52は、第1監視領域設定手段として働き、監視領域を設定する(ステップS8)。まず、一般道路において、運転者が注視しなければならない範囲は、自車両の進行方向に依存して変動していることに着目し、ステップS7で求めた予想進路Mを車幅方向にΔD拡大した領域内を、監視領域として設定する。
【0052】
また、運転者が注視しなければならない範囲は、自車両の走行速度に依存しても変動している。つまり、渋滞時や交差点前などかなりスピードを落として運転している際には、近距離だけを注意して見ればよい。逆に交通の流れに沿ってスピードを出しているときはかなり遠方まで注視する必要がある。このことに着目し、予測進路Mに沿って、車両速度(速度センサ40からの速度信号に基づき求める)に応じて定めた距離Lより遠方にある範囲を監視領域から除外する。
【0053】
なお、車両速度に応じて定めた距離Lとは、具体的には、運転者が危険を察知してから、ブレーキを踏み、実際に停止するまでの間に、車両が進む距離(=停止距離)などが考えられる。以上の動作により、路面のXZ平面上において、監視領域Eを設定することができる。
【0054】
次に、上記設定したXZ平面上の監視領域E内の点を、予め定めた変換式を用いて、イメージプレーン12R及び12L上のxy平面に変換する。この変換により、図8に示すように、路面上に描かれた監視領域Eを、CCD11R及び11Lによって撮像した監視領域画像を得ることができる。
【0055】
次に、CPU52は、監視領域画像を、上述したような投影視差画像に変換して、フレームメモリ22に格納する(ステップS9)。その後、CPU52は、監視領域の投影視差画像と、ステップS6で作成した撮像画像の投影視差画像とを比べ、図6(b)において、直線L、Lで表される物体が、監視領域内に存在したとき、物体との接触の危険性があると判断して(ステップS10でY)、警報発生部60を用いて運転者に警報を与えた後(ステップS11)、ステップS1に戻る。
【0056】
一方、監視領域内に物体が存在しなければ、物体との接触の危険性がないと判断して(ステップS10でN)、直ちにステップS1に戻る。以上のことから、撮像部10及びCPU52が、請求項中の危険判断手段100を構成することがわかる。
【0057】
以上のように、予測進路Mを含んだ監視領域Eを設定することにより、歩行者や電柱などの多数の物体が存在する、又は、走行レーン維持に対する運転者の意識が希薄である一般道路を走行する場合であっても、最適な監視領域Eを設定することができるので、一般道路を走行する場合であっても、正確に物体との接触の危険性を判断することができる。
【0058】
また、予測進路Mを車幅方向にΔD拡大した領域を、監視領域として設定することにより、運転者がハンドルを操作して、予想進路Mが多少、変化してしまった場合や、予測進路M周辺を走行している他車両が急に近づいてきた場合を考慮した、より一層、最適な監視領域Eを設定することができる。
【0059】
また、車両から、予測進路Mに沿って、車両速度に応じて定めた距離(例えば停止距離)より遠方にある範囲を、監視領域Eから除外することにより、渋滞などが発生して、低速で走行したり、交通の流れに沿ってスピードを出して走行したりを繰り返す場合であっても、より一層、最適な監視領域Eを設定することができる。
【0060】
なお、上述した実施形態では、予測軌跡に基づいて、監視領域を設定していた。しかしながら、例えば、走行環境が比較的シンプルな高速道路では、従来のように、白線に基づいて監視領域を設定し、一般道路では、上述したように予測進路に基づいて監視領域を設定するようにしてもよい。この場合、CPU53が、白線検出手段、第2監視領域設定手段、切替手段として働く。この白線に基づいた監視領域と、予測進路に基づいた監視領域との切替は、以下に示すように行うことが考えられる。
【0061】
車両速度が一定以上であり、高速道路を走行していると判断できるときは、白線に基づいた監視領域を用い、車両速度が一定未満であり、一般道路を走行していると判断できるときは、予測進路に基づいた監視領域を用いて危険判断を行う。また、カーナビゲーション装置からの情報に基づき、一般道路及び高速道路の何れを走行しているか判断して切り替えることも考えられる。さらに、白線が検出できないときに、一般道路を走行していると判断し、白線が検出できるとき、高速道路を走行していると判断して切り替えることも考えられる。
【0062】
また、上述した実施形態では、舵角センサ30に基づき、予測進路を算出していたが、例えば、ジャイロなどを用いて予測進路を算出するようにしてもよい。
【0063】
さらに、上述した実施形態では、自車両周辺を監視するための手段として、2台のCCD11R及び11Lを用いていた。しかしながら、例えば、監視領域の設定については、1台のCCDを用いて周辺監視を行うものや、レーザ光源、超音波発振器を用いて周辺監視を行うものにも適用することができる。また、ステップS2で述べた特徴点検出は、1台のCCDを用いて周辺監視を行うものにも適用することができる。
【0064】
【発明の効果】
以上説明したように、請求項1記載の発明によれば、予測進路に基づき監視領域を設定することにより、歩行者や電柱などの多数の物体が存在する、又は、走行レーン維持に対する運転者の意識が希薄である一般道路を走行する場合であっても、最適な監視領域を設定することができるので、一般道路を走行する場合であっても、正確に物体との接触の危険性を判断することができる。しかも、レーザ光源や、超音波発振器を用いて周辺監視を行うものにも適用することができる車両用周辺監視装置を得ることができる。
【0065】
請求項2記載の発明によれば、車両前方について、最適な監視領域を設定することができるので、一般道路を走行する場合であっても、正確に前方に存在する物体との接触の危険性を判断することができる車両用周辺監視装置を得ることができる。
【0066】
請求項3記載の発明によれば、一般道路を走行する場合であっても、より一層、最適な監視領域を設定することができるので、一般道路を走行する場合であっても、より一層、正確に物体との接触の危険性を判断することができる車両用周辺監視装置を得ることができる。
【0067】
請求項4記載の発明によれば、運転者がハンドルを操作して、予想進路が多少、変化してしまった場合や、予測進路周辺を走行している他車両が急に近づいてきた場合を考慮した、より一層、最適な監視領域を設定することができるので、一般道路を走行する場合であっても、より一層、正確に物体との接触の危険性を判断することができる車両用周辺監視装置を得ることができる。
【0068】
請求項5記載の発明によれば、渋滞などが発生して、低速で走行したり、交通の流れに沿ってスピードを出して走行したりを繰り返す場合であっても、より一層、最適な監視領域を設定することができるので、一般道路を走行する場合であっても、より一層、正確に物体との接触の危険性を判断することができる車両用周辺監視装置を得ることができる。
【0069】
請求項6記載の発明によれば、白線が存在し、走行環境が比較的シンプルな高速道路では、第2監視領域設定手段が設定した監視領域に切り替え、白線が存在せず、歩行者や電柱のような物体が多数存在する一般道路では、第2監視領域設定手段が設定した監視領域に切り替えれば、走行環境に適応した最適な監視領域を設定することができるので、より一層、正確に物体との接触の危険性を判断することができる車両用周辺監視装置を得ることができる。
【0070】
請求項7及び9記載の発明によれば、輝度差の極大点を特徴点として検出することにより、物体のエッジがはっきりと撮像されていない場合であっても、エッジに沿ってある程度の幅を有する領域が特徴点として検出されることがなく、幅を細くすることができるので、無駄な特徴点を除去することにより、特徴点から構成される画像について行われる画像処理を簡略にすることができ、安価に、実時間での接触危険性の判断を行うことを可能にする車両用周辺監視装置及び画像処理装置を得ることができる。
【0071】
請求項8及び10記載の発明によれば、一方の画像中の特徴点と同一点を、他の画像中から検出する際に、一方の画像中の特徴点に対して設定した窓を、他方の画像中のエピポラー線上に沿って、しかも、エピポラー線上に存在する特徴点毎に上記窓を移動して、相違度を求めることにより、上記窓を他の画像全体に亘って走査したり、他の画像中のエピポラー線上を一画素づつ窓を移動して走査することなく、同一点を求めることができるので、同一点検出に関する画像処理を簡略にすることができ、安価に、実時間での接触危険性の判断を行うことを可能とする車両用周辺監視装置及び画像処理装置を得ることができる。
【図面の簡単な説明】
【図1】本発明の車両用周辺監視装置の基本構成図である。
【図2】本発明の画像処理装置を組み込んだ車両用周辺監視装置の一実施の形態を示すブロック図である。
【図3】図2の車両用周辺監視装置を構成するCPU52の処理手順を示すフローチャートである。
【図4】図3中の特徴点画像作成作成におけるCPU52の動作を説明するための図である。
【図5】図3中の視差画像作成におけるCPU52の動作を説明するための図である。
【図6】図3中の投影視差画像作成におけるCPU52の動作を説明するための図である。
【図7】図3中の予測進路算出及び監視領域設定におけるCPU52の動作を説明するための図である。
【図8】図7に示す路面上に描かれた監視領域Eを、CCD11R及び11Lによって撮像したとき得られる監視領域画像を示す。
【符号の説明】
10  撮像手段
52a 予測進路算出手段
52b 第1監視領域設定手段
52c 白線検出手段
52d 第2監視領域設定手段
52e 切替手段
52f 濃度変化量検出手段
52g 特徴点検出手段
52h 同一点検出手段
100 危険判断手段
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicle periphery monitoring device and an image processing device, and more particularly to a vehicle periphery monitoring device that detects a degree of danger of contact between an object and a vehicle, and, for example, an image processing device used in a vehicle periphery monitoring device About.
[0002]
[Prior art]
Conventionally, as the above-described vehicle periphery monitoring device, a camera mounted on the vehicle, a laser light source, an ultrasonic oscillator, and the like are used to detect the position of an object around the vehicle and the degree of approach to the host vehicle, and to detect the position of the host vehicle. 2. Description of the Related Art When an object is present in a close position or when an object is coming very close to a host vehicle, it is determined that there is a danger of contact and a warning is issued.
[0003]
However, as in the above-described vehicle periphery monitoring device, when there is an object at a position very close to the own vehicle, when it is determined that there is a risk of contact because the object has suddenly approached the own vehicle. However, the following problems occur. In other words, when there is no intention to change course, there is another vehicle running close to the own vehicle on the adjacent lane, or another vehicle suddenly approaches from the adjacent lane. Therefore, there is a problem that the danger of contact with an object cannot be accurately determined.
[0004]
Therefore, in order to prevent such a situation, some of the vehicular peripheral monitoring devices using a camera detect a white line that is a lane division line using a road image captured by the camera, and based on the detected white line. There are those that identify the own lane area and the adjacent lane area.
[0005]
When the turn signal is not operated and there is no intention to change the course, the vehicle periphery monitoring device determines the risk of contact with an object existing in the own lane area. On the other hand, when the turn signal is operated and there is an intention to change the course, the risk of contact is determined for an object existing in the adjacent lane area in the operation direction.
[0006]
[Problems to be solved by the invention]
The vehicle periphery monitoring device that performs the white line detection described above was able to accurately determine the risk of contact with an object on a highway where the traveling environment is relatively simple. However, on general roads such as urban roads, there are many objects such as pedestrians and telephone poles, there is not always a white line, and the driver's awareness of maintaining the driving lane is low, The first problem is that it is not possible to judge the danger of contact. There is also a problem that the vehicle periphery monitoring device that performs white line detection cannot be applied to a device that performs periphery monitoring using a laser light source or an ultrasonic oscillator.
[0007]
In addition, a vehicle periphery monitoring device using a camera is configured of two cameras arranged at a predetermined distance from each other, and provides a parallax between an object imaged by one camera and an object imaged by the other camera. There is a stereo camera type that detects the relative position of an object based on the information and determines the risk of contact. Further, based on the movement amounts of the objects in two images obtained before and after a predetermined time from one camera, the approaching degree of the objects around the vehicle to the own vehicle is detected, and the risk of contact is determined. There is also an optical flow type.
[0008]
However, a vehicular monitoring device using a camera needs to perform image processing on an image captured by the camera to determine the danger of contact, and in general, the amount of calculation is enormous, and real-time (real-time) There is also a second problem that it is difficult to determine the danger of contact and that a high-speed arithmetic processing unit is required to realize it, so that the apparatus itself is expensive.
[0009]
In view of the above, the present invention focuses on the above-described problems, there is no white line, and there are many objects such as pedestrians and telephone poles, or the driver's awareness of maintaining the driving lane is low. A first object is to provide a vehicle periphery monitoring device that can accurately determine the danger of contact with an object even when traveling on a road. It is a second object of the present invention to provide an image processing apparatus which makes it possible to judge the risk of contact in real time at low cost by simplifying the image processing of the image around the vehicle imaged by the imaging means. Make it an issue.
[0010]
[Means for Solving the Problems]
The invention according to claim 1 for solving the first problem described above monitors an object around a vehicle as shown in a basic configuration diagram of FIG. 1 and detects a risk of contact between the object and the vehicle. Danger determination means 100 for determining the gender, predicted path calculation means 52a for calculating a predicted path of the vehicle, and first monitoring area setting means 52b for setting a monitoring area based on the predicted path. The means exists in the vehicle periphery monitoring device, wherein the danger is determined for an object present in the monitoring area.
[0011]
According to the first aspect of the present invention, the predicted course calculating means calculates the predicted course of the vehicle. The first monitoring area setting means sets a monitoring area based on the predicted course. The danger determining means monitors an object around the vehicle and determines a risk of contact between the vehicle and an object present in the monitoring area. Therefore, by setting the monitoring area based on the predicted course, there are many objects such as pedestrians and utility poles, or when traveling on a general road where the driver's awareness of maintaining the traveling lane is low. Also, an optimum monitoring area can be set. In addition, the present invention can be applied to a laser light source or a device that performs peripheral monitoring using an ultrasonic oscillator.
[0012]
The invention according to claim 2 is the vehicle surroundings monitoring device according to claim 1, wherein the danger determining unit monitors an object in front of the vehicle, and monitors a relationship between the object in front of the vehicle and the vehicle. The present invention resides in a vehicle periphery monitoring device characterized by determining a danger of contact.
[0013]
According to the invention described in claim 2, the danger determining means monitors the object in front of the vehicle and determines the danger of contact between the vehicle and the object in front of the vehicle. Therefore, an optimal monitoring area can be set in front of the vehicle.
[0014]
The invention according to claim 3 is the vehicle surroundings monitoring device according to claim 1 or 2, wherein the first monitoring area setting means sets an area including the predicted course as the monitoring area. A feature of the present invention resides in a vehicle periphery monitoring device.
[0015]
According to the invention described in claim 3, focusing on the fact that the risk of contact is small even if an object exists outside the predicted course, the first monitoring area setting means sets the area including the predicted course as Set as a monitoring area. Therefore, even when traveling on a general road, an optimal monitoring area can be set even more.
[0016]
The invention according to a fourth aspect is the vehicle periphery monitoring device according to the third aspect, wherein the first monitoring area setting means sets an area in which the predicted course is enlarged in the vehicle width direction as the monitoring area. The present invention resides in a vehicle periphery monitoring device.
[0017]
According to the fourth aspect of the invention, the first monitoring area setting means sets an area in which the predicted course is enlarged in the vehicle width direction as a monitoring area. Therefore, even if the driver operates the steering wheel to change the predicted course to some extent, or the case where another vehicle traveling around the predicted course approaches suddenly, an even more optimal A monitoring area can be set.
[0018]
According to a fifth aspect of the present invention, in the vehicle surroundings monitoring apparatus according to any one of the first to fourth aspects, the first monitoring area setting means is configured to control the vehicle from the vehicle along the predicted course. A vehicle periphery monitoring device is characterized in that a range that is farther than a distance determined according to a speed is excluded from the monitoring area.
[0019]
According to the fifth aspect of the present invention, an object that is farther than the distance traveled by the vehicle (hereinafter referred to as a stop distance) from when the driver senses the danger to when the driver steps on the brake and actually stops. Paying attention to the danger that there is no danger of contact, the first monitoring area setting means monitors a range that is farther from the vehicle along a predicted course than a distance (for example, a stopping distance) determined according to the vehicle speed. Exclude from region. Therefore, even when traffic congestion or the like occurs and the vehicle travels at a low speed or runs at a high speed along the traffic flow, the optimal monitoring area can be set even more.
[0020]
According to a sixth aspect of the present invention, as shown in the basic configuration diagram of FIG. 1, the perimeter monitoring device for a vehicle according to any one of the first to fifth aspects, wherein the danger determining means captures an image of the periphery of the vehicle. A white line detecting unit 52c that performs image processing on an image captured by the image capturing unit, and detects a pair of white lines located on both sides of the own lane in which the own vehicle travels, based on the detected white line A monitoring area set by the first monitoring area setting means, a second monitoring area setting means 52d for setting a monitoring area, and a monitoring area used by the danger determining means for determining the danger. A switching device 52e for switching between the monitoring region set by the region setting device and the monitoring region is further provided.
[0021]
According to the invention described in claim 6, in the danger determining means, the imaging means captures an image of the periphery of the vehicle. The white line detecting means processes the image captured by the image capturing means to detect a pair of white lines located on both sides of the own lane in which the own vehicle travels. The second monitoring area setting means sets a monitoring area based on the detected white line. The switching means switches a monitoring area used by the danger determining means for determining danger between the monitoring area set by the first monitoring area setting means and the monitoring area set by the second monitoring area setting means. Therefore, on a highway where a white line exists and the traveling environment is relatively simple, the monitoring area is switched to the monitoring area set by the second monitoring area setting means, and there are no white lines and many objects such as pedestrians and telephone poles. On a general road, by switching to the monitoring area set by the second monitoring area setting means, it is possible to set an optimum monitoring area adapted to the driving environment.
[0022]
The invention according to claim 7 for solving the above second problem is a vehicle periphery monitoring device according to any one of claims 1 to 5, as shown in the basic configuration diagram of FIG. The danger determining means includes: an imaging means 10 for imaging the periphery of the vehicle; and a density change detection means for scanning an image taken by the imaging means to detect a density change amount between pixels existing in the vicinity of the scanning direction. Means 52f, and a feature point detecting means 52g for detecting a maximum point of the detected density change amount in the scanning direction as a feature point, performing image processing on an image composed of the feature points, and Is determined in the vehicle periphery monitoring device.
[0023]
An image processing apparatus according to a ninth aspect of the present invention for solving the above-mentioned second problem, performs image processing on an image captured by an imaging unit mounted on a vehicle and detects a feature point in the image. A density change amount detection unit configured to scan an image picked up by the imaging unit and detect a density change amount between pixels existing in the vicinity of the scanning direction; and a local maximum in the scanning direction of the detected density change amount. And a feature point detecting unit that detects a point as a feature point.
[0024]
According to the seventh and ninth aspects of the present invention, in the danger determining means, the imaging means images the periphery of the vehicle. The density change amount detection unit scans the image picked up by the image pickup unit, and detects a density change amount between pixels existing near the scanning direction. The characteristic point detecting means detects a maximum point in the scanning direction of the detected density change amount as a characteristic point. The danger determining means performs image processing on the image composed of the feature points to determine the danger. Therefore, by detecting the maximum point of the density change amount as a feature point, a region having a certain width along the edge is detected as a feature point even when the edge of the object is not clearly imaged. And the width can be reduced.
[0025]
The invention according to claim 8, which has been made to solve the above-mentioned second problem, is a vehicle periphery monitoring device according to any one of claims 1 to 5, as shown in the basic configuration diagram of FIG. The danger determining means includes two image capturing means 10 for capturing an image of the periphery of the vehicle disposed at a predetermined distance from each other, and the same inspection for detecting the same point in two images captured by the two image capturing means. Output means 52h, wherein the same point detecting means detects a feature point in two images picked up by the two image pickup means, and detects a feature point in one of the two images. Set a window centered on the point, in another image, set a window centered on a feature point present on an epipolar line that is a straight line where the same point with respect to the feature point appears, in the other image Of the images in the set window, Resides in a vehicle-surroundings monitor apparatus and detecting the same point feature points dissimilarity between images of the window constitutes a substantial center of the lowest window.
[0026]
According to a tenth aspect of the present invention, there is provided an image processing method comprising the steps of: performing image processing on two images taken by two image pickup units mounted on a vehicle and arranged at a predetermined distance from each other; An image processing apparatus that detects the same point in two images captured by the two imaging units, and detects feature points in the two images captured by the two imaging units; A window centered on a feature point in one of the two images is set, and a window centered on a feature point on a straight line on which the same point as the feature point appears in the other image. Among the images in the window set in the other image, the feature point constituting the approximate center of the window having the lowest degree of difference from the image of the window set in the one image is defined as the same point. There is an image processing apparatus characterized in that it is detected.
[0027]
According to the eighth and tenth aspects of the present invention, when the danger is determined based on the difference between the same points in two images captured by two imaging units arranged at a predetermined distance from each other, The same point detection means sets a window having a feature point in one of the two images substantially at the center. In the other image, a window is set centering on a feature point existing on an epipolar line which is a straight line on which the same point as the feature point for which the window is set appears. Then, of the images in the window set in the other image, a feature point that forms the approximate center of the window having the lowest difference from the image of the window set in one image is detected as the same point. According to the above configuration, when detecting the same point as a feature point in one image from another image, a window set for the feature point in one image is set to an epipolar point in the other image. By moving the window along the line and for each feature point present on the epipolar line and determining the degree of difference, the window can be scanned over the entire other image, or the epipolar in another image can be scanned. The same point can be obtained without moving the window one pixel at a time on the line and scanning.
[0028]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 2 is a block diagram showing an embodiment of a vehicle periphery monitoring device incorporating the image processing device of the present invention. In FIG. 1, a vehicle periphery monitoring device is mounted in front of a vehicle, and an imaging unit 10 as an imaging unit that captures an image of the front of the vehicle, a storage unit 20 that stores an image, and outputs a steering angle signal according to a steering angle of the steering wheel. A steering angle sensor 30, a speed sensor 40 for detecting a speed signal corresponding to the vehicle speed, a microcomputer (μCOM) 50 for executing various arithmetic processing, and an alarm generation unit 60 for generating an alarm.
[0029]
The imaging unit 10 includes a right CCD 11R and a left CCD 11L mounted on a vehicle, a right image plane 12R on which an image captured by the right CCD 11R is projected, and a left image plane 12L on which an image captured by the left CCD 11L is projected. And The imaging unit 10 is attached so that the front of the vehicle is an imaging area. The pair of CCDs 11R and 11L constituting the imaging unit 10 are mounted at a predetermined distance in the horizontal direction.
[0030]
The storage unit 20 includes a right frame memory 21R for temporarily storing an image projected on the right image plane 12R, a left frame memory 21L for temporarily storing an image projected on the left image plane 12L, and imaging by the CCDs 11R and 11L. And a frame memory 22 that is used in a process of performing image processing on the obtained image to determine a risk of contact with an object.
[0031]
The μCOM 50 has a ROM 51 in which an operation program for determining the danger of contact between the vehicle and an object is recorded, a CPU 52 that operates according to the operation program, and a RAM 53 that temporarily stores information necessary when the CPU 52 operates. are doing. The alarm generation unit 60 includes, for example, a display (not shown) and a speaker (not shown). When the μCOM 50 determines that there is a risk of contact with an object, the alarm generation unit 60 generates an alarm sound to notify the danger. Generates an alarm or displays a message to alert the driver.
[0032]
The operation of the vehicle periphery monitoring device having the above configuration will be described below with reference to the flowchart of FIG. The CPU 52 starts its operation, for example, by turning on an ignition switch (not shown). In an initial step (not shown), the CPU 52 initializes various areas formed in the RAM 53 in the μCOM 50, and then proceeds to the first step S1.
[0033]
In step S1, the CPU 52 stores the images projected on the image planes 12R and 12L in the right-side frame memories 21R and 21L, respectively, and acquires the images captured by the CCDs 11R and 11L (step S1). Next, the CPU 52 detects a point on the edge (contour) of the object reflected in each of the acquired captured images as a feature point, creates a feature point image including only the feature points, and 22 (step S2).
[0034]
A detailed operation of the above-described feature point image creation will be described. First, the CPU 52 functions as a density change amount detecting unit, scans each image stored in the right frame memories 21R and 21L in the x-axis direction (= image horizontal direction), and scans the pixels existing near the x-axis direction. Obtain the density change amount. A typical example of a method for obtaining the density change amount is a Sobel operator. Next, the CPU 52 functions as a feature point detecting means, and determines, as shown in FIG. 1 , P 2 , P 3 , P 4 , And a feature point image is created.
[0035]
By the way, conventionally, it has been general to detect, as a feature point, a point where the amount of density change is equal to or larger than a threshold value. However, in this conventional feature point detection method, as shown in FIG. 4, when the edge of the object is not clearly imaged and the density change at the edge is gentle, the edge has a certain width W equal to or larger than the threshold value A. All the points in the region are detected as feature points.
[0036]
Therefore, if the maximum point of the amount of change in density is detected as a feature point as in the present invention described above, all points in a region having a certain width W along the edge are not detected as feature points. , One point along the edge (= feature point P 1 , P 2 , P 3 , P 4 ..) Are detected as feature points. In other words, feature points are not excessively extracted in portions where edges are not clearly imaged, and image processing performed on a feature point image described later can be simplified.
[0037]
Next, as described above, the CPU 52 creates a parallax image using the two captured images captured by the right CCD 11R and the left CCD 11L and the feature point images respectively created for the two captured images, and generates a frame. It is stored in the memory 22 (step S3).
[0038]
Specifically, the CPU 52 first functions as the same point detecting means, and converts the same point as a feature point present in one feature point image (for example, a left feature point image) into the other feature point image (for example, (Right-side feature point image). The same point detection is performed for all the feature points existing in the left feature point image. Then, the position difference between all the same points, that is, the parallax is obtained. Next, a parallax image is created by converting a feature point at which parallax occurs into a luminance corresponding to the parallax value.
[0039]
At this time, if the conversion is performed so that the luminance increases as the parallax value increases, the parallax image becomes brighter as the feature point of the object existing near the vehicle (because the closer the object is, the larger the parallax becomes). The feature points of a moving object become darker (because a farther object, which is an image, has a smaller parallax).
[0040]
Next, the detailed operation of the same point detection performed in the process of creating the parallax image described above will be described with reference to FIG. First, the CPU 52, for example, places a feature point P of interest on an image captured by the left CCD 11L. 5 N × N window W centered on 1 Set. Next, from the right-side captured image, the feature point P 5 Epipolar line L which is a straight line where the same point appears 1 Feature point P existing on 6 , P 7 , P 8 Is detected. When two CCDs 11R and 11L are horizontally arranged as in the present invention, the epipolar line L 1 Is one line in the horizontal direction.
[0041]
Next, the CPU 52 sets the epipolar line L 1 Feature point P existing on 6 , P 7 , P 8 N × N window W centered on 21 , W 22 , W 23 Of the images in the window W 1 The feature point set in the window having the lowest degree of difference from the image in 5 Are detected as the same point.
[0042]
As described above, by detecting the same point as the feature point in the left captured image from the right captured image, the window W 1 Is scanned over the entire right-side captured image, or the epipolar line L in the right-side captured image is scanned. 1 Window W one pixel above 1 The same point can be obtained without moving and scanning. For this reason, image processing related to the same point detection can be simplified.
[0043]
Since the parallax image created as described above includes the parallax information of an object having no danger of contact, such as a character drawn on a road surface, the CPU 52 next calculates the parallax of an object having the same height as the road surface. Information is removed from the parallax image (step S4). The distance (parallax) to the road surface captured in the captured image is represented by the following equation (1).
d = A.y + B.x + C (1)
[0044]
In the above equation (1), d is the parallax, x is the position of the parallax image in the x-axis direction, y is the position of the parallax image in the y-axis direction (image vertical direction), and A, B, and C are road surface parameters. . The road surface parameters A, B, and C are determined from the installation parameters of the CCDs 11R and 11L with respect to the road surface. By removing the point having the luminance value corresponding to the parallax d obtained by the equation (1) from the parallax image, the parallax information of the object having the same height as the road surface can be removed from the parallax image.
[0045]
Next, the CPU 52 creates an interpolated parallax image using the created parallax image (Step S5). As described above, in the created parallax image, parallax is not calculated for all pixels in the image. Therefore, for pixels other than the feature points, that is, regions having a flat density, it is necessary to infer and interpolate from parallax values calculated from nearby feature points.
[0046]
Therefore, when edges having the same parallax in the x-axis direction continue in the parallax image, they are regarded as edges generated from the same vehicle. Then, by filling the horizontal direction between the same edges with a parallax value (luminance) having both edges, parallax of a portion where no feature point exists is interpolated to create an interpolated parallax image. Accordingly, a parallax image having luminance according to the parallax can be obtained not only for the contour of the captured object but also for the entire object (within the contour).
[0047]
Next, the CPU 52 creates a projection parallax image using the created interpolation parallax image (Step S6). Specifically, the x-axis is left as it is from the interpolated parallax image, the y-axis is the frequency distribution of the parallax d in the y-direction of the interpolated parallax image, and a projection parallax image having a horizontal axis x and a vertical axis d is created.
[0048]
For example, it is assumed that another vehicle F and another vehicle G are traveling ahead. The interpolated parallax image at this time is as shown in FIG. In the figure, since the other vehicle F is traveling closer to the own vehicle than the other vehicle G, the disparity generated from the other vehicle F is naturally larger than the disparity generated from the other vehicle G.
[0049]
Therefore, when the interpolated parallax image as shown in FIG. 6A is converted into a projected parallax image as described above, the projected parallax image is moved forward by another vehicle F as shown in FIG. 6B. Straight line L 3 Is converted to a straight line L on the back side 2 (However, it is assumed that the parallax d indicates a larger value toward the near side.) That is, since the parallax generated from the same object is substantially the same, the object is converted into a straight line according to the generated parallax, that is, the distance from the vehicle. Then, the straight line converted from the object existing near the own vehicle is located closer to the near side (because the closer the object is, the larger the parallax is). This indicates the position when the object is viewed from directly above.
[0050]
Next, the CPU 52 functions as a predicted course calculating means, and calculates a predicted course M on the XZ plane of the road surface as shown in FIG. 7 (step S7). The predicted trajectory M is obtained from an arc having a turning radius R corresponding to the steering angle of the steering wheel in consideration of the vehicle width. Note that the radius of gyration R is calculated by the following equation (2).
R = L WB / Tanθ steer … (2)
L WB Is the wheelbase of the vehicle, θ steer Represents the turning angle of the tire calculated from the steering angle of the steering wheel. The steering wheel angle is obtained based on the steering angle signal from the steering angle sensor 30.
[0051]
Next, the CPU 52 functions as first monitoring area setting means and sets a monitoring area (step S8). First, on a general road, focusing on the fact that the range in which the driver must pay attention varies depending on the traveling direction of the own vehicle, the expected course M obtained in step S7 is enlarged by ΔD in the vehicle width direction. The set area is set as a monitoring area.
[0052]
Further, the range in which the driver must pay attention varies depending on the traveling speed of the host vehicle. In other words, when driving at a considerably reduced speed, such as during a traffic jam or before an intersection, it is only necessary to pay attention to the short distance. On the other hand, when you're speeding along the traffic flow, you need to watch your eyes very far. Focusing on this, the distance L determined along the predicted course M according to the vehicle speed (determined based on the speed signal from the speed sensor 40) Q Exclude more distant areas from the monitoring area.
[0053]
Note that the distance L determined according to the vehicle speed Q Specifically, the distance traveled by the vehicle (= stop distance) between the time when the driver perceives danger, the time when the driver depresses the brakes, and the time when the vehicle actually stops can be considered. By the above operation, the monitoring area E can be set on the XZ plane of the road surface.
[0054]
Next, the points in the monitoring area E on the XZ plane set above are converted into xy planes on the image planes 12R and 12L using a predetermined conversion formula. By this conversion, as shown in FIG. 8, a monitoring area image obtained by capturing the monitoring area E drawn on the road surface by the CCDs 11R and 11L can be obtained.
[0055]
Next, the CPU 52 converts the monitoring area image into the projection parallax image as described above, and stores it in the frame memory 22 (Step S9). Thereafter, the CPU 52 compares the projection parallax image of the monitoring area with the projection parallax image of the captured image created in step S6, and in FIG. 2 , L 3 When the object represented by is present in the monitoring area, it is determined that there is a risk of contact with the object (Y in step S10), and a warning is given to the driver using the warning generation unit 60. (Step S11), returning to step S1.
[0056]
On the other hand, if no object exists in the monitoring area, it is determined that there is no danger of contact with the object (N in step S10), and the process immediately returns to step S1. From the above, it can be understood that the imaging unit 10 and the CPU 52 constitute the danger determining unit 100 in the claims.
[0057]
As described above, by setting the monitoring area E including the predicted course M, a general road in which a large number of objects such as pedestrians and telephone poles are present or the driver's awareness of maintaining the traveling lane is low. Even when traveling, the optimum monitoring area E can be set, so that even when traveling on a general road, the danger of contact with an object can be accurately determined.
[0058]
In addition, by setting the area obtained by enlarging the predicted course M by ΔD in the vehicle width direction as a monitoring area, the driver operates the steering wheel to change the predicted course M slightly. An optimal monitoring area E can be set further in consideration of a case where another vehicle traveling around the area suddenly approaches.
[0059]
Further, by excluding from the monitoring area E a range that is farther than a distance (for example, a stopping distance) determined according to the vehicle speed from the vehicle along the predicted course M, congestion or the like occurs, and the vehicle travels at a low speed. Even in the case where the vehicle travels or repeats traveling at a high speed along the traffic flow, the optimum monitoring area E can be set even more.
[0060]
In the embodiment described above, the monitoring area is set based on the predicted trajectory. However, for example, on a highway where the driving environment is relatively simple, a monitoring area is set based on a white line as in the past, and on a general road, a monitoring area is set based on the predicted course as described above. You may. In this case, the CPU 53 functions as a white line detection unit, a second monitoring area setting unit, and a switching unit. Switching between the monitoring area based on the white line and the monitoring area based on the predicted course may be performed as described below.
[0061]
When the vehicle speed is equal to or higher than a certain value and it can be determined that the vehicle is traveling on a highway, the monitoring area based on the white line is used.When the vehicle speed is less than a certain value and it can be determined that the vehicle is traveling on a general road, Then, a danger determination is made using the monitoring area based on the predicted course. It is also conceivable to switch between a general road and an expressway based on information from the car navigation device. Furthermore, when a white line cannot be detected, it may be determined that the vehicle is traveling on a general road, and when a white line can be detected, it may be determined that the vehicle is traveling on an expressway, and switching may be performed.
[0062]
Further, in the above-described embodiment, the predicted course is calculated based on the steering angle sensor 30, but the predicted course may be calculated using, for example, a gyro.
[0063]
Further, in the above-described embodiment, two CCDs 11R and 11L are used as means for monitoring the surroundings of the host vehicle. However, for example, the setting of the monitoring area can also be applied to a method of monitoring the periphery using one CCD or a method of monitoring the periphery using a laser light source and an ultrasonic oscillator. Further, the feature point detection described in step S2 can be applied to an apparatus that performs peripheral monitoring using one CCD.
[0064]
【The invention's effect】
As described above, according to the first aspect of the present invention, by setting the monitoring area based on the predicted course, there are a large number of objects such as pedestrians and telephone poles, or the driver is required to maintain the traveling lane. Even when driving on a general road where awareness is low, it is possible to set the optimal monitoring area, so even when driving on a general road, accurately judge the danger of contact with objects can do. In addition, it is possible to obtain a vehicle periphery monitoring device that can be applied to a device that monitors the periphery using a laser light source or an ultrasonic oscillator.
[0065]
According to the second aspect of the present invention, it is possible to set an optimum monitoring area in front of the vehicle, and therefore, even when traveling on a general road, there is a danger of contact with an object present ahead accurately. Can be obtained.
[0066]
According to the third aspect of the present invention, even when driving on a general road, an optimal monitoring area can be set even more. Therefore, even when driving on a general road, It is possible to obtain a vehicle periphery monitoring device capable of accurately determining the danger of contact with an object.
[0067]
According to the invention described in claim 4, when the driver operates the steering wheel to change the predicted course slightly, or when the other vehicle traveling around the predicted course approaches suddenly. Since the optimum monitoring area can be set even more in consideration of the surrounding area for vehicles, the danger of contact with an object can be more accurately determined even when traveling on a general road. A monitoring device can be obtained.
[0068]
According to the fifth aspect of the present invention, even when traffic congestion or the like occurs and the vehicle travels at a low speed or runs at a high speed along the traffic flow, it is more optimally monitored. Since the area can be set, it is possible to obtain a vehicle periphery monitoring device that can more accurately determine the danger of contact with an object even when traveling on a general road.
[0069]
According to the invention of claim 6, on a highway where a white line exists and the traveling environment is relatively simple, the monitoring area is switched to the monitoring area set by the second monitoring area setting means. On a general road where a large number of objects are present, switching to the monitoring area set by the second monitoring area setting means makes it possible to set an optimum monitoring area adapted to the traveling environment, so that the object can be detected more accurately. A vehicle periphery monitoring device that can determine the risk of contact with the vehicle can be obtained.
[0070]
According to the seventh and ninth aspects of the invention, by detecting the maximum point of the luminance difference as a feature point, even if the edge of the object is not clearly imaged, a certain width can be provided along the edge. Since the width of the region having the characteristic point is not detected as the characteristic point and the width can be reduced, the image processing performed on the image composed of the characteristic points can be simplified by removing unnecessary characteristic points. Thus, it is possible to obtain an inexpensive vehicle periphery monitoring device and an image processing device that can judge a contact danger in real time at low cost.
[0071]
According to the eighth and tenth aspects of the present invention, when the same point as a feature point in one image is detected from another image, a window set for the feature point in one image is set to the other. By moving the window along the epipolar line in the image of each of the images and for each feature point existing on the epipolar line, and determining the degree of difference, the window can be scanned over the entire other image. Since the same point can be obtained without moving the window by one pixel at a time on the epipolar line in the image, the image processing relating to the same point detection can be simplified, inexpensively, and in real time. It is possible to obtain a vehicle periphery monitoring device and an image processing device capable of determining a contact danger.
[Brief description of the drawings]
FIG. 1 is a basic configuration diagram of a vehicle periphery monitoring device of the present invention.
FIG. 2 is a block diagram showing an embodiment of a vehicle periphery monitoring device incorporating the image processing device of the present invention.
FIG. 3 is a flowchart showing a processing procedure of a CPU 52 constituting the vehicle periphery monitoring device of FIG. 2;
FIG. 4 is a diagram for explaining an operation of a CPU 52 in creating and creating a feature point image in FIG. 3;
FIG. 5 is a diagram for explaining an operation of a CPU 52 in creating a parallax image in FIG. 3;
FIG. 6 is a diagram for explaining an operation of a CPU 52 in creating a projection parallax image in FIG. 3;
7 is a diagram for explaining the operation of a CPU 52 in calculating a predicted course and setting a monitoring area in FIG. 3;
8 shows a monitoring area image obtained when the monitoring area E drawn on the road surface shown in FIG. 7 is imaged by the CCDs 11R and 11L.
[Explanation of symbols]
10 Imaging means
52a predicted route calculating means
52b first monitoring area setting means
52c White line detection means
52d second monitoring area setting means
52e switching means
52f density change amount detecting means
52g feature point detecting means
52h Same point detecting means
100 danger judgment means

Claims (10)

車両周辺の物体を監視し、前記物体と前記車両との接触の危険性を判断する危険判断手段と、
前記車両の予測進路を算出する予測進路算出手段と、
前記予測進路に基づき、監視領域を設定する第1監視領域設定手段とを備え、
前記危険判断手段は、前記監視領域内に存在する物体について、前記危険性を判断する
ことを特徴とする車両用周辺監視装置。
Danger determining means for monitoring an object around the vehicle and determining a risk of contact between the object and the vehicle,
Predicted route calculating means for calculating a predicted route of the vehicle,
A first monitoring area setting means for setting a monitoring area based on the predicted course,
The perimeter monitoring device for a vehicle, wherein the danger determining means determines the danger of an object present in the monitoring area.
請求項1記載の車両用周辺監視装置であって、
前記危険判断手段は、前記車両前方にある物体を監視して、前記車両前方にある物体と前記車両との接触の危険性を判断する
ことを特徴とする車両用周辺監視装置。
The vehicle periphery monitoring device according to claim 1,
A vehicle surroundings monitoring device, wherein the danger determining means monitors an object in front of the vehicle and determines a risk of contact between the vehicle and an object in front of the vehicle.
請求項1又は2記載の車両用周辺監視装置であって、
前記第1監視領域設定手段は、前記予測進路を含んだ領域を、前記監視領域として設定する
ことを特徴とする車両用周辺監視装置。
The vehicle periphery monitoring device according to claim 1 or 2,
The first monitoring area setting means sets an area including the predicted course as the monitoring area.
請求項3記載の車両用周辺監視装置であって、
前記第1監視領域設定手段は、前記予測進路を車幅方向に拡大した領域を、前記監視領域として設定する
ことを特徴とする車両用周辺監視装置。
The vehicle periphery monitoring device according to claim 3,
The first monitoring area setting means sets an area obtained by enlarging the predicted course in the vehicle width direction as the monitoring area.
請求項1〜4何れか1項記載の車両用周辺監視装置であって、
前記第1監視領域設定手段は、前記車両から、前記予測進路に沿って、前記車両速度に応じて定めた距離より遠方にある範囲を、前記監視領域から除外する
ことを特徴とする車両用周辺監視装置。
The vehicle periphery monitoring device according to any one of claims 1 to 4,
The first monitoring area setting means excludes, from the monitoring area, a range that is further from the vehicle along the predicted course and more than a distance determined according to the vehicle speed, from the monitoring area. Monitoring device.
請求項1〜5何れか1項記載の車両用周辺監視装置であって、
前記危険判断手段は、前記車両周辺を撮像する撮像手段を有し、
前記撮像手段が撮像した画像を画像処理し、自車両が走行する自車線の両側に位置する一対の白線を検出する白線検出手段と、
前記検出した白線に基づき、監視領域を設定する第2監視領域設定手段と、
前記危険判断手段が、前記危険性の判断に用いる監視領域を、前記第1監視領域設定手段が設定した監視領域と、前記第2監視領域設定手段が設定した監視領域との間で切り替える切替手段と
をさらに備えることを特徴とする車両用周辺監視装置。
The vehicle periphery monitoring device according to any one of claims 1 to 5,
The danger determining means has an imaging means for imaging the periphery of the vehicle,
Image processing of the image captured by the imaging means, white line detection means for detecting a pair of white lines located on both sides of the own lane on which the own vehicle travels,
Second monitoring area setting means for setting a monitoring area based on the detected white line;
Switching means for switching the monitoring area used by the danger determining means for determining the risk between a monitoring area set by the first monitoring area setting means and a monitoring area set by the second monitoring area setting means And a vehicle periphery monitoring device, further comprising:
請求項1〜5何れか1項記載の車両用周辺監視装置であって、
前記危険判断手段は、
車両の周辺を撮像する撮像手段と、
前記撮像手段が撮像した画像を走査して、走査方向近傍に存在する画素同士の濃度変化量を検出する濃度変化量検出手段と、
前記検出した濃度変化量の前記走査方向における極大点を特徴点として検出する特徴点検出手段とを有し、
前記特徴点から構成される画像を画像処理して、前記危険性を判断する
ことを特徴とする車両用周辺監視装置。
The vehicle periphery monitoring device according to any one of claims 1 to 5,
The danger determining means,
Imaging means for imaging the periphery of the vehicle;
A density change amount detection unit that scans an image captured by the imaging unit and detects a density change amount between pixels existing near a scanning direction,
Characteristic point detecting means for detecting a maximum point in the scanning direction of the detected density change amount as a characteristic point,
A vehicular periphery monitoring device, wherein the danger is determined by performing image processing on an image composed of the feature points.
請求項1〜5何れか1項記載の車両用周辺監視装置であって、
前記危険判断手段は、
互いに所定距離、離れて配置された車両周辺を撮像する2つの撮像手段と、
前記2つの撮像手段が撮像した2枚の画像中の同一点を検出する同一点検出手段とを有し、
前記同一点検出手段は、前記2つの撮像手段により撮像された2枚の画像中の特徴点を検出し、前記2枚の画像のうち、一方の画像中の特徴点を略中心とした窓を設定し、他の画像中において、前記特徴点に対する同一点が現れる直線であるエピポラー線上に存在する特徴点を中心とした窓を設定し、前記他の画像中に設定した窓内の画像のうち、前記一方の画像中に設定した窓の画像との相違度が最も低い窓の略中心を構成する特徴点を同一点として検出する
ことを特徴とする車両用周辺監視装置。
The vehicle periphery monitoring device according to any one of claims 1 to 5,
The danger determining means,
Two image pickup means for picking up an image around a vehicle arranged at a predetermined distance from each other,
Same point detecting means for detecting the same point in the two images picked up by the two image pickup means,
The same point detecting means detects a feature point in two images picked up by the two image pickup means, and sets a window substantially centered on a feature point in one of the two images. Setting, in another image, setting a window centered on a feature point present on an epipolar line that is a straight line where the same point with respect to the feature point appears, among images in the window set in the other image And detecting a feature point constituting a substantially center of the window having the lowest difference from the image of the window set in the one image as the same point.
車両に搭載された撮像手段が撮像した画像を画像処理して、前記画像中の特徴点を検出する画像処理装置であって、
前記撮像手段が撮像した画像を走査して、走査方向近傍に存在する画素同士の濃度変化量を検出する濃度変化量検出手段と、
前記検出した濃度変化量の前記走査方向における極大点を特徴点として検出する特徴点検出手段と
を備えたことを特徴とする画像処理装置。
An image processing apparatus that performs image processing on an image captured by an imaging unit mounted on a vehicle and detects a feature point in the image,
A density change amount detection unit that scans an image captured by the imaging unit and detects a density change amount between pixels existing near a scanning direction,
An image processing apparatus comprising: a feature point detecting unit configured to detect a maximum point of the detected density change amount in the scanning direction as a feature point.
車両に搭載され、互いに所定距離、離れて配置された2つの撮像手段が撮像した2枚の画像を画像処理して、前記2つの撮像手段が撮像した2枚の画像中の同一点を検出する画像処理装置であって、
前記2つの撮像手段により撮像された2枚の画像中の特徴点を検出し、前記2枚の画像のうち、一方の画像中の特徴点を略中心とした窓を設定し、他の画像中において、前記特徴点に対する同一点が現れる直線上に存在する特徴点を中心とした窓を設定し、前記他の画像中に設定した窓内の画像のうち、前記一方の画像中に設定した窓の画像との相違度が最も低い窓の略中心を構成する特徴点を同一点として検出する
ことを特徴とする画像処理装置。
Image processing is performed on two images picked up by two image pickup units mounted on the vehicle and arranged at a predetermined distance from each other, and the same point in the two images picked up by the two image pickup units is detected. An image processing device,
A feature point in the two images captured by the two imaging units is detected, and a window centered on a feature point in one of the two images is set, and a window is set in the other image. Setting a window centered on a feature point present on a straight line where the same point with respect to the feature point appears, and among the images in the window set in the other image, a window set in the one image An image processing apparatus for detecting, as an identical point, a feature point constituting a substantially center of a window having the lowest degree of difference from the image.
JP2002198777A 2002-07-08 2002-07-08 Perimeter monitoring device and image processing apparatus for vehicles Abandoned JP2004038877A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002198777A JP2004038877A (en) 2002-07-08 2002-07-08 Perimeter monitoring device and image processing apparatus for vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002198777A JP2004038877A (en) 2002-07-08 2002-07-08 Perimeter monitoring device and image processing apparatus for vehicles

Publications (1)

Publication Number Publication Date
JP2004038877A true JP2004038877A (en) 2004-02-05

Family

ID=31706139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002198777A Abandoned JP2004038877A (en) 2002-07-08 2002-07-08 Perimeter monitoring device and image processing apparatus for vehicles

Country Status (1)

Country Link
JP (1) JP2004038877A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006119090A (en) * 2004-10-25 2006-05-11 Mitsubishi Electric Corp Navigation device
JP2007235414A (en) * 2006-02-28 2007-09-13 Toyota Motor Corp Image recognition system and method
JP2008186236A (en) * 2007-01-30 2008-08-14 Mazda Motor Corp Object detection device for vehicle
JP2009271766A (en) * 2008-05-08 2009-11-19 Hitachi Ltd Obstacle detection device for automobile
JP2011215974A (en) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd Image processing system
KR101212342B1 (en) 2005-08-23 2012-12-18 주식회사 현대오토넷 Apparatus and method for alerting collision
JP2014216016A (en) * 2013-04-22 2014-11-17 株式会社リコー Sparse disparity image processing method and apparatus, and object detection method and apparatus
WO2020085101A1 (en) * 2018-10-23 2020-04-30 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, and program
JP2021124786A (en) * 2020-01-31 2021-08-30 ダイハツ工業株式会社 Operation support device
CN113870616A (en) * 2020-06-30 2021-12-31 丰田自动车株式会社 Determination device, determination method, and recording medium having program recorded thereon
US20220307231A1 (en) * 2021-03-25 2022-09-29 Grazper Technologies ApS Utility Vehicle and Corresponding Apparatus, Method and Computer Program for a Utility Vehicle

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05101299A (en) * 1990-07-05 1993-04-23 Fiat Spa Method and means for avoiding collision between automobile and obstacle
JPH05172535A (en) * 1991-12-24 1993-07-09 Kawasaki Steel Corp Peak-point detecting method and calibration method
JPH06215138A (en) * 1993-01-20 1994-08-05 Aisin Seiki Co Ltd Picture processor
JPH0757182A (en) * 1993-08-19 1995-03-03 Mazda Motor Corp Safety device for vehicle
JPH09223227A (en) * 1996-02-15 1997-08-26 Honda Motor Co Ltd Environment recognizing device for vehicle
JP2001067484A (en) * 1999-08-30 2001-03-16 Fuji Heavy Ind Ltd Stereo monitor device for vehicle's outside
JP2002008047A (en) * 2000-06-26 2002-01-11 Nachi Fujikoshi Corp Edge detecting method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05101299A (en) * 1990-07-05 1993-04-23 Fiat Spa Method and means for avoiding collision between automobile and obstacle
JPH05172535A (en) * 1991-12-24 1993-07-09 Kawasaki Steel Corp Peak-point detecting method and calibration method
JPH06215138A (en) * 1993-01-20 1994-08-05 Aisin Seiki Co Ltd Picture processor
JPH0757182A (en) * 1993-08-19 1995-03-03 Mazda Motor Corp Safety device for vehicle
JPH09223227A (en) * 1996-02-15 1997-08-26 Honda Motor Co Ltd Environment recognizing device for vehicle
JP2001067484A (en) * 1999-08-30 2001-03-16 Fuji Heavy Ind Ltd Stereo monitor device for vehicle's outside
JP2002008047A (en) * 2000-06-26 2002-01-11 Nachi Fujikoshi Corp Edge detecting method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006119090A (en) * 2004-10-25 2006-05-11 Mitsubishi Electric Corp Navigation device
KR101212342B1 (en) 2005-08-23 2012-12-18 주식회사 현대오토넷 Apparatus and method for alerting collision
JP2007235414A (en) * 2006-02-28 2007-09-13 Toyota Motor Corp Image recognition system and method
JP2008186236A (en) * 2007-01-30 2008-08-14 Mazda Motor Corp Object detection device for vehicle
JP2009271766A (en) * 2008-05-08 2009-11-19 Hitachi Ltd Obstacle detection device for automobile
JP2011215974A (en) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd Image processing system
JP2014216016A (en) * 2013-04-22 2014-11-17 株式会社リコー Sparse disparity image processing method and apparatus, and object detection method and apparatus
WO2020085101A1 (en) * 2018-10-23 2020-04-30 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, and program
JP2021124786A (en) * 2020-01-31 2021-08-30 ダイハツ工業株式会社 Operation support device
JP7139080B2 (en) 2020-01-31 2022-09-20 ダイハツ工業株式会社 Driving support device
CN113870616A (en) * 2020-06-30 2021-12-31 丰田自动车株式会社 Determination device, determination method, and recording medium having program recorded thereon
JP2022011933A (en) * 2020-06-30 2022-01-17 トヨタ自動車株式会社 Discrimination system and program
JP7380449B2 (en) 2020-06-30 2023-11-15 トヨタ自動車株式会社 Judgment device and program
US20220307231A1 (en) * 2021-03-25 2022-09-29 Grazper Technologies ApS Utility Vehicle and Corresponding Apparatus, Method and Computer Program for a Utility Vehicle

Similar Documents

Publication Publication Date Title
RU2700635C1 (en) Method and device for parking places detection
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
JP6257989B2 (en) Driving assistance device
US6744380B2 (en) Apparatus for monitoring area adjacent to vehicle
JP4223320B2 (en) Vehicle driving support device
JPH1166494A (en) Vehicle driving supporting system
JP2012527681A (en) Lane departure detection method and apparatus using vehicle periphery image
JP2014006885A (en) Level difference recognition apparatus, level difference recognition method, and program for level difference recognition
JP2007164671A (en) Device for deciding approaching obstacle and system for warning collision with obstacle
JP2004038877A (en) Perimeter monitoring device and image processing apparatus for vehicles
JP3961584B2 (en) Lane marking detector
JPH10283592A (en) On-vehicle drive supporting device
JP2011100174A (en) Apparatus and method for detecting vehicle on lane
JP2015148887A (en) Image processing device, object recognition device, moving body instrument control system and object recognition program
JP2022086516A (en) Imaging system and imaging apparatus
CN109895697B (en) Driving auxiliary prompting system and method
JP2017129543A (en) Stereo camera device and vehicle
JP4930432B2 (en) Vehicle periphery monitoring device
JP2004280194A (en) Forward monitor and method therefor
JP5477394B2 (en) Vehicle periphery monitoring device
JP2006004188A (en) Obstacle recognition method and obstacle recognition device
JPH06162398A (en) Traffic lane detecting device, traffic lane deviation warning device and collision warning device
JP2013250694A (en) Image processing apparatus
JP3226699B2 (en) Perimeter monitoring device for vehicles
JP2005267331A (en) Vehicle circumference monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20070208