JP2004038877A - Perimeter monitoring device and image processing apparatus for vehicles - Google Patents
Perimeter monitoring device and image processing apparatus for vehicles Download PDFInfo
- Publication number
- JP2004038877A JP2004038877A JP2002198777A JP2002198777A JP2004038877A JP 2004038877 A JP2004038877 A JP 2004038877A JP 2002198777 A JP2002198777 A JP 2002198777A JP 2002198777 A JP2002198777 A JP 2002198777A JP 2004038877 A JP2004038877 A JP 2004038877A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- monitoring area
- feature point
- danger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
この発明は、車両用周辺監視装置及び画像処理装置に係わり、特に、物体と車両との接触の危険度を検出する車両用周辺監視装置及び、例えば、車両用周辺監視装置に用いられる画像処理装置に関する。
【0002】
【従来の技術】
従来、上述した車両用周辺監視装置として、車両に搭載したカメラ、レーザ光源、超音波発振器などを用いて、車両周辺の物体の位置や、自車両に対する接近度を検出し、自車両に非常に近い位置に物体が存在したり、自車両に対して急接近してくる物体が存在したとき、接触の危険性があると判断して、警報を与えるものが知られている。
【0003】
しかしながら、上記した車両用周辺監視装置のように、自車両に非常に近い位置に物体が存在する、自車両に対して物体が急接近してきたということで、接触の危険性があると判断すると、以下に示すような問題が生じる。つまり、進路変更の意志がないとき、隣接車線上を自車両と接近して走行する他車両が存在したり、隣接車線から他車両が急接近してきた場合など、危険でないにも拘わらず、危険と判断してしまい、正確に物体との接触の危険性を判断することができないという問題があった。
【0004】
そこで、このような事態を防止するため、カメラを用いた車両用周辺監視装置の中には、カメラによって撮像した道路画像を用いて車線区画ラインである白線を検出して、検出した白線に基づき、自車線領域と、隣接車線領域とを識別するものがある。
【0005】
このような車両用周辺監視装置は、ウインカの操作が行われてなく、進路変更の意志がないときは、自車線領域に存在する物体について、接触の危険性の判断を行っている。一方、ウインカの操作が行われ、進路変更の意志があるときは、その操作方向の隣接車線領域に存在する物体について、接触の危険性の判断を行っている。
【0006】
【発明が解決しようとする課題】
上述した白線検出を行う車両用周辺監視装置は、走行環境が比較的シンプルな高速道路では、正確に物体との接触の危険性を判断することができた。しかしながら、市街地道路などの一般道路では、歩行者や電柱のような物体が多数存在すること、白線が必ずしも存在しないこと、走行レーン維持に対する運転者の意識が希薄であることから、正確に物体との接触の危険性を判断することができないという第1の問題があった。また、白線検出を行う車両用周辺監視装置は、レーザ光源や、超音波発振器を用いて周辺監視を行うものには適用することができないという問題もある。
【0007】
また、カメラを用いた車両用周辺監視装置としては、互いに所定距離、離れて配置した2台のカメラから構成され、一方のカメラが撮像した物体と、他方のカメラが撮像した物体との視差に基づき、物体の相対位置を検出して、接触の危険性の判断を行うステレオカメラ式のものがある。また、1台のカメラから、所定時間前後して得た2枚の画像中の物体の移動量に基づき、車両周辺の物体の自車両に対する接近度を検出し、接触の危険性の判断を行うオプティカルフロー式のものもある。
【0008】
しかしながら、カメラを用いた車両用監視装置は、カメラが撮像した画像を画像処理して、接触の危険性の判断を行う必要があり、一般に、計算量が膨大となり、実時間(リアルタイム)での接触危険性の判断を行うは困難であったり、実現するためには、高速度の演算処理装置を必要とするため装置自体が高価格化してしまうというような第2の問題もある。
【0009】
そこで、本発明は、上記のような問題点に着目し、白線が存在せず、歩行者や電柱などの多数の物体が存在する、又は、走行レーン維持に対する運転者の意識が希薄である一般道路を走行する場合であっても、正確に物体との接触の危険性を判断することができる車両用周辺監視装置を提供することを第1の課題とする。また、撮像手段が撮像した車両周辺画像の画像処理を簡略にすることによって、安価に、実時間での接触危険性の判断を行うことを可能にする画像処理装置を提供することを第2の課題とする。
【0010】
【課題を解決するための手段】
上記した第1の課題を解決するためになされた請求項1記載の発明は、図1の基本構成図に示すように、車両周辺の物体を監視し、前記物体と前記車両との接触の危険性を判断する危険判断手段100と、前記車両の予測進路を算出する予測進路算出手段52aと、前記予測進路に基づき、監視領域を設定する第1監視領域設定手段52bとを備え、前記危険判断手段は、前記監視領域内に存在する物体について、前記危険性を判断することを特徴とする車両用周辺監視装置に存する。
【0011】
請求項1記載の発明によれば、予測進路算出手段が、車両の予測進路を算出する。第1監視領域設定手段が、予測進路に基づき、監視領域を設定する。危険判断手段が、車両周辺の物体を監視し、監視領域内に存在する物体と車両との接触の危険性を判断する。従って、予測進路に基づき監視領域を設定することにより、歩行者や電柱などの多数の物体が存在する、又は、走行レーン維持に対する運転者の意識が希薄である一般道路を走行する場合であっても、最適な監視領域を設定することができる。しかも、レーザ光源や、超音波発振器を用いて周辺監視を行うものにも適用することができる。
【0012】
請求項2記載の発明は、請求項1記載の車両用周辺監視装置であって、前記危険判断手段は、前記車両前方にある物体を監視して、前記車両前方にある物体と前記車両との接触の危険性を判断することを特徴とする車両用周辺監視装置に存する。
【0013】
請求項2記載の発明によれば、危険判断手段が、車両前方にある物体を監視して、車両前方にある物体と車両との接触の危険性を判断する。従って、車両前方について、最適な監視領域を設定することができる。
【0014】
請求項3記載の発明は、請求項1又は2記載の車両用周辺監視装置であって、前記第1監視領域設定手段は、前記予測進路を含んだ領域を、前記監視領域として設定することを特徴とする車両用周辺監視装置に存する。
【0015】
請求項3記載の発明によれば、予想進路外であれば、物体が存在したとしても接触の危険性が少なくことに着目し、第1監視領域設定手段が、予測進路を含んだ領域を、監視領域として設定する。従って、一般道路を走行する場合であっても、より一層、最適な監視領域を設定することができる。
【0016】
請求項4記載の発明は、請求項3記載の車両用周辺監視装置であって、前記第1監視領域設定手段は、前記予測進路を車幅方向に拡大した領域を、前記監視領域として設定することを特徴とする車両用周辺監視装置に存する。
【0017】
請求項4記載の発明によれば、第1監視領域設定手段が、予測進路を車幅方向に拡大した領域を、監視領域として設定する。従って、運転者がハンドルを操作して、予想進路が多少、変化してしまった場合や、予測進路周辺を走行している他車両が急に近づいてきた場合を考慮した、より一層、最適な監視領域を設定することができる。
【0018】
請求項5記載の発明は、請求項1〜4何れか1項記載の車両用周辺監視装置であって、前記第1監視領域設定手段は、前記車両から、前記予測進路に沿って、前記車両速度に応じて定めた距離より遠方にある範囲を、前記監視領域から除外することを特徴とする車両用周辺監視装置に存する。
【0019】
請求項5記載の発明によれば、運転者が危険を察知してから、ブレーキを踏み、実際に停止するまでの間に、車両が進む距離(以下、停止距離)より、遠方にある物体については接触の危険性がないことに着目し、第1監視領域設定手段が、車両から、予測進路に沿って、車両速度に応じて定めた距離(例えば停止距離)より遠方にある範囲を、監視領域から除外する。従って、渋滞などが発生して、低速で走行したり、交通の流れに沿ってスピードを出して走行したりを繰り返す場合であっても、より一層、最適な監視領域を設定することができる。
【0020】
請求項6記載の発明は、図1の基本構成図に示すように、請求項1〜5何れか1項記載の車両用周辺監視装置であって、前記危険判断手段は、前記車両周辺を撮像する撮像手段10を有し、前記撮像手段が撮像した画像を画像処理し、自車両が走行する自車線の両側に位置する一対の白線を検出する白線検出手段52cと、前記検出した白線に基づき、監視領域を設定する第2監視領域設定手段52dと、前記危険判断手段が、前記危険性の判断に用いる監視領域を、前記第1監視領域設定手段が設定した監視領域と、前記第2監視領域設定手段が設定した監視領域との間で切り替える切替手段52eとをさらに備えることを特徴とする車両用周辺監視装置に存する。
【0021】
請求項6記載の発明によれば、危険判断手段において、撮像手段が、車両周辺を撮像する。白線検出手段が、撮像手段により撮像された画像を画像処理し、自車両が走行する自車線の両側に位置する一対の白線を検出する。第2監視領域設定手段が、検出した白線に基づき、監視領域を設定する。切替手段が、危険判断手段によって危険性の判断に用いられる監視領域を、第1監視領域設定手段が設定した監視領域と、第2監視領域設定手段が設定した監視領域との間で切り替える。従って、白線が存在し、走行環境が比較的シンプルな高速道路では、第2監視領域設定手段が設定した監視領域に切り替え、白線が存在せず、歩行者や電柱のような物体が多数存在する一般道路では、第2監視領域設定手段が設定した監視領域に切り替えれば、走行環境に適応した最適な監視領域を設定することができる。
【0022】
上記した第2の課題を解決するためになされた請求項7記載の発明は、図1の基本構成図に示すように、請求項1〜5何れか1項記載の車両用周辺監視装置であって、前記危険判断手段は、車両の周辺を撮像する撮像手段10と、前記撮像手段が撮像した画像を走査して、走査方向近傍に存在する画素同士の濃度変化量を検出する濃度変化量検出手段52fと、前記検出した濃度変化量の前記走査方向における極大点を特徴点として検出する特徴点検出手段52gとを有し、前記特徴点から構成される画像を画像処理して、前記危険性を判断することを特徴とする車両用周辺監視装置に存する。
【0023】
上記した第2の課題を解決するためになされた請求項9記載の発明は、車両に搭載された撮像手段が撮像した画像を画像処理して、前記画像中の特徴点を検出する画像処理装置であって、前記撮像手段が撮像した画像を走査して、走査方向近傍に存在する画素同士の濃度変化量を検出する濃度変化量検出手段と、前記検出した濃度変化量の前記走査方向における極大点を特徴点として検出する特徴点検出手段とを備えたことを特徴とする画像処理装置に存する。
【0024】
請求項7及び9記載の発明によれば、危険判断手段において、撮像手段が、車両の周辺を撮像する。濃度変化量検出手段が、撮像手段が撮像した画像を走査して、走査方向近傍に存在する画素同士の濃度変化量を検出する。特徴点検出手段が、検出した濃度変化量の走査方向における極大点を特徴点として検出する。危険判断手段が、特徴点から構成される画像を画像処理して、危険性を判断する。従って、濃度変化量の極大点を特徴点として検出することにより、物体のエッジがはっきりと撮像されていない場合であっても、エッジに沿ってある程度の幅を有する領域が特徴点として検出されることがなく、幅を細くすることができる。
【0025】
上記した第2の課題を解決するためになされた請求項8記載の発明は、図1の基本構成図に示すように、請求項1〜5何れか1項記載の車両用周辺監視装置であって、前記危険判断手段は、互いに所定距離、離れて配置された車両周辺を撮像する2つの撮像手段10と、前記2つの撮像手段が撮像した2枚の画像中の同一点を検出する同一点検出手段52hとを有し、前記同一点検出手段は、前記2つの撮像手段により撮像された2枚の画像中の特徴点を検出し、前記2枚の画像のうち、一方の画像中の特徴点を略中心とした窓を設定し、他の画像中において、前記特徴点に対する同一点が現れる直線であるエピポラー線上に存在する特徴点を中心とした窓を設定し、前記他の画像中に設定した窓内の画像のうち、前記一方の画像中に設定した窓の画像との相違度が最も低い窓の略中心を構成する特徴点を同一点として検出することを特徴とする車両用周辺監視装置に存する。
【0026】
上記した第2の課題を解決するためになされた請求項10記載の発明は、車両に搭載され、互いに所定距離、離れて配置された2つの撮像手段が撮像した2枚の画像を画像処理して、前記2つの撮像手段が撮像した2枚の画像中の同一点を検出する画像処理装置であって、前記2つの撮像手段により撮像された2枚の画像中の特徴点を検出し、前記2枚の画像のうち、一方の画像中の特徴点を略中心とした窓を設定し、他の画像中において、前記特徴点に対する同一点が現れる直線上に存在する特徴点を中心とした窓を設定し、前記他の画像中に設定した窓内の画像のうち、前記一方の画像中に設定した窓の画像との相違度が最も低い窓の略中心を構成する特徴点を同一点として検出することを特徴とする画像処理装置に存する。
【0027】
請求項8及び10記載の発明によれば、互いに所定距離、離れて配置された2つの撮像手段により撮像された2枚の画像中の同一点の差に基づき、危険性を判断する場合において、同一点検出手段が、2枚の画像のうち、一方の画像中の特徴点を略中心とした窓を設定する。また、他方の画像中において、上記窓を設定した特徴点に対する同一点が現れる直線であるエピポラー線上に存在する特徴点を中心とした窓を設定する。そして、他の画像中に設定した窓内の画像のうち、一方の画像中に設定した窓の画像との相違度が最も低い窓の略中心を構成する特徴点を同一点として検出する。以上の構成によれば、一方の画像中の特徴点と同一点を、他の画像中から検出する際に、一方の画像中の特徴点に対して設定した窓を、他方の画像中のエピポラー線上に沿って、しかも、エピポラー線上に存在する特徴点毎に上記窓を移動して、相違度を求めることにより、上記窓を他の画像全体に亘って走査したり、他の画像中のエピポラー線上を一画素づつ窓を移動して走査することなく、同一点を求めることができる。
【0028】
【発明の実施の形態】
以下、本発明の実施の形態を、図面を参照して説明する。
図2は、本発明の画像処理装置を組み込んだ車両用周辺監視装置の一実施の形態を示すブロック図である。同図において、車両用周辺監視装置は、車両前方に搭載され、車両前方を撮像する撮像手段としての撮像部10と、画像を蓄える記憶部20と、ハンドル舵角に応じた舵角信号を出力する舵角センサ30と、車両速度に応じた速度信号を検出する速度センサ40と、各種演算処理を実行するマイクロコンピュータ(μCOM)50と、警報を発生する警報発生部60とを備えている。
【0029】
上記撮像部10は、車両に搭載された右側CCD11R及び左側CCD11Lと、右側CCD11Rにより撮像された画像が投影される右側イメージプレーン12Rと、左側CCD11Lにより撮像された画像が投影される左側イメージプレーン12Lとを有している。そして撮像部10は、車両前方が撮像領域となるように取り付けられている。また、撮像部10を構成する一対のCCD11R及び11Lは、水平方向に所定距離、離れて取り付けられている。
【0030】
記憶部20は、右側イメージプレーン12Rに投影された画像を一時的に蓄える右側フレームメモリ21Rと、左側イメージプレーン12Lに投影された画像を一時的に蓄える左側フレームメモリ21Lと、CCD11R及び11Lにより撮像された画像を画像処理して、物体との接触の危険性を判断する過程で用いられるフレームメモリ22とを有している。
【0031】
μCOM50は、車両と物体との接触の危険性を判断するための動作プログラムを記録したROM51と、この動作プログラムに従って動作するCPU52と、CPU52の動作時において必要な情報を一時格納するRAM53とを有している。警報発生部60は、例えば、ディスプレイ(図示せず)やスピーカ(図示せず)から構成され、μCOM50によって、物体との接触の危険性があると判断されたとき、その旨を伝える警報音を発生したり、メッセージを表示して、運転者に対して警報を与える。
【0032】
上述した構成の車両用周辺監視装置の動作を図3のフローチャートを参照して以下説明する。CPU52は、例えば、図示しないイグニッションスイッチのオンによって動作を開始し、図示しない初期ステップにおいて、μCOM50内のRAM53に形成した各種エリアの初期設定を行ってからその最初のステップS1に進む。
【0033】
ステップS1において、CPU52は、イメージプレーン12R及び12Lに投影されている画像を、右側フレームメモリ21R及び21Lにそれぞれ格納して、CCD11R及び11Lにより撮像された撮像画像を取得する(ステップS1)。次に、CPU52は、上記取得した各撮像画像中に映っている物体のエッジ(輪郭)上の点を特徴点として検出し、特徴点のみから構成される特徴点画像を作成して、フレームメモリ22内に一時格納する(ステップS2)。
【0034】
上述した特徴点画像作成の詳細な動作について説明する。まず、CPU52は、濃度変化量検出手段として働き、右側フレームメモリ21R及び21Lに格納された各画像について、x軸方向(=画像水平方向)に走査して、x軸方向近傍に存在する画素の濃度変化量を求める。この濃度変化量を求める方法の代表的な一例として、Sobelオペレータがある。次に、CPU52は、特徴点検出手段として働き、図4に示すように、x軸方向において、求めた濃度変化量が極大となる点を特徴点P1、P2、P3、P4…として検出して、特徴点画像を作成する。
【0035】
ところで、従来では、濃度変化量が閾値以上となる点を特徴点として検出するのが一般的であった。しかし、この従来の特徴点検出方法では、図4に示すように、物体のエッジがはっきりと撮像されておらず、エッジでの濃度変化がなだらかな場合、閾値A以上のある程度の幅Wを持った領域内の全ての点が特徴点として検出されてしまう。
【0036】
そこで、上述した本発明のように、濃度変化量の極大点を特徴点として検出すれば、エッジに沿ってある程度の幅Wを有する領域内の全ての点が特徴点として検出されることがなく、エッジに沿った一点(=特徴点P1、P2、P3、P4…)が特徴点として検出される。つまり、エッジがはっきりと撮像されない部分で、特徴点が抽出されすぎることがなく、後述する特徴点画像について行われる画像処理を簡略にすることができる。
【0037】
次に、CPU52は、上述したように、右側CCD11R及び左側CCD11Lで撮像した2枚の撮像画像及びこの2枚の撮像画像について各々作成した特徴点画像を用いて、視差画像を作成して、フレームメモリ22に格納する(ステップS3)。
【0038】
具体的には、CPU52は、まず、同一点検出手段として働き、一方の特徴点画像(例えば、左側特徴点画像)内に存在する特徴点と同一の点を、他方の特徴点画像(例えば、右側特徴点画像)中から検出する。上記同一点検出は、左側特徴点画像内に存在する全ての特徴点について行われる。そして、全ての同一点同士の位置差、つまり、視差を求める。次に、視差が発生する特徴点を、その視差値に応じた輝度に変換することにより、視差画像を作成する。
【0039】
このとき、視差値が大きくなるほど輝度が明るくなるように変換すれば、視差画像は、車両付近に存在する物体の特徴点ほど明るくなり(近くにある物体ほど視差が大きいため)、車両遠方に存在する物体の特徴点ほど暗くなる(画像となる遠くにある物体ほど視差が小さいため)。
【0040】
次に、上述した視差画像作成の過程で行われる同一点検出の詳細な動作について、図5を参照して説明する。まず、CPU52は、例えば左側CCD11Lで撮像した撮像画像上に、注目する一特徴点P5を中心としたN×Nの窓W1を設定する。次に、右側撮像画像の中から、特徴点P5の同一点が現れる直線であるエピポラー線L1上に存在する特徴点P6、P7、P8を検出する。本発明のように、2台のCCD11R及び11Lを水平に配置した場合、エピポラー線L1は、水平方向の1ラインとなる。
【0041】
次に、CPU52は、エピポラー線L1上に存在する特徴点P6、P7、P8を中心としたN×Nの窓W21、W22、W23内の画像のうち、窓W1内の画像との相違度が最も低い窓に設定された特徴点を、特徴点P5の同一点として検出する。
【0042】
上述したように、左側撮像画像中の特徴点と同一点を、右側撮像画像中から検出することにより、窓W1を右側撮像画像全体に亘って走査したり、右側撮像画像中のエピポラー線L1上を一画素づつ窓W1を移動して走査することなく、同一点を求めることができる。このため、同一点検出に関する画像処理を簡略にすることができる。
【0043】
上述したように作成した視差画像には路面に描かれた文字など接触の危険性が全くない物体の視差情報まで含まれているため、次に、CPU52は、路面と同じ高さの物体の視差情報を視差画像から除去する(ステップS4)。撮像画像中に撮像されている路面までの距離(視差)は下式(1)で表される。
d=A・y+B・x+C …(1)
【0044】
上式(1)のdは、視差であり、xは視差画像のx軸方向の位置、yは視差画像のy軸方向(画像垂直方向)の位置、A、B、Cは路面パラメータである。路面パラメータA、B、Cは、路面に対するCCD11R及び11Lの設置パラメータから定まるものである。この式(1)で求めた視差dに対応する輝度値を有する点を、視差画像中から除去することにより、路面と同じ高さの物体の視差情報を視差画像から除去することができる。
【0045】
次に、CPU52は、作成した視差画像を用い、補間視差画像を作成する(ステップS5)。作成した視差画像は、上述したように、画像内の全ての画素に対して視差を算出しているわけではない。従って、特徴点以外の画素、すなわち濃度の平坦な領域に関しては、近傍の特徴点から算出した視差値から推測し、補間することが必要となる。
【0046】
そこで、視差画像中においてx軸方向に同じ視差をもつエッジが連続した場合、それらを同一の車両から生じたエッジとする。そして、同一のエッジ間の水平方向を、両エッジを持つ視差値(輝度)で埋めることにより、特徴点が存在しない部位の視差を補間して補間視差画像を作成する。これにより、撮像された物体の輪郭だけでなく、物体全体(輪郭内)についても、視差に応じた輝度を有した視差画像を得ることができる。
【0047】
次に、CPU52は、作成した補間視差画像を用いて、投影視差画像を作成する(ステップS6)。具体的には、補間視差画像からx軸をそのままとし、y軸は補間視差画像のy方向に視差dの度数分布を求め、横軸x、縦軸dなる投影視差画像を作成する。
【0048】
例えば、前方に他車両F及び他車両Gが走行しているとする。このときの補間視差画像は、図6(a)に示すようになる。同図において、他車両Fは他車両Gより自車両近くを走行しているため、当然、他車両Fから発生する視差は、他車両Gから発生する視差より大きくなる。
【0049】
従って、図6(a)に示すような補間視差画像を、上述したように、投影視差画像に変換したとき、その投影視差画像は、図6(b)に示すように、他車両Fが手前の一直線L3に変換され、他車両Gが奥側の直線L2に変換される(ただし、視差dは手前になるほど大きな値を表すものとする)。つまり、同一の物体から発生する視差は、ほぼ同じであるため、物体は、発生する視差、つまり、車両からの距離に応じた一直線に変換される。そして、自車両近くに存在する物体から変換された直線ほど、手前側に位置する(近くにある物体ほど視差が大きいため)。これは、丁度真上から物体を見たときの位置を表すようになる。
【0050】
次に、CPU52は、予測進路算出手段として働き、図7に示すような、路面のXZ平面上における予測進路Mを算出する(ステップS7)。この予測軌跡Mは、ハンドル舵角に応じた回転半径Rを持つ円弧から車幅を考慮して求めたものである。なお、回転半径Rは、次式(2)によって、算出する。
R=LWB/tanθsteer …(2)
LWBは車両のホイールベース、θsteerはハンドル舵角から算出したタイヤの切れ角を表している。ハンドル舵角は、舵角センサ30からの舵角信号に基づき求める。
【0051】
次に、CPU52は、第1監視領域設定手段として働き、監視領域を設定する(ステップS8)。まず、一般道路において、運転者が注視しなければならない範囲は、自車両の進行方向に依存して変動していることに着目し、ステップS7で求めた予想進路Mを車幅方向にΔD拡大した領域内を、監視領域として設定する。
【0052】
また、運転者が注視しなければならない範囲は、自車両の走行速度に依存しても変動している。つまり、渋滞時や交差点前などかなりスピードを落として運転している際には、近距離だけを注意して見ればよい。逆に交通の流れに沿ってスピードを出しているときはかなり遠方まで注視する必要がある。このことに着目し、予測進路Mに沿って、車両速度(速度センサ40からの速度信号に基づき求める)に応じて定めた距離LQより遠方にある範囲を監視領域から除外する。
【0053】
なお、車両速度に応じて定めた距離LQとは、具体的には、運転者が危険を察知してから、ブレーキを踏み、実際に停止するまでの間に、車両が進む距離(=停止距離)などが考えられる。以上の動作により、路面のXZ平面上において、監視領域Eを設定することができる。
【0054】
次に、上記設定したXZ平面上の監視領域E内の点を、予め定めた変換式を用いて、イメージプレーン12R及び12L上のxy平面に変換する。この変換により、図8に示すように、路面上に描かれた監視領域Eを、CCD11R及び11Lによって撮像した監視領域画像を得ることができる。
【0055】
次に、CPU52は、監視領域画像を、上述したような投影視差画像に変換して、フレームメモリ22に格納する(ステップS9)。その後、CPU52は、監視領域の投影視差画像と、ステップS6で作成した撮像画像の投影視差画像とを比べ、図6(b)において、直線L2、L3で表される物体が、監視領域内に存在したとき、物体との接触の危険性があると判断して(ステップS10でY)、警報発生部60を用いて運転者に警報を与えた後(ステップS11)、ステップS1に戻る。
【0056】
一方、監視領域内に物体が存在しなければ、物体との接触の危険性がないと判断して(ステップS10でN)、直ちにステップS1に戻る。以上のことから、撮像部10及びCPU52が、請求項中の危険判断手段100を構成することがわかる。
【0057】
以上のように、予測進路Mを含んだ監視領域Eを設定することにより、歩行者や電柱などの多数の物体が存在する、又は、走行レーン維持に対する運転者の意識が希薄である一般道路を走行する場合であっても、最適な監視領域Eを設定することができるので、一般道路を走行する場合であっても、正確に物体との接触の危険性を判断することができる。
【0058】
また、予測進路Mを車幅方向にΔD拡大した領域を、監視領域として設定することにより、運転者がハンドルを操作して、予想進路Mが多少、変化してしまった場合や、予測進路M周辺を走行している他車両が急に近づいてきた場合を考慮した、より一層、最適な監視領域Eを設定することができる。
【0059】
また、車両から、予測進路Mに沿って、車両速度に応じて定めた距離(例えば停止距離)より遠方にある範囲を、監視領域Eから除外することにより、渋滞などが発生して、低速で走行したり、交通の流れに沿ってスピードを出して走行したりを繰り返す場合であっても、より一層、最適な監視領域Eを設定することができる。
【0060】
なお、上述した実施形態では、予測軌跡に基づいて、監視領域を設定していた。しかしながら、例えば、走行環境が比較的シンプルな高速道路では、従来のように、白線に基づいて監視領域を設定し、一般道路では、上述したように予測進路に基づいて監視領域を設定するようにしてもよい。この場合、CPU53が、白線検出手段、第2監視領域設定手段、切替手段として働く。この白線に基づいた監視領域と、予測進路に基づいた監視領域との切替は、以下に示すように行うことが考えられる。
【0061】
車両速度が一定以上であり、高速道路を走行していると判断できるときは、白線に基づいた監視領域を用い、車両速度が一定未満であり、一般道路を走行していると判断できるときは、予測進路に基づいた監視領域を用いて危険判断を行う。また、カーナビゲーション装置からの情報に基づき、一般道路及び高速道路の何れを走行しているか判断して切り替えることも考えられる。さらに、白線が検出できないときに、一般道路を走行していると判断し、白線が検出できるとき、高速道路を走行していると判断して切り替えることも考えられる。
【0062】
また、上述した実施形態では、舵角センサ30に基づき、予測進路を算出していたが、例えば、ジャイロなどを用いて予測進路を算出するようにしてもよい。
【0063】
さらに、上述した実施形態では、自車両周辺を監視するための手段として、2台のCCD11R及び11Lを用いていた。しかしながら、例えば、監視領域の設定については、1台のCCDを用いて周辺監視を行うものや、レーザ光源、超音波発振器を用いて周辺監視を行うものにも適用することができる。また、ステップS2で述べた特徴点検出は、1台のCCDを用いて周辺監視を行うものにも適用することができる。
【0064】
【発明の効果】
以上説明したように、請求項1記載の発明によれば、予測進路に基づき監視領域を設定することにより、歩行者や電柱などの多数の物体が存在する、又は、走行レーン維持に対する運転者の意識が希薄である一般道路を走行する場合であっても、最適な監視領域を設定することができるので、一般道路を走行する場合であっても、正確に物体との接触の危険性を判断することができる。しかも、レーザ光源や、超音波発振器を用いて周辺監視を行うものにも適用することができる車両用周辺監視装置を得ることができる。
【0065】
請求項2記載の発明によれば、車両前方について、最適な監視領域を設定することができるので、一般道路を走行する場合であっても、正確に前方に存在する物体との接触の危険性を判断することができる車両用周辺監視装置を得ることができる。
【0066】
請求項3記載の発明によれば、一般道路を走行する場合であっても、より一層、最適な監視領域を設定することができるので、一般道路を走行する場合であっても、より一層、正確に物体との接触の危険性を判断することができる車両用周辺監視装置を得ることができる。
【0067】
請求項4記載の発明によれば、運転者がハンドルを操作して、予想進路が多少、変化してしまった場合や、予測進路周辺を走行している他車両が急に近づいてきた場合を考慮した、より一層、最適な監視領域を設定することができるので、一般道路を走行する場合であっても、より一層、正確に物体との接触の危険性を判断することができる車両用周辺監視装置を得ることができる。
【0068】
請求項5記載の発明によれば、渋滞などが発生して、低速で走行したり、交通の流れに沿ってスピードを出して走行したりを繰り返す場合であっても、より一層、最適な監視領域を設定することができるので、一般道路を走行する場合であっても、より一層、正確に物体との接触の危険性を判断することができる車両用周辺監視装置を得ることができる。
【0069】
請求項6記載の発明によれば、白線が存在し、走行環境が比較的シンプルな高速道路では、第2監視領域設定手段が設定した監視領域に切り替え、白線が存在せず、歩行者や電柱のような物体が多数存在する一般道路では、第2監視領域設定手段が設定した監視領域に切り替えれば、走行環境に適応した最適な監視領域を設定することができるので、より一層、正確に物体との接触の危険性を判断することができる車両用周辺監視装置を得ることができる。
【0070】
請求項7及び9記載の発明によれば、輝度差の極大点を特徴点として検出することにより、物体のエッジがはっきりと撮像されていない場合であっても、エッジに沿ってある程度の幅を有する領域が特徴点として検出されることがなく、幅を細くすることができるので、無駄な特徴点を除去することにより、特徴点から構成される画像について行われる画像処理を簡略にすることができ、安価に、実時間での接触危険性の判断を行うことを可能にする車両用周辺監視装置及び画像処理装置を得ることができる。
【0071】
請求項8及び10記載の発明によれば、一方の画像中の特徴点と同一点を、他の画像中から検出する際に、一方の画像中の特徴点に対して設定した窓を、他方の画像中のエピポラー線上に沿って、しかも、エピポラー線上に存在する特徴点毎に上記窓を移動して、相違度を求めることにより、上記窓を他の画像全体に亘って走査したり、他の画像中のエピポラー線上を一画素づつ窓を移動して走査することなく、同一点を求めることができるので、同一点検出に関する画像処理を簡略にすることができ、安価に、実時間での接触危険性の判断を行うことを可能とする車両用周辺監視装置及び画像処理装置を得ることができる。
【図面の簡単な説明】
【図1】本発明の車両用周辺監視装置の基本構成図である。
【図2】本発明の画像処理装置を組み込んだ車両用周辺監視装置の一実施の形態を示すブロック図である。
【図3】図2の車両用周辺監視装置を構成するCPU52の処理手順を示すフローチャートである。
【図4】図3中の特徴点画像作成作成におけるCPU52の動作を説明するための図である。
【図5】図3中の視差画像作成におけるCPU52の動作を説明するための図である。
【図6】図3中の投影視差画像作成におけるCPU52の動作を説明するための図である。
【図7】図3中の予測進路算出及び監視領域設定におけるCPU52の動作を説明するための図である。
【図8】図7に示す路面上に描かれた監視領域Eを、CCD11R及び11Lによって撮像したとき得られる監視領域画像を示す。
【符号の説明】
10 撮像手段
52a 予測進路算出手段
52b 第1監視領域設定手段
52c 白線検出手段
52d 第2監視領域設定手段
52e 切替手段
52f 濃度変化量検出手段
52g 特徴点検出手段
52h 同一点検出手段
100 危険判断手段[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicle periphery monitoring device and an image processing device, and more particularly to a vehicle periphery monitoring device that detects a degree of danger of contact between an object and a vehicle, and, for example, an image processing device used in a vehicle periphery monitoring device About.
[0002]
[Prior art]
Conventionally, as the above-described vehicle periphery monitoring device, a camera mounted on the vehicle, a laser light source, an ultrasonic oscillator, and the like are used to detect the position of an object around the vehicle and the degree of approach to the host vehicle, and to detect the position of the host vehicle. 2. Description of the Related Art When an object is present in a close position or when an object is coming very close to a host vehicle, it is determined that there is a danger of contact and a warning is issued.
[0003]
However, as in the above-described vehicle periphery monitoring device, when there is an object at a position very close to the own vehicle, when it is determined that there is a risk of contact because the object has suddenly approached the own vehicle. However, the following problems occur. In other words, when there is no intention to change course, there is another vehicle running close to the own vehicle on the adjacent lane, or another vehicle suddenly approaches from the adjacent lane. Therefore, there is a problem that the danger of contact with an object cannot be accurately determined.
[0004]
Therefore, in order to prevent such a situation, some of the vehicular peripheral monitoring devices using a camera detect a white line that is a lane division line using a road image captured by the camera, and based on the detected white line. There are those that identify the own lane area and the adjacent lane area.
[0005]
When the turn signal is not operated and there is no intention to change the course, the vehicle periphery monitoring device determines the risk of contact with an object existing in the own lane area. On the other hand, when the turn signal is operated and there is an intention to change the course, the risk of contact is determined for an object existing in the adjacent lane area in the operation direction.
[0006]
[Problems to be solved by the invention]
The vehicle periphery monitoring device that performs the white line detection described above was able to accurately determine the risk of contact with an object on a highway where the traveling environment is relatively simple. However, on general roads such as urban roads, there are many objects such as pedestrians and telephone poles, there is not always a white line, and the driver's awareness of maintaining the driving lane is low, The first problem is that it is not possible to judge the danger of contact. There is also a problem that the vehicle periphery monitoring device that performs white line detection cannot be applied to a device that performs periphery monitoring using a laser light source or an ultrasonic oscillator.
[0007]
In addition, a vehicle periphery monitoring device using a camera is configured of two cameras arranged at a predetermined distance from each other, and provides a parallax between an object imaged by one camera and an object imaged by the other camera. There is a stereo camera type that detects the relative position of an object based on the information and determines the risk of contact. Further, based on the movement amounts of the objects in two images obtained before and after a predetermined time from one camera, the approaching degree of the objects around the vehicle to the own vehicle is detected, and the risk of contact is determined. There is also an optical flow type.
[0008]
However, a vehicular monitoring device using a camera needs to perform image processing on an image captured by the camera to determine the danger of contact, and in general, the amount of calculation is enormous, and real-time (real-time) There is also a second problem that it is difficult to determine the danger of contact and that a high-speed arithmetic processing unit is required to realize it, so that the apparatus itself is expensive.
[0009]
In view of the above, the present invention focuses on the above-described problems, there is no white line, and there are many objects such as pedestrians and telephone poles, or the driver's awareness of maintaining the driving lane is low. A first object is to provide a vehicle periphery monitoring device that can accurately determine the danger of contact with an object even when traveling on a road. It is a second object of the present invention to provide an image processing apparatus which makes it possible to judge the risk of contact in real time at low cost by simplifying the image processing of the image around the vehicle imaged by the imaging means. Make it an issue.
[0010]
[Means for Solving the Problems]
The invention according to
[0011]
According to the first aspect of the present invention, the predicted course calculating means calculates the predicted course of the vehicle. The first monitoring area setting means sets a monitoring area based on the predicted course. The danger determining means monitors an object around the vehicle and determines a risk of contact between the vehicle and an object present in the monitoring area. Therefore, by setting the monitoring area based on the predicted course, there are many objects such as pedestrians and utility poles, or when traveling on a general road where the driver's awareness of maintaining the traveling lane is low. Also, an optimum monitoring area can be set. In addition, the present invention can be applied to a laser light source or a device that performs peripheral monitoring using an ultrasonic oscillator.
[0012]
The invention according to
[0013]
According to the invention described in
[0014]
The invention according to
[0015]
According to the invention described in
[0016]
The invention according to a fourth aspect is the vehicle periphery monitoring device according to the third aspect, wherein the first monitoring area setting means sets an area in which the predicted course is enlarged in the vehicle width direction as the monitoring area. The present invention resides in a vehicle periphery monitoring device.
[0017]
According to the fourth aspect of the invention, the first monitoring area setting means sets an area in which the predicted course is enlarged in the vehicle width direction as a monitoring area. Therefore, even if the driver operates the steering wheel to change the predicted course to some extent, or the case where another vehicle traveling around the predicted course approaches suddenly, an even more optimal A monitoring area can be set.
[0018]
According to a fifth aspect of the present invention, in the vehicle surroundings monitoring apparatus according to any one of the first to fourth aspects, the first monitoring area setting means is configured to control the vehicle from the vehicle along the predicted course. A vehicle periphery monitoring device is characterized in that a range that is farther than a distance determined according to a speed is excluded from the monitoring area.
[0019]
According to the fifth aspect of the present invention, an object that is farther than the distance traveled by the vehicle (hereinafter referred to as a stop distance) from when the driver senses the danger to when the driver steps on the brake and actually stops. Paying attention to the danger that there is no danger of contact, the first monitoring area setting means monitors a range that is farther from the vehicle along a predicted course than a distance (for example, a stopping distance) determined according to the vehicle speed. Exclude from region. Therefore, even when traffic congestion or the like occurs and the vehicle travels at a low speed or runs at a high speed along the traffic flow, the optimal monitoring area can be set even more.
[0020]
According to a sixth aspect of the present invention, as shown in the basic configuration diagram of FIG. 1, the perimeter monitoring device for a vehicle according to any one of the first to fifth aspects, wherein the danger determining means captures an image of the periphery of the vehicle. A white
[0021]
According to the invention described in
[0022]
The invention according to claim 7 for solving the above second problem is a vehicle periphery monitoring device according to any one of
[0023]
An image processing apparatus according to a ninth aspect of the present invention for solving the above-mentioned second problem, performs image processing on an image captured by an imaging unit mounted on a vehicle and detects a feature point in the image. A density change amount detection unit configured to scan an image picked up by the imaging unit and detect a density change amount between pixels existing in the vicinity of the scanning direction; and a local maximum in the scanning direction of the detected density change amount. And a feature point detecting unit that detects a point as a feature point.
[0024]
According to the seventh and ninth aspects of the present invention, in the danger determining means, the imaging means images the periphery of the vehicle. The density change amount detection unit scans the image picked up by the image pickup unit, and detects a density change amount between pixels existing near the scanning direction. The characteristic point detecting means detects a maximum point in the scanning direction of the detected density change amount as a characteristic point. The danger determining means performs image processing on the image composed of the feature points to determine the danger. Therefore, by detecting the maximum point of the density change amount as a feature point, a region having a certain width along the edge is detected as a feature point even when the edge of the object is not clearly imaged. And the width can be reduced.
[0025]
The invention according to
[0026]
According to a tenth aspect of the present invention, there is provided an image processing method comprising the steps of: performing image processing on two images taken by two image pickup units mounted on a vehicle and arranged at a predetermined distance from each other; An image processing apparatus that detects the same point in two images captured by the two imaging units, and detects feature points in the two images captured by the two imaging units; A window centered on a feature point in one of the two images is set, and a window centered on a feature point on a straight line on which the same point as the feature point appears in the other image. Among the images in the window set in the other image, the feature point constituting the approximate center of the window having the lowest degree of difference from the image of the window set in the one image is defined as the same point. There is an image processing apparatus characterized in that it is detected.
[0027]
According to the eighth and tenth aspects of the present invention, when the danger is determined based on the difference between the same points in two images captured by two imaging units arranged at a predetermined distance from each other, The same point detection means sets a window having a feature point in one of the two images substantially at the center. In the other image, a window is set centering on a feature point existing on an epipolar line which is a straight line on which the same point as the feature point for which the window is set appears. Then, of the images in the window set in the other image, a feature point that forms the approximate center of the window having the lowest difference from the image of the window set in one image is detected as the same point. According to the above configuration, when detecting the same point as a feature point in one image from another image, a window set for the feature point in one image is set to an epipolar point in the other image. By moving the window along the line and for each feature point present on the epipolar line and determining the degree of difference, the window can be scanned over the entire other image, or the epipolar in another image can be scanned. The same point can be obtained without moving the window one pixel at a time on the line and scanning.
[0028]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 2 is a block diagram showing an embodiment of a vehicle periphery monitoring device incorporating the image processing device of the present invention. In FIG. 1, a vehicle periphery monitoring device is mounted in front of a vehicle, and an
[0029]
The
[0030]
The
[0031]
The
[0032]
The operation of the vehicle periphery monitoring device having the above configuration will be described below with reference to the flowchart of FIG. The
[0033]
In step S1, the
[0034]
A detailed operation of the above-described feature point image creation will be described. First, the
[0035]
By the way, conventionally, it has been general to detect, as a feature point, a point where the amount of density change is equal to or larger than a threshold value. However, in this conventional feature point detection method, as shown in FIG. 4, when the edge of the object is not clearly imaged and the density change at the edge is gentle, the edge has a certain width W equal to or larger than the threshold value A. All the points in the region are detected as feature points.
[0036]
Therefore, if the maximum point of the amount of change in density is detected as a feature point as in the present invention described above, all points in a region having a certain width W along the edge are not detected as feature points. , One point along the edge (= feature point P 1 , P 2 , P 3 , P 4 ..) Are detected as feature points. In other words, feature points are not excessively extracted in portions where edges are not clearly imaged, and image processing performed on a feature point image described later can be simplified.
[0037]
Next, as described above, the
[0038]
Specifically, the
[0039]
At this time, if the conversion is performed so that the luminance increases as the parallax value increases, the parallax image becomes brighter as the feature point of the object existing near the vehicle (because the closer the object is, the larger the parallax becomes). The feature points of a moving object become darker (because a farther object, which is an image, has a smaller parallax).
[0040]
Next, the detailed operation of the same point detection performed in the process of creating the parallax image described above will be described with reference to FIG. First, the
[0041]
Next, the
[0042]
As described above, by detecting the same point as the feature point in the left captured image from the right captured image, the window W 1 Is scanned over the entire right-side captured image, or the epipolar line L in the right-side captured image is scanned. 1 Window W one pixel above 1 The same point can be obtained without moving and scanning. For this reason, image processing related to the same point detection can be simplified.
[0043]
Since the parallax image created as described above includes the parallax information of an object having no danger of contact, such as a character drawn on a road surface, the
d = A.y + B.x + C (1)
[0044]
In the above equation (1), d is the parallax, x is the position of the parallax image in the x-axis direction, y is the position of the parallax image in the y-axis direction (image vertical direction), and A, B, and C are road surface parameters. . The road surface parameters A, B, and C are determined from the installation parameters of the CCDs 11R and 11L with respect to the road surface. By removing the point having the luminance value corresponding to the parallax d obtained by the equation (1) from the parallax image, the parallax information of the object having the same height as the road surface can be removed from the parallax image.
[0045]
Next, the
[0046]
Therefore, when edges having the same parallax in the x-axis direction continue in the parallax image, they are regarded as edges generated from the same vehicle. Then, by filling the horizontal direction between the same edges with a parallax value (luminance) having both edges, parallax of a portion where no feature point exists is interpolated to create an interpolated parallax image. Accordingly, a parallax image having luminance according to the parallax can be obtained not only for the contour of the captured object but also for the entire object (within the contour).
[0047]
Next, the
[0048]
For example, it is assumed that another vehicle F and another vehicle G are traveling ahead. The interpolated parallax image at this time is as shown in FIG. In the figure, since the other vehicle F is traveling closer to the own vehicle than the other vehicle G, the disparity generated from the other vehicle F is naturally larger than the disparity generated from the other vehicle G.
[0049]
Therefore, when the interpolated parallax image as shown in FIG. 6A is converted into a projected parallax image as described above, the projected parallax image is moved forward by another vehicle F as shown in FIG. 6B. Straight line L 3 Is converted to a straight line L on the back side 2 (However, it is assumed that the parallax d indicates a larger value toward the near side.) That is, since the parallax generated from the same object is substantially the same, the object is converted into a straight line according to the generated parallax, that is, the distance from the vehicle. Then, the straight line converted from the object existing near the own vehicle is located closer to the near side (because the closer the object is, the larger the parallax is). This indicates the position when the object is viewed from directly above.
[0050]
Next, the
R = L WB / Tanθ steer … (2)
L WB Is the wheelbase of the vehicle, θ steer Represents the turning angle of the tire calculated from the steering angle of the steering wheel. The steering wheel angle is obtained based on the steering angle signal from the
[0051]
Next, the
[0052]
Further, the range in which the driver must pay attention varies depending on the traveling speed of the host vehicle. In other words, when driving at a considerably reduced speed, such as during a traffic jam or before an intersection, it is only necessary to pay attention to the short distance. On the other hand, when you're speeding along the traffic flow, you need to watch your eyes very far. Focusing on this, the distance L determined along the predicted course M according to the vehicle speed (determined based on the speed signal from the speed sensor 40) Q Exclude more distant areas from the monitoring area.
[0053]
Note that the distance L determined according to the vehicle speed Q Specifically, the distance traveled by the vehicle (= stop distance) between the time when the driver perceives danger, the time when the driver depresses the brakes, and the time when the vehicle actually stops can be considered. By the above operation, the monitoring area E can be set on the XZ plane of the road surface.
[0054]
Next, the points in the monitoring area E on the XZ plane set above are converted into xy planes on the image planes 12R and 12L using a predetermined conversion formula. By this conversion, as shown in FIG. 8, a monitoring area image obtained by capturing the monitoring area E drawn on the road surface by the CCDs 11R and 11L can be obtained.
[0055]
Next, the
[0056]
On the other hand, if no object exists in the monitoring area, it is determined that there is no danger of contact with the object (N in step S10), and the process immediately returns to step S1. From the above, it can be understood that the
[0057]
As described above, by setting the monitoring area E including the predicted course M, a general road in which a large number of objects such as pedestrians and telephone poles are present or the driver's awareness of maintaining the traveling lane is low. Even when traveling, the optimum monitoring area E can be set, so that even when traveling on a general road, the danger of contact with an object can be accurately determined.
[0058]
In addition, by setting the area obtained by enlarging the predicted course M by ΔD in the vehicle width direction as a monitoring area, the driver operates the steering wheel to change the predicted course M slightly. An optimal monitoring area E can be set further in consideration of a case where another vehicle traveling around the area suddenly approaches.
[0059]
Further, by excluding from the monitoring area E a range that is farther than a distance (for example, a stopping distance) determined according to the vehicle speed from the vehicle along the predicted course M, congestion or the like occurs, and the vehicle travels at a low speed. Even in the case where the vehicle travels or repeats traveling at a high speed along the traffic flow, the optimum monitoring area E can be set even more.
[0060]
In the embodiment described above, the monitoring area is set based on the predicted trajectory. However, for example, on a highway where the driving environment is relatively simple, a monitoring area is set based on a white line as in the past, and on a general road, a monitoring area is set based on the predicted course as described above. You may. In this case, the CPU 53 functions as a white line detection unit, a second monitoring area setting unit, and a switching unit. Switching between the monitoring area based on the white line and the monitoring area based on the predicted course may be performed as described below.
[0061]
When the vehicle speed is equal to or higher than a certain value and it can be determined that the vehicle is traveling on a highway, the monitoring area based on the white line is used.When the vehicle speed is less than a certain value and it can be determined that the vehicle is traveling on a general road, Then, a danger determination is made using the monitoring area based on the predicted course. It is also conceivable to switch between a general road and an expressway based on information from the car navigation device. Furthermore, when a white line cannot be detected, it may be determined that the vehicle is traveling on a general road, and when a white line can be detected, it may be determined that the vehicle is traveling on an expressway, and switching may be performed.
[0062]
Further, in the above-described embodiment, the predicted course is calculated based on the
[0063]
Further, in the above-described embodiment, two CCDs 11R and 11L are used as means for monitoring the surroundings of the host vehicle. However, for example, the setting of the monitoring area can also be applied to a method of monitoring the periphery using one CCD or a method of monitoring the periphery using a laser light source and an ultrasonic oscillator. Further, the feature point detection described in step S2 can be applied to an apparatus that performs peripheral monitoring using one CCD.
[0064]
【The invention's effect】
As described above, according to the first aspect of the present invention, by setting the monitoring area based on the predicted course, there are a large number of objects such as pedestrians and telephone poles, or the driver is required to maintain the traveling lane. Even when driving on a general road where awareness is low, it is possible to set the optimal monitoring area, so even when driving on a general road, accurately judge the danger of contact with objects can do. In addition, it is possible to obtain a vehicle periphery monitoring device that can be applied to a device that monitors the periphery using a laser light source or an ultrasonic oscillator.
[0065]
According to the second aspect of the present invention, it is possible to set an optimum monitoring area in front of the vehicle, and therefore, even when traveling on a general road, there is a danger of contact with an object present ahead accurately. Can be obtained.
[0066]
According to the third aspect of the present invention, even when driving on a general road, an optimal monitoring area can be set even more. Therefore, even when driving on a general road, It is possible to obtain a vehicle periphery monitoring device capable of accurately determining the danger of contact with an object.
[0067]
According to the invention described in claim 4, when the driver operates the steering wheel to change the predicted course slightly, or when the other vehicle traveling around the predicted course approaches suddenly. Since the optimum monitoring area can be set even more in consideration of the surrounding area for vehicles, the danger of contact with an object can be more accurately determined even when traveling on a general road. A monitoring device can be obtained.
[0068]
According to the fifth aspect of the present invention, even when traffic congestion or the like occurs and the vehicle travels at a low speed or runs at a high speed along the traffic flow, it is more optimally monitored. Since the area can be set, it is possible to obtain a vehicle periphery monitoring device that can more accurately determine the danger of contact with an object even when traveling on a general road.
[0069]
According to the invention of
[0070]
According to the seventh and ninth aspects of the invention, by detecting the maximum point of the luminance difference as a feature point, even if the edge of the object is not clearly imaged, a certain width can be provided along the edge. Since the width of the region having the characteristic point is not detected as the characteristic point and the width can be reduced, the image processing performed on the image composed of the characteristic points can be simplified by removing unnecessary characteristic points. Thus, it is possible to obtain an inexpensive vehicle periphery monitoring device and an image processing device that can judge a contact danger in real time at low cost.
[0071]
According to the eighth and tenth aspects of the present invention, when the same point as a feature point in one image is detected from another image, a window set for the feature point in one image is set to the other. By moving the window along the epipolar line in the image of each of the images and for each feature point existing on the epipolar line, and determining the degree of difference, the window can be scanned over the entire other image. Since the same point can be obtained without moving the window by one pixel at a time on the epipolar line in the image, the image processing relating to the same point detection can be simplified, inexpensively, and in real time. It is possible to obtain a vehicle periphery monitoring device and an image processing device capable of determining a contact danger.
[Brief description of the drawings]
FIG. 1 is a basic configuration diagram of a vehicle periphery monitoring device of the present invention.
FIG. 2 is a block diagram showing an embodiment of a vehicle periphery monitoring device incorporating the image processing device of the present invention.
FIG. 3 is a flowchart showing a processing procedure of a
FIG. 4 is a diagram for explaining an operation of a
FIG. 5 is a diagram for explaining an operation of a
FIG. 6 is a diagram for explaining an operation of a
7 is a diagram for explaining the operation of a
8 shows a monitoring area image obtained when the monitoring area E drawn on the road surface shown in FIG. 7 is imaged by the CCDs 11R and 11L.
[Explanation of symbols]
10 Imaging means
52a predicted route calculating means
52b first monitoring area setting means
52c White line detection means
52d second monitoring area setting means
52e switching means
52f density change amount detecting means
52g feature point detecting means
52h Same point detecting means
100 danger judgment means
Claims (10)
前記車両の予測進路を算出する予測進路算出手段と、
前記予測進路に基づき、監視領域を設定する第1監視領域設定手段とを備え、
前記危険判断手段は、前記監視領域内に存在する物体について、前記危険性を判断する
ことを特徴とする車両用周辺監視装置。Danger determining means for monitoring an object around the vehicle and determining a risk of contact between the object and the vehicle,
Predicted route calculating means for calculating a predicted route of the vehicle,
A first monitoring area setting means for setting a monitoring area based on the predicted course,
The perimeter monitoring device for a vehicle, wherein the danger determining means determines the danger of an object present in the monitoring area.
前記危険判断手段は、前記車両前方にある物体を監視して、前記車両前方にある物体と前記車両との接触の危険性を判断する
ことを特徴とする車両用周辺監視装置。The vehicle periphery monitoring device according to claim 1,
A vehicle surroundings monitoring device, wherein the danger determining means monitors an object in front of the vehicle and determines a risk of contact between the vehicle and an object in front of the vehicle.
前記第1監視領域設定手段は、前記予測進路を含んだ領域を、前記監視領域として設定する
ことを特徴とする車両用周辺監視装置。The vehicle periphery monitoring device according to claim 1 or 2,
The first monitoring area setting means sets an area including the predicted course as the monitoring area.
前記第1監視領域設定手段は、前記予測進路を車幅方向に拡大した領域を、前記監視領域として設定する
ことを特徴とする車両用周辺監視装置。The vehicle periphery monitoring device according to claim 3,
The first monitoring area setting means sets an area obtained by enlarging the predicted course in the vehicle width direction as the monitoring area.
前記第1監視領域設定手段は、前記車両から、前記予測進路に沿って、前記車両速度に応じて定めた距離より遠方にある範囲を、前記監視領域から除外する
ことを特徴とする車両用周辺監視装置。The vehicle periphery monitoring device according to any one of claims 1 to 4,
The first monitoring area setting means excludes, from the monitoring area, a range that is further from the vehicle along the predicted course and more than a distance determined according to the vehicle speed, from the monitoring area. Monitoring device.
前記危険判断手段は、前記車両周辺を撮像する撮像手段を有し、
前記撮像手段が撮像した画像を画像処理し、自車両が走行する自車線の両側に位置する一対の白線を検出する白線検出手段と、
前記検出した白線に基づき、監視領域を設定する第2監視領域設定手段と、
前記危険判断手段が、前記危険性の判断に用いる監視領域を、前記第1監視領域設定手段が設定した監視領域と、前記第2監視領域設定手段が設定した監視領域との間で切り替える切替手段と
をさらに備えることを特徴とする車両用周辺監視装置。The vehicle periphery monitoring device according to any one of claims 1 to 5,
The danger determining means has an imaging means for imaging the periphery of the vehicle,
Image processing of the image captured by the imaging means, white line detection means for detecting a pair of white lines located on both sides of the own lane on which the own vehicle travels,
Second monitoring area setting means for setting a monitoring area based on the detected white line;
Switching means for switching the monitoring area used by the danger determining means for determining the risk between a monitoring area set by the first monitoring area setting means and a monitoring area set by the second monitoring area setting means And a vehicle periphery monitoring device, further comprising:
前記危険判断手段は、
車両の周辺を撮像する撮像手段と、
前記撮像手段が撮像した画像を走査して、走査方向近傍に存在する画素同士の濃度変化量を検出する濃度変化量検出手段と、
前記検出した濃度変化量の前記走査方向における極大点を特徴点として検出する特徴点検出手段とを有し、
前記特徴点から構成される画像を画像処理して、前記危険性を判断する
ことを特徴とする車両用周辺監視装置。The vehicle periphery monitoring device according to any one of claims 1 to 5,
The danger determining means,
Imaging means for imaging the periphery of the vehicle;
A density change amount detection unit that scans an image captured by the imaging unit and detects a density change amount between pixels existing near a scanning direction,
Characteristic point detecting means for detecting a maximum point in the scanning direction of the detected density change amount as a characteristic point,
A vehicular periphery monitoring device, wherein the danger is determined by performing image processing on an image composed of the feature points.
前記危険判断手段は、
互いに所定距離、離れて配置された車両周辺を撮像する2つの撮像手段と、
前記2つの撮像手段が撮像した2枚の画像中の同一点を検出する同一点検出手段とを有し、
前記同一点検出手段は、前記2つの撮像手段により撮像された2枚の画像中の特徴点を検出し、前記2枚の画像のうち、一方の画像中の特徴点を略中心とした窓を設定し、他の画像中において、前記特徴点に対する同一点が現れる直線であるエピポラー線上に存在する特徴点を中心とした窓を設定し、前記他の画像中に設定した窓内の画像のうち、前記一方の画像中に設定した窓の画像との相違度が最も低い窓の略中心を構成する特徴点を同一点として検出する
ことを特徴とする車両用周辺監視装置。The vehicle periphery monitoring device according to any one of claims 1 to 5,
The danger determining means,
Two image pickup means for picking up an image around a vehicle arranged at a predetermined distance from each other,
Same point detecting means for detecting the same point in the two images picked up by the two image pickup means,
The same point detecting means detects a feature point in two images picked up by the two image pickup means, and sets a window substantially centered on a feature point in one of the two images. Setting, in another image, setting a window centered on a feature point present on an epipolar line that is a straight line where the same point with respect to the feature point appears, among images in the window set in the other image And detecting a feature point constituting a substantially center of the window having the lowest difference from the image of the window set in the one image as the same point.
前記撮像手段が撮像した画像を走査して、走査方向近傍に存在する画素同士の濃度変化量を検出する濃度変化量検出手段と、
前記検出した濃度変化量の前記走査方向における極大点を特徴点として検出する特徴点検出手段と
を備えたことを特徴とする画像処理装置。An image processing apparatus that performs image processing on an image captured by an imaging unit mounted on a vehicle and detects a feature point in the image,
A density change amount detection unit that scans an image captured by the imaging unit and detects a density change amount between pixels existing near a scanning direction,
An image processing apparatus comprising: a feature point detecting unit configured to detect a maximum point of the detected density change amount in the scanning direction as a feature point.
前記2つの撮像手段により撮像された2枚の画像中の特徴点を検出し、前記2枚の画像のうち、一方の画像中の特徴点を略中心とした窓を設定し、他の画像中において、前記特徴点に対する同一点が現れる直線上に存在する特徴点を中心とした窓を設定し、前記他の画像中に設定した窓内の画像のうち、前記一方の画像中に設定した窓の画像との相違度が最も低い窓の略中心を構成する特徴点を同一点として検出する
ことを特徴とする画像処理装置。Image processing is performed on two images picked up by two image pickup units mounted on the vehicle and arranged at a predetermined distance from each other, and the same point in the two images picked up by the two image pickup units is detected. An image processing device,
A feature point in the two images captured by the two imaging units is detected, and a window centered on a feature point in one of the two images is set, and a window is set in the other image. Setting a window centered on a feature point present on a straight line where the same point with respect to the feature point appears, and among the images in the window set in the other image, a window set in the one image An image processing apparatus for detecting, as an identical point, a feature point constituting a substantially center of a window having the lowest degree of difference from the image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002198777A JP2004038877A (en) | 2002-07-08 | 2002-07-08 | Perimeter monitoring device and image processing apparatus for vehicles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002198777A JP2004038877A (en) | 2002-07-08 | 2002-07-08 | Perimeter monitoring device and image processing apparatus for vehicles |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004038877A true JP2004038877A (en) | 2004-02-05 |
Family
ID=31706139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002198777A Abandoned JP2004038877A (en) | 2002-07-08 | 2002-07-08 | Perimeter monitoring device and image processing apparatus for vehicles |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004038877A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006119090A (en) * | 2004-10-25 | 2006-05-11 | Mitsubishi Electric Corp | Navigation device |
JP2007235414A (en) * | 2006-02-28 | 2007-09-13 | Toyota Motor Corp | Image recognition system and method |
JP2008186236A (en) * | 2007-01-30 | 2008-08-14 | Mazda Motor Corp | Object detection device for vehicle |
JP2009271766A (en) * | 2008-05-08 | 2009-11-19 | Hitachi Ltd | Obstacle detection device for automobile |
JP2011215974A (en) * | 2010-03-31 | 2011-10-27 | Aisin Aw Co Ltd | Image processing system |
KR101212342B1 (en) | 2005-08-23 | 2012-12-18 | 주식회사 현대오토넷 | Apparatus and method for alerting collision |
JP2014216016A (en) * | 2013-04-22 | 2014-11-17 | 株式会社リコー | Sparse disparity image processing method and apparatus, and object detection method and apparatus |
WO2020085101A1 (en) * | 2018-10-23 | 2020-04-30 | ソニーセミコンダクタソリューションズ株式会社 | Image processing device, image processing method, and program |
JP2021124786A (en) * | 2020-01-31 | 2021-08-30 | ダイハツ工業株式会社 | Operation support device |
CN113870616A (en) * | 2020-06-30 | 2021-12-31 | 丰田自动车株式会社 | Determination device, determination method, and recording medium having program recorded thereon |
US20220307231A1 (en) * | 2021-03-25 | 2022-09-29 | Grazper Technologies ApS | Utility Vehicle and Corresponding Apparatus, Method and Computer Program for a Utility Vehicle |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05101299A (en) * | 1990-07-05 | 1993-04-23 | Fiat Spa | Method and means for avoiding collision between automobile and obstacle |
JPH05172535A (en) * | 1991-12-24 | 1993-07-09 | Kawasaki Steel Corp | Peak-point detecting method and calibration method |
JPH06215138A (en) * | 1993-01-20 | 1994-08-05 | Aisin Seiki Co Ltd | Picture processor |
JPH0757182A (en) * | 1993-08-19 | 1995-03-03 | Mazda Motor Corp | Safety device for vehicle |
JPH09223227A (en) * | 1996-02-15 | 1997-08-26 | Honda Motor Co Ltd | Environment recognizing device for vehicle |
JP2001067484A (en) * | 1999-08-30 | 2001-03-16 | Fuji Heavy Ind Ltd | Stereo monitor device for vehicle's outside |
JP2002008047A (en) * | 2000-06-26 | 2002-01-11 | Nachi Fujikoshi Corp | Edge detecting method |
-
2002
- 2002-07-08 JP JP2002198777A patent/JP2004038877A/en not_active Abandoned
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05101299A (en) * | 1990-07-05 | 1993-04-23 | Fiat Spa | Method and means for avoiding collision between automobile and obstacle |
JPH05172535A (en) * | 1991-12-24 | 1993-07-09 | Kawasaki Steel Corp | Peak-point detecting method and calibration method |
JPH06215138A (en) * | 1993-01-20 | 1994-08-05 | Aisin Seiki Co Ltd | Picture processor |
JPH0757182A (en) * | 1993-08-19 | 1995-03-03 | Mazda Motor Corp | Safety device for vehicle |
JPH09223227A (en) * | 1996-02-15 | 1997-08-26 | Honda Motor Co Ltd | Environment recognizing device for vehicle |
JP2001067484A (en) * | 1999-08-30 | 2001-03-16 | Fuji Heavy Ind Ltd | Stereo monitor device for vehicle's outside |
JP2002008047A (en) * | 2000-06-26 | 2002-01-11 | Nachi Fujikoshi Corp | Edge detecting method |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006119090A (en) * | 2004-10-25 | 2006-05-11 | Mitsubishi Electric Corp | Navigation device |
KR101212342B1 (en) | 2005-08-23 | 2012-12-18 | 주식회사 현대오토넷 | Apparatus and method for alerting collision |
JP2007235414A (en) * | 2006-02-28 | 2007-09-13 | Toyota Motor Corp | Image recognition system and method |
JP2008186236A (en) * | 2007-01-30 | 2008-08-14 | Mazda Motor Corp | Object detection device for vehicle |
JP2009271766A (en) * | 2008-05-08 | 2009-11-19 | Hitachi Ltd | Obstacle detection device for automobile |
JP2011215974A (en) * | 2010-03-31 | 2011-10-27 | Aisin Aw Co Ltd | Image processing system |
JP2014216016A (en) * | 2013-04-22 | 2014-11-17 | 株式会社リコー | Sparse disparity image processing method and apparatus, and object detection method and apparatus |
WO2020085101A1 (en) * | 2018-10-23 | 2020-04-30 | ソニーセミコンダクタソリューションズ株式会社 | Image processing device, image processing method, and program |
JP2021124786A (en) * | 2020-01-31 | 2021-08-30 | ダイハツ工業株式会社 | Operation support device |
JP7139080B2 (en) | 2020-01-31 | 2022-09-20 | ダイハツ工業株式会社 | Driving support device |
CN113870616A (en) * | 2020-06-30 | 2021-12-31 | 丰田自动车株式会社 | Determination device, determination method, and recording medium having program recorded thereon |
JP2022011933A (en) * | 2020-06-30 | 2022-01-17 | トヨタ自動車株式会社 | Discrimination system and program |
JP7380449B2 (en) | 2020-06-30 | 2023-11-15 | トヨタ自動車株式会社 | Judgment device and program |
US20220307231A1 (en) * | 2021-03-25 | 2022-09-29 | Grazper Technologies ApS | Utility Vehicle and Corresponding Apparatus, Method and Computer Program for a Utility Vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2700635C1 (en) | Method and device for parking places detection | |
US10755116B2 (en) | Image processing apparatus, imaging apparatus, and device control system | |
JP6257989B2 (en) | Driving assistance device | |
US6744380B2 (en) | Apparatus for monitoring area adjacent to vehicle | |
JP4223320B2 (en) | Vehicle driving support device | |
JPH1166494A (en) | Vehicle driving supporting system | |
JP2012527681A (en) | Lane departure detection method and apparatus using vehicle periphery image | |
JP2014006885A (en) | Level difference recognition apparatus, level difference recognition method, and program for level difference recognition | |
JP2007164671A (en) | Device for deciding approaching obstacle and system for warning collision with obstacle | |
JP2004038877A (en) | Perimeter monitoring device and image processing apparatus for vehicles | |
JP3961584B2 (en) | Lane marking detector | |
JPH10283592A (en) | On-vehicle drive supporting device | |
JP2011100174A (en) | Apparatus and method for detecting vehicle on lane | |
JP2015148887A (en) | Image processing device, object recognition device, moving body instrument control system and object recognition program | |
JP2022086516A (en) | Imaging system and imaging apparatus | |
CN109895697B (en) | Driving auxiliary prompting system and method | |
JP2017129543A (en) | Stereo camera device and vehicle | |
JP4930432B2 (en) | Vehicle periphery monitoring device | |
JP2004280194A (en) | Forward monitor and method therefor | |
JP5477394B2 (en) | Vehicle periphery monitoring device | |
JP2006004188A (en) | Obstacle recognition method and obstacle recognition device | |
JPH06162398A (en) | Traffic lane detecting device, traffic lane deviation warning device and collision warning device | |
JP2013250694A (en) | Image processing apparatus | |
JP3226699B2 (en) | Perimeter monitoring device for vehicles | |
JP2005267331A (en) | Vehicle circumference monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061212 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20070208 |