JP2006048435A - 車両用画像処理装置 - Google Patents

車両用画像処理装置 Download PDF

Info

Publication number
JP2006048435A
JP2006048435A JP2004229598A JP2004229598A JP2006048435A JP 2006048435 A JP2006048435 A JP 2006048435A JP 2004229598 A JP2004229598 A JP 2004229598A JP 2004229598 A JP2004229598 A JP 2004229598A JP 2006048435 A JP2006048435 A JP 2006048435A
Authority
JP
Japan
Prior art keywords
vehicle
detected
image processing
preceding vehicle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004229598A
Other languages
English (en)
Other versions
JP4052291B2 (ja
Inventor
Migaku Takahama
琢 高浜
Takeshi Kimura
健 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004229598A priority Critical patent/JP4052291B2/ja
Publication of JP2006048435A publication Critical patent/JP2006048435A/ja
Application granted granted Critical
Publication of JP4052291B2 publication Critical patent/JP4052291B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 前方車両の位置検出精度と追跡の頑強性(信頼性)を向上させる。
【解決手段】 レーザーレーダー1およびレーダー処理装置2により検出した前方車両の位置に基づいてカメラ3および画像処理装置4の撮像画像上に画像処理領域を設定し、撮像画像の内の画像処理領域の画像を処理して前方車両を検出し、検出した前方車両の位置を算出する車両用画像処理装置において、前方車両の左右端に対応する一対の縦エッジを検出して前方車両を検出する第1の手法と、予め記憶した前方車両の基準パターンを用いてパターンマッチングにより前方車両を検出する第2の手法とを有し、レーザーレーダー1およびレーダー処理装置2により検出した前方車両の位置が自車から所定距離以下の接近状態にあるときは、第1の手法と第2の手法とにより前方車両の位置を算出する。
【選択図】 図1

Description

本発明は、単眼カメラで撮像した画像を処理して先行車を検出する車両用画像処理装置に関する。
レーザーレーダーでは近距離における測距性能が不安定なため、近距離の先行車を検知するのに単眼カメラによる画像処理を併用することによって、頑強な先行車追跡を可能にした外界認識システムが知られている(例えば、特許文献1参照)。
また、本出願人は、車両前方の先行車をトラッキングする際に、先行車両の左右端(画像上の車両領域とそれ以外の背景などの領域との境界)に相当する2本のエッジ(エッジペア)を検出し、エッジペアを検出できた場合に限り、そのエッジペアの間の領域(物体領域)における画像情報を予め記憶し、将来のエッジペア不検出時に備える一方、エッジペアが検出できない場合には、最後に記憶した画像情報を用いてパターンマッチングなどの手法により先行車を検出するようにした車両用画像処理装置を提案している(例えば、特許文献2参照)。
この装置では、先行車両の左右端に相当する一次元(線、ライン)の領域を検出する第1の手法と、予め記憶した二次元(面、エリア)の画像情報を用いて先行車領域を追跡する第2の手法とを効率的に、効果的に組み合わせることによって、次のような効果を得ている。第1の手法では、一次元の画像領域に注目するので先行車領域と背景領域とがキッチリ区別でき、高精度な検出ができる。また、第2の手法では、二次元の画像領域に注目するので一次元の領域と比べて先行車両を大局的に追跡でき、頑強な検出が可能になる。したがって、先行車検知において、検知位置の高精度化と追跡の頑強化とが可能になり、画像処理がシンプルなため処理周期が短く、高い応答性が得られる。
この出願の発明に関連する先行技術文献としては次のものがある。
特開2002−117392号公報、 特願2003−189616号
しかしながら、後者の車両用画像処理装置では、先行車両の左右端を検出することを基本にしているため、先行車と接近するような場面、特に、至近距離に存在する先行車両を自車が操舵回避により追い越すシーンでは、次のような問題がある。まず、至近距離では先行車両の左右端の片方、あるいは両方がカメラの撮影画面からはみ出るため、エッジペアの検出ができず、検知位置の精度が悪化する。次に、至近距離ではエッジペアの検出ができないので、予め記憶する画像情報を更新できず、追跡の頑強性が悪化する。
位置検出手段により検出した前方車両の位置に基づいて撮像手段の撮像画像上に画像処理領域を設定し、撮像画像の内の画像処理領域の画像を処理して前方車両を検出し、検出した前方車両の位置を算出する車両用画像処理装置において、前方車両の左右端に対応する一対の縦エッジを検出して前方車両を検出する第1の手法と、予め記憶した前方車両の基準パターンを用いてパターンマッチングにより前方車両を検出する第2の手法とを有し、位置検出手段により検出した前方車両の位置が自車から所定距離以下の接近状態にあるときは、第1の手法と第2の手法とにより前方車両の位置を算出する。
本発明によれば、前方車両の位置検出精度と追跡の頑強性(信頼性)を向上させることができる。
《発明の第1の実施の形態》
図1は第1の実施の形態の構成を示す。スキャンニング式レーザーレーダー1は車両前方にレーザー光を照射して物体からの反射光を受光し、前方車両を含む物体までの距離と方位、すなわち自車に対する前方物体の位置を検出する。レーダー処理装置2はレーザーレーダー1による検出結果に基づいて車両前方の車両を抽出し、自車両を原点とする車両前後方向と左右方向の二次元座標上における車両の位置と車両の大きさ(幅)とを算出する。プログレッシブスキャン式3CCD単眼カメラ3は車両前方を高速に撮像する。画像処理装置4はカメラ3による撮像画像の内、レーダー処理装置2により算出した車両周辺を注目領域として画像処理を行い、自車のピッチング変動などによりレーダー検知車両をロストした場合にも、カメラ画像により車両を検知し続ける。
外界認識装置5は、レーダー処理装置2と画像処理装置4の車両検出結果と、車速検出装置6により検出された車速、操舵角検出装置7により検出された操舵角などに基づいて自車前方の車両を検出し、自車にとって障害物か否かを判断し、必要に応じて自動ブレーキ制御装置8を制御して負圧ブレーキブースター9を駆動し、車両の制動力を発生させる。
図2は第1の実施の形態の車両検出処理を示すフローチャートである。このフローチャートにより、第1の実施の形態の動作を説明する。外界認識装置5は所定時間(この第1の実施の形態では33msec)ごとにこの車両検出処理を実行する。
ステップ201においてスキャンニング式レーザーレーダー1により検知した自車に対する各車両の位置をR(Px_z0[i],Py_z0[i])として読み込む。ここで、添え字のxは左右方向の車両位置であり、yは前後方向の車両位置である。また、iは各検知車両のID番号で0以上の整数であり、z0は今回の値を、z1は1サンプリング過去の値を、znはnサンプリング過去の値を示す。ステップ202ではカメラ3から今回のサンプリングにおける撮像画像を取り込む。
ステップ203ではレーザーレーダー1により検知した各車両(各ID番号)の中から最も注目する車両を1台選択する(上記特許文献2の段落0018〜0025および図5参照)。すなわち、各車両について自車との接触可能性Rprob[i]を算出し、すべてのRprob[i]の中で所定値以上高い車両の中から最も高い車両を一つだけ選択し、その車両のID番号をslctとする。すべての車両のRprob[i]が所定値以上とならない、つまり障害物が存在しない場合には、slct=−1とする。なお、スキャンニング式レーザーレーダー1で検知した物体の大きさから、所定の大きさよりも小さい物体で、かつ停止物体であることが分かった場合には、その物体を最も注目する車両として選択しない。これにより、画像処理する前からレーダー側で背景を選別するため、背景などを画像で誤追跡することをより確実に防止できる。
ステップ204では画像処理による車両追跡を行っているか否かを示すフラグ(以下、画像追跡フラグという)IP_Trackingより調べる。このフラグIP_Trackingは、画像処理によるトラッキングを行っている場合は“1”となり、そうでない場合には“0”となる。ここで、IP_Tracking=0の場合はステップ205へ、そうでない場合はステップ211へ進む。ステップ205ではレーザーレーダー1により注目する車両は存在したか否かを確認し、slct<0で注目に値する車両が存在しない場合はステップ224へ、slct>0で注目に値する車両が存在する場合にはステップ206へ進む。
ステップ206において最も注目する車両の自車に対する位置R(Px_z0[slct]、Py_z0[slct])に基づき画像処理領域を設定する。
disp_obj_YA=y0+(focusV・CAM_h2/Py_z0[slct]),
disp_obj_YB=y0+(focusV・CAM_h/Py_z0[slct]),
disp_obj_XL=X0+(focusH/Py_z0[slct]・Px_z0[slct])
−(focusH・wide/Py_z0[slct]),
disp_obj_XR=x0+(focusH/Py_z0[slct]・Px_z0[slct])
+(focusH・wide/Py_z0[slct]) ・・・(1)
ここで、disp_obj_**とは、画像処理を行う矩形領域の端の座標値であって、disp_obj_YAは矩形領域の上端、disp_obj_YBは矩形領域の下端、disp_obj_XLは矩形領域の左端、disp_obj_XRは矩形領域の右端を表す。また、y0,x0はカメラ3の取り付け位置と向きで決まるパラメーターであり、y0は消失点の縦座標[pix]を、x0は消失点の横座標[pix]をそれぞれ表す。focusV、focusHはカメラ3の画角と受光素子(不図示)の解像度で決まるパラメーターであり、focusVは画素換算したカメラ3の鉛直方向の焦点距離[pix]、focusHは画素換算したカメラ3の水平方向の焦点距離[pix]である。なお、受光面が正方格子である場合にはfocusV=focusHである。CAM_hはカメラ3の取り付け高さ(単位はメートル)で、CAM_h2はCAM_hから障害物候補として考慮すべき車両の高さobj_H(単位はメートル)を減算した値である。wideは次式により求めることができる。
wide=focusH/Py_z0・{(Rw[slct]+Rx_vari+Rw_vari/2) ・・・(2)
ここで、Rw[i]はレーザーレーダー1で検知した車両群におけるID番号iの車両の幅であって、Rx_variはレーザーレーダー1の左右方向位置に関する検知精度(標準偏差[m]であり、Rw_rariはレーザーレーダー1の幅に関する検知精度(標準偏差[m])である。
なお、この一実施の形態ではスキャンニング式レーザーレーダー1を用いたので検知物の幅を検出できるが、悪天候に強いミリ波レーダーや非常に安価なマルチビーム式のレーザーレーダーを用いた場合には検知物の幅を検出することができない。この場合には、レーザーレーダーの横方向位置の検知精度(標準偏差[m])と障害物として考慮すべき車両の最大幅との和で決まる幅[m]の半分の値を画素換算した値[pix]を(2)式の代わりに用いればよい。
ステップ207では、(1)式で設定した画像処理領域において、隣接する画素間での濃淡変化を求める演算方法であって、画像上における道路と車両の境界のように濃淡変化が大きい部分だけを集めることができるSobelフィルター演算などによりエッジ画像を求める。ステップ208ではエッジ画像から縦エッジのペアとその間の横エッジ、すなわち“H”型のエッジを探す。H型のエッジが存在する場合にはステップ209へ進み、存在しない場合にはステップ210へ進む。H型エッジが存在する場合は、ステップ209で縦エッジペア、すなわちH型エッジにおける左側の縦エッジと右側の縦エッジの間隔と、レーダー1による検知車両までの距離とに基づいて、次式により画像で検知する車両の幅Iw(単位はメートル)を算出する。その後、ステップ217へ進む。
Iw=EdgeWidth・Py_z0[slct]/focusH ・・・(3)
ここで、EdgeWidthはH型エッジにおける縦エッジペアの画素間隔である。これにより、縦エッジペアとレーダー位置との対応付けが実施されるため、単眼カメラ3で距離を検出できるようになる。
ステップ210では画像追跡フラグIP_Tracking=0のままにしてステップ224へ進む。ステップ211では画像処理による車両追跡をエッジ検出により行っているのか、またはパターンマッチングにより行っているのかを示すフラグ(以下、画像処理フラグという)IP_Stateを調べる。現在の画像追跡処理がエッジ検出処理により実施している場合(IP_State=1)ではステップ212へ進み、パターンマッチングにより実施している場合(IP_State=0)ではステップ213へ進む。ステップ212では前回のサンプリングにおける画像処理はエッジ検出により高精度に行われたため、今回のサンプリングにおける画像処理を行う領域は、次式により狭めに設定する。
disp_obj_YA=y0+(focusV・CAM_h2/iPy_z1),
disp_obj_YB=y0+(focusV・CAM_h/iPy_z1),
disp_obj_XL=x0+(focusH/iPy_z1・iPx_z1)−wide2,
disp_obj_XR=x0+(focusH/iPy_z1・iPx_z1)+wide2 ・・・(4)
ここで、iPy_z1、iPx_z1は前回のサンプリングにおいて画像処理により検知した車両の前後方向位置[m]と左右方向位置[m]を表しており、wide2は次式により求まる画像処理領域における幅の半分[pix]である。
wide2=EdgeWidth_z1/2+w_narrow ・・・(5)
また、EdgeWidth_z1は前回のサンプリングにおいて画像処理により検知した車両幅の画素値(縦エッジペアの間隔)であって、w_narrowは1サンプリング間に変化する車両位置の最大値である。
ステップ213では前回のサンプリングにおける画像処理がパターンマッチングにより行われたため、今回のサンプリングにおける画像処理を行う領域は次式により広めに設定する。
disp_obj_YA=y0+(focusV・CAM_h2/iPy_z1),
disp_obj_YB=y0+(focusV・CAM_h/iPy_z1),
disp_obj_XL=x0+(focusH/iPy_z1・iPx_z1)−wide3,
disp_obj_XR=x0+(focusH/iPy_z1・iPx_z1)+wide3 ・・・(6)
ここで、wide3は次式により求まる画像処理領域における幅の半分[pix]である。
wide3=EdgeWidth_z1/2+w_narrow+w_PM_err ・・・(7)
なお、w_PM_errとは、パターンマッチングによる車両検知精度を考慮した位置誤差の想定値を画素換算した値である。
ステップ214では、ステップ212またはステップ213で設定した画像処理領域について、Sobelフィルター演算などによりエッジ画像を算出する。ステップ215ではエッジ画像から縦エッジペアの候補を集める。ここで、縦エッジのペアが存在した場合にはステップ216へ進み、縦エッジペアが存在しない場合にはステップ219へ進む。縦エッジペアが複数存在する場合には、ステップ216で画像上の最も下に位置する縦エッジペアを1組選択する。なお、縦エッジペアが1組だけしか存在しなかった場合はその1組を用いる。そして、次式により自車に対する検知車両の位置を算出する。
iPy_z0=(focusV・Iw)/EdgeWidth,
iPx_z0=(((SideEdge_R+SideEdge_L)/2)−x0)・iPy_z0/focusH,
iPw_z0=(EdgeWidth/2)・iPy_z0/focusH ・・・(8)
ここで、SideEdge_Rは縦エッジペアにおける右側の縦エッジの横方向位置であり、SideEdge_Lは縦エッジペアにおける左側の縦エッジの横方向位置である。
EdgeWidth=SideEdge_R−SideEdge_L ・・・(9)
の関係がある。
ステップ217では縦エッジペアの位置を中心とした画像上の所定面積の領域を基準パターンとして記憶する。具体的には、前車と接近状態である場合には、ステップ216で求めた縦エッジペアの座標と画像処理領域の高さ座標から車両の中心座標を求め、予め設定した最大面積値MaxAreaと画像処理領域の高さ(disp_obj_YB−disp_obj_YA)に基づき算出する領域を車両の中央を含む部分的な領域に制限し、制限した領域の撮像画像を新しい基準パターンとして記憶する。一方、前車と接近状態でない場合には、領域制限することなしにステップ216で求めた縦エッジペアの座標と画像処理領域の高さ座標、すなわち車両の四隅(上下左右)の座標からなる領域を基準パターンとして記憶する。ここで、前車と接近状態の判断は、単に車間距離で判断するのではなく、ステップ216で求めた縦エッジペアの間隔EdgeWidth(=SideEdge_R−SideEdge_L)と、(1)式、(4)式および(6)式で設定した画像処理領域の高さ(disp_obj_YB−disp_obj_YA)との乗算から接近の度合いを判断する。このようにすると、単に車間距離で判断する場合に比べて、基準パターンの面積を一定にできるため、パターンマッチング処理速度の最大時間を一定にすることができる。また、幅の小さい車両に対しては、基準パターンの領域制限がなされる距離範囲がより自車と接近する領域に縮まるため、パターンマッチングでの追従が頑強になる。
ステップ218では画像追跡フラグIP_Trackingを“1”(追跡中)、画像処理フラグIP_Stateを“1”(エッジ検出)にセットしてステップ224へ進む。
一方、ステップ215で縦エッジペアが存在しないと判定された場合は、ステップ219で、最後に記憶した基準パターンを用いてステップ213の画像処理領域と同じかそれ以上の大きさの領域に対してパターンマッチングを行う。このときの大きさは、自車のヨーレートセンサーにより検出したヨーレートまたは自車の前後Gセンサーにより検出した加減速度が大きくなるにつれて画像処理領域を広げてもよい。ステップ220ではパターンマッチングが成功したか否かを確認し、成功した場合はステップ221へ進み、失敗した場合には223へ進む。ここで、パターンマッチングの成功とは、画像処理領域内の画像と基準テンプレートとの相関値が所定値以上高い場合に成功とする。
ステップ221では、ステップ220のパターンマッチングで相関値が最大となる領域の中心座標、縦TmplMat_Row、横TmplMat_Columnを求めて、次式により自車に対する検知車両の位置を算出する。
iPy_z0=(focusV・CAM_h)/(TmplMat_Row−y0),
iPx_z0=(TmplMat_Column−x0)・iPy_z0/focusH ・・・(10)
ステップ222では画像追跡フラグIP_Trackingを“1”(追跡中)、画像処理フラグIP_Stateを“0”(パターンマッチング)にセットする。そして、次のような条件、すなわち前車との距離が至近距離である条件を満足しない場合は基準パターンを変更せずにステップ224へ進み、満足する場合には基準パターンを更新してステップ224へ進む。前車との車間距離が所定値より離れている場合、あるいは縦エッジの片側1本も求められない場合には、基準パターンを変更せずにステップ224へ進む。
一方、前車との車間距離が所定値以下で前車が至近距離にあり、左右どちらかの縦エッジが検出された場合には、検出した片側エッジが車両の左側か右側かを判断し、その座標を読み込む。検出できない方の片側エッジは、検出した片側エッジの座標と、前回のサンプリングで検出した車両の位置[m]と幅[m]とに基づいて推定する。検出した車両の左右のエッジの座標と、画像処理領域の高さ座標からなる車両領域の画像を基準パターンとして記憶する。このようにして片側エッジでも基準パターンの更新を許可する。ここで、検出した車両の左右エッジの座標から、画像上の車両の面積が所定値以上の場合にはステップ217と同様な処理を行う。
ステップ223では画像追跡フラグIP_Trackingを“0”(非追跡中)にしてステップ224へ進む。ステップ224では検知車両の位置などに関する過去値を更新して処理を終了する。
第1の実施の形態によれば、エッジ検出とパターンマッチングとの組み合わせを工夫することによって、画像処理により車両を高精度で頑強に追跡することが可能となり、高度な外界認識系を実現することができる。また、前方車両が撮像画面の一部からはみ出て、車両の左右エッジを検出できない場合でも、撮像画像の広い部分をパターンマッチングに用いる基準パターンとして更新せずに、撮像画像の中の車両の中央を含む狭い部分を基準パターンとして記憶する。車両の中央、すなわちナンバープレートを含むので、左右方向の追跡精度が高くなる。基準パターンの更新は、背景などを誤って基準パターンに含まないようにするために、車両左右端に相当する片側エッジを検出でき、かつパターンマッチングによる追跡が成功した場合にのみ、車両の左右端座標に基づき基準パターンの更新を行う。このため、至近距離で車両の左右端全体を検出できない場合でも、パターンマッチングで車両を追跡できるようになる。
なお、第1の実施の形態では画像検知車両の左右方向位置iPx_z0の算出に(8)式、(10)式のiPy_z0を用いて算出したが、レーダー1とカメラ画像が同一車両を捕捉中であると判断できる場合には、このiPy_z0の代わりにPy_zo[slct]を用いて算出してもよい。この場合、前後位置精度が特に遠距離で悪化する画像からの算出値iPy_z0を用いず、遠距離でも精度が悪化しにくいレーダー1の前後方向位置を使うため、画像での左右方向位置精度がかなり向上する。また、この一実施の形態ではレーダー1を使うことを前提にしたが、ステレオカメラによる三角測量法により画像から車両位置が直接得られる場合には、レーダーを使わなくてもよい。この場合、ステレオ画像処理としては、車両を発見してステレオ画像による車両までの距離を求める処理を追加する必要があるが、それ以外はこの第1の実施の形態の内容をそのまま適用することができる。
《発明の第2の実施の形態》
上述した第1の実施の形態では至近距離ではパターンマッチングにより車両追跡を行う例を示したが、至近距離でもエッジ検出による車両検知を行う第2の実施の形態を説明する。なお、この第2の実施の形態の構成は図1に示す第1の実施の形態の構成と同様であり、図示と説明を省略する。
図3は第2の実施の形態の車両検出処理を示すフローチャートである。このフローチャートにより、第2の実施の形態の動作を説明する。外界認識装置5は所定時間(この第1の実施の形態では33msec)ごとにこの車両検出処理を実行する。ステップ301〜320における処理は図2に示すステップ201〜220の処理と同様であり、説明を省略する。
続くステップ321では次のように前車の位置を算出する。検知した片側エッジの座標と、パターンマッチングによる最大相関座標における左右方向(自車の車幅方向)座標に基づいて検知できなかった方の縦エッジ座標を求める。次に、左右縦エッジペアの間隔と、初回抽出(ステップ309)で求めた前車の幅Iw[m]とに基づいて前車の前後方向(車間距離方向)の位置を求める。そして、前回の縦エッジの位置と今回の縦エッジの位置とを比較して所定値よりも変化が小さい場合には、今回の縦エッジペアの中心左右方向座標と車間距離とに基づいて前車の左右方向の位置を算出する。一方、前回の縦エッジの位置と今回の縦エッジの位置とを比較して所定値よりも変化が大きい場合には、パターンマッチングにより最大相関が得られた左右方向座標と車間距離とに基づいて前車の左右方向の位置を算出する。
なお、片側エッジも検出できない場合には、第1の実施の形態のステップ221の処理と同様に、相関が最大となる画像上の座標から前車位置を求める。また、レーダー検知位置、レーダーがロストした場合には前回の画像検知位置が至近距離と定義する位置よりも近距離でない場合には、第1の実施の形態のステップ221の処理と同様に、相関が最大となる画像上の座標から前車位置を求める。
ステップ322〜324の処理は図2に示すステップ222〜224の処理と同様であり、説明を省略する。
この第2の実施の形態によれば、第1の実施の形態の上記効果に加え、前車の前後方向位置は至近距離測距精度の低いレーダーに頼らず、また左右方向位置は状況に応じた最適な位置を算出できる。
《発明の第3の実施の形態》
上述した第2の実施の形態では至近距離精度の低いレーザーレーダーを用いて至近距離でもエッジ検出に基づく車両検知を行う例を示したが、さらに頑強な車両検知を行う第3の実施の形態を説明する。なお、この第3の実施の形態の構成は図1に示す第1の実施の形態の構成と同様であり、図示と説明を省略する。
図4は第3の実施の形態の車両検出処理を示すフローチャートである。このフローチャートにより、第3の実施の形態の動作を説明する。外界認識装置5は所定時間(この第1の実施の形態では33msec)ごとにこの車両検出処理を実行する。ステップ401〜420における処理は図3に示すステップ301〜320の処理と同様であり、説明を省略する。
ステップ421では次のように前車の位置を算出する。検知した片側エッジの座標と、パターンマッチングにより最大相関が得られた左右方向座標に基づいて検知できなかった方の縦エッジ座標を求める。次に、左右縦エッジペアの間隔と、初回抽出(ステップ409)で求めた前車の幅Iw[m]に基づいて車両の車間距離方向の位置を求める。そして、前回の縦エッジの位置と今回の縦エッジの位置とを比較して所定値よりも変化が小さい場合には、今回の縦エッジペアの中心左右方向座標と車間距離とに基づいて前車の左右方向の位置を算出する。一方、前回の縦エッジの位置と今回の縦エッジの位置とを比較して所定値よりも変化が大きい場合には、パターンマッチングにより最大相関が得られた左右方向座標と車間距離とに基づいて前車の左右方向の位置を算出する。
なお、片側エッジも検出できない場合には、第1の実施の形態のステップ221の処理と同様に、相関が最大となる画像上の座標から前車との車間距離iPy_z0を求める。今回の車間距離iPy_z0と前回の車間距離iPy_z1とを比較し、所定値以上離れている場合は自車のピッチングが生じたと判断できるため、前車との車間距離iPy_z0をその前回値iPy_z1とレーダー1からの相対速度とに基づいて算出し直す。そして、算出した車間距離iPy_z0を用いて前車の左右方向の位置を求める。一方、車間距離の今回値iPy_z0と前回値iPy_z1との差が所定値未満の場合は、今回値iPy_z0を用いて前車との左右方向位置を求める。
また、レーダー1による検知位置、レーダー1がロストした場合には前回の画像による前車検知位置が至近距離と定義する位置よりも近距離でない場合には、第1の実施の形態のステップ221の処理と同様に、相関が最大となる画像上の座標から前車との車間距離iPy_z0を求める。今回の車間距離iPy_z0と前回の車間距離iPy_z1とを比較し、所定値以上離れている場合は自車のピッチングが生じたと判断できるため、前車との車間距離iPy_z0をその前回値iPy_z1とレーダー1からの相対速度とに基づいて算出し直す。一方、車間距離の今回値iPy_z0と前回値iPy_z1との差が所定値未満の場合は今回値iPy_z0を用いて前車との左右方向位置を求める。
ステップ422の処理は図3に示すステップ322の処理と同様であり、説明を省略する。ステップ423ではパターンマッチングで車両を検出できなくても次の条件を満たす場合には車両位置の算出と基準パターンの更新を行う。
ここで扱う車間距離は、前回の画像による前車検知位置を相対速度で補間した位置とする。縦エッジを片側1本も検出できない、あるいは前車との車間距離が所定値以上の場合には、画像追跡フラグIP_Trackingを“0”(非追跡中)、画像追跡処理フラグIP_Stateを“0”(パターンマッチング)とし、ステップ424へ進む。一方、縦エッジを片側1本検出できる場合には、検出した片側エッジの水平方向座標と、前回検出した前方車両の幅と(ステップ409)、車間距離とに基づいて検出できなかった方の縦エッジの左右方向座標を算出し、左右端エッジの左右方向座標と車間距離を用いて前方車両の左右方向の位置を算出する。そして、ステップ217と同様に基準パターン領域を更新した後、画像追跡フラグIP_Trackingを“1”(追跡中)、画像処理フラグIP_State=0にセットしてステップ424へ進む。
ステップ424では車両との相対速度を算出する。ステップ425の処理は、図3のステップ324の処理と同様であり、説明を省略する。
《発明の第4の実施の形態》
上述した第2の実施の形態では至近距離精度の低いレーザーレーダーを用いて至近距離でもエッジ検出に基づく車両検知を行う例を示したが、近距離測距精度の高いレーダー、例えば24GHz電波レーダーや超音波レーダーなどを用いた第4の実施の形態を説明する。なお、この第4の実施の形態の構成は図1に示す第1の実施の形態の構成と同様であり、図示と説明を省略する。
図5は第4の実施の形態の車両検出処理を示すフローチャートである。このフローチャートにより、第4の実施の形態の動作を説明する。外界認識装置5は所定時間(この第1の実施の形態では33msec)ごとにこの車両検出処理を実行する。ステップ501〜520における処理は図4に示すステップ401〜420の処理と同様であり、説明を省略する。
ステップ521では次のように車両の位置を算出する。検知した片側エッジの座標と、パターンマッチングによる最大相関座標における左右方向座標に基づいて、検知できなかった方の縦エッジ座標を求める。次に、左右縦エッジペアの間隔と、初回抽出(ステップ509)で求めた前車の幅Iw[m]に基づいて車両の車間距離方向の位置を求める。そして、前回の縦エッジの位置と今回の縦エッジの位置とを比較して所定値よりも変化が小さい場合には、今回の縦エッジペアの中心左右方向座標と車間距離とに基づいて前車の左右方向の位置を算出する。一方、前回の縦エッジの位置と今回の縦エッジの位置とを比較して所定値よりも変化が大きい場合には、パターンマッチングによる最大相関座標における左右方向座標と車間距離とに基づいて前車の左右方向の位置を算出する。
なお、片側エッジも検出できない場合には、今回読み込んだレーダー検知結果からレーダー1がロストしているか否かを確認し、ロストしていない場合には画像における車間距離にレーダー検知結果の車間距離を設定し、パターンマッチングで最大相関が得られた左右方向座標とレーダーの車間距離とに基づいて前車の左右方向の位置を算出し、ステップ522へ進む。一方、レーダー1がロストしている場合は画像での車間距離をパターンマッチングで最大相関が得られた鉛直座標に基づいて算出し、この車間距離と前回の車間距離との差が所定値以上離れている場合は、画像における車間距離を前回の車間距離と前回の相対速度とに基づいて算出し直す。そして、これまでに算出した車間距離と、パターンマッチングで最大相関が得られた水平方向座標に基づいて前車の左右方向位置を算出し、ステップ522へ進む。
また、レーダー検知位置、レーダーがロストした場合には前回の画像検知位置が至近距離と定義する位置よりも近距離でない場合には、今回読み込んだレーダー検知結果からレーダー1がロストしているか否かを確認し、ロストしていない場合には画像における車間距離にレーダー検知結果の車間距離を設定し、画像での横位置をパターンマッチングで最大相関が得られた左右方向座標とレーダーの車間距離とに基づいて算出し、ステップ522へ進む。一方、レーダー1がロストしている場合は画像での車間距離をパターンマッチングで最大相関が得られた鉛直座標に基づいて算出し、この車間距離と前回の車間距離との差が所定値以上離れている場合は、画像における車間距離を前回の車間距離と前回の相対速度とに基づいて算出し直す。そして、これまでに算出した車間距離と、パターンマッチングで最大相関が得られた水平方向座標に基づいて画像での横位置を算出し、ステップ422へ進む。
ステップ522の処理は図4のステップ422の処理と同様であり、説明を省略する。ステップ523では、パターンマッチングで車両を検出できなくても下記の条件を満たす場合には、車両位置の算出と基準パターンの更新を行う。ここで扱う画像での車間距離とは、今回読み込んだレーダー検知位置情報における車間距離とする。縦エッジを片側1本も検出できない、あるいは前車との車間距離が所定値以上離れている場合には、画像追跡フラグIP_Trackingを“0”(非追跡中)とし、画像処理フラグIP_Stateを“0”(パターンマッチング)としてステップ524へ進む。一方、縦エッジを片側1本検出できた場合は、検出した片側エッジ座標と前回の車両の幅と車間距離に基づいて、検出できなかった方の縦エッジの左右方向座標を算出し、左右端エッジの左右方向座標と車間距離を用いて左右方向の位置を算出する。そして、図2のステップ217と同様に基準パターン領域を更新し、画像追跡フラグIP_Trackingを“1”(追跡中)とし、画像処理フラグIP_Stateを“0”(パターンマッチング)としてステップ524へ進む。
ステップ524では車両との相対速度を算出する。今回算出された画像での車間距離と、前回算出した画像での車間距離を相対速度で補間した距離とを比較し、所定値以上離れていない場合は車間距離の今回値、前回値および前々回値と相対速度の前回値および前々回値とを用いて画像での相対速度を算出し、ステップ525へ進む。一方、車間距離差が所定値以上離れている場合は相対速度を算出せず、そのままステップ525へ進むか、または相対速度の今回値から前々回値までをゼロクリアする。ステップ525の処理は図4のステップ424の処理と同様であり、説明を省略する。
このように一実施の形態によれば、レーザーレーダー1およびレーダー処理装置2により検出した前方車両の位置に基づいてカメラ3および画像処理装置4の撮像画像上に画像処理領域を設定し、撮像画像の内の画像処理領域の画像を処理して前方車両を検出し、検出した前方車両の位置を算出する車両用画像処理装置において、前方車両の左右端に対応する一対の縦エッジを検出して前方車両を検出する第1の手法と、予め記憶した前方車両の基準パターンを用いてパターンマッチングにより前方車両を検出する第2の手法とを有し、レーザーレーダー1およびレーダー処理装置2により検出した前方車両の位置が自車から所定距離以下の接近状態にあるときは、第1の手法と第2の手法とにより前方車両の位置を算出するようにしたので、前方車両の位置検出精度と追跡の頑強性(信頼性)を向上させることができる。
また、一実施の形態によれば、上記第1の手法により前方車両の左右端に対応する一対の縦エッジエッジが検出された場合にのみ、その一対の縦エッジの位置を中心としたカメラ3および画像処理装置4による撮像画像の所定面積の領域を基準パターンとして記憶するようにしたので、上記第2の手法で前方車両を誤って検出する頻度を少なくすることができる。
また、一実施の形態によれば、レーザーレーダー1およびレーダー処理装置2により検出した前方車両の位置が自車から所定距離以下の接近状態にあるときは、前方車両の中央部分を含む所定面積よりも狭い領域の画像を基準パターンとして記憶するようにしたので、自車が前方車両に接近して前方車両がカメラ3の撮像画面からはみ出た場合でも、上記第2の手法により前方車両を頑強に追跡できる。また、撮像画像上の前方車両の面積が大きくなった場合でも、画像処理負荷を軽減できる。
一実施の形態によれば、レーザーレーダー1およびレーダー処理装置2により検出した前方車両の位置が自車から所定距離以下の接近状態にあって、上記第1の手法で前方車両の左端または右端に対応する片方の縦エッジしか検出されず、かつ、上記第2の手法で前方車両を検出した場合には、上記第1の手法で検出した片方の縦エッジの位置と上記第2の手法で検出した前方車両の位置とに基づいて他方の縦エッジの自車左右方向の位置を求め、前方車両の左右端に対応する一対の縦エッジの間隔とレーザーレーダー1およびレーダー処理装置2により検出した前方車両の位置とに基づいて前方車両の自車前後方向の位置を算出するようにしたので、自車のピッチング変動やバウンス、あるいは路面勾配による影響を受けずに、自車前後方向の前方車両位置を正確に検出することができる。また、画像処理により自車前後方向の前方車両位置を正確に検出できるので、24GHz電波レーダーや超音波レーダーなどの高性能なレーダーを用いる必要がない。
一実施の形態によれば、一対の縦エッジの中心左右方向位置とレーザーレーダー1およびレーダー処理装置2により検出した前方車両までの車間距離とに基づいて、前方車両の自車左右方向の位置を算出するようにしたので、自車のピッチング変動やバウンス、あるいは路面勾配による影響を受けずに、自車左右方向の前方車両位置を正確に検出できる。
一実施の形態によれば、上記第2の手法により検出された前方車両の自車左右方向の位置とレーザーレーダー1およびレーダー処理装置2により検出した前方車両までの車間距離とに基づいて、前方車両の自車左右方向の位置を算出するようにしたので、自車のピッチング変動やバウンス、あるいは路面勾配による影響を受けずに、自車左右方向の前方車両位置を正確に検出できる。
一実施の形態によれば、レーザーレーダー1およびレーダー処理装置2により検出した前方車両の位置が自車から所定距離以下の接近状態にあって、上記第1の手法で前方車両の左端または右端に対応する片方の縦エッジしか検出されず、かつ、上記第2の手法で前方車両を検出できなかった場合には、検出した片方の縦エッジの自車左右方向の位置と、前回検出した前方車両の幅と、レーザーレーダー1およびレーダー処理装置2により検出した前方車両までの車間距離とに基づいて他方の縦エッジの自車左右方向の位置を求め、一対の縦エッジの自車左右方向の位置と車間距離とに基づいて前方車両の自車左右方向の位置を算出するようにしたので、上記第1の手法で前方車両の左端または右端に対応する片方の縦エッジしか検出されず、かつ、上記第2の手法で前方車両を検出できなかった場合でも、前方車両の自車左右方向の位置を正確に検出できる。
一実施の形態によれば、レーザーレーダー1およびレーダー処理装置2により検出した前方車両の位置が自車から所定距離以下の接近状態にあって、上記第1の手法で前方車両の左右端に対応する一対の縦エッジがどちらも検出されず、かつ、上記第2の手法で前方車両を検出できた場合には、レーザーレーダー1およびレーダー処理装置2により検出した前方車両位置の時間変化により前方車両との相対速度を算出するとともに、この相対速度により上記第2の手法により検出した前方車両との車間距離を補正し、補正後の車間距離に基づいて前方車両の自車左右方向の位置を算出するようにしたので、上記第1の手法で前方車両の左右端に対応する一対の縦エッジがどちらも検出されなかった場合でも、前方車両の自車左右方向の位置を正確に検出できる。
一実施の形態によれば、近距離を高精度に測距可能なレーダーを有し、この高性能レーダーにより検出した前方車両の位置が自車から所定距離以下の接近状態にあって、上記第1の手法で前方車両の左右端に対応する一対の縦エッジがどちらも検出されず、かつ、上記第2の手法で前方車両を検出できた場合には、高性能レーダーにより検出した前方車両までの車間距離と上記第2の手法で検出した前方車両の自車左右方向の位置とに基づいて前方車両の位置を算出するようにしたので、高性能レーダーにより自車前後方向の前方車両位置が正確に検出され、画像処理により自車左右方向の前方車両位置が正確に検出されて、前方車両の位置を正確に検出できる。
一実施の形態によれば、レーザーレーダー1およびレーダー処理装置2により検出した前方車両の位置が自車から所定距離以下の接近状態にあって、上記第1の手法で前方車両の左端または右端に対応する片方の縦エッジしか検出されなくても、片方の縦エッジの位置を中心としたカメラ3および画像処理装置4による撮像画像の所定面積の領域を基準パターンとして記憶するようにしたので、至近距離に存在する前方車両が撮像画面からはみ出た場合でも、上記第2の手法により頑強に前方車両を追跡することができる。
一実施の形態によれば、レーザーレーダー1およびレーダー処理装置2により検出した前方車両の位置が自車から所定距離以下の接近状態にあって、上記第1の手法で前方車両の左端または右端に対応する片方の縦エッジしか検出されず、かつ上記第2の手法で前方車両を検出できた場合には、上記第2の手法で検出した前方車両の位置に基づいて他方の縦エッジの位置を推定し、一対の縦エッジの位置を中心としたカメラ3および画像処理装置4による撮像画像の所定面積の領域を基準パターンとして記憶するようにしたので、至近距離に存在する前方車両が撮像画面からはみ出た場合でも、上記第2の手法により頑強に前方車両を追跡することができ、また、誤追跡する頻度を低減できる。
特許請求の範囲の構成要素と一実施の形態の構成要素との対応関係は次の通りである。すなわち、カメラ3および画像処理装置4が撮像手段を、レーザーレーダー1およびレーダー処理装置2が位置検出手段を、外界認識装置5が領域設定手段および位置算出手段をそれぞれ構成する。なお、本発明の特徴的な機能を損なわない限り、各構成要素は上記構成に限定されるものではない。
第1の実施の形態の構成を示す図である。 第1の実施の形態の車両検出処理を示すフローチャートである。 第2の実施の形態の車両検出処理を示すフローチャートである。 第3の実施の形態の車両検出処理を示すフローチャートである。 第4の実施の形態の車両検出処理を示すフローチャートである。
符号の説明
1 レーザーレーダー
2 レーダー処理装置
3 カメラ
4 画像処理装置
5 外界認識装置
6 車速検出装置
7 操舵角検出装置
8 自動ブレーキ制御装置
9 負圧ブレーキブースター

Claims (11)

  1. 自車前方を撮像する撮像手段と、
    自車に対する前方車両の位置を検出する位置検出手段と、
    前記位置検出手段により検出した前方車両の位置に基づいて、前記撮像手段の撮像画像上に画像処理領域を設定する領域設定手段と、
    前記撮像手段による撮像画像の内の前記領域設定手段により設定した画像処理領域の画像を処理して前方車両を検出し、検出した前方車両の位置を算出する位置算出手段とを備えた車両用画像処理装置において、
    前記位置算出手段は、前方車両の左右端に対応する一対の縦エッジを検出して前方車両を検出する第1の手法と、予め記憶した前方車両の基準パターンを用いてパターンマッチングにより前方車両を検出する第2の手法とを有し、前記位置検出手段により検出した前方車両の位置が自車から所定距離以下の接近状態にあるときは、前記第1の手法と前記第2の手法とにより前方車両の位置を算出することを特徴とする車両用画像処理装置。
  2. 請求項1に記載の車両用画像処理装置において、
    前記位置算出手段は、前記第1の手法により前方車両の左右端に対応する一対の縦エッジエッジが検出された場合にのみ、その一対の縦エッジの位置を中心とした前記撮像手段による撮像画像の所定面積の領域を前記基準パターンとして記憶することを特徴とする車両用画像処理装置。
  3. 請求項2に記載の車両用画像処理装置において、
    前記位置算出手段は、前記位置検出手段により検出した前方車両の位置が自車から所定距離以下の接近状態にあるときは、前方車両の中央部分を含む前記所定面積よりも狭い領域の画像を前記基準パターンとして記憶することを特徴とする車両用画像処理装置。
  4. 請求項1〜3のいずれかの項に記載の車両用画像処理装置において、
    前記位置算出手段は、前記位置検出手段により検出した前方車両の位置が自車から所定距離以下の接近状態にあって、前記第1の手法で前方車両の左端または右端に対応する片方の縦エッジしか検出されず、かつ、前記第2の手法で前方車両を検出した場合には、前記第1の手法で検出した片方の縦エッジの位置と前記第2の手法で検出した前方車両の位置とに基づいて他方の縦エッジの自車左右方向の位置を求め、前方車両の左右端に対応する一対の縦エッジの間隔と前記位置検出手段により検出した前方車両の位置とに基づいて前方車両の自車前後方向の位置を算出することを特徴とする車両用画像処理装置。
  5. 請求項4に記載の車両用画像処理装置において、
    前記位置算出手段は、一対の縦エッジの中心左右方向位置と前記位置検出手段により検出した前方車両までの車間距離とに基づいて、前方車両の自車左右方向の位置を算出することを特徴とする車両用画像処理装置。
  6. 請求項4に記載の車両用画像処理装置において、
    前記位置算出手段は、前記第2の手法により検出された前方車両の自車左右方向の位置と前記位置検出手段により検出した前方車両までの車間距離とに基づいて、前方車両の自車左右方向の位置を算出することを特徴とする車両用画像処理装置。
  7. 請求項1〜3のいずれかの項に記載の車両用画像処理装置において、
    前記位置算出手段は、前記位置検出手段により検出した前方車両の位置が自車から所定距離以下の接近状態にあって、前記第1の手法で前方車両の左端または右端に対応する片方の縦エッジしか検出されず、かつ、前記第2の手法で前方車両を検出できなかった場合には、検出した片方の縦エッジの自車左右方向の位置と、前回検出した前方車両の幅と、前記位置検出手段により検出した前方車両までの車間距離とに基づいて他方の縦エッジの自車左右方向の位置を求め、一対の縦エッジの自車左右方向の位置と車間距離とに基づいて前方車両の自車左右方向の位置を算出することを特徴とする車両用画像処理装置。
  8. 請求項1〜3のいずれかの項に記載の車両用画像処理装置において、
    前記位置算出手段は、前記位置検出手段により検出した前方車両の位置が自車から所定距離以下の接近状態にあって、前記第1の手法で前方車両の左右端に対応する一対の縦エッジがどちらも検出されず、かつ、前記第2の手法で前方車両を検出できた場合には、前記位置検出手段により検出した前方車両位置の時間変化により前方車両との相対速度を算出するとともに、この相対速度により前記第2の手法により検出した前方車両との車間距離を補正し、補正後の車間距離に基づいて前方車両の自車左右方向の位置を算出することを特徴とする車両用画像処理装置。
  9. 請求項1〜3のいずれかの項に記載の車両用画像処理装置において、
    前記位置検出手段は近距離を高精度に測距可能なレーダーを有し、
    前記位置算出手段は、前記位置検出手段により検出した前方車両の位置が自車から所定距離以下の接近状態にあって、前記第1の手法で前方車両の左右端に対応する一対の縦エッジがどちらも検出されず、かつ、前記第2の手法で前方車両を検出できた場合には、前記位置検出手段により検出した前方車両までの車間距離と前記第2の手法で検出した前方車両の自車左右方向の位置とに基づいて前方車両の位置を算出することを特徴とする車両用画像処理装置。
  10. 請求項1〜3のいずれかの項に記載の車両用画像処理装置において、
    前記位置算出手段は、前記位置検出手段により検出した前方車両の位置が自車から所定距離以下の接近状態にあって、前記第1の手法で前方車両の左端または右端に対応する片方の縦エッジしか検出されなくても、片方の縦エッジの位置を中心とした前記撮像手段による撮像画像の所定面積の領域を前記基準パターンとして記憶することを特徴とする車両用画像処理装置。
  11. 請求項1〜3のいずれかの項に記載の車両用画像処理装置において、
    前記位置算出手段は、前記位置検出手段により検出した前方車両の位置が自車から所定距離以下の接近状態にあって、前記第1の手法で前方車両の左端または右端に対応する片方の縦エッジしか検出されず、かつ前記第2の手法で前方車両を検出できた場合には、前記第2の手法で検出した前方車両の位置に基づいて他方の縦エッジの位置を推定し、一対の縦エッジの位置を中心とした前記撮像手段による撮像画像の所定面積の領域を前記基準パターンとして記憶することを特徴とする車両用画像処理装置。
JP2004229598A 2004-08-05 2004-08-05 車両用画像処理装置 Expired - Fee Related JP4052291B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004229598A JP4052291B2 (ja) 2004-08-05 2004-08-05 車両用画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004229598A JP4052291B2 (ja) 2004-08-05 2004-08-05 車両用画像処理装置

Publications (2)

Publication Number Publication Date
JP2006048435A true JP2006048435A (ja) 2006-02-16
JP4052291B2 JP4052291B2 (ja) 2008-02-27

Family

ID=36026909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004229598A Expired - Fee Related JP4052291B2 (ja) 2004-08-05 2004-08-05 車両用画像処理装置

Country Status (1)

Country Link
JP (1) JP4052291B2 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007255978A (ja) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd 物体検出方法および物体検出装置
EP2045623A1 (en) 2007-09-28 2009-04-08 Hitachi, Ltd. Vehicle detection apparatus
WO2013047083A1 (ja) * 2011-09-28 2013-04-04 沖電気工業株式会社 画像処理装置、画像処理方法、プログラム、および画像処理システム
KR101374653B1 (ko) * 2012-02-16 2014-03-24 팅크웨어(주) 차량의 움직임을 검출하는 장치 및 방법
KR101448506B1 (ko) * 2012-12-13 2014-10-08 현대오트론 주식회사 선행차량의 거동을 이용한 주행 차로의 곡률 측정 방법 및 장치
WO2015028860A2 (en) 2013-08-26 2015-03-05 Toyota Jidosha Kabushiki Kaisha In-vehicle control device
US9434336B2 (en) 2014-05-12 2016-09-06 Hyundai Motor Company Method for unfolding external air bag
WO2016169685A1 (de) * 2015-04-22 2016-10-27 Robert Bosch Gmbh Verfahren und vorrichtung zum überwachen eines bereichs vor einem fahrzeug
WO2017170799A1 (ja) * 2016-03-31 2017-10-05 株式会社デンソー 物体認識装置及び物体認識方法
CN107750213A (zh) * 2015-05-26 2018-03-02 Plk科技株式会社 前方车辆碰撞报警装置及报警方法
CN108322636A (zh) * 2017-12-29 2018-07-24 吉林大学 一种基于机器视觉的车速估计器、车辆及估计方法
KR101916471B1 (ko) * 2012-12-12 2018-11-07 현대자동차주식회사 후방 차량 경보 시스템 및 그 방법
US10192122B2 (en) 2014-08-21 2019-01-29 Mitsubishi Electric Corporation Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program
US10410072B2 (en) 2015-11-20 2019-09-10 Mitsubishi Electric Corporation Driving support apparatus, driving support system, driving support method, and computer readable recording medium
JPWO2018151211A1 (ja) * 2017-02-15 2019-12-12 トヨタ自動車株式会社 点群データ処理装置、点群データ処理方法、点群データ処理プログラム、車両制御装置及び車両
WO2019238127A1 (zh) * 2018-06-15 2019-12-19 杭州海康威视数字技术股份有限公司 一种测距方法、装置及系统
CN112130153A (zh) * 2020-09-23 2020-12-25 的卢技术有限公司 基于毫米波雷达和摄像头实现无人驾驶汽车边缘检测方法

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007255978A (ja) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd 物体検出方法および物体検出装置
EP2045623A1 (en) 2007-09-28 2009-04-08 Hitachi, Ltd. Vehicle detection apparatus
US9489565B2 (en) 2011-09-28 2016-11-08 Oki Electric Industry Co., Ltd. Image processing apparatus, image processing method, program, and image processing system
WO2013047083A1 (ja) * 2011-09-28 2013-04-04 沖電気工業株式会社 画像処理装置、画像処理方法、プログラム、および画像処理システム
JP2013073459A (ja) * 2011-09-28 2013-04-22 Oki Electric Ind Co Ltd 画像処理装置、画像処理方法、プログラム、および画像処理システム
KR101374653B1 (ko) * 2012-02-16 2014-03-24 팅크웨어(주) 차량의 움직임을 검출하는 장치 및 방법
KR101916471B1 (ko) * 2012-12-12 2018-11-07 현대자동차주식회사 후방 차량 경보 시스템 및 그 방법
KR101448506B1 (ko) * 2012-12-13 2014-10-08 현대오트론 주식회사 선행차량의 거동을 이용한 주행 차로의 곡률 측정 방법 및 장치
WO2015028860A2 (en) 2013-08-26 2015-03-05 Toyota Jidosha Kabushiki Kaisha In-vehicle control device
KR101840144B1 (ko) * 2013-08-26 2018-03-19 도요타 지도샤(주) 차재 제어 장치
US9751528B2 (en) 2013-08-26 2017-09-05 Toyota Jidosha Kabushiki Kaisha In-vehicle control device
US9434336B2 (en) 2014-05-12 2016-09-06 Hyundai Motor Company Method for unfolding external air bag
US10192122B2 (en) 2014-08-21 2019-01-29 Mitsubishi Electric Corporation Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program
CN107533133A (zh) * 2015-04-22 2018-01-02 罗伯特·博世有限公司 用于监视车辆前方的区域的方法和设备
US20180105169A1 (en) * 2015-04-22 2018-04-19 Robert Bosch Gmbh Method and device for monitoring an area ahead of a vehicle
CN107533133B (zh) * 2015-04-22 2021-09-07 罗伯特·博世有限公司 用于监视车辆前方的区域的方法和设备
US10717436B2 (en) * 2015-04-22 2020-07-21 Robert Bosch Gmbh Method and device for monitoring an area ahead of a vehicle
WO2016169685A1 (de) * 2015-04-22 2016-10-27 Robert Bosch Gmbh Verfahren und vorrichtung zum überwachen eines bereichs vor einem fahrzeug
CN107750213A (zh) * 2015-05-26 2018-03-02 Plk科技株式会社 前方车辆碰撞报警装置及报警方法
US10410072B2 (en) 2015-11-20 2019-09-10 Mitsubishi Electric Corporation Driving support apparatus, driving support system, driving support method, and computer readable recording medium
JP2017181450A (ja) * 2016-03-31 2017-10-05 株式会社デンソー 物体認識装置及び物体認識方法
WO2017170799A1 (ja) * 2016-03-31 2017-10-05 株式会社デンソー 物体認識装置及び物体認識方法
JPWO2018151211A1 (ja) * 2017-02-15 2019-12-12 トヨタ自動車株式会社 点群データ処理装置、点群データ処理方法、点群データ処理プログラム、車両制御装置及び車両
CN108322636A (zh) * 2017-12-29 2018-07-24 吉林大学 一种基于机器视觉的车速估计器、车辆及估计方法
WO2019238127A1 (zh) * 2018-06-15 2019-12-19 杭州海康威视数字技术股份有限公司 一种测距方法、装置及系统
CN112130153A (zh) * 2020-09-23 2020-12-25 的卢技术有限公司 基于毫米波雷达和摄像头实现无人驾驶汽车边缘检测方法

Also Published As

Publication number Publication date
JP4052291B2 (ja) 2008-02-27

Similar Documents

Publication Publication Date Title
US10922561B2 (en) Object recognition device and vehicle travel control system
JP4052291B2 (ja) 車両用画像処理装置
US6670912B2 (en) Method for detecting stationary object located above road
US9313462B2 (en) Vehicle with improved traffic-object position detection using symmetric search
US9053554B2 (en) Object detection device using an image captured with an imaging unit carried on a movable body
US7266454B2 (en) Obstacle detection apparatus and method for automotive vehicle
US7542835B2 (en) Vehicle image processing device
JP5470886B2 (ja) 物体検出装置
JP5012718B2 (ja) 画像処理装置
JP2002352225A (ja) 障害物検出装置及びその方法
EP3282389B1 (en) Image processing apparatus, image capturing apparatus, moving body apparatus control system, image processing method, and program
US20180149740A1 (en) Object detection apparatus and object detection method
JP5098563B2 (ja) 物体検出装置
JP3656056B2 (ja) 割り込み車両検出装置及びその方法
JP4123138B2 (ja) 車両検知方法及び車両検知装置
JP2009139324A (ja) 車両用走行路面検出装置
EP3287948B1 (en) Image processing apparatus, moving body apparatus control system, image processing method, and program
JP2003308599A (ja) 走行路環境検出装置
JP2023068009A (ja) 地図情報作成方法
JP4348937B2 (ja) 車両用外界認識装置
WO2024150471A1 (ja) 画像処理装置及び画像処理方法
WO2023068034A1 (ja) 画像処理装置
JP2005149250A (ja) 車両検出方法及び車両検出装置
JP4397164B2 (ja) 障害物検出装置及び障害物検出方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111214

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121214

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121214

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131214

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees