JP2005010891A - Vehicular road shape recognition system - Google Patents

Vehicular road shape recognition system Download PDF

Info

Publication number
JP2005010891A
JP2005010891A JP2003171749A JP2003171749A JP2005010891A JP 2005010891 A JP2005010891 A JP 2005010891A JP 2003171749 A JP2003171749 A JP 2003171749A JP 2003171749 A JP2003171749 A JP 2003171749A JP 2005010891 A JP2005010891 A JP 2005010891A
Authority
JP
Japan
Prior art keywords
road shape
detected
shape recognition
vehicle
roadside structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003171749A
Other languages
Japanese (ja)
Inventor
Migaku Takahama
琢 高浜
Takeshi Kimura
健 木村
Kazumi Fujimoto
和巳 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003171749A priority Critical patent/JP2005010891A/en
Publication of JP2005010891A publication Critical patent/JP2005010891A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To recognize a road shape continuously stably in a vehicle designed to recognize a road shape by means of an electromagnetic radar such as a laser. <P>SOLUTION: The shape of a road ahead of an associated vehicle is recognized according to position information on objects that are candidates for roadside structures forming the shape of the road ahead of the vehicle out of forward objects detected by a forward object sensor and post-detection position information on roadside structure candidate objects out of forward objects no longer detected by the forward object sensor. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、例えばレーザ等の電磁波レーダを用いて、道路形状を認識するようにした車両用道路形状認識装置に関する。
【0002】
【従来の技術】
従来の車両用道路形状認識装置としては、自車速と前方物体との相対速度から検出物体が停止物であるか否かを判断し、3つ以上の停止物体を検出した場合に限って、各停止物体の構成セグメント間を補間することで道路左右端を線分の集合として認識し、道路と自車両との横方向距離を算出するというものが知られている(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開2001−256600号公報(第8頁、第6図)
【0004】
【発明が解決しようとする課題】
しかしながら、上記従来の車両用道路形状認識装置にあっては、3つ以上の検出停止物体に基づいて道路形状を認識するようにしているので、道路曲率半径が緩い場合等、レーダの検出視野角内で検知できる停止物体の数が少ない場合には、道路形状を認識することができないという未解決の課題がある。
そこで、本発明は、上記従来例の未解決の課題に着目してなされたものであり、常に安定して道路形状を認識することが可能な車両用道路形状認識装置を提供することを目的としている。
【0005】
【課題を解決するための手段】
上記目的を達成するために、本発明に係る車両用道路形状認識装置は、前方物体検出手段で自車両前方の物体を検出し、道路形状認識手段で、前記前方物体検出手段で検出中の前方物体のうち、自車両が走行している道路形状を形成する路側構造物候補である物体の位置情報と、前記前方物体検出手段で検出している状態から非検出状態となった前方物体のうち、路側構造物候補である物体の非検出後の位置情報とに基づいて、自車走行中の道路形状を認識する。
【0006】
【発明の効果】
本発明によれば、レーダ等の自車両前方の物体を検出するためのセンサで検出している複数の前方物体のうち、道路形状を構成する路側構造物候補である物体の位置情報と、センサで検出している状態から非検出状態となった前方物体のうち、路側構造物候補である物体の位置情報とに基づいて道路形状を認識するので、センサで検出している状態から非検出状態となった物体に関しては、例えば仮想的にレーダ視野角を広角化することで、検知中の路側構造物候補の数が少ない場合でも確実に道路形状を把握することができるという効果が得られる。
【0007】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて説明する。
図1は本発明を後輪駆動車に適用した場合の実施形態を示す概略構成図であり、図中、1FL,1FRは従動輪としての前輪、1RL,1RRは駆動輪としての後輪であって、後輪1RL,1RRは、エンジン2の駆動力が自動変速機3、プロペラシャフト4、最終減速装置5及び車軸6を介して伝達されて回転駆動される。
【0008】
前輪1FL,1FR及び後輪1RL,1RRには、夫々制動力を発生する例えばディスクブレーキで構成されるブレーキアクチュエータ7が設けられていると共に、これらブレーキアクチュエータ7の制動油圧が制動制御装置8によって制御される。
ここで、制動制御装置8は、図示しないブレーキペダルの踏込みに応じて制動油圧を発生すると共に、後述するブレーキ制御用コントローラ19からの制動圧指令値PBRに応じて制動油圧を発生し、これをブレーキアクチュエータ7に出力するように構成されている。
【0009】
また、エンジン2には、その出力を制御するエンジン出力制御装置11が設けられている。このエンジン出力制御装置11では、図示しないアクセルペダルの踏込量及び後述するブレーキ制御用コントローラ19からのスロットル開度指令値θに応じてエンジン2に設けられたスロットル開度を調整するスロットルアクチュエータ12を制御するように構成されている。
【0010】
また、自動変速機3の出力側に配設された出力軸の回転速度を検出することにより、自車速Vを検出する車速センサ13が配設されている。
一方、車両の前方側の車体下部には、前方物体検出手段としての前方物体センサ14が設けられている。この前方物体センサ14は、スキャニング式のレーザレーダで構成され、一定角度ずつ水平方向にずれながら周期的に車両の前方方向に所定の照射範囲内で細かいレーザ光を照射し、前方物体から反射して戻ってくる反射光を受光して、出射タイミングから反射光の受光タイミングまでの時間差に基づいて、各角度における自車両と前方物体との間の相対距離(横方向Px、縦方向Py)、前方物体の幅W及び相対速度Vrを検出する。
【0011】
さらに、この車両には、図示しないステアリングホイールの操舵角δを検出する操舵角センサ17が備えられ、この検出信号は外界認識コントローラ20に入力される。
そして、車速センサ13から出力される自車速Vと前方物体センサ14から出力される相対距離Px、Py、前方物体の幅W、相対速度Vr、操舵角センサ17から出力される操舵角δとが外界認識コントローラ20に入力され、この外界認識コントローラ20によって、前方物体センサ14で検出している停止物体について道路形状を形成する路側構造物候補として許可するか否かを判断し、路側構造物候補として許可した物体が前方物体センサ14で検出している状態から検出しない状態となったときに、非検出となる前の物体位置情報を初期位置として自車速V及び操舵角δに基づいて非検出後の物体位置情報を推定、所謂補外し、前方物体センサ14で検出中の路側構造物候補の物体位置情報、及び非検出中の路側構造物候補の補外処理結果に基づいて自車走行中の道路形状を表す道路形状近似式を算出する。
【0012】
ブレーキ制御用コントローラ19では、外界認識コントローラ20によって算出された道路形状に基づいて、前方物体センサ14で検出した各物体が自車両にとって制動回避すべき障害物であるか否かを判断し、制動回避すべきであると判断されたときに所定の制動圧指令値PBRを制動制御装置8に出力して自車両の自動ブレーキ制御を行う。
【0013】
次に、第1の実施形態の動作を外界認識コントローラ20で実行する路側構造物候補判断処理手順を示す図2を伴って説明する。
この路側構造物候補判断処理は、所定時間(例えば100msec)毎のタイマ割込処理として実行され、先ず、ステップS1で、前方物体センサ14で検出した相対距離Px、Py、前方物体の幅W及び相対速度Vr、車速センサ13で検出した自車速V、操舵角センサ17で検出した操舵角δを読込む。ここで、前方物体との相対距離Px、Py、前方物体の幅W及び相対速度Vrは、物体のIDに相当する番号順に並んだ配列変数として管理され、例えば、ID=1の物体はPy[1]、ID=3の物体はPy[3]となる。
【0014】
次にステップS2に移行して、検出中の各物体が停止物であるか否かを判定する。この判定は自車速Vと物体との相対速度Vrによって行い、V≒Vrであるときに、この物体は停止物体であると判断する。そして、検知物体が停止物であるときにはステップS3に移行してその物体の停止物フラグFStopObjを“1”にセットし、停止物でないときにはステップS4に移行してその物体の停止物フラグFStopObjを“0”にリセットする。
【0015】
次にステップS5で、検出中の各物体の連続検知時間を意味するカウント値Tcを設定する。前回のサンプリングで検知した物体と同じ物体を、今回のサンプリングでも検知している場合には、その物体の連続検知時間を意味するカウント値Tcをインクリメントする。また、今回のサンプリングで初めて検知した物体に対しては、連続検知時間を意味するカウント値Tc及び路側構造物候補フラグFIntpをゼロクリアして路側構造物候補として許可していない状態にセットする。
【0016】
次にステップS6で、自車速V及び操舵角δに基づいて、下記(1)式をもとに自車両のヨーレートφ′及びスリップ角度βを算出し、ステップS7に移行する。
{mVs+2(Kf+Kr)}β(s)+{mV+2(lf・Kf−lr・Kr)/V}φ′(s)=2Kf・δ(s)
2(lf・Kf−lr・Kr)β(s)+{Is+2(lf・Kf−lr・Kr)/V}φ′(s)=2lf・Kf・δ(s) ………(1)
【0017】
ここで、mは車重、Kf、Krはそれぞれ前後輪タイヤのコーナリングパワー、lf、lrはそれぞれ前輪から重心までの距離と後輪から重心までの距離、Iは車両中心旋回慣性、sはラプラス演算子である。
ステップS7では、検出中の各物体に対して、停止物体であり且つ連続検知時間を意味するカウント値Tcが予め設定した所定の連続検知時間閾値TcTHより大きいか否かを判定する。そして、FStopObj=1且つTc>TcTHであるときには、この物体は連続検知中の停止物体であると判断してステップS8に移行し、FStopObj=0又はTc≦TcTHであるときには後述するステップS15に移行する。
【0018】
ステップS8では、連続検知中の停止物体のうち路側構造物候補として許可している物体の個数と、非検出中の路側構造物候補のうち、非検出後の物体位置情報推定処理を行っている物体、即ち補外処理中の物体の個数を算出し、それぞれ道路形状を認識する際に必要な物体数NUMTH以下であるか否かを判定する。そして、GetNo(Py)≦NUMTH且つGetNo(PyIntp)≦NUMTHであるときにはステップS9に移行し、GetNo(Py)>NUMTH又はGetNo(PyIntp)>NUMTHであるときには後述するステップS15に移行する。
【0019】
ここで、GetNo( )は括弧内の配列変数において、現在有効な情報が入っている個数を返す関数、PyIntpは補外処理中の物体位置座標を格納する配列変数である。したがって、GetNo(Py)により連続検知中の停止物体のうち路側構造物候補として許可している物体の個数が算出され、GetNo(PyIntp)により補外処理中の非検出停止物体の個数が算出される。
【0020】
ステップS9では、前記ステップS7及びS8の条件を満足する物体の路側構造物候補フラグFIntpを下記(2)式のように設定する。
Intp[IDchecked]=1 ………(2)
ここで、IDcheckedは前記ステップS7及びS8の条件を満足した検知物のID番号である。
【0021】
次にステップS10で、前方物体センサ14で検出した連続検知中の各停止物体が密集して存在しているか否かを判定する。この判定は、各停止物体を自車両と接近している物体から昇順に並べた際に、各停止物体と所定距離以内に接近している検知物体のID番号群を配列変数IDrangeに代入し、この配列変数IDrangeに格納されている物体の個数が、物体群が密集していると見なせる所定の密集閾値MSTHより大きいか否かで判断する。即ち、GetNo(IDrange)>MSTHであるときには検知物群の位置が密集していると判断してステップS11に移行し、GetNo(IDrange)≦MSTHであるときにはステップS12に移行する。
【0022】
ステップS11では、密集している物体群の中で間引き処理を行う。配列変数IDrangeのID番号群の中で最も自車両に接近している物体と、最も遠方の物体と、密集している物体群の中心に存在する物体のみ路側構造物候補として許可し、これら3つの物体以外の物体に対しては間引き処理を行う。つまり、路側構造物候補フラグFIntpは下記(3)及び(4)式のように設定される。
【0023】
Intp[IDrange_min_cntr_max]=1 ………(3)
Intp[IDrange_remain]=0 ………(4)
ここで、IDrange_min_cntr_maxは配列変数IDrangeのID番号群の中で路側構造物候補として許可する3つの物体のID番号を有するID番号群、IDrange_remainは配列変数IDrangeのID番号群の中でIDrange_min_cntr_max以外の間引かれる物体のID番号を有するID番号群である。
【0024】
ステップS12では、前回までのサンプリングにおいて検出中であり、今回のサンプリングで非検出となった物体の有無を判定する。非検出となった物体が存在し、且つその非検出物体の路側構造物候補フラグFIntpが“1”にセットされている場合にはステップS13に移行し、それ以外の場合には後述するステップS15に移行する。
【0025】
ステップS13では、前記ステップS12の条件を満たす物体の非検出となった原因を判断する。この物体の非検出となる直前の位置が前方物体センサ14の検出視野角端付近であるときには、非検出原因はレーダ視野角から外れたことによるものであると判断する。また、この物体の非検出となる直前の位置情報に基づいて、非検出物体の手前に前方車両等の障害物が存在すると判断したときには、非検出原因は前方車両等の障害物に隠されたことによるものであると判断する。
【0026】
そして、ステップS13の判定結果が、非検出原因がレーダ視野角から外れたことによるものであるか、又は前方車両等の障害物が存在して隠されたことによるものである場合にはステップS14に移行し、それ以外の原因によるものの場合にはステップS15に移行する。
ステップS14では、補外処理物体を格納する配列変数へ、非検出直前の物体位置座標を代入する。
【0027】
PyIntp[IDrearmost]=Py[IDlost_obj] ………(5)
PxIntp[IDrearmost]=Px[IDlost_obj] ………(6)
TcIntp[IDrearmost]=0 ………(7)
ここで、PxIntpとPyIntpは補外処理中の物体位置座標、IDrearmostは補外処理用の変数領域の中で補外処理中のデータが格納されている最後尾のID番号に続くID番号、IDlost_objは今回のサンプリングで非検出となった物体のID番号、TcIntpは補外処理実行時間を意味するカウント値である。
【0028】
次にステップS15で、後述する補外処理用の変数領域に格納されている物体の補外処理を行ってからステップS16に移行し、補外処理中の物体群及び連続検知中の停止物体の位置情報を用いて、道路形状認識処理を行う。
このステップS16では、ステップS15で補外処理した各物体及び連続検知中の各停止物体の物体位置座標に基づいて、これらの道路形状を構成する全ての物体位置を重回帰分析し、下記(8)式で示される道路形状近似線Laの係数a〜cを求めることにより図3に示すような自車両MCの走行道路形状を算出し、タイマ割込処理を終了して所定のメインプログラムに復帰する。
【0029】
X=a+b・Y+c・Y ………(8)
ステップS15の補外処理では、図4に示すように、先ずステップS151で、1サンプリング周期の間に回転する角度_theta2w[rad]、自車両の車輪速度を車幅方向の速度と車間距離方向の速度とに夫々分解した値_Vx2w、_Vy2wを下記(9)〜(11)式をもとに算出すると共に、補外処理用の変数領域に格納されている物体のID番号を意味するループ変数loopを“0”にリセットする。
【0030】
_theta2w=φ′×Ts ………(9)
_Vx2w=V×sin(β) ………(10)
_Vy2w=V×cos(β) ………(11)
ここで、Tsはサンプリング周期0.1sである。
次にステップS152で、路側構造物候補の物体ID番号のループ変数loopが、補外処理用の変数領域の中で補外処理中のデータが格納されている最後尾のID番号に続くID番号IDrearmostより小さいか否かを判定し、loop<IDrearmostであるときにはステップS153に移行し、loop≧IDrearmostであるときには補外処理を終了して所定のメインプログラムに復帰する。
【0031】
ステップS153では、ID番号がloopである補外物体の補外処理実行時間の判定を行い、補外処理実行時間を意味するカウント値TcIntp[loop]が予め設定した補外処理実行時間閾値TcIntpTH以上であるか否かを判断する。ステップS153の判定結果が、TcIntp[loop]<TcIntpTHであるときには、許容実行時間内であると判断してステップS154に移行し、下記(12)及び(13)式をもとに物体位置座標を算出する。
【0032】
PyIntp[loop]=PyIntp[loop]−(_Vy2w×Ts) ………(12)
PxIntp[loop]=PxIntp[loop]−(_Vx2w×Ts+PyIntp[loop]×tan(_theta2w)) ………(13)
このように、補外処理は、相対速度ベクトルのようなノイジーな情報を用いず、正確に検出できる自車運動情報に基づいて行われる。これは、路側構造物として許可した物体は停止物体であるため、非検出前の物体位置を初期位置として自車運動情報のみで物体位置座標の算出、即ち補外処理を行うことができるためである。
【0033】
次にステップS155に移行して、補外処理を行った物体が自車両後方へ通り過ぎたか否かを判定する。この判定は、前記ステップS154で算出した物体位置座標PyIntp[loop]が0より大きいか否かによって行い、PyIntp[loop]≦0であるときには、補外処理を行った物体は自車両後方へ通り過ぎたと判断してステップS156に移行し、下記(14)〜(16)式をもとに補外終了処理を行う。
【0034】
PyIntp[loop]=DObjLost ………(14)
PxIntp[loop]=DObjLost ………(15)
TcIntp[loop]=TcIntpTH ………(16)
【0035】
ここで、DObjLostは補外処理中の物体の処理終了を意味する所定の距離である。
次にステップS157で、ループ変数loopをインクリメントして前記ステップS152に移行する。
一方、前記ステップS153の判定結果が、TcIntp[loop]≧TcIntpTHであるときには、許容実行時間外であると判断してステップS158に移行し、下記(17)〜(19)式をもとに補外終了処理を行ってから前記ステップ157に移行する。
【0036】
PyIntp[loop]=DObjLost ………(17)
PxIntp[loop]=DObjLost ………(18)
TcIntp[loop]=TcIntpTH ………(19)
図2の処理において、ステップS2〜S12の処理が路側構造物候補判断手段に対応し、ステップS13及び図4の処理が位置情報演算手段に対応し、ステップS14の処理が道路形状認識手段に対応している。
【0037】
したがって、今、自車両MCの前方に図5に示すように、先行車両PC及びデリニエータ等の路側停止物体DEが存在しているとする。このとき、前方物体センサ14で物体a〜fを連続検知時間閾値TcTH以上連続検知し、物体b〜fの路側構造物候補フラグFIntpは“1”にセットされて路側構造物として許可しているものとすると、物体aは自車両前方を走行中の先行車両であるので、図2の路側構造物候補判断処理において、ステップS2で物体b〜gが停止物であると判断され、物体b〜fは連続検知中であるので、ステップS7からステップS8に移行して連続検知中の路側構造物候補物体数、及び補外処理中の物体数の判定を行う。仮に道路形状を認識する際に必要な物体数NUMTHを、NUMTH=3であるとすると、GetNo(Py)>NUMTHであるのでステップS8からステップS15に移行して、現在補外処理中の物体位置情報の更新を行う。しかしながら、現在補外処理を行う物体は存在しないので、そのままステップS16に移行して連続検知中の路側構造物候補物体b〜fの物体位置座標に基づいて、前記(8)式をもとに道路形状近似線Laが算出される。
【0038】
この状態から、例えばΔt秒経過し、図6に示すように検出中の物体e及びfが前方物体センサ14の検出視野外となって非検出状態となった場合には、検知中の路側構造物候補物体数は物体b〜dの3つであり、補外処理中の物体数存在しないので、ステップS8でGetNo(Py)≦NUMTH且つGetNo(PyIntp)≦NUMTHとなって、道路形状を認識する際に必要な物体数に達していないと判断してステップS9に移行し、物体b〜dの路側構造物候補フラグFIntpが“1”にセットされる。検知中の停止物体は密集していないため、ステップS10からステップS12に移行し、非検出物体e及びfは前回までのサンプリングで連続検知中であり、路側構造物候補フラグFIntpは“1”にセットされているので、ステップS12からステップS13に移行して、物体e及びfの非検出となった原因を判定する。非検出原因は、前方物体センサ14の検出視野外となることによるものであるので、ステップS14に移行して、前記(5)〜(7)式をもとに、補外処理物体を格納する配列変数PyIntp及びPxIntpへ非検出直前の物体位置座標Py及びPxを代入し、初期位置の設定を行う。これにより、補外処理物体を格納する配列変数PyIntp及びPxIntpには物体e及びfの2つの物体位置座標が格納されることになる。
【0039】
そして、図4の補外処理において、ステップS151でループ変数loopが“0”に初期化され、物体e及びfの補外処理実行時間を意味するカウント値TcIntpは夫々補外処理実行時間閾値TcIntpTHを超えていないので、先ず物体fの物体位置座標であるPyIntp[0]及びPxIntp[0]が、ステップS154で前記(12)及び(13)式をもとに更新される。そして、ステップS157でループ変数loopをインクリメントした後、物体eの物体位置座標であるPyIntp[1]及びPxIntp[1]が、ステップS154で前記(12)及び(13)式をもとに算出される。
【0040】
次いで図2のステップS16で、連続検知中の路側構造物候補物体b〜dの物体位置座標と補外処理中の物体e及びfの物体位置座標に基づいて、前記(8)式をもとに道路形状近似線Laが算出される。
このように、路側構造物候補として許可した物体が前方物体センサ14で検出している状態から検出しない状態となったときに、その物体の非検出後の物体位置情報を算出することで補外処理を行い、連続検知中の路側構造物候補物体の物体位置座標と、補外処理中の非検出物体の物体位置座標とに基づいて道路形状を認識するので、連続検知中の路側構造物候補物体の数が少なくて道路形状認識に必要な物体数に達していない場合であっても、常に安定して道路形状を認識することができる。
【0041】
この状態から、さらにΔt秒経過し、図7に示すように検出中の物体dが前方物体センサ14の検出視野外となって非検出状態となり、さらに補外処理中の物体fが自車両の後方へ通り過ぎた場合には、検知中の路側構造物候補物体数は物体b、cの2つとなり、補外処理中の物体数は物体e、fの2つである。この場合には、非検出物体dは前回までのサンプリングで連続検知中であり、路側構造物候補フラグFIntpは“1”にセットされているので、ステップS12からステップS13に移行して、物体dの非検出原因を判定する。非検出原因は、前方物体センサ14の検出視野外となることによるものであるので、ステップS14に移行して、前記(5)〜(7)式をもとに、補外処理物体を格納する配列変数PyIntp及びPxIntpへ非検出直前の物体位置座標Py及びPxを代入し、初期位置の設定を行う。ここで、現在補外処理中の物体はe及びfの2つであるので、ID番号IDrearmostは“2”となり、補外処理物体を格納する配列変数PyIntp及びPxIntpには物体d〜fの3つの物体位置座標が格納されることになる。
【0042】
そして、図4の補外処理において、ステップS151でループ変数loopが“0”に初期化され、物体d〜fの補外処理実行時間を意味するカウント値TcIntpが夫々補外処理実行時間閾値TcIntpTHを超えていない状態であるとすると、先ず物体fの物体位置座標であるPyIntp[0]及びPxIntp[0]が、ステップS154で前記(12)及び(13)式をもとに更新される。物体fは自車両の後方へ通り過ぎたので、ステップS155で、PyIntp[0]≦0となってステップS156に移行し、物体fの補外終了処理を行う。そして、ステップS157でループ変数loopをインクリメントした後、物体eの物体位置座標であるPyIntp[1]及びPxIntp[1]が、ステップS154で前記(12)及び(13)式をもとに更新され、さらにステップS157でループ変数loopをインクリメントした後、物体dの物体位置座標であるPyIntp[2]及びPxIntp[2]が、ステップS154で前記(12)及び(13)式をもとに設定される。これにより、補外処理中の物体はd及びeの2つとなる。
【0043】
次いで図2のステップS16で、連続検知中の路側構造物候補物体b及びcの物体位置座標と補外処理中の物体d及びeの物体位置座標に基づいて、前記(8)式をもとに道路形状近似線Laが算出される。
また、図5に示すように前方物体センサ14で物体a〜fを連続検知時間閾値TcTH以上連続検知し、物体b〜fの路側構造物候補フラグFIntpを“1”にセットして路側構造物として許可しており、検知中の路側構造物候補物体b〜fの物体位置情報のみで道路形状が認識できる状態であるときに、図8に示すように自車両MCの前方に先行車両PC2が割り込んだとする。
【0044】
この場合には、検知中の物体b〜eが検出できない状態となり、検知中の路側構造物候補物体数は物体fのみとなる。補外処理中の物体数存在しないので、ステップS8でGetNo(Py)≦NUMTH且つGetNo(PyIntp)≦NUMTHとなってステップS9に移行し、物体fの路側構造物候補フラグFIntpが“1”にセットされる。検知中の停止物体は密集していないため、ステップS10からステップS12に移行し、非検出物体b〜eは前回までのサンプリングで連続検知中であり、路側構造物候補フラグFIntpは“1”にセットされているので、ステップS12からステップS13に移行して、物体b〜eの非検出原因を判定する。非検出原因は、先行車両の奥に位置して隠れたことによるものであるので、ステップS14に移行して、前記(5)〜(7)式をもとに、補外処理物体を格納する配列変数PyIntp及びPxIntpへ非検出直前の物体位置座標Py及びPxを夫々代入し、初期位置の設定を行う。これにより、補外処理物体を格納する配列変数PyIntp及びPxIntpには物体b〜eの4つの物体位置座標が格納されることになる。
【0045】
そして、図4の補外処理において、物体b〜eの非検出後の物体位置座標であるPyIntp及びPxIntpが、ステップS154で前記(12)及び(13)式をもとに算出され、図2のステップS16で、連続検知中の路側構造物候補物体fの物体位置座標と補外処理中の物体b〜eの物体位置座標に基づいて、前記(8)式をもとに道路形状近似線Laが算出される。
【0046】
このように、上記実施形態では、連続検知中の停止物体に対して道路形状を形成する路側構造物候補として許可するか否かの判断を行い、路側構造物候補として許可した物体が検出している状態から検出しない状態となったときに、補外処理を実施して非検出後の物体位置情報を算出するので、自車前方物体を検出するためのレーダ視野角が狭くて検知できる路側の反射物数が少ない場合であっても、非検出となった反射物の物体位置情報及び検知中の反射物の物体位置情報に基づいて道路形状を把握することができると共に、実在しない反射物やリフレクタ以外の弱い反射物などを路側構造物候補として許可することがなくなるので、道路形状の認識精度を下げるノイズ情報に影響されることを防止することができる。
【0047】
また、補外処理中の物体数及び連続検知中の路側構造物候補物体数が、道路形状を認識する際に必要な物体数に達するまで、現在検知中の停止物体を路側構造物候補として許可するので、補外処理中の物体数が所定値に達しているときには、補外処理をする物体数を制限して計算負荷を低減することができると共に、デリニエータ等に付いている反射物をかなりの数で検知しており、補外処理物体の位置情報を用いなくても道路形状を算出することが可能であるときには、路側構造物候補として許可しないことにより補外処理に要する計算負荷を無くすことができる。
【0048】
さらに、連続検知中の停止物体が密集して存在している場合には、密集している物体群の中から間引いた残りの物体に対して路側構造物候補として許可するため、補外処理に要する計算負荷を低減することができると共に、道路形状を適切に算出することができる。
また、連続検出中の路側構造物候補物体が検出している状態から検出しない状態となる原因が、少なくとも前方物体を検出するためのレーダ視野角から外れたことによるものである場合、及び前方車両等の障害物の奥に位置して隠されたことによるものである場合に路側構造物候補として許可するので、より確実に安定して検知できる物体にのみ補外処理を実施ことができる。
【0049】
なお、上記実施形態においては、図2の路側構造物候補判断処理のステップS6において、2輪モデルにより前記(1)式をもとにヨーレートとスリップ角を算出する場合について説明したが、これに限定されるものではなく、ヨーレートセンサを適用して直接ヨーレートを検出するようにしてもよく、また、加速度センサを適用して前後加速度及び横加速度の比率からスリップ角を算出するようにしてもよい。
【0050】
また、上記実施形態においては、ステップS7で、検知した物体が停止物体であり且つ連続検知中であるとき、即ちFStopObj=1且つTc>TcTHであるときにステップS8に移行する場合について説明したが、これに限定されるものではなく、検知した物体の幅Wを用いて、FStopObj=1且つTc>TcTH且つW<WTHであるときにステップS8に移行するようにしてもよい。ここで、WTHは検知物体が車両でない小さい物体であることを意味する閾値である。このように、検知した停止物体が車両であるか否かの判断を追加することにより、停止車両をデリニエータ等の路側停止物と誤認識することによる道路形状認識誤差を無くし、より正確な道路形状を算出することができる。
【0051】
さらに、上記実施形態においては、ステップS14で、前記(5)及び(6)式をもとに非検出直前の物体位置を初期位置として設定し、補外処理を行う場合について説明したが、これに限定されるものではなく、下記(20)及び(21)式をもとに初期位置を設定するようにしてもよい。
PyIntp[IDrearmost]=Py_z[IDlost_obj] ………(20)
PxIntp[IDrearmost]=Px_z[IDlost_obj] ………(21)
ここで、Py_z及びPx_zは物体位置座標Py及びPxの1サンプリング周期前の値を意味する配列変数である。このように、路側構造物候補として許可された物体の非検出直前の位置を初期位置として補外処理を行うのではなく、非検出直前よりも少なくとも1サンプリング前の位置を初期位置として補外処理を行うので、特にレーダ視野角から外れて検出できない状態となる場合には、非検出直前における物体位置が乱れやすくなる影響を防止することができる。
【0052】
また、上記実施形態においては、前方物体センサ14としてスキャニング式のレーザレーダを使用した場合について説明したが、これに限定されるものではなく、マイクロ波やミリ波レーダ等の他の測距装置を適用することができる。
さらにまた、上記実施形態においては、後輪駆動車に本発明を適用した場合について説明したが、前輪駆動車に本発明を適用することもでき、また回転駆動源としてエンジン2を適用した場合について説明したが、これに限定されるものではなく、電動モータを適用することもでき、さらには、エンジンと電動モータとを使用するハイブリッド仕様車にも本発明を適用することができる。
【図面の簡単な説明】
【図1】本発明の実施形態を示す概略構成図である。
【図2】本発明の実施形態における外界認識コントローラで実行する路側構造物候補判断処理を示すフローチャートである。
【図3】路側構造物候補物体の位置情報から算出する道路形状近似線の説明図である。
【図4】本発明の実施形態における図2の路側構造物候補判断処理の補外処理を示すフローチャートである。
【図5】本発明の実施形態の動作を説明する図である。
【図6】本発明の実施形態の動作を説明する図である。
【図7】本発明の実施形態の動作を説明する図である。
【図8】本発明の実施形態の動作を説明する図である。
【符号の説明】
2 エンジン
3 自動変速機
7 ディスクブレーキ
8 制動制御装置
11 エンジン出力制御装置
12 スロットルアクチュエータ
13 車速センサ
14 前方物体センサ
17 操舵角センサ
19 ブレーキ制御用コントローラ
20 外界認識コントローラ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a vehicle road shape recognition apparatus that recognizes a road shape using an electromagnetic wave radar such as a laser.
[0002]
[Prior art]
As a conventional road shape recognition device for a vehicle, only whether or not a detected object is a stop object is detected from the relative speed between the own vehicle speed and a front object, and only when three or more stop objects are detected, It is known that the left and right ends of a road are recognized as a set of line segments by interpolating between constituent segments of a stopped object, and the lateral distance between the road and the host vehicle is calculated (for example, see Patent Document 1). .
[0003]
[Patent Document 1]
Japanese Patent Laid-Open No. 2001-256600 (page 8, FIG. 6)
[0004]
[Problems to be solved by the invention]
However, in the above conventional vehicle road shape recognition device, the road shape is recognized based on three or more detection-stopped objects. Therefore, when the road curvature radius is loose, the detection view angle of the radar When the number of stop objects that can be detected is small, there is an unsolved problem that the road shape cannot be recognized.
Accordingly, the present invention has been made paying attention to the unsolved problems of the above-described conventional example, and an object thereof is to provide a vehicle road shape recognition device that can always stably recognize a road shape. Yes.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, a vehicle road shape recognition apparatus according to the present invention detects an object in front of the host vehicle with a front object detection means, and the road shape recognition means detects a front being detected by the front object detection means. Among the objects, the position information of the object that is a roadside structure candidate that forms the shape of the road on which the host vehicle is traveling, and the front object that is in the non-detection state from the state detected by the front object detection means Based on the position information after the non-detection of the object that is the roadside structure candidate, the shape of the road while the vehicle is traveling is recognized.
[0006]
【The invention's effect】
According to the present invention, among a plurality of front objects detected by a sensor for detecting an object in front of the host vehicle such as a radar, position information of an object that is a roadside structure candidate constituting a road shape, and a sensor Because the road shape is recognized based on the position information of the object that is the roadside structure candidate among the forward objects that are in the non-detection state from the detection state in the state, the detection state from the state detected by the sensor For the object that has become, for example, by virtually widening the radar viewing angle, it is possible to reliably grasp the road shape even when the number of roadside structure candidates being detected is small.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic configuration diagram showing an embodiment in which the present invention is applied to a rear wheel drive vehicle. In the figure, 1FL and 1FR are front wheels as driven wheels, and 1RL and 1RR are rear wheels as drive wheels. Thus, the driving force of the engine 2 is transmitted to the rear wheels 1RL and 1RR via the automatic transmission 3, the propeller shaft 4, the final reduction gear 5, and the axle 6 to be rotationally driven.
[0008]
The front wheels 1FL, 1FR and the rear wheels 1RL, 1RR are each provided with a brake actuator 7 composed of, for example, a disc brake that generates a braking force, and the braking hydraulic pressure of these brake actuators 7 is controlled by a braking control device 8. Is done.
Here, the braking control device 8 generates a braking hydraulic pressure in response to depression of a brake pedal (not shown), and a braking pressure command value P from a brake control controller 19 described later. BR In response to this, the brake hydraulic pressure is generated and output to the brake actuator 7.
[0009]
The engine 2 is provided with an engine output control device 11 that controls the output thereof. In this engine output control device 11, the depression amount of an accelerator pedal (not shown) and a throttle opening command value θ from a brake control controller 19 described later are provided. * Accordingly, the throttle actuator 12 that adjusts the throttle opening provided in the engine 2 is controlled.
[0010]
Further, a vehicle speed sensor 13 for detecting the own vehicle speed V by detecting the rotational speed of the output shaft provided on the output side of the automatic transmission 3 is provided.
On the other hand, a front object sensor 14 as a front object detection means is provided at the lower part of the vehicle body on the front side of the vehicle. This front object sensor 14 is composed of a scanning laser radar, and periodically irradiates a fine laser beam within a predetermined irradiation range in the forward direction of the vehicle while shifting in a horizontal direction by a certain angle and reflects it from the front object. Based on the time difference from the emission timing to the reception timing of the reflected light, the relative distance between the host vehicle and the front object at each angle (lateral direction Px, vertical direction Py), The width W and the relative speed Vr of the front object are detected.
[0011]
Further, this vehicle is provided with a steering angle sensor 17 for detecting a steering angle δ of a steering wheel (not shown), and this detection signal is input to the external recognition controller 20.
The own vehicle speed V output from the vehicle speed sensor 13, the relative distances Px and Py output from the front object sensor 14, the width W of the front object, the relative speed Vr, and the steering angle δ output from the steering angle sensor 17. Input to the outside world recognition controller 20, and the outside world recognition controller 20 determines whether or not to permit a stopped object detected by the front object sensor 14 as a road side structure candidate for forming a road shape, and to determine a road side structure candidate. Is detected based on the vehicle speed V and the steering angle δ using the object position information before non-detection as the initial position when the object permitted as is changed from the state detected by the front object sensor 14 to the non-detected state. The object position information after the estimation, so-called extrapolation, the object position information of the roadside structure candidate being detected by the front object sensor 14, and the extrapolation of the roadside structure candidate that is not being detected Based on the result, a road shape approximate expression representing the road shape while the vehicle is traveling is calculated.
[0012]
The brake control controller 19 determines whether or not each object detected by the front object sensor 14 is an obstacle to avoid braking for the host vehicle based on the road shape calculated by the external recognition controller 20. When it is determined that it should be avoided, a predetermined braking pressure command value P BR Is output to the braking control device 8 to perform automatic brake control of the host vehicle.
[0013]
Next, a roadside structure candidate determination processing procedure for executing the operation of the first embodiment by the external recognition controller 20 will be described with reference to FIG.
This roadside structure candidate determination process is executed as a timer interruption process every predetermined time (for example, 100 msec). First, in step S1, the relative distances Px and Py detected by the front object sensor 14, the width W of the front object, and the like. The relative speed Vr, the own vehicle speed V detected by the vehicle speed sensor 13, and the steering angle δ detected by the steering angle sensor 17 are read. Here, the relative distances Px and Py with the front object, the width W and the relative speed Vr of the front object are managed as array variables arranged in order of numbers corresponding to the ID of the object. For example, the object with ID = 1 is Py [ 1], the object with ID = 3 is Py [3].
[0014]
Next, the process proceeds to step S2 to determine whether or not each object being detected is a stationary object. This determination is made based on the vehicle speed V and the relative speed Vr of the object. When V≈Vr, it is determined that the object is a stop object. When the detected object is a stationary object, the process proceeds to step S3, where the stationary object flag F of the object is detected. StopObj Is set to “1”, and when the object is not a stop object, the process proceeds to step S4 to stop the object stop object flag F StopObj Is reset to “0”.
[0015]
Next, in step S5, a count value Tc that means the continuous detection time of each object being detected is set. When the same object as that detected in the previous sampling is also detected in the current sampling, the count value Tc which means the continuous detection time of the object is incremented. For an object detected for the first time in this sampling, the count value Tc indicating the continuous detection time and the roadside structure candidate flag F Intp Is cleared to zero and set to a state that is not permitted as a roadside structure candidate.
[0016]
Next, in step S6, the yaw rate φ ′ and slip angle β of the host vehicle are calculated based on the following equation (1) based on the host vehicle speed V and the steering angle δ, and the process proceeds to step S7.
{MVs + 2 (Kf + Kr)} β (s) + {mV + 2 (lf · Kf−lr · Kr) / V} φ ′ (s) = 2Kf · δ (s)
2 (lf · Kf−lr · Kr) β (s) + {Is + 2 (lf 2 ・ Kf-lr 2 ・ Kr) / V} φ ′ (s) = 2lf · Kf · δ (s) (1)
[0017]
Where m is the vehicle weight, Kf and Kr are the cornering powers of the front and rear tires, lf and lr are the distance from the front wheel to the center of gravity and the distance from the rear wheel to the center of gravity, I is the vehicle center turning inertia, and s is Laplace It is an operator.
In step S7, for each object being detected, a predetermined continuous detection time threshold Tc that is a stop object and has a preset count value Tc that means continuous detection time. TH Determine if greater than. And F StopObj = 1 and Tc> Tc TH If it is, it is determined that this object is a stopped object during continuous detection, and the process proceeds to step S8. StopObj = 0 or Tc ≦ Tc TH If so, the process proceeds to step S15 described later.
[0018]
In step S8, the number of objects permitted as roadside structure candidates among the stopped objects being continuously detected and the object position information estimation process after non-detection among the non-detected roadside structure candidates are performed. Calculate the number of objects, that is, the number of objects being extrapolated, and the number of objects required to recognize each road shape NUM TH It is determined whether or not: And GetNo (Py) ≦ NUM TH And GetNo (Py Intp ) ≦ NUM TH When it is, the process proceeds to step S9, and GetNo (Py)> NUM TH Or GetNo (Py Intp )> NUM TH If so, the process proceeds to step S15 described later.
[0019]
Here, GetNo () is a function that returns the number of currently valid information in the array variable in parentheses, Py Intp Is an array variable for storing object position coordinates during extrapolation. Therefore, the number of objects permitted as roadside structure candidates among the stationary objects being continuously detected is calculated by GetNo (Py), and GetNo (Py Intp ) To calculate the number of non-detection stopped objects during extrapolation processing.
[0020]
In step S9, an object roadside structure candidate flag F satisfying the conditions of steps S7 and S8. Intp Is set as shown in the following equation (2).
F Intp [ID checked ] = 1 (2)
Where ID checked Is the ID number of the detected object that satisfies the conditions of steps S7 and S8.
[0021]
Next, in step S10, it is determined whether or not the stationary objects being continuously detected detected by the front object sensor 14 are densely present. In this determination, when the stopped objects are arranged in ascending order from the object approaching the host vehicle, the ID number group of the detected objects approaching within the predetermined distance from each stopped object is an array variable ID. range Assigned to this array variable ID range The number of objects stored in the predetermined density threshold value MS that can be considered that the object group is dense TH Judge by whether or not it is larger. That is, GetNo (ID range ) > MS TH If it is, it is determined that the positions of the detected object groups are dense, and the process proceeds to step S11, where GetNo (ID range ) ≦ MS TH If so, the process proceeds to step S12.
[0022]
In step S11, thinning processing is performed in a dense group of objects. Array variable ID range Only the object closest to the vehicle, the object farthest from the ID number group, and the object existing at the center of the dense object group are permitted as roadside structure candidates. Other than these three objects The thinning process is performed on the object. That is, the roadside structure candidate flag F Intp Is set as in the following equations (3) and (4).
[0023]
F Intp [ID range _ min _ cntr _ max ] = 1 ……… (3)
F Intp [ID range _ remain ] = 0 ……… (4)
Where ID range _ min _ cntr _ max Is the array variable ID range ID number group having ID numbers of three objects permitted as roadside structure candidates in the ID number group of range _ remain Is the array variable ID range ID in the group of ID numbers range _ min _ cntr _ max This is an ID number group having ID numbers of objects to be thinned out.
[0024]
In step S12, it is determined whether or not there is an object that has been detected in the previous sampling and has not been detected in the current sampling. There is a non-detected object, and the roadside structure candidate flag F of the non-detected object Intp Is set to “1”, the process proceeds to step S13, and otherwise, the process proceeds to step S15 described later.
[0025]
In step S13, the cause of the non-detection of the object that satisfies the condition of step S12 is determined. When the position immediately before the non-detection of the object is near the detection viewing angle end of the front object sensor 14, it is determined that the cause of the non-detection is due to the deviation from the radar viewing angle. In addition, when it is determined that an obstacle such as a forward vehicle exists in front of the non-detected object based on the position information immediately before the non-detection of the object, the cause of the non-detection is hidden by the obstacle such as the forward vehicle. Judging by the fact.
[0026]
If the determination result in step S13 is that the cause of non-detection is out of the radar viewing angle or that an obstacle such as a preceding vehicle exists and is hidden, step S14 is performed. If the cause is other than that, the process proceeds to step S15.
In step S14, the object position coordinates immediately before non-detection are substituted into the array variable that stores the extrapolated object.
[0027]
Py Intp [ID rearmost ] = Py [ID lost _ obj ] ……… (5)
Px Intp [ID rearmost ] = Px [ID lost _ obj ] ……… (6)
Tc Intp [ID rearmost ] = 0 ......... (7)
Where Px Intp And Py Intp Is the object position coordinates during the extrapolation process, ID rearmost Is the ID number following the last ID number in which the data being extrapolated is stored in the variable area for extrapolation, ID lost _ obj Is the ID number of the object not detected by this sampling, Tc Intp Is a count value which means extrapolation processing execution time.
[0028]
Next, in step S15, extrapolation processing of objects stored in a variable region for extrapolation processing, which will be described later, is performed, and then the process proceeds to step S16, where a group of objects being extrapolated and stopped objects being continuously detected are detected. A road shape recognition process is performed using the position information.
In this step S16, based on the object position coordinates of each object extrapolated in step S15 and each stationary object being continuously detected, all object positions constituting these road shapes are subjected to multiple regression analysis, and the following (8 ) To calculate the road shape of the host vehicle MC as shown in FIG. 3 by calculating the coefficients a to c of the road shape approximate line La shown in the equation, finish the timer interruption process, and return to the predetermined main program To do.
[0029]
X = a + b · Y + c · Y 2 ......... (8)
In the extrapolation process in step S15, as shown in FIG. 4, first, in step S151, the angle_theta2w [rad] that rotates during one sampling period, the wheel speed of the host vehicle is changed in the vehicle width direction speed and the inter-vehicle distance direction. Loop variables loop that mean the ID numbers of the objects stored in the variable region for extrapolation, while calculating values _Vx2w and _Vy2w that are decomposed into speeds, respectively, based on the following equations (9) to (11) Is reset to “0”.
[0030]
_Theta2w = φ ′ × Ts (9)
_Vx2w = V × sin (β) (10)
_Vy2w = V × cos (β) (11)
Here, Ts is a sampling period of 0.1 s.
Next, in step S152, the loop number loop of the object ID number of the roadside structure candidate is the ID number following the last ID number in which the data being extrapolated is stored in the extrapolation variable area. ID rearmost Determine if smaller than, loop <ID rearmost If YES, the process moves to step S153, and loop ≧ ID rearmost If it is, the extrapolation process is terminated and the process returns to a predetermined main program.
[0031]
In step S153, the extrapolation processing execution time of the extrapolation object whose ID number is “loop” is determined, and the count value Tc which means the extrapolation processing execution time is determined. Intp Extrapolation processing execution time threshold Tc preset by [loop] IntpTH It is determined whether this is the case. The determination result of step S153 is Tc Intp [Loop] <Tc IntpTH If it is, it is determined that the time is within the allowable execution time, the process proceeds to step S154, and the object position coordinates are calculated based on the following equations (12) and (13).
[0032]
Py Intp [Loop] = Py Intp [Loop] − (_ Vy2w × Ts) (12)
Px Intp [Loop] = Px Intp [Loop] − (_ Vx2w × Ts + Py Intp [Loop] × tan (_theta2w)) (13)
As described above, the extrapolation process is performed based on the own vehicle motion information that can be accurately detected without using noisy information such as a relative velocity vector. This is because the object permitted as the roadside structure is a stop object, and therefore, the object position coordinates can be calculated, that is, extrapolated by only the own vehicle motion information, with the object position before non-detection as the initial position. is there.
[0033]
Next, the process proceeds to step S155, and it is determined whether or not the object subjected to the extrapolation process has passed to the rear of the host vehicle. This determination is based on the object position coordinates Py calculated in step S154. Intp Depending on whether [loop] is greater than 0, Py Intp When [loop] ≦ 0, it is determined that the extrapolated object has passed to the rear of the host vehicle, the process proceeds to step S156, and extrapolation end processing is performed based on the following equations (14) to (16). Do.
[0034]
Py Intp [Loop] = D ObjLost ……… (14)
Px Intp [Loop] = D ObjLost ……… (15)
Tc Intp [Loop] = Tc IntpTH ……… (16)
[0035]
Where D ObjLost Is a predetermined distance which means the end of processing of the object being extrapolated.
In step S157, the loop variable loop is incremented, and the process proceeds to step S152.
On the other hand, the determination result of step S153 is Tc. Intp [Loop] ≧ Tc IntpTH If it is, it is determined that it is outside the allowable execution time, and the process proceeds to step S158. After extrapolation end processing is performed based on the following equations (17) to (19), the process proceeds to step 157.
[0036]
Py Intp [Loop] = D ObjLost ……… (17)
Px Intp [Loop] = D ObjLost ……… (18)
Tc Intp [Loop] = Tc IntpTH ……… (19)
In the process of FIG. 2, the processes of steps S2 to S12 correspond to the roadside structure candidate determination means, the processes of steps S13 and 4 correspond to the position information calculation means, and the process of step S14 corresponds to the road shape recognition means. is doing.
[0037]
Accordingly, it is assumed that a roadside stop object DE such as a preceding vehicle PC and a delineator is present in front of the host vehicle MC as shown in FIG. At this time, the front object sensor 14 detects the objects a to f as the continuous detection time threshold Tc. TH As described above, the roadside structure candidate flag F of the objects b to f is continuously detected. Intp Is set to “1” and permitted as a roadside structure, the object a is a preceding vehicle traveling ahead of the host vehicle. Therefore, in the roadside structure candidate determination process of FIG. Since it is determined that the objects b to g are stationary objects and the objects b to f are being continuously detected, the process proceeds from step S7 to step S8, and the number of roadside structure candidate objects being continuously detected and extrapolation processing is being performed. The number of objects is determined. Number of objects required to recognize road shape NUM TH NUM TH = 3, GetNo (Py)> NUM TH Therefore, the process proceeds from step S8 to step S15, and the object position information currently being extrapolated is updated. However, since there is currently no object to be extrapolated, the process proceeds to step S16 as it is and based on the object position coordinates of the roadside structure candidate objects b to f that are being continuously detected based on the equation (8). A road shape approximate line La is calculated.
[0038]
If, for example, Δt seconds elapses from this state and the objects e and f being detected are outside the detection field of view of the front object sensor 14 and become a non-detection state as shown in FIG. The number of object candidate objects is three of objects b to d, and there is no number of objects being extrapolated, so in step S8 GetNo (Py) ≦ NUM TH And GetNo (Py Intp ) ≦ NUM TH Thus, it is determined that the number of objects necessary for recognizing the road shape has not been reached, and the process proceeds to step S9, where the roadside structure candidate flags F of the objects b to d Intp Is set to “1”. Since the stopped objects being detected are not dense, the process proceeds from step S10 to step S12, and the non-detected objects e and f are being continuously detected by the previous sampling, and the roadside structure candidate flag F Intp Is set to “1”, the process proceeds from step S12 to step S13 to determine the cause of the non-detection of the objects e and f. Since the cause of non-detection is due to being outside the detection field of view of the front object sensor 14, the process proceeds to step S14, and the extrapolated object is stored based on the equations (5) to (7). Array variable Py Intp And Px Intp Substitute the object position coordinates Py and Px immediately before non-detection to set the initial position. Thereby, the array variable Py for storing the extrapolated object is stored. Intp And Px Intp The two object position coordinates of the objects e and f are stored in.
[0039]
In the extrapolation process of FIG. 4, the loop variable loop is initialized to “0” in step S151, and the count value Tc that means the extrapolation process execution time of the objects e and f Intp Are extrapolation processing execution time threshold values Tc, respectively. IntpTH First, Py which is the object position coordinate of the object f Intp [0] and Px Intp [0] is updated based on the equations (12) and (13) in step S154. Then, after incrementing the loop variable loop in step S157, Py which is the object position coordinate of the object e Intp [1] and Px Intp [1] is calculated based on the equations (12) and (13) in step S154.
[0040]
Next, in step S16 of FIG. 2, based on the object position coordinates of the roadside structure candidate objects b to d being continuously detected and the object position coordinates of the objects e and f being extrapolated, the above equation (8) is used. A road shape approximate line La is calculated.
As described above, when an object permitted as a roadside structure candidate is changed from being detected by the front object sensor 14 to being not detected, extrapolation is performed by calculating object position information after the non-detection of the object. The road shape is recognized based on the object position coordinates of the roadside structure candidate object being continuously detected and the object position coordinates of the non-detected object being extrapolated, so that the roadside structure candidate being continuously detected Even when the number of objects is small and the number of objects necessary for road shape recognition is not reached, the road shape can always be recognized stably.
[0041]
From this state, Δt seconds have passed, and as shown in FIG. 7, the object d being detected is outside the detection field of view of the front object sensor 14 and is not detected, and the object f being extrapolated is When the vehicle passes rearward, the number of roadside structure candidate objects being detected is two objects b and c, and the number of objects being extrapolated is two objects e and f. In this case, the non-detected object d is being continuously detected by sampling up to the previous time, and the roadside structure candidate flag F Intp Is set to “1”, the process proceeds from step S12 to step S13 to determine the cause of non-detection of the object d. Since the cause of non-detection is due to being outside the detection visual field of the front object sensor 14, the process proceeds to step S14, and the extrapolated object is stored based on the equations (5) to (7). Array variable Py Intp And Px Intp Substitute the object position coordinates Py and Px immediately before non-detection to set the initial position. Here, since there are two objects currently being extrapolated, e and f, the ID number ID rearmost Becomes “2” and the array variable Py for storing the extrapolated object Intp And Px Intp The three object position coordinates of the objects d to f are stored in.
[0042]
In the extrapolation process of FIG. 4, the loop variable loop is initialized to “0” in step S151, and the count value Tc that means the extrapolation process execution time of the objects d to f. Intp Are extrapolation processing execution time threshold values Tc, respectively. IntpTH , Py which is the object position coordinate of the object f first Intp [0] and Px Intp [0] is updated based on the equations (12) and (13) in step S154. Since the object f has passed to the rear of the host vehicle, in step S155, Py Intp [0] ≦ 0, and the process proceeds to step S156 to perform extrapolation end processing of the object f. Then, after incrementing the loop variable loop in step S157, Py which is the object position coordinate of the object e Intp [1] and Px Intp [1] is updated in step S154 based on the expressions (12) and (13), and after further incrementing the loop variable loop in step S157, Py is the object position coordinate of the object d. Intp [2] and Px Intp [2] is set based on the equations (12) and (13) in step S154. As a result, the number of objects being extrapolated is two, d and e.
[0043]
Next, in step S16 of FIG. 2, based on the object position coordinates of the roadside structure candidate objects b and c being continuously detected and the object position coordinates of the objects d and e being extrapolated, the above equation (8) is used. A road shape approximate line La is calculated.
Further, as shown in FIG. 5, the front object sensor 14 detects the objects a to f as the continuous detection time threshold Tc. TH As described above, the roadside structure candidate flag F of the objects b to f is continuously detected. Intp Is set to “1” and permitted as a roadside structure, and the road shape can be recognized only by the object position information of the roadside structure candidate objects b to f being detected, as shown in FIG. Assume that the preceding vehicle PC2 has interrupted in front of the host vehicle MC.
[0044]
In this case, the objects b to e being detected cannot be detected, and the number of roadside structure candidate objects being detected is only the object f. Since there is no number of objects being extrapolated, GetNo (Py) ≦ NUM in step S8. TH And GetNo (Py Intp ) ≦ NUM TH Then, the process proceeds to step S9, where the roadside structure candidate flag F of the object f Intp Is set to “1”. Since the stopped objects being detected are not dense, the process proceeds from step S10 to step S12, and the non-detected objects b to e are being continuously detected by the previous sampling, and the roadside structure candidate flag F Intp Is set to “1”, the process proceeds from step S12 to step S13 to determine the cause of non-detection of the objects b to e. Since the cause of non-detection is that it is located behind the preceding vehicle and has been hidden, the process proceeds to step S14, and the extrapolated object is stored based on the equations (5) to (7). Array variable Py Intp And Px Intp The initial position is set by substituting the object position coordinates Py and Px immediately before non-detection. Thereby, the array variable Py for storing the extrapolated object is stored. Intp And Px Intp The four object position coordinates of the objects b to e are stored in.
[0045]
Then, in the extrapolation process of FIG. 4, Py which is the object position coordinate after the non-detection of the objects b to e Intp And Px Intp Is calculated based on the above equations (12) and (13) in step S154, and in step S16 of FIG. 2, the object position coordinates of the roadside structure candidate object f being continuously detected and the object b being extrapolated Based on the object position coordinates of e to e, the road shape approximate line La is calculated based on the equation (8).
[0046]
As described above, in the above-described embodiment, it is determined whether or not a stationary object being continuously detected is permitted as a roadside structure candidate that forms a road shape, and an object permitted as a roadside structure candidate is detected. Since the extrapolation process is performed and the object position information after non-detection is calculated when it becomes a non-detection state from the existing state, the radar viewing angle for detecting the object ahead of the host vehicle is narrow and can be detected. Even if the number of reflectors is small, it is possible to grasp the road shape based on the object position information of the non-detected reflector and the object position information of the reflector being detected. Since weak reflectors other than the reflector are not permitted as roadside structure candidates, it is possible to prevent being affected by noise information that reduces road shape recognition accuracy.
[0047]
In addition, the currently detected stop object is permitted as a roadside structure candidate until the number of extrapolated objects and the number of roadside structure candidate objects during continuous detection reach the number of objects necessary to recognize the road shape. Therefore, when the number of objects being extrapolated reaches a predetermined value, the number of objects to be extrapolated can be limited to reduce the calculation load, and the reflector attached to the delineator can be considerably reduced. When the road shape can be calculated without using the position information of the extrapolated object, the calculation load required for the extrapolation process is eliminated by not permitting it as a roadside structure candidate. be able to.
[0048]
Furthermore, if there are densely stopped objects that are being detected continuously, the remaining objects thinned out from the dense group of objects are permitted as roadside structure candidates. The required calculation load can be reduced, and the road shape can be calculated appropriately.
In addition, when the cause that the roadside structure candidate object being continuously detected is not detected from the detected state is due to a deviation from the radar viewing angle for detecting the front object, and the vehicle ahead If the object is hidden behind an obstacle such as a roadside structure candidate, the extrapolation process can be performed only on an object that can be detected more reliably and stably.
[0049]
In the above embodiment, the case where the yaw rate and the slip angle are calculated based on the equation (1) using the two-wheel model in step S6 of the roadside structure candidate determination process in FIG. 2 has been described. The present invention is not limited, and the yaw rate sensor may be applied to directly detect the yaw rate, or the acceleration sensor may be applied to calculate the slip angle from the ratio of longitudinal acceleration and lateral acceleration. .
[0050]
In the above embodiment, when the detected object is a stop object and is being continuously detected in step S7, that is, F StopObj = 1 and Tc> Tc TH However, the present invention is not limited to this, and the width W of the detected object is used as F. StopObj = 1 and Tc> Tc TH And W <W TH If so, the process may proceed to step S8. Where W TH Is a threshold meaning that the detected object is a small object that is not a vehicle. In this way, by adding a judgment as to whether or not the detected stopped object is a vehicle, road shape recognition errors caused by misrecognizing a stopped vehicle as a roadside stop such as a delineator are eliminated, and a more accurate road shape Can be calculated.
[0051]
Further, in the above embodiment, the case where the extrapolation process is performed by setting the object position immediately before the non-detection as the initial position based on the equations (5) and (6) in step S14 has been described. However, the initial position may be set based on the following equations (20) and (21).
Py Intp [ID rearmost ] = Py_z [ID lost _ obj ] ……… (20)
Px Intp [ID rearmost ] = Px_z [ID lost _ obj ] ……… (21)
Here, Py_z and Px_z are array variables indicating values of the object position coordinates Py and Px before one sampling period. In this way, the extrapolation process is not performed with the position immediately before the non-detection of the object permitted as the roadside structure candidate as the initial position, but the extrapolation process with the position at least one sampling before the non-detection as the initial position. Therefore, particularly in the case where the object cannot be detected by deviating from the radar viewing angle, it is possible to prevent the object position immediately before non-detection from being easily disturbed.
[0052]
In the above embodiment, the case where a scanning laser radar is used as the front object sensor 14 has been described. However, the present invention is not limited to this, and other ranging devices such as a microwave and a millimeter wave radar may be used. Can be applied.
Furthermore, in the above embodiment, the case where the present invention is applied to a rear wheel drive vehicle has been described. However, the present invention can also be applied to a front wheel drive vehicle, and the case where the engine 2 is applied as a rotational drive source. Although explained, it is not limited to this, An electric motor can also be applied, Furthermore, this invention is applicable also to the hybrid specification vehicle which uses an engine and an electric motor.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram showing an embodiment of the present invention.
FIG. 2 is a flowchart showing a roadside structure candidate determination process executed by an external recognition controller in the embodiment of the present invention.
FIG. 3 is an explanatory diagram of road shape approximate lines calculated from position information of roadside structure candidate objects.
4 is a flowchart showing an extrapolation process of the roadside structure candidate determination process of FIG. 2 in the embodiment of the present invention.
FIG. 5 is a diagram for explaining the operation of the embodiment of the present invention.
FIG. 6 is a diagram for explaining the operation of the embodiment of the present invention.
FIG. 7 is a diagram for explaining the operation of the embodiment of the present invention.
FIG. 8 is a diagram for explaining the operation of the embodiment of the present invention.
[Explanation of symbols]
2 Engine
3 Automatic transmission
7 Disc brake
8 Braking control device
11 Engine output control device
12 Throttle actuator
13 Vehicle speed sensor
14 Front object sensor
17 Steering angle sensor
19 Brake controller
20 Outside world recognition controller

Claims (10)

自車両前方の物体を検出する前方物体検出手段と、前記前方物体検出手段で検出中の前方物体のうち、自車両が走行している道路形状を形成する路側構造物候補である物体の位置情報と、前記前方物体検出手段で検出している状態から非検出状態となった前方物体のうち、路側構造物候補である物体の非検出後の位置情報とに基づいて、自車走行中の道路形状を認識する道路形状認識手段とを備えていることを特徴とする車両用道路形状認識装置。Position information of an object that is a candidate for a roadside structure that forms a road shape on which the host vehicle is traveling, among a front object detecting unit that detects an object ahead of the host vehicle, and a front object that is being detected by the front object detecting unit. And a road on which the host vehicle is traveling based on position information after non-detection of an object that is a roadside structure candidate among the front objects that have been detected from the state detected by the front object detection means. A road shape recognition device for a vehicle, comprising road shape recognition means for recognizing a shape. 前記道路形状認識手段は、前記前方物体検出手段で検出している前方物体について、路側構造物候補として許可するか否かを判断する路側構造物候補判断手段と、前記路側構造物候補判断手段で路側構造物候補として許可した物体が前記前方物体検出手段で検出している状態から非検出状態となったときに、その物体の非検出後の位置情報を演算する位置情報演算手段とを備えていることを特徴とする請求項1に記載の車両用道路形状認識装置。The road shape recognition means includes a road side structure candidate judgment means for judging whether or not to permit a front object detected by the front object detection means as a road side structure candidate, and the road side structure candidate judgment means. Position information calculating means for calculating position information after non-detection of the object when the object permitted as a roadside structure candidate is changed from the state detected by the front object detection means to the non-detection state. The road shape recognition device for a vehicle according to claim 1, wherein 前記路側構造物候補判断手段は、前記前方物体検出手段で検出した前方物体が前記道路形状認識手段の道路形状認識処理に必要な停止物体であると判断したときに、路側構造物候補として許可するように構成されていることを特徴とする請求項2に記載の車両用道路形状認識装置。The roadside structure candidate judging means permits as a roadside structure candidate when judging that the forward object detected by the forward object detecting means is a stop object necessary for the road shape recognition process of the road shape recognition means. The vehicular road shape recognition device according to claim 2, wherein the vehicular road shape recognition device is configured as described above. 前記路側構造物候補判断手段は、前記前方物体検出手段で検出した前方物体が停止物体であり、且つ検知時間が所定検知時間より長いときに、路側構造物候補として許可するように構成されていることを特徴とする請求項2又は3に記載の車両用道路形状認識装置。The roadside structure candidate determination means is configured to permit a roadside structure candidate when the front object detected by the front object detection means is a stop object and the detection time is longer than a predetermined detection time. The vehicle road shape recognition apparatus according to claim 2 or 3, characterized in that 前記路側構造物候補判断手段は、前記前方物体検出手段で検出した前方物体が車両以外の停止物体であり、且つ検知時間が所定検知時間より長いときに、路側構造物候補として許可するように構成されていることを特徴とする請求項2乃至4の何れかに記載の車両用道路形状認識装置。The roadside structure candidate judgment unit is configured to permit a roadside structure candidate when the front object detected by the front object detection unit is a stop object other than a vehicle and the detection time is longer than a predetermined detection time. The road shape recognition device for a vehicle according to any one of claims 2 to 4, wherein the vehicle road shape recognition device is provided. 前記路側構造物候補判断手段は、前記位置情報演算手段で位置情報演算処理中の路側構造物候補の数が所定値となるまで、前記前方物体検出手段で検出した前方物体を路側構造物候補として許可するように構成されていることを特徴とする請求項2乃至5の何れかに記載の車両用道路形状認識装置。The roadside structure candidate judging means uses the front object detected by the front object detecting means as a roadside structure candidate until the number of roadside structure candidates undergoing position information calculation processing by the position information calculating means reaches a predetermined value. 6. The vehicular road shape recognition apparatus according to claim 2, wherein the vehicular road shape recognition apparatus is configured to permit. 前記路側構造物候補判断手段は、前記前方物体検出手段で検出中である路側構造物候補の数が所定値となるまで、前記前方物体検出手段で検出した前方物体を路側構造物候補として許可するように構成されていることを特徴とする請求項2乃至6の何れかに記載の車両用道路形状認識装置。The roadside structure candidate judging means permits the front object detected by the front object detecting means as a roadside structure candidate until the number of roadside structure candidates being detected by the front object detecting means reaches a predetermined value. The vehicle road shape recognition device according to claim 2, wherein the vehicle road shape recognition device is configured as described above. 前記路側構造物候補判断手段は、前記前方物体検出手段で検出中である停止物体が密集して存在しているときに、密集している物体群の中から間引いて路側構造物候補として許可するように構成されていることを特徴とする請求項2乃至7の何れかに記載の車両用道路形状認識装置。The roadside structure candidate determination means permits a roadside structure candidate to be thinned out from a dense group of objects when the stopped objects being detected by the front object detection means are densely present. 8. The vehicular road shape recognition device according to claim 2, wherein the vehicular road shape recognition device is configured as described above. 前記路側構造物候補判断手段は、路側構造物候補として許可した物体が、前記前方物体検出手段で検出している状態から非検出状態となった場合に、その原因が少なくとも前記前方物体検出手段の検出視野角外となったことによるものであるとき、及び自車両との間に障害物が存在して隠されたことによるものであるときに、路側構造物候補として許可するように構成されていることを特徴とする請求項2乃至8の何れかに記載の車両用道路形状認識装置。The roadside structure candidate judging means is configured such that when an object permitted as a roadside structure candidate changes from a state detected by the front object detecting means to a non-detected state, the cause is at least of the front object detecting means. It is configured to allow as a roadside structure candidate when it is due to being out of the detection viewing angle and when it is due to an obstacle existing and hidden from the own vehicle. The vehicle road shape recognition device according to claim 2, wherein the vehicle road shape recognition device is a vehicle road shape recognition device. 前記位置情報演算手段は、路側構造物候補として許可した物体が非検出状態となったとき、非検出となる直前よりも少なくとも1サンプリング前の位置を初期位置として位置情報を演算するように構成されていることを特徴とする請求項2乃至9の何れかに記載の車両用道路形状認識装置。The position information calculation means is configured to calculate position information with an initial position as a position at least one sampling prior to immediately before non-detection when an object permitted as a roadside structure candidate is in a non-detection state. The vehicle road shape recognition device according to claim 2, wherein the vehicle road shape recognition device is provided.
JP2003171749A 2003-06-17 2003-06-17 Vehicular road shape recognition system Pending JP2005010891A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003171749A JP2005010891A (en) 2003-06-17 2003-06-17 Vehicular road shape recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003171749A JP2005010891A (en) 2003-06-17 2003-06-17 Vehicular road shape recognition system

Publications (1)

Publication Number Publication Date
JP2005010891A true JP2005010891A (en) 2005-01-13

Family

ID=34096106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003171749A Pending JP2005010891A (en) 2003-06-17 2003-06-17 Vehicular road shape recognition system

Country Status (1)

Country Link
JP (1) JP2005010891A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007017338A (en) * 2005-07-08 2007-01-25 Denso Corp Road shape recognition device
JP2007066047A (en) * 2005-08-31 2007-03-15 Mitsubishi Electric Corp Road shape recognition device
JP2012008999A (en) * 2010-05-26 2012-01-12 Mitsubishi Electric Corp Road shape estimation device, computer program, and road shape estimation method
US8694236B2 (en) 2006-05-17 2014-04-08 Denso Corporation Road environment recognition device and method of recognizing road environment
JP2017106806A (en) * 2015-12-09 2017-06-15 株式会社デンソー Object recognition device
WO2019031137A1 (en) * 2017-08-07 2019-02-14 日立オートモティブシステムズ株式会社 Roadside object detection device, roadside object detection method, and roadside object detection system
WO2022071315A1 (en) * 2020-09-30 2022-04-07 学校法人明治大学 Autonomous moving body control device, autonomous moving body control method, and program
CN114697165A (en) * 2022-03-09 2022-07-01 杭州市保密技术测评中心(杭州市专用通信与保密技术服务中心) Signal source detection method based on unmanned aerial vehicle vision and wireless signal fusion

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4561507B2 (en) * 2005-07-08 2010-10-13 株式会社デンソー Road shape recognition device
JP2007017338A (en) * 2005-07-08 2007-01-25 Denso Corp Road shape recognition device
JP2007066047A (en) * 2005-08-31 2007-03-15 Mitsubishi Electric Corp Road shape recognition device
JP4637690B2 (en) * 2005-08-31 2011-02-23 三菱電機株式会社 Road shape recognition device
DE102007021762B4 (en) 2006-05-17 2019-02-21 Denso Corporation Road environment recognition device and method for recognizing a road environment
US8694236B2 (en) 2006-05-17 2014-04-08 Denso Corporation Road environment recognition device and method of recognizing road environment
JP2012008999A (en) * 2010-05-26 2012-01-12 Mitsubishi Electric Corp Road shape estimation device, computer program, and road shape estimation method
JP2017106806A (en) * 2015-12-09 2017-06-15 株式会社デンソー Object recognition device
WO2019031137A1 (en) * 2017-08-07 2019-02-14 日立オートモティブシステムズ株式会社 Roadside object detection device, roadside object detection method, and roadside object detection system
JPWO2019031137A1 (en) * 2017-08-07 2020-02-27 日立オートモティブシステムズ株式会社 Roadside object detection device, roadside object detection method, and roadside object detection system
US11151395B2 (en) 2017-08-07 2021-10-19 Hitachi Astemo, Ltd. Roadside object detection device, roadside object detection method, and roadside object detection system
WO2022071315A1 (en) * 2020-09-30 2022-04-07 学校法人明治大学 Autonomous moving body control device, autonomous moving body control method, and program
CN114697165A (en) * 2022-03-09 2022-07-01 杭州市保密技术测评中心(杭州市专用通信与保密技术服务中心) Signal source detection method based on unmanned aerial vehicle vision and wireless signal fusion
CN114697165B (en) * 2022-03-09 2023-12-22 杭州市保密技术测评中心(杭州市专用通信与保密技术服务中心) Signal source detection method based on unmanned aerial vehicle vision and wireless signal fusion

Similar Documents

Publication Publication Date Title
CN108216225B (en) Collision avoidance assistance device
US11809194B2 (en) Target abnormality determination device
JP6376059B2 (en) Control device for autonomous driving vehicle
US7433772B2 (en) Target speed control system for a vehicle
CN109421704A (en) For the control equipment of vehicle and the control method of vehicle
CN108216224B (en) Collision avoidance assistance device
JP7470588B2 (en) Collision avoidance support device
CN109835330B (en) Method for actively avoiding collision of vehicle and vehicle using same
CN108622088A (en) Collision avoidance apparatuses
JP2022024323A (en) Collision avoidance support device
JP4946212B2 (en) Driving support device
JP2022125580A (en) Collison avoidance support device
EP3418152B1 (en) Vehicle control device
JP3873858B2 (en) Follow-up control device
JP2017117192A (en) Drive support apparatus
US20200023901A1 (en) Method and system for providing a steering guidance to a driver of a host vehicle
JP2005010891A (en) Vehicular road shape recognition system
JP6311628B2 (en) Collision avoidance control device
JP6772940B2 (en) Autonomous driving system
JP6331233B2 (en) Vehicle control device
JP3786094B2 (en) Vehicle travel control device
JP4100269B2 (en) Vehicle road shape recognition device
JPH0836697A (en) Rear-end collision danger judgement method in rear-end collision prevention system
JP2007290708A (en) Travel control apparatus for vehicle
CN116135638A (en) Self-adaptive anti-collision method and system for vehicle crossing and vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20051226

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Effective date: 20070725

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071002

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080115