JP2005010891A - Vehicular road shape recognition system - Google Patents
Vehicular road shape recognition system Download PDFInfo
- Publication number
- JP2005010891A JP2005010891A JP2003171749A JP2003171749A JP2005010891A JP 2005010891 A JP2005010891 A JP 2005010891A JP 2003171749 A JP2003171749 A JP 2003171749A JP 2003171749 A JP2003171749 A JP 2003171749A JP 2005010891 A JP2005010891 A JP 2005010891A
- Authority
- JP
- Japan
- Prior art keywords
- road shape
- detected
- shape recognition
- vehicle
- roadside structure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、例えばレーザ等の電磁波レーダを用いて、道路形状を認識するようにした車両用道路形状認識装置に関する。
【0002】
【従来の技術】
従来の車両用道路形状認識装置としては、自車速と前方物体との相対速度から検出物体が停止物であるか否かを判断し、3つ以上の停止物体を検出した場合に限って、各停止物体の構成セグメント間を補間することで道路左右端を線分の集合として認識し、道路と自車両との横方向距離を算出するというものが知られている(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開2001−256600号公報(第8頁、第6図)
【0004】
【発明が解決しようとする課題】
しかしながら、上記従来の車両用道路形状認識装置にあっては、3つ以上の検出停止物体に基づいて道路形状を認識するようにしているので、道路曲率半径が緩い場合等、レーダの検出視野角内で検知できる停止物体の数が少ない場合には、道路形状を認識することができないという未解決の課題がある。
そこで、本発明は、上記従来例の未解決の課題に着目してなされたものであり、常に安定して道路形状を認識することが可能な車両用道路形状認識装置を提供することを目的としている。
【0005】
【課題を解決するための手段】
上記目的を達成するために、本発明に係る車両用道路形状認識装置は、前方物体検出手段で自車両前方の物体を検出し、道路形状認識手段で、前記前方物体検出手段で検出中の前方物体のうち、自車両が走行している道路形状を形成する路側構造物候補である物体の位置情報と、前記前方物体検出手段で検出している状態から非検出状態となった前方物体のうち、路側構造物候補である物体の非検出後の位置情報とに基づいて、自車走行中の道路形状を認識する。
【0006】
【発明の効果】
本発明によれば、レーダ等の自車両前方の物体を検出するためのセンサで検出している複数の前方物体のうち、道路形状を構成する路側構造物候補である物体の位置情報と、センサで検出している状態から非検出状態となった前方物体のうち、路側構造物候補である物体の位置情報とに基づいて道路形状を認識するので、センサで検出している状態から非検出状態となった物体に関しては、例えば仮想的にレーダ視野角を広角化することで、検知中の路側構造物候補の数が少ない場合でも確実に道路形状を把握することができるという効果が得られる。
【0007】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて説明する。
図1は本発明を後輪駆動車に適用した場合の実施形態を示す概略構成図であり、図中、1FL,1FRは従動輪としての前輪、1RL,1RRは駆動輪としての後輪であって、後輪1RL,1RRは、エンジン2の駆動力が自動変速機3、プロペラシャフト4、最終減速装置5及び車軸6を介して伝達されて回転駆動される。
【0008】
前輪1FL,1FR及び後輪1RL,1RRには、夫々制動力を発生する例えばディスクブレーキで構成されるブレーキアクチュエータ7が設けられていると共に、これらブレーキアクチュエータ7の制動油圧が制動制御装置8によって制御される。
ここで、制動制御装置8は、図示しないブレーキペダルの踏込みに応じて制動油圧を発生すると共に、後述するブレーキ制御用コントローラ19からの制動圧指令値PBRに応じて制動油圧を発生し、これをブレーキアクチュエータ7に出力するように構成されている。
【0009】
また、エンジン2には、その出力を制御するエンジン出力制御装置11が設けられている。このエンジン出力制御装置11では、図示しないアクセルペダルの踏込量及び後述するブレーキ制御用コントローラ19からのスロットル開度指令値θ*に応じてエンジン2に設けられたスロットル開度を調整するスロットルアクチュエータ12を制御するように構成されている。
【0010】
また、自動変速機3の出力側に配設された出力軸の回転速度を検出することにより、自車速Vを検出する車速センサ13が配設されている。
一方、車両の前方側の車体下部には、前方物体検出手段としての前方物体センサ14が設けられている。この前方物体センサ14は、スキャニング式のレーザレーダで構成され、一定角度ずつ水平方向にずれながら周期的に車両の前方方向に所定の照射範囲内で細かいレーザ光を照射し、前方物体から反射して戻ってくる反射光を受光して、出射タイミングから反射光の受光タイミングまでの時間差に基づいて、各角度における自車両と前方物体との間の相対距離(横方向Px、縦方向Py)、前方物体の幅W及び相対速度Vrを検出する。
【0011】
さらに、この車両には、図示しないステアリングホイールの操舵角δを検出する操舵角センサ17が備えられ、この検出信号は外界認識コントローラ20に入力される。
そして、車速センサ13から出力される自車速Vと前方物体センサ14から出力される相対距離Px、Py、前方物体の幅W、相対速度Vr、操舵角センサ17から出力される操舵角δとが外界認識コントローラ20に入力され、この外界認識コントローラ20によって、前方物体センサ14で検出している停止物体について道路形状を形成する路側構造物候補として許可するか否かを判断し、路側構造物候補として許可した物体が前方物体センサ14で検出している状態から検出しない状態となったときに、非検出となる前の物体位置情報を初期位置として自車速V及び操舵角δに基づいて非検出後の物体位置情報を推定、所謂補外し、前方物体センサ14で検出中の路側構造物候補の物体位置情報、及び非検出中の路側構造物候補の補外処理結果に基づいて自車走行中の道路形状を表す道路形状近似式を算出する。
【0012】
ブレーキ制御用コントローラ19では、外界認識コントローラ20によって算出された道路形状に基づいて、前方物体センサ14で検出した各物体が自車両にとって制動回避すべき障害物であるか否かを判断し、制動回避すべきであると判断されたときに所定の制動圧指令値PBRを制動制御装置8に出力して自車両の自動ブレーキ制御を行う。
【0013】
次に、第1の実施形態の動作を外界認識コントローラ20で実行する路側構造物候補判断処理手順を示す図2を伴って説明する。
この路側構造物候補判断処理は、所定時間(例えば100msec)毎のタイマ割込処理として実行され、先ず、ステップS1で、前方物体センサ14で検出した相対距離Px、Py、前方物体の幅W及び相対速度Vr、車速センサ13で検出した自車速V、操舵角センサ17で検出した操舵角δを読込む。ここで、前方物体との相対距離Px、Py、前方物体の幅W及び相対速度Vrは、物体のIDに相当する番号順に並んだ配列変数として管理され、例えば、ID=1の物体はPy[1]、ID=3の物体はPy[3]となる。
【0014】
次にステップS2に移行して、検出中の各物体が停止物であるか否かを判定する。この判定は自車速Vと物体との相対速度Vrによって行い、V≒Vrであるときに、この物体は停止物体であると判断する。そして、検知物体が停止物であるときにはステップS3に移行してその物体の停止物フラグFStopObjを“1”にセットし、停止物でないときにはステップS4に移行してその物体の停止物フラグFStopObjを“0”にリセットする。
【0015】
次にステップS5で、検出中の各物体の連続検知時間を意味するカウント値Tcを設定する。前回のサンプリングで検知した物体と同じ物体を、今回のサンプリングでも検知している場合には、その物体の連続検知時間を意味するカウント値Tcをインクリメントする。また、今回のサンプリングで初めて検知した物体に対しては、連続検知時間を意味するカウント値Tc及び路側構造物候補フラグFIntpをゼロクリアして路側構造物候補として許可していない状態にセットする。
【0016】
次にステップS6で、自車速V及び操舵角δに基づいて、下記(1)式をもとに自車両のヨーレートφ′及びスリップ角度βを算出し、ステップS7に移行する。
{mVs+2(Kf+Kr)}β(s)+{mV+2(lf・Kf−lr・Kr)/V}φ′(s)=2Kf・δ(s)
2(lf・Kf−lr・Kr)β(s)+{Is+2(lf2・Kf−lr2・Kr)/V}φ′(s)=2lf・Kf・δ(s) ………(1)
【0017】
ここで、mは車重、Kf、Krはそれぞれ前後輪タイヤのコーナリングパワー、lf、lrはそれぞれ前輪から重心までの距離と後輪から重心までの距離、Iは車両中心旋回慣性、sはラプラス演算子である。
ステップS7では、検出中の各物体に対して、停止物体であり且つ連続検知時間を意味するカウント値Tcが予め設定した所定の連続検知時間閾値TcTHより大きいか否かを判定する。そして、FStopObj=1且つTc>TcTHであるときには、この物体は連続検知中の停止物体であると判断してステップS8に移行し、FStopObj=0又はTc≦TcTHであるときには後述するステップS15に移行する。
【0018】
ステップS8では、連続検知中の停止物体のうち路側構造物候補として許可している物体の個数と、非検出中の路側構造物候補のうち、非検出後の物体位置情報推定処理を行っている物体、即ち補外処理中の物体の個数を算出し、それぞれ道路形状を認識する際に必要な物体数NUMTH以下であるか否かを判定する。そして、GetNo(Py)≦NUMTH且つGetNo(PyIntp)≦NUMTHであるときにはステップS9に移行し、GetNo(Py)>NUMTH又はGetNo(PyIntp)>NUMTHであるときには後述するステップS15に移行する。
【0019】
ここで、GetNo( )は括弧内の配列変数において、現在有効な情報が入っている個数を返す関数、PyIntpは補外処理中の物体位置座標を格納する配列変数である。したがって、GetNo(Py)により連続検知中の停止物体のうち路側構造物候補として許可している物体の個数が算出され、GetNo(PyIntp)により補外処理中の非検出停止物体の個数が算出される。
【0020】
ステップS9では、前記ステップS7及びS8の条件を満足する物体の路側構造物候補フラグFIntpを下記(2)式のように設定する。
FIntp[IDchecked]=1 ………(2)
ここで、IDcheckedは前記ステップS7及びS8の条件を満足した検知物のID番号である。
【0021】
次にステップS10で、前方物体センサ14で検出した連続検知中の各停止物体が密集して存在しているか否かを判定する。この判定は、各停止物体を自車両と接近している物体から昇順に並べた際に、各停止物体と所定距離以内に接近している検知物体のID番号群を配列変数IDrangeに代入し、この配列変数IDrangeに格納されている物体の個数が、物体群が密集していると見なせる所定の密集閾値MSTHより大きいか否かで判断する。即ち、GetNo(IDrange)>MSTHであるときには検知物群の位置が密集していると判断してステップS11に移行し、GetNo(IDrange)≦MSTHであるときにはステップS12に移行する。
【0022】
ステップS11では、密集している物体群の中で間引き処理を行う。配列変数IDrangeのID番号群の中で最も自車両に接近している物体と、最も遠方の物体と、密集している物体群の中心に存在する物体のみ路側構造物候補として許可し、これら3つの物体以外の物体に対しては間引き処理を行う。つまり、路側構造物候補フラグFIntpは下記(3)及び(4)式のように設定される。
【0023】
FIntp[IDrange_min_cntr_max]=1 ………(3)
FIntp[IDrange_remain]=0 ………(4)
ここで、IDrange_min_cntr_maxは配列変数IDrangeのID番号群の中で路側構造物候補として許可する3つの物体のID番号を有するID番号群、IDrange_remainは配列変数IDrangeのID番号群の中でIDrange_min_cntr_max以外の間引かれる物体のID番号を有するID番号群である。
【0024】
ステップS12では、前回までのサンプリングにおいて検出中であり、今回のサンプリングで非検出となった物体の有無を判定する。非検出となった物体が存在し、且つその非検出物体の路側構造物候補フラグFIntpが“1”にセットされている場合にはステップS13に移行し、それ以外の場合には後述するステップS15に移行する。
【0025】
ステップS13では、前記ステップS12の条件を満たす物体の非検出となった原因を判断する。この物体の非検出となる直前の位置が前方物体センサ14の検出視野角端付近であるときには、非検出原因はレーダ視野角から外れたことによるものであると判断する。また、この物体の非検出となる直前の位置情報に基づいて、非検出物体の手前に前方車両等の障害物が存在すると判断したときには、非検出原因は前方車両等の障害物に隠されたことによるものであると判断する。
【0026】
そして、ステップS13の判定結果が、非検出原因がレーダ視野角から外れたことによるものであるか、又は前方車両等の障害物が存在して隠されたことによるものである場合にはステップS14に移行し、それ以外の原因によるものの場合にはステップS15に移行する。
ステップS14では、補外処理物体を格納する配列変数へ、非検出直前の物体位置座標を代入する。
【0027】
PyIntp[IDrearmost]=Py[IDlost_obj] ………(5)
PxIntp[IDrearmost]=Px[IDlost_obj] ………(6)
TcIntp[IDrearmost]=0 ………(7)
ここで、PxIntpとPyIntpは補外処理中の物体位置座標、IDrearmostは補外処理用の変数領域の中で補外処理中のデータが格納されている最後尾のID番号に続くID番号、IDlost_objは今回のサンプリングで非検出となった物体のID番号、TcIntpは補外処理実行時間を意味するカウント値である。
【0028】
次にステップS15で、後述する補外処理用の変数領域に格納されている物体の補外処理を行ってからステップS16に移行し、補外処理中の物体群及び連続検知中の停止物体の位置情報を用いて、道路形状認識処理を行う。
このステップS16では、ステップS15で補外処理した各物体及び連続検知中の各停止物体の物体位置座標に基づいて、これらの道路形状を構成する全ての物体位置を重回帰分析し、下記(8)式で示される道路形状近似線Laの係数a〜cを求めることにより図3に示すような自車両MCの走行道路形状を算出し、タイマ割込処理を終了して所定のメインプログラムに復帰する。
【0029】
X=a+b・Y+c・Y2 ………(8)
ステップS15の補外処理では、図4に示すように、先ずステップS151で、1サンプリング周期の間に回転する角度_theta2w[rad]、自車両の車輪速度を車幅方向の速度と車間距離方向の速度とに夫々分解した値_Vx2w、_Vy2wを下記(9)〜(11)式をもとに算出すると共に、補外処理用の変数領域に格納されている物体のID番号を意味するループ変数loopを“0”にリセットする。
【0030】
_theta2w=φ′×Ts ………(9)
_Vx2w=V×sin(β) ………(10)
_Vy2w=V×cos(β) ………(11)
ここで、Tsはサンプリング周期0.1sである。
次にステップS152で、路側構造物候補の物体ID番号のループ変数loopが、補外処理用の変数領域の中で補外処理中のデータが格納されている最後尾のID番号に続くID番号IDrearmostより小さいか否かを判定し、loop<IDrearmostであるときにはステップS153に移行し、loop≧IDrearmostであるときには補外処理を終了して所定のメインプログラムに復帰する。
【0031】
ステップS153では、ID番号がloopである補外物体の補外処理実行時間の判定を行い、補外処理実行時間を意味するカウント値TcIntp[loop]が予め設定した補外処理実行時間閾値TcIntpTH以上であるか否かを判断する。ステップS153の判定結果が、TcIntp[loop]<TcIntpTHであるときには、許容実行時間内であると判断してステップS154に移行し、下記(12)及び(13)式をもとに物体位置座標を算出する。
【0032】
PyIntp[loop]=PyIntp[loop]−(_Vy2w×Ts) ………(12)
PxIntp[loop]=PxIntp[loop]−(_Vx2w×Ts+PyIntp[loop]×tan(_theta2w)) ………(13)
このように、補外処理は、相対速度ベクトルのようなノイジーな情報を用いず、正確に検出できる自車運動情報に基づいて行われる。これは、路側構造物として許可した物体は停止物体であるため、非検出前の物体位置を初期位置として自車運動情報のみで物体位置座標の算出、即ち補外処理を行うことができるためである。
【0033】
次にステップS155に移行して、補外処理を行った物体が自車両後方へ通り過ぎたか否かを判定する。この判定は、前記ステップS154で算出した物体位置座標PyIntp[loop]が0より大きいか否かによって行い、PyIntp[loop]≦0であるときには、補外処理を行った物体は自車両後方へ通り過ぎたと判断してステップS156に移行し、下記(14)〜(16)式をもとに補外終了処理を行う。
【0034】
PyIntp[loop]=DObjLost ………(14)
PxIntp[loop]=DObjLost ………(15)
TcIntp[loop]=TcIntpTH ………(16)
【0035】
ここで、DObjLostは補外処理中の物体の処理終了を意味する所定の距離である。
次にステップS157で、ループ変数loopをインクリメントして前記ステップS152に移行する。
一方、前記ステップS153の判定結果が、TcIntp[loop]≧TcIntpTHであるときには、許容実行時間外であると判断してステップS158に移行し、下記(17)〜(19)式をもとに補外終了処理を行ってから前記ステップ157に移行する。
【0036】
PyIntp[loop]=DObjLost ………(17)
PxIntp[loop]=DObjLost ………(18)
TcIntp[loop]=TcIntpTH ………(19)
図2の処理において、ステップS2〜S12の処理が路側構造物候補判断手段に対応し、ステップS13及び図4の処理が位置情報演算手段に対応し、ステップS14の処理が道路形状認識手段に対応している。
【0037】
したがって、今、自車両MCの前方に図5に示すように、先行車両PC及びデリニエータ等の路側停止物体DEが存在しているとする。このとき、前方物体センサ14で物体a〜fを連続検知時間閾値TcTH以上連続検知し、物体b〜fの路側構造物候補フラグFIntpは“1”にセットされて路側構造物として許可しているものとすると、物体aは自車両前方を走行中の先行車両であるので、図2の路側構造物候補判断処理において、ステップS2で物体b〜gが停止物であると判断され、物体b〜fは連続検知中であるので、ステップS7からステップS8に移行して連続検知中の路側構造物候補物体数、及び補外処理中の物体数の判定を行う。仮に道路形状を認識する際に必要な物体数NUMTHを、NUMTH=3であるとすると、GetNo(Py)>NUMTHであるのでステップS8からステップS15に移行して、現在補外処理中の物体位置情報の更新を行う。しかしながら、現在補外処理を行う物体は存在しないので、そのままステップS16に移行して連続検知中の路側構造物候補物体b〜fの物体位置座標に基づいて、前記(8)式をもとに道路形状近似線Laが算出される。
【0038】
この状態から、例えばΔt秒経過し、図6に示すように検出中の物体e及びfが前方物体センサ14の検出視野外となって非検出状態となった場合には、検知中の路側構造物候補物体数は物体b〜dの3つであり、補外処理中の物体数存在しないので、ステップS8でGetNo(Py)≦NUMTH且つGetNo(PyIntp)≦NUMTHとなって、道路形状を認識する際に必要な物体数に達していないと判断してステップS9に移行し、物体b〜dの路側構造物候補フラグFIntpが“1”にセットされる。検知中の停止物体は密集していないため、ステップS10からステップS12に移行し、非検出物体e及びfは前回までのサンプリングで連続検知中であり、路側構造物候補フラグFIntpは“1”にセットされているので、ステップS12からステップS13に移行して、物体e及びfの非検出となった原因を判定する。非検出原因は、前方物体センサ14の検出視野外となることによるものであるので、ステップS14に移行して、前記(5)〜(7)式をもとに、補外処理物体を格納する配列変数PyIntp及びPxIntpへ非検出直前の物体位置座標Py及びPxを代入し、初期位置の設定を行う。これにより、補外処理物体を格納する配列変数PyIntp及びPxIntpには物体e及びfの2つの物体位置座標が格納されることになる。
【0039】
そして、図4の補外処理において、ステップS151でループ変数loopが“0”に初期化され、物体e及びfの補外処理実行時間を意味するカウント値TcIntpは夫々補外処理実行時間閾値TcIntpTHを超えていないので、先ず物体fの物体位置座標であるPyIntp[0]及びPxIntp[0]が、ステップS154で前記(12)及び(13)式をもとに更新される。そして、ステップS157でループ変数loopをインクリメントした後、物体eの物体位置座標であるPyIntp[1]及びPxIntp[1]が、ステップS154で前記(12)及び(13)式をもとに算出される。
【0040】
次いで図2のステップS16で、連続検知中の路側構造物候補物体b〜dの物体位置座標と補外処理中の物体e及びfの物体位置座標に基づいて、前記(8)式をもとに道路形状近似線Laが算出される。
このように、路側構造物候補として許可した物体が前方物体センサ14で検出している状態から検出しない状態となったときに、その物体の非検出後の物体位置情報を算出することで補外処理を行い、連続検知中の路側構造物候補物体の物体位置座標と、補外処理中の非検出物体の物体位置座標とに基づいて道路形状を認識するので、連続検知中の路側構造物候補物体の数が少なくて道路形状認識に必要な物体数に達していない場合であっても、常に安定して道路形状を認識することができる。
【0041】
この状態から、さらにΔt秒経過し、図7に示すように検出中の物体dが前方物体センサ14の検出視野外となって非検出状態となり、さらに補外処理中の物体fが自車両の後方へ通り過ぎた場合には、検知中の路側構造物候補物体数は物体b、cの2つとなり、補外処理中の物体数は物体e、fの2つである。この場合には、非検出物体dは前回までのサンプリングで連続検知中であり、路側構造物候補フラグFIntpは“1”にセットされているので、ステップS12からステップS13に移行して、物体dの非検出原因を判定する。非検出原因は、前方物体センサ14の検出視野外となることによるものであるので、ステップS14に移行して、前記(5)〜(7)式をもとに、補外処理物体を格納する配列変数PyIntp及びPxIntpへ非検出直前の物体位置座標Py及びPxを代入し、初期位置の設定を行う。ここで、現在補外処理中の物体はe及びfの2つであるので、ID番号IDrearmostは“2”となり、補外処理物体を格納する配列変数PyIntp及びPxIntpには物体d〜fの3つの物体位置座標が格納されることになる。
【0042】
そして、図4の補外処理において、ステップS151でループ変数loopが“0”に初期化され、物体d〜fの補外処理実行時間を意味するカウント値TcIntpが夫々補外処理実行時間閾値TcIntpTHを超えていない状態であるとすると、先ず物体fの物体位置座標であるPyIntp[0]及びPxIntp[0]が、ステップS154で前記(12)及び(13)式をもとに更新される。物体fは自車両の後方へ通り過ぎたので、ステップS155で、PyIntp[0]≦0となってステップS156に移行し、物体fの補外終了処理を行う。そして、ステップS157でループ変数loopをインクリメントした後、物体eの物体位置座標であるPyIntp[1]及びPxIntp[1]が、ステップS154で前記(12)及び(13)式をもとに更新され、さらにステップS157でループ変数loopをインクリメントした後、物体dの物体位置座標であるPyIntp[2]及びPxIntp[2]が、ステップS154で前記(12)及び(13)式をもとに設定される。これにより、補外処理中の物体はd及びeの2つとなる。
【0043】
次いで図2のステップS16で、連続検知中の路側構造物候補物体b及びcの物体位置座標と補外処理中の物体d及びeの物体位置座標に基づいて、前記(8)式をもとに道路形状近似線Laが算出される。
また、図5に示すように前方物体センサ14で物体a〜fを連続検知時間閾値TcTH以上連続検知し、物体b〜fの路側構造物候補フラグFIntpを“1”にセットして路側構造物として許可しており、検知中の路側構造物候補物体b〜fの物体位置情報のみで道路形状が認識できる状態であるときに、図8に示すように自車両MCの前方に先行車両PC2が割り込んだとする。
【0044】
この場合には、検知中の物体b〜eが検出できない状態となり、検知中の路側構造物候補物体数は物体fのみとなる。補外処理中の物体数存在しないので、ステップS8でGetNo(Py)≦NUMTH且つGetNo(PyIntp)≦NUMTHとなってステップS9に移行し、物体fの路側構造物候補フラグFIntpが“1”にセットされる。検知中の停止物体は密集していないため、ステップS10からステップS12に移行し、非検出物体b〜eは前回までのサンプリングで連続検知中であり、路側構造物候補フラグFIntpは“1”にセットされているので、ステップS12からステップS13に移行して、物体b〜eの非検出原因を判定する。非検出原因は、先行車両の奥に位置して隠れたことによるものであるので、ステップS14に移行して、前記(5)〜(7)式をもとに、補外処理物体を格納する配列変数PyIntp及びPxIntpへ非検出直前の物体位置座標Py及びPxを夫々代入し、初期位置の設定を行う。これにより、補外処理物体を格納する配列変数PyIntp及びPxIntpには物体b〜eの4つの物体位置座標が格納されることになる。
【0045】
そして、図4の補外処理において、物体b〜eの非検出後の物体位置座標であるPyIntp及びPxIntpが、ステップS154で前記(12)及び(13)式をもとに算出され、図2のステップS16で、連続検知中の路側構造物候補物体fの物体位置座標と補外処理中の物体b〜eの物体位置座標に基づいて、前記(8)式をもとに道路形状近似線Laが算出される。
【0046】
このように、上記実施形態では、連続検知中の停止物体に対して道路形状を形成する路側構造物候補として許可するか否かの判断を行い、路側構造物候補として許可した物体が検出している状態から検出しない状態となったときに、補外処理を実施して非検出後の物体位置情報を算出するので、自車前方物体を検出するためのレーダ視野角が狭くて検知できる路側の反射物数が少ない場合であっても、非検出となった反射物の物体位置情報及び検知中の反射物の物体位置情報に基づいて道路形状を把握することができると共に、実在しない反射物やリフレクタ以外の弱い反射物などを路側構造物候補として許可することがなくなるので、道路形状の認識精度を下げるノイズ情報に影響されることを防止することができる。
【0047】
また、補外処理中の物体数及び連続検知中の路側構造物候補物体数が、道路形状を認識する際に必要な物体数に達するまで、現在検知中の停止物体を路側構造物候補として許可するので、補外処理中の物体数が所定値に達しているときには、補外処理をする物体数を制限して計算負荷を低減することができると共に、デリニエータ等に付いている反射物をかなりの数で検知しており、補外処理物体の位置情報を用いなくても道路形状を算出することが可能であるときには、路側構造物候補として許可しないことにより補外処理に要する計算負荷を無くすことができる。
【0048】
さらに、連続検知中の停止物体が密集して存在している場合には、密集している物体群の中から間引いた残りの物体に対して路側構造物候補として許可するため、補外処理に要する計算負荷を低減することができると共に、道路形状を適切に算出することができる。
また、連続検出中の路側構造物候補物体が検出している状態から検出しない状態となる原因が、少なくとも前方物体を検出するためのレーダ視野角から外れたことによるものである場合、及び前方車両等の障害物の奥に位置して隠されたことによるものである場合に路側構造物候補として許可するので、より確実に安定して検知できる物体にのみ補外処理を実施ことができる。
【0049】
なお、上記実施形態においては、図2の路側構造物候補判断処理のステップS6において、2輪モデルにより前記(1)式をもとにヨーレートとスリップ角を算出する場合について説明したが、これに限定されるものではなく、ヨーレートセンサを適用して直接ヨーレートを検出するようにしてもよく、また、加速度センサを適用して前後加速度及び横加速度の比率からスリップ角を算出するようにしてもよい。
【0050】
また、上記実施形態においては、ステップS7で、検知した物体が停止物体であり且つ連続検知中であるとき、即ちFStopObj=1且つTc>TcTHであるときにステップS8に移行する場合について説明したが、これに限定されるものではなく、検知した物体の幅Wを用いて、FStopObj=1且つTc>TcTH且つW<WTHであるときにステップS8に移行するようにしてもよい。ここで、WTHは検知物体が車両でない小さい物体であることを意味する閾値である。このように、検知した停止物体が車両であるか否かの判断を追加することにより、停止車両をデリニエータ等の路側停止物と誤認識することによる道路形状認識誤差を無くし、より正確な道路形状を算出することができる。
【0051】
さらに、上記実施形態においては、ステップS14で、前記(5)及び(6)式をもとに非検出直前の物体位置を初期位置として設定し、補外処理を行う場合について説明したが、これに限定されるものではなく、下記(20)及び(21)式をもとに初期位置を設定するようにしてもよい。
PyIntp[IDrearmost]=Py_z[IDlost_obj] ………(20)
PxIntp[IDrearmost]=Px_z[IDlost_obj] ………(21)
ここで、Py_z及びPx_zは物体位置座標Py及びPxの1サンプリング周期前の値を意味する配列変数である。このように、路側構造物候補として許可された物体の非検出直前の位置を初期位置として補外処理を行うのではなく、非検出直前よりも少なくとも1サンプリング前の位置を初期位置として補外処理を行うので、特にレーダ視野角から外れて検出できない状態となる場合には、非検出直前における物体位置が乱れやすくなる影響を防止することができる。
【0052】
また、上記実施形態においては、前方物体センサ14としてスキャニング式のレーザレーダを使用した場合について説明したが、これに限定されるものではなく、マイクロ波やミリ波レーダ等の他の測距装置を適用することができる。
さらにまた、上記実施形態においては、後輪駆動車に本発明を適用した場合について説明したが、前輪駆動車に本発明を適用することもでき、また回転駆動源としてエンジン2を適用した場合について説明したが、これに限定されるものではなく、電動モータを適用することもでき、さらには、エンジンと電動モータとを使用するハイブリッド仕様車にも本発明を適用することができる。
【図面の簡単な説明】
【図1】本発明の実施形態を示す概略構成図である。
【図2】本発明の実施形態における外界認識コントローラで実行する路側構造物候補判断処理を示すフローチャートである。
【図3】路側構造物候補物体の位置情報から算出する道路形状近似線の説明図である。
【図4】本発明の実施形態における図2の路側構造物候補判断処理の補外処理を示すフローチャートである。
【図5】本発明の実施形態の動作を説明する図である。
【図6】本発明の実施形態の動作を説明する図である。
【図7】本発明の実施形態の動作を説明する図である。
【図8】本発明の実施形態の動作を説明する図である。
【符号の説明】
2 エンジン
3 自動変速機
7 ディスクブレーキ
8 制動制御装置
11 エンジン出力制御装置
12 スロットルアクチュエータ
13 車速センサ
14 前方物体センサ
17 操舵角センサ
19 ブレーキ制御用コントローラ
20 外界認識コントローラ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a vehicle road shape recognition apparatus that recognizes a road shape using an electromagnetic wave radar such as a laser.
[0002]
[Prior art]
As a conventional road shape recognition device for a vehicle, only whether or not a detected object is a stop object is detected from the relative speed between the own vehicle speed and a front object, and only when three or more stop objects are detected, It is known that the left and right ends of a road are recognized as a set of line segments by interpolating between constituent segments of a stopped object, and the lateral distance between the road and the host vehicle is calculated (for example, see Patent Document 1). .
[0003]
[Patent Document 1]
Japanese Patent Laid-Open No. 2001-256600 (
[0004]
[Problems to be solved by the invention]
However, in the above conventional vehicle road shape recognition device, the road shape is recognized based on three or more detection-stopped objects. Therefore, when the road curvature radius is loose, the detection view angle of the radar When the number of stop objects that can be detected is small, there is an unsolved problem that the road shape cannot be recognized.
Accordingly, the present invention has been made paying attention to the unsolved problems of the above-described conventional example, and an object thereof is to provide a vehicle road shape recognition device that can always stably recognize a road shape. Yes.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, a vehicle road shape recognition apparatus according to the present invention detects an object in front of the host vehicle with a front object detection means, and the road shape recognition means detects a front being detected by the front object detection means. Among the objects, the position information of the object that is a roadside structure candidate that forms the shape of the road on which the host vehicle is traveling, and the front object that is in the non-detection state from the state detected by the front object detection means Based on the position information after the non-detection of the object that is the roadside structure candidate, the shape of the road while the vehicle is traveling is recognized.
[0006]
【The invention's effect】
According to the present invention, among a plurality of front objects detected by a sensor for detecting an object in front of the host vehicle such as a radar, position information of an object that is a roadside structure candidate constituting a road shape, and a sensor Because the road shape is recognized based on the position information of the object that is the roadside structure candidate among the forward objects that are in the non-detection state from the detection state in the state, the detection state from the state detected by the sensor For the object that has become, for example, by virtually widening the radar viewing angle, it is possible to reliably grasp the road shape even when the number of roadside structure candidates being detected is small.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic configuration diagram showing an embodiment in which the present invention is applied to a rear wheel drive vehicle. In the figure, 1FL and 1FR are front wheels as driven wheels, and 1RL and 1RR are rear wheels as drive wheels. Thus, the driving force of the engine 2 is transmitted to the rear wheels 1RL and 1RR via the
[0008]
The front wheels 1FL, 1FR and the rear wheels 1RL, 1RR are each provided with a
Here, the
[0009]
The engine 2 is provided with an engine
[0010]
Further, a
On the other hand, a
[0011]
Further, this vehicle is provided with a
The own vehicle speed V output from the
[0012]
The
[0013]
Next, a roadside structure candidate determination processing procedure for executing the operation of the first embodiment by the
This roadside structure candidate determination process is executed as a timer interruption process every predetermined time (for example, 100 msec). First, in step S1, the relative distances Px and Py detected by the
[0014]
Next, the process proceeds to step S2 to determine whether or not each object being detected is a stationary object. This determination is made based on the vehicle speed V and the relative speed Vr of the object. When V≈Vr, it is determined that the object is a stop object. When the detected object is a stationary object, the process proceeds to step S3, where the stationary object flag F of the object is detected. StopObj Is set to “1”, and when the object is not a stop object, the process proceeds to step S4 to stop the object stop object flag F StopObj Is reset to “0”.
[0015]
Next, in step S5, a count value Tc that means the continuous detection time of each object being detected is set. When the same object as that detected in the previous sampling is also detected in the current sampling, the count value Tc which means the continuous detection time of the object is incremented. For an object detected for the first time in this sampling, the count value Tc indicating the continuous detection time and the roadside structure candidate flag F Intp Is cleared to zero and set to a state that is not permitted as a roadside structure candidate.
[0016]
Next, in step S6, the yaw rate φ ′ and slip angle β of the host vehicle are calculated based on the following equation (1) based on the host vehicle speed V and the steering angle δ, and the process proceeds to step S7.
{MVs + 2 (Kf + Kr)} β (s) + {mV + 2 (lf · Kf−lr · Kr) / V} φ ′ (s) = 2Kf · δ (s)
2 (lf · Kf−lr · Kr) β (s) + {Is + 2 (lf 2 ・ Kf-lr 2 ・ Kr) / V} φ ′ (s) = 2lf · Kf · δ (s) (1)
[0017]
Where m is the vehicle weight, Kf and Kr are the cornering powers of the front and rear tires, lf and lr are the distance from the front wheel to the center of gravity and the distance from the rear wheel to the center of gravity, I is the vehicle center turning inertia, and s is Laplace It is an operator.
In step S7, for each object being detected, a predetermined continuous detection time threshold Tc that is a stop object and has a preset count value Tc that means continuous detection time. TH Determine if greater than. And F StopObj = 1 and Tc> Tc TH If it is, it is determined that this object is a stopped object during continuous detection, and the process proceeds to step S8. StopObj = 0 or Tc ≦ Tc TH If so, the process proceeds to step S15 described later.
[0018]
In step S8, the number of objects permitted as roadside structure candidates among the stopped objects being continuously detected and the object position information estimation process after non-detection among the non-detected roadside structure candidates are performed. Calculate the number of objects, that is, the number of objects being extrapolated, and the number of objects required to recognize each road shape NUM TH It is determined whether or not: And GetNo (Py) ≦ NUM TH And GetNo (Py Intp ) ≦ NUM TH When it is, the process proceeds to step S9, and GetNo (Py)> NUM TH Or GetNo (Py Intp )> NUM TH If so, the process proceeds to step S15 described later.
[0019]
Here, GetNo () is a function that returns the number of currently valid information in the array variable in parentheses, Py Intp Is an array variable for storing object position coordinates during extrapolation. Therefore, the number of objects permitted as roadside structure candidates among the stationary objects being continuously detected is calculated by GetNo (Py), and GetNo (Py Intp ) To calculate the number of non-detection stopped objects during extrapolation processing.
[0020]
In step S9, an object roadside structure candidate flag F satisfying the conditions of steps S7 and S8. Intp Is set as shown in the following equation (2).
F Intp [ID checked ] = 1 (2)
Where ID checked Is the ID number of the detected object that satisfies the conditions of steps S7 and S8.
[0021]
Next, in step S10, it is determined whether or not the stationary objects being continuously detected detected by the
[0022]
In step S11, thinning processing is performed in a dense group of objects. Array variable ID range Only the object closest to the vehicle, the object farthest from the ID number group, and the object existing at the center of the dense object group are permitted as roadside structure candidates. Other than these three objects The thinning process is performed on the object. That is, the roadside structure candidate flag F Intp Is set as in the following equations (3) and (4).
[0023]
F Intp [ID range _ min _ cntr _ max ] = 1 ……… (3)
F Intp [ID range _ remain ] = 0 ……… (4)
Where ID range _ min _ cntr _ max Is the array variable ID range ID number group having ID numbers of three objects permitted as roadside structure candidates in the ID number group of range _ remain Is the array variable ID range ID in the group of ID numbers range _ min _ cntr _ max This is an ID number group having ID numbers of objects to be thinned out.
[0024]
In step S12, it is determined whether or not there is an object that has been detected in the previous sampling and has not been detected in the current sampling. There is a non-detected object, and the roadside structure candidate flag F of the non-detected object Intp Is set to “1”, the process proceeds to step S13, and otherwise, the process proceeds to step S15 described later.
[0025]
In step S13, the cause of the non-detection of the object that satisfies the condition of step S12 is determined. When the position immediately before the non-detection of the object is near the detection viewing angle end of the
[0026]
If the determination result in step S13 is that the cause of non-detection is out of the radar viewing angle or that an obstacle such as a preceding vehicle exists and is hidden, step S14 is performed. If the cause is other than that, the process proceeds to step S15.
In step S14, the object position coordinates immediately before non-detection are substituted into the array variable that stores the extrapolated object.
[0027]
Py Intp [ID rearmost ] = Py [ID lost _ obj ] ……… (5)
Px Intp [ID rearmost ] = Px [ID lost _ obj ] ……… (6)
Tc Intp [ID rearmost ] = 0 ......... (7)
Where Px Intp And Py Intp Is the object position coordinates during the extrapolation process, ID rearmost Is the ID number following the last ID number in which the data being extrapolated is stored in the variable area for extrapolation, ID lost _ obj Is the ID number of the object not detected by this sampling, Tc Intp Is a count value which means extrapolation processing execution time.
[0028]
Next, in step S15, extrapolation processing of objects stored in a variable region for extrapolation processing, which will be described later, is performed, and then the process proceeds to step S16, where a group of objects being extrapolated and stopped objects being continuously detected are detected. A road shape recognition process is performed using the position information.
In this step S16, based on the object position coordinates of each object extrapolated in step S15 and each stationary object being continuously detected, all object positions constituting these road shapes are subjected to multiple regression analysis, and the following (8 ) To calculate the road shape of the host vehicle MC as shown in FIG. 3 by calculating the coefficients a to c of the road shape approximate line La shown in the equation, finish the timer interruption process, and return to the predetermined main program To do.
[0029]
X = a + b · Y + c · Y 2 ......... (8)
In the extrapolation process in step S15, as shown in FIG. 4, first, in step S151, the angle_theta2w [rad] that rotates during one sampling period, the wheel speed of the host vehicle is changed in the vehicle width direction speed and the inter-vehicle distance direction. Loop variables loop that mean the ID numbers of the objects stored in the variable region for extrapolation, while calculating values _Vx2w and _Vy2w that are decomposed into speeds, respectively, based on the following equations (9) to (11) Is reset to “0”.
[0030]
_Theta2w = φ ′ × Ts (9)
_Vx2w = V × sin (β) (10)
_Vy2w = V × cos (β) (11)
Here, Ts is a sampling period of 0.1 s.
Next, in step S152, the loop number loop of the object ID number of the roadside structure candidate is the ID number following the last ID number in which the data being extrapolated is stored in the extrapolation variable area. ID rearmost Determine if smaller than, loop <ID rearmost If YES, the process moves to step S153, and loop ≧ ID rearmost If it is, the extrapolation process is terminated and the process returns to a predetermined main program.
[0031]
In step S153, the extrapolation processing execution time of the extrapolation object whose ID number is “loop” is determined, and the count value Tc which means the extrapolation processing execution time is determined. Intp Extrapolation processing execution time threshold Tc preset by [loop] IntpTH It is determined whether this is the case. The determination result of step S153 is Tc Intp [Loop] <Tc IntpTH If it is, it is determined that the time is within the allowable execution time, the process proceeds to step S154, and the object position coordinates are calculated based on the following equations (12) and (13).
[0032]
Py Intp [Loop] = Py Intp [Loop] − (_ Vy2w × Ts) (12)
Px Intp [Loop] = Px Intp [Loop] − (_ Vx2w × Ts + Py Intp [Loop] × tan (_theta2w)) (13)
As described above, the extrapolation process is performed based on the own vehicle motion information that can be accurately detected without using noisy information such as a relative velocity vector. This is because the object permitted as the roadside structure is a stop object, and therefore, the object position coordinates can be calculated, that is, extrapolated by only the own vehicle motion information, with the object position before non-detection as the initial position. is there.
[0033]
Next, the process proceeds to step S155, and it is determined whether or not the object subjected to the extrapolation process has passed to the rear of the host vehicle. This determination is based on the object position coordinates Py calculated in step S154. Intp Depending on whether [loop] is greater than 0, Py Intp When [loop] ≦ 0, it is determined that the extrapolated object has passed to the rear of the host vehicle, the process proceeds to step S156, and extrapolation end processing is performed based on the following equations (14) to (16). Do.
[0034]
Py Intp [Loop] = D ObjLost ……… (14)
Px Intp [Loop] = D ObjLost ……… (15)
Tc Intp [Loop] = Tc IntpTH ……… (16)
[0035]
Where D ObjLost Is a predetermined distance which means the end of processing of the object being extrapolated.
In step S157, the loop variable loop is incremented, and the process proceeds to step S152.
On the other hand, the determination result of step S153 is Tc. Intp [Loop] ≧ Tc IntpTH If it is, it is determined that it is outside the allowable execution time, and the process proceeds to step S158. After extrapolation end processing is performed based on the following equations (17) to (19), the process proceeds to step 157.
[0036]
Py Intp [Loop] = D ObjLost ……… (17)
Px Intp [Loop] = D ObjLost ……… (18)
Tc Intp [Loop] = Tc IntpTH ……… (19)
In the process of FIG. 2, the processes of steps S2 to S12 correspond to the roadside structure candidate determination means, the processes of steps S13 and 4 correspond to the position information calculation means, and the process of step S14 corresponds to the road shape recognition means. is doing.
[0037]
Accordingly, it is assumed that a roadside stop object DE such as a preceding vehicle PC and a delineator is present in front of the host vehicle MC as shown in FIG. At this time, the
[0038]
If, for example, Δt seconds elapses from this state and the objects e and f being detected are outside the detection field of view of the
[0039]
In the extrapolation process of FIG. 4, the loop variable loop is initialized to “0” in step S151, and the count value Tc that means the extrapolation process execution time of the objects e and f Intp Are extrapolation processing execution time threshold values Tc, respectively. IntpTH First, Py which is the object position coordinate of the object f Intp [0] and Px Intp [0] is updated based on the equations (12) and (13) in step S154. Then, after incrementing the loop variable loop in step S157, Py which is the object position coordinate of the object e Intp [1] and Px Intp [1] is calculated based on the equations (12) and (13) in step S154.
[0040]
Next, in step S16 of FIG. 2, based on the object position coordinates of the roadside structure candidate objects b to d being continuously detected and the object position coordinates of the objects e and f being extrapolated, the above equation (8) is used. A road shape approximate line La is calculated.
As described above, when an object permitted as a roadside structure candidate is changed from being detected by the
[0041]
From this state, Δt seconds have passed, and as shown in FIG. 7, the object d being detected is outside the detection field of view of the
[0042]
In the extrapolation process of FIG. 4, the loop variable loop is initialized to “0” in step S151, and the count value Tc that means the extrapolation process execution time of the objects d to f. Intp Are extrapolation processing execution time threshold values Tc, respectively. IntpTH , Py which is the object position coordinate of the object f first Intp [0] and Px Intp [0] is updated based on the equations (12) and (13) in step S154. Since the object f has passed to the rear of the host vehicle, in step S155, Py Intp [0] ≦ 0, and the process proceeds to step S156 to perform extrapolation end processing of the object f. Then, after incrementing the loop variable loop in step S157, Py which is the object position coordinate of the object e Intp [1] and Px Intp [1] is updated in step S154 based on the expressions (12) and (13), and after further incrementing the loop variable loop in step S157, Py is the object position coordinate of the object d. Intp [2] and Px Intp [2] is set based on the equations (12) and (13) in step S154. As a result, the number of objects being extrapolated is two, d and e.
[0043]
Next, in step S16 of FIG. 2, based on the object position coordinates of the roadside structure candidate objects b and c being continuously detected and the object position coordinates of the objects d and e being extrapolated, the above equation (8) is used. A road shape approximate line La is calculated.
Further, as shown in FIG. 5, the
[0044]
In this case, the objects b to e being detected cannot be detected, and the number of roadside structure candidate objects being detected is only the object f. Since there is no number of objects being extrapolated, GetNo (Py) ≦ NUM in step S8. TH And GetNo (Py Intp ) ≦ NUM TH Then, the process proceeds to step S9, where the roadside structure candidate flag F of the object f Intp Is set to “1”. Since the stopped objects being detected are not dense, the process proceeds from step S10 to step S12, and the non-detected objects b to e are being continuously detected by the previous sampling, and the roadside structure candidate flag F Intp Is set to “1”, the process proceeds from step S12 to step S13 to determine the cause of non-detection of the objects b to e. Since the cause of non-detection is that it is located behind the preceding vehicle and has been hidden, the process proceeds to step S14, and the extrapolated object is stored based on the equations (5) to (7). Array variable Py Intp And Px Intp The initial position is set by substituting the object position coordinates Py and Px immediately before non-detection. Thereby, the array variable Py for storing the extrapolated object is stored. Intp And Px Intp The four object position coordinates of the objects b to e are stored in.
[0045]
Then, in the extrapolation process of FIG. 4, Py which is the object position coordinate after the non-detection of the objects b to e Intp And Px Intp Is calculated based on the above equations (12) and (13) in step S154, and in step S16 of FIG. 2, the object position coordinates of the roadside structure candidate object f being continuously detected and the object b being extrapolated Based on the object position coordinates of e to e, the road shape approximate line La is calculated based on the equation (8).
[0046]
As described above, in the above-described embodiment, it is determined whether or not a stationary object being continuously detected is permitted as a roadside structure candidate that forms a road shape, and an object permitted as a roadside structure candidate is detected. Since the extrapolation process is performed and the object position information after non-detection is calculated when it becomes a non-detection state from the existing state, the radar viewing angle for detecting the object ahead of the host vehicle is narrow and can be detected. Even if the number of reflectors is small, it is possible to grasp the road shape based on the object position information of the non-detected reflector and the object position information of the reflector being detected. Since weak reflectors other than the reflector are not permitted as roadside structure candidates, it is possible to prevent being affected by noise information that reduces road shape recognition accuracy.
[0047]
In addition, the currently detected stop object is permitted as a roadside structure candidate until the number of extrapolated objects and the number of roadside structure candidate objects during continuous detection reach the number of objects necessary to recognize the road shape. Therefore, when the number of objects being extrapolated reaches a predetermined value, the number of objects to be extrapolated can be limited to reduce the calculation load, and the reflector attached to the delineator can be considerably reduced. When the road shape can be calculated without using the position information of the extrapolated object, the calculation load required for the extrapolation process is eliminated by not permitting it as a roadside structure candidate. be able to.
[0048]
Furthermore, if there are densely stopped objects that are being detected continuously, the remaining objects thinned out from the dense group of objects are permitted as roadside structure candidates. The required calculation load can be reduced, and the road shape can be calculated appropriately.
In addition, when the cause that the roadside structure candidate object being continuously detected is not detected from the detected state is due to a deviation from the radar viewing angle for detecting the front object, and the vehicle ahead If the object is hidden behind an obstacle such as a roadside structure candidate, the extrapolation process can be performed only on an object that can be detected more reliably and stably.
[0049]
In the above embodiment, the case where the yaw rate and the slip angle are calculated based on the equation (1) using the two-wheel model in step S6 of the roadside structure candidate determination process in FIG. 2 has been described. The present invention is not limited, and the yaw rate sensor may be applied to directly detect the yaw rate, or the acceleration sensor may be applied to calculate the slip angle from the ratio of longitudinal acceleration and lateral acceleration. .
[0050]
In the above embodiment, when the detected object is a stop object and is being continuously detected in step S7, that is, F StopObj = 1 and Tc> Tc TH However, the present invention is not limited to this, and the width W of the detected object is used as F. StopObj = 1 and Tc> Tc TH And W <W TH If so, the process may proceed to step S8. Where W TH Is a threshold meaning that the detected object is a small object that is not a vehicle. In this way, by adding a judgment as to whether or not the detected stopped object is a vehicle, road shape recognition errors caused by misrecognizing a stopped vehicle as a roadside stop such as a delineator are eliminated, and a more accurate road shape Can be calculated.
[0051]
Further, in the above embodiment, the case where the extrapolation process is performed by setting the object position immediately before the non-detection as the initial position based on the equations (5) and (6) in step S14 has been described. However, the initial position may be set based on the following equations (20) and (21).
Py Intp [ID rearmost ] = Py_z [ID lost _ obj ] ……… (20)
Px Intp [ID rearmost ] = Px_z [ID lost _ obj ] ……… (21)
Here, Py_z and Px_z are array variables indicating values of the object position coordinates Py and Px before one sampling period. In this way, the extrapolation process is not performed with the position immediately before the non-detection of the object permitted as the roadside structure candidate as the initial position, but the extrapolation process with the position at least one sampling before the non-detection as the initial position. Therefore, particularly in the case where the object cannot be detected by deviating from the radar viewing angle, it is possible to prevent the object position immediately before non-detection from being easily disturbed.
[0052]
In the above embodiment, the case where a scanning laser radar is used as the
Furthermore, in the above embodiment, the case where the present invention is applied to a rear wheel drive vehicle has been described. However, the present invention can also be applied to a front wheel drive vehicle, and the case where the engine 2 is applied as a rotational drive source. Although explained, it is not limited to this, An electric motor can also be applied, Furthermore, this invention is applicable also to the hybrid specification vehicle which uses an engine and an electric motor.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram showing an embodiment of the present invention.
FIG. 2 is a flowchart showing a roadside structure candidate determination process executed by an external recognition controller in the embodiment of the present invention.
FIG. 3 is an explanatory diagram of road shape approximate lines calculated from position information of roadside structure candidate objects.
4 is a flowchart showing an extrapolation process of the roadside structure candidate determination process of FIG. 2 in the embodiment of the present invention.
FIG. 5 is a diagram for explaining the operation of the embodiment of the present invention.
FIG. 6 is a diagram for explaining the operation of the embodiment of the present invention.
FIG. 7 is a diagram for explaining the operation of the embodiment of the present invention.
FIG. 8 is a diagram for explaining the operation of the embodiment of the present invention.
[Explanation of symbols]
2 Engine
3 Automatic transmission
7 Disc brake
8 Braking control device
11 Engine output control device
12 Throttle actuator
13 Vehicle speed sensor
14 Front object sensor
17 Steering angle sensor
19 Brake controller
20 Outside world recognition controller
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003171749A JP2005010891A (en) | 2003-06-17 | 2003-06-17 | Vehicular road shape recognition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003171749A JP2005010891A (en) | 2003-06-17 | 2003-06-17 | Vehicular road shape recognition system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005010891A true JP2005010891A (en) | 2005-01-13 |
Family
ID=34096106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003171749A Pending JP2005010891A (en) | 2003-06-17 | 2003-06-17 | Vehicular road shape recognition system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005010891A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007017338A (en) * | 2005-07-08 | 2007-01-25 | Denso Corp | Road shape recognition device |
JP2007066047A (en) * | 2005-08-31 | 2007-03-15 | Mitsubishi Electric Corp | Road shape recognition device |
JP2012008999A (en) * | 2010-05-26 | 2012-01-12 | Mitsubishi Electric Corp | Road shape estimation device, computer program, and road shape estimation method |
US8694236B2 (en) | 2006-05-17 | 2014-04-08 | Denso Corporation | Road environment recognition device and method of recognizing road environment |
JP2017106806A (en) * | 2015-12-09 | 2017-06-15 | 株式会社デンソー | Object recognition device |
WO2019031137A1 (en) * | 2017-08-07 | 2019-02-14 | 日立オートモティブシステムズ株式会社 | Roadside object detection device, roadside object detection method, and roadside object detection system |
WO2022071315A1 (en) * | 2020-09-30 | 2022-04-07 | 学校法人明治大学 | Autonomous moving body control device, autonomous moving body control method, and program |
CN114697165A (en) * | 2022-03-09 | 2022-07-01 | 杭州市保密技术测评中心(杭州市专用通信与保密技术服务中心) | Signal source detection method based on unmanned aerial vehicle vision and wireless signal fusion |
-
2003
- 2003-06-17 JP JP2003171749A patent/JP2005010891A/en active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4561507B2 (en) * | 2005-07-08 | 2010-10-13 | 株式会社デンソー | Road shape recognition device |
JP2007017338A (en) * | 2005-07-08 | 2007-01-25 | Denso Corp | Road shape recognition device |
JP2007066047A (en) * | 2005-08-31 | 2007-03-15 | Mitsubishi Electric Corp | Road shape recognition device |
JP4637690B2 (en) * | 2005-08-31 | 2011-02-23 | 三菱電機株式会社 | Road shape recognition device |
DE102007021762B4 (en) | 2006-05-17 | 2019-02-21 | Denso Corporation | Road environment recognition device and method for recognizing a road environment |
US8694236B2 (en) | 2006-05-17 | 2014-04-08 | Denso Corporation | Road environment recognition device and method of recognizing road environment |
JP2012008999A (en) * | 2010-05-26 | 2012-01-12 | Mitsubishi Electric Corp | Road shape estimation device, computer program, and road shape estimation method |
JP2017106806A (en) * | 2015-12-09 | 2017-06-15 | 株式会社デンソー | Object recognition device |
WO2019031137A1 (en) * | 2017-08-07 | 2019-02-14 | 日立オートモティブシステムズ株式会社 | Roadside object detection device, roadside object detection method, and roadside object detection system |
JPWO2019031137A1 (en) * | 2017-08-07 | 2020-02-27 | 日立オートモティブシステムズ株式会社 | Roadside object detection device, roadside object detection method, and roadside object detection system |
US11151395B2 (en) | 2017-08-07 | 2021-10-19 | Hitachi Astemo, Ltd. | Roadside object detection device, roadside object detection method, and roadside object detection system |
WO2022071315A1 (en) * | 2020-09-30 | 2022-04-07 | 学校法人明治大学 | Autonomous moving body control device, autonomous moving body control method, and program |
CN114697165A (en) * | 2022-03-09 | 2022-07-01 | 杭州市保密技术测评中心(杭州市专用通信与保密技术服务中心) | Signal source detection method based on unmanned aerial vehicle vision and wireless signal fusion |
CN114697165B (en) * | 2022-03-09 | 2023-12-22 | 杭州市保密技术测评中心(杭州市专用通信与保密技术服务中心) | Signal source detection method based on unmanned aerial vehicle vision and wireless signal fusion |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108216225B (en) | Collision avoidance assistance device | |
US11809194B2 (en) | Target abnormality determination device | |
JP6376059B2 (en) | Control device for autonomous driving vehicle | |
US7433772B2 (en) | Target speed control system for a vehicle | |
CN109421704A (en) | For the control equipment of vehicle and the control method of vehicle | |
CN108216224B (en) | Collision avoidance assistance device | |
JP7470588B2 (en) | Collision avoidance support device | |
CN109835330B (en) | Method for actively avoiding collision of vehicle and vehicle using same | |
CN108622088A (en) | Collision avoidance apparatuses | |
JP2022024323A (en) | Collision avoidance support device | |
JP4946212B2 (en) | Driving support device | |
JP2022125580A (en) | Collison avoidance support device | |
EP3418152B1 (en) | Vehicle control device | |
JP3873858B2 (en) | Follow-up control device | |
JP2017117192A (en) | Drive support apparatus | |
US20200023901A1 (en) | Method and system for providing a steering guidance to a driver of a host vehicle | |
JP2005010891A (en) | Vehicular road shape recognition system | |
JP6311628B2 (en) | Collision avoidance control device | |
JP6772940B2 (en) | Autonomous driving system | |
JP6331233B2 (en) | Vehicle control device | |
JP3786094B2 (en) | Vehicle travel control device | |
JP4100269B2 (en) | Vehicle road shape recognition device | |
JPH0836697A (en) | Rear-end collision danger judgement method in rear-end collision prevention system | |
JP2007290708A (en) | Travel control apparatus for vehicle | |
CN116135638A (en) | Self-adaptive anti-collision method and system for vehicle crossing and vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Effective date: 20051226 Free format text: JAPANESE INTERMEDIATE CODE: A621 |
|
A977 | Report on retrieval |
Effective date: 20070725 Free format text: JAPANESE INTERMEDIATE CODE: A971007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070807 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071002 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080115 |