JP4100269B2 - Vehicle road shape recognition device - Google Patents

Vehicle road shape recognition device Download PDF

Info

Publication number
JP4100269B2
JP4100269B2 JP2003171750A JP2003171750A JP4100269B2 JP 4100269 B2 JP4100269 B2 JP 4100269B2 JP 2003171750 A JP2003171750 A JP 2003171750A JP 2003171750 A JP2003171750 A JP 2003171750A JP 4100269 B2 JP4100269 B2 JP 4100269B2
Authority
JP
Japan
Prior art keywords
road
vehicle
curvature radius
deli
host vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003171750A
Other languages
Japanese (ja)
Other versions
JP2005010892A (en
Inventor
琢 高浜
健 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003171750A priority Critical patent/JP4100269B2/en
Publication of JP2005010892A publication Critical patent/JP2005010892A/en
Application granted granted Critical
Publication of JP4100269B2 publication Critical patent/JP4100269B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えばレーザ等の電磁波レーダを用いて、道路形状を認識するようにした車両用道路形状認識装置に関する。
【0002】
【従来の技術】
従来の車両用道路形状認識装置としては、自車両の両サイドにレーダを配置して自車両からガードレール等の路側物体までの車幅方向距離を測定し、測定した距離と全地球測位システム(GPS:global positioning system)で検出したレーン情報(2車線か否か)によって自車走行レーン位置を判定するというものが知られている(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開2002−225657号公報(第3頁、第2図)
【0004】
【発明が解決しようとする課題】
しかしながら、上記従来の車両用道路形状認識装置にあっては、自車両の車幅方向距離検出用に左右2セットのレーダが必要となり、前方車両等を検知するシステムが加わる場合には、さらに前方検出用のレーダが別途必要となるので、部品点数が増大すると共に、高コストなシステムとなるという未解決の課題がある。
そこで、本発明は、上記従来例の未解決の課題に着目してなされたものであり、低コストなシステムで精度良く道路形状を認識することが可能な車両用道路形状認識装置を提供することを目的としている。
【0005】
【課題を解決するための手段】
上記目的を達成するために、本発明に係る車両用道路形状認識装置は、前方物体検出手段で自車両前方の物体を検出し、道路曲率半径検出手段で自車走行路の道路曲率半径を検出し、路側構造物判断手段で、前記前方物体検出手段で検出した前方物体について、自車両が走行している道路形状を形成する路側構造物であるか否かを判断し、車幅方向距離演算手段で、該路側構造物判断手段で路側構造物であると判断された物体のうち最も自車両に接近している物体の位置情報と、前記道路曲率半径検出手段で検出した道路曲率半径とに基づいて、路側構造物側の道路端から自車両までの車幅方向距離を演算し、前記道路曲率半径検出手段は、自車両の走行車線状況及び運転者による操舵状況に応じて、複数の道路曲率半径候補の中から適切な1種類を選択して道路曲率半径を設定するように構成されている。
【0006】
【発明の効果】
本発明によれば、自車両前方の物体を検出するためのレーダ等により検出した前方物体が道路形状を形成する路側構造物であるか否かを判断し、最も自車両に近い路側構造物の物体位置と道路曲率半径とに基づいて、路側構造物側の道路端から自車両までの車幅方向距離を算出するので、複数のレーダを配置する必要がなく、1つの前方検出用のレーダ等により車幅方向距離を精度良く検知することができるという効果が得られる。
【0007】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて説明する。
図1は本発明を後輪駆動車に適用した場合の実施形態を示す概略構成図であり、図中、1FL,1FRは従動輪としての前輪、1RL,1RRは駆動輪としての後輪であって、後輪1RL,1RRは、エンジン2の駆動力が自動変速機3、プロペラシャフト4、最終減速装置5及び車軸6を介して伝達されて回転駆動される。
【0008】
前輪1FL,1FR及び後輪1RL,1RRには、夫々制動力を発生する例えばディスクブレーキで構成されるブレーキアクチュエータ7が設けられていると共に、これらブレーキアクチュエータ7の制動油圧が制動制御装置8によって制御される。
ここで、制動制御装置8は、図示しないブレーキペダルの踏込みに応じて制動油圧を発生すると共に、後述するブレーキ制御用コントローラ19からの制動圧指令値PBRに応じて制動油圧を発生し、これをブレーキアクチュエータ7に出力するように構成されている。
【0009】
また、エンジン2には、その出力を制御するエンジン出力制御装置11が設けられている。このエンジン出力制御装置11では、図示しないアクセルペダルの踏込量及び後述するブレーキ制御用コントローラ19からのスロットル開度指令値θ*に応じてエンジン2に設けられたスロットル開度を調整するスロットルアクチュエータ12を制御するように構成されている。
また、自動変速機3の出力側に配設された出力軸の回転速度を検出することにより、自車速Vを検出する車速センサ13が配設されている。
【0010】
一方、車両の前方側の車体下部には、前方物体検出手段としての前方物体センサ14が設けられている。この前方物体センサ14は、スキャニング式のレーザレーダで構成され、一定角度ずつ水平方向にずれながら周期的に車両の前方方向に所定の照射範囲内で細かいレーザ光を照射し、前方物体から反射して戻ってくる反射光を受光して、出射タイミングから反射光の受光タイミングまでの時間差に基づいて、各角度における自車両と前方物体との間の前後方向距離Pyを検出する。また、その前後方向距離Py及びスキャニング角度θに基づいて、前方物体までの横方向距離Pxを検出し、さらに前方物体の幅W及び相対速度Vrを検出する。このようにして検出した前方物体との相対距離Px、Py、前方物体の幅W及び相対速度Vrには、夫々物体のIDに相当する番号(例えば、0からの連番)が振られ、この物体ID番号順に並んだ配列変数として管理される。したがって、ID=1の物体はPy[1]、ID=3の物体はPy[3]となる。
【0011】
また、車両前方には、自車両前方の状況を高速に把握するための外界認識センサとして、CCDカメラ15及びカメラコントローラ16を備えている。このカメラコントローラ16では、道路区画線等のレーンマーカを検出して走行車線を検出すると共に、走行車線の道路曲率半径候補R3を検出することができるように構成されている。その方法としては、先ず、自車走行車線の道路区画線の形状を数式化モデル(以下、白線モデルと称す)で表す。この白線モデルは道路パラメータを用いて次式のように表される。
【0012】
X=(a+ie)(Y−d)+b/(Y−d)+c ………(1)
ここで、a〜eは道路パラメータであり、aは車線内の自車両の横変位量、bは道路曲率半径、cは自車両(カメラ光軸)の道路に対するヨー角、dは自車両(カメラ光軸)の道路に対するピッチ角、eは道路の車線幅である。
初期状態では、各道路パラメータには中央値に相当する値を初期値として設定する。車線内の位置aには車線中央値を設定し、道路曲率半径bには直線値を設定し、車線に対するヨー角cには0度を設定し、車線に対するピッチ角dには停止状態のα度を設定し、車線幅eには道路構造令に示される高速道路の車線幅を設定する。
【0013】
そして、CCDカメラ15で所定値以上の白線上の検出点を捕捉したときに、今回のサンプリングで求めた白線検出点と前回のサンプリングで求めた白線モデル上の点とのずれ量を各点ごとに算出し、このずれ量に基づいて道路パラメータの変動量Δa〜Δeを算出する。変動量Δa〜Δeの算出方法は、例えば特開平8−5388号公報に示されるような方法を用いることができる。次いで、算出した道路パラメータの変動量Δa〜Δeにより、下記(2)式をもとに新しい道路パラメータa〜eを算出する。
【0014】
a=a+Δa,
b=b+Δb,
c=c+Δc,
d=d+Δd,
e=e+Δe ………(2)
【0015】
このように算出した道路パラメータbが道路曲率半径R3として外界認識コントローラ20に入力される。また、道路曲率半径候補R3は、右カーブを正の値、左カーブを負の値とする。
また、車体には、自車両の走行位置を検出する走行地点検出手段としての全地球測位システム(GPS:global positioning system)17と、全地球測位システム17から入力された自車位置データとマッチングするための道路情報を格納した、例えばカーナビゲーションシステムで構成される道路情報提供手段としての道路地図データ格納部18が設けられており、自車走行路の道路曲率半径R2や自車走行車線の分岐路の数NBranchなどを検出できるように構成されている。また、道路曲率半径R2は、右カーブを正の値、左カーブを負の値とする。
さらに、この車両には、自車両に発生するヨーレートωを検出するヨーレートセンサ22、図示しないステアリングホイールの操舵角δを検出する操舵角センサ23が備えられ、これらの検出信号は外界認識コントローラ20に入力される。
【0016】
そして、車速センサ13から出力される自車速Vと前方物体センサ14から出力される相対距離Px、Py、前方物体の幅W、相対速度Vrとカメラコントローラ16から出力される道路曲率半径候補R3、全地球測位システム17と道路地図データ格納部18とから出力された道路曲率半径候補R2及び分岐路の数NBranch、ヨーレートセンサ22から出力されるヨーレートω、操舵角センサ23から出力される操舵角δとが外界認識コントローラ20に入力され、この外界認識コントローラ20によって、前方物体センサ14で検出している停止物体が路側構造物であるか否かを判断し、自車速Vとヨーレートωとに基づいて道路曲率半径候補R1を算出し、道路曲率半径候補R2及び分岐路の数NBranchに応じて走行路状況を判定し、道路曲率半径候補R1〜R3から適切な道路曲率半径Rを選択する。そして、図2に示すように、自車両MCに最も近い路側構造物P1の物体位置と道路曲率半径Rとに基づいて、図2の斜線部分に示すように仮想的に道路形状構造物DEを生成し、路側構造物側の道路端A点から自車両MCまでの車幅方向距離D2Wallを算出する。
【0017】
ブレーキ制御用コントローラ21では、外界認識コントローラ20によって認識された車幅方向距離、即ち道路形状に基づいて、前方物体センサ14で検出した各物体が自車両にとって制動回避すべき障害物であるか否かを判断し、制動回避すべきであると判断されたときに所定の制動圧指令値PBRを制動制御装置8に出力して自車両の自動ブレーキ制御を行う。
次に、第1の実施形態の動作を外界認識コントローラ20で実行する路側構造物判断処理手順を示す図3及び図4を伴って説明する。
【0018】
この路側構造物判断処理は、所定時間(例えば100msec)毎のタイマ割込処理として実行され、先ず、ステップS1で、前方物体センサ14で検出した相対距離Px、Py、前方物体の幅W及び相対速度Vr、車速センサ13で検出した自車速V、ヨーレートセンサ22で検出したヨーレートω、操舵角センサ23で検出した操舵角δを読込む。ここで、前方物体との相対距離Px、Py、前方物体の幅W及び相対速度Vrは、物体のIDに相当する番号順に並んだ配列変数として管理され、例えば、ID=1の物体はPy[1]、ID=3の物体はPy[3]となる。
【0019】
次にステップS2に移行して、検出中の各物体が停止物であるか否かを判定する。この判定は自車速Vと物体との相対速度Vrによって行い、V≒Vrであるときに、この物体は停止物体であると判断する。そして、検知物体が停止物であるときにはステップS3に移行してその物体の停止物フラグFStopObjを“1”にセットし、停止物でないときにはステップS4に移行してその物体の停止物フラグFStopObjを“0”にリセットする。
【0020】
次にステップS5に移行して、自車速V及びヨーレートωを用いて、自車両の道路曲率半径候補R1[m]を下記(3)式をもとに算出する。
1=V/ω ………(3)
また、道路曲率半径候補R1の符号は、右カーブを正、左カーブを負とする。
次にステップS6で、全地球測位システム17から入力される自車走行地点データを読込み、この自車走行地点データをもとに道路地図データ格納部18をアクセスして、自車両の走行車線の道路曲率半径候補R2と分岐路の数NBranchを読込み、次いでステップS7に移行して、カメラコントローラ16から道路曲率半径候補R3を読込む。
【0021】
次に、前方物体センサ14で検出した各物体が、道路形状を形成する路側構造物の候補であるか否かを判定する。先ずステップS8で路側構造物候補格納変数PyDeli及びPxDeliに格納する物体の数NDeliを“0”にリセットすると共に、ループ変数iを“0”にリセットする。また、前方物体センサ14で現在検知中の物体数NObjを、相対距離格納変数Pyに格納されている値の数に基づいて算出する。
【0022】
次いで、ステップS9に移行して、ループ変数iが前方物体センサ14で検知中の物体数NObjより小さいか否かを判定し、i<NObjであるときにはステップS10に移行し、ID番号iの検知物体の停止物フラグFStopObjが“1”にセットされており、且つ物体の幅Wが予め設定した閾値WTHより小さいか否かを判定する。ここで、閾値WTHは、検知物体が車両でない小さい物体であることを意味する閾値である。
【0023】
ステップS10の判定結果が、FStopObj=1且つW<WTHであるときには、判定中の物体は車両でない停止物体であると判断してステップS11に移行し、下記(4)及び(5)式をもとに路側構造物候補格納変数に現在の物体位置座標を格納すると共に、下記(6)式をもとに物体数NDeliをインクリメントしてステップS12に移行する。
【0024】
PyDeli[NDeli]=Py[i] ………(4)
PxDeli[NDeli]=Px[i] ………(5)
Deli=NDeli+1 ………(6)
一方、前記ステップS10の判定結果が、FStopObj=0又はW≧WTHであるときには、ステップS12に移行する。
【0025】
このステップS12では、ループ変数iをインクリメントして前記ステップS9に移行し、i≧NObjとなるまでステップS10からステップS12までの処理を繰り返す。そして、ステップS9の判定結果がi≧NObjとなったときには、検知中の全物体に対して路側構造物候補であるか否かの判断を行ったと判断してステップS13に移行する。
【0026】
ステップS13では、下記(7)式をもとに操舵角δの標準偏差δvを算出し、運転者操作における修正操舵量を把握する。
δv=√[{(δ[0]−A)2+…+(δ[9]−A)2}/10] ………(7)
ここで、δ[n]はn回前のサンプリングにおいて検出した操舵角であり、δ[0]は今回検出した操舵角である。また、Aは過去10回分のサンプリング(1秒間)における操舵角δの平均値であり、下記(8)式で表される。
【0027】
A=(δ[0]+δ[1]+…+δ[9])/10 ………(8)
次にステップS14で、自車両の走行車線が直線路であり、且つ分岐路がないか否かを判定する。この判定は、道路曲率半径候補R2が直線路に相当する曲率半径を意味する曲率半径閾値RTHより大きく、且つ分岐路の数NBranchが、分岐路がない一本道であることを意味する“1”であるか否かで判定し、R2>RTH且つNBranch=1であるときにはステップS15に移行して、道路曲率半径Rを、次式をもとに設定して後述するステップS19に移行する。
【0028】
R=R2 ………(9)
一方、前記ステップS14の判定結果が、R2≦RTH又はNBranch≠1であるときにはステップS16に移行して、前記ステップS13で算出した操舵角の標準偏差δvが標準偏差閾値STR_VTHより大きいか否かを判定する。ここで、STR_VTHは運転操作における修正操舵量を判定する閾値であり、CCDカメラの白線検知精度の高さに応じて決定される。
【0029】
そして、ステップS16の判定結果がδv>STR_VTHであるときには、運転操作における修正操舵量が多いと判断してステップS17に移行し、道路曲率半径Rを、次式をもとに設定して後述するステップS19に移行する。
R=R3 ………(10)
一方、前記ステップS16の判定結果がδv≦STR_VTHであるときには、ステップS18に移行して、道路曲率半径Rを、次式をもとに設定してステップS19に移行する。
【0030】
R=R1 ………(11)
ステップS19では、ループ変数loop1及びloop2を下記(12)及び(13)式をもとに初期化し、さらに路側構造物候補格納変数の中に路側構造物が存在する数NOfInfraと、路側構造物が存在するか否かを判断する道路形状算出フラグFDeliOKとをゼロリセットし、路側構造物が存在しない状態にセットする。
【0031】
loop1=NDeli−1 ………(12)
loop2=loop1−1 ………(13)
OfInfra=0 ………(14)
DeliOK=0 ………(15)
また、路側構造物候補格納変数PyDeliに格納されている前後方向距離を距離の短い順に並び替えて、格納変数Py2Deliに新たにID番号を振りなおして格納すると共に、格納変数Px2Deliには、格納変数Py2Deliに格納された物体の前後方向距離に対応する横方向距離を格納する。これにより、loop1はloop2と比較して自車両から遠方の物体ID番号となる。
【0032】
この路側構造物候補格納変数Py2Deli及びPx2Deliに格納されている各物体について、路側構造物であるか否かを判定し、路側構造物である場合には、路側構造物格納変数PyDeli_near、PyDeli_far、PxDeli_near、PxDeli_farに物体位置座標をそれぞれ格納する。
先ず、ステップS20で、路側構造物候補の物体位置Py2Deli[loop1]及びPy2Deli[loop2]が、それぞれ道路曲率半径Rの絶対値|R|より小さいか否かを判定し、Py2Deli[loop1]≧|R|又はPy2Deli[loop2]≧|R|であるときには、路側構造物候補物体は道路曲率半径より遠方に存在しており、路側構造物でないと判断して後述するステップS29に移行する。一方、ステップS20の判定結果が、Py2Deli[loop1]<|R|且つPy2Deli[loop2]<|R|であるときには、ステップS21に移行する。
【0033】
ステップS21では、道路曲率半径Rに対して、ID番号loop1及びloop2の2つの検知物体間の車幅方向距離tempを算出する。
temp=√(R2−Py2Deli[loop1]2)−√(R2−Py2Deli[loop2]2) ………(16)
次にステップS22で、道路曲率半径Rの符号を判定し、R>0即ち右カーブであるときには、ステップS23に移行して、(17)式に示すように検知物間の車幅方向距離tempの符号を反転させてからステップS24に移行する。一方、ステップS22の判定結果がR≦0であるときには、そのままステップS24に移行する。
【0034】
temp=−temp ………(17)
ステップS24では、ID番号loop1及びloop2の2つの検知物体の横位置ずれを判定し、下記(18)式が成立する場合には、これらの物体は路側構造物であると判断してステップS25に移行し、不成立の場合には後述するステップS29に移行する。
【0035】
|temp−(Py2Deli[loop1]−Py2Deli[loop2])|<GTH ………(18)
ここで、GTHは2つの検知物体が路側構造物であると判断する際に許容する横位置ずれに関する閾値である。
ステップS25では、路側構造物体数NOfInfraをインクリメントしてから、前記ステップS24で路側構造物であると判断された2つの検知物体について、下記(19)〜(22)式をもとに路側構造物格納変数PyDeli_near、PyDeli_far、PxDeli_near、PxDeli_farに物体位置座標をそれぞれ格納する。
【0036】
PxDeli_near[NOfInfra]=Px2Deli[loop2] ………(19)
PxDeli_far[NOfInfra]=Px2Deli[loop1] ………(20)
PyDeli_near[NOfInfra]=Py2Deli[loop2] ………(21)
PyDeli_far[NOfInfra]=Py2Deli[loop1] ………(22)
次に、ステップS26で、前後方向距離PyDeli_near[NOfInfra]が前後方向距離閾値D_nearTHより小さいか否かを判定し、下記(23)式が成立するときにはステップS27に移行し、不成立のときには後述するステップS29に移行する。
【0037】
PyDeli_near[NOfInfra]<D_nearTH ………(23)
ここで、前後方向距離閾値D_nearTHは、ガードレール等に相当する路側物体から自車両までの車幅方向距離算出の際に基点とする物体が自車両から遠方に存在することに起因する、車幅方向距離の算出精度悪化を防止するための閾値である。
【0038】
ステップS27では、2つの物体間の前後方向距離が物体間距離閾値D_pairTHより大きいか否かを判定し、下記(24)式が成立するときには2つの物体の位置は接近していないと判断してステップS28に移行し、不成立のときには後述するステップS29に移行する。
PyDeli_far[NOfInfra]−PyDeli_near[NOfInfra]>D_pairTH………(24)
次にステップS28では、自車両に接近している路側構造物の物体位置を基点として道路形状構造物を生成し、ガードレール等に相当する路側物体から自車両までの車幅方向距離候補D2Wallを算出し、道路形状算出フラグFDeliOKを“1”にセットする。
【0039】
図5に示す斜線部分は、検知物Pnearを基点に仮想的に生成した道路形状構造物DEである。道路形状構造物DEから自車両MCまでの車幅方向距離の絶対値は、検知物Pnearの横方向距離PxDeli_nearの絶対値に、道路形状構造物DEから検知物Pnearまでの車幅方向距離D1を加算した値となる。ここで、距離D1は下記(25)式で表される。
【0040】
1=|R|−√(R2−PyDeli_near[NOfInfra2) ………(25)
この距離D1は常に正の値となる。したがって、道路形状構造物DEから自車両MCまでの車幅方向距離候補D2Wallは、下記(26)式をもとに算出される。
2Wall[NOfInfra]=PxDeli_near[NOfInfra]−sign(R)・{|R|−√(R2−PyDeli_near[NOfInfra2)} ………(26)
ここで、sign( )は括弧内の値が正の場合には+1を、負の場合には−1を返す関数である。
【0041】
図5に示すように自車走行車線が右カーブであるとすると、道路曲率半径Rは正の値であるので、前記(26)式においてsign(R)は+1となり、道路形状構造物DEから自車両MCまでの車幅方向距離候補D2Wallは、D2Wall=PxDeli_near−D1により算出されることになる。ここで、検知物Pnearは自車両の左側に存在するため、横位置PxDeli_nearは負の値である。
【0042】
一方、自車走行車線が左カーブであるとすると、道路曲率半径Rは負の値であるので、前記(26)式においてsign(R)は−1となり、道路形状構造物DEから自車両MCまでの車幅方向距離候補D2Wallは、D2Wall=PxDeli_near+D1により算出されることになる。ここで、検知物Pnearは自車両の右側に存在するため、横位置PxDeli_nearは正の値である。
【0043】
次にステップS29で、ループ変数loop1及びloop2をデクリメントしてからステップS30に移行し、ループ変数loop2が0以上であるか否かを判定する。ステップS30の判定結果が、loop2≧0であるときには、前記ステップS20に移行して路側構造物判断を繰り返す。一方、loop2<0であるときには、全ての路側構造物候補の物体に対して路側構造物判断を行ったと判断してステップS31に移行する。
【0044】
そして、ステップS31で、前記ステップS28で道路形状算出フラグFDeliOKが、車幅方向距離候補D2Wallが1つ以上算出されていることを意味する“1”にセットされており、最終的な車幅方向距離D2Wall_outが算出可能であるか否かを判定し、算出可能であるときにはステップS32に移行して、車幅方向距離候補D2Wallの採用判定を行う。この判定は、算出された車幅方向距離候補D2Wallの符号を判断することで行い、車幅方向距離候補D2Wallの符号が全て同符号である場合には、全ての車幅方向距離候補D2Wallを採用してステップS33に移行する。一方、車幅方向距離候補D2Wallの符号に異符号が含まれる場合には、路側構造物が自車両の両側に存在するため片側のみに絞り込む必要があると判断して、算出頻度の高い方の符号の車幅方向距離候補D2Wallのみを採用してステップS33に移行する。なお、車幅方向距離候補D2Wallの符号の算出頻度が正負で同じ場合には、予め設定した符号(例えば、負)の車幅方向距離候補D2Wallを採用する。
【0045】
ステップS33では、前記ステップS32で採用された車幅方向距離候補D2Wallの平均値を下記(27)式をもとに算出し、最終的な車幅方向距離D2Wall_outとして設定してからタイマ割込処理を終了して所定のメインプログラムに復帰する。
2Wall_out=ave(D2Wall,1,NOfInfra) ………(27)
ここで、ave(Arg,Start,End)は配列変数ArgにおけるStart番目からEnd番目までの平均値を出力する関数である。
【0046】
一方、前記ステップS31の判定結果が、車幅方向距離候補D2Wallが算出されておらず最終的な車幅方向距離D2Wall_outが算出不可能であるときには、ステップS34に移行し、D2Wall_out=NoDataとして最終的な車幅方向距離が出力できないことを意味する値を設定してからタイマ割込処理を終了して所定のメインプログラムに復帰する。
【0047】
図3の処理において、ステップS14〜S18の処理が道路曲率半径検出手段に対応し、図4の処理において、ステップS20〜S27の処理が路側構造物判断手段に対応し、ステップS28、ステップS31〜S34の処理が車幅方向距離算出手段に対応している。
したがって、今、図6に示すように、自車両MCが分岐路のない直線路を走行中であり、自車前方左側にデリニエータ等の路側停止物体DEが存在しているとする。このとき、前方物体センサ14で物体a〜cを検知しているとすると、図3の路側構造物判断処理において、ステップS2で物体a〜cが停止物体であると判断され、ステップS3で停止物フラグFStopObjが“1”にセットされる。物体a〜cは停止車両でないため、ステップS10の判定で路側構造物候補として判断され、ステップS11で路側構造物候補格納変数PyDeli及びPxDeliに夫々位置情報を格納する。自車走行車線は直線路且つ分岐路が存在しないので、ステップS14からステップS15に移行して全地球測位システム17及び道路地図データ格納部18から得られた道路曲率半径候補R2を道路曲率半径Rとして設定する。
【0048】
次いで、路側構造物候補として格納された物体a〜cについて、路側構造物であるかの判断を行い、路側構造物であると判断された場合には、その物体位置情報と前記ステップ15で設定した道路曲率半径Rとに基づいて、道路端の路側停止物体から自車両までの車幅方向距離候補を算出する。ここで、物体a〜cは自車両から近い位置に存在しており、個々の物体の位置は接近していないとすると、先ず、図4のステップS19でループ変数が初期化され、路側構造物候補の物体数NDeliは“3”であるので、loop1=2、loop2=1に設定される。そして、物体cの位置情報Py2Deli[2]、Px2Deli[2]、及びbの位置情報Py2Deli[1]、Px2Deli[1]に基づいて物体c及びbの路側構造物判定が行われ、ステップS25で路側構造物体数NOfInfraをインクリメントして“1”にセットしてから、路側構造物格納変数PyDeli_near[1]、PxDeli_near[1]に物体bの物体位置座標、路側構造物格納変数PyDeli_far[1]、PxDeli_far[1]に物体cの物体位置座標をそれぞれ格納し、ステップS28で、前記(26)式をもとに物体bの位置情報PyDeli_near[1]、PxDeli_near[1]に基づいて車幅方向距離候補D2Wall[1]を算出する。
【0049】
次いで、ステップS29でループ変数loop1及びloop2をデクリメントしてステップS30に移行する。ループ変数loop2=0であるので、ステップS30からステップS20に移行し、物体bの位置情報Py2Deli[1]、Px2Deli[1]、及びaの位置情報Py2Deli[0]、Px2Deli[0]に基づいて物体b及びaの路側構造物判定が行われる。そして、ステップS25で路側構造物体数NOfInfraをインクリメントして“2”にセットしてから、路側構造物格納変数PyDeli_near[2]、PxDeli_near[2]に物体aの物体位置座標、路側構造物格納変数PyDeli_far[2]、PxDeli_far[2]に物体bの物体位置座標をそれぞれ格納し、ステップS28で、前記(26)式をもとに物体aの位置情報PyDeli_near[2]、PxDeli_near[2]に基づいて車幅方向距離候補D2Wall[2]を算出する。
【0050】
次に、ステップS29でループ変数loop1及びloop2をデクリメントするとloop2<0となり、ステップS30からステップS31に移行する。前記ステップS28で車幅方向距離候補D2Wallは算出されおり、道路形状算出フラグFDeliOKは“1”にセットされているので、ステップS31からステップS32に移行して、車幅方向距離候補D2Wall[1]とD2Wall[2]の採用判定を行い、これらは同符号(マイナスの値)で算出されているので、両者を採用してステップS33に移行し、車幅方向距離候補D2Wall[1]とD2Wall[2]の平均値を算出することで最終的な車幅方向距離D2Wall_outが設定される。
【0051】
また、図7に示すように、自車両MCが分岐路のない直線路を走行中であり、自車前方左側にデリニエータ等の路側停止物体DEが存在し、自車前方右側に停止物体Pが存在しているとする。このとき、前方物体センサ14で物体a〜dを検知しているとすると、図3のステップS10の判定で物体a〜dが路側構造物候補として判断され、ステップS11で路側構造物候補格納変数PyDeli及びPxDeliに夫々位置情報を格納する。
【0052】
ここで、物体a〜dは自車両から近い位置に存在しており、個々の物体の位置は接近していないとすると、先ず、物体c及びbの路側構造物判定が行われ、ステップS25で路側構造物体数NOfInfraをインクリメントして“1”にセットしてから、路側構造物格納変数PyDeli_near[1]、PxDeli_near[1]に物体bの物体位置座標、路側構造物格納変数PyDeli_far[1]、PxDeli_far[1]に物体cの物体位置座標をそれぞれ格納し、ステップS28で、前記(26)式をもとに物体bの位置情報PyDeli_near[1]、PxDeli_near[1]に基づいて車幅方向距離候補D2Wall[1]を算出する。次いで、物体b及びaの路側構造物判定が行われ、ステップS28で、前記(26)式をもとに物体aの位置情報PyDeli_near[2]、PxDeli_near[2]に基づいて車幅方向距離候補D2Wall[2]を算出する。次いで、物体a及びdの路側構造物判定が行われ、ステップS28で、前記(26)式をもとに物体dの位置情報PyDeli_near[3]、PxDeli_near[3]に基づいて車幅方向距離候補D2Wall[3]を算出する。
【0053】
そして、ステップS32で、車幅方向距離候補D2Wallの採用判定が行われ、車幅方向距離候補D2Wall[1]及びD2Wall[2]は負の値、車幅方向距離候補D2Wall[3]は正の値であるので、車幅方向距離候補D2Wall[1]及びD2Wall[2]のみ採用してステップS33に移行し、車幅方向距離候補D2Wall[1]とD2Wall[2]の平均値を算出することで最終的な車幅方向距離D2Wall_outが設定される。
【0054】
一方、図8に示すように、自車両MCが分岐路のない曲線路を走行中であり、自車前方にデリニエータ等の路側停止物体DE、先行車両PC、遠方停止物体Pが存在しているとする。このとき、前方物体センサ14で物体a〜eを検知しているとすると、物体a〜c、eは車両でない停止物体であり、物体dは非停止物体であるため、図3のステップS10の判定で物体a〜c、eが路側構造物候補として判断され、ステップS11で路側構造物候補格納変数PyDeli及びPxDeliに夫々位置情報を格納する。自車走行車線は曲線路であるので、ステップS14からステップS16に移行して運転者操作によるハンドル操舵量のばらつきを判定し、ばらつきが少ない場合にはステップS18に移行して、自車速V及びヨーレートωを用いて前記(3)式をもとに算出した道路曲率半径候補R1を道路曲率半径Rとして設定する。
【0055】
ここで、物体a〜cは自車両から近い位置に存在しており、個々の物体の位置は接近していないとすると、先ず、物体e及びcの路側構造物判定が行われ、物体eは道路曲率半径Rより遠方に存在しているため、ステップS20からステップS29に移行してループ変数loop1及びloop2をデクリメントする。次いで、物体c及びbの路側構造物判定が行われ、ステップS25で路側構造物体数NOfInfraをインクリメントして“1”にセットしてから、路側構造物格納変数PyDeli_near[1]、PxDeli_near[1]に物体bの物体位置座標、路側構造物格納変数PyDeli_far[1]、PxDeli_far[1]に物体cの物体位置座標をそれぞれ格納し、ステップS28で、前記(26)式をもとに物体bの位置情報PyDeli_near[1]、PxDeli_near[1]に基づいて車幅方向距離候補D2Wall[1]を算出する。
【0056】
次いで、物体b及びaの路側構造物判定が行われ、ステップS25で路側構造物体数NOfInfraをインクリメントして“2”にセットしてから、路側構造物格納変数PyDeli_near[2]、PxDeli_near[2]に物体aの物体位置座標、路側構造物格納変数PyDeli_far[2]、PxDeli_far[2]に物体bの物体位置座標をそれぞれ格納し、ステップS28で、前記(26)式をもとに物体aの位置情報PyDeli_near[2]、PxDeli_near[2]に基づいて車幅方向距離候補D2Wall[2]を算出する。そして、ステップS33で、車幅方向距離候補D2Wall[1]とD2Wall[2]の平均値を算出することで最終的な車幅方向距離D2Wall_outが設定される。
【0057】
また、図9に示すように、自車両MCが分岐路の存在する直線路を走行中であり、自車前方にデリニエータ等の路側停止物体DEが存在しているとする。このとき、前方物体センサ14で物体a〜cを検知しているとすると、物体a〜cは車両でない停止物体であるため、図3のステップS10の判定で物体a〜cが路側構造物候補として判断され、ステップS11で路側構造物候補格納変数PyDeli及びPxDeliに夫々位置情報を格納する。自車走行車線は分岐路であるので、ステップS14からステップS16に移行して運転者操作によるハンドル操舵量のばらつきを判定し、ばらつきが多い場合にはステップS17に移行して、カメラコントローラ16から得られた道路曲率半径候補R3を道路曲率半径Rとして設定する。
【0058】
ここで、物体a〜cは自車両から近い位置に存在しており、個々の物体の位置は接近していないとすると、先ず、物体c及びbの路側構造物判定が行われ、ステップS25で路側構造物体数NOfInfraをインクリメントして“1”にセットしてから、路側構造物格納変数PyDeli_near[1]、PxDeli_near[1]に物体bの物体位置座標、路側構造物格納変数PyDeli_far[1]、PxDeli_far[1]に物体cの物体位置座標をそれぞれ格納し、ステップS28で、前記(26)式をもとに物体bの位置情報PyDeli_near[1]、PxDeli_near[1]に基づいて車幅方向距離候補D2Wall[1]を算出する。次いで、物体b及びaの路側構造物判定が行われ、ステップS28で、前記(26)式をもとに物体aの位置情報PyDeli_near[2]、PxDeli_near[2]に基づいて車幅方向距離候補D2Wall[2]を算出する。そして、ステップS33で、車幅方向距離候補D2Wall[1]とD2Wall[2]の平均値を算出することで最終的な車幅方向距離D2Wall_outが設定される。
【0059】
このように、上記実施形態では、自車両前方に検出している停止物体が路側構造物であるか否かの判断を行い、物体が路側構造物であると判断された物体のうち最も自車両に接近している物体位置情報と道路曲率半径とに基づいて、道路端から自車両までの車幅方向距離を算出するので、複数のレーダを配置する必要がなく、自車前方物体を検出するためのレーダを1つ配置することにより道路端から自車両までの車幅方向距離を精度良く検知することができる。
【0060】
また、道路曲率半径は、自車両の走行状況に応じて、複数の道路曲率半径候補の中から適切な1種類の道路曲率半径を選択するため、自車走行車線が直線路であり且つ分岐路が存在しない場合には、カーナビゲーションシステム等から得られる道路曲率半径を選択するので、実際は直線路を走行中であるにも関わらず、運転者操作による操舵量により緩いカーブ路を走行していることに相当する道路曲率半径を算出してしまうことを防止することができると共に、分岐路が存在することにより誤って把握した自車走行路とは異なる走行路の道路曲率半径を算出してしまうことを防止することができる。また、自車走行車線が曲線路であり且つ分岐路が存在する場合には、運転者操作によるハンドル操舵の修正量を判定し、修正操舵量が多い場合には白線等の道路区画線を検出するカメラから得られる道路曲率半径を選択し、修正操舵量が少ない場合には、滑らかなカーブ路を走行していると判断して自車両の運動量から算出した道路曲率半径を選択するので、より高精度の道路曲率半径を得ることができる。
【0061】
さらに、路側構造物候補として格納された非車両停止物体のうち、自車両から所定距離以内に存在する物体のみ路側構造物であると判断するので、道路端から自車両までの車幅方向距離算出の際に基点とする停止物体までの距離が長くなり過ぎることに起因する、車幅方向距離の算出精度悪化を確実に防止することができる。
【0062】
また、路側構造物候補として格納された非車両停止物体の個々の位置が接近している場合には、それらの停止物体は非路側構造物であると判断するので、例えば、ガードレールの奥に存在する標識など、道路端から自車両までの車幅方向距離算出の際の基点として相応しくない物体を除外するので、車幅方向距離の算出精度悪化を確実に防止することができる。
【0063】
なお、上記実施形態においては、道路曲率半径候補R1を前記(3)式をもとに自車速Vとヨーレートωとに基づいて算出する場合について説明したが、これに限定されるものではなく、操舵角センサ23で検出した操舵角δを用いて次式をもとに算出するようにしてもよい。
1=(1+AV2)LWB/δ ………(28)
ここで、Aは車両固有の値であるスタビリティファクタ(車重、ホイールベース長、重心位置、タイヤの横力で決まる定数)、LWBはホイールベース長である。
【0064】
また、上記実施形態においては、車幅方向距離候補D2Wallの符号により採用判定を行う場合について説明したが、これに限定されるものではなく、採用判定を行わずに、算出された車幅方向距離候補D2Wallをすべて適用して最終的な車幅方向距離D2Wall_outを求めるようにしてもよい。
さらに、上記実施形態においては、車幅方向距離候補D2Wallの平均値を最終的な車幅方向距離D2Wall_outとして設定する場合について説明したが、これに限定されるものではなく、車幅方向距離候補D2Wallの中央値や、ヒストグラムから求まる最多頻度の距離値を選択して最終的な車幅方向距離D2Wall_outを設定するようにしてもよい。
【0065】
また、上記実施形態においては、前方物体センサ14としてスキャニング式のレーザレーダを使用した場合について説明したが、これに限定されるものではなく、マイクロ波やミリ波レーダ等の他の測距装置を適用することができる。
さらにまた、上記実施形態においては、後輪駆動車に本発明を適用した場合について説明したが、前輪駆動車に本発明を適用することもでき、また回転駆動源としてエンジン2を適用した場合について説明したが、これに限定されるものではなく、電動モータを適用することもでき、さらには、エンジンと電動モータとを使用するハイブリッド仕様車にも本発明を適用することができる。
【図面の簡単な説明】
【図1】本発明の実施形態を示す概略構成図である。
【図2】路側構造物側の道路端から自車両までの車幅方向距離の説明図である。
【図3】本発明の実施形態における外界認識コントローラで実行する路側構造物判断処理を示すフローチャートである。
【図4】本発明の実施形態における外界認識コントローラで実行する路側構造物判断処理を示すフローチャートである。
【図5】路側構造物側の道路端から自車両までの車幅方向距離の算出方法を説明する図である。
【図6】本発明の実施形態の動作を説明する図である。
【図7】本発明の実施形態の動作を説明する図である。
【図8】本発明の実施形態の動作を説明する図である。
【図9】本発明の実施形態の動作を説明する図である。
【符号の説明】
2 エンジン
3 自動変速機
7 ディスクブレーキ
8 制動制御装置
11 エンジン出力制御装置
12 スロットルアクチュエータ
13 車速センサ
14 前方物体センサ
15 CCDカメラ
16 カメラコントローラ
17 全地球測位システム(GPS)
18 道路地図データ格納部
20 外界認識コントローラ
22 操舵角センサ
23 ヨーレートセンサ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a vehicle road shape recognition apparatus that recognizes a road shape using an electromagnetic wave radar such as a laser.
[0002]
[Prior art]
As a conventional road shape recognition device for a vehicle, radars are arranged on both sides of the own vehicle to measure a vehicle width direction distance from the own vehicle to a roadside object such as a guard rail, and the measured distance and a global positioning system (GPS : Global positioning system) is known to determine the vehicle lane position based on lane information (whether or not there is two lanes) (for example, see Patent Document 1).
[0003]
[Patent Document 1]
JP 2002-225657 A (3rd page, FIG. 2)
[0004]
[Problems to be solved by the invention]
However, in the above conventional vehicle road shape recognition device, two sets of left and right radars are necessary for detecting the distance in the vehicle width direction of the host vehicle. Since a radar for detection is separately required, there are unsolved problems that the number of parts increases and the system becomes expensive.
Accordingly, the present invention has been made paying attention to the unsolved problems of the above-described conventional example, and provides a vehicle road shape recognition device capable of accurately recognizing a road shape with a low-cost system. It is an object.
[0005]
[Means for Solving the Problems]
  In order to achieve the above object, a vehicle road shape recognition apparatus according to the present invention detects an object ahead of the host vehicle with a forward object detection means, and detects a road curvature radius of the own vehicle traveling path with a road curvature radius detection means. The road-side structure determining means determines whether or not the forward object detected by the forward object detecting means is a road-side structure that forms a road shape on which the host vehicle is traveling, and calculates the vehicle width direction distance. The position information of the object closest to the host vehicle among the objects determined to be the roadside structure by the roadside structure determination means and the road curvature radius detected by the road curvature radius detection means Based on this, the distance in the vehicle width direction from the road edge on the roadside structure side to the host vehicle is calculated.The road curvature radius detecting means selects an appropriate one of a plurality of road curvature radius candidates and sets the road curvature radius according to the traveling lane situation of the host vehicle and the steering situation by the driver. It is configured.
[0006]
【The invention's effect】
According to the present invention, it is determined whether or not a forward object detected by a radar or the like for detecting an object ahead of the host vehicle is a roadside structure that forms a road shape, and the roadside structure closest to the host vehicle is determined. Since the vehicle width direction distance from the road end on the roadside structure side to the host vehicle is calculated based on the object position and the road curvature radius, it is not necessary to arrange a plurality of radars, and one forward detection radar, etc. As a result, the effect of accurately detecting the vehicle width direction distance can be obtained.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic configuration diagram showing an embodiment in which the present invention is applied to a rear wheel drive vehicle. In the figure, 1FL and 1FR are front wheels as driven wheels, and 1RL and 1RR are rear wheels as drive wheels. Thus, the driving force of the engine 2 is transmitted to the rear wheels 1RL and 1RR via the automatic transmission 3, the propeller shaft 4, the final reduction gear 5, and the axle 6 to be rotationally driven.
[0008]
The front wheels 1FL, 1FR and the rear wheels 1RL, 1RR are each provided with a brake actuator 7 composed of, for example, a disc brake that generates a braking force, and the braking hydraulic pressure of these brake actuators 7 is controlled by a braking control device 8. Is done.
Here, the braking control device 8 generates a braking hydraulic pressure in response to depression of a brake pedal (not shown), and a braking pressure command value P from a brake control controller 19 described later.BRIn response to this, the brake hydraulic pressure is generated and output to the brake actuator 7.
[0009]
The engine 2 is provided with an engine output control device 11 that controls the output thereof. In this engine output control device 11, the depression amount of an accelerator pedal (not shown) and a throttle opening command value θ from a brake control controller 19 described later are provided.*Accordingly, the throttle actuator 12 that adjusts the throttle opening provided in the engine 2 is controlled.
Further, a vehicle speed sensor 13 for detecting the own vehicle speed V by detecting the rotational speed of the output shaft provided on the output side of the automatic transmission 3 is provided.
[0010]
On the other hand, a front object sensor 14 as a front object detection means is provided at the lower part of the vehicle body on the front side of the vehicle. The front object sensor 14 is composed of a scanning laser radar, and periodically irradiates a fine laser beam within a predetermined irradiation range in the forward direction of the vehicle while shifting in a horizontal direction by a certain angle, and reflects from the front object. Based on the time difference from the emission timing to the reception timing of the reflected light, the front-rear direction distance Py between the host vehicle and the front object at each angle is detected. Further, the lateral distance Px to the front object is detected based on the front-rear direction distance Py and the scanning angle θ, and further the width W and the relative speed Vr of the front object are detected. The relative distances Px and Py to the front object detected in this way, the width W and the relative speed Vr of the front object are assigned numbers corresponding to the ID of the object (for example, serial numbers from 0). They are managed as array variables arranged in the order of object ID numbers. Therefore, the object with ID = 1 is Py [1], and the object with ID = 3 is Py [3].
[0011]
In addition, a CCD camera 15 and a camera controller 16 are provided in front of the vehicle as an external recognition sensor for grasping the situation ahead of the host vehicle at high speed. The camera controller 16 detects a lane marker such as a road lane marking to detect a travel lane, and a road curvature radius candidate R for the travel lane.ThreeIt is comprised so that it can detect. As the method, first, the shape of the road lane marking of the vehicle traveling lane is expressed by a mathematical model (hereinafter referred to as a white line model). This white line model is expressed as follows using road parameters.
[0012]
X = (a + ie) (Y−d) + b / (Y−d) + c (1)
Here, a to e are road parameters, a is a lateral displacement amount of the own vehicle in the lane, b is a road curvature radius, c is a yaw angle with respect to the road of the own vehicle (camera optical axis), and d is the own vehicle ( The pitch angle e of the camera optical axis) with respect to the road, e is the road lane width.
In the initial state, a value corresponding to the median value is set as an initial value for each road parameter. A lane median value is set for the position a in the lane, a straight line value is set for the road curvature radius b, a 0 degree is set for the yaw angle c with respect to the lane, and the stop α is set for the pitch angle d with respect to the lane. The degree is set, and the lane width e is set to the lane width of the expressway indicated in the road structure ordinance.
[0013]
Then, when the CCD camera 15 captures a detection point on a white line that is equal to or greater than a predetermined value, the deviation amount between the white line detection point obtained in the current sampling and the point on the white line model obtained in the previous sampling is determined for each point. The road parameter fluctuation amounts Δa to Δe are calculated based on the deviation amount. As a calculation method of the fluctuation amounts Δa to Δe, for example, a method as disclosed in JP-A-8-5388 can be used. Next, new road parameters a to e are calculated based on the following equation (2) from the calculated road parameter fluctuation amounts Δa to Δe.
[0014]
a = a + Δa,
b = b + Δb,
c = c + Δc,
d = d + Δd,
e = e + Δe (2)
[0015]
The road parameter b calculated in this way is the road curvature radius R.ThreeTo the outside recognition controller 20. In addition, the road curvature radius candidate RThreeThe right curve is a positive value and the left curve is a negative value.
Further, the vehicle body matches the global positioning system (GPS) 17 as a travel point detection means for detecting the travel position of the host vehicle, and the host vehicle position data input from the global positioning system 17. For example, a road map data storage unit 18 is provided as road information providing means configured by, for example, a car navigation system.2And the number N of branches in the vehicle laneBranchIt is configured so that it can be detected. Also, road curvature radius R2The right curve is a positive value and the left curve is a negative value.
Further, this vehicle is provided with a yaw rate sensor 22 for detecting a yaw rate ω generated in the host vehicle and a steering angle sensor 23 for detecting a steering angle δ of a steering wheel (not shown), and these detection signals are sent to the external recognition controller 20. Entered.
[0016]
The vehicle speed V output from the vehicle speed sensor 13 and the relative distances Px and Py output from the front object sensor 14, the width W of the front object, the relative speed Vr and the road curvature radius candidate R output from the camera controller 16.ThreeRoad curvature radius candidate R output from the global positioning system 17 and the road map data storage unit 182And the number of branches NBranchThe yaw rate ω output from the yaw rate sensor 22 and the steering angle δ output from the steering angle sensor 23 are input to the external field recognition controller 20, and the stopped object detected by the front object sensor 14 by the external field recognition controller 20. Is a roadside structure, and based on the vehicle speed V and the yaw rate ω, the road curvature radius candidate R1To calculate the road curvature radius candidate R2And the number of branches NBranchThe road condition is determined according to the road curvature radius candidate R1~ RThreeTo select an appropriate road curvature radius R. And as shown in FIG. 2, the roadside structure P closest to the host vehicle MC1Based on the object position and the road radius of curvature R, a road-shaped structure DE is virtually generated as shown by the shaded portion in FIG. 2, and the vehicle from the road end A on the road-side structure side to the host vehicle MC Width direction distance D2WallIs calculated.
[0017]
In the controller 21 for brake control, whether or not each object detected by the front object sensor 14 is an obstacle to be braked for the host vehicle based on the vehicle width direction distance recognized by the external recognition controller 20, that is, the road shape. When it is determined that the braking should be avoided, a predetermined braking pressure command value PBRIs output to the braking control device 8 to perform automatic brake control of the host vehicle.
Next, the roadside structure determination processing procedure for executing the operation of the first embodiment by the external recognition controller 20 will be described with reference to FIGS. 3 and 4.
[0018]
This roadside structure determination process is executed as a timer interruption process every predetermined time (for example, 100 msec). First, in step S1, the relative distances Px and Py detected by the front object sensor 14, the width W of the front object, and the relative The speed Vr, the host vehicle speed V detected by the vehicle speed sensor 13, the yaw rate ω detected by the yaw rate sensor 22, and the steering angle δ detected by the steering angle sensor 23 are read. Here, the relative distances Px and Py with the front object, the width W and the relative speed Vr of the front object are managed as array variables arranged in order of numbers corresponding to the ID of the object. For example, the object with ID = 1 is Py [ 1], the object with ID = 3 is Py [3].
[0019]
Next, the process proceeds to step S2 to determine whether or not each object being detected is a stationary object. This determination is made based on the vehicle speed V and the relative speed Vr of the object. When V≈Vr, it is determined that the object is a stop object. When the detected object is a stationary object, the process proceeds to step S3, where the stationary object flag F of the object is detected.StopObjIs set to “1”, and when the object is not a stop object, the process proceeds to step S4 to stop the object stop object flag FStopObjIs reset to “0”.
[0020]
Next, the process proceeds to step S5, and the road curvature radius candidate R of the host vehicle using the host vehicle speed V and the yaw rate ω.1[M] is calculated based on the following equation (3).
R1= V / ω (3)
In addition, the road curvature radius candidate R1The sign of is that the right curve is positive and the left curve is negative.
Next, in step S6, the host vehicle travel point data input from the global positioning system 17 is read, and the road map data storage unit 18 is accessed based on the host vehicle travel point data to determine the travel lane of the host vehicle. Road curvature radius candidate R2And the number of branches NBranchThen, the process proceeds to step S7, where the road curvature radius candidate R is received from the camera controller 16.ThreeIs read.
[0021]
Next, it is determined whether each object detected by the front object sensor 14 is a candidate roadside structure that forms a road shape. First, in step S8, a roadside structure candidate storage variable PyDeliAnd PxDeliNumber of objects stored in NDeliIs reset to “0” and the loop variable i is reset to “0”. Further, the number N of objects currently detected by the front object sensor 14ObjIs calculated based on the number of values stored in the relative distance storage variable Py.
[0022]
Subsequently, the process proceeds to step S9, where the loop variable i is the number N of objects being detected by the front object sensor 14.ObjIt is determined whether or not smaller than i <NObjIf YES in step S10, the flow advances to step S10 to stop the flag FStopObjIs set to “1” and the object width W is a preset threshold value W.THIt is determined whether it is smaller. Where threshold WTHIs a threshold meaning that the detected object is a small object that is not a vehicle.
[0023]
The determination result of step S10 is FStopObj= 1 and W <WTHIf it is, it is determined that the object being determined is a stopped object that is not a vehicle, and the process proceeds to step S11. Based on the following equations (4) and (5), the current object position coordinates are stored in the roadside structure candidate storage variable. And the number of objects N based on the following equation (6)DeliIs incremented and the process proceeds to step S12.
[0024]
PyDeli[NDeli] = Py [i] (4)
PxDeli[NDeli] = Px [i] (5)
NDeli= NDeli+1 ……… (6)
On the other hand, the determination result in step S10 is F.StopObj= 0 or W ≧ WTHIf so, the process proceeds to step S12.
[0025]
In step S12, the loop variable i is incremented and the process proceeds to step S9, where i ≧ NObjSteps S10 to S12 are repeated until And the determination result of step S9 is i ≧ NObjWhen it becomes, it is judged that it is judged whether it is a roadside structure candidate with respect to all the objects currently detected, and it transfers to step S13.
[0026]
In step S13, the standard deviation δv of the steering angle δ is calculated based on the following equation (7), and the corrected steering amount in the driver's operation is grasped.
δv = √ [{(δ [0] −A)2+ ... + (δ [9] -A)2} / 10] ......... (7)
Here, δ [n] is a steering angle detected in sampling n times before, and δ [0] is a steering angle detected this time. A is an average value of the steering angle δ in the past 10 samplings (1 second), and is expressed by the following equation (8).
[0027]
A = (δ [0] + δ [1] +... + Δ [9]) / 10 (8)
Next, in step S14, it is determined whether or not the traveling lane of the host vehicle is a straight road and there is no branch road. This determination is based on the road curvature radius candidate R2Radius-of-curvature threshold R, which means a radius of curvature corresponding to a straight roadTHLarger and the number N of branchesBranchIs determined to be “1”, which means that the road is a single road without a branch road, and R2> RTHAnd NBranchWhen = 1, the process proceeds to step S15, the road curvature radius R is set based on the following equation, and the process proceeds to step S19 described later.
[0028]
R = R2  ......... (9)
On the other hand, the determination result of step S14 is R2≦ RTHOr NBranchWhen ≠ 1, the process proceeds to step S16, where the standard deviation δv of the steering angle calculated in step S13 is the standard deviation threshold STR_V.THDetermine if greater than. Where STR_VTHIs a threshold value for determining the corrected steering amount in the driving operation, and is determined according to the white line detection accuracy of the CCD camera.
[0029]
The determination result in step S16 is δv> STR_VTHIf it is, it is determined that the amount of correction steering in the driving operation is large, and the process proceeds to step S17. The road curvature radius R is set based on the following equation, and the process proceeds to step S19 described later.
R = RThree  ……… (10)
On the other hand, the determination result of step S16 is δv ≦ STR_V.THIf so, the process proceeds to step S18, the road curvature radius R is set based on the following equation, and the process proceeds to step S19.
[0030]
R = R1  ……… (11)
In step S19, the loop variables loop1 and loop2 are initialized based on the following equations (12) and (13), and the number N of roadside structures existing in the roadside structure candidate storage variables NOfInfraAnd a road shape calculation flag F for determining whether a roadside structure exists.DeliOKAre reset to zero and set so that no roadside structure exists.
[0031]
loop1 = NDeli-1 (12)
loop2 = loop1-1 (13)
NOfInfra= 0 ... …… (14)
FDeliOK= 0 ......... (15)
Further, the roadside structure candidate storage variable PyDeliAre rearranged in order from the shortest distance, and the stored variable Py2DeliA new ID number is reassigned and stored in the storage variable Px2DeliContains the storage variable Py2DeliThe lateral distance corresponding to the longitudinal distance of the object stored in is stored. Thereby, loop1 becomes an object ID number far from the own vehicle as compared with loop2.
[0032]
This roadside structure candidate storage variable Py2DeliAnd Px2DeliIt is determined whether each object stored in the roadside structure is a roadside structure, and if it is a roadside structure, the roadside structure storage variable Py is determined.Deli_near, PyDeli_far, PxDeli_near, PxDeli_farThe object position coordinates are respectively stored in.
First, in step S20, the object position Py2 of the roadside structure candidate.Deli[Loop1] and Py2DeliIt is determined whether or not [loop2] is smaller than the absolute value | R | of the road curvature radius R, and Py2Deli[Loop1] ≧ | R | or Py2DeliWhen [loop 2] ≧ | R |, the road-side structure candidate object exists far from the radius of curvature of the road and it is determined that the road-side structure candidate object is not a road-side structure, and the process proceeds to step S29 described later. On the other hand, the determination result of step S20 is Py2Deli[Loop1] <| R | and Py2DeliWhen [loop2] <| R |, the process proceeds to step S21.
[0033]
In step S21, the vehicle width direction distance temp between the two detected objects of the ID numbers loop1 and loop2 is calculated with respect to the road curvature radius R.
temp = √ (R2-Py2Deli[Loop1]2) -√ (R2-Py2Deli[Loop2]2) ……… (16)
Next, in step S22, the sign of the road curvature radius R is determined. If R> 0, that is, if the curve is a right curve, the process proceeds to step S23, and the vehicle width direction distance temp between detected objects as shown in equation (17). The process proceeds to step S24. On the other hand, when the determination result of step S22 is R ≦ 0, the process proceeds to step S24 as it is.
[0034]
temp = −temp ……… (17)
In step S24, the lateral displacement of the two detected objects with ID numbers loop1 and loop2 is determined. If the following equation (18) holds, it is determined that these objects are roadside structures, and the process proceeds to step S25. If it is not established, the process proceeds to step S29 described later.
[0035]
Temp- (Py2Deli[Loop1] -Py2Deli[Loop2]) | <GTH  ……… (18)
Where GTHIs a threshold value regarding the lateral displacement that is allowed when it is determined that the two detection objects are roadside structures.
In step S25, the number of roadside structural objects NOfInfraAnd the two detected objects determined to be roadside structures in step S24 based on the following equations (19) to (22) are stored in the roadside structure storage variable Py.Deli_near, PyDeli_far, PxDeli_near, PxDeli_farThe object position coordinates are respectively stored in.
[0036]
PxDeli_near[NOfInfra] = Px2Deli[Loop2] ......... (19)
PxDeli_far[NOfInfra] = Px2Deli[Loop1] ......... (20)
PyDeli_near[NOfInfra] = Py2Deli[Loop2] ......... (21)
PyDeli_far[NOfInfra] = Py2Deli[Loop1] ......... (22)
Next, in step S26, the longitudinal distance PyDeli_near[NOfInfra] Is the front-rear direction distance threshold D_nearTHIt is determined whether or not it is smaller, and when the following expression (23) is established, the process proceeds to step S27, and when it is not established, the process proceeds to step S29 described later.
[0037]
PyDeli_near[NOfInfra] <D_nearTH  ……… (23)
Here, the longitudinal distance threshold D_nearTHPrevents the deterioration of the calculation accuracy of the distance in the vehicle width direction due to the presence of the object as the base point in the distance from the own vehicle when calculating the distance in the vehicle width direction from the roadside object corresponding to the guardrail or the like. It is a threshold for.
[0038]
In step S27, the front-rear direction distance between the two objects is the inter-object distance threshold D_pair.THWhen the following expression (24) is satisfied, it is determined that the positions of the two objects are not approaching, and the process proceeds to step S28. When the expression is not satisfied, the process proceeds to step S29 described later.
PyDeli_far[NOfInfra] -PyDeli_near[NOfInfra]> D_pairTH……… (24)
Next, in step S28, a road-shaped structure is generated using the object position of the roadside structure approaching the host vehicle as a base point, and a vehicle width direction distance candidate D from the roadside object corresponding to a guard rail or the like to the host vehicle is generated.2WallAnd the road shape calculation flag FDeliOKIs set to “1”.
[0039]
The hatched portion shown in FIG.nearThis is a road-shaped structure DE that is virtually generated from the base point. The absolute value of the distance in the vehicle width direction from the road shape structure DE to the host vehicle MC is the detected object PnearLateral distance PxDeli_nearThe absolute value of the detected object P from the road shape structure DEnearDistance D in the vehicle width direction to1The value obtained by adding. Where distance D1Is represented by the following equation (25).
[0040]
D1= | R | -√ (R2-PyDeli_near[NOfInfra]2) ……… (25)
This distance D1Always has a positive value. Therefore, the vehicle width direction distance candidate D from the road shape structure DE to the host vehicle MC2WallIs calculated based on the following equation (26).
D2Wall[NOfInfra] = PxDeli_near[NOfInfra] -Sign (R) · {| R | -√ (R2-PyDeli_near[NOfInfra]2)} ……… (26)
Here, sign () is a function that returns +1 if the value in the parenthesis is positive, and -1 if the value in the parenthesis is negative.
[0041]
As shown in FIG. 5, if the vehicle lane is a right curve, the road radius of curvature R is a positive value, so sign (R) is +1 in the equation (26), and the road shape structure DE Candidate D for vehicle width direction to own vehicle MC2WallD2Wall= PxDeli_near-D1It will be calculated by. Here, the detected object PnearIs located on the left side of the host vehicle,Deli_nearIs a negative value.
[0042]
On the other hand, if the host vehicle lane is a left curve, the road curvature radius R is a negative value. Therefore, sign (R) is −1 in the equation (26), and the vehicle MC is calculated from the road shape structure DE. Vehicle width direction distance candidate D2WallD2Wall= PxDeli_near+ D1It will be calculated by. Here, the detected object PnearIs located on the right side of the vehicle, so the horizontal position PxDeli_nearIs a positive value.
[0043]
Next, in step S29, the loop variables loop1 and loop2 are decremented, and then the process proceeds to step S30 to determine whether or not the loop variable loop2 is 0 or more. When the determination result of step S30 is loop2 ≧ 0, the process proceeds to step S20 to repeat the roadside structure determination. On the other hand, when loop2 <0, it is determined that the roadside structure determination has been performed on all roadside structure candidate objects, and the process proceeds to step S31.
[0044]
In step S31, the road shape calculation flag F in step S28.DeliOKIs the vehicle width direction distance candidate D2WallIs set to “1” which means that one or more is calculated, and the final vehicle width direction distance D2Wall_outWhether or not can be calculated. If it can be calculated, the process proceeds to step S32 and the vehicle width direction distance candidate D is determined.2WallMake a hiring decision. This determination is based on the calculated vehicle width direction distance candidate D.2WallVehicle width direction distance candidate D2WallAre all the same sign, all the vehicle width direction distance candidates D2WallAnd the process proceeds to step S33. On the other hand, vehicle width direction distance candidate D2WallIn the case where a different code is included, the road-side structure exists on both sides of the host vehicle, so it is determined that it is necessary to narrow down to only one side, and the vehicle width direction distance candidate D of the code with the higher calculation frequency is determined.2WallOnly, and the process proceeds to step S33. In addition, vehicle width direction distance candidate D2WallIf the calculation frequency of the sign is the same in both positive and negative directions, a vehicle width direction distance candidate D having a predetermined sign (for example, negative) is set.2WallIs adopted.
[0045]
In step S33, the vehicle width direction distance candidate D employed in step S32 is used.2WallIs calculated based on the following equation (27), and the final vehicle width direction distance D2Wall_outThen, the timer interrupt process is terminated and the process returns to the predetermined main program.
D2Wall_out= Ave (D2Wall, 1, NOfInfra) ……… (27)
Here, ave (Arg, Start, End) is a function that outputs an average value from the Start-th to the End-th in the array variable Arg.
[0046]
On the other hand, the determination result of the step S31 is the vehicle width direction distance candidate D.2WallIs not calculated and the final vehicle width direction distance D2Wall_outIs not calculated, the process proceeds to step S34 and D2Wall_out= NoData is set to a value that means that the final vehicle width direction distance cannot be output, and then the timer interrupt process is terminated and the process returns to the predetermined main program.
[0047]
In the process of FIG. 3, the processes of steps S14 to S18 correspond to road curvature radius detecting means, and in the process of FIG. 4, the processes of steps S20 to S27 correspond to roadside structure determining means, and steps S28 and S31 to S31. The process of S34 corresponds to the vehicle width direction distance calculating means.
Therefore, as shown in FIG. 6, it is assumed that the host vehicle MC is traveling on a straight road without a branch road, and a roadside stop object DE such as a delineator exists on the front left side of the host vehicle. At this time, assuming that the objects a to c are detected by the front object sensor 14, in the roadside structure determination process of FIG. 3, the objects a to c are determined to be stop objects in step S <b> 2 and stopped in step S <b> 3. Object flag FStopObjIs set to “1”. Since the objects a to c are not stopped vehicles, it is determined as a roadside structure candidate in the determination in step S10, and a roadside structure candidate storage variable Py in step S11DeliAnd PxDeliEach stores position information. Since the vehicle traveling lane has no straight road and no branch road, the process proceeds from step S14 to step S15, and the road curvature radius candidate R obtained from the global positioning system 17 and the road map data storage unit 18 is obtained.2Is set as the road curvature radius R.
[0048]
Next, it is determined whether or not the objects a to c stored as roadside structure candidates are roadside structures. If it is determined that the objects are roadside structures, the object position information and the setting in step 15 are performed. Based on the road curvature radius R, the vehicle width direction distance candidate from the roadside stop object at the road end to the host vehicle is calculated. Here, assuming that the objects a to c are close to the host vehicle and the positions of the individual objects are not approaching, the loop variable is first initialized in step S19 in FIG. Number of candidate objects NDeliIs “3”, loop1 = 2 and loop2 = 1 are set. And the position information Py2 of the object cDeli[2], Px2Deli[2] and position information Py2 of bDeli[1], Px2DeliBased on [1], roadside structure determination of the objects c and b is performed, and the number of roadside structure objects N is determined in step S25.OfInfraIs incremented and set to “1”, then the roadside structure storage variable PyDeli_near[1], PxDeli_nearIn [1], the object position coordinates of the object b, the roadside structure storage variable PyDeli_far[1], PxDeli_far[1] stores the object position coordinates of the object c, and in step S28, the position information Py of the object b based on the equation (26).Deli_near[1], PxDeli_nearVehicle width direction distance candidate D based on [1]2Wall[1] is calculated.
[0049]
Next, in step S29, the loop variables loop1 and loop2 are decremented and the process proceeds to step S30. Since the loop variable loop2 = 0, the process proceeds from step S30 to step S20, and the position information Py2 of the object bDeli[1], Px2Deli[1] and position information Py2 of aDeli[0], Px2DeliBased on [0], the roadside structure determination of the objects b and a is performed. In step S25, the number of roadside structural objects NOfInfraIs incremented and set to “2”, then the roadside structure storage variable PyDeli_near[2], PxDeli_nearIn [2], the object position coordinates of the object a, the roadside structure storage variable PyDeli_far[2], PxDeli_far[2] stores the object position coordinates of the object b, and in step S28, the position information Py of the object a based on the equation (26).Deli_near[2], PxDeli_nearBased on [2], vehicle width direction distance candidate D2Wall[2] is calculated.
[0050]
Next, when the loop variables loop1 and loop2 are decremented in step S29, loop2 <0, and the process proceeds from step S30 to step S31. In step S28, the vehicle width direction distance candidate D2WallIs calculated and the road shape calculation flag FDeliOKIs set to “1”, the process proceeds from step S31 to step S32, and the vehicle width direction distance candidate D2Wall[1] and D2WallAdoption determination of [2] is performed, and these are calculated with the same sign (minus value), so both are adopted and the process proceeds to step S33, where the vehicle width direction distance candidate D2Wall[1] and D2WallBy calculating the average value of [2], the final vehicle width direction distance D2Wall_outIs set.
[0051]
Further, as shown in FIG. 7, the host vehicle MC is traveling on a straight road without a branch road, a roadside stop object DE such as a delineator is present on the left front side of the host vehicle, and a stop object P is on the right front side of the host vehicle. Suppose it exists. If the objects a to d are detected by the front object sensor 14 at this time, the objects a to d are determined as roadside structure candidates in the determination in step S10 of FIG. 3, and the roadside structure candidate storage variable is determined in step S11. PyDeliAnd PxDeliEach stores position information.
[0052]
Here, assuming that the objects a to d are close to the host vehicle and the positions of the individual objects are not approaching, first, roadside structure determination of the objects c and b is performed, and in step S25. Number of roadside structure objects NOfInfraIs incremented and set to “1”, then the roadside structure storage variable PyDeli_near[1], PxDeli_nearIn [1], the object position coordinates of the object b, the roadside structure storage variable PyDeli_far[1], PxDeli_far[1] stores the object position coordinates of the object c, and in step S28, the position information Py of the object b based on the equation (26).Deli_near[1], PxDeli_nearVehicle width direction distance candidate D based on [1]2Wall[1] is calculated. Next, roadside structure determination of the objects b and a is performed, and the position information Py of the object a based on the equation (26) in step S28.Deli_near[2], PxDeli_nearBased on [2], vehicle width direction distance candidate D2Wall[2] is calculated. Next, the roadside structure determination of the objects a and d is performed, and the position information Py of the object d based on the equation (26) in step S28.Deli_near[3], PxDeli_nearBased on [3], the vehicle width direction distance candidate D2Wall[3] is calculated.
[0053]
In step S32, the vehicle width direction distance candidate D2WallIs adopted and the vehicle width direction distance candidate D2Wall[1] and D2Wall[2] is a negative value, vehicle width direction distance candidate D2WallSince [3] is a positive value, the vehicle width direction distance candidate D2Wall[1] and D2WallOnly [2] is adopted and the process proceeds to step S33, where the vehicle width direction distance candidate D2Wall[1] and D2WallBy calculating the average value of [2], the final vehicle width direction distance D2Wall_outIs set.
[0054]
On the other hand, as shown in FIG. 8, the host vehicle MC is traveling on a curved road without a branch road, and a roadside stop object DE such as a delineator, a preceding vehicle PC, and a far stop object P are present in front of the host vehicle. And If the objects a to e are detected by the front object sensor 14 at this time, the objects a to c and e are stop objects that are not vehicles, and the object d is a non-stop object. In the determination, the objects a to c and e are determined as roadside structure candidate, and the roadside structure candidate storage variable Py is determined in step S11.DeliAnd PxDeliEach stores position information. Since the host vehicle lane is a curved road, the process proceeds from step S14 to step S16 to determine the variation in the steering amount of the steering wheel by the driver's operation. If the variation is small, the process proceeds to step S18, and the vehicle speed V and Road curvature radius candidate R calculated based on equation (3) using yaw rate ω1Is set as the road curvature radius R.
[0055]
Here, assuming that the objects a to c are close to the host vehicle and the positions of the individual objects are not approaching, first, roadside structure determination of the objects e and c is performed. Since it exists far from the road curvature radius R, the process proceeds from step S20 to step S29, and the loop variables loop1 and loop2 are decremented. Subsequently, the roadside structure determination of the objects c and b is performed, and the number of roadside structure objects N is determined in step S25.OfInfraIs incremented and set to “1”, then the roadside structure storage variable PyDeli_near[1], PxDeli_nearIn [1], the object position coordinates of the object b, the roadside structure storage variable PyDeli_far[1], PxDeli_far[1] stores the object position coordinates of the object c, and in step S28, the position information Py of the object b based on the equation (26).Deli_near[1], PxDeli_nearVehicle width direction distance candidate D based on [1]2Wall[1] is calculated.
[0056]
Subsequently, roadside structure determination of the objects b and a is performed, and the number of roadside structure objects N is determined in step S25.OfInfraIs incremented and set to “2”, then the roadside structure storage variable PyDeli_near[2], PxDeli_nearIn [2], the object position coordinates of the object a, the roadside structure storage variable PyDeli_far[2], PxDeli_far[2] stores the object position coordinates of the object b, and in step S28, the position information Py of the object a based on the equation (26).Deli_near[2], PxDeli_nearBased on [2], vehicle width direction distance candidate D2Wall[2] is calculated. In step S33, the vehicle width direction distance candidate D2Wall[1] and D2WallBy calculating the average value of [2], the final vehicle width direction distance D2Wall_outIs set.
[0057]
Further, as shown in FIG. 9, it is assumed that the host vehicle MC is traveling on a straight road where a branch road exists, and a roadside stop object DE such as a delineator exists in front of the host vehicle. At this time, assuming that the objects a to c are detected by the front object sensor 14, the objects a to c are stop objects that are not vehicles, and therefore the objects a to c are roadside structure candidates in the determination of step S10 in FIG. In step S11, the roadside structure candidate storage variable Py is determined.DeliAnd PxDeliEach stores position information. Since the host vehicle lane is a branch road, the process proceeds from step S14 to step S16 to determine the variation in the steering amount of the steering wheel due to the driver's operation. If the variation is large, the process proceeds to step S17 and the camera controller 16 Obtained road curvature radius candidate RThreeIs set as the road curvature radius R.
[0058]
Here, assuming that the objects a to c are close to the host vehicle and the positions of the individual objects are not approaching, first, roadside structure determination of the objects c and b is performed, and in step S25. Number of roadside structure objects NOfInfraIs incremented and set to “1”, then the roadside structure storage variable PyDeli_near[1], PxDeli_nearIn [1], the object position coordinates of the object b, the roadside structure storage variable PyDeli_far[1], PxDeli_far[1] stores the object position coordinates of the object c, and in step S28, the position information Py of the object b based on the equation (26).Deli_near[1], PxDeli_nearVehicle width direction distance candidate D based on [1]2Wall[1] is calculated. Next, roadside structure determination of the objects b and a is performed, and the position information Py of the object a based on the equation (26) in step S28.Deli_near[2], PxDeli_nearBased on [2], vehicle width direction distance candidate D2Wall[2] is calculated. In step S33, the vehicle width direction distance candidate D2Wall[1] and D2WallBy calculating the average value of [2], the final vehicle width direction distance D2Wall_outIs set.
[0059]
As described above, in the above embodiment, it is determined whether or not the stopped object detected in front of the host vehicle is a roadside structure, and the host vehicle is the most among the objects determined to be the roadside structure. The vehicle width direction distance from the road edge to the host vehicle is calculated based on the position information of the object approaching the road and the radius of curvature of the road, so it is not necessary to place multiple radars and detect the object ahead of the host vehicle Therefore, the distance in the vehicle width direction from the road edge to the host vehicle can be detected with high accuracy.
[0060]
Also, the road curvature radius is selected from a plurality of road curvature radius candidates according to the traveling state of the host vehicle, so that the host vehicle traveling lane is a straight road and a branch road. If there is no road, the road curvature radius obtained from the car navigation system is selected. Therefore, the vehicle is traveling on a gentle curved road depending on the amount of steering by the driver even though it is actually traveling on a straight road. It is possible to prevent the calculation of the corresponding road curvature radius, and to calculate the road curvature radius of a traveling path different from the vehicle traveling path which is erroneously grasped due to the presence of a branch road. This can be prevented. Also, when the vehicle lane is a curved road and there is a branch road, the amount of steering steering correction by the driver's operation is judged, and when the amount of corrected steering is large, a road line such as a white line is detected. When the road curvature radius obtained from the camera to be selected is selected and the correction steering amount is small, it is judged that the vehicle is traveling on a smooth curve road and the road curvature radius calculated from the momentum of the own vehicle is selected. A highly accurate road curvature radius can be obtained.
[0061]
Further, among non-vehicle stopped objects stored as roadside structure candidates, only objects existing within a predetermined distance from the own vehicle are determined to be roadside structures, so the distance in the vehicle width direction from the road edge to the own vehicle is calculated. In this case, it is possible to reliably prevent the deterioration of the calculation accuracy of the distance in the vehicle width direction, which is caused by the distance to the stop object as the base point becoming too long.
[0062]
In addition, when the individual positions of the non-vehicle stationary objects stored as roadside structure candidates are approaching, it is determined that the stationary objects are non-roadside structures. Since an object that is not suitable as a base point for calculating the distance in the vehicle width direction from the road edge to the host vehicle, such as a sign to be removed, is excluded, it is possible to reliably prevent deterioration in the calculation accuracy of the distance in the vehicle width direction.
[0063]
In the above embodiment, the road curvature radius candidate R1Has been described based on the equation (3) based on the vehicle speed V and the yaw rate ω. However, the present invention is not limited to this, and the steering angle δ detected by the steering angle sensor 23 is used. You may make it calculate based on following Formula.
R1= (1 + AV2) LWB/ Δ ……… (28)
Here, A is a stability factor (a constant determined by the vehicle weight, wheelbase length, center of gravity, and tire lateral force), which is a value specific to the vehicle, LWBIs the wheelbase length.
[0064]
In the above embodiment, the vehicle width direction distance candidate D2WallHowever, the present invention is not limited to this, and the vehicle width direction distance candidate D is calculated without performing the employment determination.2WallApplying all the above, final vehicle width direction distance D2Wall_outMay be requested.
Furthermore, in the above embodiment, the vehicle width direction distance candidate D2WallIs the final vehicle width direction distance D2Wall_outHowever, the present invention is not limited to this, and the vehicle width direction distance candidate D is not limited to this.2WallSelect the median value of the vehicle or the most frequent distance value obtained from the histogram to determine the final vehicle width direction distance D2Wall_outMay be set.
[0065]
In the above embodiment, the case where a scanning laser radar is used as the front object sensor 14 has been described. However, the present invention is not limited to this, and other ranging devices such as a microwave and a millimeter wave radar may be used. Can be applied.
Furthermore, in the above embodiment, the case where the present invention is applied to a rear wheel drive vehicle has been described. However, the present invention can also be applied to a front wheel drive vehicle, and the case where the engine 2 is applied as a rotational drive source. Although explained, it is not limited to this, An electric motor can also be applied, Furthermore, this invention is applicable also to the hybrid specification vehicle which uses an engine and an electric motor.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram showing an embodiment of the present invention.
FIG. 2 is an explanatory diagram of a distance in the vehicle width direction from a road end on the roadside structure side to the host vehicle.
FIG. 3 is a flowchart showing roadside structure determination processing executed by an external recognition controller in the embodiment of the present invention.
FIG. 4 is a flowchart showing roadside structure determination processing executed by an external recognition controller in the embodiment of the present invention.
FIG. 5 is a diagram illustrating a method for calculating a vehicle width direction distance from a road end on the roadside structure side to the host vehicle.
FIG. 6 is a diagram for explaining the operation of the embodiment of the present invention.
FIG. 7 is a diagram for explaining the operation of the embodiment of the present invention.
FIG. 8 is a diagram for explaining the operation of the embodiment of the present invention.
FIG. 9 is a diagram for explaining the operation of the embodiment of the present invention.
[Explanation of symbols]
2 Engine
3 Automatic transmission
7 Disc brake
8 Braking control device
11 Engine output control device
12 Throttle actuator
13 Vehicle speed sensor
14 Front object sensor
15 CCD camera
16 Camera controller
17 Global Positioning System (GPS)
18 Road map data storage
20 Outside world recognition controller
22 Steering angle sensor
23 Yaw rate sensor

Claims (6)

自車両前方の物体を検出する前方物体検出手段と、自車走行路の道路曲率半径を検出する道路曲率半径検出手段と、前記前方物体検出手段で検出した前方物体について、自車両が走行している道路形状を形成する路側構造物であるか否かを判断する路側構造物判断手段と、該路側構造物判断手段で路側構造物であると判断された物体のうち最も自車両に接近している物体の位置情報と、前記道路曲率半径検出手段で検出した道路曲率半径とに基づいて、路側構造物側の道路端から自車両までの車幅方向距離を演算する車幅方向距離演算手段とを備え、前記道路曲率半径検出手段は、自車両の走行車線状況及び運転者による操舵状況に応じて、複数の道路曲率半径候補の中から適切な1種類を選択して道路曲率半径を設定するように構成されていることを特徴とする車両用道路形状認識装置。  A forward object detection means for detecting an object in front of the own vehicle, a road curvature radius detection means for detecting a road curvature radius of the own vehicle traveling path, and the forward vehicle detected by the forward object detection means, A roadside structure judging means for judging whether or not the roadside structure forms a road shape, and an object that is judged to be a roadside structure by the roadside structure judging means is closest to the host vehicle. Vehicle width direction distance calculating means for calculating the vehicle width direction distance from the road end on the road side structure side to the host vehicle based on the position information of the existing object and the road curvature radius detected by the road curvature radius detecting means; The road curvature radius detection means sets an appropriate road curvature radius by selecting an appropriate type from a plurality of road curvature radius candidates according to the traveling lane situation of the host vehicle and the steering situation by the driver. Configured as Vehicle road shape recognition apparatus according to claim Rukoto. 自車両の走行地点を検出する走行地点検出手段と、自車両が走行する道路情報を有する道路情報提供手段とを有し、前記道路曲率半径検出手段は、前記走行地点検出手段で検出した走行地点及び前記道路情報提供手段で提供される道路情報に基づいて自車両の走行車線が直線路であることを検出し、且つ自車両の走行車線が非分岐路であることを検出したとき、前記走行地点検出手段及び前記道路情報提供手段により得られた道路曲率半径候補を道路曲率半径として設定するように構成されていることを特徴とする請求項1に記載の車両用道路形状認識装置。  A travel point detection unit that detects a travel point of the host vehicle; and a road information providing unit that includes road information on which the host vehicle travels. The road curvature radius detection unit is a travel point detected by the travel point detection unit. And when it is detected that the traveling lane of the own vehicle is a straight road based on the road information provided by the road information providing means, and when the traveling lane of the own vehicle is a non-branching road, 2. The vehicle road shape recognition apparatus according to claim 1, wherein the road curvature radius candidate obtained by the point detection means and the road information providing means is set as a road curvature radius. 自車両の走行地点を検出する走行地点検出手段と、自車両が走行する道路情報を有する道路情報提供手段とを有し、前記道路曲率半径検出手段は、前記走行地点検出手段で検出した走行地点及び前記道路情報提供手段で提供される道路情報に基づいて、少なくとも自車両の走行車線が曲線路であること、及び自車両の走行車線に分岐路が存在することの何れかを検出した場合で、運転者操作におけるハンドル操舵の修正量が所定の修正操舵量判定閾値以下である場合に、自車両の運動情報から演算した道路曲率半径候補を道路曲率半径として設定するように構成されていることを特徴とする請求項1又は2の何れかに記載の車両用道路形状認識装置。A travel point detection unit that detects a travel point of the host vehicle; and a road information providing unit that includes road information on which the host vehicle travels. The road curvature radius detection unit is a travel point detected by the travel point detection unit. And, based on the road information provided by the road information providing means, it is detected that at least one of the traveling lane of the own vehicle is a curved road and that a branch road exists in the traveling lane of the own vehicle. The road curvature radius candidate calculated from the motion information of the host vehicle is set as the road curvature radius when the steering wheel correction amount in the driver's operation is less than or equal to a predetermined correction steering amount determination threshold value . The road shape recognition device for a vehicle according to claim 1, wherein 自車両の走行地点を検出する走行地点検出手段と、自車両が走行する道路情報を有する道路情報提供手段と、自車走行車線の道路区画線を検出する道路区画線検出手段とを有し、前記道路曲率半径検出手段は、前記走行地点検出手段で検出した走行地点及び前記道路情報提供手段で提供される道路情報に基づいて、少なくとも自車両の走行車線が曲線路であること、及び自車両の走行車線に分岐路が存在することの何れかを検出した場合で、運転者操作におけるハンドル操舵の修正量が所定の修正操舵量判定閾値より多い場合に、前記道路区画線検出手段により得られた道路曲率半径候補を道路曲率半径として設定するように構成されていることを特徴とする請求項1乃至3の何れかに記載の車両用道路形状認識装置。A travel point detection means for detecting a travel point of the host vehicle, a road information providing unit having road information on which the host vehicle travels, and a road lane line detection unit for detecting a road lane line of the host vehicle lane, The road curvature radius detecting means is based on the driving point detected by the driving point detecting means and the road information provided by the road information providing means, and at least the driving lane of the own vehicle is a curved road, and the own vehicle Obtained by the road lane marking detection means when the steering steering correction amount in the driver's operation is greater than a predetermined correction steering amount determination threshold. 4. The vehicle road shape recognition apparatus according to claim 1, wherein the road curvature radius candidate is set as a road curvature radius. 前記路側構造物判断手段は、前記前方物体検出手段で検出した前方物体のうち停止している停止物体の自車両からの距離が、前記車幅方向距離演算手段による前記車幅方向距離の演算精度を許容範囲内とするための所定距離より短いとき、当該停止物体を路側構造物であると判断するように構成されていることを特徴とする請求項1乃至4の何れかに記載の車両用道路形状認識装置。The roadside structure determination means is configured such that the distance of the stopped object that is stopped among the forward objects detected by the forward object detection means is the calculation accuracy of the vehicle width direction distance by the vehicle width direction distance calculation means. 5. The vehicle according to claim 1, wherein the stop object is determined to be a roadside structure when the distance is shorter than a predetermined distance for making the distance within an allowable range. Road shape recognition device. 前記路側構造物判断手段は、前記前方物体検出手段で検出した前方物体のうち停止している停止物体間の距離が所定の物体間距離閾値以下であるとき、それらの停止物体は非路側構造物であると判断するように構成されていることを特徴とする請求項1乃至5の何れかに記載の車両用道路形状認識装置。The roadside structure determining means is configured such that when the distance between stopped objects that are stopped among the forward objects detected by the forward object detecting means is equal to or less than a predetermined object distance threshold , the stopped objects are non-roadside structures. It is comprised so that it may be determined, The vehicle road shape recognition apparatus in any one of the Claims 1 thru | or 5 characterized by the above-mentioned.
JP2003171750A 2003-06-17 2003-06-17 Vehicle road shape recognition device Expired - Fee Related JP4100269B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003171750A JP4100269B2 (en) 2003-06-17 2003-06-17 Vehicle road shape recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003171750A JP4100269B2 (en) 2003-06-17 2003-06-17 Vehicle road shape recognition device

Publications (2)

Publication Number Publication Date
JP2005010892A JP2005010892A (en) 2005-01-13
JP4100269B2 true JP4100269B2 (en) 2008-06-11

Family

ID=34096107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003171750A Expired - Fee Related JP4100269B2 (en) 2003-06-17 2003-06-17 Vehicle road shape recognition device

Country Status (1)

Country Link
JP (1) JP4100269B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011005727A1 (en) 2010-03-17 2011-09-22 Denso Corporation Method and device for detecting road edges
DE102011078685A1 (en) 2010-07-05 2012-04-05 Denso Corporation Roadside detection system, driver assistance system and roadside detection method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5664212B2 (en) * 2010-12-20 2015-02-04 日産自動車株式会社 Vehicle driving support device
KR101405193B1 (en) * 2012-10-26 2014-06-27 현대자동차 주식회사 Driving lane recognition method and system
KR102072356B1 (en) * 2013-09-26 2020-03-02 현대모비스 주식회사 Apparatus and method for controlling lane keeping
JP7140577B2 (en) 2018-07-12 2022-09-21 株式会社Soken Intersecting road estimator

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011005727A1 (en) 2010-03-17 2011-09-22 Denso Corporation Method and device for detecting road edges
DE102011078685A1 (en) 2010-07-05 2012-04-05 Denso Corporation Roadside detection system, driver assistance system and roadside detection method

Also Published As

Publication number Publication date
JP2005010892A (en) 2005-01-13

Similar Documents

Publication Publication Date Title
US7433772B2 (en) Target speed control system for a vehicle
US10909855B2 (en) Driving support apparatus
CN110053619B (en) Vehicle control device
US20210188356A1 (en) Vehicle control device
JP6376059B2 (en) Control device for autonomous driving vehicle
US7248962B2 (en) System for influencing the speed of a motor vehicle
US7386385B2 (en) System for recognising the lane-change manoeuver of a motor vehicle
US20190092330A1 (en) Vehicle driving support apparatus
US8150591B2 (en) Vehicle travel speed control method
US20210188258A1 (en) Vehicle control device
US7840330B2 (en) System for influencing the speed of a motor vehicle
US7212907B2 (en) System for influencing the speed of a motor vehicle
WO2019131903A1 (en) Vehicle control device
US20090088966A1 (en) Driving support system
US10967864B2 (en) Vehicle control device
CN105163994A (en) Driving support apparatus and driving support method
US7831367B2 (en) System for influencing the speed of a motor vehicle
US7162361B2 (en) System for influencing the speed of a motor vehicle
JP6825528B2 (en) Vehicle driving support device
WO2019044641A1 (en) Vehicle control device
JP2019043192A (en) Vehicle control device
JP6982754B2 (en) Vehicle control device
JP3931760B2 (en) Obstacle detection device for vehicles
JP4100269B2 (en) Vehicle road shape recognition device
JP6609292B2 (en) Outside environment recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080310

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110328

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110328

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120328

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130328

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130328

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees