JP3557656B2 - Approach prediction device - Google Patents

Approach prediction device Download PDF

Info

Publication number
JP3557656B2
JP3557656B2 JP18248394A JP18248394A JP3557656B2 JP 3557656 B2 JP3557656 B2 JP 3557656B2 JP 18248394 A JP18248394 A JP 18248394A JP 18248394 A JP18248394 A JP 18248394A JP 3557656 B2 JP3557656 B2 JP 3557656B2
Authority
JP
Japan
Prior art keywords
vehicle
lane
preceding vehicle
traveling
approach
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18248394A
Other languages
Japanese (ja)
Other versions
JPH0844999A (en
Inventor
健 大野
明夫 保坂
勝規 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP18248394A priority Critical patent/JP3557656B2/en
Publication of JPH0844999A publication Critical patent/JPH0844999A/en
Application granted granted Critical
Publication of JP3557656B2 publication Critical patent/JP3557656B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は、路面を走行している自車両に対して走行方向前方を走行している前方車両や人間等の移動物体が自車両に接近するかどうかを予測する接近予測装置に関する。
【0002】
【従来の技術】
従来から提案されているこの種の接近予測装置は、次の4種類に大別できる。
(1) 検出方向が所定範囲に固定されたレーダーを用いて前方車両等の距離を検出するもの
(2) 自車両の操舵角(たとえばステアリングの操作角)に応じて検出方向が変化するレーダーを用いて前方車両等の距離および方向を検出するもの
(3) レーダーのビーム(照射波)の角度を絞り、ビームを所定角度内において走査(スキャニング)して前方車両等の距離および方向を検出するもの
(4) 撮像装置により撮像された自車両前方の画像を画像処理装置により処理し、自車両前方の路面上に描かれた車線情報を検出し、自車両の走行車線にレーダーの検出範囲を制御するもの
【0003】
【発明が解決しようとする課題】
しかしながら、上述した従来の接近予測装置には、それぞれ次のような問題があった。
【0004】
(1) レーダーの検出方向が一方向に限定されているので、レーダーのビームを狭く絞っておくと曲線路を走行している途中や曲線路の出入口、手前などにおいてレーダーの検出方向が道路の進行方向とずれてしまい、前方車両等の検出が難しい。一方、ビームを広くすると今度は直線路において道路外を走行する物体等不要な物体まで検出するおそれがある。
【0005】
(2) 自車両の操舵角に応じてレーダーの検出方向を変化させれば、レーダーのビーム幅をレーンの広さ程度にすることができるが、操舵角が変化してからでないとレーダーの検出方向も変化しないので、曲線路の中では効果があるものの、曲線路の手前や出入口ではレーダーの検出方向が道路の進行方向とずれてしまい、前方車両等の検出ができないおそれがある。
【0006】
(3) ビームを走査すれば自車両の前方にある広範囲の前方車両等を検出できて曲線路の途中、出入口または手前においても前方車両等を確実に検出できるが、自車両の前方の道路状況を考慮せずに前方車両等を検出しているので、自車両に対する接近度を適切に判断することができないおそれがある。例えば、曲線路の途中において自車両の隣の車線を走る前方車両は、その移動方向だけを見れば自車両に接近する方向に走行しているが、実際は自車両も同一方向に走行しているので接近する可能性は低い。しかしながら、従来の接近予測装置では、このような前方車両についても接近する可能性が高いと判断するおそれがある。
【0007】
(4) 画像処理装置により自車両が走行する車線上の前方車両等は的確に検出することができるが、自車両の車線以外の車線を走行する前方車両等や車線以外の場所(たとえば路肩など)にある前方車両等を検出するのがむずかしいことがある。
【0008】
本発明の目的は、自車両前方の道路状況を把握することにより前方車両等の接近度を的確に判断することの可能な接近予測装置を提供することにある。
【0009】
【課題を解決するための手段】
本発明の機能ブロック図である図1により本発明を説明すると、請求項1の発明は、路面を走行する自車両とその走行方向前方に存在する前方車両との接近度を予測する装置に適用される
【0010】
走行案内情報検出手段101は路面に描かれた車線の延在方向に関する情報を検出し、自車挙動検出手段102は自車両の位置および速度ベクトルを演算することが好ましい。
【0011】
前車挙動予測手段103は、前方車両の位置および速度ベクトルを演算するとともに、前方車両の速度ベクトルの方向と前方車両の走行車線の延在方向とが交差し、かつ、前方車両の速度ベクトルが自車両の走行車線に近付く成分を所定値以上有する時に、自車両の走行車線へ前方車両が車線変更すると判断することが好ましい。
【0012】
接近度予測手段104は、前車挙動予測手段103により自車両の走行車線へ前方車両が車線変更すると判断された時、自車挙動検出手段102および前車挙動予測手段103で得られた自車両および前方車両の位置、および自車両および前方車両の速度ベクトルに基づいて接近度を出力することが好ましい。
【0013】
あるいは、走行案内情報検出手段101は路面に描かれた車両の進行誘導に関する情報を検出し、自車挙動検出手段102は自車両の位置および速度ベクトルを演算し、前車挙動予測手段103は、前方車両の位置および速度ベクトルを演算するとともに、車両の進行誘導に関する情報に基づいて前方車両が車線変更を行う可能性が高い箇所を走行しているかどうかを判断することが好ましい。
【0014】
接近度予測手段104は、前車挙動予測手段103により前方車両が車線変更を行う可能性が高い箇所を走行していると判断された時、自車挙動検出手段102および前車挙動予測手段103で得られた自車両および前方車両の位置、および自車両および前方車両の速度ベクトルに基づいて接近度を出力することが好ましい。
【0015】
また、請求項3の発明は、路面を走行する自車両とその走行方向前方に存在する複数の前方車両との接近度を予測する装置に適用される。
そして、上述の目的は、自車両の位置と速度ベクトルとを算出する自車挙動検出手段102と、複数の前方車両の各々の位置および速度ベクトルを演算するとともに、複数の前方車両の各々の位置と速度ベクトルとに基づいて、複数の前方車両のうち後続する一方の車両が先行する他方の前方車両に接近して自車両の走行車線に車線変更するか否かを判断する前車挙動予測手段103と、前車挙動予測手段103により自車両の走行車線に前方車両のうち後続する車両が車線変更すると判断された時、自車挙動検出手段102および前車挙動予測手段103で得られた自車両および前方車両のうち後続する一方の車両の各位置、および自車両および前方車両のうち後続する一方の車両の各速度ベクトルに基づいて接近度を出力する接近度予測手段104とを備えることにより達成される。
【0016】
【作用】
−請求項1−
走行案内情報検出手段101は、路面に描かれた車線の延在方向に関する情報を検出し、自車挙動検出手段102は、自車両の位置および速度ベクトルを演算し、前車挙動予測手段103は、前方車両の位置および速度ベクトルを演算するとともに、前方車両の速度ベクトルの方向と前方車両の走行車線の延在方向とが交差し、かつ、前方車両の速度ベクトルが自車両の走行車線に近付く成分を所定値以上有する時に、自車両の走行車線へ前方車両が車線変更すると判断し、接近度予測手段104は、前車挙動予測手段103により自車両の走行車線へ前方車両が車線変更すると判断された時、自車挙動検出手段102および前車挙動予測手段103で得られた自車両および前方車両の位置および自車両および前方車両の速度ベクトルに基づいて接近度を出力する。路面に描かれた車線等の走行案内情報も考慮して接近度を予測しており、自車両前方の道路状況も考慮した接近度を予測することができる。
【0017】
−請求項
走行案内情報検出手段102は、路面に描かれた車両の進行誘導に関する情報を検出し、自車挙動検出手段102は、前記自車両の位置および速度ベクトルを演算し、前車挙動予測手段103は、前方車両の位置および速度ベクトルを演算するとともに、車両の進行誘導に関する情報に基づいて前方車両が車線変更を行う可能性が高い箇所を走行しているかどうかを判断し、接近度予測手段104は、前車挙動予測手段103により前方車両が車線変更を行う可能性が高い箇所を走行していると判断された時、自車挙動検出手段102および前車挙動予測手段103で得られた自車両および前方車両の位置および自車両および前方車両の速度ベクトルに基づいて接近度を出力する。路面に描かれた車線等の走行案内情報も考慮して接近度を予測しており、自車両前方の道路状況も考慮した接近度を予測することができる。
【0018】
−請求項
自車挙動検出手段102は、自車両の位置と速度ベクトルとを算出し、前車挙動予測手段103は、複数の前方車両の各々の位置および速度ベクトルを演算するとともに、複数の前方車両の各々の位置と速度ベクトルとに基づいて、複数の前方車両のうち後続する一方の車両が他の前方車両に接近して自車両の走行車線に車線変更するか否かを判断し、接近度予測手段104は、前車挙動予測手段103により自車両の走行車線に前方車両のうち後続する一方の車両が車線変更すると判断された時、自車挙動検出手段102および前車挙動予測手段103で得られた自車両および車線変更すると判断された前方車両の各位置、および自車両および車線変更すると判断された前方車両の各速度ベクトルに基づいて接近度を出力する。前方車両相互の接近度も考慮して自車両と前方車両との間の接近度を予測しており、自車両前方の道路状況も考慮した接近度を予測することができる。
【0019】
なお、本発明の構成を説明する上記課題を解決するための手段と作用の項では、本発明を分かり易くするために実施例の図を用いたが、これにより本発明が実施例に限定されるものではない。
【0020】
【実施例】
−第1実施例−
第1実施例は、たとえば図2に示すように、車線Rを走行する車両MVaの前方に走行車線R+1を走行する前方車両MVb(以下、前方車両と呼ぶ)が存在した場合、車両MVaの位置A、速度ベクトルVaおよび前方車両MVbの位置B、速度ベクトルVbを算出し、さらに、車線Rと車線R+1との境界線となる白線WLbの方向を示す方向ベクトルDbを算出して、車両MVaの走行する車線に前方車両MVbが車線変更してくるかどうか、そして、車線変更した後で車両MVaに対して安全な車間距離以下に接近してしまうかどうかを判断する。なお、以下の説明において、X軸、Y軸およびZ軸を図2に示すようにとる。
【0021】
図3(a)は、本発明による接近予測装置の一実施例の概略構成を示すブロック図である。図3(a)に示すように、この接近予測装置は、路面RD上を矢印Aで示す走行方向に走行する車両MVaに搭載されている。
【0022】
1は、左右後輪タイヤ2の近傍にそれぞれ設けられ、左右後輪タイヤ2の回転速度を検出する車輪速センサである。車輪速センサ1は、たとえば周縁部に所定ピッチで溝が形成されてタイヤ2と一体回転する導体円板と、溝に向けて磁束を出してその磁束の変化を検出することによりタイヤ2の回転数に比例するパルス列を出力する磁気センサを備えるが、その構成自体は周知であるので詳細な説明は省略する。
【0023】
3は、車両MVaの前部に配置されて車両MVaの前方視界を撮像するCCDカメラであり、CCDカメラ3からの検出信号は前処理部4で処理されて白線WLa〜WLcの検出が行なわれる。その結果は制御装置5に入力される。なお、前処理部4は、道路標識の認識、路面上に描かれた白線以外のパターンの認識、道路上に設置された路側反射体の検出を行うことも可能である。
【0024】
6は車両MVaの前部に配置されたレーダ装置であり、車両MVaの前方に電磁波ビームBMを照射し、ビームBM上に存在する前方車両からの反射波を受信する。図示例では、電磁波ビームBMは比較的狭く絞られており、通常の車線幅以上の角度範囲内(たとえば±45゜〜60゜)において走査されるように構成されている。レーダ装置6の検出信号は、前処理部7に入力され、ここで、レーダ装置6により受信された反射電磁波の伝播時間から前方車両までの距離を計測し、また、反射電磁波の到来方向から車両MVaに対する前方車両MVbの方向を検出する。これら距離と方向のデータから自車両に対する前車両の相対座標位置が演算される。前処理部7の処理結果も制御装置5に入力される。
【0025】
制御装置5はマイクロコンピュータを主体に構成されるが、その機能として、図3(b)に示すように、データ抽出部51、前方車両の挙動予測部52および接近度判断部53を備えている。データ抽出部51は、後述するように車両MVaの位置,走行方向,前方車両の位置,走行方向などのデータを抽出する。前方車両の挙動予測部52は、データ抽出部51で抽出された各種データに基づいて前方車両の挙動を予測する。接近度判断部53は、データ抽出部51で抽出された各種データおよび前方車両の挙動予測部52で予測された前方車両の挙動に基づいてその前方車両と自車両との接近度を予測、判断する。
【0026】
接近度判断部53は、ルールメモリ53a、IF部照合部53b、ルール選択部53cおよびルール競合部53dを備えている。図示例では、前方車両との接近度予測にいわゆる人工知能で用いられている手法を利用している。これを簡単に説明すると、ルールメモリ53a内には予め多数のルールが記憶されており、各ルールは、人工知能で用いられているIF〜THEN〜ルールで記述されている。IF部照合部53bは、データ抽出部51および前方車両の挙動予測部52の出力に応じて、ルールメモリ53aに記憶されている複数の条件のうちデータ抽出部51の出力に応じたルールを選択し、さらに選択されたルールのIF部を照合する。次に、ルール選択部53cは、IF部照合部53bの照合結果に基づいて、そのIF部を満足する特定のルールを選択する。最後に、ルール競合部53dは、複数のルールがルール選択部53cによって選択されたときはこれらルールを競合させる。ルール競合部53dの競合結果が前方車両との接近度に対応する。これら接近度判断部53を構成する各部の作用の詳細については後述する。
【0027】
図4は接近予測装置の動作を説明するためのメインフローチャートである。ステップS10では、CCDカメラ3で撮像されて前処理部4で処理された車両MVaの前方視界の画像データを読み込み、この画像データに画像処理を行って白線検出を行なう。ステップS20では、車輪速センサ1からの検出信号を取り込む。ステップS30では、レーダ装置6からの信号に基づいて前処理部7で予め演算されている前方車両の位置,方向を読み込む。ステップS40では、このようにして読み込まれた各種信号を用いて、後述する前方車両の挙動予測に必要なデータ、すなわち、自車両,前方車両および白線の各絶対座標値、自車両および前方車両の各速度ベクトル、自車両および前方車両の各走行車線、前方車両近傍の白線の単位方向ベクトルをそれぞれ演算により抽出する。
【0028】
ステップS50では、抽出されたデータに基づいて前車挙動予測部52により前方車両の挙動を予測する。ステップS60では、接近度判断部53のIF部照合部53bにより各種ルールのIF部を照合した後、照合したIF部の結果に基づいてルール選択部53cによりルールを選択する。ステップS70では、ステップS60で選択されたルールを接近度判断部53のルール競合部53dで競合させる。ステップS80では、競合したルールに基づいて接近度を出力する。
【0029】
次に、図4の各ステップの詳細を説明する。
(1)画像処理ルーチン
図5は、図4のステップS10で実行される画像処理ルーチンの詳細を示す。ステップS11ではCCDカメラ3で撮像されて前処理部4で処理された画像データを読み込み、ステップS12では、前処理部4において得られた画像データの視点を変換する。すなわち、図6(a)に示すように、CCDカメラ3は車両MVaの所定高さから路面RDを斜めに俯瞰して撮像しているが、後述する白線WLの方向ベクトル(図2においてDbで示す)を算出するためには、路面RDや車両MVa,MVbを真上から見下ろした画像を得ておくほうが都合がよい。図6(a)に示すCCDカメラ3から得られた観測画像から、同図(b)に示すような真上から見下ろした画像(以下、視点変換画像と称する)に変換するための変換式は次式で与えられる。
【数1】

Figure 0003557656
ここに、I,J:観測画像上の任意の点Pの座標値
i,j:P(I,J)に対応する視点変換画像上のp点の座標値
A,B:視点変換画像の表示サイズ
p,q:CCDカメラの画素サイズ
θ:CCDカメラの俯角
f:CCDカメラの焦点距離
int( ):( )内の値の整数部分を示す関数
なお、上述の(1),(2)式による視点変換は、CCDカメラ3により撮像された物体がすべて路面RD上に存在する平面物体であることを前提としているので、たとえば図6(a)に示す前方車両MVbは、同図(b)ではMVb’に示すように歪んで変換される。
【0030】
ステップS13では、視点変換された画像データに対してこの画像中に含まれる白線を抽出する白線抽出動作を行う。
【0031】
白線抽出動作の詳細を図7のフローチャートに示す。ステップS131では、白線検出用フィルタにより視点変換された画像データ中から白線候補となる領域を検出する。
【0032】
本実施例で使用される白線検出用フィルタは、たとえば図8に示すようなものであり、座標値(x,y)を有する対象点pに対して幅wだけ左右に広がった「1」部と、その左右にある「−1」部とを有する。幅wは、抽出すべき白線WLの幅に応じて予め与えておけばよく、抽出すべき白線幅をWとしたとき、W<wとなるように定められる。対象点p(x,y)に対する白線抽出用フィルタの出力F(x,y)は次式で与えられる。
【数2】
Figure 0003557656
【0033】
幅wが適切に定められていれば、対象点p(x,y)が白線WL上に位置すると出力F(x,y)の値が高くなるので、画像全体の各点において算出した出力F(x,y)に対して閾値処理を行うことにより白線候補の領域を抽出することができる。この際、各対象点p(x,y)に対して適切な閾値を設定するために、次式に示すように横方向の各ライン(X軸方向)毎に閾値tを決定する。
【数3】
Figure 0003557656
ここに、0<k<1:定数
M:画像の横方向画素数
【0034】
この閾値tを用いて生成した、白線の候補領域を表す画像データをL(x,y)とすると、このL(x,y)は次式で与えられる。
【数4】
Figure 0003557656
L(x,y)が1の値をとる領域が、白線の候補領域である。
【0035】
上述のステップS131で実行された白線の候補領域抽出動作では、実際に路面RD上に描かれている白線WLそのものを抽出しており、図3(a)および図6に示すように実際の白線WLは周期的に途切れている。したがって、図9(a)に示すように、ステップS131で抽出された白線の候補領域も(理想的には)周期的に途切れてしまう。しかし、白線という概念は実際の白線WLと異なり、途中で途切れない一連の曲線であり、途切れた白線のままでいると後述する白線の方向ベクトル算出に支障を生じることもありうるので、ステップS132で白線の候補領域を連結する作業を行う。
【0036】
図9によりステップS132の手順を詳細に説明する。ステップS131で抽出された白線候補領域を図9(b)に示すように細線化し、白線候補領域の中心線を抽出する。次いで、図9(c)に示すように、中心線の端点を検出してから、同図(d)に示すように所定間隔以下の端点を連結する。さらに、同図(e)に示すように連結された端点と上述のステップS131で抽出された白線の領域候補との論理和をとれば、同図(f)に示すように白線の候補領域の連結作業が完了する。なお、ステップS132の各動作において細線化、端点検出、論理和といった画像処理は周知の手法によればよい。
【0037】
ステップS133では、ステップS132において連結された白線の候補領域に基づいて白線のテンプレートを次のように作成する。連結された白線の候補領域に対してラベリング処理を行い、ラベリングされた各領域において最大面積を有する領域に2次曲線をマッチングさせ、テンプレートとする。たとえば、ステップS131において抽出された白線の候補領域が図10(a)に示すようなものであったとすると、連結された状態においては略中央にある白線が最も長く3本の白線候補領域の中では最大面積を有する領域であるから、この略中央の白線候補領域に2次曲線がマッチングされ、同図(b)に示すようなテンプレートT(x,y)が生成される。
【0038】
ステップS134では、ステップS131において抽出された白線候補領域に対して、ステップS133において作成されたテンプレートT(x,y)を用いてこれにマッチした領域を探索する。その結果、図10(a)に示すような白線候補領域に対しては、同図(c)に示すような3本の白線領域WLRa〜WLRcが検出される。
【0039】
(2)データ抽出
図11は、図4に示したメインフローチャートのステップS40で実行されるデータ抽出ルーチンを示すフローチャートである。ステップS41では、図4のステップS20で入力された車輪速センサ1からの信号に基づいて、車両MVaの位置する座標を、所定時間における車両MVaの位置を原点とする座標、つまり路面RDに固定された絶対座標系上で求める。図2に示すように、車両MVaの絶対座標値をA(x,y,0)とする。
【0040】
車輪速センサ1から車速に応じたパルス列を取込んで車両MVaの走行距離を演算する。一方、車両MVaの移動方向は、左右後輪の車輪速センサ1で検出された車輪速の差から求められる。したがって、車両MVaの移動距離および移動方向を順次加算すれば、車両MVaの絶対座標値が求められる。
【0041】
次に、ステップS42では、図7のステップS134で求められた白線領域WLRa〜WLRcのデータにステップS41で求められた車両MVaの絶対座標値をオフセット分として加え、これにより、白線領域WLRa〜WLRcを絶対座標系上のデータに変換する。同様にして、ステップS30で読み込まれた前方車両の相対座標値に自車両MVaの絶対座標値をオフセット分として加え、前方車両の位置を絶対座標値に変換する。図2に示す例では、前方車両MVbの絶対座標値をB(x,y,0)で表している。
【0042】
ステップS43では、前回計測された車両MVaおよび前方車両MVbの絶対座標値と今回計測された車両MVaおよび前方車両MVbの絶対座標値とから、車両MVaおよび前方車両MVbの絶対座標値の差分を求めることによりそれぞれの速度ベクトルを算出する。図2に示すように、これら車両MVaおよび前方車両MVbの速度ベクトルをそれぞれVa(vax,vay,0)、Vb(vbx,vb,0)で表す。
【0043】
ステップS44では、ステップS42で絶対座標系の位置データに変換された白線領域WLRa〜WLRcにより複数の車線が区分されていると認識し、いずれの車線に車両MVaおよび前方車両MVbがそれぞれ走行しているかを判定する。本実施例では、図2に示すように、車両MVaが車線Rを走行し、前方車両MVbが車線Rのすぐ右隣に隣接する車線をR+1を走行しているものと判定される。なお、本明細書では、自車両の車線のすぐ左隣に隣接する車線をR−1、2つ右隣にある車線をR+2、…として表現する。
【0044】
ステップS45では、前方車両MVbの近傍における白線領域WLRbの単位方向ベクトルを検出する。白線単位方向ベクトル検出方法の詳細を図12のフローチャートに示す。
【0045】
図12のステップS451では、図13(a)に示すように、前方車両MVbの走行する車線R+1を区画する白線領域のうち車線Rに近い側の白線領域WLRb上で、前方車両MVbの位置Bとの距離が最小になる点Cを検出する。ステップS452では、この白線領域WLRb上において、点Cの両側にこの点Cから所定距離だけ離れた点C,Cを設定する。そして、ステップS453では、これら点C,Cを結ぶ直線を、白線の単位方向ベクトルとして設定する。図2に示すように、この白線WLbの単位方向ベクトルはDbで表される。
【0046】
(3)前方車両の挙動予測
図4のステップS50の前方車両の挙動予測の詳細は次の通りである。本実施例では、前方車両MVbが車両MVaの走行車線に車線変更してくるかどうかを予測する。この予測式は次式で与えられる。
【数5】
Figure 0003557656
ここに、×:ベクトルの外積を表す記号
∩:アンド条件を示す演算子
:定数(0<k<1であり、かつ、kは0に近い値)
:定数(0<kであり、かつ、kは0に近い値)
⊃:左辺が真ならば右辺が真であることを表す記号
RC(+1,0):前方車両が車線R+1からRに車線変更するという事実
( ):( )内のベクトルのz成分
A∈R :座標Aが車線R内にあるという事実
B∈R+1:座標Bが車線R+1内にあるという事実
【0047】
(Db×Vb)/|Vb|は、白線の単位方向ベクトルDbと前方車両MVbの速度ベクトルVbとのなす角をθとおいたときのsinθの値であり、この値が正であれば前方車両MVbは白線に接近しつつある。また、|(Db×Vb)|は、前方車両MVbの速度ベクトルVbの白線(の単位方向ベクトルDb)に垂直な速度成分である。kは(Db×Vb)/|Vb|の符号を判定するための定数であるが、測定誤差を考慮して0に近い定数に設定してある。また、kは|(Db×Vb)|の閾値であり、前方車両が車線R+1内を若干蛇行して走った場合であっても、車線変更のおそれがあると判定されないような値に設定してある。
【0048】
したがって、車両MVaが車線R上を走行し、前方車両MVbが車線R+1を走行している状態において、(Db×Vb)/|Vb|が正の値をとり(>k)、かつ、|(Db×Vb)|が所定の閾値よりも大きい(>k)と判定されたら、前方車両MVbは車線R+1から車両MVaが走行している車線Rに車線変更しようとしているものと予測し、事実RC(+1,0)が真になる。
【0049】
(4)ルールのIF部照合
図4のステップS60におけるルールのIF部照合は次のように行なわれる。データ抽出部51および前方車両の挙動予測部53で算出された各種データに基づいて、IF部照合部53bが、このデータをIF部のパラメータとして含むルールを接近度判断部53のルールメモリ53a内に記憶された多数のルール内から選択し、選択されたルールについて各種データを入力してIF部の照合、すなわち、各ルールのIF部が真と判定されるか否かを判断する。
【0050】
図14は、ルールメモリ53a内に記憶された各種ルールを示す。本実施例において関連するルールは、ルール番号2のルールであり、RC(+1,0)は上述のステップS50で算出された前方車両の挙動を示す変数、Va,Vbはともに上述のステップS40(図11のステップS43)で算出された車両MVaおよび前方車両MVbの速度ベクトル、f(Va,Vb)は安全車間距離を示す関数であり、次式で定義される。
【数6】
Figure 0003557656
ここに、T:空走時間
ルール番号2のルールのIF部が真と判定されるためには、RC(+1,0),速度ベクトルVa,Vbおよび座標値A,Bが入力される必要がある。
【0051】
図2に示す例においては、前方車両MVbが車両MVaの車線Rに車線変更しようとしており、前方車両MVbの速度ベクトルVbは車線Rの方向に向いているので、式(6)の左辺は真と判定される。さらに、Y軸方向に沿った前方車両MVbと車両MVaとの間の距離y−yが安全車間距離f(Va,Vb)より小さい正の値を持つときは、車線変更した結果、前方車両MVbが車線Rに入ったときにその車間距離が狭くて十分接近してしまうおそれがあり、ルール番号2のIF部が真と判定されてルールが成立し、接近度=1が出力される。ここで、
接近度=0 ……影響なし
接近度=1 ……前方車両に対して注意を払うべきである
接近度=2 ……前方車両に接触するおそれがある
とする。なお、−f(Va,Vb)の項に1より小さい定数を乗じたものについて距離y−yとの大小関係を求めれば、接近度=2の判定もできる。
【0052】
一方、自車両が直線路から曲線路に進入する図15に示す場合には、前方車両MVbは既に曲線路を走行しており、従来の接近予測装置では車両MVaの直前方に前方車両MVbを検出するため、実際には前方車両MVbが車線変更する可能性は低いにもかかわらず接近を示す警報が出力されるおそれがある。この場合、本実施例によれば、前方車両MVbの速度ベクトルVbと白線WLbの単位方向ベクトルDbは平行であるため、
【数7】
Figure 0003557656
であり、式(6)の左辺が真と判定されずにRC(+1,0)は偽になる。この結果、ルール番号2のルールのIF部は真と判定されず、ルール番号2のルールは成立せずに接近度の出力は行われない。
【0053】
(5)ルールの競合
図4のステップS70におけるルールの競合について説明する。本実施例および後述する実施例に示すように、車両MVaが走行している間に接近を予測すべき状況は多数存在し、様々な状況において的確な判断をする必要があるので、接近度判断部53のルールメモリ53a内には複数のルールが記憶されている(図14参照)。したがって、1つの状況に対して複数のルールのIF部が成立する場合もあるため、IF部が成立する複数のルールを競合させて適切な接近度を出力する。
【0054】
競合方法については、たとえば人工知能の分野で行われているような方法によればよいが、たとえば、
イ.IF部が成立するルールのそれぞれから出力される接近度の和をとる
ロ.ルールに優先順位をつけ、優先順位の高いルールの接近度を出力する
ハ.これら2つの組み合わせ
といった方法が挙げられる。イについては、接近度の加重平均をとってもよい。なお、ルールの競合を例示して詳細に後述する。
【0055】
(6)接近度出力
図4のステップS80では、次のようにして接近度が出力される。なお、ルールメモリ53a内に記憶されたルールの全てのIF部が成立しないときは、接近度としてデフォルト値の0が出力される。出力された接近度は、車両MVaに備えられたランプ、ブザー等の警報装置により運転者に報知され、あるいは、車両MVaに備えられたディスプレイ等に文字を用いて表示される。なお、出力された接近度に基づいて車両MVaの走行を制御する例については後述する。
【0056】
したがって、本実施例によれば、車両MVaの前方に存在する前方車両MVbの位置,速度といった情報に加えて、車両MVaの前方視界にある白線の形状(単位方向ベクトル)という走行案内情報も考慮して接近度を算出しているので、道路状況に応じて前方車両の接近度を的確に判断して予測することができる。たとえば、図2および図15において、前方車両MVbの位置Bおよび速度ベクトルVbの方向はほぼ同一であり、従来の接近予測装置ではいずれの場合においても接近のおそれありとして警報が出力されていたが、本実施例では、図2のような実際に車線変更のおそれがあるものについてのみ接近の可能性ありとの接近度(=1)が出力され、図15のように前方車両MVbが単に曲線路を走行しているのみであり車線変更のおそれが少ないものについては接近の可能性は低いとの接近度(=0)が出力され、道路状況に応じて的確な接近度判定が行われる。
【0057】
−第1実施例の変形例−
上述の第1実施例では、白線の単位方向ベクトルを走行案内情報として利用していたが、これに限らず、道路状況を的確に把握しうる走行案内情報を用いることができる。図16は、第1実施例の変形例を示すフローチャートであり、図4のステップS40の詳細を説明するためのものである。なお、ステップS40および後述するステップS50を除いて、図4の他のステップの内容は上述の第1実施例と同様であるため、その説明を省略する。
【0058】
図11のステップS41〜S44と同様の処理を行った後、ステップS45Aでは、図2に示すように、前方車両MVbの位置Bと、車両MVaが走行している車線Rと前方車両MVbが走行している車線R+1とを隔てる白線WLbとの間の距離C(t)(t:時間)を算出する。距離C(t)は、上述した所定位置からの経過時間tとともにデータ抽出部51内に記憶される。
【0059】
図4のステップS50では、次式により前方車両の挙動、すなわち前方車両MVbが車両MVaの走行車線に車線変更してくるかどうかを予測する。
【数8】
Figure 0003557656
ここに、k:定数(0>k
【0060】
(dC(t)/dt)は白線WLbに直交する方向の前方車両MVbの速度であり、kはこの速度の閾値に相当し、前方車両MVbが車線R+1内を若干蛇行して走った場合でも車線変更のおそれありと判定されないような値に設定してある。したがって、(dC(t)/dt)が所定の閾値よりも小さい(<k)と判定されたら、前方車両MVbは車線R+1から車両MVaが走行している車線Rに車線変更しようとしているものと予測し、事実RC(+1,0)が真になる。
【0061】
この後は、ステップS50において予測された事実RC(+1,0)およびステップS41〜S44で算出された速度ベクトルVa,Vbおよび座標値A,Bに基づいて、ステップS60〜S80において接近度が算出され、出力される。よって、この変形例によっても、上述の第1実施例と同様の作用効果を得ることができる。
【0062】
−第2実施例−
上述の第1実施例およびその変形例では、走行案内情報として白線の単位方向ベクトルを用いたが、第2実施例のように、車線に描かれた白線以外のパターンの形状をパターン認識した結果を走行案内情報として用いることもできる。
【0063】
たとえば、図17に示すように、車両MVaの前方に前方車両MVbが存在した場合、この前方車両MVbが走行している車線はどのような種類の車線、たとえば、車線R,R+1のような走行車線であるか、あるいは、車線R−1のような合流車線であるかどうかをその車線に描かれたパターンの形状により認識し、認識された車線形状を、車両MVaの位置A,速度ベクトルVaおよび前方車両MVbの位置B,速度ベクトルVbとともに用いて、車両MVaの走行する車線に前方車両MVbが車線変更してくるかどうか、そして、車線変更した後で車両MVaに対して安全な車間距離以下に接近してしまうかどうかを判断する。図17に示すように、合流車線は途中で右側の車線に合流して左側の路側分離帯が右側の白線に合流する形状になっており、また通常、合流車線には合流位置に合流の意味を表すパターンMPが描かれているので、路側分離帯が車線を横切ること、およびパターンMPを認識すれば車線R−1が合流車線であることを判断することができる。
【0064】
第2の実施例が第1の実施例と異なる点は図4のステップS40で実行されるデータ抽出、ステップS50の前方車両の挙動予測、ステップS60のルールのIF部照合、ステップS70のルールの競合、およびステップS80の接近度の具体的な手順であり、その他は図2の構成も含めて同様である。したがって、以下の説明では、第1実施例との相違点を中心に説明し、共通する部分については説明を省略する。
【0065】
図18は第2実施例におけるデータ抽出サブルーチンを示し、第1の実施例の図11に相当する。図11のステップS41〜S44と同様の処理を行なった後、ステップS45Bでは、前方車両MVbが走行している車線R−1が合流車線であるかどうかを判定する。合流車線判定方法の詳細を図19のフローチャートに示す。
【0066】
図19のステップS4501では、図5のステップS13で検出された白線で区切られる車線のうち、車両MVaが走行している車線に隣接する車線(この中には前方車両MVbが走行している車線R−1が含まれる)内においてエッジ検出を行い、検出されたエッジのうち白線を横切る方向に延在するエッジ(横エッジと称する)を抽出する。
【0067】
図20は、横エッジの検出過程の一例を示す図であり、同図(a)に示すような観測画像が得られると、この観測画像について視点変換作業を行った結果は同図(b)に示すようなものになり、視点変換画像に対して白線検出作業を行った結果は同図(c)に示すようなものになる。車両MVaが走行している車線は中央の車線Rであり、前方車両MVbはその左隣の車線R−1を走行している。したがって、車線Rに隣接する車線R+1,R−1内に対応する視点変換画像に対して横エッジを抽出すると、同図(d)に示すように複数の横エッジ(図中では代表的な横エッジb,b,bについてのみ符号を付している)が抽出される。なお、エッジ検出の手法は周知であり、たとえば、微分フィルタなどのエッジ検出用フィルタを視点変換画像に掛け合わせるような手法が挙げられる。
【0068】
ステップS4502では、ステップS4501において抽出された横エッジのそれぞれにラベリング処理を行い、ラベリングされた横エッジのそれぞれの横方向の長さを計測する。ステップS4503では、横エッジの横方向の長さが隣接車線R+1,R−1の幅に略等しいかどうかが判定され、判定が肯定されるとステップS4504に進み、隣接車線幅に等しい横エッジが存在する車線R−1は合流車線であると判断する。この事実を、
【数9】
−1=RJ ...(11)
と表す。一方、判定が否定されるとステップS4505に進み、隣接車線は合流車線でないと判断する。
【0069】
図17に示すように、合流車線である隣接車線R−1に描かれたパターンMP、および、合流車線の終端にある路側分離帯は、横エッジ検出の結果それぞれ図20(d)の横エッジb,bおよびbとして抽出される。横エッジb,bの横方向の長さは隣接車線R−1の車線幅に近く、また、横エッジbの横方向の長さは隣接車線R−1の車線幅に等しい。したがって、ステップS4501で抽出された横エッジの横方向の長さが隣接車線R−1の車線幅(予め入力しておく)に略等しければ、その隣接車線R−1は合流車線であると判定できる。
【0070】
図4のステップS50では、次式により前方車両の挙動、すなわち前方車両MVbが車両MVaの走行車線に車線変更してくるかどうかを予測する。
【数10】
Figure 0003557656
ここに、RC(−1,0):前方車両が車線R−1からRに車線変更するという事実
B∈R−1:座標Bが車線R−1内にあるという事実
【0071】
したがって、車両MVaが車線R上を走行し、前方車両MVbが車線R−1を走行している状態において、車線R−1が合流車線であると判定されたら、前方車両MVbは車線R−1から車両MVaが走行している車線Rに車線変更しようとしているものと予測し、事実RC(−1,0)が真になる。
【0072】
図4のステップS60では、接近度判断部53のルールメモリ53a内にある各種ルールの中から選択されたルールについて各種データを入力してIF部の照合を行う。本実施例において関連するルールは、図14に示すルール番号4のルールである。
【0073】
図17に示す例においては、前方車両MVbは合流車線R−1を走行しており、前方車両MVbが合流車線R−1の終端に至るまでには必ず車両MVaの走行車線Rに車線変更することが予測できることから、式(12)の左辺は真と判定される。さらに、Y軸方向に沿った前方車両MVbと車両MVaとの間の距離y−yが安全車間距離f(Va,Vb)より小さい正の値を持つときは、車線変更した結果、前方車両MVbが車線Rに入ったときにその車間距離が狭くて十分接近してしまうおそれがあり、ルール番号4のIF部が真と判定されてルールが成立し、接近度=2が出力される。
【0074】
ステップS70では、ステップS60においてIF部が照合されたルールの競合を行う。たとえば、図21に示すように、車両MVaが走行する車線Rの左隣の合流車線R−1および右隣の走行車線R+1に、それぞれ前方車両MVb,MVcが走行している場合を考える。図21に示す例においてステップS60でIF部が真と判定されるのは、図14に示すルール番号2,4のルールである。したがって、ルール番号2のルールからは接近度=1が出力され、ルール番号4のルールからは接近度=2が出力される。
【0075】
上述のイの手法に従えば接近度の和=1+2=3となる。この場合、接近度の評価は3段階以上になる。また、上述のロの手法に従えば、前方車両MVbと前方車両MVcとを比較すると、前方車両MVbは必ず車線Rに車線変更するためにルール番号4のルールの方が優先度が高いといえる。よって、たとえば優先順位を全体で10段階とし、ルール番号2のルールの優先順位を5、ルール番号4のルールの順位を優先順位7とすると、ルール番号4のルールの優先順位の方が高いので、接近度=2が出力される。
【0076】
したがって、本実施例によれば、車両MVaの前方に存在する前方車両MVbの前方車両の位置,速度といった情報に加えて、車両MVaの前方視界にある合流車線であるかどうかを示すパターンなどの走行案内情報も考慮して接近度を算出しているので、道路状況に応じて前方車両の接近度を的確に判断して予測することができる。
【0077】
−第2実施例の変形例−
上述の第2実施例では、車両MVaの前方視界を撮像した画面に対してパターン認識を行って合流車線の判定を行ったが、これに限らず、種々の方法により隣接車線が合流車線であるか否かを判定することができる。合流車線判定ルーチンの別の例である図22により説明する。
【0078】
この例では、道路の所定間隔毎にサインポスト(図示略)が設置されており、このサインポストからは道路状況を示す道路情報信号が送信されていることを前提としている。したがって、図22(b)に示すように、車両MVaはこの電磁波を受信するためのアンテナ21と、アンテナ21を介して電磁波を受信する受信機22を備えている他は図3に示す構成である。
【0079】
図22(a)のステップS4511では、サインポストからの道路情報信号を車両MVaに付設されたアンテナで受信し、受信信号を制御装置5に取り込む。ステップS4512では、受信された道路情報信号の中に合流車線を示す信号があるか否かを判定する。
【0080】
図23(a)は合流車線判定ルーチンのさらに別の例を示すフローチャートである。この例では、車両MVaがGPS(Global Positioning System)によるナビゲーション装置を搭載しており、このナビゲーション装置は、図23(b)に示すように、衛星からのGPS信号を受信するためのアンテナ31と、アンテナ31を介してGPS信号を受信する受信機32と、緯度・経度により位置が特定される道路地図データを記憶する記憶装置33と、ディスプレイ装置34と、受信機32で受信したGPS信号と記憶装置33に記憶された道路地図データとに基づいて自車の道路地図上の位置を特定し、その道路の状況を表す道路情報を抽出し、さらにデイスプレイ装置34に地図と自車位置を表示する制御回路35とを備えている。
【0081】
図23(a)のステップS4521では、ナビゲーション装置が、衛星からのGPS信号により車両MVaの現在位置を認識し、その位置とナビゲーション装置が備えている道路地図データとから現在車両MVaが走行している地図上の位置を求める。その上で、走行している道路に与えられている道路情報を抽出して制御装置5に送る。制御装置5はステップS4522において、その道路情報の中に合流道路である情報が含まれるかを判定する。
【0082】
したがって、これら変形例によっても、上述の第2実施例と同様の作用効果を得ることができる。
【0083】
−第3実施例−
第3実施例は、前方車両の存在する車線に描かれたパターンを走行案内情報として利用した別の例であり、図24に示すように、車線Rを走行する車両MVaの前方に路肩である車線R−1を走行する前方車両MVbが存在した場合を想定している。したがって、前方車両MVbが走行している車線はどのような種類の車線であるか、たとえば、車線R,R+1のような走行車線であるか、あるいは、車線R−1のような路肩であるかを路面に描かれているパターンの形状により認識する。その上で、車両MVaの位置A,速度ベクトルVaおよび前方車両MVbの位置B,速度ベクトルVbを用いて、車両MVaの走行する車線に前方車両MVbが車線変更してくるかどうか、そして、車線変更した後で車両MVaに対して安全な車間距離以下に接近してしまうかどうかを判断するものである。
【0084】
第3の実施例が第1の実施例と異なる点は図4のステップS40で実行されるデータ抽出、ステップS50の前方車両の挙動予測、ステップS60のルールのIF部照合、ステップS70のルールの競合、およびステップS80の接近度の具体的な手順であり、その他は図2の構成を含めて同様である。したがって、以下の説明では、第1実施例との相違点を中心に説明し、共通する部分については説明を省略する。
【0085】
図25は第3実施例におけるデータ抽出サブルーチンを示し、図4のステップS40の詳細を説明する図11に相当するものである。図11のステップS41〜S44と同様の処理が行った後、ステップS45Cでは、前方車両MVbが走行している車線R−1が路肩であるかどうかを判定する。路肩判定方法の詳細を図26のフローチャートに示す。
【0086】
ステップS4531では、視点変換された画像に対して路側反射体RF(図24参照)を検出し、路側反射体RFとその右隣にある白線WLaとの間の距離を検出する。ステップS4532では、ステップS4531で検出された路側反射体と白線との間の距離が、通常の走行車線の幅(たとえば車線RやR+1の幅であり、予め既知の値が入力されている)よりも十分に小さいかどうかを判定し、判定が肯定されるとステップS4533に進み、走行車線幅よりも十分小さい車線幅を有する車線R−1は路肩であると判断する。この事実を、
【数11】
−1=RC ...(13)
と表す。一方、判定が否定されるとステップS4534に進み、隣接車線は路肩でないと判断する。
【0087】
図4のステップS50では、次式により前方車両の挙動、すなわち前方車両MVbが車両MVaの走行車線に車線変更してくるかどうかを予測する。
【数12】
Figure 0003557656
ここに、k:定数(k>0でありかつ0に近い値)
は符号判定のための値であり、測定誤差等を考慮して0に近い正の定数に設定してある。
【0088】
したがって、車両MVaが車線R上を走行し、前方車両MVbが車線R−1を走行している状態において、車線R−1が路肩であると判定されたら、前方車両MVbは車線R−1から車両MVaが走行している車線Rに車線変更しようとしているものと予測し、事実RC(−1,0)が真になる。
【0089】
図4のステップS60では、接近度判断部53のルールメモリ53a内にある各種ルールの中から選択されたルールについて各種データを入力してIF部の照合を行う。本実施例において関連するルールは、図14に示すルール番号6のルールである。
【0090】
図24に示す例においては、前方車両MVbが路肩R−1上を移動していれば(|Vb|>k:停止していれば故障車であり、車線変更の可能性は低い)その後、車両MVaの走行車線Rに車線変更する可能性が高いことが予測できることから、式(14)の左辺は真と判定される。さらに、Y軸方向に沿った前方車両MVbと車両MVaとの間の距離y−yが安全車間距離f(Va,Vb)より小さい正の値を持つときは、車線変更した結果、前方車両MVbが車線Rに入ったときにその車間距離が狭くて十分接近してしまうおそれがあり、ルール番号6のIF部が真と判定されてルールが成立し、接近度=1が出力される。
【0091】
したがって、本実施例によっても、上述の実施例と同様の作用効果を得ることができる。
【0092】
−第4実施例−
第4実施例は、道路の路側に所定間隔毎に設置されたサインポストから送信される道路状況を示す道路情報を車両が受信し、その受信した道路情報も使用して前方車両の挙動を予測するものである。
【0093】
たとえば、図27に示すように、車両MVaの前方に前方車両MVbが存在した場合、この前方車両MVbが走行している車線はどのような種類の車線、たとえば、車線R,R+1のような走行車線であるか、あるいは、車線R−1のような離脱路であるかどうかをサインポストからの道路情報により認識し、認識された道路情報を、車両MVaの位置A,速度ベクトルVaおよび前方車両MVbの位置B,速度ベクトルVbとともに用いて、車両MVaの走行する車線に前方車両MVbが車線変更してくるかどうか、そして、車線変更した後で車両MVaに対して安全な車間距離以下に接近してしまうかどうかを判断する。
【0094】
第4の実施例が第1の実施例と異なる点は、図2に示す構成に加えてサインポストからの電磁波を受信するアンテナと受信機(図22(b)参照)いずれも図示を省略する)を備えている点と、図4のステップS40で実行されるデータ抽出、ステップS50の前方車両の挙動予測、ステップS60のルールのIF部照合、ステップS70のルールの競合、およびステップS80の接近度の具体的な手順の点であり、その他は同様である。したがって、以下の説明では、第1実施例との相違点を中心に説明し、共通する部分については説明を省略する。
【0095】
図28は第4実施例を示すデータ処理ルーチンを示し、第1の実施例の図11のフローチャートに相当する。図11のステップS41〜S44と同様の処理を行った後、ステップS45Dでは、前方車両MVbが走行している車線R−1が離脱路であるかどうかを判定する。離脱車線判定方法の詳細を図29のフローチャートに示す。
【0096】
図29のステップS4541では、サインポストからの道路情報信号を車両MVaに付設されたアンテナで受信し、受信信号を受信機を介して制御装置5に取り込む。ステップS4542では、受信された道路情報信号に基づいて隣接車線R−1が離脱路であるか否かを判定する。隣接車線R−1が離脱路であるという事実を、
【数13】
−1=RX ...(15)
と表す。
【0097】
図4のステップS50では、次式により前方車両の挙動、すなわち前方車両MVbが車両MVaの走行車線に車線変更してくるかどうかを予測する。
【数14】
Figure 0003557656
ここに、k:定数(0>k>−1であり、かつ、kは0に近い値)
:定数(k>0であり、かつ、kは0に近い値)
(16)式は上述の(6)式と類似しており、ただし、図27に示すように前方車両MVbが左隣の車線(離脱路)R−1を走行しているため、符号の判定が逆になっている点のみ異なる。
【0098】
したがって、車両MVaが車線R上を走行し、前方車両MVbが車線R−1を走行している状態において、(Db×Vb)/|Vb|が負の値をとり(<k)、かつ、|(Db×Vb)|が所定の閾値よりも大きい(>k)と判定されたら、前方車両MVbは車線R−1から車両MVaが走行している車線Rに車線変更しようとしているものと予測し、事実RC(ー1,0)が真になる。
【0099】
図4のステップS60では、接近度判断部53のルールメモリ53a内にある各種ルールの中から選択されたルールについて各種データを入力してIF部の照合を行う。本実施例において関連するルールは、図14に示すルール番号8のルールである。
【0100】
図27に示す例においては、前方車両MVbは車両MVaの走行車線Rに車線変更しようとしており、前方車両MVbの速度ベクトルVbは車線Rの方向に向いているので、式(16)の左辺は真と判定される。さらに、前方車両MVbが走行している車線は離脱路であるからR−1=RXが成立し、この結果、前方車両はかなり強引に車線Rに車線変更してくるものと予測され、ルール番号8のIF部が真と判定されてルールが成立し、接近度=2が出力される。
【0101】
したがって、本実施例によっても、上述の実施例と同様の作用効果を得ることができる。
【0102】
あるいは、上述の第4実施例において、車両MVaがナビゲーション装置(図23(b)参照)を搭載しているときは、第2実施例の変形例と同様にナビゲーション装置からの道路情報を用いてもよい。図30により説明する。
【0103】
図30は、離脱路判定ルーチンの別の例を示すフローチャートである。まず、ステップS4521で上述したと同様にしてGPS信号に基づいて車両の地図上の位置を認識した上でその道路に与えられている道路情報を抽出し、制御装置5に送信する。ステップS4522Aでは、受信した道路情報に基づいて隣接車線が離脱路であるか否かを判定する。
【0104】
−第5実施例−
第5実施例は、車両の前方を走行する前方車両である前方車両が2台存在した場合、これら前方車両相互の位置、速度から挙動を予測したものである。たとえば、図31に示すように、車両MVaの前方に2台の前方車両MVb,MVcが存在した場合、先行する前方車両MVcの後方に後続する前方車両MVbが、車両MVaの走行車線に車線変更して前方車両MVcを追い抜こうとしているかどうか、そして、車線変更した後で車両MVaに対して安全な車間距離以下に接近してしまうかどうかを、車両MVaの位置A,速度ベクトルVa、および前方車両MVb,MVcの位置B,C(x,y,0),速度ベクトルVb,Vcにより判断する。
【0105】
第5の実施例が第1の実施例と異なる点は図4のステップS40で実行されるデータ抽出、ステップS50の前方車両の挙動予測、ステップS60のルールのIF部照合、ステップS70のルールの競合、およびステップS80の接近度の具体的な手順であり、その他は図2の構成を含めて同様である。したがって、以下の説明では、第1実施例との相違点を中心に説明し、共通する部分については説明を省略する。
【0106】
図4のステップS40では、前方車両が1台である第1の実施例と同様にして2台の前方車両に関する必要なデータを抽出する。図4のステップS50では、次式により前方車両の挙動、すなわち前方車両MVbが車両MVaの走行車線に車線変更してくるかどうかを予測する。
【数15】
Figure 0003557656
ここに、k:定数(k>0)
:定数(k<0)
<y<yなる条件は、前から順に前方車両MVc、前方車両MVb、車両MVaの順に並んでいることを示しており、図31に示す配置状態に対応している。また、y−yは、Y軸方向に沿った前方車両MVcと前方車両MVbとの間の距離であり、|Vc|−|Vb|は、前方車両MVcと前方車両MVbとの間の速度差である。
【0107】
したがって、車両MVaが車線R上を走行し、前方車両MVbおよび前方車両MVcがともに車線R+1を走行している状態において、前方車両MVb,MVc間の距離y−yが所定の車間距離k以下で、かつ、前方車両MVb,MVc間の速度差|Vc|−|Vb|が所定の速度差k以上であると、前方車両MVbは前方車両MVcに徐々に近づいて接近し、前方車両MVcを追い抜くために車線Rに車線変更するものと予測し、事実RC(+1,0)が真になる。
【0108】
図4のステップS60では、接近度判断部53のルールメモリ53a内にある各種ルールの中から選択されたルールについて各種データを入力してIF部の照合を行う。本実施例において関連するルールは、図14に示すルール番号7のルールである。
【0109】
図31に示す例においては、車両MVaは車線Rを、前方車両MVb,MVcはともに車線R+1を走行しているので、前方車両MVb,MVc間の距離y−yが所定の車間距離k以下で、かつ、前方車両MVb,MVc間の速度差|Vc|−|Vb|が所定の速度差k以上であれば式(17)の左辺は真と判定される。さらに、Y軸方向に沿った前方車両MVbと車両MVaとの間の距離y−yが安全車間距離f(Va,Vb)より小さい正の値を持つときは、車線変更した結果、前方車両MVbが車線Rに入ったときにその車間距離が狭くて十分接近してしまうおそれがあり、ルール番号7のIF部が真と判定されてルールが成立し、接近度=2が出力される。
【0110】
したがって、本実施例によっても、上述の各実施例と同様の作用効果を得ることができる。
【0111】
−第6実施例−
上述した第1〜第5実施例では車両との接近を検出していたが、これに限らず、たとえば横断歩道を横断する歩行者との接近を検出するようにしてもよい。第6実施例は、路面に描かれたパターンの形状をパターン認識して横断歩道の有無を判断した一例である。たとえば、図32に示すように、車両MVaの前方視界にある横断歩道CRの路側に歩行者WPが立っていた場合、車両MVaの前方視界に横断歩道CRが存在するかどうかをパターン形状により認識し、その認識結果を、歩行者WPの位置Bおよび車両MVaの位置A,速度ベクトルVaとともに用いて、横断歩道CRを歩行者WPが横断するか、そして、歩行者WPが横断歩道CRを横断した場合に車両MVaが安全に停止しうるかを判断する。図32に示すように、横断歩道CRは車線幅の全幅にわたる横方向の2本の白線WLd,WLeを備えているので、車線幅の全幅にわたり横方向に延在する2本の白線WLd,WLeをパターン認識できれば横断歩道CRの存在を判断することができる。
【0112】
第6の実施例が第1の実施例と異なる点は次のとおりである。まず、第6の実施例における接近予測装置の全体構成を図33に示す。第1の実施例の図3(a)の接近予測装置との相違点は、赤外線検知装置10を設けた点である。赤外線検知装置10はたとえば赤外線カメラから構成され、車両MVaの前方から到来する赤外線を画像として検出する。前処理部7は、赤外線検知装置10により検出された赤外線のうち、周囲温度より高温の領域があればその領域の形状を解析して人間が撮像されているかどうかを判断し、人間が撮像されている場合は、車両MVaに対する人間の方向を検出する。
【0113】
さらに、図4のステップS10の画像処理、ステップS40のデータ抽出、ステップS50の前方車両の挙動予測、ステップS60のルールのIF部照合、ステップS70のルールの競合、およびステップS80の接近度の具体的な手順が相違する他は同様である。したがって、以下の説明では、第1実施例との相違点を中心に説明し、共通する部分については説明を省略する。
【0114】
図34は、第6実施例の画像処理ルーチンを示すフローチャートであり、図4のステップS10の詳細を説明するためのものである。図5のステップS11〜S13と同様の処理を行った後、ステップS14では、車両MVaの前方に人間が存在するか否かを判定し、さらに、人間が存在した場合は車両MVaに対する相対座標を求める。
【0115】
すなわち、上述した赤外線検知装置10により車両MVa前方から到来する赤外線を撮像し、周囲温度より高温の領域を抽出する。ついで、高温領域の形状を解析し、高温領域が人間から放射される赤外線に起因するものか、すなわち、高温領域に人間が存在するか否かを判断する。そして、人間が前方視界内に存在すると判断されたら、車両MVaに対する人間の方向を検出する。
【0116】
次に、図35は第4実施例のデータ抽出ルーチンを示すフローチャートであり、図4のステップS40の詳細を説明するためのものである。図11のステップS41と同様に自車の絶対座標値を算出し、ステップS42Aで白線領域の絶対座標値および人間の絶対座標値B(x,y)を算出し、ステップS43Aで自車両の速度ベクトルを算出する。本実施例では人間の速度ベクトルを求めることはない。ステップS46では、車両MVaの前方視界内に横断歩道CRが存在するかどうかを判定する。横断歩道判定方法の詳細を図36のフローチャートに示す。
【0117】
図36において、ステップS461では視点変換された車両MVaの前方視界画像に対して白線検出を行い、検出された白線で区切られる車線のうち車両MVaが走行している車線R内においてエッジ検出を行い、検出されたエッジのうち白線を横切る方向に延在する横エッジを抽出する。横エッジ抽出の詳細はすでに図19のステップS4501の動作説明において行っているのでその詳細は省略する。
【0118】
ステップS462では、図19のステップS4502と同様にして、ステップS461において抽出された横エッジのそれぞれにラベリング処理を行い、ラベリングされた横エッジのそれぞれの横方向の長さを計測する。ステップS4503では、横エッジの横方向の長さが走行車線Rの幅に略等しく、かつ、走行車線Rに2本の横エッジが存在するか否かが判定され、判定が肯定されるとステップS464に進み、走行車線Rに横断歩道が存在すると判断する。この事実を、
【数16】
Kb=Human ……(18)
と表す。一方、判定が否定されるとステップS465に進み、走行車線Rに横断歩道は存在しないと判断する。
【0119】
次に、図4のステップS50では、次式により前方障害物の挙動、すなわち歩行者WPが横断歩道CRを横断しようとしているかどうかを予測する。
【数17】
Figure 0003557656
ここに、k10:定数(k10>0)
RE:歩行者WPが横断歩道を横断しようとしている事実
:横断歩道CRの中央点P(x,y)のY座標
【0120】
|y−y|はY軸方向に沿った歩行者WPと横断歩道CRとの間の距離である。したがって、歩行者WPが車両MVaの前方視界内に存在し、この歩行者WPと横断歩道CRとの間の距離が所定の安全距離より小さい(<k10)と判定されたら、歩行者WPは横断歩道CRを横断しようとしているものと予測し、事実REが真になる。
【0121】
図4のステップS60では、接近度判断部53のルールメモリ53a内にある各種ルールの中から選択されたルールについて各種データを入力してIF部の照合を行う。本実施例において関連するルールは、図14に示すルール番号11のルールである。ここに、f’(Va)は車両MVaの停止距離を示す関数であり、次式で定義される。
【数18】
Figure 0003557656
ここに、α:車両MVaの減速度
【0122】
図32に示す例においては、車両MVaの前方視界内に歩行者WPが存在しているので、歩行者WPと横断歩道CRとの間の距離y−yが所定の安全距離より小さい(<k10)とき、すなわち、歩行者WPが横断歩道CRに十分接近しているときは、式(19)の左辺は真と判定される。さらに、Y軸方向に沿った歩行者WPと車両MVaとの間の距離y−yが停止距離f’(Va)より小さい正の値を持つときは、ブレーキをかけても制動距離が長く、歩行者WPが横断歩道CRを横断したときには車両MVaが横断歩道CRに接近しているおそれがあり、ルール番号11のIF部が真と判定されてルールが成立し、接近度=2が出力される。
【0123】
したがって、本実施例によれば、赤外線検知装置により人間の存在を検出し、さらに白線の形状を考慮してこの人間の挙動を予測して接近度を算出しているので、道路状況に応じて人間との接近度を的確に判断して予測することができる。
【0124】
−第6実施例の変形例−
上述の第6実施例では、車両MVaの前方視界を撮像した画面に対してパターン認識を行って横断歩道CRの判定を行っていたが、上述の合流車線判定の場合と同様に、種々の方法により前方視界に横断歩道CRが存在するか否かを判定することができる。
【0125】
図37は、横断歩道判定ルーチンの別の例を示すフローチャートである。この例では、道路の所定間隔毎にサインポスト(図示略)が設置されており、このサインポストからは道路状況を示す道路情報信号が送信されていることを前提としている。したがって、車両MVaはこの電磁波を受信するためのアンテナと受信機(図22(b)参照)を備えている。その他は図3に示す構成である。
【0126】
図37のステップS4601では、サインポストからの道路情報信号を車両MVaに付設されたアンテナで受信し、受信信号を制御装置5に取り込む。ステップS4602では、受信された道路情報信号に基づいて前方視界に横断歩道CRが存在するか否かを判定する。
【0127】
また、図38は、図23(b)で説明したナビゲーション装置から入力される道路情報により横断歩道を判定する例を示すフローチャートである。ステップS4611では、ナビゲーション装置が上述したと同様にしてGPS信号に基づいて車両の地図上の位置を認識した上でその道路に与えられている道路情報を抽出し、制御装置5に送信する。ステップS4612では、受信した道路情報に基づいて前方視界に横断歩道が存在するか否かを判定する。
【0128】
したがって、これら変形例によっても、上述の第6実施例と同様の作用効果を得ることができる。
【0129】
次に、接近度判断部53から出力された接近度を車両MVaの制御に用いる第7および第8実施例を説明する。
−第7実施例−
図39は、いわゆる定速走行装置の制御に上述の接近予測装置から出力される接近度を用いた第7実施例の概略構成を示すブロック図である。この図において、50は上述の第1〜第6実施例による接近予測装置である。61は希望車速設定部であり、希望車速を車両の乗員が入力する。希望車速設定部61は、たとえば、UP/DOWNを指令する押ボタンを備え、UPボタンが連続的に押動されると設定車速を上昇させる信号が送信され、一方、DOWNボタンが連続的に押動されると設定車速を下降させる信号が送信されるよう構成される。62は動作ON/OFFスイッチであり制御部63による定速走行動作の開始及び終了を指示する。
【0130】
64は制御部63からの信号により車両各部を制御して定速走行を行なうアクチュエータ群である。アクチュエータ群64は、スロットルの開度を制御するスロットルアクチュエータ、ブレーキ装置を制御するブレーキアクチュエータ、変速機を制御する変速アクチュエータを含む。制御部63は、希望車速設定部61や接近予測装置50から入力される信号に基づいて目標速度を決定し、この目標速度と現在の車両の速度とを比較して、現在の速度が目標速度になるようにアクチュエータ群64に制御信号を出力する。また、接近予測装置50からの信号に基づいてアクチュエータ群64を制御して接近度に応じた走行制御を行う。定速制御や接近度に応じた走行制御のために、
(1)スロットルアクチュエータだけを駆動
(2)スロットルアクチュエータと変速アクチュエータを駆動
(3)スロットルアクチュエータとブレーキアクチュエータを駆動
することができる。
【0131】
図40は、本実施例の動作を説明するためのフローチャートである。なお、接近予測装置50の動作は上述の第1〜第6実施例のものと同様であるのでその説明を省略する。
【0132】
図40に示すプログラムは、動作ON/OFFスイッチ62がONされることにより開始する。まず、ステップS91では、希望車速設定部61によって設定された希望車速を制御部63に取り込む。次いでステップS92では、接近予測装置50から車両MVaおよび前方車両MVbの絶対座標値,速度ベクトルおよび走行車線を読み込む。
【0133】
ステップS93では、接近度判断部53から入力された車両MVaおよび前方車両MVbの絶対座標値,速度ベクトルに基づいて、安全を確保しうる安全車間距離を演算する。安全車間距離は、たとえば上述の式(7)で定義されるようなものである。ステップS94では、車両MVaと前方車両MVbとの間の車間距離を算出し、この実際の車間距離がステップS93で算出された安全車間距離以上であるか、または、車両MVaが走行する走行車線上に前方車両が存在しないかどうかを判定する。その結果、判定が肯定されるとステップS95に進み、判定が否定されるとステップS96に進む。
【0134】
ステップS94が肯定判定されるのは、車両MVaの車速を希望車速に設定しても安全が確保できると判断したからでありステップS95において、実際の車速が希望車速となるようにアクチュエータ群64を制御する。一方、ステップS96では、車両MVaの車速を希望車速に設定すると安全が確保できないおそれがあると判断し、実際の車間距離が安全車間距離となるようにアクチュエータ群64を制御する。
【0135】
一方、図40のフローチャートに示すプログラムが実行されている間において接近予測装置50から接近度が出力されると、割り込み動作が実行されて図41に示すように定速走行動作が終了する。
【0136】
このように、接近予測装置50によって検出された前方車両MVbの位置、速度、車線、および前方車両MVbに対する接近度を用いて、車両MVaが前方車両MVbに接近しないように車両MVaの挙動を制御することができる。
【0137】
−第7実施例の変形例−
上述の第7実施例では、接近予測装置50から接近度が出力されると定速走行動作を一律に終了していたが、接近度のレベルに応じて制御してもよい。図42は、このような制御手順の一例を示すフローチャートであり、図40のフローチャートに示すプログラムが実行されている間において、接近予測装置50から接近度が出力されると、図42のサブルーチンフローチャートに示す割り込み動作が実行される。ステップS901では、接近予測装置50から出力された接近度のレベルに応じて、定速走行動作が目標とする目標速度を減速する。特に、接近度のレベルが高いほど目標速度を低く設定すればよく、たとえば、接近度=1であれば単にスロットルアクチュエータを戻してエンジンブレーキにより減速し、接近度=2であれば積極的にブレーキアクチュエータを制御して減速すればよい。
【0138】
接近度のレベルに応じて段階的に定速走行動作を制御することにより、走行状況に応じたきめ細かい制御が可能になる。
【0139】
−第8実施例−
図43は本発明の第8実施例を示し、接近予測装置から出力される信号に基づいて自車両が前方車両に接近することを回避する接近回避装置の概略構成を示すブロック図である。なお、以下の説明において、上述の第7実施例と共通の構成要素については同一の符号を付し、その説明を省略する。図43において、65は後方および側方車両検出部であり、車両MVaの後方と側方の車両の存在を検出する。この後方および側方車両検出部は、たとえば距離センサ、光スイッチ等を備え、これら距離センサ、光スイッチ等の検出結果に基づいて車両の存在を検出する。また、アクチュエータ群64は、ステアリングアクチュエータ、スロットルアクチュエータ、ブレーキアクチュエータおよび変速アクチュエータを備えている。
【0140】
本実施例の通常の動作は、図40に説明した第7実施例の動作と略同一であるのでその説明を省略し、割り込み動作についてのみフローチャートで図示する。図40のフローチャートに示すプログラムが実行されている間に接近予測装置50から接近度が出力されると、図44に示す割り込み動作のサブルーチンフローチャートが実行される。
【0141】
図44のステップS911では、接近予測装置50から接近度および接近度出力の要因となった前方車両の車線を取り込む。前方車両の車線は、接近度出力に寄与したルールのIF部を探索することにより検出できる。ステップS912では、車両MVaの車速を減速するだけで前方車両に対する接近が防止できるか否かを判定し、判定が肯定されるとステップS913に進み、判定が否定されるとステップS914に進む。ステップS912の判定は、たとえば接近度が高い(接近度が2以上である、など)場合は判定を肯定し、接近度が低い場合は判定を否定すればよい。
【0142】
ステップS913では、図42のステップS901と同様に、接近予測装置50から出力された接近度のレベルに応じて、定速走行動作が目標とする目標速度を減速する。特に、接近度のレベルが高いほど目標速度を低く設定すればよい。一方、ステップS914では、接近度出力の要因となった前方車両の存在する車線に対して反対方向の車線(つまり、前方車両が右隣の走行車線に存在すれば左隣の走行車線)を探索し、この車線において車両MVaの後方と側方に車両が検出されない場合、この車線が回避可能な車線であると判断し、回避可能な車線への車線変更を行う。つまり、アクチュエータ群64を構成するステアリングアクチュエータにより車両MVaのステアリングを回避可能な車線に向け、車両MVaをこの車線に移動させる。
【0143】
したがって、本実施例によっても、上述の第7実施例と同様の作用効果を得ることができる。
【0144】
以上説明した実施例と請求の範囲との対応において、CCDカメラ3やデータ抽出部51が走行案内情報検出手段101を、車輪速センサ1やデータ抽出部51が自車挙動検出手段102を、前方車両の挙動検出部52が前車挙動予測手段103を、接近度判断部53が接近度予測手段104をそれぞれ構成する。なお、本発明の接近予測装置は、その細部が上述の各実施例に限定されず、種々の変形が可能である。
【0145】
【発明の効果】
以上詳細に説明したように、本発明によれば、路面に描かれた車線等の走行案内情報も考慮して接近度を算出しているので、自車両前方の道路状況に応じて前方車両や移動物体の接近度を的確に判断して予測することができる
【図面の簡単な説明】
【図1】本発明の接近予測装置を示す機能ブロック図である。
【図2】第1実施例の接近予測装置の動作を説明する図である。
【図3】(a)は接近予測装置の一実施例を示す全体構成図、(b)はその制御装置の詳細を示す図である。
【図4】接近予測装置の動作を説明するためのメインフローチャートである。
【図5】第1実施例〜第5実施例の画像処理ルーチンを示すフローチャートである。
【図6】(a)は撮像装置で撮像された車両の前方視界画像の一例を示す図、(b)は(a)に対応する視点変換画像を示す図である。
【図7】白線検出ルーチンを示すフローチャートである。
【図8】白線検出用フィルタの一例を示す図である。
【図9】(a)〜(f)はそれぞれ白線候補領域の連結手法を説明するための図である。
【図10】(a)は白線候補領域の一例を示す図、(b)は(a)の白線候補領域から得られたテンプレート、(c)は(b)のテンプレートを用いて検出された白線領域を示す図である。
【図11】第1実施例のデータ抽出ルーチンを示すフローチャートである。
【図12】白線の方向ベクトル検出ルーチンを示すフローチャートである。
【図13】(a)〜(c)はそれぞれ白線の単位方向ベクトルの算出方法を説明するための図である。
【図14】ルールメモリ内に記憶されているルールの一例を示す図である。
【図15】第1実施例の接近予測装置の動作を説明する図である。
【図16】第1実施例の変形例のデータ抽出ルーチンを示すフローチャートである。
【図17】第2実施例の接近予測装置の動作を説明する図である。
【図18】第2実施例のデータ抽出ルーチンを示すフローチャートである。
【図19】第2実施例の合流車線判定ルーチンを示すフローチャートである。
【図20】第2実施例を説明する図で、(a)は撮像装置で撮像された車両の前方視界画像の一例を示す図、(b)は(a)に対応する視点変換画像を示す図、(c)は(b)の視点変換画像に対して検出された白線領域を示す図、(d)は(b)の視点変換画像から抽出された横エッジを示す図である。
【図21】第2実施例の接近予測装置の動作を説明する図である。
【図22】(a)は第2実施例の変形例の合流車線判定ルーチンの一例を示すフローチャート、(b)はサインポストからの信号を受信するシステムの構成例を示す図である。
【図23】(a)は第2実施例の変形例の合流車線判定ルーチンの他の例を示すフローチャート、(b)はナビゲーション装置の構成例を示す図である。
【図24】第3実施例の接近予測装置の動作を説明する図である。
【図25】第3実施例のデータ抽出ルーチンを示すフローチャートである。
【図26】第3実施例の路肩判定ルーチンを示すフローチャートである。
【図27】第4実施例の接近予測装置の動作を説明する図である。
【図28】第4実施例のデータ抽出ルーチンを示すフローチャートである。
【図29】第4実施例の離脱車線判定ルーチンを示すフローチャートである。
【図30】第4実施例の変形例の離脱車線判定ルーチンを示すフローチャートである。
【図31】第5実施例の接近予測装置の動作を説明する図である。
【図32】第6実施例の接近予測装置の動作を説明する図である。
【図33】第6実施例における接近予測装置の全体構成を示す図である。
【図34】第6実施例の画像処理ルーチンを示すフローチャートである。
【図35】第6実施例のデータ抽出ルーチンを示すフローチャートである。
【図36】第6実施例の横断歩道判定ルーチンを示すフローチャートである。
【図37】第6実施例の変形例の横断歩道判定ルーチンの一例を示すフローチャートである。
【図38】第6実施例の変形例の横断歩道判定ルーチンの他の例を示すフローチャートである。
【図39】第7実施例である接近予測装置が適用される定速走行装置を示すブロック図である。
【図40】第7実施例の動作を説明するためのフローチャートである。
【図41】第7実施例の割り込み動作を説明するためのフローチャートである。
【図42】第7実施例の変形例の割り込み動作を説明するためのフローチャートである。
【図43】第8実施例である接近予測装置が適用される接近回避装置を示すブロック図である。
【図44】第8実施例の動作を説明するためのフローチャートである。
【符号の説明】
1 車輪速センサ
2 タイヤ
3 CCDカメラ
4,7 前処理部
5 制御装置
6 レーダ装置
10 赤外線検知装置
50 接近予測装置
51 データ抽出部
52 前方車両の挙動予測部
53 接近度判断部
53a ルールメモリ
53b IF部照合部
53c ルール選択部
53d ルール競合部
MVa 車両
MVb,MVc 前方車両
WLa〜WLc 白線
WLRa〜WLRc 白線領域
MP 合流車線パターン
RF 路側反射体
CR 横断歩道
101 走行案内情報検出手段
102 自車挙動検出手段
103 前車挙動予測手段
104 接近度予測手 [0001]
[Industrial applications]
The present invention relates to an approach prediction device that predicts whether a moving object such as a forward vehicle or a person traveling ahead of a host vehicle traveling on a road surface is approaching the host vehicle.
[0002]
[Prior art]
Conventionally, this type of approach prediction device can be roughly classified into the following four types.
(1) A device that detects the distance of a vehicle ahead using a radar whose detection direction is fixed within a predetermined range.
(2) Detecting the distance and direction of a vehicle ahead using a radar whose detection direction changes according to the steering angle of the host vehicle (for example, the steering operation angle).
(3) A device that narrows the angle of a radar beam (irradiation wave) and scans (scans) the beam within a predetermined angle to detect the distance and direction of a vehicle ahead.
(4) The image in front of the host vehicle taken by the image pickup device is processed by the image processing device, the lane information drawn on the road surface in front of the host vehicle is detected, and the radar detection range is controlled in the traveling lane of the host vehicle. What to do
[0003]
[Problems to be solved by the invention]
However, the above-described conventional approach prediction devices have the following problems, respectively.
[0004]
(1) Since the radar detection direction is limited to one direction, if the radar beam is narrowed down narrowly, the radar detection direction will be determined when the vehicle is traveling on a curved road, at the entrance of a curved road, or near the road. It deviates from the traveling direction, and it is difficult to detect a forward vehicle or the like. On the other hand, if the beam is widened, an unnecessary object such as an object traveling outside the road on a straight road may be detected.
[0005]
(2) By changing the radar detection direction according to the steering angle of the host vehicle, the radar beam width can be reduced to about the width of the lane, but the radar detection must be performed after the steering angle has changed. Since the direction does not change, although the effect is effective on a curved road, the radar detection direction deviates from the traveling direction of the road before the curved road or at an entrance and exit, and there is a possibility that a vehicle ahead or the like cannot be detected.
[0006]
(3) By scanning the beam, a wide range of vehicles ahead in front of the vehicle can be detected, and the vehicles ahead can be reliably detected in the middle of a curved road, at an entrance, or in front of the vehicle. Therefore, there is a possibility that it is not possible to properly determine the degree of approach to the own vehicle because the preceding vehicle or the like is detected without taking into account the above. For example, a preceding vehicle traveling in the lane next to the own vehicle in the middle of a curved road runs in a direction approaching the own vehicle when only looking at the moving direction, but in fact, the own vehicle also runs in the same direction. Therefore, the possibility of approach is low. However, in the conventional approach prediction device, there is a possibility that such a forward vehicle may be determined to be highly likely to approach.
[0007]
(4) The image processing apparatus can accurately detect a forward vehicle or the like on the lane in which the own vehicle travels. However, a forward vehicle or the like traveling in a lane other than the own vehicle lane or a location other than the lane (for example, a road shoulder or the like) ) May be difficult to detect a vehicle ahead.
[0008]
SUMMARY OF THE INVENTION It is an object of the present invention to provide an approach prediction device capable of accurately determining an approach level of a preceding vehicle or the like by grasping a road condition ahead of the own vehicle.
[0009]
[Means for Solving the Problems]
FIG. 2 is a functional block diagram of the present invention.In oneMore specifically, the present invention is applied to a device for predicting the degree of approach between a host vehicle traveling on a road surface and a preceding vehicle existing in the traveling direction..
[0010]
Travel guidance information detection means 101Detects information on the direction in which the lane extends on the road surface, and the own vehicle behavior detecting means 102 calculates the position and speed vector of the own vehicleIs preferred.
[0011]
The front vehicle behavior prediction means 103 calculates the position and speed vector of the preceding vehicle, and the direction of the speed vector of the preceding vehicle intersects with the direction in which the traveling lane of the preceding vehicle extends, and the speed vector of the preceding vehicle is Judging that the preceding vehicle changes lanes to the running lane of the own vehicle when the component approaching the running lane of the own vehicle has a predetermined value or more.Is preferred.
[0012]
The approach predicting means 104 changes the lane of the preceding vehicle to the traveling lane of the own vehicle by the preceding vehicle behavior predicting means 103.When it is determined that the vehicle is approaching based on the position of the own vehicle and the preceding vehicle obtained by the own vehicle behavior detecting means 102 and the preceding vehicle behavior predicting means 103, and the velocity vector of the own vehicle and the preceding vehicle, preferable.
[0013]
Alternatively, the traveling guide information detecting means 101 detects information related to the traveling guidance of the vehicle drawn on the road surface, the own vehicle behavior detecting means 102 calculates the position and speed vector of the own vehicle, and the preceding vehicle behavior predicting means 103 It is preferable to calculate the position and speed vector of the preceding vehicle and determine whether or not the preceding vehicle is traveling in a location where there is a high possibility that the lane will change based on the information regarding the guidance of the vehicle.
[0014]
When the preceding vehicle behavior predicting means 103 determines that the preceding vehicle is traveling in a place where there is a high possibility of changing lanes, the approach degree predicting means 104 performs the own vehicle behavior detecting means 102 and the preceding vehicle behavior predicting means 103. It is preferable to output the degree of approach based on the positions of the own vehicle and the preceding vehicle obtained in and the velocity vectors of the own vehicle and the preceding vehicle.
[0015]
The invention according to claim 3 is applied to an apparatus for predicting the degree of approach between a host vehicle traveling on a road surface and a plurality of preceding vehicles existing in the traveling direction.
The above-mentioned object is to calculate the position and speed vector of the own vehicle, calculate the position and speed vector of each of the plurality of front vehicles, and calculate the position of each of the plurality of front vehicles. Front vehicle behavior predicting means for determining whether or not one of the following vehicles of the plurality of preceding vehicles approaches the other preceding vehicle and changes lanes to the traveling lane of the own vehicle based on the speed vector and the speed vector 103 and the preceding vehicle behavior predicting means 103, when it is determined that the following vehicle of the traveling lane of the own vehicle changes lanes, the vehicle behavior detecting means 102 and the vehicle Proximity prediction that outputs a proximity based on each position of the following one of the vehicle and the preceding vehicle and each velocity vector of the following one of the own vehicle and the preceding vehicle. Stage 104 is achieved.
[0016]
[Action]
-Claim 1-
The traveling guidance information detecting means 101The vehicle behavior detecting means 102 calculates the position and speed vector of the vehicle, and the preceding vehicle behavior predicting means 103 calculates the position and speed of the preceding vehicle. When calculating the vector, the direction of the speed vector of the preceding vehicle and the direction of extension of the traveling lane of the preceding vehicle intersect, and when the speed vector of the preceding vehicle has a component approaching the traveling lane of the own vehicle at a predetermined value or more. When the preceding vehicle determines that the preceding vehicle changes lanes to the traveling lane of the own vehicle, and the approaching degree prediction means 103 determines that the preceding vehicle changes lanes to the traveling lane of the own vehicle by the preceding vehicle behavior prediction means 103, Outputs the proximity based on the positions of the own vehicle and the preceding vehicle and the velocity vectors of the own vehicle and the preceding vehicle obtained by the detecting means 102 and the preceding vehicle behavior predicting means 103.I do. The proximity is predicted in consideration of travel guidance information such as lanes drawn on the road surface, and the proximity can be predicted in consideration of the road conditions ahead of the host vehicle.
[0017]
-Claims2
The traveling guidance information detecting means 102 detects information related to the traveling guidance of the vehicle drawn on the road surface, the own vehicle behavior detecting means 102 calculates the position and speed vector of the own vehicle, and the preceding vehicle behavior predicting means 103 , Calculating the position and speed vector of the preceding vehicle, and determining whether or not the preceding vehicle is traveling in a location where there is a high possibility that the lane change will be performed based on the information on the guidance of the vehicle. When the preceding vehicle behavior predicting means 103 determines that the preceding vehicle is traveling in a place where there is a high possibility of changing lanes, the own vehicle obtained by the own vehicle behavior detecting means 102 and the preceding vehicle behavior predicting means 103 And outputs the degree of approach based on the position of the preceding vehicle and the velocity vectors of the own vehicle and the preceding vehicle. Considering the travel guidance information such as lanes drawn on the road surfaceThe degree of approach is predicted, and the degree of approach can be predicted in consideration of the road conditions ahead of the host vehicle.
[0018]
-Claims3
The own-vehicle behavior detecting means 102 calculates the position and speed vector of the own vehicle, and the preceding-vehicle behavior predicting means 103 calculates the position and speed vector of each of the plurality of front vehicles, and calculates each of the plurality of front vehicles. Based on the position and the speed vector of the vehicle, determine whether or not one of the following vehicles of the plurality of preceding vehicles approaches the other preceding vehicle and changes lanes to the traveling lane of the own vehicle. 104 is obtained by the own vehicle behavior detecting means 102 and the preceding vehicle behavior predicting means 103 when the preceding vehicle behavior predicting means 103 determines that one of the following vehicles ahead of the traveling lane of the own vehicle changes lane. The proximity is output based on the respective positions of the own vehicle and the preceding vehicle determined to change lanes, and the respective speed vectors of the own vehicle and the preceding vehicle determined to change lanes. Considering the proximity of the vehicles in front,The approach to the vehicle is predicted, and the approach can also be predicted in consideration of the road conditions ahead of the own vehicle.
[0019]
In the sections of the means for solving the problems described above and the operation that describe the configuration of the present invention, the drawings of the embodiments are used to make the present invention easy to understand, but the present invention is not limited to the embodiments. Not something.
[0020]
【Example】
-1st Example-
In the first embodiment, for example, as shown in FIG.0Traffic lane R ahead of the vehicle MVa+1If there is a forward vehicle MVb (hereinafter, referred to as a forward vehicle) traveling on the vehicle, a position A of the vehicle MVa, a speed vector Va, a position B of the forward vehicle MVb, and a speed vector Vb are calculated.0And lane R+1A direction vector Db indicating the direction of a white line WLb that is a boundary line between the vehicle MVa and the vehicle MVa is calculated based on whether the preceding vehicle MVb changes lanes to the lane in which the vehicle MVa travels. To determine whether the vehicle will approach the safe distance or less. In the following description, the X axis, the Y axis, and the Z axis are taken as shown in FIG.
[0021]
FIG. 3A is a block diagram showing a schematic configuration of an embodiment of the approach prediction device according to the present invention. As shown in FIG. 3A, the approach prediction device is mounted on a vehicle MVa that travels in a traveling direction indicated by an arrow A on a road surface RD.
[0022]
Reference numerals 1 denote wheel speed sensors that are provided near the left and right rear wheel tires 2 and detect the rotational speeds of the left and right rear wheel tires 2. The wheel speed sensor 1 includes, for example, a conductor disc having grooves formed at a predetermined pitch in a peripheral portion thereof and rotating integrally with the tire 2, and a magnetic flux emitted toward the grooves to detect a change in the magnetic flux to thereby rotate the tire 2. Although a magnetic sensor that outputs a pulse train proportional to the number is provided, its configuration is well known, and a detailed description thereof will be omitted.
[0023]
Reference numeral 3 denotes a CCD camera which is arranged in front of the vehicle MVa and captures an image of the front field of view of the vehicle MVa. A detection signal from the CCD camera 3 is processed by a preprocessing unit 4 to detect white lines WLa to WLc. . The result is input to the control device 5. The preprocessing unit 4 can also recognize a road sign, recognize a pattern other than a white line drawn on a road surface, and detect a roadside reflector installed on a road.
[0024]
Reference numeral 6 denotes a radar device arranged in front of the vehicle MVa, which irradiates an electromagnetic wave beam BM in front of the vehicle MVa and receives a reflected wave from the preceding vehicle existing on the beam BM. In the illustrated example, the electromagnetic wave beam BM is narrowed relatively narrowly, and is configured to be scanned within an angle range equal to or larger than a normal lane width (for example, ± 45 ° to 60 °). The detection signal of the radar device 6 is input to the pre-processing unit 7, where the distance to the vehicle ahead is measured from the propagation time of the reflected electromagnetic wave received by the radar device 6, and the vehicle is detected from the arrival direction of the reflected electromagnetic wave. The direction of the preceding vehicle MVb with respect to MVa is detected. From these distance and direction data, the relative coordinate position of the preceding vehicle with respect to the own vehicle is calculated. The processing result of the preprocessing unit 7 is also input to the control device 5.
[0025]
The control device 5 is mainly composed of a microcomputer, and as its functions, as shown in FIG. 3B, includes a data extraction unit 51, a behavior prediction unit 52 of a preceding vehicle, and an approach degree determination unit 53. . The data extraction unit 51 extracts data such as the position of the vehicle MVa, the traveling direction, the position of the preceding vehicle, and the traveling direction, as described later. The forward vehicle behavior prediction unit 52 predicts the behavior of the forward vehicle based on the various data extracted by the data extraction unit 51. The proximity determining unit 53 predicts and determines the proximity between the preceding vehicle and the own vehicle based on the various data extracted by the data extracting unit 51 and the behavior of the preceding vehicle predicted by the behavior predicting unit 52 of the preceding vehicle. I do.
[0026]
The proximity determining unit 53 includes a rule memory 53a, an IF unit matching unit 53b, a rule selecting unit 53c, and a rule conflicting unit 53d. In the illustrated example, a technique used in so-called artificial intelligence is used for predicting the degree of approach to a vehicle ahead. In brief, a large number of rules are stored in the rule memory 53a in advance, and each rule is described by IF to THEN rules used in artificial intelligence. The IF unit matching unit 53b selects a rule corresponding to the output of the data extracting unit 51 from among a plurality of conditions stored in the rule memory 53a, according to the outputs of the data extracting unit 51 and the behavior predicting unit 52 of the preceding vehicle. Then, the IF section of the selected rule is collated. Next, the rule selection unit 53c selects a specific rule that satisfies the IF unit based on the comparison result of the IF unit comparison unit 53b. Finally, when a plurality of rules are selected by the rule selecting unit 53c, the rule conflicting unit 53d causes the rules to compete with each other. The result of the competition by the rule competitor 53d corresponds to the degree of approach to the preceding vehicle. The details of the operation of each unit constituting these proximity determining units 53 will be described later.
[0027]
FIG. 4 is a main flowchart for explaining the operation of the approach prediction device. In step S10, image data of the front field of view of the vehicle MVa captured by the CCD camera 3 and processed by the preprocessing unit 4 is read, and image processing is performed on the image data to detect a white line. In step S20, a detection signal from the wheel speed sensor 1 is fetched. In step S30, the position and direction of the preceding vehicle calculated in advance by the preprocessing unit 7 based on the signal from the radar device 6 are read. In step S40, using the various signals read in this way, data necessary for predicting the behavior of the preceding vehicle, which will be described later, that is, the absolute coordinate values of the own vehicle, the preceding vehicle, and the white line, the own vehicle and the preceding vehicle, Each speed vector, each traveling lane of the own vehicle and the preceding vehicle, and the unit direction vector of the white line near the preceding vehicle are extracted by calculation.
[0028]
In step S50, the behavior of the preceding vehicle is predicted by the front vehicle behavior prediction unit 52 based on the extracted data. In step S60, after the IF sections of the various rules are collated by the IF section collating section 53b of the proximity determining section 53, a rule is selected by the rule selecting section 53c based on the result of the collated IF sections. In step S70, the rule selected in step S60 is made to compete by the rule competing unit 53d of the proximity determining unit 53. In step S80, the degree of approach is output based on the competing rules.
[0029]
Next, details of each step in FIG. 4 will be described.
(1) Image processing routine
FIG. 5 shows details of the image processing routine executed in step S10 of FIG. In step S11, the image data captured by the CCD camera 3 and processed by the preprocessing unit 4 is read. In step S12, the viewpoint of the image data obtained by the preprocessing unit 4 is converted. In other words, as shown in FIG. 6A, the CCD camera 3 captures an image of the road surface RD obliquely from a predetermined height of the vehicle MVa while obliquely capturing the image. It is more convenient to obtain an image in which the road surface RD and the vehicles MVa and MVb are looked down from directly above. A conversion formula for converting an observation image obtained from the CCD camera 3 shown in FIG. 6A to an image looking down from directly above (hereinafter referred to as a viewpoint conversion image) as shown in FIG. It is given by the following equation.
(Equation 1)
Figure 0003557656
Here, I, J: coordinate values of an arbitrary point P on the observation image
i, j: coordinate values of point p on the viewpoint converted image corresponding to P (I, J)
A, B: Display size of viewpoint-converted image
p, q: pixel size of CCD camera
θv: Depression angle of CCD camera
f: Focal length of CCD camera
int (): Function indicating the integer part of the value in ()
Note that the viewpoint conversion based on the above equations (1) and (2) is based on the premise that all the objects imaged by the CCD camera 3 are planar objects existing on the road surface RD. Is converted in a distorted manner as indicated by MVb ′ in FIG.
[0030]
In step S13, a white line extraction operation for extracting white lines included in the image data subjected to the viewpoint conversion is performed.
[0031]
The details of the white line extraction operation are shown in the flowchart of FIG. In step S131, a region serving as a white line candidate is detected from the image data subjected to viewpoint conversion by the white line detection filter.
[0032]
The white line detection filter used in the present embodiment is, for example, as shown in FIG. 8, and has a “1” portion that extends right and left by a width w with respect to a target point p having a coordinate value (x, y). And "-1" portions on the left and right sides. The width w may be given in advance according to the width of the white line WL to be extracted. When the width of the white line to be extracted is W, W <w. The output F (x, y) of the white line extraction filter for the target point p (x, y) is given by the following equation.
(Equation 2)
Figure 0003557656
[0033]
If the width w is appropriately determined, the value of the output F (x, y) becomes higher when the target point p (x, y) is located on the white line WL, so that the output F calculated at each point of the entire image is obtained. By performing threshold processing on (x, y), a white line candidate area can be extracted. At this time, in order to set an appropriate threshold value for each target point p (x, y), a threshold value t is determined for each horizontal line (X-axis direction) as shown in the following equation.
(Equation 3)
Figure 0003557656
Where 0 <k <1: constant
M: number of pixels in the horizontal direction of the image
[0034]
Assuming that image data representing a white line candidate region generated using the threshold value t is L (x, y), L (x, y) is given by the following equation.
(Equation 4)
Figure 0003557656
An area where L (x, y) takes a value of 1 is a white line candidate area.
[0035]
In the white line candidate region extraction operation executed in step S131, the white line WL itself actually drawn on the road surface RD is extracted, and as shown in FIG. 3A and FIG. WL is periodically interrupted. Therefore, as shown in FIG. 9A, the white line candidate area extracted in step S131 is also (ideally) periodically interrupted. However, unlike the actual white line WL, the concept of the white line is a series of curves that are not interrupted on the way, and if the interrupted white line is left as it is, there may be a problem in calculating the direction vector of the white line described later. Is used to connect the white line candidate areas.
[0036]
The procedure of step S132 will be described in detail with reference to FIG. The white line candidate area extracted in step S131 is thinned as shown in FIG. 9B, and the center line of the white line candidate area is extracted. Next, as shown in FIG. 9C, after detecting the end point of the center line, the end points at a predetermined interval or less are connected as shown in FIG. 9D. Furthermore, if the logical sum of the connected end points as shown in FIG. 11E and the white line region candidates extracted in step S131 is obtained, the white line candidate region is extracted as shown in FIG. The connection work is completed. In each operation of step S132, image processing such as thinning, end point detection, and logical sum may be performed by a known method.
[0037]
In step S133, a white line template is created as follows based on the white line candidate regions connected in step S132. A labeling process is performed on the connected white line candidate regions, and a quadratic curve is matched to a region having a maximum area in each of the labeled regions to obtain a template. For example, assuming that the white line candidate regions extracted in step S131 are as shown in FIG. 10A, the white line substantially at the center in the connected state is the longest among the three white line candidate regions. Is a region having the largest area, a quadratic curve is matched to the white line candidate region substantially at the center, and a template T (x, y) as shown in FIG.
[0038]
In step S134, the white line candidate area extracted in step S131 is searched for a matching area using the template T (x, y) created in step S133. As a result, for the white line candidate region as shown in FIG. 10A, three white line regions WLRa to WLRc as shown in FIG. 10C are detected.
[0039]
(2) Data extraction
FIG. 11 is a flowchart showing a data extraction routine executed in step S40 of the main flowchart shown in FIG. In step S41, based on the signal from the wheel speed sensor 1 input in step S20 of FIG. 4, the coordinates of the position of the vehicle MVa are fixed to the coordinates with the position of the vehicle MVa at a predetermined time as the origin, that is, the road surface RD. On the absolute coordinate system. As shown in FIG. 2, the absolute coordinate value of the vehicle MVa is represented by A (xa, Ya, 0).
[0040]
The running distance of the vehicle MVa is calculated by taking in a pulse train corresponding to the vehicle speed from the wheel speed sensor 1. On the other hand, the moving direction of the vehicle MVa is determined from the difference between the wheel speeds detected by the wheel speed sensors 1 for the left and right rear wheels. Therefore, by sequentially adding the moving distance and the moving direction of the vehicle MVa, the absolute coordinate value of the vehicle MVa can be obtained.
[0041]
Next, in step S42, the absolute coordinate value of the vehicle MVa obtained in step S41 is added as an offset to the data of the white line regions WLRa to WLRc obtained in step S134 in FIG. 7, thereby obtaining the white line regions WLRa to WLRc. Is converted to data on the absolute coordinate system. Similarly, the absolute coordinate value of the host vehicle MVa is added as an offset to the relative coordinate value of the preceding vehicle read in step S30, and the position of the preceding vehicle is converted into absolute coordinate values. In the example shown in FIG. 2, the absolute coordinate value of the preceding vehicle MVb is represented by B (xb, Yb, 0).
[0042]
In step S43, a difference between the absolute coordinate values of the vehicle MVa and the front vehicle MVb is determined from the absolute coordinate values of the vehicle MVa and the front vehicle MVb measured last time and the absolute coordinate values of the vehicle MVa and the front vehicle MVb measured this time. Thus, each speed vector is calculated. As shown in FIG. 2, the velocity vectors of the vehicle MVa and the forward vehicle MVb are represented by Va (vax, Vay, 0), Vb (vbx, Vby, 0).
[0043]
In step S44, it is recognized that a plurality of lanes are divided by the white line regions WLRa to WLRc converted into the position data of the absolute coordinate system in step S42, and the vehicle MVa and the front vehicle MVb respectively travel in any of the lanes. Is determined. In the present embodiment, as shown in FIG.0And the preceding vehicle MVb is in the lane R0Turn right into the adjacent lane to the right+1It is determined that the vehicle is traveling. In this specification, the lane immediately adjacent to and immediately to the left of the lane of the host vehicle is R-1R on the right lane+2, ....
[0044]
In step S45, the unit direction vector of the white line region WLRb near the front vehicle MVb is detected. The details of the white line unit direction vector detection method are shown in the flowchart of FIG.
[0045]
In step S451 of FIG. 12, as shown in FIG.+1Of the white line area that defines0Is detected on the white line region WLRb on the side closer to the point C where the distance from the position B of the preceding vehicle MVb is minimized. In step S452, on the white line region WLRb, on both sides of the point C, a point C separated by a predetermined distance from the point C is set.1, C2Set. Then, in step S453, these points C1, C2Are set as the unit direction vector of the white line. As shown in FIG. 2, the unit direction vector of the white line WLb is represented by Db.
[0046]
(3) Behavior prediction of the vehicle ahead
The details of the behavior prediction of the preceding vehicle in step S50 in FIG. 4 are as follows. In the present embodiment, it is predicted whether or not the preceding vehicle MVb will change lanes to the traveling lane of the vehicle MVa. This prediction formula is given by the following formula.
(Equation 5)
Figure 0003557656
Where ×: symbol representing the cross product of vectors
∩: Operator indicating AND condition
k1: Constant (0 <k1<1 and k1Is a value close to 0)
k2: Constant (0 <k2And k2Is a value close to 0)
⊃: Symbol indicating that the right side is true if the left side is true
RC (+1,0): the preceding vehicle is in lane R+1To R0The fact that the lane changes to
()z: Z component of the vector in ()
A∈R0  : Coordinate A is lane R0The fact that
B∈R+1: Coordinate B is lane R+1The fact that
[0047]
(Db × Vb)z/ | Vb | is the value of sin θ when the angle between the unit direction vector Db of the white line and the velocity vector Vb of the preceding vehicle MVb is θ, and if this value is positive, the preceding vehicle MVb approaches the white line I am doing it. Also, | (Db × Vb)z| Is a speed component perpendicular to the white line (the unit direction vector Db) of the speed vector Vb of the preceding vehicle MVb. k1Is (Db × Vb)z/ | Vb | is a constant for determining the sign, but is set to a constant close to 0 in consideration of a measurement error. Also, k2Is | (Db × Vb)z|, And the vehicle ahead is in lane R+1The value is set so that it is not determined that there is a possibility of a lane change even when the vehicle runs slightly meandering inside.
[0048]
Therefore, when the vehicle MVa has the lane R0When the vehicle MVb is running on the lane R+1(Db × Vb)z/ | Vb | takes a positive value (> k1) And | (Db × Vb)zIs larger than a predetermined threshold (> k2), The preceding vehicle MVb is in the lane R+1From the lane R where the vehicle MVa is traveling0And the fact that RC (+1,0) is true.
[0049]
(4) IF section matching of rules
The IF part matching of the rule in step S60 in FIG. 4 is performed as follows. Based on the various data calculated by the data extracting unit 51 and the behavior predicting unit 53 of the preceding vehicle, the IF unit matching unit 53b stores a rule including the data as a parameter of the IF unit in the rule memory 53a of the proximity determining unit 53. Of the selected rules, various data are input for the selected rules, and the IF parts are collated, that is, it is determined whether or not the IF part of each rule is determined to be true.
[0050]
FIG. 14 shows various rules stored in the rule memory 53a. In the present embodiment, the relevant rule is the rule of rule number 2, RC (+1,0) is a variable indicating the behavior of the preceding vehicle calculated in step S50, and Va and Vb are all the values in step S40 ( The velocity vector f (Va, Vb) of the vehicle MVa and the preceding vehicle MVb calculated in step S43) of FIG. 11 is a function indicating a safe inter-vehicle distance, and is defined by the following equation.
(Equation 6)
Figure 0003557656
Where T: idle time
In order for the IF part of the rule of rule number 2 to be determined to be true, it is necessary to input RC (+1,0), velocity vectors Va and Vb, and coordinate values A and B.
[0051]
In the example shown in FIG. 2, the front vehicle MVb is in the lane R of the vehicle MVa.0The speed vector Vb of the preceding vehicle MVb is changed to the lane R0Therefore, the left side of Expression (6) is determined to be true. Further, the distance y between the front vehicle MVb and the vehicle MVa along the Y-axis directionb-YaHas a positive value smaller than the safe inter-vehicle distance f (Va, Vb), the lane change results in the preceding vehicle MVb being in the lane R0When entering the vehicle, there is a possibility that the inter-vehicle distance is small and the vehicle may approach sufficiently. Therefore, the IF section of rule number 2 is determined to be true, the rule is established, and the proximity = 1 is output. here,
Degree of proximity = 0 …… No effect
Closeness = 1… pay attention to the vehicle ahead
Degree of approach = 2 ... There is a risk of contact with the vehicle ahead
And Note that the distance y is obtained by multiplying the term of −f (Va, Vb) by a constant smaller than 1.b-YaBy determining the magnitude relation between the two, it is possible to determine that the degree of approach is 2.
[0052]
On the other hand, in the case shown in FIG. 15 in which the own vehicle enters a curved road from a straight road, the preceding vehicle MVb has already traveled on a curved road, and the conventional approach prediction device sets the preceding vehicle MVb immediately before the vehicle MVa. Since the detection is performed, there is a possibility that an alarm indicating the approach may be output although the possibility that the preceding vehicle MVb changes lanes is actually low. In this case, according to the present embodiment, since the speed vector Vb of the forward vehicle MVb and the unit direction vector Db of the white line WLb are parallel,
(Equation 7)
Figure 0003557656
And the left side of equation (6) is not determined to be true, and RC (+1,0) becomes false. As a result, the IF portion of the rule of the rule number 2 is not determined to be true, and the rule of the rule number 2 is not established and the output of the proximity is not performed.
[0053]
(5) Rule conflict
The rule conflict in step S70 in FIG. 4 will be described. As shown in the present embodiment and an embodiment described later, there are many situations where the approach should be predicted while the vehicle MVa is traveling, and it is necessary to make an accurate determination in various situations. A plurality of rules are stored in the rule memory 53a of the unit 53 (see FIG. 14). Therefore, since there are cases where a plurality of IF sections are established for one situation, a plurality of rules which are established by the IF sections are made to compete with each other to output an appropriate approach.
[0054]
The competitive method may be, for example, a method as performed in the field of artificial intelligence.
I. The sum of the approaches output from each of the rules that the IF section holds
B. Prioritize rules and output the proximity of rules with higher priority
C. A combination of these two
Such a method is mentioned. As for (a), a weighted average of the degrees of proximity may be taken. It is to be noted that rule conflicts will be described later in detail.
[0055]
(6) Proximity output
In step S80 of FIG. 4, the proximity is output as follows. When not all the IF sections of the rules stored in the rule memory 53a are established, a default value of 0 is output as the degree of approach. The outputted degree of approach is reported to the driver by a warning device such as a lamp or a buzzer provided on the vehicle MVa, or displayed using characters on a display provided on the vehicle MVa. An example in which the traveling of the vehicle MVa is controlled based on the output proximity will be described later.
[0056]
Therefore, according to the present embodiment, in addition to the information such as the position and the speed of the front vehicle MVb existing in front of the vehicle MVa, the traveling guidance information of the shape of the white line (unit direction vector) in the front view of the vehicle MVa is also considered. Therefore, the approaching degree of the preceding vehicle can be accurately determined and predicted according to the road condition. For example, in FIGS. 2 and 15, the position B of the forward vehicle MVb and the direction of the velocity vector Vb are almost the same, and in the conventional approach prediction device, an alarm is output in any case as a possibility of approach. In this embodiment, the approach level (= 1) indicating that there is a possibility of approaching is output only for an object that may actually change lanes as shown in FIG. 2, and the forward vehicle MVb is simply curved as shown in FIG. If the vehicle is only traveling on the road and there is little possibility of lane change, an approach (= 0) indicating that the possibility of approach is low is output, and an accurate approach determination is performed according to the road condition.
[0057]
-Modification of the first embodiment-
In the first embodiment described above, the unit direction vector of the white line is used as the travel guidance information. However, the present invention is not limited to this, and travel guidance information that can accurately grasp road conditions can be used. FIG. 16 is a flowchart showing a modification of the first embodiment, and is for explaining details of step S40 in FIG. Except for step S40 and step S50, which will be described later, the contents of the other steps in FIG. 4 are the same as those in the above-described first embodiment, and a description thereof will be omitted.
[0058]
After performing the same processes as steps S41 to S44 in FIG. 11, in step S45A, as shown in FIG. 2, the position B of the forward vehicle MVb and the lane R in which the vehicle MVa is traveling0And the lane R where the preceding vehicle MVb is traveling+1Then, a distance C (t) (t: time) between the white line WLb and the white line WLb is calculated. The distance C (t) is stored in the data extraction unit 51 together with the elapsed time t from the above-described predetermined position.
[0059]
In step S50 of FIG. 4, the behavior of the preceding vehicle, that is, whether or not the preceding vehicle MVb changes lanes to the traveling lane of the vehicle MVa is predicted by the following equation.
(Equation 8)
Figure 0003557656
Where k8: Constant (0> k8)
[0060]
(DC (t) / dt) is the speed of the preceding vehicle MVb in a direction orthogonal to the white line WLb, and k8Corresponds to the threshold value of the speed, and the preceding vehicle MVb has the lane R+1The value is set so that it is not determined that there is a risk of a lane change even when the vehicle runs slightly meandering inside. Therefore, (dC (t) / dt) is smaller than a predetermined threshold (<k8), The preceding vehicle MVb is in the lane R+1From the lane R where the vehicle MVa is traveling0And the fact that RC (+1,0) is true.
[0061]
Thereafter, the degree of approach is calculated in steps S60 to S80 based on the fact RC (+1, 0) predicted in step S50, the velocity vectors Va and Vb and the coordinate values A and B calculated in steps S41 to S44. Is output. Therefore, according to this modification, the same operation and effect as those of the first embodiment can be obtained.
[0062]
-2nd Example-
In the above-described first embodiment and its modification, the unit direction vector of the white line is used as the traveling guidance information. However, as in the second embodiment, the result of pattern recognition of the shape of the pattern other than the white line drawn on the lane is performed. Can be used as travel guidance information.
[0063]
For example, as shown in FIG. 17, when a forward vehicle MVb exists in front of vehicle MVa, the type of lane on which forward vehicle MVb is traveling, for example, lane R0, R+1Or the lane R-1Is recognized based on the shape of the pattern drawn on the lane, and the recognized lane shape is determined by the position A of the vehicle MVa, the speed vector Va, the position B of the preceding vehicle MVb, and the speed vector Vb. Together with the vehicle MVa to determine whether or not the preceding vehicle MVb changes lanes to the lane in which the vehicle MVa travels, and whether or not the vehicle MVa approaches the safe inter-vehicle distance or less after the lane change. . As shown in FIG. 17, the merging lane merges with the right lane on the way, and the left road-side separation zone merges with the white lane on the right. Is drawn, so that the roadside divider crosses the lane, and if the pattern MP is recognized, the lane R-1Is a merging lane.
[0064]
The second embodiment is different from the first embodiment in that the data extraction executed in step S40 of FIG. 4, the behavior prediction of the forward vehicle in step S50, the IF section collation of the rule in step S60, and the rule in step S70 This is a specific procedure of the competition and the degree of proximity in step S80, and the other steps are the same including the configuration in FIG. Therefore, the following description focuses on differences from the first embodiment, and a description of common parts is omitted.
[0065]
FIG. 18 shows a data extraction subroutine in the second embodiment, which corresponds to FIG. 11 in the first embodiment. After performing the same processing as in steps S41 to S44 of FIG. 11, in step S45B, the lane R in which the preceding vehicle MVb is traveling-1Is determined to be a merging lane. Details of the merging lane determination method are shown in the flowchart of FIG.
[0066]
In step S4501 of FIG. 19, of the lanes separated by the white line detected in step S13 of FIG. 5, the lane adjacent to the lane in which the vehicle MVa is traveling (the lane in which the preceding vehicle MVb is traveling) R-1Is included), and an edge (referred to as a horizontal edge) extending in a direction crossing the white line among the detected edges is extracted.
[0067]
FIG. 20 is a diagram showing an example of a horizontal edge detection process. When an observation image as shown in FIG. 20A is obtained, the result of performing a viewpoint conversion operation on this observation image is shown in FIG. The result of performing the white line detection operation on the viewpoint converted image is as shown in FIG. The lane in which the vehicle MVa is traveling is the central lane R0And the preceding vehicle MVb is in the lane R on the left.-1You are traveling. Therefore, the lane R0Lane R adjacent to+1, R-1When a horizontal edge is extracted from the viewpoint conversion image corresponding to the inside, a plurality of horizontal edges (representative horizontal edge b in the figure) are obtained as shown in FIG.1, B2, B3Are assigned only with reference numerals). In addition, a technique of edge detection is well known, and for example, a technique of multiplying an edge detection filter such as a differential filter with a viewpoint-converted image is exemplified.
[0068]
In step S4502, labeling processing is performed on each of the horizontal edges extracted in step S4501, and the horizontal length of each of the labeled horizontal edges is measured. In step S4503, the horizontal length of the horizontal edge is set to the adjacent lane R+1, R-1It is determined whether the width is substantially equal to the width of the lane R. If the determination is affirmative, the process proceeds to step S4504, where the lane R having a lateral edge equal to the width of the adjacent lane exists.-1Is determined to be a merging lane. This fact,
(Equation 9)
R-1= RJ. . . (11)
It expresses. On the other hand, if the determination is negative, the process proceeds to step S4505, where it is determined that the adjacent lane is not a merged lane.
[0069]
As shown in FIG. 17, the adjacent lane R which is the merging lane-120D and the roadside separation zone at the end of the merging lane respectively indicate the horizontal edge b in FIG.1, B2And b3Is extracted as Side edge b1, B2Is the adjacent lane R-1Near the lane width and the side edge b3Is the adjacent lane R-1Equals the lane width of Therefore, the horizontal length of the horizontal edge extracted in step S4501 is equal to the adjacent lane R-1If the lane width is approximately equal to the lane width (pre-input), the adjacent lane R-1Can be determined to be a merging lane.
[0070]
In step S50 of FIG. 4, the behavior of the preceding vehicle, that is, whether or not the preceding vehicle MVb changes lanes to the traveling lane of the vehicle MVa is predicted by the following equation.
(Equation 10)
Figure 0003557656
Where RC4(-1, 0): the preceding vehicle is in lane R-1To R0The fact that the lane changes to
B∈R-1: Coordinate B is lane R-1The fact that
[0071]
Therefore, when the vehicle MVa has the lane R0When the vehicle MVb is running on the lane R-1In the state where the vehicle is traveling in the lane R-1Is determined to be a merging lane, the preceding vehicle MVb enters the lane R-1From the lane R where the vehicle MVa is traveling0And the fact that RC (-1,0) is true.
[0072]
In step S60 of FIG. 4, various data are input for the rule selected from the various rules in the rule memory 53a of the degree-of-approach determination unit 53, and the IF unit is collated. The related rule in the present embodiment is the rule of rule number 4 shown in FIG.
[0073]
In the example shown in FIG. 17, the preceding vehicle MVb has a merging lane R-1And the preceding vehicle MVb joins the merging lane R-1Of the vehicle MVa before reaching the end of0Since the lane change can be predicted, the left side of Expression (12) is determined to be true. Further, the distance y between the front vehicle MVb and the vehicle MVa along the Y-axis directionb-YaHas a positive value smaller than the safe inter-vehicle distance f (Va, Vb), the lane change results in the preceding vehicle MVb being in the lane R0When the vehicle enters, there is a possibility that the inter-vehicle distance is small and the vehicle approaches sufficiently. Therefore, the IF section of the rule number 4 is determined to be true, the rule is established, and the degree of approach = 2 is output.
[0074]
In step S70, the conflict of the rule whose IF part has been collated in step S60 is performed. For example, as shown in FIG.0Merging lane R to the left of-1And the driving lane R on the right+1First, consider the case where the preceding vehicles MVb and MVc are traveling. In the example shown in FIG. 21, it is the rule of rule numbers 2 and 4 shown in FIG. 14 that the IF part is determined to be true in step S60. Therefore, the rule of the rule number 2 outputs the proximity = 1, and the rule of the rule number 4 outputs the proximity = 2.
[0075]
According to the above-mentioned method (a), the sum of the degrees of proximity = 1 + 2 = 3. In this case, the evaluation of the degree of approach is three or more. Further, according to the above-described method (b), when the front vehicle MVb is compared with the front vehicle MVc, the front vehicle MVb always has the lane R0It can be said that the rule of rule number 4 has a higher priority for changing lanes. Therefore, for example, if the priority order is set to 10 steps in total, the rule order of the rule of rule number 2 is 5 and the rule order of the rule of rule number 4 is 7, the priority order of the rule of rule number 4 is higher. , Proximity = 2.
[0076]
Therefore, according to the present embodiment, in addition to information such as the position and speed of the vehicle in front of the vehicle MVb present in front of the vehicle MVa, a pattern such as a pattern indicating whether or not the vehicle is in a merging lane in front of the vehicle MVa can be used. Since the degree of approach is calculated in consideration of the travel guide information, the degree of approach of the preceding vehicle can be accurately determined and predicted according to the road condition.
[0077]
-Modification of the second embodiment-
In the above-described second embodiment, the merging lane is determined by performing pattern recognition on the screen obtained by imaging the front field of view of the vehicle MVa. However, the present invention is not limited to this, and the adjacent lane is the merging lane by various methods. Can be determined. This will be described with reference to FIG. 22, which is another example of the merging lane determination routine.
[0078]
In this example, it is assumed that sign posts (not shown) are provided at predetermined intervals on the road, and that a road information signal indicating a road condition is transmitted from the sign posts. Therefore, as shown in FIG. 22 (b), the vehicle MVa has the configuration shown in FIG. 3 except that it has an antenna 21 for receiving the electromagnetic wave and a receiver 22 for receiving the electromagnetic wave via the antenna 21. is there.
[0079]
In step S4511 of FIG. 22A, the road information signal from the sign post is received by the antenna attached to the vehicle MVa, and the received signal is taken into the control device 5. In step S4512, it is determined whether or not the received road information signal includes a signal indicating a merging lane.
[0080]
FIG. 23A is a flowchart illustrating still another example of the merging lane determination routine. In this example, the vehicle MVa is equipped with a GPS (Global Positioning System) navigation device. The navigation device includes an antenna 31 for receiving a GPS signal from a satellite, as shown in FIG. , A receiver 32 for receiving a GPS signal via an antenna 31, a storage device 33 for storing road map data whose position is specified by latitude and longitude, a display device 34, and a GPS signal received by the receiver 32. The position of the vehicle on the road map is specified based on the road map data stored in the storage device 33, the road information representing the condition of the road is extracted, and the map and the vehicle position are displayed on the display device 34. And a control circuit 35 for performing the operation.
[0081]
In step S4521 of FIG. 23A, the navigation device recognizes the current position of the vehicle MVa based on a GPS signal from a satellite, and the current vehicle MVa runs based on the position and road map data provided in the navigation device. The location on the map where you are. Then, the road information given to the running road is extracted and sent to the control device 5. In step S4522, the control device 5 determines whether or not the road information includes information of a merging road.
[0082]
Therefore, according to these modifications, the same operation and effect as those of the second embodiment can be obtained.
[0083]
-Third embodiment-
The third embodiment is another example in which a pattern drawn on a lane in which a preceding vehicle exists is used as travel guidance information. As shown in FIG.0Lane R which is a road shoulder ahead of the vehicle MVa-1It is assumed that there is a preceding vehicle MVb traveling on the vehicle. Therefore, what kind of lane the preceding vehicle MVb is traveling on, for example, lane R0, R+1Or the lane R-1Is recognized by the shape of the pattern drawn on the road surface. Then, using the position A and the speed vector Va of the vehicle MVa and the position B and the speed vector Vb of the front vehicle MVb, whether or not the front vehicle MVb changes lanes to the lane in which the vehicle MVa travels, and After the change, it is determined whether or not the vehicle MVa approaches the safe inter-vehicle distance or less.
[0084]
The third embodiment is different from the first embodiment in that data is extracted in step S40 in FIG. 4, the behavior of the vehicle ahead is predicted in step S50, the IF section is compared with the rules in step S60, and the rules in step S70 are compared. The specific procedure of the competition and the degree of proximity in step S80 is the same, including the configuration of FIG. Therefore, the following description focuses on differences from the first embodiment, and a description of common parts is omitted.
[0085]
FIG. 25 shows a data extraction subroutine in the third embodiment, and corresponds to FIG. 11 for explaining the details of step S40 in FIG. After the same processing as in steps S41 to S44 in FIG. 11 is performed, in step S45C, the lane R in which the preceding vehicle MVb is traveling-1Is determined to be a road shoulder. Details of the road shoulder determination method are shown in the flowchart of FIG.
[0086]
In step S4531, the roadside reflector RF (see FIG. 24) is detected from the viewpoint-converted image, and the distance between the roadside reflector RF and the white line WLa to the right of the roadside reflector RF is detected. In step S4532, the distance between the roadside reflector detected in step S4531 and the white line is determined by the width of the normal traveling lane (for example, lane R).0And R+1It is determined whether the width is sufficiently smaller than (the known value is input in advance). If the determination is affirmative, the process proceeds to step S4533, where the lane R having the lane width sufficiently smaller than the traveling lane width is determined.-1Is determined to be a road shoulder. This fact,
(Equation 11)
R-1= RC. . . (13)
It expresses. If the determination is negative, the process advances to step S4534 to determine that the adjacent lane is not on the road shoulder.
[0087]
In step S50 of FIG. 4, the behavior of the preceding vehicle, that is, whether or not the preceding vehicle MVb changes lanes to the traveling lane of the vehicle MVa is predicted by the following equation.
(Equation 12)
Figure 0003557656
Where k3: Constant (k3> 0 and a value close to 0)
k3Is a value for sign determination, and is set to a positive constant close to 0 in consideration of a measurement error and the like.
[0088]
Therefore, when the vehicle MVa has the lane R0When the vehicle MVb is running on the lane R-1In the state where the vehicle is traveling in the lane R-1Is determined to be the shoulder of the road, the preceding vehicle MVb has the lane R-1From the lane R where the vehicle MVa is traveling0And the fact that RC (-1,0) is true.
[0089]
In step S60 of FIG. 4, various data are input for the rule selected from the various rules in the rule memory 53a of the degree-of-approach determination unit 53, and the IF unit is collated. The related rule in the present embodiment is the rule of rule number 6 shown in FIG.
[0090]
In the example shown in FIG. 24, the front vehicle MVb is-1If it is moving up (| Vb |> k3: If the vehicle is stopped, it is a broken vehicle and the possibility of lane change is low.) Then, the traveling lane R of the vehicle MVa0Since it can be predicted that there is a high possibility of changing lanes, the left side of Expression (14) is determined to be true. Further, the distance y between the front vehicle MVb and the vehicle MVa along the Y-axis directionb-YaHas a positive value smaller than the safe inter-vehicle distance f (Va, Vb), the lane change results in the preceding vehicle MVb being in the lane R0When entering the vehicle, there is a possibility that the inter-vehicle distance is small and the vehicle may approach sufficiently. Therefore, the IF section of the rule number 6 is determined to be true, the rule is established, and the proximity = 1 is output.
[0091]
Therefore, according to this embodiment, the same operation and effect as those of the above-described embodiment can be obtained.
[0092]
-Fourth embodiment-
In the fourth embodiment, a vehicle receives road information indicating road conditions transmitted from sign posts installed at predetermined intervals on the road side of a road, and predicts the behavior of a preceding vehicle using the received road information. Is what you do.
[0093]
For example, as shown in FIG. 27, when a forward vehicle MVb exists in front of vehicle MVa, the type of lane in which forward vehicle MVb is traveling, for example, lane R0, R+1Or the lane R-1Is recognized based on the road information from the sign post, and the recognized road information is used together with the position A and the speed vector Va of the vehicle MVa and the position B and the speed vector Vb of the preceding vehicle MVb. Then, it is determined whether or not the preceding vehicle MVb changes lanes to the lane in which the vehicle MVa runs, and whether or not the vehicle MVa approaches the safe inter-vehicle distance after the lane change.
[0094]
The fourth embodiment is different from the first embodiment in that, in addition to the configuration shown in FIG. 2, an antenna for receiving an electromagnetic wave from a sign post and a receiver (see FIG. 22B) are omitted. 4), data extraction performed in step S40 of FIG. 4, prediction of the behavior of the vehicle ahead in step S50, comparison of the IF section of the rule in step S60, competition of the rules in step S70, and approach in step S80. The specific steps are the same, and the others are the same. Therefore, the following description focuses on differences from the first embodiment, and a description of common parts is omitted.
[0095]
FIG. 28 shows a data processing routine according to the fourth embodiment, which corresponds to the flowchart in FIG. 11 of the first embodiment. After performing the same processing as in steps S41 to S44 of FIG. 11, in step S45D, the lane R in which the preceding vehicle MVb is traveling-1Is a departure road. Details of the departure lane determination method are shown in the flowchart of FIG.
[0096]
In step S4541 of FIG. 29, the road information signal from the sign post is received by the antenna attached to the vehicle MVa, and the received signal is taken into the control device 5 via the receiver. In step S4542, based on the received road information signal, the adjacent lane R-1Is determined to be a departure road. Adjacent lane R-1Is the escape road,
(Equation 13)
R-1= RX. . . (15)
It expresses.
[0097]
In step S50 of FIG. 4, the behavior of the preceding vehicle, that is, whether or not the preceding vehicle MVb changes lanes to the traveling lane of the vehicle MVa is predicted by the following equation.
[Equation 14]
Figure 0003557656
Where k6: Constant (0> k6> -1 and k6Is a value close to 0)
k7: Constant (k7> 0 and k7Is a value close to 0)
The expression (16) is similar to the above expression (6), except that, as shown in FIG.-1, The only difference is that the sign determination is reversed.
[0098]
Therefore, when the vehicle MVa has the lane R0When the vehicle MVb is running on the lane R-1(Db × Vb)z/ | Vb | takes a negative value (<k6) And | (Db × Vb)zIs larger than a predetermined threshold (> k7), The preceding vehicle MVb is in the lane R-1From the lane R where the vehicle MVa is traveling0It is predicted that the vehicle is about to change lanes, and the fact RC (-1,0) becomes true.
[0099]
In step S60 of FIG. 4, various data are input for the rule selected from the various rules in the rule memory 53a of the degree-of-approach determination unit 53, and the IF unit is collated. The related rule in the present embodiment is the rule of rule number 8 shown in FIG.
[0100]
In the example shown in FIG. 27, the preceding vehicle MVb is in the traveling lane R of the vehicle MVa.0The speed vector Vb of the preceding vehicle MVb is changed to the lane R0Therefore, the left side of Expression (16) is determined to be true. Further, since the lane in which the preceding vehicle MVb is traveling is a departure road, R-1= RX is established, and as a result, the vehicle in front of the vehicle0It is predicted that the lane will change to the lane, the IF section of rule number 8 is determined to be true, the rule is established, and the proximity = 2 is output.
[0101]
Therefore, according to this embodiment, the same operation and effect as those of the above-described embodiment can be obtained.
[0102]
Alternatively, in the above-described fourth embodiment, when the vehicle MVa is equipped with a navigation device (see FIG. 23B), the road information from the navigation device is used as in the modification of the second embodiment. Is also good. This will be described with reference to FIG.
[0103]
FIG. 30 is a flowchart illustrating another example of the leaving road determination routine. First, in step S4521, in the same manner as described above, the position of the vehicle on the map is recognized based on the GPS signal, and the road information given to the road is extracted and transmitted to the control device 5. In step S4522A, it is determined based on the received road information whether the adjacent lane is a departure road.
[0104]
-Fifth embodiment-
In the fifth embodiment, when there are two front vehicles that are front vehicles running ahead of the vehicle, the behavior is predicted from the mutual position and speed of these front vehicles. For example, as shown in FIG. 31, when two front vehicles MVb and MVc are present in front of vehicle MVa, the following front vehicle MVb behind the preceding front vehicle MVc changes lane to the traveling lane of vehicle MVa. Whether the vehicle MVc is going to overtake the preceding vehicle MVc, and whether the vehicle approaches the vehicle MVa after the lane change or less than a safe inter-vehicle distance. Positions B and C (xc, Yc, 0), and velocity vectors Vb, Vc.
[0105]
The fifth embodiment is different from the first embodiment in that the data extraction executed in step S40 in FIG. 4, the behavior prediction of the forward vehicle in step S50, the IF section collation of the rule in step S60, and the rule in step S70 The specific procedure of the competition and the degree of proximity in step S80 is the same, including the configuration of FIG. Therefore, the following description focuses on differences from the first embodiment, and a description of common parts is omitted.
[0106]
In step S40 of FIG. 4, necessary data relating to two front vehicles is extracted in the same manner as in the first embodiment in which there is only one front vehicle. In step S50 of FIG. 4, the behavior of the preceding vehicle, that is, whether or not the preceding vehicle MVb changes lanes to the traveling lane of the vehicle MVa is predicted by the following equation.
(Equation 15)
Figure 0003557656
Where k4: Constant (k4> 0)
k5: Constant (k5<0)
ya<Yb<YcThe condition indicates that the front vehicle MVc, the front vehicle MVb, and the vehicle MVa are arranged in this order from the front, and corresponds to the arrangement state shown in FIG. Also, yc-YbIs the distance between the front vehicle MVc and the front vehicle MVb along the Y-axis direction, and | Vc |-| Vb | is the speed difference between the front vehicle MVc and the front vehicle MVb.
[0107]
Therefore, when the vehicle MVa has the lane R0The vehicle MVb and the preceding vehicle MVc are both in the lane R+1, The distance y between the preceding vehicles MVb and MVcc-YbIs a predetermined inter-vehicle distance k4And the speed difference | Vc | − | Vb | between the preceding vehicles MVb and MVc is a predetermined speed difference k.5As described above, the preceding vehicle MVb gradually approaches and approaches the preceding vehicle MVc, and the lane R is used to overtake the preceding vehicle MVc.0Expected to change lanes, in fact RC7(+1,0) becomes true.
[0108]
In step S60 of FIG. 4, various data are input for the rule selected from the various rules in the rule memory 53a of the degree-of-approach determination unit 53, and the IF unit is collated. The related rule in the present embodiment is the rule of the rule number 7 shown in FIG.
[0109]
In the example shown in FIG. 31, the vehicle MVa has a lane R0And the front vehicles MVb and MVc are both in the lane R+1, The distance y between the preceding vehicles MVb and MVcc-YbIs a predetermined inter-vehicle distance k4And the speed difference | Vc | − | Vb | between the preceding vehicles MVb and MVc is a predetermined speed difference k.5If so, the left side of equation (17) is determined to be true. Further, the distance y between the front vehicle MVb and the vehicle MVa along the Y-axis directionb-YaHas a positive value smaller than the safe inter-vehicle distance f (Va, Vb), the lane change results in the preceding vehicle MVb being in the lane R0When the vehicle enters, there is a possibility that the inter-vehicle distance is small and the vehicle may approach sufficiently. Therefore, the IF portion of the rule number 7 is determined to be true, the rule is established, and the degree of approach = 2 is output.
[0110]
Therefore, according to this embodiment, the same operation and effect as those of the above-described embodiments can be obtained.
[0111]
-Sixth embodiment-
In the above-described first to fifth embodiments, the approach to the vehicle is detected. However, the approach is not limited to this. For example, the approach to a pedestrian crossing a crosswalk may be detected. The sixth embodiment is an example in which the presence or absence of a pedestrian crossing is determined by pattern recognition of the shape of a pattern drawn on a road surface. For example, as shown in FIG. 32, when the pedestrian WP stands on the road side of the pedestrian crossing CR in the field of view of the vehicle MVa, it is recognized by the pattern shape whether or not the crosswalk CR exists in the field of view of the vehicle MVa. Then, using the recognition result together with the position B of the pedestrian WP, the position A of the vehicle MVa, and the velocity vector Va, the pedestrian WP crosses the pedestrian crossing CR, and the pedestrian WP crosses the pedestrian crossing CR. Then, it is determined whether the vehicle MVa can safely stop. As shown in FIG. 32, since the pedestrian crossing CR has two white lines WLd and WLe in the lateral direction over the entire width of the lane, two white lines WLd and WLe extending laterally over the entire width of the lane. Can be recognized, the presence of the crosswalk CR can be determined.
[0112]
The differences between the sixth embodiment and the first embodiment are as follows. First, FIG. 33 shows the overall configuration of the approach prediction device according to the sixth embodiment. The difference from the approach prediction device of FIG. 3A of the first embodiment is that an infrared detection device 10 is provided. The infrared detection device 10 is configured by, for example, an infrared camera, and detects an infrared ray coming from the front of the vehicle MVa as an image. The preprocessing unit 7 analyzes the shape of the region of the infrared rays detected by the infrared detection device 10 if there is a region higher than the ambient temperature to determine whether or not a person is imaged. If so, the direction of the person with respect to the vehicle MVa is detected.
[0113]
Further, the image processing in step S10 in FIG. 4, the data extraction in step S40, the behavior prediction of the preceding vehicle in step S50, the comparison of the IF part in the rule in step S60, the conflict between the rules in step S70, and the specificity of the proximity in step S80 Except that the basic procedure is different. Therefore, the following description focuses on differences from the first embodiment, and a description of common parts is omitted.
[0114]
FIG. 34 is a flowchart showing the image processing routine of the sixth embodiment, and is for explaining the details of step S10 in FIG. After performing the same processing as in steps S11 to S13 in FIG. 5, in step S14, it is determined whether or not a human is present in front of the vehicle MVa. Further, if a human is present, the relative coordinates with respect to the vehicle MVa are determined. Ask.
[0115]
In other words, the infrared ray coming from the front of the vehicle MVa is imaged by the above-mentioned infrared ray detecting device 10, and a region higher than the ambient temperature is extracted. Next, the shape of the high-temperature area is analyzed to determine whether the high-temperature area is caused by infrared rays emitted from a human, that is, whether or not a human exists in the high-temperature area. Then, when it is determined that the human is in the front view, the direction of the human with respect to the vehicle MVa is detected.
[0116]
Next, FIG. 35 is a flowchart showing a data extraction routine according to the fourth embodiment, for explaining the details of step S40 in FIG. The absolute coordinate value of the own vehicle is calculated in the same manner as in step S41 of FIG. 11, and in step S42A, the absolute coordinate value of the white line area and the absolute coordinate value B (xb, Yb) Is calculated, and the speed vector of the own vehicle is calculated in step S43A. In this embodiment, no human velocity vector is obtained. In step S46, it is determined whether or not the pedestrian crossing CR exists in the front view of the vehicle MVa. Details of the pedestrian crossing determination method are shown in the flowchart of FIG.
[0117]
In FIG. 36, in step S461, white line detection is performed on the front view image of the vehicle MVa whose viewpoint has been converted, and among the lanes separated by the detected white line, the lane R in which the vehicle MVa is traveling0, The horizontal edge extending in the direction crossing the white line is extracted from the detected edges. Since the details of the horizontal edge extraction have already been described in the description of the operation in step S4501 in FIG. 19, the details are omitted.
[0118]
In step S462, similarly to step S4502 in FIG. 19, labeling processing is performed on each of the horizontal edges extracted in step S461, and the horizontal length of each of the labeled horizontal edges is measured. In step S4503, the lateral length of the lateral edge is determined by the traveling lane R0And the traveling lane R0It is determined whether or not there are two horizontal edges in the traveling lane R. If the determination is affirmative, the process proceeds to step S464 where the traveling lane R0It is determined that there is a pedestrian crossing. This fact,
(Equation 16)
Kb = Human (18)
It expresses. On the other hand, if the determination is negative, the process proceeds to step S465 and the traveling lane R0It is determined that there is no pedestrian crossing.
[0119]
Next, in step S50 of FIG. 4, the behavior of the obstacle ahead, that is, whether the pedestrian WP is going to cross the pedestrian crossing CR is predicted by the following equation.
[Equation 17]
Figure 0003557656
Where k10: Constant (k10> 0)
RE: The fact that pedestrians WP are going to cross the crosswalk
yp  : Center point P (xp, Yp) Y coordinate
[0120]
| Yp-Yb| Is the distance between the pedestrian WP and the crosswalk CR along the Y-axis direction. Therefore, the pedestrian WP is present in the front view of the vehicle MVa, and the distance between the pedestrian WP and the crosswalk CR is smaller than a predetermined safety distance (<k10), It is predicted that the pedestrian WP is going to cross the pedestrian crossing CR, and the fact RE becomes true.
[0121]
In step S60 of FIG. 4, various data are input for the rule selected from the various rules in the rule memory 53a of the degree-of-approach determination unit 53, and the IF unit is collated. The related rule in the present embodiment is the rule of the rule number 11 shown in FIG. Here, f '(Va) is a function indicating the stopping distance of the vehicle MVa, and is defined by the following equation.
(Equation 18)
Figure 0003557656
Where α: deceleration of the vehicle MVa
[0122]
In the example shown in FIG. 32, since the pedestrian WP exists in the front view of the vehicle MVa, the distance y between the pedestrian WP and the crosswalk CR is set.p-YbIs smaller than a predetermined safety distance (<k10), That is, when the pedestrian WP is sufficiently close to the crosswalk CR, the left side of Expression (19) is determined to be true. Further, the distance y between the pedestrian WP and the vehicle MVa along the Y-axis directionb-YaHas a positive value smaller than the stop distance f '(Va), the braking distance is long even when the brake is applied, and when the pedestrian WP crosses the pedestrian crossing CR, the vehicle MVa is approaching the pedestrian crossing CR. There is a possibility that the IF section of the rule number 11 is determined to be true, the rule is established, and the proximity = 2 is output.
[0123]
Therefore, according to the present embodiment, the presence of a person is detected by the infrared detection device, and the approach is calculated by predicting the behavior of the person in consideration of the shape of the white line. The degree of approach to humans can be accurately determined and predicted.
[0124]
-Modification of the sixth embodiment-
In the above-described sixth embodiment, the pedestrian crossing CR is determined by performing pattern recognition on the screen obtained by imaging the front field of view of the vehicle MVa. However, as in the case of the merging lane determination described above, various methods can be used. Thereby, it can be determined whether or not the pedestrian crossing CR exists in the front view.
[0125]
FIG. 37 is a flowchart showing another example of the pedestrian crossing determination routine. In this example, it is assumed that sign posts (not shown) are provided at predetermined intervals on the road, and that a road information signal indicating a road condition is transmitted from the sign posts. Therefore, the vehicle MVa is provided with an antenna for receiving the electromagnetic wave and a receiver (see FIG. 22B). Others are the structure shown in FIG.
[0126]
In step S4601 of FIG. 37, the road information signal from the sign post is received by the antenna attached to the vehicle MVa, and the received signal is taken into the control device 5. In step S4602, it is determined whether or not the pedestrian crossing CR exists in the front view based on the received road information signal.
[0127]
FIG. 38 is a flowchart illustrating an example of determining a pedestrian crossing based on the road information input from the navigation device described with reference to FIG. In step S4611, the navigation device recognizes the position of the vehicle on the map based on the GPS signal in the same manner as described above, extracts the road information given to the road, and transmits the road information to the control device 5. In step S4612, it is determined based on the received road information whether a pedestrian crossing exists in the forward field of view.
[0128]
Therefore, according to these modifications, the same operation and effect as those of the sixth embodiment can be obtained.
[0129]
Next, a description will be given of seventh and eighth embodiments in which the proximity output from the proximity determination unit 53 is used for controlling the vehicle MVa.
-Seventh embodiment-
FIG. 39 is a block diagram showing a schematic configuration of the seventh embodiment in which the so-called constant-speed traveling device is controlled using the proximity output from the above-described approach prediction device. In this figure, reference numeral 50 denotes an approach prediction device according to the above-described first to sixth embodiments. Reference numeral 61 denotes a desired vehicle speed setting unit, to which the occupant of the vehicle inputs the desired vehicle speed. The desired vehicle speed setting unit 61 includes, for example, a push button for instructing UP / DOWN. When the UP button is continuously pressed, a signal for increasing the set vehicle speed is transmitted, while the DOWN button is continuously pressed. When activated, a signal for lowering the set vehicle speed is transmitted. Reference numeral 62 denotes an operation ON / OFF switch, which instructs start and end of the constant speed traveling operation by the control unit 63.
[0130]
Numeral 64 denotes a group of actuators for controlling each part of the vehicle in accordance with a signal from the control unit 63 to perform constant speed traveling. The actuator group 64 includes a throttle actuator for controlling the opening of the throttle, a brake actuator for controlling the brake device, and a shift actuator for controlling the transmission. The control unit 63 determines a target speed based on a signal input from the desired vehicle speed setting unit 61 or the approach prediction device 50, compares the target speed with the current vehicle speed, and determines whether the current speed is the target speed. A control signal is output to the actuator group 64 such that Further, the actuator group 64 is controlled based on a signal from the approach prediction device 50 to perform travel control according to the approach degree. For cruise control according to constant speed control and proximity,
(1) Only the throttle actuator is driven
(2) Drive the throttle actuator and speed change actuator
(3) Drive the throttle actuator and brake actuator
can do.
[0131]
FIG. 40 is a flowchart for explaining the operation of this embodiment. Note that the operation of the approach prediction device 50 is the same as that of the above-described first to sixth embodiments, and a description thereof will be omitted.
[0132]
The program shown in FIG. 40 is started when the operation ON / OFF switch 62 is turned ON. First, in step S91, the desired vehicle speed set by the desired vehicle speed setting unit 61 is taken into the control unit 63. Next, in step S92, the absolute coordinate values, speed vectors, and traveling lanes of the vehicle MVa and the preceding vehicle MVb are read from the approach prediction device 50.
[0133]
In step S93, a safe inter-vehicle distance that can ensure safety is calculated based on the absolute coordinate values and the speed vector of the vehicle MVa and the preceding vehicle MVb input from the proximity determining unit 53. The safe inter-vehicle distance is, for example, as defined by the above equation (7). In step S94, the inter-vehicle distance between the vehicle MVa and the preceding vehicle MVb is calculated, and the actual inter-vehicle distance is equal to or longer than the safe inter-vehicle distance calculated in step S93, or on the traveling lane on which the vehicle MVa runs. It is determined whether there is no preceding vehicle. As a result, if the determination is affirmative, the process proceeds to step S95; if the determination is negative, the process proceeds to step S96.
[0134]
The reason why the determination in step S94 is affirmative is that it is determined that safety can be ensured even when the vehicle speed of the vehicle MVa is set to the desired vehicle speed. In step S95, the actuator group 64 is set so that the actual vehicle speed becomes the desired vehicle speed. Control. On the other hand, in step S96, it is determined that if the vehicle speed of the vehicle MVa is set to the desired vehicle speed, safety may not be ensured, and the actuator group 64 is controlled so that the actual inter-vehicle distance becomes the safe inter-vehicle distance.
[0135]
On the other hand, when the degree of approach is output from the approach predicting device 50 while the program shown in the flowchart of FIG. 40 is being executed, an interruption operation is executed and the constant speed traveling operation ends as shown in FIG.
[0136]
As described above, the behavior of the vehicle MVa is controlled so that the vehicle MVa does not approach the preceding vehicle MVb, using the position, speed, lane, and degree of approach to the preceding vehicle MVb detected by the approach predicting device 50. can do.
[0137]
-Modification of the seventh embodiment-
In the above-described seventh embodiment, the constant-speed running operation is uniformly finished when the approaching degree is output from the approaching prediction device 50. However, control may be performed according to the approaching level. FIG. 42 is a flowchart showing an example of such a control procedure. When the approach degree is output from the approach prediction device 50 while the program shown in the flowchart of FIG. 40 is being executed, the subroutine flowchart of FIG. Is executed. In step S901, the target speed targeted by the constant-speed running operation is reduced according to the level of the proximity output from the approach prediction device 50. In particular, the higher the approach level, the lower the target speed may be set. For example, if the approach level is 1, the throttle actuator is simply returned to decelerate by the engine brake, and if the approach level is 2, the braking is actively performed. What is necessary is just to control an actuator and to decelerate.
[0138]
By controlling the constant speed traveling operation stepwise according to the level of the degree of approach, fine control according to the traveling situation becomes possible.
[0139]
-Eighth embodiment-
FIG. 43 shows an eighth embodiment of the present invention, and is a block diagram showing a schematic configuration of an approach avoiding device for avoiding the own vehicle from approaching a preceding vehicle based on a signal output from the approach predicting device. In the following description, the same reference numerals are given to the same components as those in the above-described seventh embodiment, and the description thereof will be omitted. In FIG. 43, reference numeral 65 denotes a rear and side vehicle detection unit that detects the presence of vehicles behind and side of the vehicle MVa. The rear and side vehicle detectors include, for example, a distance sensor, an optical switch, and the like, and detect the presence of the vehicle based on detection results of the distance sensor, the optical switch, and the like. Further, the actuator group 64 includes a steering actuator, a throttle actuator, a brake actuator, and a shift actuator.
[0140]
The normal operation of the present embodiment is substantially the same as the operation of the seventh embodiment described with reference to FIG. 40, so that the description thereof will be omitted, and only the interrupt operation will be shown in a flowchart. When the degree of approach is output from the approach prediction device 50 while the program shown in the flowchart of FIG. 40 is being executed, the subroutine flowchart of the interrupt operation shown in FIG. 44 is executed.
[0141]
In step S911 in FIG. 44, the approach predictor 50 fetches the approach level and the lane of the preceding vehicle that has caused the approach output. The lane of the preceding vehicle can be detected by searching for the IF section of the rule that has contributed to the approach output. In step S912, it is determined whether or not approach to the preceding vehicle can be prevented by merely reducing the speed of the vehicle MVa. If the determination is affirmative, the process proceeds to step S913, and if the determination is negative, the process proceeds to step S914. The determination in step S912 may be, for example, affirmative when the degree of approach is high (the degree of approach is 2 or more), and denied when the degree of approach is low.
[0142]
In step S913, similarly to step S901 in FIG. 42, the target speed targeted by the constant-speed running operation is reduced according to the level of the proximity output from the approach prediction device 50. In particular, the higher the level of the degree of approach, the lower the target speed may be set. On the other hand, in step S914, a lane in the opposite direction to the lane in which the preceding vehicle exists, which is a factor of the proximity output, is searched (that is, if the preceding vehicle is in the right driving lane, the left driving lane) is searched. However, if no vehicle is detected behind and on the side of the vehicle MVa in this lane, it is determined that this lane is an avoidable lane, and the lane is changed to an avoidable lane. In other words, the vehicle MVa is moved to the lane in which the steering of the vehicle MVa can be avoided by the steering actuator constituting the actuator group 64.
[0143]
Therefore, according to this embodiment, the same operation and effect as those of the above-described seventh embodiment can be obtained.
[0144]
In the correspondence between the embodiment described above and the claims, the CCD camera 3 and the data extracting unit 511, The wheel speed sensor 1 and the data extraction unit 512The behavior detection unit 52 of the vehicle in front of the vehicle,ContactThe proximity determining unit 53 determines the proximity4Configure each. The details of the approach prediction device of the present invention are not limited to the above embodiments, and various modifications are possible.
[0145]
【The invention's effect】
As described in detail above, according to the present invention, the proximity is calculated in consideration of the traveling guidance information such as the lane drawn on the road surface. Accurately judge and predict the proximity of moving objects
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing an approach prediction device of the present invention.
FIG. 2 is a diagram illustrating the operation of the approach prediction device according to the first embodiment.
FIG. 3A is an overall configuration diagram illustrating an embodiment of an approach prediction device, and FIG. 3B is a diagram illustrating details of a control device thereof.
FIG. 4 is a main flowchart for explaining the operation of the approach prediction device.
FIG. 5 is a flowchart illustrating an image processing routine according to the first to fifth embodiments.
FIG. 6A is a diagram illustrating an example of a front view image of a vehicle captured by an imaging device, and FIG. 6B is a diagram illustrating a viewpoint conversion image corresponding to FIG.
FIG. 7 is a flowchart illustrating a white line detection routine.
FIG. 8 is a diagram illustrating an example of a white line detection filter.
FIGS. 9A to 9F are diagrams for explaining a method of connecting white line candidate regions.
10A is a diagram showing an example of a white line candidate area, FIG. 10B is a template obtained from the white line candidate area in FIG. 10A, and FIG. 10C is a white line detected using the template in FIG. It is a figure showing a field.
FIG. 11 is a flowchart illustrating a data extraction routine according to the first embodiment.
FIG. 12 is a flowchart showing a white line direction vector detection routine.
FIGS. 13A to 13C are diagrams for explaining a method of calculating a unit direction vector of a white line.
FIG. 14 is a diagram showing an example of a rule stored in a rule memory.
FIG. 15 is a diagram illustrating the operation of the approach prediction device of the first embodiment.
FIG. 16 is a flowchart illustrating a data extraction routine according to a modification of the first embodiment.
FIG. 17 is a diagram illustrating the operation of the approach prediction device according to the second embodiment.
FIG. 18 is a flowchart illustrating a data extraction routine according to the second embodiment.
FIG. 19 is a flowchart illustrating a merging lane determination routine according to the second embodiment.
20A and 20B are diagrams illustrating a second embodiment, in which FIG. 20A illustrates an example of a front view image of a vehicle captured by an imaging device, and FIG. 20B illustrates a viewpoint conversion image corresponding to FIG. FIG. 7C is a diagram illustrating a white line area detected with respect to the viewpoint-converted image of FIG. 7B, and FIG. 7D is a diagram illustrating horizontal edges extracted from the viewpoint-converted image of FIG.
FIG. 21 is a diagram illustrating the operation of the approach prediction device according to the second embodiment.
22A is a flowchart illustrating an example of a merging lane determination routine according to a modification of the second embodiment, and FIG. 22B is a diagram illustrating a configuration example of a system that receives a signal from a sign post.
FIG. 23A is a flowchart illustrating another example of the merging lane determination routine according to the modification of the second embodiment, and FIG. 23B is a diagram illustrating a configuration example of a navigation device.
FIG. 24 is a diagram illustrating the operation of the approach prediction device according to the third embodiment.
FIG. 25 is a flowchart illustrating a data extraction routine according to the third embodiment.
FIG. 26 is a flowchart illustrating a road shoulder determination routine according to the third embodiment.
FIG. 27 is a diagram illustrating the operation of the approach prediction device according to the fourth embodiment.
FIG. 28 is a flowchart illustrating a data extraction routine according to the fourth embodiment.
FIG. 29 is a flowchart illustrating a departure lane determination routine according to a fourth embodiment.
FIG. 30 is a flowchart illustrating a departure lane determination routine according to a modification of the fourth embodiment.
FIG. 31 is a diagram illustrating the operation of the approach prediction device according to the fifth embodiment.
FIG. 32 is a diagram illustrating the operation of the approach prediction device of the sixth embodiment.
FIG. 33 is a diagram illustrating an overall configuration of an approach prediction device according to a sixth embodiment.
FIG. 34 is a flowchart illustrating an image processing routine according to a sixth embodiment.
FIG. 35 is a flowchart illustrating a data extraction routine according to the sixth embodiment.
FIG. 36 is a flowchart illustrating a pedestrian crossing determination routine according to a sixth embodiment.
FIG. 37 is a flowchart illustrating an example of a pedestrian crossing determination routine according to a modification of the sixth embodiment.
FIG. 38 is a flowchart illustrating another example of a pedestrian crossing determination routine according to a modification of the sixth embodiment.
FIG. 39 is a block diagram showing a constant-speed traveling device to which the approach prediction device according to the seventh embodiment is applied.
FIG. 40 is a flowchart for explaining the operation of the seventh embodiment.
FIG. 41 is a flowchart for explaining an interrupt operation of the seventh embodiment.
FIG. 42 is a flowchart illustrating an interrupt operation according to a modification of the seventh embodiment.
FIG. 43 is a block diagram showing an approach avoidance device to which the approach prediction device according to the eighth embodiment is applied.
FIG. 44 is a flowchart illustrating the operation of the eighth embodiment.
[Explanation of symbols]
1 Wheel speed sensor
2 tires
3 CCD camera
4,7 Pre-processing unit
5 Control device
6 radar equipment
10 Infrared detector
50 Approach prediction device
51 Data extractor
52 Forward Vehicle Behavior Prediction Unit
53 proximity judgment unit
53a Rule memory
53b IF section collation section
53c rule selector
53d rule competition
MVa vehicle
MVb, MVc Forward vehicle
WLa-WLc White line
WLRa to WLRc White line area
MP merging lane pattern
RF roadside reflector
CR crosswalk
101 Travel guide information detecting means
102 ownVehicle behavior detection means
103 Front vehicle behavior prediction means
104 contactProximity predictorStep

Claims (3)

路面を走行する自車両とその走行方向前方に存在する前方車両との接近度を予測する装置であって、
前記路面に描かれた車線の延在方向に関する情報を検出する走行案内情報検出手段と、
前記自車両の位置および速度ベクトルを演算する自車挙動検出手段と、
前記前方車両の位置および速度ベクトルを演算するとともに、前記前方車両の速度ベクトルの方向と前記前方車両の走行車線の延在方向とが交差し、かつ、前記前方車両の速度ベクトルが前記自車両の走行車線に近づく成分を所定値以上有する時に、前記自車両の走行車線へ前記前方車両が車線変更すると判断する前車挙動予測手段と、
前記前車挙動予測手段により前記自車両の走行車線へ前記前方車両が車線変更すると判断された時、前記自車挙動検出手段および前記前車挙動予測手段で得られた前記自車両および前記前方車両の位置および前記自車両および前記前方車両の速度ベクトルに基づいて接近度を出力する接近度予測手段とを備えたことを特徴とする接近予測装置。
A device for predicting the degree of approach between a host vehicle traveling on a road surface and a preceding vehicle present in front of the traveling direction,
Traveling guidance information detecting means for detecting information on the direction of extension of the lane drawn on the road surface ,
Own vehicle behavior detecting means for calculating the position and speed vector of the own vehicle,
While calculating the position and speed vector of the preceding vehicle, the direction of the speed vector of the preceding vehicle intersects with the extending direction of the traveling lane of the preceding vehicle, and the speed vector of the preceding vehicle is A front vehicle behavior predicting unit that determines that the preceding vehicle changes lanes to the traveling lane of the host vehicle when the component approaching the traveling lane has a predetermined value or more ;
When the preceding vehicle behavior predicting means determines that the preceding vehicle changes lanes to the traveling lane of the own vehicle, the own vehicle and the preceding vehicle obtained by the own vehicle behavior detecting means and the preceding vehicle behavior predicting means; And an approach predicting means for outputting an approach based on the position of the vehicle and velocity vectors of the own vehicle and the preceding vehicle .
路面を走行する自車両とその走行方向前方に存在する前方車両との接近度を予測する装置であって、
前記路面に描かれた車両の進行誘導に関する情報を検出する走行案内情報検出手段と、
前記自車両の位置および速度ベクトルを演算する自車挙動検出手段と、
前記前方車両の位置および速度ベクトルを演算するとともに、前記車両の進行誘導に関する情報に基づいて前記前方車両が車線変更を行う可能性が高い箇所を走行しているかどうかを判断する前車挙動予測手段と、
前記前車挙動予測手段により前記前方車両が車線変更を行う可能性が高い箇所を走行していると判断された時、前記自車挙動検出手段および前記前車挙動予測手段で得られた前記自車両および前記前方車両の位置および前記自車両および前記前方車両の速度ベクトルに基づいて接近度を出力する接近度予測手段とを備えたことを特徴とする接近予測装置。
A device for predicting the degree of approach between a host vehicle traveling on a road surface and a preceding vehicle present in front of the traveling direction,
Traveling guidance information detecting means for detecting information about the traveling guidance of the vehicle drawn on the road surface,
Own vehicle behavior detecting means for calculating the position and speed vector of the own vehicle,
A front vehicle behavior predicting means for calculating a position and a speed vector of the preceding vehicle and determining whether or not the preceding vehicle is traveling in a location where there is a high possibility of changing lanes based on information relating to guidance of the vehicle; When,
When the preceding vehicle behavior predicting means determines that the preceding vehicle is traveling in a place where there is a high possibility of changing lanes, the vehicle obtained by the own vehicle behavior detecting means and the preceding vehicle behavior predicting means is used. An approach predicting device comprising: an approach predicting unit that outputs an approach based on a position of a vehicle and the preceding vehicle and velocity vectors of the own vehicle and the preceding vehicle .
路面を走行する自車両とその走行方向前方に存在する複数の前方車両との接近度を予測する装置であって、
前記路面に描かれた車線の延在方向に関する情報を検出する走行案内情報検出手段と、
前記自車両の位置と速度ベクトルとを算出する自車挙動検出手段と、
前記複数の前方車両の各々の位置および速度ベクトルを演算するとともに、前記複数の前方車両の各々の位置と速度ベクトルおよび前記検出された車線の延在方向に関する情報に基づいて、前記複数の前方車両のうち後続する一方の車両が先行する他方の前方車両に接近して前記自車両の走行車線に車線変更するか否かを判断する前車挙動予測手段と、
前記前車挙動予測手段により前記自車両の走行車線に前記複数の前方車両の一方の後続車両が車線変更すると判断された時、前記自車挙動検出手段および前記前車挙動予測手段で得られた前記自車両および前記前方車両のうち後続する一方の車両の各位置、および前記自車両および前記前方車両のうち後続する一方の車両の各速度ベクトルに基づいて接近度を出力する接近度予測手段とを備えたことを特徴とする接近予測装置。
A device that predicts the degree of approach between a host vehicle traveling on a road surface and a plurality of front vehicles existing in the traveling direction ahead,
Traveling guidance information detecting means for detecting information on the direction of extension of the lane drawn on the road surface,
Own vehicle behavior detecting means for calculating the position and speed vector of the own vehicle,
The position and speed vectors of each of the plurality of front vehicles are calculated, and the plurality of front vehicles are calculated based on the position and speed vectors of each of the plurality of front vehicles and information on the direction in which the detected lane extends. A preceding vehicle behavior predicting means for determining whether or not one of the following vehicles approaches the other preceding vehicle and changes lanes to the traveling lane of the own vehicle.
When the preceding vehicle behavior predicting means determines that one of the following vehicles of the plurality of front vehicles changes lanes to the traveling lane of the own vehicle, it is obtained by the own vehicle behavior detecting means and the preceding vehicle behavior predicting means. An approach predicting unit that outputs an approach based on the respective positions of the following one of the own vehicle and the preceding vehicle and the respective speed vectors of the following one of the following vehicles among the own vehicle and the preceding vehicle; and approaching prediction apparatus comprising the.
JP18248394A 1994-08-03 1994-08-03 Approach prediction device Expired - Fee Related JP3557656B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18248394A JP3557656B2 (en) 1994-08-03 1994-08-03 Approach prediction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18248394A JP3557656B2 (en) 1994-08-03 1994-08-03 Approach prediction device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003424201A Division JP3786113B2 (en) 2003-12-22 2003-12-22 Approach prediction device

Publications (2)

Publication Number Publication Date
JPH0844999A JPH0844999A (en) 1996-02-16
JP3557656B2 true JP3557656B2 (en) 2004-08-25

Family

ID=16119070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18248394A Expired - Fee Related JP3557656B2 (en) 1994-08-03 1994-08-03 Approach prediction device

Country Status (1)

Country Link
JP (1) JP3557656B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
JP2002318130A (en) * 2001-02-13 2002-10-31 Alpine Electronics Inc Traveling lane detecting device and navigation apparatus
AU2003225228A1 (en) 2002-05-03 2003-11-17 Donnelly Corporation Object detection system for vehicle
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
JP4575031B2 (en) * 2004-05-31 2010-11-04 三菱電機株式会社 In-vehicle road marking detection device
JP4645429B2 (en) * 2005-12-01 2011-03-09 アイシン・エィ・ダブリュ株式会社 Vehicle position calculation method and in-vehicle device
JP4793094B2 (en) 2006-05-17 2011-10-12 株式会社デンソー Driving environment recognition device
US7972045B2 (en) 2006-08-11 2011-07-05 Donnelly Corporation Automatic headlamp control system
JP2009237901A (en) * 2008-03-27 2009-10-15 Zenrin Co Ltd Method of creating road marker map
JP5316392B2 (en) * 2009-12-11 2013-10-16 トヨタ自動車株式会社 Driving assistance device
JP6663822B2 (en) 2016-08-08 2020-03-13 日立オートモティブシステムズ株式会社 Automatic driving device
JP6614229B2 (en) * 2017-12-06 2019-12-04 株式会社Jvcケンウッド Lane recognition device and lane recognition method
JP7345515B2 (en) * 2021-03-29 2023-09-15 本田技研工業株式会社 Vehicle control device, vehicle control method, and program

Also Published As

Publication number Publication date
JPH0844999A (en) 1996-02-16

Similar Documents

Publication Publication Date Title
US11204607B2 (en) Trajectory setting device and trajectory setting method
JP3557656B2 (en) Approach prediction device
JP6572847B2 (en) Automated driving system
JP4420011B2 (en) Object detection device
JP3214122B2 (en) Danger situation alarm device
JP6292054B2 (en) Driving support device, method, and program
JP6800575B2 (en) Methods and systems to assist drivers in their own vehicles
CN109871787B (en) Obstacle detection method and device
JP2017146730A (en) Route determination device
KR20180117207A (en) Scenario Recognition System for Automobiles
US8050460B2 (en) Method for recognition of an object
JP3786113B2 (en) Approach prediction device
JP2007232594A (en) Object detecting device
JPH08320997A (en) Vehicle travel lane recognition device, and obstacle detector and road deviation reporting device
KR20190012370A (en) Method and Apparatus for lane change support
US10957198B1 (en) System and method for determining parking space
JP6613265B2 (en) Prediction device, vehicle, prediction method and program
US11180141B2 (en) Vehicle control system
JP2007164671A (en) Device for deciding approaching obstacle and system for warning collision with obstacle
JP3666332B2 (en) Pedestrian detection device
JP5355209B2 (en) Navigation device, determination method and determination program for traveling lane of own vehicle
CN114103993A (en) Vehicle driving control device and method
EP3961580A1 (en) Apparatus, method, and computer program for object detection
JP2021196939A (en) On-vehicle sensor system
Shimomura et al. An algorithm for distinguishing the types of objects on the road using laser radar and vision

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040510

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080528

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090528

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees