JP3692910B2 - Lane tracking control device - Google Patents

Lane tracking control device Download PDF

Info

Publication number
JP3692910B2
JP3692910B2 JP2000192494A JP2000192494A JP3692910B2 JP 3692910 B2 JP3692910 B2 JP 3692910B2 JP 2000192494 A JP2000192494 A JP 2000192494A JP 2000192494 A JP2000192494 A JP 2000192494A JP 3692910 B2 JP3692910 B2 JP 3692910B2
Authority
JP
Japan
Prior art keywords
information
road
navigation
control
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000192494A
Other languages
Japanese (ja)
Other versions
JP2002008199A (en
Inventor
健 木村
真次 松本
琢 高浜
博充 豊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2000192494A priority Critical patent/JP3692910B2/en
Publication of JP2002008199A publication Critical patent/JP2002008199A/en
Application granted granted Critical
Publication of JP3692910B2 publication Critical patent/JP3692910B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、制御用走路情報に基づいて車両を前方車線に追従させる制御を行う車線追従走行制御装置の技術分野に属する。
【0002】
【従来の技術】
従来、車線追従走行制御装置としては、例えば、特開平5−297941号公報に記載のものが知られている。
【0003】
この公報には、白線画像から得られる道路の実測形状が複数ある場合であっても、ナビゲーションシステムによる地図データ等に基づく予想形状から道路形状を正確に検出できるようにすることを目的とし、自車の現在位置,走行方位及び地図データ等のナビゲーションデータに基づき、処理手段により道路の予想形状を導出し、複数ある実測形状のうち予想形状に近いものを選択して制御用走路情報とする技術が記載されている。
【0004】
【発明が解決しようとする課題】
しかしながら、上記従来の車線追従走行制御装置にあっては、複数の道路実測形状が検出された場合には、ナビゲーションデータに基づき導出される道路の予想形状との比較に基づいて、制御用走路情報として適切なものを選択することが可能であるが、現実には撮影手段によって前方の道路形状を捉えるのが困難な状況は、複数の道路形状が検出される場合だけでなく、道路形状を算出するための白線が得られない場合、あるいは、画像から白線を抽出するのが困難な状況も考えられ、このような状況においては、白線画像から得られる走路情報を制御用走路情報とする上記従来技術では対処することができず、制御を中断せざるを得ないという問題がある。
【0005】
これに対し、特開平10−273062号公報には、前方走路の白線が得られない場合には、過去の道路の曲率半径を用いて現在の曲率半径を推定して操舵制御を行う構成が開示されており、特に、過去の道路の曲率半径を用いた推定方法に代えて、ナビゲーションシステムの地図情報から曲率半径を得ても良いとの示唆がある。しかしながら、ナビゲーションシステムの地図情報を用いるためには、現在の車両の位置が地図データ上で正確に認識されていること(マッチング処理)が必須となる。
【0006】
ここで、特開平6−74778号公報には、前方走路の白線が途切れたことをもって交差点と認識し、地図データの最寄りの交差点に現在位置をマッチングする構成が開示されている。しかしながら、高速道路のように白線の途切れる交差点の無い道路においては応用が困難である。
【0007】
本発明は上述のような問題点に着目してなされたもので、その目的とするところは、画像情報により走路が認識されている間にナビゲーション手段とのマッチングを実施しておくことで、画像情報により走路が認識できない状況に陥ったとしても、ナビゲーション手段からの精度の高い走路情報を制御用走路情報とすることにより、車線追従走行制御をそのまま続行可能にする車線追従走行制御装置を提供することにある。
【0008】
【課題を解決するための手段】
上記目的を達成するため、請求項1記載の発明では、制御用走路情報に基づいて車両を前方車線に追従させる制御を行う車線追従走行制御装置において、
画像情報に基づき自車前方の走路情報を検出する走路情報検出手段と、
地図情報及び衛星からの走行位置情報に基づき地図上の自車走行位置を決定すると共に、自車走行位置前後の走路情報を出力するナビゲーション手段と、
前記決定された自車走行位置を、車速による自車の進行距離を考慮して前記ナビゲーション手段内の地図情報を照らし合わせて地図における道路上に補正するマップマッチング処理手段と、
前記マップマッチング処理を行った後、前記走路情報検出手段により画像情報の正しい認識が行われていると判断した場合には、前記走路情報検出手段により得られた画像情報に基づく走路情報と、前記ナビゲーション手段から出力された走路情報とを比較する走路情報比較手段と、
前記走路情報比較手段による比較において、2つの走路情報が一致するように前記ナビゲーション手段の地図上の自車位置情報を補正する自車位置情報補正手段と、
前記ナビゲーション手段上の自車位置情報補正が完了する前は、前記走路情報検出手段において得られた画像情報に基づく走路情報を制御用走路情報として選択し、前記ナビゲーション手段上の自車位置情報補正が完了した後であって、前記走路情報検出手段からの画像情報に基いて得られた走路情報が正しく認識されていないと判断した場合には、前記ナビゲーション手段から得られる走路情報制御用走路情報として選択する制御用走路情報選択手段と、
を備えていることを特徴とする。
【0009】
請求項2記載の発明では、請求項1記載の車線追従走行制御装置において、
前記走路情報比較手段を、前記走路情報検出手段と前記ナビゲーション手段から得られた走路情報のうち走路曲率情報に基づき比較を行う手段としたことを特徴とする。
【0010】
請求項3記載の発明では、請求項1または請求項2に記載の車線追従走行制御装置において、
前記自車位置情報補正手段を、前記ナビゲーション手段上の自車位置情報のうち自車進行方向位置を補正する手段としたことを特徴とする。
【0014】
請求項4記載の発明では、請求項1ないし請求項3の何れか1項に記載の車線追従走行制御装置において、
前記制御用走路情報選択手段においてナビゲーション手段から得られる走路情報を制御用走路情報として選択し、かつ、その後、設定時間にわたって走路情報検出手段で画像情報の認識が正常に戻らない場合には車線追従走行制御を停止する制御停止手段を設けたことを特徴とする。
【0015】
請求項5記載の発明では、請求項1ないし請求項4の何れか1項に記載の車線追従走行制御装置において、
前記制御用走路情報選択手段を、ナビゲーション手段から道路分岐点に接近したとの情報が出力された場合、ナビゲーション手段から得られる走路情報を制御用走路情報として優先的に選択する手段としたことを特徴とする。
【0016】
請求項6記載の発明では、請求項1ないし請求項5の何れか1項に記載の車線追従走行制御装置において、
前記ナビゲーション手段上の自車位置情報補正が完了した後は、前記走路情報比較手段におけるそれぞれの走路曲率情報が大きく異なる場合は、画像情報に基づく走路情報を異常とみなして車線追従走行制御を禁止する制御禁止手段を設けたことを特徴とする。
【0017】
【発明の作用および効果】
請求項1記載の発明にあっては、走路情報検出手段において、画像情報に基づき自車前方の走路情報が検出され、ナビゲーション手段において、地図情報及び衛星からの走行位置情報に基づき地図上の自車走行位置が決定されると共に、自車走行位置前後の走路情報が出力され、マップマッチング処理手段において、決定された自車走行位置を、車速による自車の進行距離を考慮してナビゲーション手段内の地図情報を照らし合わせて地図における道路上に補正され、走路情報比較手段において、マップマッチング処理を行った後、走路情報検出手段により画像情報の正しい認識が行われていると判断した場合には、走路情報検出手段により得られた画像情報に基づく走路情報と、ナビゲーション手段から出力された走路情報とが比較され、自車位置情報補正手段において、走路情報比較手段による比較において、2つの走路情報が一致するようにナビゲーション手段上の自車位置情報が補正される。そして、制御用走路情報選択手段において、ナビゲーション手段上の自車位置情報補正が完了する前は、走路情報検出手段において得られた画像情報に基づく走路情報が制御用走路情報として選択され、ナビゲーション手段上の自車位置情報補正が完了した後であって、走路情報検出手段からの画像情報に基いて得られた走路情報が正しく認識されていないと判断した場合には、ナビゲーション手段から得られる走路情報制御用走路情報として選択される。そして、選択された制御用走路情報に基づいて車両を前方車線に追従させる制御が行われる。
【0018】
よって、画像情報により走路が認識されている間にナビゲーション手段とのマッチングが実施されることで、画像情報により走路が認識できない状況に陥ったとしても、ナビゲーション手段からの精度の高い走路情報を制御用走路情報とすることにより、車線追従走行制御をそのまま続行することが可能である。
制御用走路情報選択手段において、ナビゲーション手段上の自車位置情報補正が完了する前は、走路情報検出手段において得られた画像情報に基づく走路情報が制御用走路情報として選択されるため、ナビゲーション手段とのマッチングが完了を条件として2つの走路情報からの選択を許容することで、マッチング完了前後のいずれの時期においても精度の高い制御用走路情報を得ることができる。
制御用走路情報選択手段において、走路情報検出手段からの画像情報に基いて得られた走路情報が正しく認識されていないと判断した場合には、ナビゲーション手段から得られる走路情報が制御用走路情報として選択されるため、画像情報により走路が認識できない状況に陥った場合、ナビゲーション手段からの走路情報を制御用走路情報として車線追従走行制御をそのまま続行することができる。
走路情報比較手段において、走路情報検出手段により画像情報の正しい認識が行われていると判断した場合には、走路情報の比較処理が実行されるため、走路情報検出手段からの走路情報が正確である場合にのみ走路情報の比較処理が実行されることで、ナビゲーション手段上の自車位置情報を高い精度によりマッチングさせることができる。
【0019】
請求項2記載の発明にあっては、走路情報比較手段において、走路情報検出手段とナビゲーション手段から得られた走路情報のうち走路曲率情報に基づき比較が行われる。
【0020】
よって、走路情報比較を行うにあたって、走路情報のうち走路情報検出手段とナビゲーション手段の共通情報である走路曲率情報に基づき行われる。
【0021】
請求項3記載の発明にあっては、自車位置情報補正手段において、ナビゲーション手段上の自車位置情報のうち自車進行方向位置が補正される。
【0022】
よって、ナビゲーション手段とのマッチングを行うにあたって、走路情報の比較に基づき車線追従性を高める上で重要な自車進行方向位置が補正される。
【0029】
請求項4記載の発明にあっては、制御停止手段において、制御用走路情報選択手段においてナビゲーション手段から得られる走路情報が制御用走路情報として選択され、かつ、その後、設定時間にわたって走路情報検出手段で画像情報の認識が正常に戻らない場合には、車線追従走行制御が停止される。
【0030】
すなわち、走路情報検出手段で画像情報の認識が長時間にわたって正常に戻らない場合には、ナビゲーション手段における自車位置補正が行われないことによって徐々に位置精度が低下してしまう。
【0031】
これに対し、設定時間を経過すると、車線追従走行制御を停止することで、不正確な情報に基づいて不適切な車線追従制御が実行されることを防止することができる。
【0032】
請求項5記載の発明にあっては、制御用走路情報選択手段において、ナビゲーション手段から道路分岐点に接近したとの情報が出力された場合、ナビゲーション手段から得られる走路情報が制御用走路情報として優先的に選択される。
【0033】
すなわち、道路分岐点を走行する時に画像情報に基づく走路情報が制御用走路情報として選択されたままであると、道路分岐点において誤った側の車線を認識して追従してしまうことがある。
【0034】
これに対し、ナビゲーション手段により道路分岐点へ接近しているという情報が予め入ると、ナビゲーション手段から得られる走路情報を制御用走路情報とすることで、道路分岐点において誤った側の車線を認識して追従することを防止することができる。
【0035】
請求項6記載の発明にあっては、制御禁止手段において、ナビゲーション手段上の自車位置情報補正が完了した後は、走路情報比較手段におけるそれぞれの走路曲率情報が大きく異なる場合は、画像情報に基づく走路情報を異常とみなして車線追従走行制御が禁止される。
【0036】
すなわち、画像処理において、道路上の文字表示、汚れ、道路脇の物体等を誤って道路と認識してしまうような場合、誤って認識した車線に追従してしまう。
【0037】
これに対し、画像情報に基づく走路情報の異常を、走路情報比較手段におけるそれぞれの走路曲率情報が大きく異なるかどうかで判断し、大きく異なる場合は画像情報に基づく走路情報を異常とみなして車線追従走行制御を禁止することで、誤って認識した車線に追従してしまうことを防止することができる。
【0038】
【発明の実施の形態】
(実施の形態1)
まず、構成を説明する。
【0039】
図1は実施の形態1における車線追従走行制御装置を示す全体システム図で、1は進行方向前方を撮影するべく設けられたCCDカメラ、2はCCDカメラ1からの前方画像情報に基づいて走路情報を算出する画像処理装置、3は車速を計測するために駆動軸や車輪等に設けられた車速センサ、4は操舵機構5に設けられた操舵アクチュエータ、6は操舵角を計測する舵角センサ、7はGPS衛星からの電波を受信するGPSアンテナ(GPSとは、Global Positioning Systemの略称である。)、8はナビゲーションユニット、9はコントロールユニットである。
【0040】
前記コントロールユニット9には、画像処理装置2と車速センサ3と舵角センサ6からの信号が入力され、これらの信号に基づいて演算された操舵指令を操舵アクチュエータ4に出力する。また、ナビゲーションユニット8には、GPSアンテナ7と車速センサ3からに信号が入力される。さらに、コントロールユニット9とナビゲーションユニット8とはデジタル通信により接続されており、相互のユニット8,9において演算されている情報を交換することが可能となっている。
【0041】
図2は操舵アクチュエータ部分の詳細図で、操舵機構5は、ステアリングホイール5aとステアリングシャフト5bとステアリングギア5cを有して構成され、操舵アクチュエータ4は、ウォームギア4aと電磁クラッチ4bとモータ4cを有して構成されている。前記モータ4cはコントロールユニット9から出力される指令電流に従って制御トルクを発生し、電磁クラッチ4bはコントロールユニット9からの指令に従って接続/解放される。電磁クラッチ4bが解放された状態では、モータ4cによる制御トルクが操舵機構5に与えられないため、制御を加えない通常の操舵機構となり、電磁クラッチ4bが接続された状態において、コントロールユニット9からモータ4cへの指令電流により車線追従走行が行われる。
【0042】
図3に画像処理装置2のブロック図を示す。
画像処理装置2は、CCDカメラ1により車両前方の画像情報を受け取り、画像情報から車線情報を抽出する車線抽出処理部2aと、抽出された車線情報に基づき走路形状を推定する走路形状推定部2bと、推定された走路形状に基づいて車線中心に対する自車位置の偏差情報を算出する位置偏差算出部2cから構成され、走路形状推定部2b及び位置偏差算出部2cにおける演算結果(横偏差、ヨー角偏差、道路曲率)を出力する。
【0043】
また、車線抽出処理に2aにおける抽出状態、走路形状推定部2bにおける推定状態に応じて画像によって走路形状を正しく認識できているか否かを判定する認識状態判定部2dを備え、ここで判定された認識状態情報を上記走路形状、演算結果と併せてコントロールユニット9へ出力する。
【0044】
図4にナビゲーションユニット8のブロック図を示す。
ナビゲーションユニット8は、GPSアンテナ7から送られる衛星の位置・時間情報に基づき自車の緯度・経度を算出する緯度・経度算出部8aと、地図情報が納められている地図情報格納部8bと、緯度・経度算出部8aからの緯度・経度情報,地図情報格納部8bからの地図情報,車速センサ3から車速情報,画像処理装置2からの道路曲率情報(走路形状情報)に基づきマップマッチングを行うマップマッチング処理部8cと、マップマッチングにより確定された地図上の自車位置を基に画面表示を行う画面表示部8dを備えていて、マップマッチング処理後の走路形状情報及びマップマッチング状態情報をコントロールユニット9へ出力する。
【0045】
図5にコントロールユニット9のブロック図を示す。
コントロールユニット9は、舵角センサ6からの舵角情報、車速センサ3からの車速情報、ナビゲーションユニット8からの道路曲率情報(走路形状情報)及びマップマッチング状態情報、画像処理装置2からの道路曲率(走路形状)及び認識状態情報が入力される。そして、ナビゲーションユニット8からのマップマッチング状態情報と画像処理装置2からの認識状態情報に基づいて走路形状情報を選択する情報選択部9aと、選択した情報と現在の舵角に基づいて目標舵角を算出する目標舵角算出部9bと、目標舵角値と現在の舵角に基づいて目標操舵トルクを算出する目標操舵トルク算出部9cと、操舵トルク算出値に基づきモータ制御電流を算出するモータドライバ9dにより構成される。
【0046】
次に、作用を説明する。
【0047】
[画像処理装置での処理]
図6は画像処理装置2における処理フローチャートを示す。このサブルーチンは、一定時間間隔のタイマ割り込みによって呼び出される。
【0048】
ステップS60では、CCDカメラ1により撮影した前方走路の画像の取り込みを行う。これは、例えば、図7に示されるような画像である。
【0049】
ステップS61では、前記走行画像に対してエッジ抽出処理を行う。
【0050】
ステップS62では、抽出されたエッジを多項式に近似し、走路の推定形状とする。
【0051】
ステップS63では、エッジ抽出処理において抽出されたエッジ数及び走路の推定形状の変化状況に応じて、認識状態の良否を判定する。
【0052】
ステップS64では、コントロールユニット9にデータ送信する。
【0053】
例えば、図7に示す道路画像に対するエッジ抽出処理において、図8に示すように、道路形状を推定するために十分なエッジが検出される場合と、図9に示すように、道路形状を推定するにはエッジ数が不十分な場合とが考えられる。
【0054】
また、推定後の道路形状については、図10に示すように、道路形状の変化が少なく前回の推定形状との連続性が保たれていると考えられる場合と、図11に示すように、道路形状の変化が大きく前回の推定形状との連続性が保たれていないと考えられる場合がある。
【0055】
ステップS63(認識状態判定部2d)では、これらの状態に基づき、認識状態の総合的な判定を行う。図12には、判定状態を3段階で区分する例を示す。ここで、3段階の区分とは、
状態A:制御及びナビゲーションの補正の両方に使用可能。
状態B:制御に使用可能。ナビゲーションの補正に使用不可。
状態C:制御及びナビゲーションの補正の両方に使用不可。
をあらわす。
【0056】
ステップS64では、上記処理にて推定された走路の推定形状に基づく道路曲率、車線位置に対する自車の左右,ヨー角偏差,認識状態情報をコントロールユニット9に対し送信する。
【0057】
[ナビゲーションユニットでの処理]
図13はナビゲーションユニット8における処理フローチャートを示す。このサブルーチンは、一定時間間隔のタイマ割り込みによって呼び出される。
【0058】
ステップS130で車速を取り込み、ステップS131でGPS衛星から送られる信号の受信を行い、次のステップS132で画像処理装置2において算出された道路曲率情報,画像処理装置2における認識状態情報をコントロールユニット9を経由して受信する。
【0059】
ステップS133の緯度・経度算出処理においては,GPS衛星から送られた送信時間情報とナビゲーションユニット8内の現在時間情報(図示していない)との比較を行うことによって衛星と自車との距離を計測し、複数の衛星からの距離情報を総合することで自車位置を算出する。
【0060】
ステップS134のマップマッチング処理では、算出された自車位置を、車速による自車の進行距離を考慮してナビゲーションユニット8内の地図情報を照らし合わせて地図における道路上に補正することで、自車位置が道路から外れた場所となることを防止し、自車位置情報の精度を高める。
【0061】
ステップS135では、マップマッチング処理を行った後、受信した画像処理装置2における認識状態情報に基づいて、曲率による補正処理を行うか否かの判断を行う。そして、認識状態が、前述の状態Aである場合は,画像情報がナビゲーションの補正に使用可能であるため、次のステップS136へ進み、曲率情報に基づく補正処理を行い、状態B,Cの場合は、曲率に基づく補正処理を行わない。後者の状態が所定時間継続した場合、ステップS140において、補正完了フラグは0にクリアされる。
【0062】
ステップS136の曲率情報に基づく補正処理では、画像処理装置2において算出された道路曲率情報を用いた位置補正を行う。これを図14に示す。図14において、マップマッチング処理の後には、自車位置は地図における道路上の位置として認識されている。地図における自車前後の道路形状(a)を、画像処理によって得られた道路曲率情報(b)と比較し、これが一致するように自車位置を補正する(c)。
【0063】
この補正処理において、一致するような自車位置がマップマッチング後の自車位置近傍に発見された場合、ステップS138へ進み、補正完了フラグを1にセットし、発見されない状態が所定時間継続した場合には、ステップS139へ進み、補正完了フラグを0にクリアする。発見されなかった場合には、位置の補正は行わない。
【0064】
以上の手順で求められた自車位置を元に、自車前方の道路形状情報を地図上から取得し、ステップS141において、補正完了フラグとともにコントロールユニット9へ送信することで本サブルーチンを終了する。
【0065】
[コントロールユニットでの処理]
図15はコントロールユニット9における処理フローチャートを示す。本サブルーチンは一定の時間間隔のタイマ割り込みによって呼び出される。
【0066】
ステップS150では、舵角が読み込まれ、ステップS151では、画像処理装置2及びナビゲーションユニット8との通信処理を行う。画像処理装置2との通信では、道路曲率、車線位置に対する自車の左右,ヨー角偏差、認識状態情報を受信し、ナビゲーションユニット8との通信では、画像処理装置2から受信した道路曲率情報,認識状態情報を送信する一方、道路形状情報,補正完了フラグを受信する。
【0067】
次のステップS152では、制御開始SW(図示していない)が0Nされているか否かの判断を行い、0Nされている場合はクラッチ接続処理を行った後に、その後の制御指令演算を行い、ONされていない場合には、ステップS161へ進み、制御停止処理を行う。制御停止処理においては、現在制御中である場合、急激に操舵トルクを0にするとドライバにとって違和感が生じるため、徐々に操舵トルクを減少させ、これが0になった後に電磁クラッチ4bを解放することで制御を停止させる。また、制御実行中でなく、電磁クラッチ4bが解放された状態の場合は、ここの処理では何も行わない。
【0068】
以下,制御開始SWが0Nされている場合の処理について説明する。
ステップS153のクラッチ接続処理では、制御開始SWが0FF→0Nと変化した場合に、クラッチ接続指令が出力される。既に制御開始されている場合には、電磁クラッチ4bが接続されているため、ここでは何も行わない。
【0069】
次のステップS154では、画像処理装置2における認識状態情報に基づく判断を行い、前述の状態Aまたは状態Bである場合には、そのまま次の目標舵角算出処理を行い、状態Cの場合は、ステップS156へ進み、補正完了フラグの判断を行う。
【0070】
ステップS155の目標舵角算出処理においては、舵角δおよび画像処理装置2により算出された横方向位置偏差Y、ヨー角偏差ψ、前方路面の曲率ρに基づき、目標舵角δ0を算出する。目標舵角は、現在の舵角δに対して、横方向位置偏差およびその微分値,ヨー角偏差,路面曲率のそれぞれに比例した量の補正を与える方法により算出する。
【0071】
δ0=δ+K1×Y+K2×(dY/dt)+K3×ψ+K4×ρ
ここで、K1〜K4はそれぞれ比例定数である。
【0072】
ステップS159では、目標舵角を算出した後、舵角を目標値に一致させるための適切な目標操舵トルクTを下記の式により演算する。
【0073】
T=K5×δ0+K6×δ
ここで、K5,K6はそれぞれ比例定数である。
【0074】
ステップS160では、算出された目標操舵トルクを制御指令として出力することにより処理を終了する。
【0075】
ステップS154の判断で画像処理装置2における認識状態が状態Cであった場合は、ステップS156へ進み、ナビゲーションユニット8における補正完了フラグに基づく判断を行う。ここで、補正完了フラグがlであった場合には、ステップS157へ進み、ナビゲーションユニット8から送信された道路形状情報に基づき目標舵角δ0を下記の式により算出する。
【0076】
δ0=δ+K5×ρ
ここで、K5は比例定数である。
【0077】
以下、画像処理装置2における横方向位置偏差等を用いた場合と同様に、ステップS159へ進み、目標操舵トルクを算出し、ステップS160へ進み、これを制御指令として出力する。
【0078】
一方、ステップS156の判断で補正完了フラグが0であった場合には、ナビゲーションユニット8における道路形状情報についても精度が十分でないため、ステップS158へ進み、制御停止処理を行う。
【0079】
この制御停止処理においては、現在制御中の場合、急激に操舵トルクを0にすると、ドライバにとって違和感が生じるため、徐々に操舵トルクを減少させ、これが0になった後に電磁クラッチ4bを解放することで制御を停止させる。
【0080】
以上,本実施の形態1の処理によれば、画像処理装置2によって得られた道路曲率情報を用いて、ナビゲーションユニット8における自車位置情報が補正され、高精度の自車位置情報が得られるため、画像処理装置2における認識状態が良好でない場合には、ナビゲーションユニット8から得られる道路形状情報を用いて車線追従走行を行うことが可能になり、より広範な条件下で制御効果を得ることが可能となる。
【0081】
また、画像処理装置2における認識状態が所定時間経過の後も良好に戻らない場合、ナビゲーションユニット8における自車位置補正が行われないため、徐々に位置精度が低下することになるが、この場合には補正完了フラグが0にクリアされることによってコントロールユニット9において制御停止処理が実行されるため、不正確な情報に基づいて不適切な制御が実行されることを防止することができる。
【0082】
尚、本実施の形態1においては,認識状態を3段階とした例を示したが、これは最低2段階から、その判断方法に応じてより多くの段階に分類することも可能であり、このような場合にも、画像処理装置2において確実に認識が行われていると判断される場合において、曲率情報をナビゲーションユニット8における自車位置補正に使用するものである。
【0083】
また、画像処理装置2における認識状態の判断に、抽出されるエッジの数,道路形状の変化状態を挙げたが、判断方法はこれに限ったものではなく、エッジの強度,白線位置の色情報,左右白線方向の一致度等を用いることも可能である。
【0084】
また、車速,舵角情報を用いて自車の進行方向を予測しつつ、道路形状変化が適切であるか判断することで、より判断精度を高めることが可能である。
【0085】
さらに、本実施の形態1では、アクチュエータとして、モータ4cと電磁クラッチ4bを備えた操舵アクチュエータ4を操舵機構5に付加した例を示したが、電動式のパワーステアリングをアクチュエータとして用いることも可能である。
【0086】
(実施の形態2)
図16に実施の形態2のコントロールユニット9における処理フローチャートを示す。
【0087】
本実施の形態2は、ナビゲーションユニット8とコントロールユニット9の通信処理において、実施の形態1における情報に加えて、道路分岐点が接近しているとの情報をナビゲーションユニット8からコントロールユニット9に送信し、これをコントロールユニット9内の演算処理における判断に用いるものである。
【0088】
本実施の形態2では、実施例1と同様の手順にて、クラッチ接続処理を行った後、補正完了フラグおよび分岐点接近情報に基づく判断を行う。
【0089】
すなわち、ステップS162において、補正完了フラグ=1、かつ、分岐点が接近していると判断された場合には、ステップS163へ進み、画像処理装置の認識状態に関わらず、ナビゲーションユニット8から送信された道路形状情報に基づき目標舵角δ0を下記の式で算出する。
【0090】
δ0=δ+K5×ρ
ここで、K5は比例定数である。
【0091】
一方、ステップS162で上記の判断が成立しない場合には、実施の形態1と同様に、ステップS154へ進む手順に基づいて処理を行う。
【0092】
以上、本実施の形態2によれば、ナビゲーションユニット8における自車位置が補正された状態であり、かつ、分岐点が接近している場合には、無条件で道路形状情報に基づいて目標舵角を算出するため、分岐点で誤った側の車線を認識して追従を行ってしまうことがない。
【0093】
(実施の形態3)
図17に実施の形態3の画像処理装置2における処理フローチャートを示す。
【0094】
本実施の形態3は、画像処理装置2の処理において、自車前方の道路形状情報および補正完了フラグをナビゲーションユニット8から受信し、この道路形状情報と画像処理に基づく道路形状情報が大きく異なる場合に、画像処理情報が不適切であると判断するものである。
【0095】
本実施の形態3では,実施の形態1に示したものと同様に、図17のステップS60→ステップS61→ステップS62へと進み、走路形状の推定を行う。
【0096】
その後、ステップS65において、認識状態の判定を行うに先だって、ナビゲーションユニット8より道路形状情報を受信し、ステップS66で補正完了フラグが1かどうかを判断し、補正完了フラグが1の場合には、ステップS67へ進み、ナビゲーションユニット8より得られた道路形状と画像処理に基づく道路情報が一致するか否かを判定し、大きく異なる場合には、ステップS68へと進み、状態Cと判定する。
【0097】
一方、ステップS66で補正完了フラグが0の場合、および、ステップS67でナビゲーションユニット8より得られた道路形状と画像処理に基づく道路情報がほぼ一致する場合には、実施の形態1と同様に、ステップS63の認識状態判定以降の処理を行う。
【0098】
ステップS61のエッジ抽出処理においては、道路の白線以外に、道路上の文字表示,汚れ,道路脇の物体などを誤って抽出し、実際の道路形状と異なった道路形状を推定してしまうことがある。
【0099】
しかし、本実施の形態3によれば、ナビゲーションユニット8における自車位置が補正された状態において、ナビゲーションユニット8から得られる道路形状と画像処理に基づく道路形状を比較し、大きく異なっている場合には制御に用いられない画像と判断するため、このような場合においても誤った追従をすることがない。
【図面の簡単な説明】
【図1】実施の形態1における車線追従走行制御装置を示す全体システム図である。
【図2】実施の形態1における操舵アクチュエータを示す詳細図である。
【図3】実施の形態1における画像処理装置を示すブロック図である。
【図4】実施の形態1におけるナビゲーションユニットを示すブロック図である。
【図5】実施の形態1におけるコントロールユニットを示すブロック図である。
【図6】実施の形態1の画像処理装置における処理フローチャートを示す図である。
【図7】道路画像の一例図である。
【図8】道路画像におけるエッジ抽出状態を示す一例図である。
【図9】道路画像におけるエッジ抽出状態を示す他の一例図である。
【図10】認識道路形状の一例図である。
【図11】認識道路形状の他の一例図である。
【図12】認識状態判断の一例図である。
【図13】実施の形態1のナビゲーションユニットにおける処理フローチャートを示す図である。
【図14】曲率情報に基づく位置補正の一例図である。
【図15】実施の形態1のコントロールユニットにおける処理フローチャートを示す図である。
【図16】実施の形態2のコントロールユニットにおける処理フローチャートを示す図である。
【図17】実施の形態3の画像処理装置における処理フローチャートを示す図である。
【符号の説明】
1 CCDカメラ
2 画像処理装置
3 車速センサ
4 操舵アクチュエータ
5 操舵機構
6 舵角センサ
7 GPSアンテナ
8 ナビゲーションユニット
9 コントロールユニット
[0001]
BACKGROUND OF THE INVENTION
The present invention belongs to a technical field of a lane tracking travel control device that performs control for causing a vehicle to follow a forward lane based on control road information.
[0002]
[Prior art]
Conventionally, as a lane tracking travel control device, for example, a device described in Japanese Patent Laid-Open No. 5-297941 is known.
[0003]
The purpose of this publication is to make it possible to accurately detect a road shape from an expected shape based on map data or the like by a navigation system even when there are a plurality of actually measured shapes of a road obtained from a white line image. Technology that derives the predicted shape of the road by the processing means based on the navigation data such as the current position of the car, the driving direction, and map data, and selects the one close to the predicted shape from a plurality of actually measured shapes as the control road information Is described.
[0004]
[Problems to be solved by the invention]
However, in the above-described conventional lane tracking travel control device, when a plurality of road actual measured shapes are detected, the control runway information is based on the comparison with the predicted shape of the road derived based on the navigation data. Although it is difficult to capture the road shape ahead by the photographing means, the road shape is calculated not only when multiple road shapes are detected. In such a situation, it may be difficult to extract a white line from an image. In such a situation, the conventional road information obtained from the white line image is used as control road information. There is a problem that the technology cannot be dealt with and control must be interrupted.
[0005]
On the other hand, Japanese Patent Laid-Open No. 10-273062 discloses a configuration in which steering control is performed by estimating the current curvature radius using the curvature radius of the past road when the white line of the forward running road cannot be obtained. In particular, there is a suggestion that the curvature radius may be obtained from the map information of the navigation system instead of the estimation method using the curvature radius of the past road. However, in order to use the map information of the navigation system, it is essential that the current vehicle position is accurately recognized on the map data (matching process).
[0006]
Here, Japanese Patent Laid-Open No. 6-74778 discloses a configuration for recognizing an intersection when the white line on the front runway is interrupted and matching the current position to the nearest intersection in the map data. However, it is difficult to apply to roads where there are no intersections where white lines are interrupted, such as highways.
[0007]
The present invention has been made paying attention to the above-described problems, and the object of the present invention is to perform matching with the navigation means while the runway is recognized based on the image information, so that the image can be obtained. Provided is a lane tracking control device that enables lane tracking control to continue as it is by using highly accurate track information from navigation means as control road information even if the road cannot be recognized due to information. There is.
[0008]
[Means for Solving the Problems]
  In order to achieve the above object, according to the first aspect of the present invention, in the lane follow-up travel control device that performs control for causing the vehicle to follow the front lane based on the control road information,
  Road information detection means for detecting road information ahead of the vehicle based on the image information;
  Navigation means for determining the own vehicle traveling position on the map based on the map information and the traveling position information from the satellite, and outputting the traveling road information before and after the own vehicle traveling position;
  Map matching processing means for correcting the determined travel position of the host vehicle on the road in the map by comparing the map information in the navigation unit in consideration of the travel distance of the host vehicle according to the vehicle speed;
  After performing the map matching process, if it is determined that the image information is correctly recognized by the runway information detection unit,Road information comparing means for comparing the road information based on the image information obtained by the road information detecting means and the road information outputted from the navigation means;
  By the runway information comparison meansIn the comparison, so that the two track information matchesVehicle position information correcting means for correcting the vehicle position information on the map of the navigation means;
  Before the vehicle position information correction on the navigation means is completed, the road information based on the image information obtained in the road information detection means is selected as control road information, and the vehicle position information correction on the navigation means is selected. Is completed, and when it is determined that the road information obtained based on the image information from the road information detection means is not correctly recognized,Runway information obtained from the navigation meansTheControl runway information selecting means for selecting as control runway information;
  It is characterized by having.
[0009]
In the invention described in claim 2, in the lane following travel control device according to claim 1,
The runway information comparison unit is a unit that performs comparison based on runway curvature information among the runway information obtained from the runway information detection unit and the navigation unit.
[0010]
According to a third aspect of the present invention, in the lane following travel control device according to the first or second aspect,
The vehicle position information correction means is a means for correcting the position in the vehicle traveling direction in the vehicle position information on the navigation means.
[0014]
  Claim 4In the described invention, claims 1 toAny one of Claim 3In the lane following travel control device described in
  In the control runway information selection means, the runway information obtained from the navigation means is selected as the control runway information, and if the recognition of the image information does not return to normal by the runway information detection means over the set time, then the lane tracking Control stop means for stopping traveling control is provided.
[0015]
  Claim 5In the described invention, claims 1 toAny one of Claim 4In the lane following travel control device described in
  The control runway information selecting means is a means for preferentially selecting the runway information obtained from the navigation means as the control runway information when information indicating that the road approach point is approached from the navigation means. Features.
[0016]
  Claim 6In the described invention, claims 1 toAny one of Claim 5In the lane following travel control device described in
  After the vehicle position information correction on the navigation means is completed, if each of the road curvature information in the road information comparison means is greatly different, the road information based on the image information is regarded as abnormal and the lane tracking driving control is prohibited. A control prohibiting means is provided.
[0017]
Operation and effect of the invention
  In the first aspect of the invention, the road information detecting means detects the road information ahead of the vehicle based on the image information, and the navigation means detects the vehicle information on the map based on the map information and the driving position information from the satellite. As the vehicle travel position is determined, the road information before and after the vehicle travel position is output,In the map matching processing means, the determined own vehicle traveling position is corrected on the road in the map by comparing the map information in the navigation means in consideration of the traveling distance of the own vehicle by the vehicle speed,In the runway information comparison means,After performing the map matching process, if it is determined that the image information is correctly recognized by the road information detection means,The road information based on the image information obtained by the road information detection means is compared with the road information output from the navigation means, and the vehicle position information correction means uses the road information comparison means.In the comparison, so that the two track information matchesThe vehicle position information on the navigation means is corrected.The AndIn the control runway information selection means,Before the vehicle position information correction on the navigation means is completed, the road information based on the image information obtained by the road information detection means is selected as the control road information, and the vehicle position information correction on the navigation means is completed. Later, if it is determined that the road information obtained based on the image information from the road information detection means is not correctly recognized,Runway information obtained from navigation meansButSelected as control track informationThe AndThen, control for causing the vehicle to follow the front lane is performed based on the selected control track information.
[0018]
  Therefore, by matching with the navigation means while the road is recognized by the image information, even if the road cannot be recognized by the image information, the high-precision road information from the navigation means is controlled. By using the lane information, it is possible to continue the lane following traveling control as it is.
  In the control runway information selection means, before the vehicle position information correction on the navigation means is completed, the runway information based on the image information obtained by the runway information detection means is selected as the control runway information. By permitting selection from two pieces of track information on the condition that matching with is complete, it is possible to obtain highly accurate control track information at any time before and after the matching is completed.
  In the control runway information selection means, if it is determined that the runway information obtained based on the image information from the runway information detection means is not correctly recognized, the runway information obtained from the navigation means is used as the control runway information. Therefore, when the road is not recognized by the image information, the lane tracking travel control can be continued as it is by using the road information from the navigation means as the road information for control.
  In the runway information comparison unit, when it is determined that the image information is correctly recognized by the runway information detection unit, the runway information comparison process is executed, so the runway information from the runway information detection unit is accurate. By comparing the running road information only in certain cases, the vehicle position information on the navigation means can be matched with high accuracy.
[0019]
In the invention described in claim 2, in the runway information comparing means, the comparison is performed based on the runway curvature information among the runway information obtained from the runway information detecting means and the navigation means.
[0020]
Therefore, the comparison of the runway information is performed based on the runway curvature information, which is common information of the runway information detecting means and the navigation means, in the runway information.
[0021]
In the invention according to claim 3, the own vehicle position information correcting means corrects the own vehicle traveling direction position in the own vehicle position information on the navigation means.
[0022]
Therefore, when performing matching with the navigation means, the own vehicle traveling direction position, which is important for improving the lane tracking performance, is corrected based on the comparison of the road information.
[0029]
  Claim 4In the described invention, in the control stop means, the runway information obtained from the navigation means is selected as the control runway information in the control runway information selection means, and then the image information is detected in the runway information detection means over a set time. If the recognition of the vehicle does not return to normal, the lane tracking travel control is stopped.
[0030]
That is, when the image information recognition does not return to normal for a long time by the lane information detection means, the position accuracy is gradually lowered by the vehicle position correction not being performed in the navigation means.
[0031]
On the other hand, when the set time elapses, the lane tracking traveling control is stopped, so that inappropriate lane tracking control can be prevented from being executed based on inaccurate information.
[0032]
  Claim 5In the described invention, when the information indicating that the road approach point has been approached is output from the navigation means in the control road information selection means, the road information obtained from the navigation means is preferentially used as the control road information. Selected.
[0033]
That is, when the road information based on the image information is still selected as the control road information when traveling on the road branch point, the wrong side lane may be recognized and followed at the road branch point.
[0034]
On the other hand, when information indicating that the vehicle is approaching the road branch point is entered in advance by the navigation means, the wrong lane at the road branch point is recognized by using the road information obtained from the navigation means as the control road information. Thus, it is possible to prevent following.
[0035]
  Claim 6In the described invention, after the vehicle position information correction on the navigation means is completed in the control prohibiting means, if the respective road curvature information in the road information comparing means is greatly different, the road information based on the image information Is regarded as abnormal, and lane following travel control is prohibited.
[0036]
That is, in the image processing, when a character display on the road, dirt, an object on the road, or the like is mistakenly recognized as a road, it follows the wrongly recognized lane.
[0037]
On the other hand, abnormalities in the road information based on the image information are judged based on whether or not the respective road curvature information in the road information comparison means is greatly different. If the road information is largely different, the road information based on the image information is regarded as abnormal and the lane is followed. By prohibiting the travel control, it is possible to prevent the vehicle from following a lane that has been mistakenly recognized.
[0038]
DETAILED DESCRIPTION OF THE INVENTION
(Embodiment 1)
First, the configuration will be described.
[0039]
FIG. 1 is an overall system diagram showing a lane following travel control apparatus according to the first embodiment. 1 is a CCD camera provided to photograph the front in the traveling direction, and 2 is track information based on forward image information from the CCD camera 1. 3 is a vehicle speed sensor provided on a drive shaft, wheels, etc. for measuring the vehicle speed, 4 is a steering actuator provided in the steering mechanism 5, 6 is a steering angle sensor for measuring the steering angle, Reference numeral 7 denotes a GPS antenna for receiving radio waves from GPS satellites (GPS is an abbreviation for Global Positioning System), 8 is a navigation unit, and 9 is a control unit.
[0040]
Signals from the image processing device 2, the vehicle speed sensor 3 and the steering angle sensor 6 are input to the control unit 9, and a steering command calculated based on these signals is output to the steering actuator 4. In addition, signals are input to the navigation unit 8 from the GPS antenna 7 and the vehicle speed sensor 3. Further, the control unit 9 and the navigation unit 8 are connected by digital communication, and information calculated in the units 8 and 9 can be exchanged.
[0041]
FIG. 2 is a detailed view of the steering actuator portion. The steering mechanism 5 includes a steering wheel 5a, a steering shaft 5b, and a steering gear 5c. The steering actuator 4 includes a worm gear 4a, an electromagnetic clutch 4b, and a motor 4c. Configured. The motor 4c generates a control torque according to a command current output from the control unit 9, and the electromagnetic clutch 4b is connected / released according to a command from the control unit 9. When the electromagnetic clutch 4b is released, the control torque from the motor 4c is not applied to the steering mechanism 5, so that a normal steering mechanism without any control is obtained. Lane-following travel is performed by the command current to 4c.
[0042]
  FIG. 3 shows a block diagram of the image processing apparatus 2.
The image processing apparatus 2 receives image information in front of the vehicle by the CCD camera 1, extracts a lane information from the image information, and a lane shape estimation unit 2b that estimates a lane shape based on the extracted lane information. And a position for calculating deviation information of the vehicle position with respect to the lane center based on the estimated runway shapedeviationThe calculation unit 2c is configured to output calculation results (lateral deviation, yaw angle deviation, road curvature) in the road shape estimation unit 2b and the position deviation calculation unit 2c.
[0043]
Further, the lane extraction process includes a recognition state determination unit 2d that determines whether or not the road shape can be correctly recognized by the image according to the extraction state in 2a and the estimation state in the road shape estimation unit 2b. The recognition state information is output to the control unit 9 together with the running road shape and the calculation result.
[0044]
  FIG. 4 shows a block diagram of the navigation unit 8.
The navigation unit 8 includes a latitude / longitude calculation unit 8a that calculates the latitude / longitude of the vehicle based on satellite position / time information sent from the GPS antenna 7, a map information storage unit 8b that stores map information, Latitude / longitude information from the latitude / longitude calculation unit 8a, map information from the map information storage unit 8b, from the vehicle speed sensor 3ofA map matching processing unit 8c that performs map matching based on vehicle speed information and road curvature information (running road shape information) from the image processing apparatus 2, and a screen that displays a screen based on the vehicle position on the map determined by map matching A display unit 8 d is provided, and the road shape information and the map matching state information after the map matching process are output to the control unit 9.
[0045]
FIG. 5 shows a block diagram of the control unit 9.
The control unit 9 includes steering angle information from the steering angle sensor 6, vehicle speed information from the vehicle speed sensor 3, road curvature information (running road shape information) and map matching state information from the navigation unit 8, and road curvature from the image processing device 2. (Runway shape) and recognition state information are input. And the information selection part 9a which selects track shape information based on the map matching state information from the navigation unit 8, and the recognition state information from the image processing apparatus 2, and the target rudder angle based on the selected information and the present rudder angle A target steering angle calculation unit 9b that calculates a target steering torque, a target steering torque calculation unit 9c that calculates a target steering torque based on the target steering angle value and the current steering angle, and a motor that calculates a motor control current based on the steering torque calculation value It is configured by a driver 9d.
[0046]
Next, the operation will be described.
[0047]
[Processing in image processing device]
FIG. 6 shows a processing flowchart in the image processing apparatus 2. This subroutine is called by a timer interrupt at regular time intervals.
[0048]
In step S60, an image of the forward running road photographed by the CCD camera 1 is captured. This is, for example, an image as shown in FIG.
[0049]
In step S61, an edge extraction process is performed on the travel image.
[0050]
In step S62, the extracted edge is approximated to a polynomial to obtain an estimated shape of the runway.
[0051]
In step S63, the quality of the recognition state is determined according to the number of edges extracted in the edge extraction process and the change state of the estimated shape of the runway.
[0052]
In step S64, data is transmitted to the control unit 9.
[0053]
For example, in the edge extraction process for the road image shown in FIG. 7, when sufficient edges are detected to estimate the road shape as shown in FIG. 8, and the road shape is estimated as shown in FIG. It is conceivable that the number of edges is insufficient.
[0054]
As for the estimated road shape, as shown in FIG. 10, there is little change in the road shape and it is considered that continuity with the previous estimated shape is maintained, and as shown in FIG. It may be considered that the change in shape is large and continuity with the previous estimated shape is not maintained.
[0055]
In step S63 (recognition state determination unit 2d), a comprehensive determination of the recognition state is performed based on these states. FIG. 12 shows an example in which the determination state is divided into three stages. Here, the three-stage classification is
State A: Can be used for both control and navigation correction.
State B: Can be used for control. Cannot be used for navigation correction.
State C: Cannot be used for both control and navigation correction.
Is expressed.
[0056]
In step S <b> 64, the road curvature based on the estimated shape of the running path estimated in the above process, the left and right of the vehicle with respect to the lane position, the yaw angle deviation, and the recognition state information are transmitted to the control unit 9.
[0057]
[Processing in the navigation unit]
FIG. 13 shows a process flowchart in the navigation unit 8. This subroutine is called by a timer interrupt at regular time intervals.
[0058]
In step S130, the vehicle speed is captured, and in step S131, a signal sent from a GPS satellite is received. In the next step S132, the road curvature information calculated in the image processing apparatus 2 and the recognition state information in the image processing apparatus 2 are received by the control unit 9. Receive via.
[0059]
In the latitude / longitude calculation processing in step S133, the distance between the satellite and the own vehicle is determined by comparing the transmission time information sent from the GPS satellite and the current time information (not shown) in the navigation unit 8. The vehicle position is calculated by measuring and integrating distance information from a plurality of satellites.
[0060]
In the map matching process in step S134, the calculated vehicle position is corrected on the road in the map by comparing the map information in the navigation unit 8 in consideration of the traveling distance of the vehicle according to the vehicle speed. Prevents the location from being off-road and increases the accuracy of the vehicle location information.
[0061]
In step S135, after performing the map matching process, it is determined whether or not the correction process based on the curvature is performed based on the received recognition state information in the image processing apparatus 2. If the recognition state is the above-described state A, the image information can be used for navigation correction. Therefore, the process proceeds to the next step S136, and correction processing based on curvature information is performed. Does not perform correction processing based on curvature. If the latter state continues for a predetermined time, the correction completion flag is cleared to 0 in step S140.
[0062]
In the correction process based on the curvature information in step S136, position correction using the road curvature information calculated in the image processing device 2 is performed. This is shown in FIG. In FIG. 14, after the map matching process, the vehicle position is recognized as a position on the road in the map. The road shape (a) before and after the vehicle in the map is compared with the road curvature information (b) obtained by image processing, and the vehicle position is corrected so as to match (c).
[0063]
In this correction process, when a matching vehicle position is found in the vicinity of the vehicle position after the map matching, the process proceeds to step S138, the correction completion flag is set to 1, and a state where no correction is found continues for a predetermined time In step S139, the correction completion flag is cleared to zero. If it is not found, the position is not corrected.
[0064]
Based on the vehicle position obtained in the above procedure, road shape information ahead of the vehicle is acquired from the map, and in step S141, this subroutine is completed by transmitting it to the control unit 9 together with the correction completion flag.
[0065]
[Processing in the control unit]
FIG. 15 shows a process flowchart in the control unit 9. This subroutine is called by a timer interrupt at regular time intervals.
[0066]
In step S150, the steering angle is read. In step S151, communication processing with the image processing apparatus 2 and the navigation unit 8 is performed. In communication with the image processing device 2, road curvature, left and right of the vehicle with respect to the lane position, yaw angle deviation, and recognition state information are received. In communication with the navigation unit 8, road curvature information received from the image processing device 2, While transmitting recognition state information, it receives road shape information and a correction completion flag.
[0067]
In the next step S152, it is determined whether or not the control start SW (not shown) is set to 0N. If it is set to 0N, a clutch connection process is performed, and then a subsequent control command calculation is performed. If not, the process proceeds to step S161 to perform control stop processing. In the control stop process, if the steering torque is suddenly reduced to 0 when the control is currently being performed, the driver feels uncomfortable. Therefore, the steering torque is gradually decreased and the electromagnetic clutch 4b is released after this becomes zero. Stop control. Further, when the control is not being executed and the electromagnetic clutch 4b is released, nothing is performed in this process.
[0068]
Hereinafter, processing when the control start SW is 0N will be described.
In the clutch connection process in step S153, when the control start SW changes from 0FF to 0N, a clutch connection command is output. If the control has already started, the electromagnetic clutch 4b is connected, so nothing is done here.
[0069]
In the next step S154, a determination based on the recognition state information in the image processing apparatus 2 is performed. If the state is the state A or the state B, the next target rudder angle calculation process is performed as it is. Proceeding to step S156, the correction completion flag is determined.
[0070]
In the target rudder angle calculation process in step S155, the target rudder angle δ0 is calculated based on the rudder angle δ, the lateral position deviation Y calculated by the image processing device 2, the yaw angle deviation ψ, and the curvature ρ of the front road surface. The target rudder angle is calculated by a method of giving corrections of amounts proportional to the lateral position deviation and its differential value, yaw angle deviation, and road surface curvature with respect to the current rudder angle δ.
[0071]
δ0 = δ + K1 × Y + K2 × (dY / dt) + K3 × ψ + K4 × ρ
Here, K1 to K4 are proportional constants, respectively.
[0072]
In step S159, after calculating the target steering angle, an appropriate target steering torque T for making the steering angle coincide with the target value is calculated by the following equation.
[0073]
T = K5 × δ0 + K6 × δ
Here, K5 and K6 are proportional constants, respectively.
[0074]
In step S160, the calculated target steering torque is output as a control command, and the process ends.
[0075]
If it is determined in step S154 that the recognition state in the image processing apparatus 2 is state C, the process proceeds to step S156, and determination based on the correction completion flag in the navigation unit 8 is performed. Here, when the correction completion flag is 1, the process proceeds to step S157, and the target steering angle δ0 is calculated by the following formula based on the road shape information transmitted from the navigation unit 8.
[0076]
δ0 = δ + K5 × ρ
Here, K5 is a proportionality constant.
[0077]
Thereafter, similarly to the case where the lateral position deviation or the like in the image processing apparatus 2 is used, the process proceeds to step S159, the target steering torque is calculated, the process proceeds to step S160, and this is output as a control command.
[0078]
On the other hand, if the correction completion flag is 0 in the determination in step S156, the accuracy of the road shape information in the navigation unit 8 is not sufficient, so the process proceeds to step S158 and the control stop process is performed.
[0079]
In this control stop process, if the steering torque is suddenly reduced to 0 when the control is currently being performed, the driver feels uncomfortable, so the steering torque is gradually reduced and the electromagnetic clutch 4b is released after this becomes zero. To stop control.
[0080]
As described above, according to the processing of the first embodiment, the vehicle position information in the navigation unit 8 is corrected using the road curvature information obtained by the image processing device 2, and highly accurate vehicle position information is obtained. Therefore, when the recognition state in the image processing device 2 is not good, it becomes possible to perform lane tracking using the road shape information obtained from the navigation unit 8 and obtain a control effect under a wider range of conditions. Is possible.
[0081]
Also, if the recognition state in the image processing device 2 does not return well even after a predetermined time has elapsed, the vehicle position correction in the navigation unit 8 is not performed, so the position accuracy gradually decreases. Since the control completion process is executed in the control unit 9 by clearing the correction completion flag to 0, inappropriate control based on inaccurate information can be prevented.
[0082]
In the first embodiment, an example in which the recognition state has three levels has been described. However, this can be classified from a minimum of two levels to more levels according to the determination method. Even in such a case, when it is determined that the image processing apparatus 2 is surely recognizing, the curvature information is used for the vehicle position correction in the navigation unit 8.
[0083]
Further, the recognition state in the image processing apparatus 2 includes the number of extracted edges and the change state of the road shape. However, the determination method is not limited to this, and the strength of the edge and the color information of the white line position. It is also possible to use the degree of coincidence in the left and right white line directions.
[0084]
Further, it is possible to further improve the determination accuracy by determining whether the road shape change is appropriate while predicting the traveling direction of the own vehicle using the vehicle speed and the steering angle information.
[0085]
Furthermore, in the first embodiment, the example in which the steering actuator 4 provided with the motor 4c and the electromagnetic clutch 4b is added to the steering mechanism 5 as the actuator is shown. However, electric power steering can also be used as the actuator. is there.
[0086]
(Embodiment 2)
FIG. 16 shows a process flowchart in the control unit 9 of the second embodiment.
[0087]
In the second embodiment, in the communication process between the navigation unit 8 and the control unit 9, in addition to the information in the first embodiment, information that the road junction is approaching is transmitted from the navigation unit 8 to the control unit 9. This is used for judgment in the arithmetic processing in the control unit 9.
[0088]
In the second embodiment, the clutch connection process is performed in the same procedure as in the first embodiment, and then a determination is made based on the correction completion flag and the branch point approach information.
[0089]
That is, if it is determined in step S162 that the correction completion flag = 1 and the branch point is approaching, the process proceeds to step S163, and is transmitted from the navigation unit 8 regardless of the recognition state of the image processing apparatus. Based on the road shape information, the target rudder angle δ0 is calculated by the following equation.
[0090]
δ0 = δ + K5 × ρ
Here, K5 is a proportionality constant.
[0091]
On the other hand, if the above determination is not established in step S162, the processing is performed based on the procedure of proceeding to step S154, as in the first embodiment.
[0092]
As described above, according to the second embodiment, the target rudder is unconditionally based on the road shape information when the vehicle position in the navigation unit 8 is corrected and the branch point is approaching. Since the corner is calculated, the wrong side lane is not recognized at the branching point and is not followed.
[0093]
(Embodiment 3)
FIG. 17 shows a processing flowchart in the image processing apparatus 2 according to the third embodiment.
[0094]
In the third embodiment, in the processing of the image processing device 2, road shape information ahead of the host vehicle and the correction completion flag are received from the navigation unit 8, and the road shape information and the road shape information based on the image processing are greatly different. In addition, it is determined that the image processing information is inappropriate.
[0095]
In the third embodiment, as in the case of the first embodiment, the process proceeds from step S60 to step S61 to step S62 in FIG.
[0096]
Thereafter, in step S65, the road shape information is received from the navigation unit 8 before the recognition state is determined. In step S66, it is determined whether the correction completion flag is 1. If the correction completion flag is 1, Proceeding to step S67, it is determined whether or not the road shape obtained from the navigation unit 8 matches the road information based on the image processing. If the road information is largely different, the process proceeds to step S68, where state C is determined.
[0097]
On the other hand, if the correction completion flag is 0 in step S66, and if the road shape obtained from the navigation unit 8 in step S67 and the road information based on the image processing substantially match, as in the first embodiment, Processing after the recognition state determination in step S63 is performed.
[0098]
In the edge extraction process of step S61, in addition to the road white line, character display on the road, dirt, roadside objects, and the like may be erroneously extracted to estimate a road shape different from the actual road shape. is there.
[0099]
However, according to the third embodiment, when the vehicle position in the navigation unit 8 is corrected, the road shape obtained from the navigation unit 8 and the road shape based on the image processing are compared and greatly different. Is determined to be an image that is not used for control, and in such a case, there is no false tracking.
[Brief description of the drawings]
FIG. 1 is an overall system diagram showing a lane following travel control device in a first embodiment.
FIG. 2 is a detailed view showing a steering actuator in the first embodiment.
3 is a block diagram illustrating an image processing apparatus according to Embodiment 1. FIG.
FIG. 4 is a block diagram showing a navigation unit in the first embodiment.
FIG. 5 is a block diagram showing a control unit in the first embodiment.
FIG. 6 is a flowchart illustrating a process in the image processing apparatus according to the first embodiment.
FIG. 7 is an example of a road image.
FIG. 8 is an example diagram illustrating an edge extraction state in a road image.
FIG. 9 is another example diagram showing an edge extraction state in a road image.
FIG. 10 is an example of a recognized road shape.
FIG. 11 is another example of a recognized road shape.
FIG. 12 is an example of recognition state determination.
FIG. 13 is a diagram showing a processing flowchart in the navigation unit of the first embodiment.
FIG. 14 is an example of position correction based on curvature information.
FIG. 15 is a diagram illustrating a processing flowchart in the control unit according to the first embodiment;
FIG. 16 is a diagram showing a processing flowchart in the control unit of the second embodiment.
FIG. 17 is a diagram illustrating a processing flowchart in the image processing apparatus according to the third embodiment.
[Explanation of symbols]
1 CCD camera
2 Image processing device
3 Vehicle speed sensor
4 Steering actuator
5 Steering mechanism
6 Rudder angle sensor
7 GPS antenna
8 Navigation unit
9 Control unit

Claims (6)

制御用走路情報に基づいて車両を前方車線に追従させる制御を行う車線追従走行制御装置において、
画像情報に基づき自車前方の走路情報を検出する走路情報検出手段と、
地図情報及び衛星からの走行位置情報に基づき地図上の自車走行位置を決定すると共に、自車走行位置前後の走路情報を出力するナビゲーション手段と、
前記決定された自車走行位置を、車速による自車の進行距離を考慮して前記ナビゲーション手段内の地図情報を照らし合わせて地図における道路上に補正するマップマッチング処理手段と、
前記マップマッチング処理を行った後、前記走路情報検出手段により画像情報の正しい認識が行われていると判断した場合には、前記走路情報検出手段により得られた画像情報に基づく走路情報と、前記ナビゲーション手段から出力された走路情報とを比較する走路情報比較手段と、
前記走路情報比較手段による比較において、2つの走路情報が一致するように前記ナビゲーション手段の地図上の自車位置情報を補正する自車位置情報補正手段と、
前記ナビゲーション手段上の自車位置情報補正が完了する前は、前記走路情報検出手段において得られた画像情報に基づく走路情報を制御用走路情報として選択し、前記ナビゲーション手段上の自車位置情報補正が完了した後であって、前記走路情報検出手段からの画像情報に基いて得られた走路情報が正しく認識されていないと判断した場合には、前記ナビゲーション手段から得られる走路情報制御用走路情報として選択する制御用走路情報選択手段と、
を備えていることを特徴とする車線追従走行制御装置。
In a lane tracking travel control device that performs control for tracking the vehicle in the front lane based on the control road information,
Road information detection means for detecting road information ahead of the vehicle based on the image information;
Navigation means for determining the own vehicle traveling position on the map based on the map information and the traveling position information from the satellite, and outputting the traveling road information before and after the own vehicle traveling position;
Map matching processing means for correcting the determined travel position of the host vehicle on the road in the map by comparing the map information in the navigation unit in consideration of the travel distance of the host vehicle according to the vehicle speed;
After performing the map matching process, if it is determined that the image information is correctly recognized by the road information detection means, the road information based on the image information obtained by the road information detection means, A road information comparison means for comparing the road information output from the navigation means;
In the comparison by the road information comparison means , the vehicle position information correction means for correcting the vehicle position information on the map of the navigation means so that two pieces of road information match ,
Before the vehicle position information correction on the navigation means is completed, the road information based on the image information obtained in the road information detection means is selected as control road information, and the vehicle position information correction on the navigation means is selected. Is completed, and when it is determined that the road information obtained based on the image information from the road information detection means is not correctly recognized, the road information obtained from the navigation means is used as the control road. Control road information selection means to select as information,
A lane-following travel control device comprising:
請求項1に記載の車線追従走行制御装置において、
前記走路情報比較手段を、前記走路情報検出手段と前記ナビゲーション手段から得られた走路情報のうち走路曲率情報に基づき比較を行う手段としたことを特徴とする車線追従走行制御装置。
In the lane following travel control device according to claim 1,
A lane tracking travel control device characterized in that the travel path information comparison means is a means for performing comparison based on travel path curvature information among the travel path information obtained from the travel path information detection means and the navigation means.
請求項1または請求項2に記載の車線追従走行制御装置において、
前記自車位置情報補正手段を、前記ナビゲーション手段上の自車位置情報のうち自車進行方向位置を補正する手段としたことを特徴とする。
In the lane following travel control device according to claim 1 or 2,
The vehicle position information correction means is a means for correcting the position in the vehicle traveling direction in the vehicle position information on the navigation means.
請求項1ないし請求項3の何れか1項に記載の車線追従走行制御装置において、
前記制御用走路情報選択手段においてナビゲーション手段から得られる走路情報を制御用走路情報として選択し、かつ、その後、設定時間にわたって走路情報検出手段で画像情報の認識が正常に戻らない場合には車線追従走行制御を停止する制御停止手段を設けたことを特徴とする車線追従走行制御装置。
In the lane following travel control device according to any one of claims 1 to 3,
In the control runway information selection means, the runway information obtained from the navigation means is selected as the control runway information, and if the recognition of the image information does not return to normal by the runway information detection means over the set time, then the lane tracking A lane tracking travel control device, characterized in that a control stop means for stopping travel control is provided .
請求項1ないし請求項4の何れか1項に記載の車線追従走行制御装置において、
前記制御用走路情報選択手段を、ナビゲーション手段から道路分岐点に接近したとの情報が出力された場合、ナビゲーション手段から得られる走路情報を制御用走路情報として優先的に選択する手段としたことを特徴とする車線追従走行制御装置。
In the lane following travel control device according to any one of claims 1 to 4,
The control runway information selecting means is a means for preferentially selecting the runway information obtained from the navigation means as the control runway information when information indicating that the road approach point is approached from the navigation means. A lane following travel control device.
請求項1ないし請求項5の何れか1項に記載の車線追従走行制御装置において、
前記ナビゲーション手段上の自車位置情報補正が完了した後は、前記走路情報比較手段におけるそれぞれの走路曲率情報が大きく異なる場合は、画像情報に基づく走路情報を異常とみなして車線追従走行制御を禁止する制御禁止手段を設けたことを特徴とする車線追従走行制御装置。
In the lane following travel control device according to any one of claims 1 to 5,
After the vehicle position information correction on the navigation means is completed, if each of the road curvature information in the road information comparison means is greatly different, the road information based on the image information is regarded as abnormal and the lane tracking driving control is prohibited. A lane following travel control device, characterized in that a control prohibiting means is provided .
JP2000192494A 2000-06-27 2000-06-27 Lane tracking control device Expired - Fee Related JP3692910B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000192494A JP3692910B2 (en) 2000-06-27 2000-06-27 Lane tracking control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000192494A JP3692910B2 (en) 2000-06-27 2000-06-27 Lane tracking control device

Publications (2)

Publication Number Publication Date
JP2002008199A JP2002008199A (en) 2002-01-11
JP3692910B2 true JP3692910B2 (en) 2005-09-07

Family

ID=18691616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000192494A Expired - Fee Related JP3692910B2 (en) 2000-06-27 2000-06-27 Lane tracking control device

Country Status (1)

Country Link
JP (1) JP3692910B2 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4092974B2 (en) * 2002-08-01 2008-05-28 日産自動車株式会社 Vehicle travel control device
JP4576914B2 (en) * 2004-07-20 2010-11-10 アイシン精機株式会社 Vehicle lane travel support device
JP4899351B2 (en) * 2005-06-17 2012-03-21 株式会社デンソー Travel condition determination device and in-vehicle navigation device
JP4392389B2 (en) 2005-06-27 2009-12-24 本田技研工業株式会社 Vehicle and lane recognition device
JP4046742B2 (en) * 2005-07-14 2008-02-13 三菱電機株式会社 Road shape estimation device
US8363104B2 (en) 2008-09-25 2013-01-29 Clarion Co., Ltd. Lane determining device and navigation system
JP5547607B2 (en) * 2010-10-29 2014-07-16 アイシン精機株式会社 Vehicle lateral motion control device
US8857926B2 (en) * 2011-01-11 2014-10-14 Azek Building Products, Inc. Deck storage bin system
US9399464B2 (en) 2012-07-06 2016-07-26 Toyota Jidosha Kabushiki Kaisha Vehicle cruise control device
JP6088316B2 (en) * 2013-03-28 2017-03-01 富士重工業株式会社 Vehicle travel control device
JP6190830B2 (en) * 2015-02-10 2017-08-30 本田技研工業株式会社 Driving support system and driving support method
JP6539129B2 (en) * 2015-06-30 2019-07-03 株式会社Subaru Vehicle position estimation device, steering control device using the same, and vehicle position estimation method
JP6535561B2 (en) * 2015-09-25 2019-06-26 株式会社Subaru Vehicle travel control device
JP6485915B2 (en) * 2015-10-28 2019-03-20 本田技研工業株式会社 Road lane marking recognition device, vehicle control device, road lane marking recognition method, and road lane marking recognition program
JP6766738B2 (en) * 2017-04-19 2020-10-14 トヨタ自動車株式会社 Path tracking control system
DE102017213390A1 (en) * 2017-08-02 2019-02-07 Robert Bosch Gmbh Method and apparatus for operating an automated mobile system
KR102432430B1 (en) * 2017-12-22 2022-08-17 현대자동차주식회사 Vehicle and controlling method for the same
JP7109496B2 (en) * 2020-03-13 2022-07-29 本田技研工業株式会社 Travel control device, vehicle, travel control method and program
JP2022039469A (en) * 2020-08-28 2022-03-10 本田技研工業株式会社 Vehicle travel control device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3564547B2 (en) * 1995-04-17 2004-09-15 本田技研工業株式会社 Automatic driving guidance device
JP3194350B2 (en) * 1995-11-24 2001-07-30 株式会社ダイフク Split pallet for transportation and car transfer device to this pallet
JP3728823B2 (en) * 1996-09-03 2005-12-21 日産自動車株式会社 Vehicle travel control device
JP3795299B2 (en) * 2000-04-07 2006-07-12 本田技研工業株式会社 Vehicle control device

Also Published As

Publication number Publication date
JP2002008199A (en) 2002-01-11

Similar Documents

Publication Publication Date Title
JP3692910B2 (en) Lane tracking control device
JP5747787B2 (en) Lane recognition device
KR102090512B1 (en) Vehicle localization device
US9280712B2 (en) Apparatus and method for recognizing a lane
EP1395851B1 (en) Sensing apparatus for vehicles
US20090118994A1 (en) Vehicle and lane recognizing device
EP3708466B1 (en) Parking assistance device and parking assistance method
US11092442B2 (en) Host vehicle position estimation device
US20210070288A1 (en) Driving assistance device
CN110167813B (en) Travel route recognition device and travel route recognition method
US10611240B2 (en) Vehicle cruise control apparatus and cruise control method
EP3511922B1 (en) Vehicle travel control method and travel control device
CN112533810A (en) Travel track correction method, travel control method, and travel track correction device
US20190180117A1 (en) Roadside object recognition apparatus
JP6521753B2 (en) Vehicle positioning system
JP6941178B2 (en) Automatic operation control device and method
CN109689459B (en) Vehicle travel control method and travel control device
JP2002296350A (en) Object detector
JP5162974B2 (en) Front vehicle detection device and braking / driving force control device
JP3930309B2 (en) Vehicle driving support device
JP6625152B2 (en) Driving support device and driving support method
JP5682302B2 (en) Traveling road estimation device, method and program
US11156466B2 (en) Lane determination device
CN114270413A (en) Method for detecting exit lane of motor vehicle
US20180096210A1 (en) Driving area recognition device and method thereof

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20041112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050613

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090701

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100701

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110701

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120701

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120701

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130701

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees