JP2004078334A - Traveling route generation device - Google Patents

Traveling route generation device Download PDF

Info

Publication number
JP2004078334A
JP2004078334A JP2002234401A JP2002234401A JP2004078334A JP 2004078334 A JP2004078334 A JP 2004078334A JP 2002234401 A JP2002234401 A JP 2002234401A JP 2002234401 A JP2002234401 A JP 2002234401A JP 2004078334 A JP2004078334 A JP 2004078334A
Authority
JP
Japan
Prior art keywords
route
vector
recognized
landscape
generation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002234401A
Other languages
Japanese (ja)
Other versions
JP4019854B2 (en
Inventor
Yasuhisa Hayakawa
早川 泰久
Takeshi Kimura
木村 健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2002234401A priority Critical patent/JP4019854B2/en
Publication of JP2004078334A publication Critical patent/JP2004078334A/en
Application granted granted Critical
Publication of JP4019854B2 publication Critical patent/JP4019854B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Steering Control In Accordance With Driving Conditions (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a traveling route generation device which can continue an automatic steering control when the state in which the route is missed intermittently continues and ensure enough time for a driver to respond even when the state in which the route is missed continues. <P>SOLUTION: The traveling route generation device 12 is provided with a scene vector string recognition means 14 that recognizes a vector string, which connects characteristic points in an imaging scene, as the scene vector string; a route reproduction data computing means 15 which computes positional/directional relations between the recognized scene vector string and a fixed route as the route reproduction data; a fixed route recognition determining means 13 which determines whether the fixed route is recognized; and a fixed route presuming means 16 which presumes the location/posture of the fixed route on the basis of the scene vector string thus recognized and route reproduction data thus computed. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、ある経路に沿って自動操舵を行うことにより、自動操舵追従する車両を誘導するための走行経路生成装置の技術分野に関する。
【0002】
【従来の技術】
従来、白線認識等により与えられた経路を自動操舵することで経路追従走行する自動操舵車両が公知である。ところが、これらの自動操舵車両が経路誘導手段を失った場合、自動操舵制御を行うための参照情報の取得が停止する。
【0003】
例えば、特開平10−31799号公報には、白線を検出するCCDカメラに加えて側壁までの距離を検出する手段を有し、白線が検出できない場合は側壁に沿って操舵制御を行う技術が記載されている。しかし、側壁に沿って操舵制御を行う場合は横方向の偏差しか見ておらず、また側壁が連続しているかどうかを予め知ることはできないため、自動操舵の継続には前方へと続く経路情報の取得が望まれる。
【0004】
【発明が解決しようとする課題】
上記のように自動操舵車両を誘導するための経路としてCCDカメラによる白線認識を用いる場合、特に夜間においては白線の見通しは道路の照明状況に依存するため、遠くまで見渡すことが難しい状況が生じるとともに、路面が湿った状況においては照明の反射により白線の認識が途絶えがちとなり、断続的に経路を見失ってしまう場合がある。
【0005】
本発明は、上記問題点に着目してなされたもので、その目的とするところは、自動操舵するための経路を見失ったとき、夜間や路面が湿った状況でも認識が容易な風景の特徴点に基づいて経路の推定を行うことにより、経路を見失う状態が断続的に継続する場合に自動操舵制御を継続することができ、経路を見失う状態が続く場合でもドライバが対応可能な余裕時間を確保することができる走行経路生成装置を提供することにある。
【0006】
【課題を解決するための手段】
上記目的を達成するため、本発明では、自車前方の風景を撮像する撮像手段と、撮像風景から既定経路を認識する既定経路認識手段と、認識された既定経路に基づいて自車の操舵角を制御する自動操舵制御手段と、を備え、走行中の道路に沿って自動操舵による追従走行を行う車両の走行経路生成装置において、撮像風景内の特徴的なポイントを結ぶベクトル列を風景ベクトル列として認識する風景ベクトル列認識手段と、認識された風景ベクトル列と既定経路との位置・方向関係を経路再現データとして算出する経路再現データ算出手段と、既定経路を認識したかどうかを判断する既定経路認識判断手段と、既定経路を認識しないと判断されたとき、認識された風景ベクトル列と算出された経路再現データとに基づいて既定経路の位置・姿勢を推定する既定経路推定手段と、を設けたことを特徴とする。
【0007】
【発明の効果】
よって、本発明にあっては、認識した既定経路に基づいて自動操舵走行を行っている車両が、自動操舵の経路を見失った場合でも、推定された経路が供給されるので、経路を見失う状態が断続的に継続する場合に自動操舵制御を継続することができ、経路を見失う状態が続く場合でもドライバが対応可能な余裕時間を確保することができる。
【0008】
【発明の実施の形態】
(第1実施例)
まず、構成を説明する。
図1は、第1実施例の走行経路生成装置を適用した車両を示す構成図である。
【0009】
図において、1はCCDカメラ、2は画像処理CPU、3はGPSアンテナ、4は地図データ、5はジャイロセンサ、6は車輪速度センサ、7は操舵角センサ、8は自車走行情報検出装置、9はナビゲーションシステム装置、10は自動操舵コントローラ、11は車両制御CPU、12は走行経路生成装置である。
【0010】
CCDカメラ1は、画像処理CPU2を経由して前方の既定経路を認識し、既定経路に対する自車のヨー角および位置のずれを算出する。特に図示していないが、通常、画像処理CPU2で計測されたこれらの値は車両制御CPU11へと送信され、既定経路を追従制御するように自動操舵コントローラ10へと指令が出力される。
【0011】
既定経路と風景ベクトルは、同じくCCDカメラ1および画像処理CPU2の一連の処理により、走行経路生成装置12内の風景ベクトル列認識手段14で認識される。なお、走行経路生成装置12内の既定経路認識手段13は、CCDカメラ1と画像処理CPU2とは別構成の公知の装置によって供給する構成としても良い。
【0012】
GPSアンテナ3、地図データ4によって取得された情報は、ナビゲーションシステム装置9を経て、前方道路形状およびその道路上の大まかな位置を走行経路生成装置12の経路再現データ算出手段15へと供給する。
【0013】
ジャイロセンサ5、車輪速度センサ6および操舵角センサ7は、自車走行情報検出装置8によって、自車のヨー角変化、縦・横方向の変位を計測し走行経路生成装置12へと供給する。車両制御CPU11は、自動操舵制御車両に必要となる各種ロジックの演算を司る部分である。
【0014】
経路再現データ算出手段15は、風景ベクトル列認識手段14により認識された風景ベクトル列と、既定経路認識手段13により認識された既定経路との位置・方向関係を経路再現データとして算出し、既定経路推定手段16へ出力する。そして、推定経路推定手段16は、風景ベクトル列と経路再現データとに基づいて既定経路を推定し、車両制御CPU11へ出力する。
【0015】
次に、作用を説明する。
[走行経路生成制御処理]
走行経路生成装置12による走行経路生成制御処理を、図2のフローチャートに基づいて説明する。
【0016】
ステップSA1では、走行経路生成装置12の駆動を開始する。
【0017】
ステップSA2では、CCDカメラ1によって撮像した白線の中央を走行経路として設定し、既定経路認識手段13により通常に認識している走行経路を既定経路として認識する。
【0018】
ステップSA3では、風景ベクトル列認識手段14により、図3に示すような風景中の街灯等の特徴点Gn−2,Gn−1,Gn,Gn+1,Gn+2,...,Gn+nの3次元位置を検出する。これら3次元位置の検出は、ステレオカメラによって三角法により求めても良いが、以下に示すように単眼カメラによって撮像した2フレームの差分によって擬似的に求めても良い。
【0019】
例えば、図4および図5に図示する同一な1点の街灯について、時間tにおける撮像結果と時間t+1における撮像結果によってその位置を求める方法について説明する。
【0020】
ここでは分かり易くするために、時間tにおける自車の既定経路とのずれ、ヨー角は共に0で、車両座標系の縦方向をx軸、横方向をy軸とおいた座標系においてx軸に等しい状況について説明する。
【0021】
図4において、時間tにおける自車の位置と時間t+1の位置は、時間tにおける座標系を基準に示したものである。求める値は時間tにおける横距離y、時間t+1における街灯との縦距離xである。
【0022】
θ1は、時間tにおける街灯とのヨー角回りの角度であり、図6に示すように、CCDカメラ1のレンズ仕様から、街灯の認識されている点と対応して求まる。
【0023】
θ2は、時間t+1における街灯とのヨー角回りの角度であり、θ1と同様して求まる。
【0024】
θ3は、自車の時間tと時間t+1におけるヨー角変化で自車に搭載のヨーレートセンサによって求まる。なおθ3は街灯が複数認識されている場合、消失点に向かって伸びる点列の充分に遠方と思われる街灯点の数点(例えば、Gn+10,Gn+11,Gn+12を捕捉し、時間tとt+1で、Gn+10とGn+11間、Gn+11とGn+12間の撮像画面上で求まるヨー角の差が撮像分解能内で変化しない様な街灯点)が、時間tとt+1の間に撮像画面内で同時に移動した量を見ることによって求めても良い。
【0025】
Xは、時間tと時間t+1における、時間tの時のx軸方向に進行した距離に相当する。θ2が十分小さい場合には、進行した距離として近似して求めても良いが、時間tから時間t+1に到達するまでの微小時間毎のヨー角変化Δθと進行距離ΔXによりΔX/cosΔθを積分した値で求める。ただし明らかな操舵が行われている場合は、車両が円運動をしているとみなして、操舵角、横G、ヨーレートセンサ等を用いて定常円旋回状態と微少時間ごとに近似して広く公知である車両運動で求めても良い。
【0026】
横距Yoffsetは、時間tとt+1におけるy軸方向の移動量であり、既定経路認識中は既定経路内の自車のy軸方向移動量で検出され、既定経路非認識中は車両の経路に対するヨー角θyと車両の走行距離XyとからXysinθyを逐一算出することによって求める。
【0027】
これらの値によって各値は下記の(1),(2)式によって示される。
Tanθ1=y/(X+x) ...(1)
Tan(θ2+θ3)=(y−Yoffset)/x ...(2)
この連立方程式を解くことによってxおよびyが求まる。
【0028】
また、高さ方向についても同ように、図5から下記の(3),(4)式が成立する。求めるのは高さzと距離xで、θz1とθz2はそれぞれ時間tおよびt+1における撮像画面内の縦位置から求まるピッチ角方向の角度である。なお車両のピッチ角変動をピッチレートセンサや上記と同ように充分遠方の街灯Gn+10,Gn+11,Gn+12を参照することによってθz1とθz2を求める際の影響を除去しても良い。
tanθz1=z/(X+x) ...(3)
tanθz2=z/x ...(4)
この連立方程式を解くことによってxおよびzが求まる。
【0029】
なお、xは街灯の横方向yの位置を求める際に算出されたものと、街灯の高さ方向zの位置を求める際に算出されたものとが同一でなければならないが、車両と街灯の位置関係によっては、(1)式および(2)式のθ1およびθ2が0に近い場合は、時間tとt+1の間での変化が充分でないので、xを求める際には、(1),(2)式におけるθ1とθ2の大きさと、(3),(4)式におけるθz1、θz2の絶対的な角度の多きさを比較し、角度の大きい方を用いて算出されたxを優先的に使用する。例えば、街灯が車両のほぼ真上にある場合、θ1とθ2は0に近くなり、θz1>θ1、θz2>θ2と判定され、θz1およびθz2を用いた(3),(4)式によって算出されたxを、(1),(2)式に代入することによりy求めるという具合である。
【0030】
このようにして認識された街灯Gn,Gn+1,Gn+2,...それぞれについて自車からの縦位置xGn,xGn+1,xGn+2,xGn+3,...,xGn+n、および横位置yGn,yGn+1,yGn+2,yGn+3,...,yGn+n、および高さzGn,zGn+1,zGn+3,...,zGn+nについて求める。
【0031】
なお、静止画面上で街灯GnとGn+1間、Gn+1とGn+2間、Gn+2とGn+3間、...のヨー角差およびピッチ角差が連続的にスムーズに変化しているかどうかを判定することによって連続した街灯列であることを識別し、またそれぞれの街灯Gn,Gn+1,Gn+2,...のx方向縦距離の間隔は等しい、z方向の高さは等しいことを前程として街灯モデルを画面内に設けて精度の向上を図っても良い。
【0032】
具体的には、街灯の中で車両に最も近いGn,Gn+1,Gn+2といくつか街灯から算出されたxおよびzと、検出された既定経路の距離に応じたy方向の変化量(もしくはナビゲーションシステム装置9から得られる地図データ4によって得られる変化量)を、Gn,Gn+1,Gn+2,Gn+3,...,Gn+nを当てはめることにより、検出された街灯の認識精度によるばらつきを補正する。
【0033】
なお、街灯がGn,Gn+1,Gn+2,Gn+3,...,Gn+nと多数認識されている場合には、街灯の中で車両に最も近いGn,Gn+1,Gn+2といくつか街灯から算出されたxおよびzの値を図7のように微小に変化させ、静止画面内の街灯点列との位置誤差をその加えた微小変化に応じて図8のように求めてゆくことで、正確なxの値の同定を行っても良い。またy軸方向の曲率変化によって生じる街灯ベクトルへの横位置ずれを画面中の街灯列と照合することで、白線認識時と同ように街灯ベクトルとの曲率マッチングを行うことで街灯列の曲率を同定しても良い。
【0034】
このようにして認識された街灯Gn,Gn+1,Gn+2,...について、GnとGn+1を結ぶベクトルをGVn、Gn+1とGn+2を結ぶベクトルをGVn+1...といったようにして街灯ベクトルGVn,GVn+1,GVn+2,GVn+3,...,Gvn+nを図9のようにして求める。
【0035】
図2に戻って、ステップSA4では、経路再現データ算出手段15により、それぞれの街灯ベクトルの既定経路とのxyz位置およびヨー角、ピッチ角を求め、経路差分行列を経路再現データとして記憶する。
【0036】
合わせて、自車最近傍の街灯Gnから続くベクトルGVn、とGVn+1のと関係、GVn+1とGVn+2との関係を示すベクトル差分行列を求め記憶する。
【0037】
このベクトル差分行列は常に自車の縦方向、すなわちx軸方向0における街灯ベクトルが存在するようにするため、GVnの一端が撮像範囲外となった場合にGVn+1からベクトル差分行列に基づいて仮想的にGVn再現する処理に用いる。この撮像範囲外となった街灯ベクトルの再現はベクトル差分行列と撮像範囲内の街灯ベクトルにより逐一行うこととする。
【0038】
ステップSA5では、前ステップで算出された経路再現差分ベクトルを次ルーチン以降の処理での使用に備えて記憶する
【0039】
ステップSA6では、認識している街灯ベクトルGVn,GVn+1,...に対してステップSA4に経路再現データとして求めた既定経路と街灯ベクトルとの関係を示す差分行列に基づいて、図10のように既定経路を再現し、再現された既定経路に対して街灯からの自車位置とを比較することにより、既定経路に対する自車位置ずれとヨー角を算出する。
【0040】
ステップSA7では、自動操舵車両が追従制御を行うための既定経路をロストしたかどうか(見失ったかどうか)を既定経路認識手段13から送られる信号に基づいて判定する。経路をロストしていない場合にはステップSA8へ進み、ロストした場合にはステップSA9へ進む。
【0041】
ステップSA8では、既定経路に基づいて、通常通り経路情報および自車の経路に対する位置ずれと、ヨー角を出力する。
【0042】
ステップSA9では、ステップSA6で求められた経路情報(カーブ開始点および曲率情報)および自車に対する横位置偏差とヨー角を出力する。例えば、既定経路認識手段13によって例えば自車直近の横位置偏差のみを認識している場合、既定経路の横位置偏差に推定経路のヨー角および経路情報を供給するなど、既定経路認識手段13で認識できなくなった情報のみ供給しても良い。
【0043】
次に、効果を説明する。
第1実施例の走行経路生成装置にあっては、以下に列挙する効果を得ることができる。
【0044】
(1) 既定経路をロストしたとき、認識している街灯ベクトルに対して、経路再現データとして求めた既定経路と街灯ベクトルとの関係を示す差分行列に基づいて既定経路を再現し、再現された既定経路に対する自車位置ずれとヨー角を算出することとしたため、認識された既定経路との位置・方向関係を認識した既定経路に基づいて自動操舵走行を行っている車両が、自動操舵の経路を見失った場合でも、推定された経路が供給されるので、経路を見失う状態が断続的に継続する場合に自動操舵制御を継続することができ、経路を見失う状態が続く場合でもドライバが対応可能な余裕時間を確保することができる。
【0045】
(2) 認識された街灯ベクトルGn,Gn+1,Gn+2,...について、GnとGn+1を結ぶベクトルをGVn、Gn+1とGn+2を結ぶベクトルをGVn+1...というようにして街灯ベクトルGVn,GVn+1,GVn+2,GVn+3,...,Gvn+nを求めることとした。これら街灯ベクトルGVn,GVn+1,GVn+2,GVn+3,...,Gvn+nは、既定経路の照明むらのある夜間や路面が湿った状態で照明が反射している状況など、既定経路の認識が途絶え勝ちな状態においても認識できるとともに、撮像風景内の延長上で街灯など遠くを見渡せるので、経路をロストしている間、有効な経路推定情報の供給が可能となる。また、街灯ベクトルGVn,GVn+1,GVn+2,GVn+3,...,Gvn+nは、撮像対象が障害物に遮断されにくく、かつ、撮像範囲から外れにくいため、経路をロストした際に既定経路から外れて車両を待避誘導することも容易に行うことができる。
【0046】
(3) 複数街灯ベクトル列が認識された状態の場合、既定経路との距離、街灯ベクトル変化の連続性、既定経路との形状の一致度合いについてそれぞれ評価し、それらの評価結果を掛け合わせた結果に基づいてそれぞれ街灯ベクトル列の適合度を算出し、適合度が高い順位に街灯ベクトルに対して優先順位を付けることとしたため、不要な分岐へと引き込まれる街灯列を認識することを低減するとともに、片側に設置された待避スペースに街灯列引き込まれる場合でも、例えば道路中央や反対車線に沿った既定経路と並行する街灯列など、既定経路と最も近い形状の街灯列の選択が可能となる。
【0047】
(4) 認識している街灯ベクトルに対して経路再現データとして求めた既定経路と街灯ベクトルとの関係を示す差分行列に基づいて既定経路を再現し、再現された既定経路に対して街灯からの自車位置とを比較することにより、既定経路に対する自車位置ずれとヨー角を算出することとしたため、既定経路をロストした際に連続した経路の推定が可能となる。
【0048】
(第2実施例)
第2実施例の走行経路生成装置の構成は、第1実施例と同じであるため、説明を省略する。
【0049】
次に、作用を説明する。
[走行経路生成制御処理]
次に、走行経路生成装置12による走行経路生成制御処理を、図11のフローチャートに基づいて説明する。
【0050】
ステップSB1,SB2は、図2のSA1,SA2と同じであるため、説明を省略する。
【0051】
ステップSB3では、風景ベクトル列認識手段14により、連続した街灯ベクトルによって構成される既定経路にそった街灯ベクトル列GVn,GVn+1,GVn+2,...,GVn+nを認識するとともに、街灯ベクトル列が複数存在する場合には、その複数の街灯ベクトル列...1GVn+n,...,2GVn+n,...,nGVn+nを認識する。
【0052】
ステップSB4では、ステップSB3により既に記憶されている街灯ベクトルGVn,GVn+1,...について、そのベクトルと関連する街灯が看板等によって図12のように隠蔽される状況が生じているか否かを判定する。隠蔽が起こっていればステップSB5へ進み、隠蔽が起こっていなければステップSB6へ進む。
【0053】
ステップSB5では、街灯ベクトルを隠蔽しているものが看板であればそのエッジ、丸い標識であればその中心点など最も認識しやすい点を仮の街灯ポイントGVn+atempとして認識し、後はその状態で仮街灯ベクトル、図13に示される仮街灯ベクトル間の差分行列、および仮街灯ベクトルと既定経路との経路差分行列を求めて、街灯ベクトルと同ように処理を行う。
【0054】
なお、看板等の認識がされた時点で、街灯の隠蔽の前に隠蔽が予想される街灯と看板等の街灯隠蔽物との位置関係を検出し、看板と他の認識可能な街灯との位置関係から隠蔽された街灯を再現することで、街灯ベクトルを仮想的に認識して処理を進めても良い。
【0055】
ステップSB6では、ステップSB3において認識された街灯ベクトルのうち、すでに前ループで計算された街灯ベクトルに関する計算処理を精度良く保つために再計算を行い、認識精度の向上がなされる認識が可能となった場合に、記憶された各種情報を更新する。
【0056】
ステップSA7では、複数街灯ベクトル列が認識された状態の場合、既定経路との距離、街灯ベクトル変化の連続性、既定経路との形状の一致度合いについてそれぞれ評価し、それらの評価結果を掛け合わせた結果に基づいてそれぞれ街灯ベクトル列の適合度を算出する。そして、適合度が高い順位に街灯ベクトルに対して優先順位づけを行う。
【0057】
なお、地図データ4が認識されている場合は、既定経路の延長の道路形状と街灯ベクトル列の認識結果とによって、街灯ベクトル列に優先順位付けを行っても良い。
【0058】
ステップSB8では、認識された街灯ベクトル列が既定経路との経路差分ベクトルを求められた区間か否かを判断する。経路差分ベクトルが求められた街灯ベクトルに対してはステップSB9へ進み、経路差分ベクトルが求められない街灯ベクトルについてはステップS12およびS18へと進む。
【0059】
ステップSB9,SB10,SB11は、図2のステップSA4,SA5,SA6と同じであるため、説明を省略する。
【0060】
ステップSB12では、ステップSB3で求めた街灯ベクトル列を地図データ4と照合し、その一致度合いを求める。なお、一致度合いについてはステップSB7で適合度を算出した経路の中で一定以上の適合度を有する街灯ベクトル列について、既定経路との経路差分ベクトルが算出できない区間のみを対象として一致度合いを再計算し、最も一致度合いの高い街灯ベクトル列について算出した結果としても良い。
【0061】
ステップSB13では、ステップSB12で求めた一致度合いが高ければ街灯ベクトルの信頼性が高いとしてステップSB14へと進み、一致度合いが低ければ街灯ベクトルの信頼性が低いとしてステップSB20へと進む。
【0062】
ステップSB14では、ステップSB12におけるマッチングの結果対象として選択された経路が直線か否かを判定する。直線であればステップSB17へ直線でなければステップS15へと進む。
【0063】
ステップBS15では、ステップSB12において選択された街灯列と地図データ4をさらに縦方向に前後にずらして相互相関をとることによって最も相関が高くなる点を求めることにより、ナビゲーション地図上におけるコーナー開始点を検出する。
【0064】
ステップSB16では、街灯列により推定される道路曲率情報と地図データ4が有する曲率情報とで精度が高い方を選択する。具体的には街灯の認識間隔とナビの位置点列データ間隔を比較し、間隔の狭い方を精度が高いとして選択する。ただし地図データ4が予め道路曲率情報に相当する情報を既知の場合には、地図データ4を選択する。
【0065】
ステップSB17では、ステップSB10で算出された経路再現データを用いて、認識されている経路推定対象となっている街灯ベクトルによって既定経路を再現する。
【0066】
ステップSB18では、ステップSA3で説明したzが一定であることを前程として道路の高さについて推定する。
【0067】
ステップSB19では、ステップSB18で盛り上がりが検出された場合は登り坂の頂点が迫っていると判断した上でステップSB20へと進む。なお、この道路の高さに盛り上がりがあると検出された場合は、その盛り上がりを通過する際にCCDカメラ1による白線および街灯の撮像結果の結果を見失わないために、CCDカメラ1のピッチ角を調整する参照情報として記憶しておく。
【0068】
ステップSB20では、既定経路と推定経路を合わせて所定の時間分の走行経路が確保されているか否かを判定する。ここでいう走行経路とは、最低横位置偏差およびヨー角の情報を示し、推定経路に関しては最低1つの街灯ベクトルあるいは看板・標識による補正ベクトルが常時完全に画面内に滞留を続けられる状態のことをいう。走行経路が確保されていればステップSB22へと進み、確保されていなければステップSB21へと進む
【0069】
ステップSB21では、経路をロストすることが予測されるため、ドライバに警報を発する。なお警報は残存距離(もしくは残存時間)によって変更しても良く、また、残存距離(残存時間)にしかるべき対応をとるために、自動操舵を司る自動操舵コントローラ10に逐一指令してもよい。
【0070】
ステップSB22,SB23,SB24は、図2のステップSA7,SA8,SA9と同じであるため、説明を省略する。
【0071】
次に、効果を説明する。
第2実施例の走行経路生成装置にあっては、第1実施例の効果に加えて、以下に列挙する効果を得ることができる。
【0072】
(5) 街灯ベクトルと地図データ4との比較を行うこととしたため、既定経路と未照合部分の街灯ベクトルも含めて信頼性の高い風景ベクトルの選択と判定ができるので、既定経路をロストした際に未照合部分の経路推定の精度が向上する。
【0073】
(6) 街灯ベクトル列を地図データ4と照合してその一致度合いを求め、街灯列により推定される道路曲率情報と最も一致度合いの高い街灯ベクトル列について風景ベクトルの形状と地図データ4が有する曲率情報とで精度の高い方を選択することとしたため、前方の経路をロストした際にも自動操舵車両の追従性を確保するために有効に作用する道路曲率情報を連続して精度良く供給することが可能となる。
【0074】
(7) 街灯ベクトルを隠蔽している隠蔽物の最も認識しやすい点を仮の街灯ポイントGVn+atempとして認識し、その仮街灯ベクトルと既定経路との経路差分行列を求めることとしたため、風景ベクトルが隠蔽された場合でも一旦認識した風景ベクトルが幾何学的に再現でき、既定経路をロストした状態においても継続して風景ベクトルに基づく推定経路を再現することが可能となる。
【0075】
(8) 認識している街灯ベクトルの既定高さを記憶し、道路の高さについて推定を行うこととしたため、車両のピッチ角変化が起こることを予め予想して、CCDカメラ1のピッチ角を調整することができ、白線の認識が困難な起伏の頂点において風景ベクトルの認識も合わせて撮像範囲外となることを予防することが可能となる。
【0076】
(9) 走行経路をロストすることが予想されたとき、ドライバに警報を発し、自動操舵コントローラ10に指令を伝達することとしたため、実際に経路の供給が停止する前に、自動操舵運転の解除等を促す余裕時間を確保することができる。
【0077】
(その他の実施の形態)
以上、本発明の実施の形態を第1実施例と第2実施例に基づいて説明してきたが、本発明の具体的な構成は本実施の形態に限定されるものではなく、発明の要旨を逸脱しない範囲の設計変更等があっても本発明に含まれる。
【図面の簡単な説明】
【図1】第1実施例の走行経路生成装置を適用した車両を示す構成図である。
【図2】第1実施例の走行経路生成制御処理の流れを示すフローチャートである。
【図3】風景中の街灯等の特徴点の検出方法を示す斜視図である。
【図4】街灯ベクトルの算出方法を示す説明図である。
【図5】街灯ベクトルの算出方法を示す説明図である。
【図6】CCDカメラのレンズ仕様を示す説明図である。
【図7】街灯ベクトルの算出方法を示す説明図である。
【図8】街灯ベクトルの算出方法を示す説明図である。
【図9】既定経路の再現方法を示す説明図である。
【図10】既定経路の再現方法を示す説明図である。
【図11】第2実施例の走行経路生成制御処理の流れを示すフローチャートである。
【図12】街灯が看板に隠蔽されている場合の既定経路の再現方法を示す説明図である。
【図13】街灯が看板に隠蔽されている場合の既定経路の再現方法を示す説明図である。
【符号の説明】
1 CCDカメラ
2 画像処理CPU
3 GPSアンテナ
4 地図データ
5 ジャイロセンサ
6 車輪速度センサ
7 操舵角センサ
8 自車走行情報検出装置
9 ナビゲーションシステム装置
10 自動操舵コントローラ
11 車両制御CPU
12 走行経路生成装置
13 既定経路認識手段
14 風景ベクトル列認識手段
15 経路再現データ算出手段
16 既定経路推定手段
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technical field of a traveling route generation device for guiding a vehicle that automatically performs automatic steering by performing automatic steering along a certain route.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known an automatically steered vehicle that travels following a route by automatically steering a route given by white line recognition or the like. However, when these automatic steering vehicles lose the route guidance means, acquisition of reference information for performing automatic steering control stops.
[0003]
For example, Japanese Unexamined Patent Publication No. Hei 10-31799 describes a technology that has a means for detecting the distance to a side wall in addition to a CCD camera for detecting a white line, and performs steering control along the side wall when the white line cannot be detected. Have been. However, when steering control is performed along the side wall, only the lateral deviation is observed, and it is not possible to know in advance whether or not the side wall is continuous. It is desired to obtain
[0004]
[Problems to be solved by the invention]
When white line recognition by a CCD camera is used as a route for guiding an auto-steering vehicle as described above, especially at night, the visibility of the white line depends on the lighting conditions of the road, so that it is difficult to see far away. On the other hand, when the road surface is wet, the recognition of the white line tends to be interrupted due to the reflection of illumination, and the route may be intermittently lost.
[0005]
The present invention has been made in view of the above-mentioned problems, and its purpose is to make it easy to recognize even when the route for automatic steering is lost, even at night or when the road surface is damp. By estimating the route based on the vehicle, the automatic steering control can be continued when the condition of losing the route continues intermittently, and the driver has enough time to respond even if the condition of losing the route continues It is an object of the present invention to provide a traveling route generating device capable of performing the following.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, according to the present invention, there is provided an image pickup means for picking up an image of a scene ahead of a host vehicle, a default path recognizing means for recognizing a predetermined path from the image pickup scene, and a steering angle of the host vehicle based on the recognized default path. An automatic steering control means for controlling a vehicle, and performing a follow-up traveling by automatic steering along a traveling road in a traveling route generating apparatus for a vehicle. A landscape vector sequence recognizing means for recognizing as a route, a route reproduction data calculating means for calculating the position / direction relationship between the recognized landscape vector sequence and the default route as route replay data, and a default for judging whether or not the default route has been recognized. The route recognition determining means, and when it is determined that the default route is not recognized, the position / form of the default route based on the recognized scenery vector sequence and the calculated route reproduction data. Characterized in that a, a default path estimation means for estimating a.
[0007]
【The invention's effect】
Therefore, according to the present invention, even when the vehicle that is automatically steering based on the recognized default route loses track of the automatic steering route, the estimated route is supplied, so that the vehicle loses track. When the vehicle continues intermittently, the automatic steering control can be continued, and even when the state of losing sight of the route continues, it is possible to secure a margin time that the driver can cope with.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
(First embodiment)
First, the configuration will be described.
FIG. 1 is a configuration diagram illustrating a vehicle to which the traveling route generation device according to the first embodiment is applied.
[0009]
In the figure, 1 is a CCD camera, 2 is an image processing CPU, 3 is a GPS antenna, 4 is map data, 5 is a gyro sensor, 6 is a wheel speed sensor, 7 is a steering angle sensor, 8 is an own-vehicle traveling information detecting device, 9 is a navigation system device, 10 is an automatic steering controller, 11 is a vehicle control CPU, and 12 is a travel route generation device.
[0010]
The CCD camera 1 recognizes a predetermined route ahead through the image processing CPU 2 and calculates a yaw angle and a position shift of the own vehicle with respect to the predetermined route. Although not particularly shown, usually, these values measured by the image processing CPU 2 are transmitted to the vehicle control CPU 11, and a command is output to the automatic steering controller 10 so as to control the following of the predetermined route.
[0011]
The predetermined route and the landscape vector are recognized by the landscape vector sequence recognizing means 14 in the travel route generating device 12 by a series of processes of the CCD camera 1 and the image processing CPU 2. The default route recognizing means 13 in the travel route generating device 12 may be configured to be supplied by a known device different from the CCD camera 1 and the image processing CPU 2.
[0012]
The information acquired by the GPS antenna 3 and the map data 4 is supplied to the route reproduction data calculation means 15 of the traveling route generation device 12 through the navigation system device 9 to provide the shape of the road ahead and the approximate position on the road.
[0013]
The gyro sensor 5, the wheel speed sensor 6, and the steering angle sensor 7 measure the change in the yaw angle of the own vehicle and the displacement in the vertical and horizontal directions by the own vehicle running information detecting device 8 and supply them to the running route generating device 12. The vehicle control CPU 11 is a part that performs calculations of various logics required for the automatic steering control vehicle.
[0014]
The route reproduction data calculation unit 15 calculates, as the route reproduction data, the position / direction relationship between the scenery vector sequence recognized by the landscape vector sequence recognition unit 14 and the default route recognized by the default route recognition unit 13 as the route reproduction data. Output to the estimating means 16. Then, the estimated route estimating unit 16 estimates a default route based on the landscape vector sequence and the route reproduction data, and outputs the default route to the vehicle control CPU 11.
[0015]
Next, the operation will be described.
[Traveling route generation control processing]
The travel route generation control processing by the travel route generation device 12 will be described based on the flowchart of FIG.
[0016]
In step SA1, the driving of the traveling route generation device 12 is started.
[0017]
In step SA2, the center of the white line imaged by the CCD camera 1 is set as the traveling route, and the traveling route normally recognized by the default route recognizing means 13 is recognized as the default route.
[0018]
In step SA3, the scenery vector sequence recognizing means 14 uses the feature points Gn-2, Gn-1, Gn, Gn + 1, Gn + 2,. . . , Gn + n are detected. The detection of these three-dimensional positions may be obtained by a triangular method using a stereo camera, or may be obtained in a pseudo manner based on a difference between two frames captured by a monocular camera as described below.
[0019]
For example, a method of obtaining the position of the same one-point street lamp shown in FIGS. 4 and 5 from the imaging result at time t and the imaging result at time t + 1 will be described.
[0020]
Here, for the sake of simplicity, the deviation from the predetermined route of the own vehicle at time t and the yaw angle are both 0, and the vertical axis of the vehicle coordinate system is set to the x axis and the horizontal direction is set to the y axis. An equal situation will be described.
[0021]
In FIG. 4, the position of the vehicle at time t and the position at time t + 1 are shown based on the coordinate system at time t. The values to be obtained are the horizontal distance y at time t and the vertical distance x with the streetlight at time t + 1.
[0022]
θ1 is an angle around the yaw angle with the streetlight at time t, and is obtained from the lens specification of the CCD camera 1 in correspondence with the point at which the streetlight is recognized, as shown in FIG.
[0023]
θ2 is the angle around the yaw angle with the streetlight at time t + 1, and is obtained in the same manner as θ1.
[0024]
θ3 is a yaw angle change at time t and time t + 1 of the own vehicle, and is obtained by a yaw rate sensor mounted on the own vehicle. It should be noted that θ3 is the number of streetlight points (eg, Gn + 10, Gn + 11, Gn + 12) that are considered to be sufficiently far away from the point sequence extending toward the vanishing point when a plurality of streetlights are recognized, and at times t and t + 1, A street lamp point where the difference between the yaw angles obtained on the imaging screen between Gn + 10 and Gn + 11 and between Gn + 11 and Gn + 12 does not change within the imaging resolution), and sees the amount simultaneously moved in the imaging screen between times t and t + 1. You may ask for it.
[0025]
X corresponds to the distance traveled in the x-axis direction at time t at time t and time t + 1. If θ2 is sufficiently small, it may be approximated as the distance traveled, but ΔX / cos Δθ is integrated by the yaw angle change Δθ every minute time from time t to time t + 1 and the travel distance ΔX. Calculate by value. However, when a clear steering is being performed, it is assumed that the vehicle is performing a circular motion, and the steering angle, the lateral G, the yaw rate sensor and the like are used to approximate a steady circular turning state at every minute time and widely known. May be determined by the vehicle motion.
[0026]
The lateral distance Yoffset is the amount of movement in the y-axis direction at times t and t + 1, and is detected based on the amount of movement of the vehicle in the y-axis direction within the default route during recognition of the default route, and is relative to the vehicle route during non-recognition of the default route. Xysin θy is obtained by calculating the yaw angle θy and the traveling distance Xy of the vehicle one by one.
[0027]
These values are represented by the following equations (1) and (2).
Tanθ1 = y / (X + x). . . (1)
Tan (θ2 + θ3) = (y-Yoffset) / x. . . (2)
By solving this simultaneous equation, x and y are obtained.
[0028]
Similarly, in the height direction, the following equations (3) and (4) are established from FIG. What is obtained is the height z and the distance x, and θz1 and θz2 are angles in the pitch angle direction obtained from the vertical position in the imaging screen at times t and t + 1, respectively. It should be noted that the effect of determining θz1 and θz2 may be removed by referring to the pitch rate sensor and the sufficiently distant street lamps Gn + 10, Gn + 11, and Gn + 12 in the same manner as described above.
tan θz1 = z / (X + x). . . (3)
tan θz2 = z / x. . . (4)
X and z are obtained by solving this simultaneous equation.
[0029]
Note that x must be the same as the one calculated when calculating the position of the streetlight in the horizontal direction y and the one calculated when calculating the position of the streetlight in the height direction z. If θ1 and θ2 in the equations (1) and (2) are close to 0 depending on the positional relationship, the change between the time t and the time t + 1 is not sufficient. The magnitudes of θ1 and θ2 in equation (2) are compared with the absolute angles of θz1 and θz2 in equations (3) and (4), and x calculated using the larger angle is given priority. Used for For example, when the streetlight is almost directly above the vehicle, θ1 and θ2 are close to 0, and it is determined that θz1> θ1, θz2> θ2, and is calculated by the equations (3) and (4) using θz1 and θz2. That is, y is obtained by substituting the obtained x into the equations (1) and (2).
[0030]
The streetlights Gn, Gn + 1, Gn + 2,. . . The vertical positions xGn, xGn + 1, xGn + 2, xGn + 3,. . . , XGn + n and horizontal positions yGn, yGn + 1, yGn + 2, yGn + 3,. . . , YGn + n and heights zGn, zGn + 1, zGn + 3,. . . , ZGn + n.
[0031]
Note that, on the still screen, between the streetlights Gn and Gn + 1, between Gn + 1 and Gn + 2, between Gn + 2 and Gn + 3,. . . Is determined to be a continuous streetlight train by determining whether or not the yaw angle difference and the pitch angle difference continuously change smoothly, and the streetlights Gn, Gn + 1, Gn + 2,. . . Assuming that the vertical distances in the x-direction are equal and the heights in the z-direction are equal, a streetlight model may be provided in the screen to improve the accuracy.
[0032]
Specifically, Gn, Gn + 1, Gn + 2 closest to the vehicle among the street lights, x and z calculated from some street lights, and a change amount in the y direction according to the detected distance of the predetermined route (or the navigation system) The amount of change obtained by the map data 4 obtained from the device 9) is Gn, Gn + 1, Gn + 2, Gn + 3,. . . , Gn + n, the variation due to the recognition accuracy of the detected streetlight is corrected.
[0033]
The street lamps are Gn, Gn + 1, Gn + 2, Gn + 3,. . . , Gn + n, the values of Gn, Gn + 1, Gn + 2 closest to the vehicle among the streetlights and the values of x and z calculated from some of the streetlights are slightly changed as shown in FIG. Accurate identification of the value of x may be performed by calculating the position error with respect to the streetlight point sequence in the screen according to the added minute change as shown in FIG. Also, by comparing the horizontal position shift to the streetlight vector caused by the change in the curvature in the y-axis direction with the streetlight row on the screen, the curvature of the streetlight row is matched by performing the curvature matching with the streetlight vector in the same manner as when the white line is recognized. It may be identified.
[0034]
The streetlights Gn, Gn + 1, Gn + 2,. . . , The vector connecting Gn and Gn + 1 is GVn, and the vector connecting Gn + 1 and Gn + 2 is GVn + 1. . . And so on, the streetlight vectors GVn, GVn + 1, GVn + 2, GVn + 3,. . . , Gvn + n are obtained as shown in FIG.
[0035]
Returning to FIG. 2, in step SA4, the route reproduction data calculation means 15 obtains the xyz position, the yaw angle, and the pitch angle with respect to the predetermined route of each streetlight vector, and stores the route difference matrix as the route reproduction data.
[0036]
In addition, a vector difference matrix indicating the relationship between the vector GVn following the streetlight Gn closest to the host vehicle and GVn + 1 and the relationship between GVn + 1 and GVn + 2 is obtained and stored.
[0037]
Since this vector difference matrix always has a streetlight vector in the longitudinal direction of the own vehicle, that is, the x-axis direction 0, when one end of GVn is out of the imaging range, it is virtually based on the vector difference matrix from GVn + 1. Used to reproduce GVn. The reproduction of the streetlight vector outside the imaging range is performed one by one using the vector difference matrix and the streetlight vector within the imaging range.
[0038]
At step SA5, the route reproduction difference vector calculated at the previous step is stored in preparation for use in the processing after the next routine.
[0039]
In step SA6, the recognized streetlight vectors GVn, GVn + 1,. . . On the other hand, based on the difference matrix indicating the relationship between the default route obtained as the route reproduction data and the streetlight vector in step SA4, the default route is reproduced as shown in FIG. By comparing the vehicle position with the vehicle position, the vehicle position deviation and the yaw angle with respect to the predetermined route are calculated.
[0040]
In step SA7, it is determined based on a signal sent from the default route recognizing means 13 whether the automatic steering vehicle has lost (or lost) the default route for performing the follow-up control. If the route has not been lost, the process proceeds to step SA8. If the route has been lost, the process proceeds to step SA9.
[0041]
In step SA8, based on the predetermined route, the route information and the displacement of the vehicle relative to the route and the yaw angle are output as usual.
[0042]
In step SA9, the route information (curve start point and curvature information) obtained in step SA6, the lateral position deviation with respect to the own vehicle, and the yaw angle are output. For example, when the default route recognizing unit 13 recognizes only the lateral position deviation close to the own vehicle, the default route recognizing unit 13 supplies the yaw angle and the route information of the estimated route to the lateral position deviation of the default route. Only information that cannot be recognized may be supplied.
[0043]
Next, effects will be described.
In the travel route generation device according to the first embodiment, the following effects can be obtained.
[0044]
(1) When the default route is lost, the default route is reproduced for the recognized streetlight vector based on the difference matrix indicating the relationship between the default route and the streetlight vector obtained as route reproduction data. Since the position deviation and the yaw angle of the own vehicle with respect to the predetermined route are calculated, the vehicle that is performing the automatic steering based on the predetermined route that recognizes the position and direction relationship with the recognized default route is used as the automatic steering route. Even if you lose track of the route, the estimated route is supplied, so if the condition of losing the route continues intermittently, automatic steering control can be continued, and the driver can respond even if the condition of losing the route continues A sufficient spare time can be secured.
[0045]
(2) Recognized streetlight vectors Gn, Gn + 1, Gn + 2,. . . , The vector connecting Gn and Gn + 1 is GVn, and the vector connecting Gn + 1 and Gn + 2 is GVn + 1. . . Thus, the streetlight vectors GVn, GVn + 1, GVn + 2, GVn + 3,. . . , Gvn + n. These streetlight vectors GVn, GVn + 1, GVn + 2, GVn + 3,. . . , Gvn + n can be recognized even in a state where the recognition of the default route is interrupted, such as at night when the predetermined route has uneven illumination or when the road surface is wet and the illumination is reflected, and can be recognized in the extension of the imaging scene. Since a long distance such as a streetlight can be seen, effective route estimation information can be supplied while the route is lost. Also, the streetlight vectors GVn, GVn + 1, GVn + 2, GVn + 3,. . . , Gvn + n, the object to be imaged is hard to be blocked by an obstacle, and hard to deviate from the imaging range. Therefore, when the route is lost, the vehicle can be easily deviated from the predetermined route and evacuated and guided.
[0046]
(3) When a plurality of streetlight vector sequences are recognized, the distance from the default route, the continuity of the streetlight vector change, and the degree of matching of the shape with the default route are each evaluated, and the result of multiplying the results is evaluated. The suitability of each streetlight vector sequence is calculated based on the above, and priorities are assigned to the streetlight vectors in the order of higher suitability, so that it is possible to reduce the recognition of streetlight sequences that are drawn into unnecessary branches, Even when the streetlight train is drawn into the evacuation space installed on one side, it is possible to select a streetlight train having the shape closest to the predetermined route, for example, a streetlight train parallel to the predetermined route along the center of the road or the opposite lane.
[0047]
(4) The default route is reproduced based on the difference matrix indicating the relationship between the streetlight vector and the default route obtained as route reproduction data for the recognized streetlight vector. By comparing the own vehicle position with the own vehicle position, the own vehicle position deviation and the yaw angle with respect to the predetermined route are calculated, so that a continuous route can be estimated when the predetermined route is lost.
[0048]
(Second embodiment)
The configuration of the travel route generation device according to the second embodiment is the same as that of the first embodiment, and a description thereof will be omitted.
[0049]
Next, the operation will be described.
[Traveling route generation control processing]
Next, a traveling route generation control process performed by the traveling route generation device 12 will be described with reference to a flowchart of FIG.
[0050]
Steps SB1 and SB2 are the same as SA1 and SA2 in FIG.
[0051]
In step SB3, the scenery vector sequence recognizing means 14 causes the streetlight vector sequences GVn, GVn + 1, GVn + 2,. . . , GVn + n, and when there are a plurality of streetlight vector columns, the plurality of streetlight vector columns. . . 1GVn + n,. . . , 2GVn + n,. . . , NGVn + n.
[0052]
In step SB4, the streetlight vectors GVn, GVn + 1,. . . It is determined whether or not a situation occurs in which the streetlight associated with the vector is concealed by a signboard or the like as shown in FIG. If concealment has occurred, the process proceeds to step SB5. If concealment has not occurred, the process proceeds to step SB6.
[0053]
In step SB5, if the object concealing the streetlight vector is a signboard, its edge is recognized, and if it is a round sign, the most recognizable point such as its center point is recognized as a temporary streetlight point GVn + atemp. A streetlight vector, a difference matrix between the temporary streetlight vectors shown in FIG. 13, and a route difference matrix between the temporary streetlight vector and the predetermined route are obtained, and the processing is performed in the same manner as the streetlight vector.
[0054]
At the time when the signboard or the like is recognized, the positional relationship between the streetlight that is expected to be concealed and the streetlight concealed object such as the signboard is detected before the concealment of the streetlight, and the position of the signboard and other recognizable streetlights is detected. By reproducing the street lamp concealed from the relationship, the process may proceed by virtually recognizing the street lamp vector.
[0055]
In step SB6, of the streetlight vectors recognized in step SB3, recalculation is performed in order to maintain the calculation processing relating to the streetlight vector already calculated in the previous loop with high accuracy, and recognition in which recognition accuracy is improved can be performed. In this case, the stored various information is updated.
[0056]
In step SA7, when a plurality of streetlight vector sequences are recognized, the distance from the default route, the continuity of the streetlight vector change, and the degree of matching of the shape with the default route are evaluated, and the evaluation results are multiplied. The suitability of each streetlight vector sequence is calculated based on the result. Then, priorities are assigned to the streetlight vectors in the order of higher suitability.
[0057]
When the map data 4 is recognized, the street light vector sequence may be prioritized based on the road shape of the extension of the predetermined route and the recognition result of the street light vector sequence.
[0058]
In step SB8, it is determined whether or not the recognized streetlight vector sequence is a section in which a route difference vector from the predetermined route has been obtained. The process proceeds to step SB9 for the streetlight vector for which the route difference vector has been determined, and proceeds to steps S12 and S18 for the streetlight vector for which the route difference vector has not been determined.
[0059]
Steps SB9, SB10, and SB11 are the same as steps SA4, SA5, and SA6 in FIG.
[0060]
In step SB12, the streetlight vector sequence obtained in step SB3 is compared with the map data 4 to determine the degree of coincidence. As for the degree of coincidence, the degree of coincidence is recalculated only for a section in which a path difference vector from the default path cannot be calculated for a streetlight vector sequence having a degree of conformity that is equal to or greater than the predetermined degree in the path for which the degree of conformity has been calculated in step SB7. Alternatively, a result obtained by calculating a streetlight vector sequence having the highest matching degree may be used.
[0061]
In step SB13, if the degree of coincidence obtained in step SB12 is high, the reliability of the streetlight vector is determined to be high, and the process proceeds to step SB14. If the degree of coincidence is low, the reliability of the streetlight vector is determined to be low, and the process proceeds to step SB20.
[0062]
In step SB14, it is determined whether or not the route selected as a target as a result of the matching in step SB12 is a straight line. If it is a straight line, the process proceeds to step SB17. If it is not a straight line, the process proceeds to step S15.
[0063]
In step BS15, the street light train selected in step SB12 and the map data 4 are further shifted longitudinally back and forth to obtain a cross-correlation to determine a point having the highest correlation, thereby setting a corner start point on the navigation map. To detect.
[0064]
In step SB16, the one with higher accuracy is selected from the road curvature information estimated by the streetlight train and the curvature information included in the map data 4. Specifically, the recognition interval of the streetlight is compared with the interval data of the position point sequence of the navigation, and the narrower interval is selected as having higher accuracy. However, if the map data 4 already knows information corresponding to the road curvature information, the map data 4 is selected.
[0065]
In step SB17, using the route reproduction data calculated in step SB10, the predetermined route is reproduced by the recognized streetlight vector which is the target of the route estimation.
[0066]
In step SB18, the height of the road is estimated based on the fact that z described in step SA3 is constant.
[0067]
In step SB19, when the climax is detected in step SB18, it is determined that the top of the uphill is approaching, and the process proceeds to step SB20. If it is detected that there is a swell in the height of the road, the pitch angle of the CCD camera 1 should be adjusted so as to keep track of the results of the white line and streetlight imaging results by the CCD camera 1 when passing through the swell. It is stored as reference information to be adjusted.
[0068]
In step SB20, it is determined whether or not a traveling route for a predetermined time is secured by combining the default route and the estimated route. The traveling route here indicates information on the minimum lateral position deviation and the yaw angle, and with respect to the estimated route, at least one streetlight vector or a correction vector based on a signboard or sign always stays completely in the screen. Say. If the traveling route has been secured, the process proceeds to step SB22, and if not, the process proceeds to step SB21.
[0069]
In step SB21, a warning is issued to the driver because it is predicted that the route will be lost. The warning may be changed according to the remaining distance (or remaining time), or may be instructed one by one to the automatic steering controller 10 that controls the automatic steering in order to take appropriate measures for the remaining distance (remaining time).
[0070]
Steps SB22, SB23 and SB24 are the same as steps SA7, SA8 and SA9 in FIG.
[0071]
Next, effects will be described.
In the travel route generation device of the second embodiment, the following effects can be obtained in addition to the effects of the first embodiment.
[0072]
(5) Since the streetlight vector is compared with the map data 4, it is possible to select and determine a highly reliable landscape vector including the default route and the streetlight vector of the unmatched portion. In addition, the accuracy of the path estimation of the uncollated part is improved.
[0073]
(6) The streetlight vector sequence is compared with the map data 4 to determine the degree of coincidence between the streetlight vector sequence and the road curvature information estimated from the streetlight sequence. Since the information with the higher accuracy is selected, even if the route ahead is lost, the road curvature information that works effectively to ensure the following performance of the auto-steering vehicle is continuously and accurately supplied. Becomes possible.
[0074]
(7) The most recognizable point of the concealed object concealing the streetlight vector is recognized as a temporary streetlight point GVn + atemp, and a route difference matrix between the temporary streetlight vector and the predetermined route is determined. In this case, the once-recognized scenery vector can be geometrically reproduced, and the estimated route based on the scenery vector can be continuously reproduced even when the predetermined route is lost.
[0075]
(8) Since the predetermined height of the recognized streetlight vector is stored and the height of the road is estimated, a change in the pitch angle of the vehicle is predicted in advance, and the pitch angle of the CCD camera 1 is set. It can be adjusted, and it is possible to prevent the scenery vector from being out of the imaging range together with the recognition of the landscape vector at the top of the undulation where it is difficult to recognize the white line.
[0076]
(9) When it is predicted that the traveling route will be lost, a warning is issued to the driver and a command is transmitted to the automatic steering controller 10, so that the automatic steering operation is canceled before the route supply is actually stopped. It is possible to secure a margin time for prompting the user.
[0077]
(Other embodiments)
Although the embodiment of the present invention has been described based on the first and second embodiments, the specific configuration of the present invention is not limited to the present embodiment, and the gist of the invention is described. Even a design change or the like within a range not departing from the present invention is included in the present invention.
[Brief description of the drawings]
FIG. 1 is a configuration diagram illustrating a vehicle to which a traveling route generation device according to a first embodiment is applied.
FIG. 2 is a flowchart illustrating a flow of a traveling route generation control process according to the first embodiment.
FIG. 3 is a perspective view showing a method for detecting a feature point such as a street lamp in a landscape.
FIG. 4 is an explanatory diagram showing a method for calculating a streetlight vector.
FIG. 5 is an explanatory diagram showing a method of calculating a streetlight vector.
FIG. 6 is an explanatory diagram showing lens specifications of a CCD camera.
FIG. 7 is an explanatory diagram showing a method of calculating a streetlight vector.
FIG. 8 is an explanatory diagram showing a method of calculating a streetlight vector.
FIG. 9 is an explanatory diagram showing a method of reproducing a default route.
FIG. 10 is an explanatory diagram showing a method of reproducing a default route.
FIG. 11 is a flowchart illustrating a flow of a traveling route generation control process according to the second embodiment.
FIG. 12 is an explanatory diagram showing a method of reproducing a predetermined route when a streetlight is hidden by a signboard.
FIG. 13 is an explanatory diagram illustrating a method of reproducing a predetermined route when a streetlight is hidden by a signboard.
[Explanation of symbols]
1 CCD camera
2 Image processing CPU
3 GPS antenna
4 Map data
5 Gyro sensor
6 Wheel speed sensor
7 Steering angle sensor
8 Self-vehicle traveling information detection device
9 Navigation system device
10 Automatic steering controller
11 Vehicle control CPU
12 Travel route generation device
13 Default route recognition means
14 Landscape vector sequence recognition means
15 Route reproduction data calculation means
16 Default route estimation means

Claims (9)

自車前方の風景を撮像する撮像手段と、
撮像風景から既定経路を認識する既定経路認識手段と、
認識された既定経路に基づいて自車の操舵角を制御する自動操舵制御手段と、
を備え、
走行中の道路に沿って自動操舵による追従走行を行う車両の走行経路生成装置において、
撮像風景内の特徴的なポイントを結ぶベクトル列を風景ベクトル列として認識する風景ベクトル列認識手段と、
認識された風景ベクトル列と既定経路との位置・方向関係を経路再現データとして算出する経路再現データ算出手段と、
既定経路を認識したかどうかを判断する既定経路認識判断手段と、
既定経路を認識しないと判断されたとき、認識された風景ベクトル列と算出された経路再現データとに基づいて既定経路の位置・姿勢を推定する既定経路推定手段と、
を設けたことを特徴とする走行経路生成装置。
Imaging means for imaging a scene in front of the vehicle;
A default route recognizing means for recognizing a default route from an imaging scene;
Automatic steering control means for controlling the steering angle of the vehicle based on the recognized default route;
With
In a traveling route generation device of a vehicle that performs a following traveling by automatic steering along a traveling road,
Landscape vector sequence recognition means for recognizing a vector sequence connecting characteristic points in the imaged landscape as a landscape vector sequence;
Route reproduction data calculation means for calculating the position / direction relationship between the recognized landscape vector sequence and the predetermined route as route reproduction data;
A default route recognition determining means for determining whether or not the default route has been recognized;
Default route estimating means for estimating the position and orientation of the default route based on the recognized landscape vector sequence and the calculated route reproduction data when it is determined that the default route is not recognized;
A travel route generation device, comprising:
請求項1に記載の走行経路生成装置において、
前記風景ベクトル列認識手段は、走行中の道路に基づいて認識する領域を限定し、撮像風景内の既定経路延長方向に配置される特徴的な点列を捕捉してその点列を結ぶ線を風景ベクトル列として認識する手段であることを特徴とする走行経路生成装置。
The travel route generating device according to claim 1,
The scenery vector sequence recognition means limits an area to be recognized based on a traveling road, captures a characteristic point sequence arranged in a predetermined route extension direction in an imaging scene, and forms a line connecting the point sequence. A travel route generating device, which is a means for recognizing a scene vector sequence.
請求項1または請求項2に記載の走行経路生成装置において、
前記経路再現データ算出手段は、自車の既定経路方向へ延長する風景ベクトル列が並列して複数存在するとき、認識された風景ベクトル列の中で既定経路との適合度が高いものを処理対象として設定し、選択された風景ベクトル列内の各風景ベクトルと既定経路との位置・姿勢関係を算出する手段であることを特徴とする走行経路生成装置。
The travel route generating device according to claim 1 or 2,
When there are a plurality of landscape vector strings extending in the direction of the default route of the vehicle in parallel, the route reproduction data calculation means processes a recognized landscape vector string having a high degree of conformity with the default route among the recognized scene vector strings. A travel route generating apparatus for calculating a position / posture relationship between each landscape vector in the selected landscape vector sequence and a predetermined route.
請求項1ないし請求項3のいずれか1項に記載の走行経路生成装置において、
前記既定経路推定手段は、既定経路を認識しないと判断されたとき、認識された風景ベクトル列と算出された経路再現データとに基づいて既定経路を推定するとともに、自車の既定経路に対する横位置偏差、ヨー角を推定する手段であることを特徴とする走行経路生成装置。
The travel route generation device according to any one of claims 1 to 3,
When it is determined that the default route is not recognized, the default route estimating unit estimates the default route based on the recognized landscape vector sequence and the calculated route reproduction data, and determines a lateral position of the own vehicle with respect to the default route. A travel route generation device, which is means for estimating a deviation and a yaw angle.
請求項1ないし請求項4のいずれか1項に記載の走行経路生成装置において、
自車の周辺の道路形状とその道路上の自車位置とを特定するナビゲーションシステムと、
得られた道路形状と認識された風景ベクトル列の形状とを比較し、認識された既定経路の先へと延長する風景ベクトル列が走行中の道路に沿ったものかどうかを判定する風景ベクトル信頼性判定手段と、
を設けたことを特徴とする走行経路生成装置。
The travel route generation device according to any one of claims 1 to 4,
A navigation system that identifies a road shape around the own vehicle and a position of the own vehicle on the road;
A scene vector trust that compares the obtained road shape with the shape of the recognized scene vector sequence to determine whether the scene vector sequence extending beyond the recognized predetermined route is along the traveling road. Gender determination means,
A travel route generation device, comprising:
請求項5に記載の走行経路生成装置において、
前記風景ベクトル信頼性判定手段は、風景ベクトルの形状と前方道路形状の情報とを照合した結果に基づいてコーナー開始点を検出し、検出されたコーナー開始点先に続くカーブの曲率情報として、街灯列から推定される曲率と前方道路形状の情報から推定される曲率情報のうち精度が高い方を選択する手段であることを特徴とする走行経路生成装置。
The travel route generating device according to claim 5,
The landscape vector reliability determining means detects a corner start point based on a result of comparing the shape of the landscape vector with the information on the shape of the road ahead, and uses the street lamp as curvature information of a curve following the detected corner start point. A travel route generating device, which is a means for selecting one of the curvature information estimated from the column and the curvature information estimated from the information on the shape of the road ahead with higher accuracy.
請求項1ないし請求項6のいずれか1項に記載の走行経路生成装置において、
前記風景ベクトル列認識手段は、風景ベクトル列を遮る風景ベクトル隠蔽物を検出する風景ベクトル隠蔽物検出部と、
検出された風景ベクトル隠蔽物の特徴的な点を一時的に風景ベクトル列の算出対象点として認識する風景ベクトル隠蔽物特徴点認識部と、
を備えることを特徴とする走行経路生成装置。
The travel route generation device according to any one of claims 1 to 6,
The landscape vector column recognition means, a landscape vector concealed object detection unit that detects a landscape vector concealed object that blocks the landscape vector column,
A scenery vector concealment object feature point recognition unit that temporarily recognizes a detected characteristic point of the scenery vector concealment object as a calculation target point of the scenery vector sequence,
A travel route generation device comprising:
請求項1ないし請求項7のいずれか1項に記載の走行経路生成装置において、
前記風景ベクトル列認識手段は、認識している風景ポイントの既定高を記憶し、その情報に基づいて道路の起伏形状を推定する道路起伏形状推定部と、
推定された道路の起伏形状に基づいて撮像手段の撮像角度を調整する撮像角度調整部と、
を備えることを特徴とする走行経路生成装置。
The travel route generation device according to any one of claims 1 to 7,
The landscape vector sequence recognizing means stores a predetermined height of a recognized landscape point, and estimates a road undulation shape based on the information, and a road undulation shape estimation unit;
An imaging angle adjustment unit that adjusts the imaging angle of the imaging unit based on the estimated undulating shape of the road,
A travel route generation device comprising:
請求項1ないし請求項8のいずれか1項に記載の走行経路生成装置において、
前記既定経路推定手段は、既定経路の認識見通し距離と風景ベクトルによる推定経路の認識状況と合わせた見通し距離とから走行経路の供給が停止することを予想し、その結果を自動操舵制御手段に伝達する手段であることを特徴とする走行経路生成装置。
The travel route generation device according to any one of claims 1 to 8,
The predetermined route estimating means predicts that the supply of the traveling route will be stopped based on the recognized visibility distance of the predetermined route and the visibility distance combined with the recognition state of the estimated route based on the landscape vector, and transmits the result to the automatic steering control means. A driving route generating device.
JP2002234401A 2002-08-12 2002-08-12 Travel route generator Expired - Fee Related JP4019854B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002234401A JP4019854B2 (en) 2002-08-12 2002-08-12 Travel route generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002234401A JP4019854B2 (en) 2002-08-12 2002-08-12 Travel route generator

Publications (2)

Publication Number Publication Date
JP2004078334A true JP2004078334A (en) 2004-03-11
JP4019854B2 JP4019854B2 (en) 2007-12-12

Family

ID=32019223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002234401A Expired - Fee Related JP4019854B2 (en) 2002-08-12 2002-08-12 Travel route generator

Country Status (1)

Country Link
JP (1) JP4019854B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048338A (en) * 2004-08-04 2006-02-16 Nissan Motor Co Ltd Mobile object detection apparatus
JP2007071539A (en) * 2005-09-02 2007-03-22 Denso Corp On-vehicle navigation device
JP2009258058A (en) * 2008-04-21 2009-11-05 National Institute Of Advanced Industrial & Technology Three-dimensional object position measuring device
WO2012134957A2 (en) * 2011-03-28 2012-10-04 Tk Holdings Inc. Driver assistance system and method
KR101265110B1 (en) * 2009-11-03 2013-05-20 한국전자통신연구원 Steering control leading apparatus using landmark and method thereby
JP2014093018A (en) * 2012-11-06 2014-05-19 Honda Elesys Co Ltd Vehicle lane recognition device, drive support device, vehicle lane recognition method and vehicle lane recognition program
JP2015524762A (en) * 2012-06-01 2015-08-27 グーグル・インク Inferring traffic signal status and other conditions of vehicle environment based on surrogate data
JP2017202755A (en) * 2016-05-12 2017-11-16 株式会社Subaru Steering control device of vehicle
KR20200137487A (en) * 2019-05-30 2020-12-09 한양대학교 산학협력단 Waypoint pose detection and positioning method and apparatus using waypoints

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05297941A (en) * 1992-04-21 1993-11-12 Daihatsu Motor Co Ltd Road shape detecting method
JPH0694470A (en) * 1992-09-14 1994-04-05 Alpine Electron Inc Vehicle position detecting device
JPH0719882A (en) * 1993-06-30 1995-01-20 Mazda Motor Corp Traveling area recognition apparatus of vehicle and safety apparatus with the device
JPH0727541A (en) * 1993-07-14 1995-01-27 Nissan Motor Co Ltd Measuring device for road shape and vehicle position
JPH07270536A (en) * 1994-03-31 1995-10-20 Omron Corp Equipment and method for discriminating object and vehicle mounting equipment for discriminating object
JPH0981734A (en) * 1995-09-08 1997-03-28 Mitsubishi Electric Corp Image processor
JPH1013824A (en) * 1996-06-25 1998-01-16 Yazaki Corp Vehicle periphery monitoring device
JPH11160078A (en) * 1997-12-02 1999-06-18 Toyota Motor Corp System for estimating condition of traveling road
JPH11211492A (en) * 1998-01-29 1999-08-06 Fuji Heavy Ind Ltd Road information recognizing device
JP2000215396A (en) * 1999-01-27 2000-08-04 Mitsubishi Motors Corp Vehicle travel controller
JP2000315255A (en) * 1999-03-01 2000-11-14 Yazaki Corp Back side direction monitoring device for vehicle and back side direction monitoring alarm device for vehicle
JP2002059798A (en) * 2000-08-22 2002-02-26 Matsushita Electric Ind Co Ltd Vehicle environment monitoring device

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05297941A (en) * 1992-04-21 1993-11-12 Daihatsu Motor Co Ltd Road shape detecting method
JPH0694470A (en) * 1992-09-14 1994-04-05 Alpine Electron Inc Vehicle position detecting device
JPH0719882A (en) * 1993-06-30 1995-01-20 Mazda Motor Corp Traveling area recognition apparatus of vehicle and safety apparatus with the device
JPH0727541A (en) * 1993-07-14 1995-01-27 Nissan Motor Co Ltd Measuring device for road shape and vehicle position
JPH07270536A (en) * 1994-03-31 1995-10-20 Omron Corp Equipment and method for discriminating object and vehicle mounting equipment for discriminating object
JPH0981734A (en) * 1995-09-08 1997-03-28 Mitsubishi Electric Corp Image processor
JPH1013824A (en) * 1996-06-25 1998-01-16 Yazaki Corp Vehicle periphery monitoring device
JPH11160078A (en) * 1997-12-02 1999-06-18 Toyota Motor Corp System for estimating condition of traveling road
JPH11211492A (en) * 1998-01-29 1999-08-06 Fuji Heavy Ind Ltd Road information recognizing device
JP2000215396A (en) * 1999-01-27 2000-08-04 Mitsubishi Motors Corp Vehicle travel controller
JP2000315255A (en) * 1999-03-01 2000-11-14 Yazaki Corp Back side direction monitoring device for vehicle and back side direction monitoring alarm device for vehicle
JP2002059798A (en) * 2000-08-22 2002-02-26 Matsushita Electric Ind Co Ltd Vehicle environment monitoring device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048338A (en) * 2004-08-04 2006-02-16 Nissan Motor Co Ltd Mobile object detection apparatus
JP2007071539A (en) * 2005-09-02 2007-03-22 Denso Corp On-vehicle navigation device
JP2009258058A (en) * 2008-04-21 2009-11-05 National Institute Of Advanced Industrial & Technology Three-dimensional object position measuring device
KR101265110B1 (en) * 2009-11-03 2013-05-20 한국전자통신연구원 Steering control leading apparatus using landmark and method thereby
WO2012134957A2 (en) * 2011-03-28 2012-10-04 Tk Holdings Inc. Driver assistance system and method
WO2012134957A3 (en) * 2011-03-28 2013-01-10 Tk Holdings Inc. Driver assistance system and method
US9327734B2 (en) 2012-06-01 2016-05-03 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
JP2015524762A (en) * 2012-06-01 2015-08-27 グーグル・インク Inferring traffic signal status and other conditions of vehicle environment based on surrogate data
US9804601B2 (en) 2012-06-01 2017-10-31 Waymo Llc Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
US10331133B2 (en) 2012-06-01 2019-06-25 Waymo Llc Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
US10831196B2 (en) 2012-06-01 2020-11-10 Waymo Llc Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
US11474520B2 (en) 2012-06-01 2022-10-18 Waymo Llc Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
US11845472B2 (en) 2012-06-01 2023-12-19 Waymo Llc Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
JP2014093018A (en) * 2012-11-06 2014-05-19 Honda Elesys Co Ltd Vehicle lane recognition device, drive support device, vehicle lane recognition method and vehicle lane recognition program
JP2017202755A (en) * 2016-05-12 2017-11-16 株式会社Subaru Steering control device of vehicle
KR20200137487A (en) * 2019-05-30 2020-12-09 한양대학교 산학협력단 Waypoint pose detection and positioning method and apparatus using waypoints
KR102290026B1 (en) 2019-05-30 2021-08-13 한양대학교 산학협력단 Waypoint pose detection and positioning method and apparatus using waypoints

Also Published As

Publication number Publication date
JP4019854B2 (en) 2007-12-12

Similar Documents

Publication Publication Date Title
US10984551B2 (en) Traveling position detection apparatus and traveling position detection method
JP3556766B2 (en) Road white line detector
US8239131B2 (en) Navigation device, navigation method, and navigation program
JP5962850B2 (en) Signal recognition device
WO2013065256A1 (en) Lane guidance display system, lane guidance display method, and lane guidance display program
JP5966747B2 (en) Vehicle travel control apparatus and method
JP2004078333A (en) Traveling route generation device
JP5949955B2 (en) Road environment recognition system
KR20080037712A (en) Object recognition device
US20070052555A1 (en) Predictive adaptive front lighting integrated system
JP6966632B2 (en) Vehicle control device
JP6924328B2 (en) Vehicle control device
JP2001291197A (en) Vehicle controller
US20190184988A1 (en) Lane keeping and following system
JP6776202B2 (en) In-vehicle camera calibration device and method
JP2019066193A (en) Own vehicle position detection device
JP4019854B2 (en) Travel route generator
JP2008110685A (en) Headlamp swivel controller
JP2019066445A (en) Position correction method, vehicle control method, and position correction device
JP2008241446A (en) Navigator and control method therefor
JP5559650B2 (en) Lane estimation device
JP2004205527A (en) Navigation system
JP2001264092A (en) Vehicle position detector
JP7351215B2 (en) Intersection center detection device, intersection lane determination device, intersection center detection method, intersection lane determination method and program
JP2022016685A (en) Measurement device, method for measurement, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050624

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20051116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070612

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070917

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111005

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121005

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121005

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131005

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees