JP6241172B2 - 自車位置推定装置及び自車位置推定方法 - Google Patents

自車位置推定装置及び自車位置推定方法 Download PDF

Info

Publication number
JP6241172B2
JP6241172B2 JP2013198029A JP2013198029A JP6241172B2 JP 6241172 B2 JP6241172 B2 JP 6241172B2 JP 2013198029 A JP2013198029 A JP 2013198029A JP 2013198029 A JP2013198029 A JP 2013198029A JP 6241172 B2 JP6241172 B2 JP 6241172B2
Authority
JP
Japan
Prior art keywords
edge
vehicle
white line
time
vehicle speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013198029A
Other languages
English (en)
Other versions
JP2015064735A (ja
Inventor
田中 慎也
慎也 田中
古性 裕之
裕之 古性
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2013198029A priority Critical patent/JP6241172B2/ja
Publication of JP2015064735A publication Critical patent/JP2015064735A/ja
Application granted granted Critical
Publication of JP6241172B2 publication Critical patent/JP6241172B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、自車位置推定装置及び自車位置推定方法に関する。
従来より、車両の左右に搭載されたカメラを用いて走行道路の白線を認識し、白線内における車両の横位置・ヨー角を推定する技術が開示されている(特許文献1)。特許文献1では、カメラの撮像領域に含まれる白線と車両の前輪及び後輪の映像を基準にして、前輪及び後輪から白線までの距離を求め、白線内における車両の横位置、ヨー角を推定している。
特開2001−283390号公報
しかしながら、上記従来技術は、画像中の白線と車輪等に基づいて車両の横位置、ヨー角を推定しているため、撮像した全ての画像に必ず白線が映っている必要があり、破線により一部の画像で白線が観測できない場合には推定できない、という問題がある。
本発明は、上記問題に鑑みてなされたものであり、その目的とするところは、撮像した画像のうち、一部の画像で白線を観測できない場合においても、白線内における車両の位置及び姿勢を推定することである。
本発明の一態様に係わる自車位置推定装置は、走行車線を区分する左右の白線を撮像した画像から白線のエッジを抽出する。また、抽出したエッジを画像上の座標と対応付けて保持し、保持したエッジを車速に応じた車両の移動量だけ車両進行方向反対側に移動して更新する。そして、保持するエッジから白線を認識し、認識した白線内における車両の位置及び姿勢を推定する。自車位置推定装置は、車速が所定の車速より大きい場合、現時刻の車両位置から第1の距離後方より後ろのエッジを消去し、車速が所定の車速以下の場合、現時刻の車両位置から第1の距離より短い第2の距離後方より後ろのエッジを消去する。
本発明によれば、撮像した画像のうち、一部の画像で白線を観測できなくても、保持するエッジから白線を認識できるため、認識した白線内における車両の位置及び姿勢を推定することができる。
図1は、本発明の第1実施形態に係る自車位置推定装置のシステム構成図である。 図2は、本発明の第1実施形態に係る自車位置推定装置のシステムブロック図である。 図3は、カメラの撮像領域を示す図である。 図4は、魚眼レンズを用いたカメラで撮像した画像の一例を示す図である。 図5は、撮像した画像からエッジを抽出する図である。 図6は、エッジ座標を画像座標系から世界座標系へ変換する図である。 図7は、エッジ座標の更新を説明する図である。 図8は、白線の認識を説明する図である。 図9は、高速走行時において白線を認識するために必要なエッジ座標を説明する図である。 図10は、低速走行時において白線を認識するために必要なエッジ座標を説明する図である。 図11は、エッジ座標の削除方法を説明する図である。 図12は、本発明の第1実施形態に係る自車位置推定方法の一例を示すフローチャートである。 図13は、本発明の第2実施形態に係るエッジ座標の削除方法を説明する図である。 図14は、本発明の第3実施形態に係る自車位置推定装置のシステムブロック図である。
以下、本発明の具体的な実施形態について、図面を参照しながら詳細に説明する。図面の記載において同一部分には同一符号を付し説明を省略する。
[第1実施形態]
図1は、本実施形態1に係る自車位置推定装置のシステム構成図である。自車位置推定装置は、フロントカメラ102と、右カメラ103と、左カメラ104と、計算機105と、車線逸脱防止警報システム106と、を備える。
フロントカメラ102は、車両101の前方に地面からの高さh1、水平から下向きに角度θ1の位置・姿勢で取り付けられている。右カメラ103及び左カメラ104は、車両101の側方に地面からの高さh2、水平から下向きに角度θ2の位置・姿勢で取り付けられている。これらのカメラは、例えばCCDやCMOSなどの撮像素子を有したカメラであり、時間的に連続して撮像し、撮像した画像を出力する。また、これらのカメラは、広い検出エリアを確保するため、魚眼レンズ(または広角レンズ)を撮像素子の前面に取り付けた魚眼カメラである。なお、車両101の前方、側方だけでなく、後方にも同様のカメラを搭載してもよい。
計算機105は、CPU、RAM、ROM、及び各種の操作子等からなるマイコンにより構成され、フロントカメラ102,右カメラ103及び左カメラ104で撮像された画像を取り込み、所定の画像処理を実行する。
車線逸脱防止警報システム106は、計算機105の画像処理結果に応じて、運転者に警報を行う。警報は、例えば、警報音や各種音声ガイダンスを発生させたり、カーナビゲーション装置に警告画面を表示するものである。
図2は、自車位置推定装置のシステムブロック図である。図2に示すように、自車位置推定装置は、フロントカメラ102と、右カメラ103と、左カメラ104と、計算機105と、車速センサー112と、車線逸脱防止警報システム106と、を備える。さらに、計算機105は、エッジ抽出部107と、座標変換部108と、エッジ座標保持部109と、エッジ座標更新部110と、エッジ座標消去部111と、白線認識部113と、位置姿勢推定部114と、を備える。
エッジ抽出部107は、フロントカメラ102,右カメラ103及び左カメラ104(以下、各カメラと称す)で撮像した画像を画像処理することでエッジを抽出する。
座標変換部108は、エッジ抽出部107で抽出したエッジの画像上の座標を世界座標系に変換する。
エッジ座標保持部109は、各カメラで撮像した画像から抽出されたエッジ座標と、エッジ座標更新部110で更新されたエッジ座標を保持する。
エッジ座標更新部110は、エッジ座標保持部109が保持するエッジ座標を、車速センサー112で計測された車速分だけ移動して更新する。
エッジ座標消去部111は、エッジ座標更新部110で更新したエッジ座標を所定の条件に基づいて消去する。
車速センサー112は、車速を観測するための装置であり、車両101に取り付けられる。
白線認識部113は、エッジ座標保持部109が保持するエッジ座標から白線を認識する。
位置姿勢推定部114は、白線認識部113で認識した白線内における車両101の位置及び姿勢を推定する。
図3は、各カメラの撮像領域を示す図である。図3に示すように、フロントカメラ102は、所定の画角で車両前方の撮像領域201を撮像する。同様に、右カメラ103,左カメラ104は、それぞれ所定の画角で車両側方の撮像領域202,203を撮像する。このとき、フロントカメラ102の画角内には車両101が走行する車線を区分する左右の白線が撮像可能となっている。ここでいう白線とは、実線、破線等の車線を区分するあらゆる白線を含む。
図4は、各カメラが撮像した画像の一例を示す図である。図4(a)〜(c)は、順に左カメラ104,フロントカメラ102,右カメラ103が撮像した画像である。各カメラは魚眼レンズを装着しているため、これらの画像は、図4(a)〜(c)に示すように、カメラの近傍が引き伸ばされたような画像となる。
図5は、各カメラが撮像した画像中のエッジを抽出する図である。エッジ抽出部107は、図5(a)〜(c)に示す画像を画像処理することで画像内に存在するエッジを抽出する。抽出されたエッジは、図5(d)〜(f)のようにそれぞれ○,△,□の画素で表される。また、抽出されたエッジは、抽出された時刻とともに関連付けられる。なお、エッジを抽出する際は、予めエッジ抽出内領域を定めておくことが好ましい。例えば、カメラのレンズ縁は、撮像画像において固定の位置であるため、予めエッジ検出内領域からカメラのレンズ縁を除いておくことにより、カメラのレンズ縁のエッジが検出されることはない。また、カメラから遠方のエッジは処理しないように定めておく。このように設定することにより、エッジ抽出部107が不要なエッジを抽出することを防止することができる。
図6は、画像座標系を世界座標系に変換する図である。図6(a)〜(c)に示すように、エッジ抽出部107は、各カメラが撮像した画像中のエッジを抽出するとともに、画像横方向をx軸、画像縦方向をy軸として、抽出したエッジを画像上の座標(x,y)と対応付けて出力する。抽出されるエッジは、通常複数存在するため、エッジ座標も複数存在することになる。これら複数のエッジ座標をエッジ座標群と称する。座標変換部108は、エッジ抽出部107が出力したエッジ座標群(x,y)を世界座標系(XW,YW,ZW)に変換する。世界座標系に変換すると、図6(a)〜(c)に示すエッジの画素は、車両101に対して図6(d)に示すように対応付けられる。本実施例の世界座標系は右手座標系であり、XW軸は、車両進行方向に対して垂直方向である。また、YW軸は、車両鉛直方向であり、ZW軸は、車両進行方向である。画像座標系から世界座標系への座標変換については、例えば、「コンピュータビジョン −視角の幾何学−」(著者:佐藤淳)に記載の方法を使って変換することができる。具体的には、カメラの内部パラメータと外部パラメータ(カメラの取り付け高さ、姿勢(ヨー角、ピッチ角、ロール角))を予め測定しておけば画像中の任意の座標を、世界座標に変換できる。このように変換された世界座標系のエッジ座標群は、エッジ座標保持部109に保持される。なお、二次元の画像座標系から三次元の世界座標系に変換するため、世界座標系の鉛直方向に相当するYWの値は0として復元することになる。YW=0は路面の点であることを意味する。
なお、画像座標系から世界座標系へ変換する際に、毎回変換計算を実行してもよいが、この計算時間を短くできればより好ましい。その方法として、例えば、カメラの内部パラメータと外部パラメータとが固定であると仮定して、画像座標系から世界座標系への変換テーブルを作成することが挙げられる。ここで、カメラの内部パラメータは常に固定であるが、外部パラメータは車両挙動で変化する(特にピッチ角)ため、外部パラメータを固定として扱うと、誤差が生じる場合がある。しかし、高速道路のように、車両101が直進運動していると仮定できる場合は、この誤差を無視しても影響は少ない。よって、車両101が直進運動していると仮定できる場合は、変換テーブルを作成して画像座標系から世界座標系への変換計算時間を短縮することができる。
図7は、エッジ座標群の更新を示す図である。図7(a)は、車両101と、右カメラ103及び左カメラ104の撮像領域202,203を俯瞰図として表したものである。ここでは、説明を簡略化するために、フロントカメラ102の撮像領域201は省略する。また、車両101は、一定の時速V[km/h]でZW軸の正方向に直進運動するものとする。図7(a)に示すように、エッジ抽出部107は、時刻t=−2,−1,0のそれぞれにおいて撮像した画像からエッジを抽出する。時刻t=−2,−1,0のそれぞれにおいて抽出したエッジは順に白丸、灰丸、黒丸の画素で表される。なお、各カメラは30fpsで画像を撮像するので、時刻t=−2,−1,0の各時刻の間隔は約30msである。
次に、図7(b)〜(d)を参照し、エッジ座標群の更新について説明する。図7(a)に示す時刻t=−2,−1,0に対応するのが図7(b)〜(d)である。まず、図7(b)に示すように、エッジ抽出部107は、時刻t=−2の際に撮像した画像からエッジを抽出する。抽出されたエッジは白丸の画素で表される。その後、座標変換部108は、抽出したエッジの画像座標を画像座標系から世界座標系へ変換する。変換された世界座標系のエッジ座標群を(XW1,YW1,ZW1)とする。エッジ座標保持部109は、これらの座標群を保持する。
続いて、図7(c)に示すように、時刻t=−2から約30ms後となる時刻t=−1の際にも時刻t=−2の際と同様の処理を行い、エッジ座標群を抽出する。時刻t=−1の際に抽出したエッジ座標群を(XW2,YW2,ZW2)とする。ここで、時刻t=−2から時刻t=−1までの車両101の移動量をd[m]とすると、d=(V×1000÷3600)÷30となる。エッジ座標更新部110は、この移動量dを使ってエッジ座標群を更新する。具体的には、エッジ座標更新部110は、時刻t=−1の際に、時刻t=−2で抽出したエッジ座標群(XW1,YW1,ZW1)を移動量dだけ移動して、(XW1,YW1,ZW1−d)に更新する。ZWの値だけ更新するのは、車両101が直進運動しているからである。このように更新することにより、時刻t=−1の際に、エッジ座標群(XW2,YW2,ZW2)から移動量dだけ車両進行方向反対側にエッジ座標群(XW1,YW1,ZW1)が移動することになる。エッジ座標保持部109は、時刻t=−1の際に抽出したエッジ座標群(XW2,YW2,ZW2)と、更新したエッジ座標群(XW1,YW1,ZW1−d)とを保持する。
続いて、図7(d)に示すように、時刻t=−1から約30ms後となる時刻t=0の際にも時刻t=−2の際と同様の処理を行い、エッジ座標群を抽出する。時刻t=0の際に抽出したエッジ座標群を(XW3,YW3,ZW3)とする。また、時刻t=−1から時刻t=0までの車両101の移動量は上述したdであるため、エッジ座標更新部110は、時刻t=0の際に、時刻t=−1で抽出したエッジ座標群(XW2,YW2,ZW2)と、更新したエッジ座標群(XW1,YW1,ZW1−d)とを移動量dだけ移動して、それぞれのエッジ座標群を(XW2,YW2,ZW2−d)、(XW1,YW1,ZW1’−d)に更新する。ここで、「ZW1’」について説明する。時刻t=−2の際に抽出した座標群(XW1,YW1,ZW1)は、時刻t=−1の際に(XW1,YW1,ZW1−d)に更新された。更新された「ZW1−d」をZW1’に置換すれば、時刻t=0の際にエッジ座標群を更新すると(XW1,YW1,ZW1’−d)と表現することができる。すなわち、このように置換することにより、座標群の座標値は、更新時に移動量dだけ移動した形で表現できる。エッジ座標保持部109は、時刻t=0の際に抽出したエッジ座標群(XW3,YW3,ZW3)と、更新したエッジ座標群(XW2,YW2,ZW2−d)、(XW1,YW1,ZW1’−d)とを保持する。以上のように、エッジ座標更新部110は、撮像処理ごとの経過時間に合わせて、エッジ座標群を移動量dだけ車両進行方向反対側に移動して、エッジ座標群を更新する。そして、エッジ座標保持部109は、更新されたエッジ座標群を保持して、撮像ごとに蓄積していく。なお、更新されたエッジ座標群は、更新された時刻とともに関連付けられる。
図8は、白線の認識を示す図である。図8(a)に示す時刻t=−2,−1,0に対応するのが図8(b)〜(d)である。図8(d)に示すように、白線認識部113は、エッジ座標保持部109が保持するエッジ座標群を線形補完して白線を認識する。また、エッジ座標群を線形補完する際に最適化処理を実行することができる。最適化処理については、例えば、特許第3424334号公報に開示されているので、必要ならば参照されたい。本実施例では、次のように最適化処理を実行する。図8(d)に示すように、白線を直線モデルとして、左側白線401と右側白線402は平行であると仮定すると、左側白線401はZ=aX+b+w、右側白線402はZ=aX+bとしてモデル化することができる。このとき、エッジ座標群のうちXWとZWの値は既知であるため、a,b,wが推定する未知パラメータとなる。a,bは、順に白線内での車両101のヨー角、横位置に相当し、wは左側白線401と右側白線402の幅に相当する。これらのパラメータは、Simplex法やPowell法など既存の手法を用いて求めることができる。ここでは世界座標系のエッジ座標群を用いて白線を認識することについて説明した。しかし、エッジを抽出した際に、当該抽出したエッジを画像上の座標(x,y)と対応付けて出力するため、このxy座標に対応するエッジ座標群を保持・更新し、白線を認識してもよい。
位置姿勢推定部114は、白線認識部113で認識した白線内における車両101の位置及び姿勢を推定する。本実施例では白線認識部113でヨー角、横位置をモデルに組み込んだ最適化処理を実行した際に、車両101のヨー角、横位置を推定している。位置姿勢推定部114は、この推定値をそのまま用いて車両101の位置及び姿勢を推定する。
本実施例では、エッジ座標更新部110は、撮像処理ごとに、エッジ座標群を更新して蓄積する。白線認識部113は、蓄積されたエッジ座標群から白線を認識するが、蓄積されたエッジ座標群の量によっては、認識する白線の精度に影響を及ぼすおそれがある。そのため、白線を認識する際に、その精度に影響を及ぼさないように蓄積されたエッジ座標群を適切に消去する必要がある。
白線を認識するために必要となるエッジ座標群と車両101との距離は、車速によって異なる。そこで、高速走行時と低速走行時を例にとって、白線を認識するために必要となるエッジ座標群と車両101との距離について説明する。図9は、高速走行時においてエッジ座標群を抽出する図である。図9(a)に示す時刻t=−2,−1,0に対応するのが図9(b)〜(d)である。図9(a)に示すように高速走行時は、後述する低速走行時と比べて、撮像ごとの移動距離が大きいため、走行距離に対して抽出できるエッジが少なくなる。よって、現時刻の車両位置から比較的後方で抽出したエッジ座標群を用いて、白線を認識することが好ましい。つまり、高速走行時において、現時刻の車両位置からの距離に基づいて過去に抽出したエッジ座標群を消去する場合、その距離の値は大きいことになる。
図10は、低速走行時においてエッジ座標群を抽出する図である。図10(a)に示す時刻t=−2,−1,0に対応するのが図10(b)〜(d)である。図10(a)に示すように、低速走行時は、上述した高速走行時と比べて、撮像ごとの移動距離が小さいため、走行距離に対して抽出できるエッジが多くなる。このため、高速走行時のように比較的後方で抽出したエッジ座標群を用いて白線を認識するとその精度が悪くなるおそれがある。また、低速走行時は、カーブ走行中や車線変更中などが想定されるが、このような場合に抽出したエッジ座標群を考慮して白線を認識すると、図9(d)の破線のようにその精度が悪くなるおそれがある。したがって、低速走行時において、現時刻の車両位置からの距離に基づいて過去に抽出したエッジ座標群を消去する場合、その距離の値は、高速走行時と比べて小さくなる。このように、車速に応じて、白線を認識するために必要となるエッジ座標群と車両101との距離は異なる。このため、車両101との距離に基づいて、エッジ座標群を消去することは成立しない。
そこで、車速に応じて、白線を認識するために必要となるエッジ座標群と車両101との距離を変更すればよい。例えば、高速道路では、白線はおよそ15m間隔となっているため、車速が60km/h超なら、現時刻の車両位置から15m後方までのエッジ座標群があればよい。一方、一般道路では、白線はおよそ6m間隔となっているため、車速が60km/h以下なら、現時刻の車両位置から6m後方までのエッジ座標群があればよい。よって、エッジ座標消去部111は、図11(d)に示すように、時刻t=0の際に、車速が60km/h超なら、当該時刻の車両位置から15m後方(ZW=−15)より後ろのエッジ座標群を消去する。また、車速が60km/h以下なら、当該時刻の車両位置から6m後方(ZW=−6)より後ろのエッジ座標群を消去する。このような消去処理は、例えば、If−Thenを使って下記に示す処理を実行すればよい。すなわち、車速センサー112で検出した現時刻の車速をV[km/h]とすれば、
If(V > 60 && ZW < −15)
Then delete
Else if(V <= 60 && ZW < −6)
Then delete
Else
Then Save
となる。このように、エッジ座標消去部111は、車速に応じて白線を認識する際に不要となるエッジ座標群を消去する。なお、ここに示した処理はあくまで一例であり、シミュレーションや実験などによって種々の変形が可能である。
また、エッジ座標消去部111は、計算機105のメモリに記録できるエッジ座標群のデータ上限を予め設定しておき、データ数が上限を超えないように、抽出された時刻が古いデータから順に消去してもよい。
次に、自車位置推定処理について、図12に示すフローチャートを参照して説明する。この処理は、システムの電源がオンになったら開始する。
まず、ステップS201において、計算機105は、各カメラで撮像した画像を取得する。
次にステップS202において、エッジ抽出部107は、ステップS201で取得した画像中のエッジを抽出し、抽出したエッジを画像上の座標群(x,y)と対応付けて出力する。
次にステップS203において、座標変換部108は、ステップS202で出力したエッジ座標群(x,y)に対して、画像座標系から世界座標系へ座標変換を行う。
次にステップS204において、エッジ座標保持部109は、ステップS203で座標変換したエッジ座標群を保持する。なお、システム起動時にエッジ座標保持部109は、システム起動前に保持していたエッジ座標群を初期化する。
次にステップS205において、エッジ座標更新部110は、車速センサー112で検出した車速に基づいて、ステップS204で保持したエッジ座標群を更新する。
次にステップS206において、エッジ座標消去部111は、車速センサー112で検出した車速に基づいて、ステップS205で更新したエッジ座標群を消去する。
次にステップS207において、エッジ座標保持部109は、ステップS206で消去されずに残ったエッジ座標群を再保持する。
次にステップS208において、白線認識部113は、ステップS207で保持したエッジ座標群から白線を認識する。
次にステップS209において、位置姿勢推定部114は、ステップS208で認識した白線内における車両101の位置及び姿勢を推定する。位置姿勢推定部114は、車両101が白線内から逸脱していると推定した場合、車線逸脱防止警報システム106に車線逸脱信号を出力してステップS210に進む。一方、車両101が白線内から逸脱していないと推定した場合、ステップS211に進む。
ステップS210において、車線逸脱防止警報システム106は、所定の警報を実施する。
ステップS211において、計算機105は、システムの電源がオフとなったら処理を終了し、システムの電源がオンであればステップS201からの作業を繰り返す。
以上説明したように、本実施形態の自車位置推定装置によれば、車両101が走行する車線を区分する左右の白線を撮像した画像から白線のエッジを抽出する。抽出したエッジを画像上の座標群と対応付けて出力する。出力したエッジ座標群を世界座標に変換し、変換したエッジ座標群を保持する。保持したエッジを車速に応じた車両の移動量だけ車両進行方向反対側に移動して更新し、更新したエッジ座標群を再保持する。また、保持しているエッジ座標群から白線を認識する。そして、認識した白線内における車両101の位置及び姿勢を推定する。これにより、撮像した画像のうち、一部の画像で白線を観測できなくても、保持しているエッジ座標群から白線を認識できるため、認識した白線内における車両の位置及び姿勢を推定することができる。
また、本実施形態の車両用表示装置によれば、エッジ座標消去部111が、過去に抽出したエッジ座標群を消去する。これにより、白線を認識する際に、不要なエッジ座標群を消去することができる。
また、本実施形態の車両用表示装置によれば、エッジ座標消去部111が、車速に基づいて過去に抽出したエッジ座標群を消去する。これにより、白線を認識する際に、不要なエッジ座標群を消去することができる。
また、本実施形態の車両用表示装置によれば、エッジ座標消去部111が、抽出された時刻が古いものから順にエッジ座標群を消去する。これにより、白線を認識する際に、不要なエッジ座標群を消去することができる。
また、本実施形態の車両用表示装置によれば、座標変換部108が、エッジ座標群を画像座標系から世界座標系に変換する。これにより、車両101とエッジ座標群との対応付けが容易になる。
また、本実施形態の車両用表示装置によれば、白線認識部113が、エッジ座標群を線形補完する際に、最適化処理を行う。これにより、認識する白線の精度が向上する。
また、本実施形態の車両用表示装置によれば、車両101の前方および左右に魚眼カメラが取り付けられる。これにより、3つのカメラで撮像した各画像からエッジを抽出できるため、効率よくエッジを抽出することができる。
さらに、車両101の前方および左右だけでなく、車両後方にも魚眼カメラが取り付けられる。これにより、4つのカメラで撮像した各画像からエッジを抽出できるため、効率よくエッジを抽出することができる。
[第2実施形態]
次に、本発明の第2実施形態について説明する。第2実施形態が、第1実施形態と相違する点は、エッジ座標群を抽出・更新する際に、抽出・更新した時刻を関連付けるほかに、抽出・更新した時刻を簡略化して示す処理時間を設定することである。処理時間の設定について図13を参照して説明する。図13(a)に示す時刻t=−2,−1,0に対応するのが図13(b)〜(d)である。図13(b)に示すように、エッジ抽出部107は、時刻t=−2の際に抽出したエッジ座標群の処理時間をT=0として設定する。続いて図13(c)に示すように、エッジ抽出部107は、時刻t=−1の際に抽出したエッジ座標群の処理時間をT=0として設定する。また、エッジ座標更新部110は、時刻t=−1の際に更新したエッジ座標群の処理時間をT=−1として設定する。続いて図13(d)に示すように、エッジ抽出部107は、時刻t=0の際に抽出したエッジ座標群の処理時間をT=0として設定する。また、エッジ座標更新部110は、時刻t=0の際に更新したエッジ座標群の処理時間をそれぞれT=−1,T=−2として設定する。このように、ある時刻において抽出したエッジ座標群の処理時間をT=0として設定し、エッジ座標群を更新するごとにT=−1,T=−2のように−1ずつ増加させて処理時間を設定する。このように処理時間を設定することにより、ある時刻において抽出・更新されたエッジ座標群を実時間ではなく、相対的な時間として簡略化して示すことができる。なお、設定方法はこれに限られるものではなく、エッジ座標群が現時刻からどれだけ前に検出されたかを示す時間変数を毎回更新すればよい。
第1実施形態では車速に応じてエッジ座標群を消去する距離の閾値を設定したが、本実施形態では処理時間に基づいてエッジ座標群を消去する。具体的に説明すると、まずエッジ座標群を更新するごとに車両101が移動する距離D[m]は、D=車速×時間(=現在の時刻−更新された時刻)となる。このため、エッジ座標群を消去するための判断基準を、「現在の時刻−更新された時刻」とすれば、車速に応じてエッジ座標群を消去する距離が変わることになる。このとき、「現在の時刻−更新された時刻」のようにエッジ座標群を更新した時刻(実時間)ではなく、エッジ座標群を更新した時刻を簡略化して示す処理時間に基づいて、エッジ座標群を消去すれば、実時間を使うことなくエッジ座標群を消去できる。すなわち、図13(d)に示すように、処理時間T=−2に係るエッジ座標群を消去するよう設定すれば、実時間を使って距離を計算する必要はなく、さらに第1実施形態のようにif−thenの処理を作成する必要もなく、エッジ座標群を消去することができる。なお、処理時間の閾値は予めシミュレーションや実験などによって求めておく。
以上説明したように、本実施形態の自車位置推定装置によれば、所定時間より前に抽出されたエッジ座標群を消去する。これにより、白線を認識する際に、不要なエッジ座標群を消去することができる。
[第3実施形態]
第3実施形態として示す自車位置推定装置は、図15に示すように、舵角センサー115とヨーレートセンサー116を備えた点で、上述した第1実施形態と異なる。
第1実施形態では、エッジ座標更新部110は、エッジ座標群を更新する際に、そのエッジ座標群から車両進行方向反対側のみに、車両101の移動量dだけ移動して更新した。本実施例に係る自車位置推定装置は、舵角センサー115とヨーレートセンサー116とを備えているため、車幅方向の動きを検出することができる。このため、エッジ座標更新部110がエッジ座標群を更新する際に、車両進行方向反対側に移動量dをエッジ座標群から移動するだけではなく、舵角センサー115とヨーレートセンサー116とで検出した車幅方向の移動量もエッジ座標群から移動して更新する。このようにエッジ座標群は、車両101の進行方向と車幅方向との移動に基づいて更新されるため、第1実施形態より正確に車両101の移動を捉えることができる。以上説明したように、本実施形態の自車位置推定装置によれば、更新されるエッジ座標群の精度が高くなるため、エッジ座標群を用いて認識する白線の精度も高くなる。これにより、白線内における車両101の位置及び姿勢の推定精度が向上する。
101 車両
102 フロントカメラ
103 右カメラ
104 左カメラ
105 計算機
106 車線逸脱防止警報システム
107 エッジ抽出部
108 座標変換部
109 エッジ座標保持部
110 エッジ座標更新部
111 エッジ座標消去部
112 車速センサー
113 白線認識部
114 位置姿勢推定部
115 舵角センサー
116 ヨーレートセンサー

Claims (5)

  1. 車両の車速を検出する車速検出手段と、
    前記車両に搭載され、前記車両が走行する車線を区分する左右の白線を撮像することが可能な撮像手段と、
    前記撮像手段が撮像した画像から前記白線のエッジを抽出するエッジ抽出手段と、
    前記エッジ抽出手段で抽出した前記エッジを前記画像上の座標と対応付けて保持するエッジ保持手段と、
    前記エッジ保持手段が保持する前記エッジを、前記車速に応じた前記車両の移動量だけ車両進行方向反対側に移動して更新するエッジ更新手段と、
    前記エッジ保持手段が保持する前記エッジを線形補完して白線を認識する白線認識手段と、
    前記白線認識手段で認識した白線内における前記車両の位置及び姿勢を推定する位置姿勢推定手段と、
    前記エッジ保持手段が保持する前記エッジを消去するエッジ消去手段と
    え、
    前記エッジ消去手段は、前記車速が所定の車速より大きい場合、現時刻の車両位置から第1の距離後方より後ろのエッジを消去し、前記車速が前記所定の車速以下の場合、現時刻の車両位置から前記第1の距離より短い第2の距離後方より後ろのエッジを消去することを特徴とする自車位置推定装置。
  2. 前記エッジ消去手段は、抽出された時刻が古い順に前記エッジを消去することを特徴とする請求項1に記載の自車位置推定装置。
  3. 前記エッジの座標を画像座標から世界座標に変換する座標変換手段を備えることを特徴とする請求項1または2に記載の自車位置推定装置。
  4. 前記車両の舵角を検出する舵角検出手段と、
    前記車両のヨーレートを検出するヨーレート検出手段とをさらに備え、
    前記エッジ更新手段は、前記エッジ保持手段が保持する前記エッジを、前記車速に応じた前記車両の移動量だけ移動して更新し、前記舵角検出手段で検出した前記舵角と前記ヨーレート検出手段で検出した前記ヨーレートとに基づく車幅方向の移動量だけ移動して更新することを特徴とする請求項1〜3のいずれか1項に記載の自車位置推定装置。
  5. 車両の車速を検出し、
    前記車両が走行する車線を区分する左右の白線を撮像した画像から前記白線のエッジを抽出し、
    抽出した前記エッジを前記画像上の座標と対応付けて保持し、
    保持した前記エッジを前記車速に応じた前記車両の移動量だけ車両進行方向反対側に移動して更新し、
    保持した前記エッジを線形補完して白線を認識し、
    認識した白線内における前記車両の位置及び姿勢を推定し、
    前記車速が所定の車速より大きい場合、現時刻の車両位置から第1の距離後方より後ろのエッジを消去し、前記車速が前記所定の車速以下の場合、現時刻の車両位置から前記第1の距離より短い第2の距離後方より後ろのエッジを消去する
    ことを特徴とする自車位置推定方法。
JP2013198029A 2013-09-25 2013-09-25 自車位置推定装置及び自車位置推定方法 Active JP6241172B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013198029A JP6241172B2 (ja) 2013-09-25 2013-09-25 自車位置推定装置及び自車位置推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013198029A JP6241172B2 (ja) 2013-09-25 2013-09-25 自車位置推定装置及び自車位置推定方法

Publications (2)

Publication Number Publication Date
JP2015064735A JP2015064735A (ja) 2015-04-09
JP6241172B2 true JP6241172B2 (ja) 2017-12-06

Family

ID=52832560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013198029A Active JP6241172B2 (ja) 2013-09-25 2013-09-25 自車位置推定装置及び自車位置推定方法

Country Status (1)

Country Link
JP (1) JP6241172B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10099911B2 (en) 2007-03-15 2018-10-16 The Coca-Cola Company Multiple stream filling system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180079428A (ko) 2015-11-02 2018-07-10 스타쉽 테크놀로지스 오 자동 로컬리제이션을 위한 장치 및 방법
JP6611334B2 (ja) * 2016-02-29 2019-11-27 クラリオン株式会社 区画線認識装置
JP7118836B2 (ja) 2018-09-25 2022-08-16 フォルシアクラリオン・エレクトロニクス株式会社 区画線認識装置
CN113793297A (zh) * 2021-08-13 2021-12-14 北京迈格威科技有限公司 位姿确定方法、装置、电子设备及可读存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3584194B2 (ja) * 2000-02-22 2004-11-04 株式会社ホンダエレシス 白線検出方法および白線検出装置
JP3660308B2 (ja) * 2001-05-18 2005-06-15 本田技研工業株式会社 車両の走行区分線認識装置
JP3722487B1 (ja) * 2004-05-19 2005-11-30 本田技研工業株式会社 車両用走行区分線認識装置
JP4614826B2 (ja) * 2005-06-14 2011-01-19 トヨタ自動車株式会社 道路区画線検出装置
JP4733545B2 (ja) * 2006-03-27 2011-07-27 富士重工業株式会社 車線認識装置
JP5482167B2 (ja) * 2009-12-10 2014-04-23 アイシン・エィ・ダブリュ株式会社 車両用走行案内装置、車両用走行案内方法及びコンピュータプログラム
KR20120072020A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 자율주행 시스템의 주행정보 인식 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10099911B2 (en) 2007-03-15 2018-10-16 The Coca-Cola Company Multiple stream filling system

Also Published As

Publication number Publication date
JP2015064735A (ja) 2015-04-09

Similar Documents

Publication Publication Date Title
CN106463064B (zh) 物体识别装置和使用该物体识别装置的车辆行驶控制装置
JP5538411B2 (ja) 車両周囲監視装置
JP4733545B2 (ja) 車線認識装置
JP6453192B2 (ja) 画像認識処理装置、及びプログラム
JP6241172B2 (ja) 自車位置推定装置及び自車位置推定方法
JPWO2018016394A1 (ja) 走路境界推定装置及びそれを用いた走行支援システム
US10127460B2 (en) Lane boundary line information acquiring device
JP2013225295A5 (ja)
JP4609603B2 (ja) 3次元情報表示装置および3次元情報表示方法
JP2016120892A (ja) 立体物検出装置、立体物検出方法および立体物検出プログラム
JP4940177B2 (ja) 交通流計測装置
JP2016192177A (ja) 車両検出システム、車両検出装置、車両検出方法、及び車両検出プログラム
JP2018092596A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラム
JP6493000B2 (ja) 路面標示検出装置及び路面標示検出方法
WO2016151976A1 (ja) 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路
CN107430821B (zh) 图像处理装置
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
JP4553071B1 (ja) 3次元情報表示装置および3次元情報表示方法
JP5832850B2 (ja) 車線監視システム及び車線監視方法
JP2013168057A (ja) 道路境界判定装置及び道路境界判定方法
JP2012256159A (ja) 接近物検知装置および接近物検知方法
JP5464073B2 (ja) 車外環境認識装置、車外環境認識方法
JP2004038760A (ja) 車両用走行路認識装置
JP7429246B2 (ja) 対象を識別する方法とシステム
CN112513573B (zh) 立体摄像机装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171023

R151 Written notification of patent or utility model registration

Ref document number: 6241172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151