JP2015087149A - 移動体位置姿勢角推定装置及び移動体位置姿勢角推定方法 - Google Patents

移動体位置姿勢角推定装置及び移動体位置姿勢角推定方法 Download PDF

Info

Publication number
JP2015087149A
JP2015087149A JP2013224054A JP2013224054A JP2015087149A JP 2015087149 A JP2015087149 A JP 2015087149A JP 2013224054 A JP2013224054 A JP 2013224054A JP 2013224054 A JP2013224054 A JP 2013224054A JP 2015087149 A JP2015087149 A JP 2015087149A
Authority
JP
Japan
Prior art keywords
edge
evaluation value
evaluation
projection image
posture angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013224054A
Other languages
English (en)
Other versions
JP6171849B2 (ja
Inventor
山口 一郎
Ichiro Yamaguchi
一郎 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2013224054A priority Critical patent/JP6171849B2/ja
Publication of JP2015087149A publication Critical patent/JP2015087149A/ja
Application granted granted Critical
Publication of JP6171849B2 publication Critical patent/JP6171849B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】エッジが偏って存在している場合でも移動体の位置と姿勢角を正確に推定する。【解決手段】本発明の移動体位置姿勢角推定装置10は、投影画像上の評価点に対して設定された評価値を補正する評価値補正部25を備え、この評価値補正部25は、投影画像上に設定されたエッジの中から異なる方向を向いて交差するエッジのペアを抽出し、投影画像上のすべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較して、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価点の数を増加させることで、評価値が増大するように評価値を補正する。【選択図】図1

Description

本発明は、パーティクルフィルタを用いて移動体の位置及び姿勢角を推定する移動体位置姿勢角推定装置及びその方法に関する。
三次元地図とカメラの撮像画像とを比較して移動体の位置を算出する技術として、特許文献1が開示されている。この技術では、移動体に搭載されたカメラで撮像した範囲内に映像的な特徴点の三次元情報を生成し、この三次元情報を記録した記録媒体と現実の映像とが一致する三次元座標上の地点と方向を求めて移動体の位置や姿勢角を求めていた。
この従来技術では、算出される移動体の位置や姿勢角の誤差分布が大きくなる特徴点群を抽出し、この特徴点群を除いた残りの特徴点を用いて再演算を行って位置や姿勢角の算出精度を向上させていた。
国際公開WO2005/038402A1号公報
しかしながら、上述した従来の技術では、特徴点であるエッジの配置を考慮せずに移動体の位置と姿勢角を推定していたので、エッジが偏って存在している場合には移動体の位置と姿勢角の推定結果に大きな誤差を含んでいる恐れがあるという問題点があった。
そこで、本発明は、上述した実情に鑑みて提案されたものであり、エッジが偏って存在している場合でも移動体の位置と姿勢角を正確に推定することのできる移動体位置姿勢角推定装置及び移動体位置姿勢角推定方法を提供することを目的とする。
上述した課題を解決するために、本発明は、投影画像上に設定されたエッジの中から異なる方向を向いて交差するエッジのペアを抽出し、移動体の進行方向に第1方向の軸を設定し、移動体の進行方向と直交する移動体の横方向に第2方向の軸を設定する。そして、投影画像上のすべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較して、第1方向成分の長さの総和が小さい場合に第1方向を向いたエッジ上の評価値が増大するように評価値を補正する。
本発明によれば、エッジの配置を考慮して評価値を補正できるので、エッジが偏って存在している場合でも移動体の位置と姿勢角を正確に推定することができる。
図1は、本発明の第1実施形態に係る移動体位置姿勢角推定装置を備えた移動体位置姿勢角推定システムの構成を示すブロック図である。 図2は、本発明の第1実施形態に係る移動体位置姿勢角推定装置による移動体の位置姿勢角推定処理の処理手順を示すフローチャートである。 図3は、本発明の第1実施形態に係る移動体位置姿勢角推定装置による評価値の補正方法を説明するための図である。 図4は、本発明の第1実施形態に係る移動体位置姿勢角推定装置による評価値の補正方法を説明するための図である。 図5は、本発明の第1実施形態に係る移動体位置姿勢角推定装置による評価値の補正方法を説明するための図である。 図6は、本発明の第2実施形態に係る移動体位置姿勢角推定装置による評価値の補正方法を説明するための図である。
以下、本発明を適用した第1及び第2実施形態について図面を参照して説明する。
[第1実施形態]
[移動体位置姿勢角推定システムの構成]
図1は、本実施形態に係る移動体位置姿勢角推定装置を搭載した移動体位置姿勢角推定システムの構成を示すブロック図である。ただし、本実施形態では移動体の一例として、車両に適用した場合について説明する。
図1に示すように、本実施形態に係る移動体位置姿勢角推定システムは、ECU1と、カメラ2と、三次元地図データベース3と、車両センサ群4とを備えている。
ここで、ECU1は、ROM、RAM、演算回路等によって構成された電子制御ユニットであり、本実施形態に係る移動体位置姿勢角推定装置10を備えている。尚、ECU1は他の制御に用いるECUと兼用してもよい。
カメラ2は、例えばCCD等の固体撮像素子を用いたものであり、本実施形態では、車両のフロントバンパーに光軸が水平で、尚且つ車両前方が撮像可能となるように設置されている。撮像された画像はECU1へ送信される。
三次元地図データベース3は、三次元位置情報を記憶しており、例えば路面表示を含む周囲環境のエッジ等を記憶している。本実施形態では、少なくとも道路端部を示す区画線や縁石等の位置とその向きの三次元情報が記録されており、この他に白線、停止線、横断歩道、路面マーク等の路面表示の他に、建物等の構造物のエッジ情報も含まれている。尚、三次元地図データベース3のデータフォーマットとして、道路端部等の各地図情報は、エッジの集合体として定義されている。エッジが長い直線の場合には、例えば1m毎に区切られるため、極端に長いエッジは存在しない。直線の場合には、各エッジは、直線の両端点を示す三次元位置情報を持っている。曲線の場合には、各エッジは、曲線の両端点と中央点を示す三次元位置情報を持っている。
車両センサ群4は、GPS受信機41と、アクセルセンサ42と、ステアリングセンサ43と、ブレーキセンサ44と、車速センサ45と、加速度センサ46と、車輪速センサ47と、その他センサ48とを備えている。車両センサ群4は、ECU1に接続され、各センサ41〜48によって検出された各種の検出値をECU1に供給する。ECU1は、車両センサ群4の出力値を用いることによって、車両の概位置を算出したり、単位時間に車両が進んだ移動量を示すオドメトリを算出する。
移動体位置姿勢角推定装置10は、パーティクルフィルタを用いて、車両の周囲環境を撮像した画像と三次元地図データのマッチングを行って車両の位置及び姿勢角を推定する装置である。そして、特定のプログラムを実行することにより、エッジ画像算出部12、オドメトリ算出部14、パーティクル存在分布範囲設定部16、パーティクル散布部18として動作する。さらに、投影画像作成部20、評価点設定部22、尤度算出部24、評価値補正部25、位置姿勢角推定部26として動作する。
エッジ画像算出部12は、カメラ2から車両の周囲環境を撮像した画像を取得し、この画像からエッジを検出してエッジ画像を算出する。カメラ2で撮像された画像には、自車両の位置及び姿勢角を推定するために必要な路面情報として、少なくとも道路端部を示す区画線や縁石が撮像されている。また、この他に白線、停止線、横断歩道、路面マーク等の路面表示が撮像されていてもよい。
オドメトリ算出部14は、車両センサ群4から得られる各種センサ値を用いて、車両の単位時間当たりの移動量であるオドメトリを算出する。
パーティクル存在分布範囲設定部16は、オドメトリ算出部14で算出されたオドメトリの分だけ移動した位置と姿勢角の近傍に所定範囲のパーティクルの存在分布範囲を設定する。
パーティクル散布部18は、パーティクル存在分布範囲設定部16によって設定されたパーティクルの存在分布範囲内にパーティクルを散布する。
投影画像作成部20は、パーティクル散布部18によって散布されたパーティクルのそれぞれについて投影画像を作成する。例えば、三次元地図データベース3に記憶されたエッジ等の三次元位置情報を、各パーティクルの位置及び姿勢角からカメラ2で撮像した画像となるように投影変換して投影画像を作成する。
評価点設定部22は、投影画像とエッジ画像とを比較するための評価点を投影画像上に設定する。
尤度算出部24は、投影画像とエッジ画像とを比較して、エッジ画像上のエッジと一致する投影画像上の評価点を対象評価点とし、この対象評価点に対して所定の評価値を設定して、この評価値に基づいて尤度を算出する。ここで、尤度とは、各パーティクルの位置及び姿勢角が、どれぐらい実際の車両の位置及び姿勢角に対して尤もらしいかを示す指標であり、投影画像とエッジ画像との一致度が高いほど、尤度が高くなるように設定されている。
評価値補正部25は、尤度算出部24によって設定された評価値を補正する。具体的に説明すると、評価値補正部25は、投影画像上に設定されたエッジの中から異なる方向を向いて交差するエッジのペアを抽出し、車両の進行方向に第1方向の軸を設定し、車両の進行方向と直交する車両の横方向に第2方向の軸を設定する。そして、投影画像上のすべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較して、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価値が増大するように評価値を補正する。特に、本実施形態では、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価点の数を増加させることで、評価値が増大するように補正する。
位置姿勢角推定部26は、尤度算出部24によって算出された尤度に基づいて車両の位置及び姿勢角を推定する。例えば、尤度が最も高いパーティクルの位置及び姿勢角を、車両の実際の位置及び姿勢角の推定結果として算出する。
尚、本実施形態では車両の6自由度の位置(前後方向,車幅方向,上下方向)及び姿勢角(ロール,ピッチ,ヨー)を求めている。しかし、例えばサスペンション等を備えていない工場等で使用される無人搬送車のように3自由度の位置(前後方向,横方向)及び姿勢角(ヨー)を推定する場合でも本技術を適用することは可能である。具体的に、このような車両では、上下方向の位置と姿勢角のロール及びピッチは固定となるので、予めこれらのパラメータを計測しておいて利用すればよい。
[移動体の位置姿勢角推定処理の手順]
次に、本実施形態に係る移動体の位置姿勢角推定処理の手順を図2のフローチャートを参照して説明する。尚、本実施形態では、車両の位置情報として進行方向、横方向(車幅方向)、上下方向、姿勢角情報としてロール、ピッチ、ヨーの合計6自由度の位置と姿勢角を推定する。ただし、ロールは車両の進行方向を軸とした回転方向であり、ピッチは車両の横方向を軸とした回転方向であり、ヨーは車両の上下方向を軸とした回転方向である。
また、以下で説明する移動体の位置姿勢角推定処理は、例えば100msec程度の間隔で連続的に行われる。
図2に示すように、まずステップS110において、エッジ画像算出部12は、カメラ2の画像からエッジ画像を算出する。本実施形態におけるエッジとは、画素の輝度が鋭敏に変化している箇所を指している。エッジの検出方法としては、例えばCanny法を用いることができる。この他にも微分エッジ検出など様々な手法を使用してもよい。
また、エッジ画像算出部12は、カメラ2の画像からエッジの輝度変化の方向やエッジ近辺のカラーなどについても抽出することが望ましい。これにより、後述するステップS160及びステップS170において、三次元地図データベース3に記録されているこれらエッジ以外の情報についても利用して尤度を設定し、自車両の位置及び姿勢角を算出することが可能になる。
次に、ステップS120において、オドメトリ算出部14は、車両センサ群4から得られるセンサ値に基づいて、1ループ前のステップS120で算出した時点から現在までの車両の移動量であるオドメトリを算出する。なお、プログラムを開始して最初のループの場合には、オドメトリをゼロとして算出する。
オドメトリ算出部14は、オドメトリの算出方法として、車両運動を平面上に限定した上で、左右輪の車輪速センサ47のエンコーダ値の差からヨー角方向の旋回量(旋回角)を算出する。そして、進行方向と横方向の移動量は、各車輪の車輪速センサ47のエンコーダ値から平均の移動量を求め、この移動量に対してヨー角方向の旋回角の余弦と正弦を取ることで求めることができる。また、各車輪の車輪速とヨーレートから単位時間での移動量と回転量を算出してもよい。さらに、車輪速を車速やGPS受信機41の測位値の差分で代用してもよく、ヨーレートを操舵角で代用してもよい。なお、オドメトリの算出方法は、様々な算出手法が考えられるが、オドメトリを算出できればどの手法を用いてもよい。
特に、横方向やヨー角方向の移動量をより正確に算出するために、例えば車速約10km/h以下の極低速ではアッカーマンステアリングジオメトリ(自動車の運動と制御 第3章、安部正人著、山海堂発行)に従ってオドメトリを求めてもよい。また、それ以上の車速ではタイヤの横滑り角を考慮できる線形2輪モデルの運動方程式(自動車の運動と制御 第3章3.2.1節P.56(3.12)及び(3.13)式、安部正人著、山海堂発行)を用いて算出するとなお良い。ただし、線形2輪モデルの運動方程式を用いる場合には予め各車輪のタイヤパラメータ(コーナーリングパラメータ)を測定しておく必要がある。
次に、ステップS130において、パーティクル存在分布範囲設定部16は、1ループ前のステップS170で推定した各パーティクルの位置及び姿勢角を、今回のステップS120で算出したオドメトリの分だけ移動させる。ただし、プログラムを開始して初めてのループの場合には、前回の車両位置情報がないので、車両センサ群4に含まれるGPS受信機41からのデータを初期位置情報とする。また、前回の停車時に最後に算出した車両位置及び姿勢角を記憶しておき、初期位置及び姿勢角情報としてもよい。
そして、オドメトリの分だけ移動させた車両の位置と姿勢角の近傍に車両の動特性や走行状態を考慮してパーティクルの存在分布範囲を設定する。
尚、パーティクル存在分布範囲設定部16は、車両センサ群4の測定誤差や通信遅れによって生じるオドメトリの誤差や車両の動特性を考慮に入れて、車両の位置及び姿勢角の真値が取り得る可能性のある複数の予測位置と姿勢角の候補を生成する。この予測位置及び姿勢角の候補は、位置及び姿勢角の6自由度のパラメータに対してそれぞれ誤差の上下限を設定し、この誤差の上下限の範囲内で乱数表等を用いてランダムに設定する。本実施形態では、この予測位置及び姿勢角の候補を500個作成している。そして、予測位置及び姿勢角の6自由度のパラメータについて誤差の上下限を、順に±0.05[m],±0.05[m],±0.05[m],±0.5[deg] ,±0.5[deg],±0.5[deg]とする。
この予測位置及び姿勢角の候補を作成する数や、位置及び姿勢角の6自由度のパラメータについての誤差の上下限は、車両の運転状態や路面の状況を検出或いは推定して、適宜変更する。例えば、急旋回やスリップなどが発生している場合には、平面方向(進行方向、横方向、ヨー)の誤差が大きくなる可能性が高いので、これら3つのパラメータの誤差の上下限を大きくし、且つ予測位置の作成数を増やすようにする。
次に、ステップS140において、パーティクル散布部18は、ステップS130で設定された存在分布範囲内にパーティクルを散布する。散布方法としては、パーティクルの位置及び姿勢角を規定する6自由度のパラメータに対して、それぞれステップS130で設定された範囲(上下限)の中で、乱数表等を用いてランダムに設定する。また、本実施形態では、パーティクルを常に500個作成する。
尚、特開2010−224755号公報で開示された技術を用いてパーティクルを散布してもよい。この場合には、ステップS130でオドメトリの分だけ移動させた車両の位置と姿勢角が、ステップS170で算出した位置と姿勢角によってどれだけ補正されたかを算出し、この補正量に応じてパーティクルを散布する平均と分布を設定して散布すればよい。このとき、パーティクルを散布する範囲はステップS130で設定された存在分布範囲とする。また、存在分布範囲についても特開2010−224755号公報で開示された技術を用いて求め、ステップS130で設定された存在分布範囲とのORをとってもよい。さらに、パーティクルを散布する数についても、特開2010−224755号公報に開示された技術を用いてステップS130で設定された存在分布範囲に応じて動的に決定してもよい。
次に、ステップS150において、投影画像作成部20は、ステップS140で散布された複数のパーティクルについてそれぞれ投影画像(仮想画像)を作成する。このとき、評価点設定部22は、例えば三次元地図データベース3に記憶されたエッジ等の三次元位置情報を、それぞれの予測位置及び姿勢角候補でのカメラ画像に投影変換して評価点を設定する。これにより、評価用の投影画像が作成される。この投影画像に投影された評価点群は、後述するステップS160において、ステップS110で算出したエッジ画像上のエッジと比較される。
尚、自車両周囲のエッジ情報の抽出方法は、三次元地図データベース3に記録された各エッジとカメラ2までの距離D(単位:m)を算出し、この距離が閾値Dth(m)以下のエッジ情報のみを抽出する。この距離の算出方法としては、厳密には各エッジの中央点とカメラ2の位置とで求めることが望ましいが、エッジの端点と車両位置で代替して計算コストを抑えてもよい。また、マッチングを行なうのはカメラ2の撮像範囲だけなので、カメラ2で撮像できる範囲のエッジのみを抽出してもよい。ただし、このとき用いる車両位置及び姿勢角は、ステップS130で求めた位置や姿勢角を用いる。すなわち、1ループ前のステップS170で推定した車両位置からステップS120で算出したオドメトリ分だけ移動させた位置や姿勢角を用いる。
また、投影変換では、カメラ2の位置を示す外部パラメータと、カメラ2の内部パラメータとが必要となる。外部パラメータは、車両からカメラ2までの相対位置を予め計測しておくことによって、予測位置及び姿勢角候補から算出すればよい。また内部パラメータは、予めキャリブレーションをしておけばよい。
尚、ステップS110においてカメラ画像からエッジの輝度変化の方向やエッジ近辺のカラー等について抽出している場合には、それらを用いて投影画像を作成することが望ましい。
次に、ステップS160において、尤度算出部24は、ステップS140で散布した複数のパーティクルのそれぞれについて、ステップS110で算出したエッジ画像と、ステップS150で作成した投影画像とを比較する。そして、比較した結果に基づいて、予測位置及び姿勢角候補であるパーティクルごとに尤度を算出する。この尤度とは、それぞれの予測位置及び姿勢角候補が、どれぐらい実際の車両の位置及び姿勢角に対して尤もらしいかを示す指標であり、投影画像とエッジ画像との一致度が高いほど、尤度が高くなるように設定されている。この尤度の求め方の一例を以下で説明する。
まず、投影画像上において評価点を特定し、この評価点にエッジ画像上のエッジが存在するか否かを判定する。そして、エッジの有無が一致する場合には評価点を対象評価点とし、この対象評価点に対して評価値1を設定する。一方、エッジの有無が一致しない場合には評価値として0を設定する。次に、設定された評価値を、評価値補正部25によって補正し、このような処理を全評価点に対して行い、補正された評価値の総和である一致評価点の数を求める。そして、全ての予測位置及び姿勢角候補である各パーティクルについて一致評価点の数を算出したら、それぞれの合計値が1になるように正規化して尤度を算出する。尚、尤度の算出方法は、他にも多くの算出方法が考えられるので、それらの方法を用いてもよい。
ここで、評価値補正部25による評価値の補正方法について説明する。評価値補正部25は、投影画像上に設定されたエッジの中から異なる方向を向いて交差するエッジのペアを抽出し、車両の進行方向に第1方向の軸を設定し、車両の進行方向と直交する車両の横方向に第2方向の軸を設定する。そして、投影画像上のすべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較して、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価値が増大するように補正する。特に、本実施形態では、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価点の数を増加させることで、評価値が増大するように補正する。
ただし、以下に示す一例では、第1方向成分の長さの総和が小さい場合に第1方向を向いたエッジ上の評価値が増大するように補正し、特に第1方向を向いたエッジ上の評価点の数を増加させることで、評価値が増大するように補正する。
ここで、図3を参照して、評価値補正部25による評価値の補正方法を具体的に説明する。図3に示すように、自車両31が道路上を走行し、カメラ2の撮像範囲W内にエッジE1〜E5が存在している場合について説明する。
評価値補正部25は、投影画像の撮像範囲W内に設定されたエッジの中から異なる方向を向いて交差するエッジのペアを抽出する。例えば、E1とE3やE2とE4等がエッジのペアとして抽出される。ここで、エッジのペアを構成する2つのエッジは平行ではなく1次独立であればよい。したがって、道路左端の白線によるエッジと道路右端の白線によるエッジがエッジのペアを構成することはない。
そして、図3では、車両の進行方向であるX軸方向に第1方向の軸を設定し、車両の横方向(車幅方向)であるY軸方向に第2方向の軸を設定する。ただし、地面と平行な南北方向を第1方向の軸とし、地面と平行な東西方向を第2方向の軸としてもよく、その他の方向であってもよい。
そして、投影画像内のすべてのエッジの第1方向成分の長さの総和Xa(単位:m)と第2方向成分の長さの総和Ya(単位:m)とを求める。図3では、エッジ画像内のエッジはE1〜E5となるので、
Xa=X1+X2
Ya=Y1+Y2+Y3
となる。
そして、評価値補正部25は、i番目のエッジEiの評価点の数Ni(小数点以下切り上げ)を、以下の式(1)に基づいて設定する。
Ni=max[{Xi÷(Xa÷Na)},{Yi÷(Ya÷Na)},2]
=max[{(Xi・Na)/Xa},{(Yi・Na)/Ya},2] (1)
ここで、式(1)において、Naは各方向の評価点の総数であり、本実施形態では目安として1000個とする。また、Xiはi番目のエッジEiのX軸方向の長さ成分(単位:m)であり、Yiはi番目のエッジEiのY軸方向の長さ成分(単位:m)である。尚、評価点の数Niを2以上としているのは、エッジの端点には必ず評価点を設定するためである。
具体的に、式(1)を用いて図3のエッジE1について評価点の数N1を計算すると、Xi=X1、Yi=0となるので、N1は
N1=max[{(X1・Na)/Xa},{(0・Na)/Ya},2]
=(X1・Na)/Xa
となる。ただし、(X1・Na)/Xa<2の場合には、N1=2となる。
このように、第1方向成分の長さの総和Xaと第2方向成分の長さの総和Yaのうち、Xa、Yaの値が小さいほうが(Xi・Na)/Xa、(Yi・Na)/Yaの値が大きくなる。したがって、評価点の数Niは、第1方向成分の長さの総和Xaと第2方向成分の長さの総和Yaとを比較して、長さの総和Xa、Yaの小さいほうの値に基づいて設定されることになる。
その結果、長さの総和が小さい方向に多くの評価点が設定され、長さの総和が大きい方向に少ない評価点が設定されるので、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価点の数を増加させることができる。これにより、長さの総和が小さい方向を向いたエッジ上の評価値が増大するように補正することができる。
図3の例では、第1方向成分の長さの総和が小さいので、第1方向を向いたエッジ上の評価値が増大するように補正するために、特に第1方向を向いたエッジ上の評価点の数を増加させる。尚、長さの総和が小さい方向の評価点の数を増加させるのではなく、長さの総和が大きい方向の評価点の数を減少させてもよい。
このように評価点の数を設定することによって、X軸方向のエッジとY軸方向のエッジには長さにかかわらず評価点の数を同等に配置することができる。
ただし、上述した式(1)を用いなくても、例えばXaがYaよりも小さい場合には、XiがYiよりも長いエッジEiの評価点の数を1つだけ増やす、または所定数だけ増やすという簡便な方法で評価点の数を増加させてもよい。
そして、式(1)で算出した評価点の数Niで長さli(単位:m)のエッジEi上に評価点を設定する場合には、以下に示す式(2)で間隔Spi(単位:m)を求め、その間隔SpiでエッジEi上に評価点を配置する。
Spi=li÷(Ni−1) (2)
こうして評価値補正部25は、エッジEi上に評価点を設定することができる。
また、地面と平行な方向だけでなく、車両の鉛直方向にもう一つの軸(Z軸)を設定し、X軸、Y軸、Z軸方向で評価点の数が均一になるように設定してもよい。この場合、式(1)を式(3)に示すように置き換えて評価点の数を求めればよい。
Ni=max[{Xi÷(Xa÷Na)},{Yi÷(Ya÷Na)},{Zi÷(Za÷Na)},2] (3)
ただし、Zaは投影画像内のすべてのエッジのZ軸方向成分の長さの総和(単位:m)、Ziはi番目のエッジEiのZ軸方向の長さ成分(単位:m)である。
尚、上述の実施形態では、第1方向がX軸、第2方向がY軸の場合について説明したが、第1方向と第2方向がそれぞれY軸とZ軸でもよいし、X軸とZ軸でもよい。
また、評価点の密度が投影画像の解像度を上回るような場合には、解像度を上回った評価点を間引くようにしてもよい。
さらに、自車両(カメラ2)に近いエッジほど画面上では大きく写るので、式(1)、あるいは式(3)で求めた評価点の数を、自車両の近傍のエッジについては増加させ、遠方のエッジについては減少させるようにしてもよい。例えば、10m先のエッジについては評価点の数をその逆数である1/10にし、その増減の倍率を縦軸にとり、距離を横軸にとったマップを参照して演算するようにしてもよい。
次に、図4、5を参照して、本実施形態に係る移動体位置姿勢角推定装置10による効果を説明する。
図4は、屋外駐車場において、自車両の横方向に白線のエッジが多数あり、自車両の進行方向にはエッジがほとんど存在しない場合の一例を示している。この場合に、白線上のエッジに均等な間隔で評価点を設定し、自車両の位置と姿勢角を適当に変化させながら、その都度、投影画像とエッジ画像とをマッチングさせて位置と姿勢角を推定する。
このとき、マッチングした評価点を黒丸、マッチングしなかった評価点を白丸で示すと、図4(a)に示すように、位置と姿勢角が真値に近い状態で投影画像とエッジ画像が重畳した場合には、全ての評価点でマッチングしていることが分かる。
これに対し、自車両の位置が真値から前方向、または右方向に同じ距離だけずれた状態ではそれぞれ図4(b)と図4(c)に示すように変化する。すなわち、同じ距離だけずれているにもかかわらず、前方向にずれた図4(b)では全ての評価点でマッチングしていない。これに対し、右方向にずれた図4(c)ではほとんどの評価点でマッチングしている。
これは、エッジが横方向に極端に多く存在し、進行方向にはほとんど存在していないためである。したがって、エッジの長さに対して均等に評価点を設定していると、図4に示すようなエッジが偏って存在している状況では、自車両の位置と姿勢角を正確に推定することはできない。特に、図4では、横方向に誤差があっても検出しにくいので、横方向の位置を正確に検出することは困難であった。
そこで、本実施形態では、評価値補正部25が、すべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較して、長さの総和が小さい方向の評価点の数を増加させることで、評価値が増大するように補正する。例えば、図4に示すように、車両の進行方向成分の長さの総和が小さい場合には、車両の進行方向の評価点の数を増加させるように補正する。
具体的に説明すると、図5(a)の拡大図に示すように、車両の進行方向にはエッジの端点のみに評価点が存在しているが、本実施形態では図5(b)に示すように車両の進行方向を向いたエッジに対して評価点を2つ増加させている。
これにより、エッジが一定の方向に偏って存在している場合でも評価点の数を調整して移動体の位置と姿勢角を正確に推定することが可能となる。また、評価点の偏重を軽減できるので、車両の横方向の位置の変化に対するマッチングの感度が、車両の進行方向の感度に近づくことになり、マッチングの精度や安定性を向上させることができる。
次に、ステップS170において、位置姿勢角推定部26は、ステップS160で算出した尤度情報を有する複数の予測位置及び姿勢角候補を用いて、最終的な車両の位置及び姿勢角を算出する。例えば、位置姿勢角推定部26は、尤度が最も高い予測位置及び姿勢角候補を、車両の実際の位置及び姿勢角として算出する。また、各予測位置及び姿勢角候補の尤度を用いて、予測位置及び姿勢角の重み付き平均を求め、その値を最終的な車両の位置及び姿勢角としてもよい。こうして車両の位置と姿勢角の推定結果が算出されると、本実施形態に係る移動体の位置姿勢角推定処理を終了する。
[第1実施形態の効果]
以上詳細に説明したように、本実施形態に係る移動体位置姿勢角推定装置では、投影画像上のすべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較する。そして、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価値が増大するように評価値を補正する。これにより、エッジの配置を考慮して評価値を補正できるので、エッジが偏って存在している場合でも移動体の位置と姿勢角を正確に推定することができる。
また、本実施形態に係る移動体位置姿勢角推定装置では、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価点の数を増加させることで、評価値が増大するように評価値を補正する。これにより、長さの総和が大きい方向の評価点の数と小さい方向の評価点の数を均等にできるので、エッジが偏って存在している場合でも移動体の位置と姿勢角を正確に推定することができる。
[第2実施形態]
次に、本発明の第2実施形態に係る移動体位置姿勢角推定装置について図面を参照して説明する。
[移動体位置姿勢角推定システムの構成]
本実施形態に係る移動体位置姿勢角推定装置を搭載した移動体位置姿勢角推定システムの構成は、図1に示した第1実施形態と同一なので、同一の番号を付して詳細な説明は省略する。
ただし、本実施形態では、評価値補正部25の機能が第1実施形態と相違している。本実施形態の評価値補正部25は、異なる方向を向いて交差するエッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価点に対して加算点を設定することで、評価値が増大するように評価値を補正する。そして、この加算点は、エッジの長さの総和の逆数に基づいて設定する。
[移動体の位置姿勢角推定処理の手順]
本実施形態に係る移動体の位置姿勢角推定処理は、図2のステップS160で実行される評価値の補正方法が、第1実施形態と相違している。第1実施形態では、評価値補正部25が評価点の数を増加させていたが、本実施形態では、長さの総和が小さい方向を向いたエッジ上の評価点に対して加算点を設定する。
図2のステップS150において、評価点設定部22は、まず投影画像のエッジ上に評価点を設定する。このとき、本実施形態では評価点の数をエッジの長さに応じて均等に設定する場合について説明するが、上述した第1実施形態で説明したように、エッジの長さの総和が小さい方向の評価点の数を増加させるように設定してもよい。
そして、評価点を設定したら、ステップS160において、尤度算出部24が、投影画像とエッジ画像とを比較して、エッジ画像上のエッジと一致する投影画像上の評価点に対して評価値を設定する。例えば、エッジの有無が一致する場合には1を設定し、一致しない場合には0を設定する。
ここで、設定された評価値を、評価値補正部25が補正する。具体的に説明すると、評価値補正部25は、投影画像上のすべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較して、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価点に対して加算点を設定する。
ただし、以下に示す一例では、第1方向成分の長さの総和が小さい場合に第1方向を向いたエッジ上の評価値が増大するように補正し、特に第1方向を向いたエッジ上の評価点に対して加算点を設定することで、評価値が増大するように補正する。
この加算点の設定方法を、第1実施形態の図3を例にして説明すると、評価値補正部25は、以下に示す式(4)に基づいて尤度の加算点Δiを設定する。
Δi=max[(Xi÷Xa),(Yi÷Ya)] (4)
ただし、Xaは投影画像内のすべてのエッジの第1方向成分の長さの総和(単位:m)であり、Yaは第2方向成分の長さの総和(単位:m)である。また、Xiはi番目のエッジEiのX軸方向の長さ成分(単位:m)であり、Yiはi番目のエッジEiのY軸方向の長さ成分(単位:m)である。
このように、第1方向成分の長さの総和Xaと第2方向成分の長さの総和Yaの逆数に応じて加算点が設定されるので、加算点Δiは長さの総和Xa、Yaの小さいほうの値に基づいて設定される。その結果、長さの総和が小さい方向の加算点が大きくなるので、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価値を増大させることができる。
図3の例では、第1方向成分の長さの総和が小さいので、第1方向を向いたエッジ上の評価値が増大するように補正するために、特に第1方向を向いたエッジ上の評価点に対して加算点を設定する。
ただし、上述した式(4)を用いなくても、例えばXaがYaよりも小さい場合には、XiがYiよりも長いエッジEi上の評価点における加算点を2倍にするという簡便な方法で評価値を補正してもよい。
こうして加算点Δiが設定されると、尤度算出部24は、各評価点に対して加算点Δiを加算して尤度を算出する。
また、地面と平行な方向だけでなく、車両の鉛直方向にもう一つの軸(Z軸)を設定してもよい。この場合、式(4)を式(5)に示すように置き換えて加算点Δiを求めればよい。
Δi=max[(Xi÷Xa),(Yi÷Ya),(Zi÷Za)] (5)
ただし、Zaは投影画像内のすべてのエッジのZ軸方向成分の長さの総和(単位:m)、Ziはi番目のエッジEiのZ軸方向の長さ成分(単位:m)である。
ここで、上述した加算点の設定方法について図6を参照して説明する。第1実施形態の図4で説明したように、エッジが車両の横方向に極端に多く存在し、車両の進行方向にほとんど存在していない場合には、エッジの長さに対して均等に評価点を設定すると、自車両の位置と姿勢角を正確に推定することができない。
そこで、本実施形態では、評価値補正部25が、長さの総和が小さい方向を向いたエッジ上の評価値が増大するように加算点を設定する。
例えば、図6の拡大図に示すように、車両の進行方向を向いたエッジには、その端点に評価点P1、P2が存在しているだけなので、これらの評価点P1、P2に対して本実施形態では上述した式(4)に基づいて加算点Δiを設定する。そして、尤度算出部24は、尤度を算出する際に加算点Δiを加算して尤度を算出する。
こうすることにより、長さの総和が小さい方向を向いたエッジ上の評価点において、尤度が大きく算出されることになる。したがって、エッジが一方向に偏って存在している場合でも正確に移動体の位置と姿勢角を推定することができる。
[第2実施形態の効果]
以上詳細に説明したように、本実施形態に係る移動体位置姿勢角推定装置では、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価点に対して加算点を設定することで、評価値が増大するように補正する。これにより、長さの総和が小さい方向を向いたエッジ上の評価点の尤度が大きくなるので、エッジが偏って存在している場合でも移動体の位置と姿勢角を正確に推定することができる。
また、本実施形態に係る移動体位置姿勢角推定装置では、エッジの長さの総和の逆数に基づいて加算点を設定するので、長さの総和が小さい方向を向いたエッジ上にある評価点の尤度を大きくできる。これにより、エッジが偏って存在している場合でも移動体の位置と姿勢角を正確に推定することができる。
なお、上述の実施形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施形態以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは勿論である。
1 ECU
2 カメラ
3 三次元地図データベース
4 車両センサ群
10 移動体位置姿勢角推定装置
12 エッジ画像算出部
14 オドメトリ算出部
16 パーティクル存在分布範囲設定部
18 パーティクル散布部
20 投影画像作成部
22 評価点設定部
24 尤度算出部
25 評価値補正部
26 位置姿勢角推定部
41 GPS受信機
42 アクセルセンサ
43 ステアリングセンサ
44 ブレーキセンサ
45 車速センサ
46 加速度センサ
47 車輪速センサ
48 その他センサ

Claims (5)

  1. 移動体の周囲環境を撮像した画像からエッジ画像を算出し、パーティクルフィルタを用いて散布されたパーティクルのそれぞれについて投影画像を作成し、前記投影画像と前記エッジ画像とを比較して尤度を算出することによって前記移動体の位置及び姿勢角を推定する移動体位置姿勢角推定装置であって、
    前記投影画像を作成する際に前記投影画像上に評価点を設定する評価点設定部と、
    前記投影画像と前記エッジ画像とを比較して、前記エッジ画像上のエッジと一致する前記投影画像上の評価点を対象評価点とし、前記対象評価点に対して所定の評価値を設定して前記評価値に基づいて尤度を算出する尤度算出部と、
    前記尤度算出部によって設定された評価値を補正する評価値補正部とを備え、
    前記評価値補正部は、前記投影画像上に設定されたエッジの中から異なる方向を向いて交差するエッジのペアを抽出し、前記移動体の進行方向に第1方向の軸を設定し、前記移動体の進行方向と直交する前記移動体の横方向に第2方向の軸を設定し、前記投影画像上のすべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較して、前記第1方向成分の長さの総和が小さい場合に前記第1方向を向いたエッジ上の評価値が増大するように前記評価値を補正することを特徴とする移動体位置姿勢角推定装置。
  2. 前記評価値補正部は、前記第1方向を向いたエッジ上の評価点の数を増加させることで、前記評価値が増大するように補正することを特徴とする請求項1に記載の移動体位置姿勢角推定装置。
  3. 前記評価値補正部は、前記第1方向を向いたエッジ上の評価点に対して加算点を設定することで、前記評価値が増大するように補正することを特徴とする請求項1または2に記載の移動体位置姿勢角推定装置。
  4. 前記加算点は、エッジの長さの総和の逆数に基づいて設定されることを特徴とする請求項3に記載の移動体位置姿勢角推定装置。
  5. 移動体の周囲環境を撮像した画像からエッジ画像を算出し、パーティクルフィルタを用いて散布されたパーティクルのそれぞれについて投影画像を作成し、前記投影画像と前記エッジ画像とを比較して尤度を算出することによって前記移動体の位置及び姿勢角を推定する移動体位置姿勢角推定装置の移動体位置姿勢角推定方法であって、
    前記投影画像を作成する際に前記投影画像上に評価点を設定し、
    前記投影画像と前記エッジ画像とを比較して、前記エッジ画像上のエッジと一致する前記投影画像上の評価点を対象評価点とし、前記対象評価点に対して所定の評価値を設定して補正し、
    前記評価値を補正するときには、前記投影画像上に設定されたエッジの中から異なる方向を向いて交差するエッジのペアを抽出し、前記移動体の進行方向に第1方向の軸を設定し、前記移動体の進行方向と直交する前記移動体の横方向に第2方向の軸を設定し、前記投影画像上のすべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較して、前記第1方向成分の長さの総和が小さい場合に前記第1方向を向いたエッジ上の評価値が増大するように前記評価値を補正することを特徴とする移動体位置姿勢角推定方法。
JP2013224054A 2013-10-29 2013-10-29 移動体位置姿勢角推定装置及び移動体位置姿勢角推定方法 Expired - Fee Related JP6171849B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013224054A JP6171849B2 (ja) 2013-10-29 2013-10-29 移動体位置姿勢角推定装置及び移動体位置姿勢角推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013224054A JP6171849B2 (ja) 2013-10-29 2013-10-29 移動体位置姿勢角推定装置及び移動体位置姿勢角推定方法

Publications (2)

Publication Number Publication Date
JP2015087149A true JP2015087149A (ja) 2015-05-07
JP6171849B2 JP6171849B2 (ja) 2017-08-02

Family

ID=53050099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013224054A Expired - Fee Related JP6171849B2 (ja) 2013-10-29 2013-10-29 移動体位置姿勢角推定装置及び移動体位置姿勢角推定方法

Country Status (1)

Country Link
JP (1) JP6171849B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6272572B1 (ja) * 2017-02-03 2018-01-31 三菱電機株式会社 表示制御装置および表示制御方法
KR101854554B1 (ko) 2015-09-29 2018-05-03 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 건축물 높이 산출 방법, 장치 및 저장 매체
JP2018096935A (ja) * 2016-12-16 2018-06-21 パナソニックIpマネジメント株式会社 自車位置推定装置、プログラム、記録媒体、および自車位置推定方法
JP2018206038A (ja) * 2017-06-02 2018-12-27 株式会社Ihi 点群データ処理装置、移動ロボット、移動ロボットシステム、および点群データ処理方法
CN110660100A (zh) * 2018-06-29 2020-01-07 国立大学法人名古屋大学 观测位置推荐装置及其推荐方法以及计算机可读介质
US11308346B2 (en) 2018-02-02 2022-04-19 Nec Corporation Sensor information integration system, sensor information integration method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011994A (ja) * 2005-07-04 2007-01-18 Toyota Motor Corp 道路認識装置
EP2348280A2 (en) * 2010-01-20 2011-07-27 Honeywell International Inc. Systems and methods for monocular airborne object detection
JP2013148356A (ja) * 2012-01-17 2013-08-01 Nissan Motor Co Ltd 車両位置算出装置
JP2013148355A (ja) * 2012-01-17 2013-08-01 Nissan Motor Co Ltd 車両位置算出装置
JP2013148354A (ja) * 2012-01-17 2013-08-01 Nissan Motor Co Ltd 車両位置算出装置
JP2013186551A (ja) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd 移動物体位置姿勢推定装置及び方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011994A (ja) * 2005-07-04 2007-01-18 Toyota Motor Corp 道路認識装置
EP2348280A2 (en) * 2010-01-20 2011-07-27 Honeywell International Inc. Systems and methods for monocular airborne object detection
JP2013148356A (ja) * 2012-01-17 2013-08-01 Nissan Motor Co Ltd 車両位置算出装置
JP2013148355A (ja) * 2012-01-17 2013-08-01 Nissan Motor Co Ltd 車両位置算出装置
JP2013148354A (ja) * 2012-01-17 2013-08-01 Nissan Motor Co Ltd 車両位置算出装置
JP2013186551A (ja) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd 移動物体位置姿勢推定装置及び方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101854554B1 (ko) 2015-09-29 2018-05-03 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 건축물 높이 산출 방법, 장치 및 저장 매체
JP2018096935A (ja) * 2016-12-16 2018-06-21 パナソニックIpマネジメント株式会社 自車位置推定装置、プログラム、記録媒体、および自車位置推定方法
JP7001985B2 (ja) 2016-12-16 2022-01-20 パナソニックIpマネジメント株式会社 自車位置推定装置、プログラム、記録媒体、および自車位置推定方法
JP6272572B1 (ja) * 2017-02-03 2018-01-31 三菱電機株式会社 表示制御装置および表示制御方法
WO2018142580A1 (ja) * 2017-02-03 2018-08-09 三菱電機株式会社 表示制御装置および表示制御方法
JP2018206038A (ja) * 2017-06-02 2018-12-27 株式会社Ihi 点群データ処理装置、移動ロボット、移動ロボットシステム、および点群データ処理方法
JP7032062B2 (ja) 2017-06-02 2022-03-08 株式会社Ihi 点群データ処理装置、移動ロボット、移動ロボットシステム、および点群データ処理方法
US11308346B2 (en) 2018-02-02 2022-04-19 Nec Corporation Sensor information integration system, sensor information integration method, and program
CN110660100A (zh) * 2018-06-29 2020-01-07 国立大学法人名古屋大学 观测位置推荐装置及其推荐方法以及计算机可读介质
CN110660100B (zh) * 2018-06-29 2023-04-14 国立大学法人名古屋大学 观测位置推荐装置及其推荐方法以及计算机可读介质

Also Published As

Publication number Publication date
JP6171849B2 (ja) 2017-08-02

Similar Documents

Publication Publication Date Title
JP6171849B2 (ja) 移動体位置姿勢角推定装置及び移動体位置姿勢角推定方法
JP6020729B2 (ja) 車両位置姿勢角推定装置及び車両位置姿勢角推定方法
KR101880013B1 (ko) 자기 위치 추정 장치 및 자기 위치 추정 방법
JP5867176B2 (ja) 移動物体位置姿勢推定装置及び方法
US9912933B2 (en) Road surface detection device and road surface detection system
JP5962771B2 (ja) 移動物体位置姿勢角推定装置及び移動物体位置姿勢角推定方法
RU2678960C1 (ru) Устройство оценки положения транспортного средства, способ оценки положения транспортного средства
US9797981B2 (en) Moving-object position/attitude estimation apparatus and moving-object position/attitude estimation method
CN109923028B (zh) 中立点检测装置以及转向操纵控制系统
CN110307791B (zh) 基于三维车辆边界框的车辆长度及速度计算方法
CN110415298B (zh) 一种用于车道偏离的计算方法
JP6936098B2 (ja) 対象物推定装置
WO2019031137A1 (ja) 路側物検出装置、路側物検出方法及び路側物検出システム
JP2007034989A (ja) 撮像装置のずれ検出方法、撮像装置のずれ補正方法及び撮像装置
JP6115429B2 (ja) 自車位置認識装置
JP6044084B2 (ja) 移動物体位置姿勢推定装置及び方法
JP5561469B2 (ja) ヨーレート補正装置、及びその方法
JP6690510B2 (ja) 物体認識装置
JP2015067030A (ja) 運転支援装置
JP7225079B2 (ja) 障害物認識装置
Gao et al. A 3D curve lane detection and tracking system based on stereovision
CN114730470A (zh) 确定拖车定向
JP2014186646A (ja) 車両用白線認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170619

R151 Written notification of patent or utility model registration

Ref document number: 6171849

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees